◆ 舞台設定:善意が評価される未来都市
あなたが暮らすのは、AIが人々の行動と幸福を管理する未来都市。
この街では、誰かを助けると「善意ポイント」が貯まり、住居や食料の優遇を受けることができます。
一見すると理想的な社会。
しかし今、ひとつの問題が浮上しています。
◆ 現実に起きている“善意の歪み”
最近、この街では次のような行動が急増しています:
- 困っているふりをして助けさせる協力プレイ
- 過剰に善行を繰り返して評価を稼ぐ善意の投機行動
- 誰も助けないことで、他人の動機を試す市民による静かな反抗
「助けること」に価値がある社会で、人々は本当に“善人”でいられるのか?
AIはこれを「善意のインフレ」と判断し、対策として2つのアルゴリズム案をあなたに提示します。
◆ 選択肢A:純度評価アルゴリズム
AIが人間の“動機”を分析し、打算的な善意にはポイントを与えない仕組み。
メリット:
- 「偽善」が減り、誠実な善行が報われる可能性がある
- 善意の“質”を守る方向に働く
デメリット:
- 動機を正確に判断するのは困難で、誤認される善人が現れる
- 善意が「疑われるもの」になり、助け合いが萎縮する恐れもある
◆ 選択肢B:結果評価アルゴリズム
動機は問わず、結果として誰かが救われればポイントを与える仕組み。
メリット:
- 困っている人が確実に救済される
- 善行をする人の“意図”を監視しないため、自由度が高い
デメリット:
- 善意が“打算的行動”に変質し、偽善の温床になりうる
- 「人を助けること」が、ゲームのスコア稼ぎになるリスクがある
◆ 問い:善意とは、動機か、結果か?
この思考実験が問うのは、「何をもって善意と呼ぶか?」という根本的なテーマです。
- 誰かを助ける行動は、心からでなければ価値がないのか?
- それとも、助けられた人が存在すれば、それで充分なのか?
- 善意を「評価する」こと自体が、そもそも善意を壊してしまうのではないか?
善意が報酬対象になったとき、その性質はどう変わるのか。
あなたは、どちらの未来を選びますか?
◆ この実験が映し出すもの
この未来都市のジレンマは、私たちの日常にも通じています。
- SNSで「いいね」のためにボランティアを投稿する人
- 善行をアピールすることで、信頼や優位性を得ようとする行動
- 「人を助けたい」のか「助けたと評価されたい」のか、区別が曖昧になる瞬間
“善意とは何か”が見えなくなりつつある現代社会。
その延長線上にあるのが、この思考実験です。
◆ あなたならどうする?
善意の動機をAIが評価すべきか?
それとも、結果だけで十分か?
この問いに正解はありません。
あるのは、どんな社会を築きたいかという、あなた自身の価値観です。
そして今、この未来都市のAIは、あなたの選択を待っています。