人工知能:ChatGPTのステートメントはユーザーの道徳的判断に影響を与え得る
Scientific Reports
2023年4月7日
Artificial intelligence: ChatGPT statements can influence users’ moral judgements
道徳上のジレンマに対する人間の反応は、人工知能チャットボット「ChatGPT」が生成するステートメントによって影響されることを報告する論文が、Scientific Reportsに掲載される。この研究知見は、「ChatGPTがユーザーの道徳的判断に影響を及ぼす程度」に関してユーザーが過小評価をしている可能性のあることを示している。
今回、Sebastian Krügelたちは、人工知能言語処理モデルGenerative Pretrained Transformer 3をベースとしたChatGPTに対し、「1人の命を犠牲にして、残った5人の命を救うこと」が正しいかという質問を複数回行った。これに対しては、1人の命を犠牲にすることに賛成するステートメントが生成されることもあれば、反対するステートメントが生成されることもあり、ChatGPTが特定の道徳上の立場に偏っていないことが示された。次にKrügelたちは、米国の研究参加者(767人、平均年齢39歳)を対象とした実験を行い、それぞれの参加者に対して、「1人の命を犠牲にして、残った5人の命を救うこと」の是非を迫る2種類の道徳上のジレンマのうちの1つを提示した。ただし、参加者は、このジレンマに回答する前にChatGPTが生成したステートメント(1人の命を犠牲にすることに賛成する立場と反対する立場のいずれか一方)を読むことになっていた。参加者に対しては、このステートメントがモラルアドバイザーによって作成されたもの又はChatGPTが生成したものであることを告げた。回答後、参加者に対しては、その回答内容が、あらかじめ読んだステートメントによって影響されたかどうかを質問した。
Krügelたちは、参加者が、回答前に読んだステートメントの内容に応じて「1人の命を犠牲にして、残った5人の命を救うこと」を容認するかどうかを決めていた傾向があることを発見した。この傾向は、ChatGPTが生成したステートメントであることを告げた場合にも同じく見られた。以上の研究知見は、たとえチャットボットが生成したステートメントであることを告げられていても、参加者が、事前に読んだステートメントに影響された可能性があることを示唆している。
次に、参加者に対して、事前に上記のステートメントを読まずに回答すれば、回答内容は違っていたかという質問をした。参加者の80%は同じ回答になったと答え、回答内容が事前に読んだステートメントに影響されなかったという認識を示した。ところが、事前に上記のステートメントを読まなければ回答したと参加者が考える回答内容は、事前に読んだステートメントの道徳上の立場との一致度が高いという傾向が明らかになったのだ。このことは、参加者が自分自身の道徳的判断に対するChatGPTのステートメントの影響を過小評価していた可能性を示している。
Krügelたちは、チャットボットが人間の道徳的判断に影響を与える可能性が明らかになったことで、人間が人工知能の理解を深めるための教育が必要なことが明確になったと考えており、今後の研究によって、道徳的判断を必要とする質問に答えることを拒否するか、複数の回答と注意書きを併記することでこれらの質問に答えるチャットボットを設計できるかもしれないという考え方を示している。
doi: 10.1038/s41598-023-31341-0
注目の論文
-
12月20日
化学:アルゴリズムは、ウイスキーの最も強い香りと原産地を嗅ぎ分けることができるCommunications Chemistry
-
12月12日
天文学:Firefly Sparkleが初期の銀河形成に光を当てるNature
-
12月10日
Nature's 10:2024年の科学に影響を与えた10人Nature
-
11月21日
化学:光を使って永遠の化学物質を分解する新しい方法Nature
-
10月24日
古生物学:古代サンゴから共生関係の初期の証拠を発見Nature
-
8月15日
考古学:ストーンヘンジの祭壇石はスコットランドを起源としているかもしれないNature