人工知能:ChatGPTのステートメントはユーザーの道徳的判断に影響を与え得る
Scientific Reports
2023年4月7日
Artificial intelligence: ChatGPT statements can influence users’ moral judgements
道徳上のジレンマに対する人間の反応は、人工知能チャットボット「ChatGPT」が生成するステートメントによって影響されることを報告する論文が、Scientific Reportsに掲載される。この研究知見は、「ChatGPTがユーザーの道徳的判断に影響を及ぼす程度」に関してユーザーが過小評価をしている可能性のあることを示している。
今回、Sebastian Krügelたちは、人工知能言語処理モデルGenerative Pretrained Transformer 3をベースとしたChatGPTに対し、「1人の命を犠牲にして、残った5人の命を救うこと」が正しいかという質問を複数回行った。これに対しては、1人の命を犠牲にすることに賛成するステートメントが生成されることもあれば、反対するステートメントが生成されることもあり、ChatGPTが特定の道徳上の立場に偏っていないことが示された。次にKrügelたちは、米国の研究参加者(767人、平均年齢39歳)を対象とした実験を行い、それぞれの参加者に対して、「1人の命を犠牲にして、残った5人の命を救うこと」の是非を迫る2種類の道徳上のジレンマのうちの1つを提示した。ただし、参加者は、このジレンマに回答する前にChatGPTが生成したステートメント(1人の命を犠牲にすることに賛成する立場と反対する立場のいずれか一方)を読むことになっていた。参加者に対しては、このステートメントがモラルアドバイザーによって作成されたもの又はChatGPTが生成したものであることを告げた。回答後、参加者に対しては、その回答内容が、あらかじめ読んだステートメントによって影響されたかどうかを質問した。
Krügelたちは、参加者が、回答前に読んだステートメントの内容に応じて「1人の命を犠牲にして、残った5人の命を救うこと」を容認するかどうかを決めていた傾向があることを発見した。この傾向は、ChatGPTが生成したステートメントであることを告げた場合にも同じく見られた。以上の研究知見は、たとえチャットボットが生成したステートメントであることを告げられていても、参加者が、事前に読んだステートメントに影響された可能性があることを示唆している。
次に、参加者に対して、事前に上記のステートメントを読まずに回答すれば、回答内容は違っていたかという質問をした。参加者の80%は同じ回答になったと答え、回答内容が事前に読んだステートメントに影響されなかったという認識を示した。ところが、事前に上記のステートメントを読まなければ回答したと参加者が考える回答内容は、事前に読んだステートメントの道徳上の立場との一致度が高いという傾向が明らかになったのだ。このことは、参加者が自分自身の道徳的判断に対するChatGPTのステートメントの影響を過小評価していた可能性を示している。
Krügelたちは、チャットボットが人間の道徳的判断に影響を与える可能性が明らかになったことで、人間が人工知能の理解を深めるための教育が必要なことが明確になったと考えており、今後の研究によって、道徳的判断を必要とする質問に答えることを拒否するか、複数の回答と注意書きを併記することでこれらの質問に答えるチャットボットを設計できるかもしれないという考え方を示している。
doi: 10.1038/s41598-023-31341-0
注目の論文
-
11月21日
天文学:近くの恒星を周回する若いトランジット惑星が発見されるNature
-
11月21日
気候:20世紀の海水温を再考するNature
-
11月20日
生態学:リュウキュウアオイが太陽光を共有するNature Communications
-
11月19日
気候変動:パリ協定を達成するために、CO2の受動的吸収を計算から分離するNature
-
11月18日
惑星科学:嫦娥6号のサンプルが裏側の月火山活動の年代を特定Nature
-
11月13日
地球科学:2022年のマウナロア火山の噴火を調査するNature Communications