Kidd, C., Birhane, A. (2023) How AI can distort human beliefs. Science, 380(6651), 1222-1223.
読んだのはなんでもメモしておこう、ということで… Scienceに載った2ページの投稿。著者らは心理学者。
いわく… 生成AIモデルは人種などさまざまなバイアスを含んでいて、その悪影響を阻止するのは容易でない。心理学の研究によれば、
- 知識が豊かだと判断されたエージェントから受け取った情報に基づく信念は強くなる(幼児でさえエージェントの知識を評価している)。生成AIモデルは人間とちがって、不確かな情報でも「たぶん…だと思います」というような不確実性シグナルを付け加えないので余計にやばい。
- 人は勝手にありもしない意図を読み込む(単純な図形の動きにさえ意図を感じる)。生成AIの場合、企業側も擬人化を促進しているので余計にやばい。
- 人はたとえ先行経験に合致しない情報であっても繰り返し提示されると信じてしまう。生成AIモデルは検索エンジンやスマホに埋め込まれはじめているし、その出力もWebに溢れはじめているので、余計にやばい。
[…中略…] 生成モデルが人間の信念・バイアスに与える影響を研究するにはいましかない。特にこどもの研究が急務だ。云々。