人工知能の人種差別的判断

 人工知能の人種差別的判断エピに関する研究(Hofmann et al., 2024)が公表されました。現在の一般的な「人種」概念に生物学的妥当性が欠けていることは、すでにかなり定着しているように思われますが、そうした一般的な「人種」概念が現在でもなお社会において強い影響力を有し、人種差別につながっていることは、とても否定できないでしょう(関連記事)。そうした人種差別には、非専門家ではなかなか気づきにくいものもあるかもしれず、本論文は、人工知能の人種差別的判断の可能性を指摘しています。

 現在では何億人もの人々が言語モデルと関わっており、その用途は文章作成支援から採用決定の情報源まで多岐にわたります。しかし、これらの言語モデルは、体系的な人種的偏見を永続させることが知られており、アフリカ系アメリカ人などの集団について、問題のあるやり方によって偏った判断をもたらします。先行研究では、言語モデルにおける明確な人種差別が着目されてきましたが、社会科学者たちによると、とりわけ公民権運動後のアメリカ合衆国では、より把握しにくい性質の人種差別がじょじょに形成されてきた、と指摘されています。こうしたひそかな人種差別が言語モデルに現れるのかどうかは不明です。

 本論文は、言語モデルが方言に対する偏見という形で密かな人種差別を具現しており、アフリカ系アメリカ人英語(African American English、略してAAE)話者について、これまで実験的に記録されてきた、アフリカ系アメリカ人に対して人間が有するいかなる固定観念よりも否定的な人種言語学的固定観念を示す、と実証します。対照的に、言語モデルのあからさまなアフリカ系アメリカ人への固定観念は、もっと肯定的でした。方言に対する偏見は有害な結果をもたらす可能性があり、言語モデルは、AAE話者について、名声の高くない職、有罪判決、死刑宣告への割り当てを示唆する傾向が高い、と示されました。

 本論文はさらに、言語モデルで人種的偏見を軽減するために現在行なわれている人の選好性一致度などは、言語モデルがより深い水準で保持している人種差別を表面上で不明瞭化させることによって、ひそかな固定観念とあからさまな固定観念の間の相違をさらに大きくする、と示します。こうした知見は、言語技術の公正で安全な使用に対して広範囲に及ぶ意味を有します。日本人の一人である私としては、日本人、さらには日本人も含めてユーラシア東部集団に対して、同じような偏見が生じやすいのか、気になるところです。以下は『ネイチャー』の日本語サイトからの引用です。


社会科学:人工知能は人々の方言に基づいて人種差別的な判断をひそかに下している

社会科学:大規模言語モデルはひそかに人種差別をする

 今回、大規模言語モデル(LLM)にはひそかな人種差別があることが明らかになった。アフリカ系アメリカ人が使う英語の方言に基づいた間接的偏見が見られるのである。



参考文献:
Hofmann V. et al.(2024): AI generates covertly racist decisions about people based on their dialect. Nature, 633, 8028, 147–154.
https://doi.org/10.1038/s41586-024-07856-5

この記事へのコメント