Twitter、顔認識AIが黒人よりも白人に反応しやすい傾向?検証した画像ツイートが話題に

投稿者は「機械学習アルゴリズムに現れる人種差別の一例」だと紹介。Twitterは原因を調査中です
Rafael Henrique/SOPA Images/LightRocket via Getty Images
Rafael Henrique/SOPA Images/LightRocket via Getty Images
Engadget日本版

Twitterは写真のプレビュー用のトリミング画像を生成するのに、写真に写る人の顔がプレビューの中心に来るように鍛えたAIを用いています。そして、この顔認識AIがどうしても黒人よりも白人の顔に反応を示す理由を調査しています。

先週末、暗号通貨技術者の@bascle氏をはじめ幾人かのTwitterユーザーは白人と黒人の顔写真が並ぶ1枚の画像を投稿してそのプレビュー表示を確認したところ、白人の顔がより頻繁に現れたと報告しました。たとえば、白人の米国上院議員ミッチ・マコーネル氏と、バラク・オバマ前大統領の顔写真を上端と下端に貼り付けた縦長の画像をツイートに添付して投稿した場合、高確率でマコーネル氏の顔だけがプレビューに表示されることがわかりました。しかし、同じ画像の色を反転して投稿したところ、マコーネル氏がプレビュー表示されるケースとオバマ氏がプレビュー表示されるケースの割合が均等に近づいたとのこと。

投稿者は、これが「機械学習アルゴリズムに現れる人種差別の一例」だと紹介していますが、Twitterのリズ・ケリー氏はこのツイートに対し、現在のTwitterのアルゴリズムを導入する前に人種差別バイアスがないかをチェックしたが、そのような「証拠は見つからなかった」と述べてました。ケリー氏はまた、このアルゴリズム研究をオープンソース化し、他の技術者がレビューのために複製できるようにすると述べました。ちなみに、マコーネル氏とオバマ氏を並べた画像のうち、オバマ氏のほうの画像のコントラストを高く加工した場合は、アルゴリズムはオバマ氏の顔をプレビューに用いることが多くなったとの報告も投稿されています。

また、別のTwiiterユーザーは、友人からZoomで仮想背景を使用したときに顔が背景に消されてしまう問題を解決できないかという相談を受け、そのときのスクリーンショットをツイートしたところ、今度はTwiiterのモバイルアプリが(白人である)自分の顔だけをプレビューに含めたことに気づきました。

Twitterは以前は顔認識機能によって最も目立つ顔をプレビューの中心に持ってくるようにしていました。しかしすべての画像に顔が含まれているわけではなく、そのような場合は画像の中心にトリミングの中央を持ってきていました。また顔ではないものを誤って認識することもありこうした結果がぎこちないプレビュー写真になっていました。

その後アルゴリズムは改善されて顔を上手く中心に持ってくるように調整されてはいるものの、Twitterの最高技術責任者であるParag Agrawal氏は、一連のユーザーからの報告に対してこのモデルには「継続的な改善」が必要であることを認め、こうした実験から学習したいと述べています。

今回の問題が本当にアルゴリズムの人種的なバイアスなのか、認識する際の技術的なクセのようなものなのかはよくわかりません。おそらく改善が結果として表れるにはしばらく時間がかかると思われますが、この手の技術は問題が修正・改善されればされるほど気にならなくなるものなので、いずれは誰も気づかないうちに問題の修正が完了していることでしょう。

関連記事

注目記事