#アナタノミカタ 

顔認識ソフトを利用した犯罪予測ソフトウェアには人種的偏見と欠陥があるAI研究者たちが非難
AI.

1000人を超える人工知能の研究者、学者、専門家の集まりが、まもなく発表される予定のニューラルネットワークを使用して「犯罪を予測する」と主張する研究に対して反対している。この記事を執筆している時点ではFacebook(フェイスブック)、Google(グーグル)、Microsoft(マイクロソフト)などの企業でAIに取り組んでいる50人以上の従業員が、研究に反対し、出版の再考を促す公開書簡(Medium記事)に署名している。

論争の的となっている研究は、ネイチャーの出版元である、Springer(スプリンガー)による書籍シリーズで、今後取り上げられる予定になっている。その研究の著者たちは、彼らの自動顔認識ソフトウェアはある人物が犯罪を犯すか否かを予測することが可能で、このような研究の法執行機関による予防的治安維持への応用の有用性を主張している。

「潜在的な脅威の識別を、偏見なく自動化することで、私たちは暗黙の偏見や感情的反応による影響を受けにくい犯罪予防活動、法執行機関そして軍隊に役立つツールを生み出そうとしているのです」と、ハリスバーグ大学教授で共著者のNathaniel J.S. Ashby(ナサニエル・J.S.・アシュビー)氏は語る。

他の研究者として名前が載せられているのは(Harrisburg Universityリリース)、ハリスバーグ大学のRoozbeh Sadeghian(ルーズベ・サデギアン)助教授、そしてプレスリリースの中でNYPD(ニューヨーク市警)のベテランとして強調された、Ph.D学生のJonathan W. Korn(ジョナサン・W・コーン)氏らである。コーン氏は、犯罪行為を予測できる彼らのソフトウェアの能力を「法執行機関に対して重要な強みを与える」ものとして称賛している。

研究の発表に反対する公開書簡の中で、AIの専門家たちは研究に対する「重大な懸念」を表明し、Springerのレビュー委員会にその出版を取り下げるよう要請している。同書簡はまた、他の出版社に対しても同様の将来的な研究の出版を辞退するよう呼びかけ、顔認識技術と犯罪予測技術に対して細心の注意を払ってアプローチすべき理由や、すでに脆弱なコミュニティに対して利用してはらない理由を連綿と綴っている。

関連記事:グーグル社員が警察への同社技術の提供に抗議

今回の出版に対する反対者たちは、単に研究者たちが倫理的な困難さを引き起こしたことだけを心配しているのではなく、こうした研究そのものに対して疑問を投げかけ「私たちのそれぞれの分野にまたがって何年もの間否定されてきた不健全な科学的前提、研究、方法だ」と批判している。

顔認識アルゴリズムは、この種のソフトウェアに対して頻繁に提起される他の多くの科学的および倫理的懸念の中でも、非白人の顔を識別するパフォーマンスが低いことを、長い間批判されてきている(参考1参考2参考3)。問題の研究が、予防的治安維持目的に適用可能な顔認識ソフトウェアを開発したことを考えると、技術への懸念はこれまでになく高いものとなった。

「機械学習プログラムは中立ではない。研究計画とそれが扱うデータセットには、しばしば世界についての支配的な文化的信念が継承されているからだ」と、書簡の著者たちは警告している(Medium記事)。

「デフォルトの仮定の無批判な受け入れは、必然的にアルゴリズムシステムの差別的な設計につながり、社会階層を固定化し疎外されたグループに対する暴力を正当化する考えを、繰り返し生み出すことになる」。

関連記事:IBMが顔認識技術から撤退、CEOは偏向と不平等の廃絶を訴える

原文へ
(翻訳:sako)

引用先はこちら:顔認識ソフトを利用した犯罪予測ソフトウェアには人種的偏見と欠陥があるAI研究者たちが非難

#アナタノミカタ