メモ帳用ブログ

色々な雑記。

AIが差別的な発言・判断をするようになってしまったというニュースが時々報道される。そうしたニュースに対して、差別的な判断は感情論抜きなら合理的で正しいんだみたいな勘違いをしている人も時々見かける。
でも今のところ、世界のすべてを完全なデータとして把握して一部の隙もなく合理的で客観的な判断を下す、みたいなSF的というか神の代用品じみたAIはまだ開発されていない。
差別的なAIというのは、ほとんどが人間の言動や判断結果をサンプルにした結果、人間のやる差別までそのまま猿真似してしまったというにすぎない。プロセスを理解して真似ているのではなく結果の上っ面だけを見て真似ている。
悪質な転載ニュースサイトでもない限りはちゃんとそうしたも記載されている。それにも拘らず差別的なAIこそが正しいと誤解している人間は、民族とか性別とかの属性とは無関係に、純粋にその人個人の問題として文章を読む力がない。

テイが恐るべき発言をするようになった理由は、発言を繰り返させる「ゲーム」だった。これを悪用したユーザーによって、テイはヘイトスピーチを学んだ。

ところが15年までに、アマゾンはソフトウエア開発など技術関係の職種において、システムに性別の中立性が働かない事実を見つけ出してしまった。これはコンピューターモデルに10年間にわたって提出された履歴書のパターンを学習させたためだ。つまり技術職のほとんどが男性からの応募だったことで、システムは男性を採用するのが好ましいと認識したのだ。


逆に履歴書に「女性」に関係する単語、例えば「女性チェス部の部長」といった経歴が記されていると評価が下がる傾向が出てきた。関係者によると、ある2つの女子大の卒業生もそれだけで評価を落とされた。