AIに存在するダイバーシティの問題と、その解決が必要である理由
- AIは人間が提示するものだけを学習するため、プログラマーにダイバーシティが欠けていれば偏りが生じ、集団の中でのAIの有効性が制限される。
- AINowは2019年に発表したレポートで「AI分野にはジェンダーや人種における多様性の危機が存在する」と指摘している。
- この分野でのダイバーシティを優先し、AIモデルに使われるデータをキュレーションすることによって、アルゴリズムはより正確で優れた情報を学習し、それは実世界での応用に、より役立つものとなる。
人間の生活は、大なり小なりAIの影響を受けてきた。クレジットカードの申し込みや、お決まりの質問へのチャットボットによる応答でAIに遭遇することになる。
毎年、これまで人間社会の文明が生み出してきたものより多くの情報が生み出されている、という表現も既に使い古されてきた。膨大なデータの海が存在しているのは真実であり、それが人々の仕事や取引、より良い生活に役立つ秘密を解明する可能性がある。だが人間が合成するには情報が多すぎる点が問題であり、AIや機械学習が必要不可欠だ。
AIは、完璧にはほど遠い。逆説的だが、人間より賢くなる運命にあるという通説の一方で、機械学習の優秀度は、それがどのようにプログラムされたかを超えることはない。またプログラミングを優秀な人々が行っていても、考え方や人口統計上の層が似すぎていることから、バイアスがかかる点も問題だ。結局のところ、多様な視点の欠如により、AIが解決できる問題に限界が生まれてしまう。ハリウッドや政治、企業役員など多くの分野同様、AIにも代表性に関する大きな問題が存在するのだ。
職場におけるAIと機械学習
10年ほど前、Googleの画像検索が猫の識別に成功したニュースが話題になった。ファイルのメタデータや研究者が「猫」を教えたことによるものでなく、画像自体をパターン認識で学習し、猫とそうでないものを見分けられるようになったのだ。
こうした演算処理能力は、現在用いられている多くの機械学習の基礎となった。ウェブサイトのチャットボットは、「40歳になると保険料はいくらになるのか?」という質問をうまく理解できない。だが、「いくら」、「保険料」、「40」といった用語から質問の意図を推定して計算し、データベースやライブラリーを参照して、筋の通った答えを導き出す。正答率は90%で、これによってカスタマーサービスのスタッフは、より複雑な問い合わせに時間を割けるようになる (待ち時間も短縮される)。
例えば米国にいる人が中国の出荷者から購入した後にクレジットカードを止められたり、銀行から確認の電話を受けたりしたら、それはAIの最も重要な応用例を体験したことになる。金融詐欺のアルゴリズムは、購入者の地元での支払履歴を何週間分も把握しており、同時に2カ所にいることはできないという前提のもと、中国での購入を疑わしいものだと判断している。
購入者が銀行に事情を説明することで、銀行は購入を許可し、アルゴリズムは新しいルールを学習する。次回、同じサイトで購入が行われると、アルゴリズムは人間の購入習慣に関する新しい情報を「思考」に取り込み、これを正当なものと判断する。
医学や科学分野では、人間には実質的に対応不可能な大量のデータが生成・収集されるが、それをAIに通すことでマンモグラフィー検査の結果から乳がんを検出し、病気の遺伝的原因を特定して、さらにはがん免疫療法の反応を予測することが既に実現している。
また予測型マーケティングでは、顧客がグループとしてどう反応するかをこれまでの行動に基づいて計算し、広告主にアドバイスすることができる。
だが、そこには本質的な課題がある。Autodesk ResearchでAI研究ディレクターを務めるトーニャ・カスティス博士が述べるように、「ニュートラルなテクノロジーは存在しない」のだ。ここで彼女が言及しているのは、よくあるジェンダーや民族性のSTEM指標だけでなく、宗教的背景、文化的経験、さらには所得階層など、さまざまな立場や地位の人間が互いのバイアスを確認しながらテクノロジーを構築することの重要性だ。
AIがバイアスを持つ可能性は?
テクノロジーはお金や進化と同様にモラル上は中立であり、本質的に善や悪、差別的にはなり得ず、それを用いる人間の意図によってそう見えるだけだ、という俗説を耳にすることは多い。
ここでAIが設計したバス路線を考えてみよう。かつて、エンジニアやプログラマーは、高級車を乗り回すシリコンバレーの白人男性ばかりで、都市バスの文化、ニーズ、インフラには全く無知だった。若い黒人女性や定年退職した老人には全くの間違いだと見抜けるような思い込みが、彼らにはあったに違いない。バスの利用方法に対して、最初からバイアスが組み込まれていれば、そこから成長するアルゴリズムが、より正確かつ優れた情報を学ぶことは不可能だ。
美しく設計されたアルゴリズムは、テストでは完璧に動作するかもしれないが、実世界の異なる集団に応用されると、全く異なる挙動を示すこともある。そんな欠点から、AINowが誕生した。ニューヨーク大学所属のこの研究所は、AIが応用されるコミュニティや状況に対して説明責任を果たせるよう、学際研究と一般市民への普及活動を展開している。
AIにおけるバイアスは、決して些細な問題ではない。AINowが2019年に発表した、この分野における差別に関する調査結果は、かなり手厳しいものとなっている:
- 「AI分野にはジェンダーや人種に関するダイバーシティの危機が存在している」
- 「AI分野は現在のダイバーシティ危機への対処する方法に徹底的な転換を必要としている」
- 「“テック業界で働く女性”への過剰な注目度は偏狭で、他人種に比べて白人女性の優遇に陥りがちだ」
- 「AIシステムの人種やジェンダーの分類・検出・予測への利用は、急ぎ再評価する必要がある」
非常に気がかりなのは、差別問題は単に制度的な問題ではないという点だ。業界には、その解決を意図的に弱体化させようとする者もいる。AINowは「この業界のダイバーシティへ積極的に抵抗し、生物学的決定論からの議論を用いて、女性は本質的に情報科学やAIへの適性が低いと主張する、小規模ながらも主張の強い反対行動が見受けられる」と報告している。どう見ても、AIには手直しが必要だ。
「データ自体にバイアスがかかっている可能性があり、人間の指示に従ってソフトウェアが下す決定は人によって異なる影響を与えられていることを、ほとんどの人は理解していないのです」Autodesk Research AI研究ディレクター トーニャ・カスティス博士
AIにおけるダイバーシティがなぜ重要なのか
しかし、なぜダイバーシティがその打開策となるのか?機械学習の重要なポイントは「自ら学ぶ」という点だ。アルゴリズムに幾つか例をプログラムし、注意すべき偽陽性の例を設定して「開始」をクリックすれば、スマートで包括的なアプリケーションができあがる……果たして、本当にそうだろうか?
カスティス博士は、この分野には「GIGO」 (Garbage in, garbage out: 欠陥のある無意味な入力データは無意味な出力をもたらす、の意) の法則が非常によく当てはまると話している。これは、バイアスのかかった結果が瞬時に大きく膨らんでしまうことのある従来のプログラミングには、さらによく当てはまる。「AIはかなり頭が悪く、人間が見せるものしか学習しません」と、カーティス博士。「これは異文化間スポーツなのです。普通のプログラミングでも、2人が部屋に閉じこもってルールを書き連ねるだけでは、いいプログラムは書けないでしょう。AIや機械学習においても同じ問題が起こります。そもそもデータ自体にバイアスがかかっている可能性があり、人間の指示に従ってソフトウェアが下す決定は人によって異なる影響を与えられていることを、ほとんどの人は理解していないのです」。
だがジェンダーや年齢、人種のダイバーシティは、すべてを「るつぼ」に放り込んで反応を探ることでは達成できず、どういった視点が認められるべきかを慎重に判断する必要がある。「インターネット上で学習したモデルは、例としてさまざまなデータを見ていますが、その多くはヘイトスピーチやジェンダー差別などモデルへは入れたくないようなものです」と、カスティス博士。「現在は、よりキュレーションされたデータを求める大きなムーブメントがあります。ダイバーシティを実現するキュレーションが必要なのです」。
カスティス博士の正しさを証明する例は数多くある。2016年には、出所者の再犯の可能性を計算するAIアルゴリズムが、明らかに黒人へバイアスされていることが判明している
また機械学習はブラックボックスであるため、いかにして差別的な判断に至ったのかは明白でない。ソフトウェアプログラマーのデイヴィッド・ハイネマイヤー・ハンソン氏 (Ruby on Railsで有名) と妻のジェイミーさんがAppleのクレジットカードを申し込んだところ、ハイネマイヤー・ハンソン氏に認められた限度額がジェイミーさんの20倍もの額となり、衝撃を受けた。
ゴールドマン・サックスに問い合わせたところ、限度額はAIによって計算されているとの説明だった。なぜアルゴリズムがハンソン氏の妻をそれほどまでに高リスクと判断したのか、その背景を探り判断する力を持ち合わせているものは誰もいない。このスキャンダルが報じられた際、ゴールドマン・サックスはメディアに対し、限度額の判断はジェンダー、年齢、性的指向、人種ではなく信用度のみに基づいていると真顔で語ったという。
だが、カスティス博士は良いニュースもあると述べる。社会は、機械学習におけるダイバーシティの問題を正す、またとない機会を迎えており、今こそがそのタイミングだ。「私たちは極めて幸運だと言えます」と、カスティス博士。「AI分野には優秀な人材が数多く存在しています。採用の際には、大抵は有能な候補者の中から選択されています」。
AIチームにおけるダイバーシティをどう提唱するか
ここまでダイバーシティのメリットを立証してきたが、AIにおける真のダイバーシティを実現するための実践的なステップとは何だろうか?企業による環境問題のグリーンウォッシュと同様、アルゴリズムが最適な情報を得るよう努める代わりに、AIのダイバーシティに口先だけの賛同をして、体裁を保つためのリストをこなすこともできてしまう。
まずは、機械学習が拡大していることを認識することが重要だ。未だに数学やコンピュータの分野が中心ではあるが、人々が求め必要とする製品の開発を支援するには、その技術に精通したプロダクトマネージャーやプロジェクトマネージャーが必要不可欠だ。ユーザーエクスペリエンスデザイナーも、消費者や労働者がAIと接する際の最善の方法を見つけ出す必要がある。
情報科学に加え、音楽と言語学を学んだカスティス博士は「今はエントリーポイントが多数存在しています」と話す。「それは多様なチームを支援するだけでなく、より多くの人に機会を提供します」。
事実、カスティス博士は注目すべき対象の見本のような存在だ。多様な人材に加え、多様なスキルを持った人材を探すことが重要だ。「AI分野で働く場合、他と関わりを持たず仕事をするわけではありません。データは通常、特定の領域などに関するものです」と、カスティス博士。「情報科学だけに取り組むのではなく、AECやメディア&エンターテインメントなど、何かに応用するのです。それらはかなり専門的な領域です」。
だが、これは単に人を雇うということに留まらない。カスティス博士は、彼女が言うところの「パイプラインを攻める」ことを実践している。「採用時だけで対処しようとすると、手遅れになることが多いのです」と、カスティス博士。「インターン、大学院生、コントリビューターと共に、より早い段階で取り組む方が合理的です。また、機械学習のグループに参加することも必要で、知識を共有したり、人を集めて話をしたりするのです。早くからそのようなつながりを育むことで、人との関係を構築できます。このように、パイプラインに対処することが最も効果的なのです。これにより、より有機的な多様性が生まれます」。
何よりも重要なのは言行一致だ。サンフランシスコ、トロント、ロンドンに広がるチームを擁するカスティス博士の拠点はミネアポリスにある。面接の際、女性がリーダーを務めていることに好感を持たれるのだとカスティス博士は話す。それにより、参加当初から皆が心地よさを感じるような、インクルーシブな職場となっていることを彼女は願っている。「AIラボに足を踏み入れると、スタイリッシュに決めたシリコンバレーの男性陣ばかりで、近寄りがたく感じることもあります」と、カスティス博士は話す。
現在、この分野には、それ以外にも多くの人材が集まっている。明日のAIを全員にとってより良いものにするために、多様な人材を見出し、取り込んでいくことは、全員の責務なのだ。
本記事は、2017年9月に掲載された原稿をアップデートしたものです。