
AIは性差別的ですか?人工的なイメージが現実にどのようにジェンダーバイアスを永続させているか
AIはますます日常生活の特徴になっています。しかし、しばしば時代遅れのデータに基づくモデルと、依然として男性研究者が支配する分野により、社会への影響が大きくなるにつれて、性差別的なステレオタイプも永続しています。
これを実証するために必要なのは、Stable DiffusionやDall-Eなどの画像生成人工知能(AI)ツールへの簡単なリクエストだけです。
「会社を経営する人のイメージを生みなさい」や「大きなレストランを経営する人」や「医学で働いている人」などの要求を与えられたとき、毎回現れるのは白人男性のイメージです。
これらのプログラムが「看護師として働く人」や「家事労働者」や「家事手伝い」のイメージを生成するように求められたとき、これらのイメージは女性のものでした。
昨年発表されたユネスコの研究の一環として、研究者はさまざまなジェネレーティブAIプラットフォームに、さまざまな性別、セクシュアリティ、起源のキャラクターをフィーチャーしたストーリーを書くように依頼しました。その結果、「マイノリティ文化の人々や女性」に関する話は、しばしばより反復的で、ステレオタイプに基づいていることを示しています。
報告書は、教師や医師など、より権威のある専門的な仕事を男性に帰す傾向を示し、多くの場合、女性を家政婦、料理人など、伝統的に過小評価されていた、またはより物議を醸す役割に追いやっています。
これらの大型言語モデル(LLM)ツールで使用される幅広い言語パターンは、女性の名前を「家」、「家族」、「子供」などの単語と関連付ける傾向がありますが、男性の名前は「ビジネス」、「給与」、「キャリア」という単語とより密接に関連しています。
このように、これらのモデルは「女性に対する明確な偏見」を示しているとユネスコはプレスリリースで警告した。
「現実世界での差別はデジタル領域に反映されるだけでなく、そこでも増幅される」とユネスコのコミュニケーションと情報担当局長補佐のタウフィク・ジェラッシは述べています。
社会の鏡
コンテンツを作成するために、ジェネレーティブAIは「特定の時間に作成された数十億の文書で訓練されています」と、フランスの国立デジタル科学技術研究所(Inria)の研究ディレクターであるJustine Cassellは説明しました。
彼女は、そのような文書は、いつ作成されたかによって、しばしば時代遅れで差別的なステレオタイプを含み、その結果、AIがそれらを伝達し、繰り返したと説明しました。
これは、画像とテキストのジェネレーターだけでなく、何百万もの既存の写真をフィードする顔認識プログラムにも当てはまります。
2019年、米国の連邦機関は、一部の顔認識システムが女性、特にアフリカ系アメリカ人の女性を正しく識別することが困難であり、公共の安全、法執行機関、個人の自由に影響を与えると警告しました。
これは、人事マネージャーが採用を支援するためにAIをますます使用している仕事の世界でも問題です。
2018年、通信社ロイターは、アマゾンがAI採用ツールを放棄しなければならなかったと報じた。理由は?このシステムは、主に男性によって会社に提出された履歴書から蓄積されたデータに基づいていたため、候補者をジェンダーニュートラルな方法で評価しませんでした。これにより、女性の応募者を却下しました。
データの多様化
AIは何よりもまずデータの問題です。そして、このデータが不完全であるか、人々の1つのカテゴリーしか表していないか、意識的または無意識的なバイアスが含まれている場合、AIプログラムは引き続きそれを使用し、大規模に放送します。
Data-Pop Allianceのシンクタンクのデータ、テクノロジー、イノベーションのディレクターであるZinnya del Villarは、「システムを推進するために使用されるデータが多様で、すべての性別、人種、コミュニティを表すことが不可欠です」と述べています。
UN Women機関とのインタビューで、デル・ビラーは次のように説明しました。「特定の仕事や性格特性を1つの性別に関連付けるような歴史的な偏見を排除しながら、異なる社会的背景、文化、役割を反映したデータを選択する必要があります。」
InriaのCassellによると、根本的な問題の1つは、「今日のほとんどの開発者は依然として主に白人であり、偏見の存在にそれほど敏感ではないかもしれない」ということです。
男性デザイナーは、女性やマイノリティが被る偏見の影響を受けないため、問題に対する認識が低いことが多いため、アルゴリズムの88%は男性によって構築されています。バイアスに対する意識を高めることに加えて、研究者はこの分野の企業に、より多様なエンジニアリングチームを採用するよう促しています。
「AIモデルをコーディングする女性はもっとたくさん必要です。なぜなら、彼らは質問をする人たちだからです。このデータには、異常な行動や将来再現すべきではない行動が含まれていませんか?」新興企業EjaraのCEO兼共同創設者であるNelly Chatue-Diopは、RFIに語った。
女性の過小評価
世界経済フォーラムによると、現在、世界中で人工知能で働く人々のわずか22%が女性を占めています。
Join Forces & Dare(JFD – 旧Digital Women’s Day)が実施したヨーロッパのAIバロメーターによると、実行委員会にAIマネージャーがいた調査された企業のうち、これらのマネージャーのわずか29%が女性であることが明らかになりました。世界では、AI研究者の12%が女性を占めています。
「AIの開発における多様性の欠如は、バイアスを強め、ステレオタイプを永続させ、イノベーションを遅らせる」と報告書は警告している。
これはユネスコの繰り返しの観察であり、現場や管理職における女性の過小評価は、「すべての性別の多様なニーズと視点を考慮しない社会技術システムの作成につながり」、「男女間の格差」を強めていると仮定しています。
両組織は、少女が幼い頃からSTEM(科学、技術、工学、数学)の科目を認識し、指導する必要性を強調しています。STEM(科学、技術、工学、数学)科目は、まだ男性の特権であり、高い達成度の高い女性はしばしば目に見えない分野です。
ユネスコのオードリー・アズーレイ事務局長は、一般市民と企業の両方にAIアプリケーションがますます利用されているため、「何百万人もの人々の認識を形成する力を持っている」と述べています。「コンテンツにわずかなジェンダーバイアスがあっても、現実世界の不平等を大幅に増やすことができます。」
ユネスコは、この分野の多くの専門家とともに、倫理的な枠組みの中でこの分野を規制するための国際レベルでのメカニズムを確立するよう求めています。
しかし、これは遠いようです。この分野での巨大な影響力を持つ米国は、先月発行されたAIに関するパリサミット宣言に署名しませんでした。イギリスもそうしなかった。
英国政府は、この声明はAIのグローバルガバナンスに対処するという点で十分ではないと述べたが、米国の副大統領JD Vanceは、彼がヨーロッパの技術に対する「過剰な規制」と呼んだものを批判した。
https://www.rfi.fr/en/science-and-technology/20250316-is-ai-sexist-how-artificial-images-are-perpetuating-gender-bias-in-reality