イベント

2021年4月14日

IT産業におけるジェンダー差別を解消するには? B’AIグローバルフォーラム発足イベントレポート

 昨年7月発足したB’AIグローバル・フォーラム。そのミッションは、AIの活用が広がる社会でジェンダー平等とマイノリティーの権利を保障すること。AIを人文社会科学的な視点から捉えるこのフォーラムは、3月17日にオンラインで「AI時代におけるジェンダー正義:参加と活動をめぐる対話」という発足イベントを実施した。現在のIT産業ではジェンダー格差が拡大しているが、その解決法を見つけるために求められることは何か。プラットフォームを所有する巨大なIT企業の取り組みと教育の面に焦点を当て、有識者が議論を交わした。

(取材・谷賢上)

 

*イベントは英語で行われました。アーカイブ映像はこちらから。

 

 

基調講演:「Towards feminist futures in the intelligence economy」

 

 基調講演に、ベンガルール(印)にあるNGO・IT for Changeエグゼクティブ・ディレクターのアニタ・グルマーシー氏が登壇。同NGOは、デジタル情報産業での男女平等を目指すと同時に、人権・社会正義・公正性に貢献できるようなデジタル技術のあり方を模索している。グルマーシー氏によれば、プラットフォームを介して業務を展開する企業は、一定の生産コストに対する収益を最大化するように、プラットフォームのアルゴリズムを設計している。企業の収支がプラットフォームのアルゴリズムによって決まる現在では、プラットフォームが私たちの日常生活や仕事のあり方を再構築していると言える。

 

 

 プラットフォーム経済が私たちの生活に強く影響している現在、とりわけeコマース(注1)やIT産業に従事する女性労働者のエージェンシー(注2)や主体性に大きな影響を与える。アルゴリズムにより搾取される女性の労働環境を改善する策を検討するべく、グルマーシー氏は、各種マッチングサービスを展開するUrban Company(注3)・Uberで働くインド女性3名の証言を取り上げつつ現状を分析した。まず、労働者とプラットフォームを所有する企業との間の情報格差が問題視された。例えば、プラットフォームを介したビジネスでは多くの場合雇用の基準が不透明な上、プラットフォームに登録した労働者の個人情報がどのように利用されるかも不明だ。その上、企業が抱える労働者と顧客のマッチングのプロセスや、給料の算出方法も公開されていない。また、Urban Companyでは登録者の評価だけが公開されるが顧客の評価は閲覧できない。Uberの場合も同じく、評価は確認できるがアルゴリズムによる割当量への影響が不明で、乗客の評価も依頼を受けるまで閲覧できないという、評価システムの問題が残る。そのため、評価が低下すると労働者が不当なペナルティーを受けてしまう可能性がある。とりわけUberの方は、理由が明示されないままアルゴリズムによってトライバー登録が停止され仕事がなくなるケースがあった。さらに、ドライバーにはタスクを引き受ける前に行き先が表示されず、夜間に自宅から遠い行き先に割り振られた場合、女性にとっては危険だという。

 

 加えて、デジタル労働市場のAmazon Mechanical Turk(注4、以下AMT)・Amazon Saheli(注5)で働く女性3名の事例も紹介された。AMTでは、労働者はまずプラットフォームで自分のアカウントを作り、その後プラットフォームを通して顧客から依頼された仕事を完成し、給料を得る。しかしそこにも、アルゴリズムが関係する問題点がある。一例として、アカウントの承認基準が不透明であることがある。ここでグルマーシー氏は、AMTで3年間勤務している女性の事例を紹介。女性は本人にも分からない何らかの理由により自身のアカウントを発行できなかった。そのため自分のいとこのアカウントを借りて働いているが、代わりに給料の一部をいとこに渡しており、経済的に追い詰められている。さらにAMT側からは、女性が再三にわたりアカウントの申請をしても認められない理由や、どの基準を満たせば申請が承認されるのかについて一切説明されていないという。他にも、プラットフォームのアルゴリズムにより、仕事が米国の労働者に優先的に割り振られインドの労働者には全体の20%しか割り振られなかったり、何の連絡もなしに仕事を拒否されアカウントが停止されたりする場合が多数ある。一方Amazon Saheliは、インドの女性起業家が作った商品がAmazonで売れるよう販売促進を支援するプラットフォームだ。しかし、Amazon Saheli上に店のページを作る際、商品の写真を撮る人はプラットフォーム側が選び、女性起業家たちは自分の商品の紹介方法について意見を出すことができなかったという。さらに、Amazon Saheli上に紹介された商品はAmazonの本サイトで検索してもなかなか引っ掛からないため、宣伝が非効率的だというアルゴリズムの問題が存在する。

 

 以上の現状分析を踏まえ、グルマーシー氏は搾取をもたらす原因を二つ挙げた。一つ目は、不平等なアルゴリズムに基づく不透明な雇用環境が確立してしまうことである。プラットフォームを介して仕事をする際には、労働者が顧客から得た評価などを知る権利が重要である。しかし不透明な雇用環境の下では、労働者はその情報を基に自分の仕事の問題点を把握し主体的に改善することができず、常に雇用主からの処罰に怯えるという受動的な姿勢にならざるを得ない。つまり、情報の非対称性とアルゴリズムの不透明性によってプラットフォームを所有する雇用主や企業が絶大な力を持ち、労働者は声を上げることすらできないのだ。二つ目は、インド社会に根付く家父長制というアルゴリズムによらない外的要因がある。インドの女性は元々社会的に低い立場に置かれているため、自分たちが社会的に不遇な目に遭っている事実に気付くことが少なく、または気付いていても抵抗意識が芽生えない。実際、AMTの労働環境が悪くても、家庭のために少しでも多く収入を得ようと藁(わら)にもすがる思いの女性にとっては貴重な働き口と捉えられるという。

 

 最後にグルマーシー氏は、現在のプラットフォームを土台とした経済システムをどのようにしてジェンダー的に正しく包括的なものにするかについて二つの論点を提示した。一つ目は、アルゴリズム内部の仕組みを構築し直すこと。その中には、企業がプラットフォームのアルゴリズムにどのような責任を負っているかというデータに労働者がアクセスする権利を保障することと、ジェンダー・バイアスを是正するようなアルゴリズムを設計することが含まれる。そして二つ目に、アルゴリズムの外部を取り巻く社会的な合理性について考え直すことが鍵となる。なぜなら、アルゴリズムはさまざまな社会構造と深く結び付いているため、アルゴリズム内部の再構築を推進するにはデジタルに関する社会的な枠組みそのものを現在のジェンダー不平等な流れから切り離すことが必要不可欠だからだ。具体的には、女性が所有するプラットフォームの構築・プラットフォームの中に女性が主体となるビジネスの枠を一定の割合設けること・フェミニスト的な社会経済政策によりジェンダー平等を推進することなどが可能性として挙げられた。次のパネル・ディスカッションでは、その具体的な解決法・実現可能性に関して議論された。

 

パネル・ディスカッション:アルゴリズムによる女性の搾取を堰き止めるために企業・教育現場に求められることとは

 

 

 続くパネルディスカッションには、グルマーシー氏に加え、テクノロジー分野の教育とエンパワメントを通じジェンダーギャップを是正することを目指す、一般社団法人・Waffleの共同創設者の斎藤明日美氏、コンピュータネットワーク分野を専門とする、中尾彰宏教授(東大大学院情報学環)が登壇。Zoomで参加した視聴者からの質問やコメントに反応する形で議論が進んだ。

 

 最初に寄せられたのは「アルゴリズムに内在するジェンダー・バイアスを是正することで真の意味での経済的な平等を達成できるというのは理解できるが、実際どうすれば実現しうるのか」という趣旨の質問。これに対しまずグルマーシー氏は、プラットフォーム経済の中では、自らをアルゴリズムから切り離して自分だけの力でビジネスを始めるというのは難しいため、私たちはそのアルゴリズムを再構築するほかないと指摘。「例えばUberでは、出勤や帰宅など人の流れのピーク時にドライバーの給料が上がるという規定が設けられています。しかし、女性は子どもの送迎や世話でこの時間帯に仕事ができず恩恵を受けられない場合があります。この対策として、給料が上がる時間帯を少しでも延長すれば、利益を得る女性も増えるでしょう」と企業が自発的にアルゴリズムを調整して問題を解決する大切さを指摘した。これを受け斎藤氏も、企業の自発的な取り組みが重要だと同意した。「例えばFacebookは、プラットフォーム上での誤報を助長したとして過去に非難されました。もしFacebook側で不適切な投稿やコンテンツを監視し、必要に応じ削除などをすれば、外部の人間が対処するよりも簡単で効果的でしょう。(中略)このような問題のほとんどは、FacebookやGoogleなどビッグデータを独占する巨大なIT企業の下で起きています。」

 

 次に、話題は日本のAI倫理を巡る議論に移行。斎藤氏は、SONYやABEJAといった一部の会社がAI倫理の議論を取り上げ始めたばかりだが、日本は欧米に比べAI産業自体がまだ発達していないため、政策やシステムを整備する時間があると前向きな展望を述べた。ここで、司会の板津木綿子准教授(東大大学院総合文化研究科)が「AI倫理に強い関心を寄せる企業について説明がありましたが、それでは一般の人々にAIのアルゴリズムが生むバイアスについて教育する取り組みや団体はありますか」と質問。斎藤氏は、その実例として『MIT Technology Review』というテクノロジーに関する情報を幅広く発信するメディアと、AIについて学習できるオンライン教材を無料で提供するfast.aiを挙げた。一方、日本語の教材の開発はまだ進んでいないという。

 

 ここで、板津准教授が中尾教授の研究領域である5Gに着目し「ローカルの5Gネットワークに、公共のそれにはできないことを実現する可能性はありますか。また、ジェンダー正義に反する現象を是正するような技術革新はありますか」と質問。それに対して中尾教授は「ローカルの5Gネットワークが公共のものとどう違い、それが問題に対処できるのかについては分かりません。ただ、5Gによるデータ収集はリアルタイムで行われます。そのため、5Gを使って信頼度の高いデータを集め、そのデータをどう使い、どのように高レベルの結論を導き出すかのプロセスの透明性を確保することが大事でしょう」と答えた。しかし、データの透明性を確保するだけではなく、アルゴリズムを設計する段階でも、労働者のジェンダーや国籍などのこれまで見逃されていた側面も考えないといけないという。

 

 さらに「基調講演で言及されたような、バイアスを是正するためのプラットフォームの抜本的な再構築は、政府による規制や立法でしか達成できないものなのでしょうか。それとも、巨大IT企業やその倫理観を変えることは可能なのでしょうか」と質問に対して、中尾教授は、(研究者や企業のエンジニアなど)科学技術に関わる人間及び大手IT企業はこの問題にそれほど高い意識を持っていないとした上で、だからこそ問題提起をすることが大事だと主張した。一方グルマーシー氏は、2019年に日本の公正取引委員会がアマゾンジャパンなど巨大IT企業に対して、商品検索時にその表示順序を企業側の都合で操作することなどについて改善を要求した事例(*リンク先は日本経済新聞記事)を紹介。プラットフォームの改善における公的機関の役割の大きさに注目した。「IT産業はまだ発展途上で自らの利益を優先する傾向にあるため、自ら規制をすることは困難です。そもそもデータやアルゴリズムは企業の機密情報ですから、自らのデータをどのように公開するかの判断を企業側に任せるのは非現実的でしょう。そのため、基準の作成や、公的機関によるアルゴリズムの精査が求められます」。そして現在では、それらのIT企業の拡大する力を食い止めるべく、労働者・失業者・消費者・政府からさまざまな圧力が掛けられつつあるという。斎藤氏は、企業やそのエンジニア・政府・民間の活動団体それぞれの役割を述べた。企業側については、FacebookやGoogleにAIの公平性や倫理専門のチームが存在するがその機能が不十分だという例を挙げた。その上で、個々のエンジニアがAI倫理を意識すれば、彼らが直接的にアルゴリズムに影響を与え、バイアスの掛かったアルゴリズムや人々を搾取するプラットフォームの生成を防ぐことができるという別の側面に言及した。一方、労働搾取の問題に限っては、人々の生活に影響を及ぼすものであるため早急な対策が公的部門に求められる。さらに、WaffleのようなNGOは、問題に対する人々の意識を高め、政府などに声を上げるよう促すことができると指摘した。

 

 最後に「テクノロジーを民主的なものにするという目標に向け、IT産業の再構築とアルゴリズムのバイアスの是正を達成するために、教育にできることは何か」という趣旨の質問がなされた。中尾教授は大学教育における自らの経験を踏まえ、まず人々にそのような問題の実例を示すことで問題意識を培い、次に過去の類似した事例における問題解決の経験を提示することで解決策や改善策を考えるよう促すことができると主張した。グルマーシー氏は「学校が子どもたちにAIとデータに関する小さな実験をする機会を与える必要があると思います。また、例えば子どもたちがソーシャルメディアでキャンペーンを実施すれば、活動中に荒らしのコメントなどに対処することなどを通してアルゴリズムの働きを分析する経験を積むことで、意識を高めることができるでしょう。そして、情報工学を始めとする多様な学問領域の連携を推進しながら、中心的な教育機関が人々の情報技術への意識を高めるよう努力する必要もありますね」と語った。斎藤氏は、教育制度の設計の面に着目し、現状の理科教育は男性や特権的な地位にある人間によって設計されているため、次世代にも構造的なジェンダー・ギャップを再生産してしまう可能性があると指摘。「ジェンダー・ギャップをなくすには、テクノロジー分野の教育にジェンダー的観点を取り入れることが必要です。例えば理科教師・理科教科書の編集者に女性を増やすことで(テクノロジー分野の学問に進む女子学生が増えるため)STEMにおけるジェンダー・ギャップの縮小につながります」

 

 AIを含めIT産業のジェンダー平等への意識はまだまだ不足しているが、産業が発展途上の状態にある今のうちに法制度の整備・アルゴリズムの仕組みやAI倫理の教育などの対策を講じることが望ましい。しかしそれを実現するには、問題を積極的に発見することが第一歩だ。そして、解決法を考えるときに、多様な学問分野の連携が必要で、公的機関による外圧、企業のデータ開示やAI倫理チームの機能保障、及び教育に情報工学・AI倫理と触れ合う機会を増やすことが求められる。早い段階で多くの人々に問題意識を持たせることで、AI産業が成熟・普及する近い未来では、不公正なアルゴリズムによって被害を被る人がいなくなる可能性が十分にあるだろう。

 

注1 インターネット上で商品の売買や取引をすること

注2 自ら選択・行動をする能力

注3 住宅メンテナンスや清掃などの分野で、オンライン上で単発の仕事を請け負う人材を提供するインドのオンラインプラットフォーム

注4 AIにできない単純労働を代行する労働者をオンラインで提供する、Amazonのウェブサービス・プラットフォーム

注5 インドの女性起業家・個人経営者に対してAmazonでの商品販売などを支援するプラットフォーム 

 

【関連記事】

【身の回りのジェンダー】①「メディア表現におけるジェンダー平等は普段の情報発信から始まる」林香里教授に聞くAI研究の最前線

タグから記事を検索


東京大学新聞社からのお知らせ


recruit

   
           
                             
TOPに戻る