生成AIのもたらす社会課題データバイアス・フェイクニュース・揺さぶられる法制度
主催:東京大学 エドテック連携研究機構 生成系AIと教育環境研究プロジェクト(GENEE)
共催:B’AI Global Forum
開会のあいさつ 生成AIのもたげる波
生成AIは日本経済の停滞を克服するための一つの方法として大きな注目を集めており、多くの分野での活用が進められています。一方で、アメリカの映画協会では、AIにより脚本が生成されることで、脚本家の職が奪われる脅威やクリエイティビティの低下という懸念も生じています。
私が専門としている人文社会科学において「最大公約数」という言葉は、人間社会にとって危険性があるものと指摘されています。過去のデータを基に、あらゆる答えを最大公約数として出してくれる生成AIは、使い方によっては私たちの世界を画一化していくことに拍車をかけているのではないでしょうか。
AIは、社会をどの方向に動かす圧力を授けているのか、私たちはAIのもたらす激震について、水面に見えるさざ波を見定めるだけでなく、海底で変化する潮流を察知し、眼前にもたげる波と向き合う、こうした姿勢が必要であるのだろうと思います。
話題提供1 生成AIの法・政策的課題
生成AIで必要になる学習データは、著作権者に無断で使って良いのかという問題があります。日本では、2018年制定の著作権法30条4により、学習のためであり、著作権者の利益を不当に害しない場合は、許諾なしでの使用が許されています。EU法では、学術目的と営利目的でルールが分けられ、後者では権利者のオプトアウトが認められていて、英国法では、AIリスクの大枠の中で個別の訴訟を基に判断されます。また権利者に対するフェアな報酬の問題も論点となっています。
生成AIの成果物の著作権に関しては、AI自体は著作者として認められず、人間が介入した場合のみ、その作品が著作物として認められる可能性があります。生成AIによる作品の著作権侵害は、その作品がどれくらい元の著作物に似ているかや、元の著作物に依拠して作られたかという観点から判断されます。
個人情報・プライバシーに関して、日本では個人情報保護委員会などで個人情報の学習データでの利用、入力した個人情報の利用、学習した個人情報の出力などが議論されています。EUではGDPRという厳しい個人情報保護法を持っており、個人データの処理アルゴリズムの公開、「忘れられる権利」の確保、大量の個人データ処理への利用制限などが議論されています。
フェイクニュース・バイアスは法律的に論じるのは難しい領域で、日本ではファクトチェックやメディアリテラシーなど、法律以外のアプローチで主に対応しています。EUではプラットフォーム提供者が有害情報に関するリスクを評価し、合理的なリスク緩和措置をとる必要がある、という規制をかけています。
アメリカでは、法律などの規制よりも、ホワイトハウスが提示した文章に大手生成AI各社が署名するという、政府規制と自主規制の中間のアプローチをとっています。規制の内容についてはEUと類似しています。
また日本ではあまり議論されていませんが、ヨーロッパでは特に創作者団体から、AIが学習するコンテンツが、さまざまな多様性を含むことや、欧州製の情報、専門家によるコンテンツの一定割合の確保を求める動きも起きています。
話題提供2 インターセクショナルなフェミニズムとAI/アルゴリズム メディアに対する信頼性の棄損とその取り戻しに向けて
近年、人間による意思決定の代替やサポートを行いつつあるAIやアルゴリズムの判断が、人種や階級、国籍、ジェンダー、セクシュアリティ、その他の複合的な属性に基づいた差別や無視、偏見の助長などを引き起こしているということが、非常に多く指摘されるようになっております。こうした指摘を受けて、2018年頃からAIの公平性を確保するために、インターセクショナリティという概念についての研究も大変増えています。
ChatGPTは非常によく教育されていて、例えばポルノ小説や他者を攻撃するような文章は書いてくれません。けれども自然にバイアスが出てしまうこともあります、例えば大学教授を主人公に小説を書くように依頼すると、必ず男性教授の物語を書いてきます。それから、育休を取得するためのプランニングをお願いすると、育休を取るのは女性であると勝手に認識して提案をしてきます。生成AIであっても、現時点ではなかなかバイアスから逃れるというのは難しい、と考えております。
私は数年前から情報学環で教えていますが、それ以前は人文社会科学の知というものはもう終わり、理系の研究のほうが有意であって、社会科学にできることは何もないのではないかと、暗い気持ちになっていたこともあります。しかしテック業界と人文社会科学の知というものを接続することによって、課題解決に向けた色々な試みができると思い、むしろ研究や学習がすごく楽しくなっている状況です。
例えば、特に生成AIが日々生成している様々な知に対して、インターセクショナルな複合化された様々なマイノリティのカテゴリーといった考え方から分析が可能なのではないか、というふうに考えています。
テクノロジー自体は別に差別的な偏見を持っているわけではなくて、それを運用する人間の側に、既に埋め込まれているさまざまなバイアスやステレオタイプや差別意識みたいなものがあって、そういったものを見つめ直す一つのきっかけとして、この生成AIというものを考えていくということも、私たちにとって非常に重要な試みではないかと思います。
そもそも生成AIの公平性とはどのようなものなのか、もう一度哲学的に考えてみるということが必要なのではないでしょうか。生成AIについても、女性や人種など排除されているものを無限に加え続けることが本当に公平なのか、という角度から検討していくことができると思います。そもそも生成AIが構造的な抑圧のようなものをもたらしている、その根本的な原因は何なのでしょうか。そういったことを含めて、公平性というものについて議論していくことが重要だと思います。
話題提供3 生成AIとデジタル情報空間
コロナ禍で、偽誤情報が多くなっています。人々がなぜ情報を拡散するのかを調べてみると、「内容に共感した、面白い、役に立つ、社会にとって重要である」といったことが拡散の基準になっています。その次にようやく「情報の信憑性が高い」ということが出てきます。「偽誤情報はなぜ拡散するのか」というと、「別に本当かどうかは誰も気にしていないから」というのが答えになります。多くの人は情報を拡散するときに、「情報の真実はどちらでもいい、面白いからとりあえず拡散しておこう」と考えていることが、要因にあるわけです。
ここに生成AIが入ってくることによって、情報の信頼性がどんどん低下してきています。生成AIでは粗悪な記事を大量生産することが容易になります。ファクトチェックで対応しようにも、生成AIが簡単に大量の記事を作れるのに対して、ファクトチェックは1個1個の記事に対して、丁寧に真実かどうかを検証する必要があります。
そもそも人間には、「確証バイアス」のように、先入観から物事を判断したり、政府が嫌いな人は、政府が勧めているワクチンも嫌いになるという「認知的均衡理論」と言われているような判断を誤らせるバグがあります。そのためフェイクニュースでも受け入れてしまうことになり、それをどう改善するのかというのが、大きな問題になっているわけです。
健康というのは、身体的な健康だけではなく、精神的で社会的にヘルシーな状態も含むと言われています。我々は精神的な健康のために「情報」という観点を入れて、情報摂取に関しても暴飲暴食を減らして、質の高い情報を摂取することで長期的な各自の希求する健康が満たされた状態をきちんと目指すことがいいのではないか、と考えています。
パネルディスカッション 生成AIがもたらす社会課題と解決の方向性
板津 今、生成AIの開発において、技術の開発ありきで、盲目的に前進しているように見えるのですが、実は更なる開発を踏みとどまるべき局面に来ているのかどうか、ということをお伺いしたいです。
生貝
生成AIに関して日本でどのような法律を整備していくのかというのは、現状では方針は定まっておらず、これからの課題になっています。
EUでAIを規制する法律も、適用開始されるのが早くても2025年くらいになってしまい、それでは間に合わないということで、デジタルプラットフォーマーに対して対策をしてくれと訴えることを、まずは大急ぎで進めているところです。
田中 世論の形成や喚起はとても大事で、今インターネットの中で女の子の性的なイラストがたくさんあり、そういったものに傷ついている若い女性たちがたくさんいるんですね。これはよくないという世論ができれば、法律や規制に繋がっていったり、技術をどういうふうに利用するべきか、という世論形成ができていくと思うので、技術の開発を制限するよりも、やれることは社会の側にたくさんあると考えています。
鳥海
生成AIは素晴らしい機能がたくさんついているので、コンピュータサイエンスとしては、ぜひ進めていきましょうという方向です。ここで規制しましょうという話になるのは、あまり良くないと考えています。
そもそもディープラーニングが出てきたあたりから、AIの今後の発展ということに関しても、ずっと議論をしてきているわけです。もう十数年、AIの規制その他については、AI研究者、社会学者含め、みんなでいろいろ、ずっと議論をしてきて、結局最終的に社会に浸透してみないと何ができるかよく分からないという面が非常に強いわけですよね。そういったものに対して事前に規制をかけられるかどうかというと、やはり難しいところはあると思います。
板津 より包摂的な社会、より民主的な社会を実現するために生成AIをどういうふうに使えるのでしょうか。
田中 私たちがどのような社会をこれから望んでいくのかという想定とともに、 それなら生成AIをこういうふうに使っていこうと、望ましい使い方についての考えが出てくるのかなと思います。
生貝 生成AIは、営利企業が特定のビジネス目的のために提供しているAIでもあるわけですから、 まさしく彼らの基本的なインセンティブというところも深めた理解をする、そういったことをどう学校でも教えていけるか、ということが重要だと感じています。
板津 開発者や実装者、それから人文社会科学の研究者の関心が交わって協働する際に何か工夫するべきことはあるのでしょうか。
生貝 法律と人文社会科学との交わりというのも非常に少ないです。イノベーションは確かに重要ですが、それだけでは進んでいけない部分があります。法学の世界でも、これから新しい事象に対して向かっていくために、理論的根拠というのが重要だと考えています。そのためにはもっと人文系出身の法学研究者が増えるとよいのではないかと感じています。
田中 私も分野横断の研究をやっていく中で、意外と社会学的な知であるとか、人文学的な知について知りたいと考えてくださっている方がたくさんいらっしゃることが分かってきました。積極的に分野横断でやっていくことが大事ですし、法律とか政策というところに最後はたどり着いていくと思いますので、法律が専門の方たちも一緒になって、この生成AIという新しいテクノロジーに対して、どんどん共同研究を展開できるといいなと思います。
鳥海 多くのAI研究者がおそらく「法的な縛りは非常に困る」と考えているところがあると思います。日本では、人工知能の研究者と法学者あるいは人文社会学者というのが、すごく真面目に議論して何かを出している場面があるかというと、おそらくほとんど皆無だと思います。これはどちらかというとAI研究者側の問題だとは思うのですが、こういったものの大切さというのをきちんと共有して、こういった議論をどんどん国内からスタートし、きちんとやっていく場を作っていくことが、喫緊で必要なことなのではないかと思います。
挨拶 生成AIのもたらす社会課題にどう立ち向かうのか
生成AIのもたらす社会課題に対して、基本的には何かこれをやればという万能策があるわけではありません。社会課題を考えるときに、それは教育、それは法律、技術的なことは技術で、と押し付け合って協働が成立しない、ということがよくあります。これをやっていると生成AIのような巨大な課題に対して立ち向かえません。全てのレイヤーの人たちが粘り強く協働しながら努力を積み重ねることが、非常に重要だと思います。
その上で、まず法制度は行動や判断の人間的規範を可視化するということに関して、非常に重要な役割を果たし始めています。提供者に対してこういうものが大事ですよ、だから技術的な対応をしてくださいね、と言うこと、我々の社会としてこれを大事にしているんだと表明することを、もう既に始めている、ということだと思います。それを可視化することが、他のレイヤーで何をすべきかということの大きな方向性を決めます。ただし法律で決めたからといって、他のレイヤーが全てサボってしまうと実効的なことが何も起きません。そうすると実は、法律は空文化して、結局それは価値を実現できないということになります。こうした規範を可視化するために、色々なレイヤーの協力が必要になります。
その上で、やはり社会課題に立ち向かう土壌を作ることが教育としては大事なことです。教員も学習者も、みんなが大きな社会課題に立ち向かっていくために現状を知って、ここから先どうしていくかを考えることが必要です。
人間や社会が、それぞれ「ウェルビーイングな状態」になるということが教育の基本的なこれからの価値観であって、キーワードになっていくかと思います。この生成AIが、今のままではウェルビーイングな情報社会に繋がらないかと思いますが、それを繋げていくために、粘り強くさまざまな人々が努力を積み重ねるということが今から必要だと考えます。