カテゴリーで探す
キーワードで探す
  • ISSUE 25:
  • AIと○○

AI活用に必要な法のあり方を考える

NEDOプロジェクトでAI・ロボット活用のガイドラインを作成

山田 希法学部 教授

    sdgs09|sdgs11|sdgs16|

AI技術が目覚ましい勢いで進化し、社会になくてはならないものになる中で、AI利用に関する法整備が追い付いていない現状がある。山田希は、民法学の観点からAIの活用が、とりわけ人格権に及ぼす影響を明らかにするとともに、AIを活用していく上で必要な法について検討している。

AIの利便性を認め、活用するための法整備が重要

AI技術は目覚ましい勢いで進化しており、人々の生活にも、また企業の事業活動にも、なくてはならないものになりつつある。AIの利用を抑制することは、もはや不可能といっていい。山田希は、AIの著しい進化を見据えつつ、民法学の観点からAIの活用が影響を与える法的問題を明らかにするとともに、AI時代に必要な法について考えている。とりわけAIがプライバシーや名誉、自己決定、平等といった基本的価値や人格権に及ぼす問題に関心を持っている。

「わずか数年前までは、AIが社会にもたらすリスクの大きさを考え、積極的な活用には懐疑的でしたが、現在ではAIの利便性を認め、リスクや弊害を抑えながら、うまく活用していく方策を見出すことが重要だと考えるようになりました」と語る山田。それを確信するきっかけとなったのが、「人とロボット・AIの共存」を目指した立命館大学の大型研究プロジェクトに参画したことだった。

立命館大学は、2022年度から2024年度まで、国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の「産業DXのためのデジタルインフラ整備事業/複雑なシステム連携時に安全性及び信頼性を確保する仕組みに関する研究開発」プロジェクトを推進。山田はプロジェクトメンバーとして、AIやロボット活用におけるガイドラインづくりを担った。

プロジェクトでは、SoS(System of Systems:ひとつの空間で複数のシステム群を統合するためのシステム)時代のシステムの安全性・信頼性とイノベーションの両立に向けたデジタルインフラ整備及びガバナンスのあり方について研究開発。大阪いばらきキャンパスをリビングラボとして、自律移動ロボットを社会実装するための実証研究を行った。特徴は、試運用しながらガバナンスを構築し、それらを継続的に評価・改善していく「アジャイル・ガバナンス」の手法を導入したことだ。実際に自律移動ロボットを運用してリアルタイムに検証し、事故やトラブルが起こった際には原因究明と再発防止を図ると同時に、ガイドラインを作成していく。山田もメンバーの一人として作成に携わった。

「アジャイル・ガバナンス」に加えてもう一つ特筆すべきは、ガイドラインに補償制度を盛り込んだことだ。法的責任があると判断された時に支払われる損害賠償とは異なり、補償は過失や法的責任の有無にかかわらず支払われる。「補償制度は二段階モデルです。事故などが発生した場合、まずは被害者を迅速に救済し、その後に原因を究明して過失があれば求償や制裁を行います。この仕組みで社会的コストを抑えながら継続的な改善を進められます」と言う。もし開発途上で発生した事故について、開発者が法的責任を追及されるとしたら、積極的な技術開発は望めないだろう。開発者が委縮せず、イノベーションを追求できることが、損害賠償とは異なる補償のメリットだ。また法的責任を厳しく追及すると、データを隠蔽するなど原因究明を遅らせることにもつながりかねない。補償制度なら、こうしたリスクも低減できるという。「アジャイル・ガバナンスの手法を取り入れることで、リスクを低減しながらAIの活用を推し進めていけることを確認できました」

AIによる不法行為責任のルールの明確化が必要

AIの進化と社会への浸透が進む一方で、そのスピードに法整備が追いついていない現状がある。山田はAIを巡る法的な課題として、まず民法上の不法行為責任に関するルール(法)が定まっていないことを挙げる。

「AIは、個人のプライバシーや名誉・社会的評価に大きな影響を及ぼします」と山田。例えばSNS上では、AIがフェイクニュースや中傷的なコンテンツを大量生成・拡散することが可能になり、個人への誹謗中傷が自動化・増幅される危険が高まっている。特にAIを使って合成した画像や映像などのディープフェイクは、本人が行っていない言動をあたかも事実のように捏造し、その人の名誉や信用を著しく傷つける恐れがある。「しかし生成AIが普及し始めてからわずか数年しか経っておらず、AIに関する不法行為に関しては、どのような場合にどのような法的責任が生じるのか、その基準が明確になっていません。AIについて裁判官が依拠する裁判規範、そして市民が社会生活で守るべき行為規範のいずれも明確にしていく必要があると考えています」と言う。

不法行為責任に関しては、ルールの明確化に加えて、救済手段を多様化していく必要性も説く。故意または過失によって他人の権利や利益を侵害した場合、最も典型的な救済方法は損害賠償である。しかしAIによる名誉毀損に対しては、名誉毀損罪や不法行為責任といった従来の法律だけでは、被害者の救済を図るには不十分だ。「例えばディープフェイクのような被害の場合、お金を払えば済むというものではありません。インターネット上に拡散された虚偽の情報が削除されなければ、救済されたことにはならないからです」。もしAIによって他人の顔を合成したポルノ動画がインターネット上に出回れば、被害者は深刻な精神的苦痛を受けるだけでなく、社会的評価も損なわれかねない。一度インターネット上に拡散した誤情報を完全に撤回することは難しく、被害回復には限界があるのが現状だ。「そのためにも情報の訂正や公開の差し止めといった、損害賠償以外の救済方法を適用するための法的根拠について、理論的に深めていくつもりです」と言う。

もう一つ不法行為責任に関する課題として言及するのが、「過失の立証責任」についてである。通常裁判で不法行為に基づく損害賠償請求権を主張するためには、被害者が加害者の過失を立証しなければならない。しかし例えば自動車事故の場合、被害者が一方的に不法行為の立証責任を負わされるのは不公平であり、そもそも相手が故意だったのか、あるいは過失だったのかを証明することは、極めて困難だ。そのため加害者の故意・過失の立証に関しては、被害者ではなく、加害者が自分に故意・過失がないことを立証しなければならないという「立証責任の転換」規制がある。「AIによる事故が起きた場合も、被害者が故意・過失を証明することは不可能です。これについても『過失の立証責任の転換』を認める必要があると考えています。そのための理論研究を進める必要があります」と語る。

AIの意思決定のブラックボックス化が課題
デジタルプラットフォームの責任も検討

また山田は、民法における契約法に関わる領域でも、検討すべき問題を提起する。その一つがAIの意思決定プロセスにおける透明性と説明責任の必要性だ。「AIが関与する意思決定では、そのプロセスがブラックボックス化しがちで、当事者である個人が結果に納得したり、異議を唱えたりすることが難しくなる場合があります」と問題点を指摘する。

例えば近年、不動産売買における査定や保険契約における審査にAIによる自動分析が導入されている。AI分析の問題は、「なぜその結果を出したのか」、AIの思考プロセスが分からないことだ。そのため個人は、自分に関することにも関わらず、自らの決定に関与できないし、それどころか情報環境を操作され、知らないうちに意思形成を誘導される危険もある。「こうした事態を防ぐためには、AIによる意思決定プロセスの透明性や説明責任の確保が不可欠です。それだけでなく、自己決定権についても、異議を申し立てる権利も含めるなど、改善を検討していく必要があると考えています」と言う。

現在山田は、日本学術会議の「ICT社会と法分科会」において、デジタルプラットフォーム(DPF)の社会的責任について検討している。「Amazonのような電子取引のDPFを介した売買で、商品が発送されなかったり、欠陥品が送られたりしたとしても、売買契約はあくまで販売者と購入者の間で結ばれたもので、DPF企業と購入者は契約関係にないため、現行の契約法では、DPF企業は原則責任を負いません。しかし取引の『場』を提供している事業者として、何らかの責任を負うべきではないかという議論が高まっています」。そうした現状を踏まえ、山田らはDPF企業に法的責任があることを根拠づけるための理論的な補強を進めている。

先進のEUに対し、日本で進むソフトローの整備

デジタル領域の人権保護について、日本は法整備が進んでいるとはいえない。この領域で世界をリードしているのは、欧州連合(EU)だという。山田によると、EUでは2018年に「一般データ保護規則(GDPR)」が施行され、「個人データの保護は基本的原理である」ことが明示されるとともに、EU域内で個人データを扱うすべての主体に対し、厳格な義務が課せられた。また2024年に発効した「AI規則(Artificial Intelligence Act)」の段階的適用が始まっており、AIの包括的規制も進められている。「この規則の特筆すべき点は、AIによるイノベーション促進と、人権・民主主義・法の支配の保護を両立しようとする点にあります」と山田。規制では、リスクベース・アプローチが採用され、用途ごとにAIの規制の度合いが区分されている。人間の尊厳や基本的価値を著しく侵害する許容できないリスクのあるAIは提供・使用を全面禁止にし、高リスクのAIについては事前にリスク評価や認証を行い、透明性・説明責任や人的監督などの要件を満たした上でのみ使用を認めている。一方で、リスクが限定的なAIに関しては、比較的緩やかな規制を適用する。「規制一辺倒ではなく、リスクを抑えて、活用する余地を残している」点を山田は評価する。

AI規制の整備が進むEUに対し、日本では「ハードロー(Hard low)よりもむしろソフトロー(Soft low)によってAIと市民の共存していくアプローチが主流になっています」と山田。法律や条令のように法的拘束力のあるハードローではなく、まずは国や組織がつくるガイドラインなどを通じた自主的・協調的な規制で、AIの人権侵害リスクに対応しようというわけだ。2024年1月に、総務省・経済産業省が合同で「AI事業者ガイドライン(案)」を公表。AIを開発・提供・利用する事業者に対し、「法の支配、人権、民主主義、多様性、公平公正な社会を尊重するようAIシステム・サービスを開発・提供・利用すべきである」との共通原則を掲げた。こうしたソフトローが、日本におけるAIの倫理的・法的運用の指針となっている。山田が先述のNEDOのプロジェクトでAI活用のガイドラインを作成した時も、国が公表している指針の他、ISOなどの国際規格、またEUのAI規制など、国内外の指針や規制を参照したという。

AIの存在しない社会は、もはやありえない。「AIがあることを前提に、人権や人格権が守られるルールをつくっていかなければならない」として、山田はさらなる理論研究を進めていく。

山田 希YAMADA Nozomi

法学部 教授
研究テーマ

1. デジタル時代における人格権の再構築:AI技術と人間の尊厳の法的融合
2. 高齢化社会の資産管理パラダイム:金融ジェロントロジーの学際的探究
3. 信託法理の民事体系との整合性

専門分野

民事法学