2024年12月20日公開
第7回 ユーザの立場から見たEU AI法を含むグローバルAI規制の最新動向
Ⅰ EU AI法の概要
1 2026年8月から全面適用されるEUAI法
EU AI方は、ベンダ及びユーザ双方によって注目されている。本稿では、ユーザの立場からどのような点に留意すべきかを説明したい。
筆者は、本年3月にAI法に関する論考1を公表した。この時はいわゆる「ほぼ最終バージョン」のドラフトが公表され、それに基づく考察を行ったものであった。
その後、2024年7月12日にEU AI法が公布された。その20日後である同年8月1日に施行されるが、実際には、その24ヶ月後の2026年から全面的に適用を開始する。ただし、提供が禁止されるAIシステムに関する規定などは施行から6カ月後の2025年2月に、生成型AIに関する規定などは施行から12カ月後の同年8月に適用を開始する2。
このEU AI法のテキストは以下のリンクをご覧になられたい3。
なお、かつて、2021年段階の草案(当時は「AI規則案」と呼ばれていた)が広く人口に膾炙し、総務省のHPで和訳も公表されている4。この時点のものと現在のものとを比較すると、ChatGPT等の生成AIの発展を踏まえ、相当程度変更されているので、当時のものを確認してそれでよしとするのではなく、最終的に公布されたものを読むべきである。
1)松尾剛行「成立間近のEU『AI法』で留意すべきAI利用者への影響-政策パッケージの動向を国内金融機関として注視すべし-」金融財政事情2024年3月5日号(https://kinzai-online.jp/node/11354)
2)https://www.jetro.go.jp/biznews/2024/05/4a706cd3034c4706.html
3)https://eur-lex.europa.eu/eli/reg/2024/1689/oj
4)https://www.soumu.go.jp/main_content/000826706.pdf
2 リスクベースアプローチ
この点は、既に多くの方がご存知だと思われるが、EU AI法はリスクベースアプローチを採用している。そこで、それぞれのAIの類型に応じて、最もリスクが高いAIは禁止類型とされ、その利用等が禁止される。また、ハイリスクについてはAIは重い義務を負う。 さらに、限定的リスクのAIについては、透明性に関する義務を負うに留まる。 最後に、最小リスクのAIには法的規制は適用されず、行動規範の遵守が期待されるに留まる。
【European Commission”AI Act”より引用5】
5)https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai
3 汎用目的AI
AI法3条63号は、汎用目的AIモデル(general purpose AI model)を、「大規模な自己監視を使用して大 量のデータで学習される場合を含むAIモデルであって、有意な汎用性を示し 、そのモデルが市場に投入される方法に関係なく、様々な下流のシステムまたはアプリケーションに統合することができ、様々な異なるタスクを適切に実行 することができるもの」等と定義する。
筆者は、汎用目的AIを考える際は「生成AIの基盤モデルを念頭に置くと良い」と説明している。例えばGPTモデルは大量のデータで学習し、有意な汎用性を示しているため、既にリーガルテックやそれ以外の様々なシステムまたはアプリケーションに統合されている。
そして、この汎用目的AIを「汎用AI」と勘違いしないでいただきたい。汎用AI(artificial general intelligence)は、あらゆるタスクを人間と同等以上にこなすことができるAIと言われるが、あるAIが汎用目的AIモデルの定義に入るかの判断においては、このような幅広い分野で高度なAIであるかは問われていない。
そして、汎用目的AIモデル一般に対する規制は、汎用AIモデルの訓練に用いたコンテンツに関する十分に詳細なサマリーを策定して公表する等、そこまで重くないものの、システミックリスクを招くものについては、当該リスク回避のための評価・軽減等が要求されている。
Ⅱ EU AI法の国際適用
1 域外適用規定の存在
AI法はあくまでもEUの法令である。しかし、AI法2条は直接適用規定に加え、域外適用規定をも定めており、そのような域外適用規定を踏まえると様々な日本企業の活動にAI法は適用され得る。そこで、日本企業にとっても決して「他人事」であってはならない。
2 日系グローバル企業のEU子会社には当然に適用されること
EU内において設立され、又は、EU内に設立されているAIシステムの実装者(実装者につきIII・1を参照のこと)にはAI法が適用される(AI法2条1項b号)。例えば、日本企業のEU子会社が、AIシステムを実装する場合には、EU AI法が当然に適用される。
3 日本からEUの顧客にAIを利用してサービスを提供する場合等、EU法人等がなくても適 用される可能性があること
提供者(提供者につきIII・1を参照)がEU内でサービスを提供する場合、提供者が設立され、または所在しているのがEUの内外いずれであるかに関わらずAI法が適用される(2条1項a号)。そこで、例えば日本企業が、EU内でAIサービスを提供する場合にはAI法が適用され得る。とはいえ、IT企業やAI企業でない、いわゆるユーザ側としては、「うちはEU内でAIサービスを提供していない」となることが多いのではないか。
しかし、設立され、または所在しているのがEU外である提供者及び実装者であっても、そのシステムにより作成されたアウトプットがEU内で利用される場合等には、AI法が適用される(AI法2条1項c号)。現時点ではこれがどのような場合かは必ずしも明確ではないものの、例えば、ユーザ的な利用者であってもEUに顧客が存在することは少なくない。EUにいる顧客への(AIシステムで生成した)アウトプットの提供がトリガーとなって、AI法が適用される可能性は否定できない。
Ⅲ EU AI法の実装者(deployer)の義務
1 ベンダとユーザ
ベンダは、主に3つのカテゴリーに分けられ、ハイリスクAIを念頭に置くと、提供者(AI法16条以下)、輸入者(AI法23条以下)及び、頒布者(AI法24条以下)それぞれの類型ごとに義務が課される。
提供者は、自然人または法人、公共機関、代理店その他の組織であって、AIシステム若しくは汎用目的AIモデルを開発する者、AIシステム若しくは汎用目的AIモデルを開発させ、市場に投入する者、又は自らの名称または商標の下でAIシステムをサービスとして提供する者を指し、有償か無償かを問わない(3条(3)号)。提供者の定義がかなり広汎であることに留意されたい。
輸入者は、EU域内に所在または設立された自然人または法人であり、第三国に設立された自然人または法人の名称または商標を有するAIシステムを市場に投入する者を指す(3条(6)号)。
頒布者は、提供者または輸入者以外のサプライチェーン上に存在する自然人または法人であり、AIシステムをEU市場で利用可能にする者を指す(3条(7)号)。
要するに、ベンダ的な立場の企業は提供者になることが多く、そうでなくても輸入者や頒布者という形で、何らかの形でベンダに関する規制がかかってくるのである。
これに対し、ユーザ的な企業は、AI法上実装者(deployer)といわれる。実装者とは、AIシステムが個人的な非専門的活動の過程で使用される場合を除き、自然人または法人、公的機関、代理店またはその他の機関がその権限に基づいてAIシステムを使用する者を意味する(3条(4)号)。典型的には、AI企業ではない企業がAIシステムを利用する場合である。
2 実装者に課された義務とは
実装者の義務を確認する際は、deployerだけではなくoperator(AI法3条(8)号)の義務(特にSection 3 Enforcement(執行)でよく登場する)についても確認する必要がある。
まず、4条でAIに関するリテラシーについての義務(定義につきAI法3条(56)号参照)を負う。
次に、26条でハイリスクAIの実装者は利用上の義務を遵守するための技術的・組織的措置を講じる義務を負う。
更に、27条でハイリスクAIの実装者は基本権影響評価を行う義務を負う。
加えて、50条で実装者は一定のAIについて透明性義務を負う。
その他、影響を受ける個人に対する説明(86条)等の義務も負う。
3 ベンダが何とかしてくれる?
これらの義務は全てベンダがなんとかしてくれる、つまり「このAIシステムさえ使っていれば全てEU AI法を遵守できる」といったシステムをベンダは提供してくれるのだろうか。確かに、ベンダはAIアラインメントということで、コンプライアンス等の観点から出力物をコントロールしたり、電子透かし等を入れる。
例えば50条4項で実装者が負う、「ディープフェイクに該当する画像、音声、動画コンテンツを生成または加工するAIシステムの実装者は、そのコンテンツが人為的に生成または加工されたものであることを開示しなければならない。」という義務を考えてみよう。例えばベンダが「既にそのような表示や透かし等が付された生成物しか生成されないAI」を提供することで、ユーザとしてはあまりこの義務を考えなくても自然に遵守できるといった状況は考えられる。
しかし、26条の組織的措置を講じることや、27条の基本権評価を行うことについては、もちろん、ベンダ側が今回提案しているAIは「このようなもので、このようなリスクがあります」という説明をしない限り、適切な対応はできないのだろうが、やはりユーザ側でも相当以上にやることが残るだろう。そういう意味では、「ベンダにお任せ」という姿勢は取れないだろう。
Ⅳ 本当に当社は「実装者」なのか?
1 ユーザ的立場の企業が実装者の範疇を超える時
また、実装者やその他の第三者であっても、AIシステムの実質的変更(substantial modification)や意図された目的の変更(modify the intended purpose of an AI system)を行うことによってAI法上ベンダ(提供者)と同様の義務を負う可能性があることにも留意が必要である(AI法25条1項(b)号、(c)号)。
例えばユーザが、元々存在しているシステムを自社のデータ等を利用して加工し、その結果として実質的変更があったとみなされるとか、ユーザが汎用目的AIをベースに、その利用目的を例えば重要インフラに利用するためのものへと変更し、その結果としてハイリスクとみなされる等、具体的な状況に応じて、実装者ではなく提供者の義務を負うことになる。
2 提供者とみなされる場合の帰結
AIそのものについて以下の義務が規定されている。
リスクマネジメントシステム(AI法9条)
データおよびデータガバナンス(AI法10条)
文書化(AI法11条)
記録保持(AI法12条)
透明性と実装者への情報提供(AI法13条)
人間による監視(AI法14条)
正確性・堅牢性・サイバーセキュリティ(AI法15条)
また、AIシステムの提供者は以下の義務を負う。
AIそのものに関する義務の遵守の確保(AI法16条(a)号)
事業者名等の明示(同条(b)号)
品質マネジメントシステム(同条(c)号、17条)
文書化(同条(d)号、18条)
記録保持(同条(e)号、19条)
適合性評価手続き(同条(f)号、43条)
EU適合宣言(同条(g)号、47条)
CEマーク(同条(h)号、49条)
登録義務(同条(i)号、49条1項)
是正措置・情報提供(同条(j)号、20条)
国内の所轄当局の要求に応じた適合性の証明(同条(k)号)
アクセシビティに関する要求の遵守(同条(l)号)
上市後の監視(AI法72条)
重大インシデントの報告(AI法73条)
これらはかなりレベルの重い義務であることから、ユーザ企業の法務の皆様は、自社のAIの利用方法がこのような実装者の範疇を超える義務を負うものではないかについて注意すべきである。
V EUAI法以外への留意も必要
1 AI法以外のEUのルール
(1)機械規則提案
既に機械指令6つまり、機械類に関する EU加盟国の法律の整合性を取るための指令が存在するところ、ロボット・AI等の新技術に対する対応をすることを主な目的としてこれを規則に格上げする提案である。「AIシステムを含む、安全機能を確保するソフトウェア」や「安全機能を確保するAIシステムを組み込んだ機械」をハイリスクの機械製品として追加し、機械一般において用いられるAIシステムの安全を総合的に保証しようとする。
(2)AI責任指令案
AIシステムが関係して生じた損害に対する契約外の民事責任の一部について統一的な規則を定めようとするものである7。AIシステムにより生じた損害の賠償を求めた場合においても、主要な証拠はベンダの方にあり、また、注意義務違反や因果関係の証明が難しいという問題がある。そこで、一定の場合には、ハイリスクAIの提供者等に証拠開示を要求することができるとする。そして、それにもかかわらず証拠が開示されない場合においては、注意義務違反が推定(反証は可能)されるとする(3条)。また、過失が認められ、AIの出力(不作為を含む)にその過失が影響している可能性が高いと合理的に認められる場合であって、かつ、AIの出力(不作為を含む)が損害の原因となったと証明した場合等においては因果関係が推定(反証は可能)されるとする(4条)。
7)https://eur-lex.europa.eu/legalcontent/EN/TXT/?uri=CELEX%3A52022PC0496
(3)製造物責任指令改正案
「ソフトウェア」を製造物責任の対象となる「製造物」に該当させる提案 が含まれる8。即ち、 製品とは、すべての動産を意味し、他の動産または不動物と一体化している場合も含む。製品には、電気、デジタルマニュファクチュアリングファイルおよびソフトウェアが含まれるとする。
(4)「政策パッケージ」に注目すべき
そしてGDPR、データガバナンス法9やデータ法10等のデータに関する法令が包括的にAIを規制する11。
このように、実務への影響を検討する上では、AI法だけを見ていれば良いのではなくそれ以外の関連諸法令を踏まえた「政策パッケージ」に注目すべきである。
9)https://eurlex.europa.eu/legalcontent/EN/TXT/?uri=celex%3A32022R0868
10)https://eur-lex.europa.eu/legalcontent/EN/TXT/?uri=COM%3A2022%3A68%3AFIN
11)新保史生「AI規制の国際動向」都市問題2024年2月号22頁参照
(5)AI条約
欧州評議会の「欧州評議会 人工知能並びに人権、民主主義及び法の支配に関する枠組み条約12は「AI条約」とも呼ばれることがある。同条約は2024年5月18日に既に採択されており、同年9月5日には10カ国が署名した。
AI条約は、AIに関し、人権、民主主義及び法の支配を貫徹することを各国に求める。もっとも、これはあくまでも枠組み条約に過ぎない。すなわち、これらをどのように実現するかという手段について各国裁量を有している。例えば、4条においては「各締約国は、人工知能システムのライフサイクル内の活動が、適用される国際法及び国内法に明記されている人権を保護する義務と両立することを確保するための措置を採択又は維持する」としている。ここで、「維持」(maintain)というのは、既存のAIに適用される法令を維持し、それによって、要求を満たす余地はあることを示唆している。
AI条約はEU加盟国だけではなく、例えば日本も加盟することは可能であり、また、加盟をしない場合であっても、日本におけるAI制度を検討する際に、AI条約の求める内容が既存法令でどこまで実現しているか、足りないところがある場合にそれを埋める必要があるか、必要があるならどのように埋めていくかを考える上で参考になるだろう。
12)Council of Europe Framework Convention on Artificial Intelligence and Human Rights, Democracy and the Rule of Law、https://rm.coe.int/1680afae3c
2 トランプ当選で混沌としてきた米国の動向
バイデン政権における大統領令(安全で安心で信頼できる人工知能に関する大統領令)は有名である。
大統領令は、国防生産法(Defense Production Act)に基づき、民生と軍事両方に利用可能な「デュアルユース基盤モデル」(dual use foundation models)の開発者に対し連邦政府への報告義務を課すことを求める。すなわち、大統領令4.2 (a)は、 「安全で、信頼でき、効果的なAIが継続的に入手可能なことを確保し、確認するために、国防と重要インフラ保護を含み、本命令の日付から 90 日以内に、アメリカ合衆国商務長官は、改正を含む国防生産法(50 U.S.C. 4501 et seq.)に基づき、以下を要求しなければならない。」として、一定の要求を行った。そのうちの、事業者に対する義務の内容として、潜在的なデュアルユース基盤モデルを開発する、または開発する意図を示す企業が、連邦政府に、継続的に情報、報告書、または記録を提供する義務を課した。
さらに、大統領令は、米国のクラウドサービス(IaaSサービス)が外国の悪意あるサイバー攻撃に利用されないよう、外国人が、悪意あるサイバー対応活動に使用される可能性のある能力を有する大規模なAIモデルの訓練を行うために、米国のクラウドベンダと取引を行った場合、クラウドベンダに対し、報告書を提出することを義務付けた13。
ただ、トランプ氏は大統領に就任したら、バイデン政権下の規制を撤廃するとしている。そこで、現在の大統領令が全て撤廃されるか、そこまでいかないにせよ大幅な変更を余儀なくされる可能性は高い。
とはいえ、もし単に規制を撤廃する(自由にAIを開発・提供させる)というだけであれば、自由なのだから、中国企業も自由に米国において、又は米国に対してAIサービスを提供することができる、ということになってしまう。そこで、トランプ政権が意図していると理解される、「中国がAIで覇権を取ることを許さない」という方針と、どのように整合させるかは微妙なところである。もしかするとTikTok規制14のように、個別の中国AI企業をターゲットとして規制を行うのかもしれないが、まだ先が読めないところである。
13)4.2 項⒞。なお、国防生産法に基づき報告や記録の提供を求める旨の商務省規則案も参照
https://www.federalregister.gov/documents/2024/01/29/2024-01580/taking-additional-steps-to-address-the-national-emergency-with-respect-tosignificant-malicious
14)https://media.cadc.uscourts.gov/opinions/docs/2024/12/24-1113-2088317.pdf参照
3 中国の動向
中国は2021年という比較的早期から、生成AI規制を導入している。即ち、2021年のインターネット情報サービスアルゴリズム推薦管理規定 、2022年のインターネット情報サービスディープシンセシス管理規定、及び2023年の生成AIサービス管理暫定弁法である。詳細は、拙稿を参照のこと15。
この3つの規制のポイントは、やはり国家の管理の程度の高さであり、例えば、アルゴリズム届け出義務等を通じて、厳しい国家管理に置く。
15)https://www8.cao.go.jp/cstp/ai/ai_kenkyu/2kai/shiryou5.pdf
4 日本はどうする?
現在、日本はAI制度研究会で、何らかのハードロー(法律)による制度(規制に限らず、奨励・推奨のための制度も含む)構築も視野に入れた議論を進めている16。第二回AI制度研究会では、筆者も「中国のAIに関する制度」という発表をさせて頂いた。ただ、このAI制度研究会でハードローを視野に入れて検討を開始した背景は、大統領令(上記2)を踏まえ、EUに引き続き米国もまた法規制に舵を切ったという点が大きいだろう。そこで、トランプ政権の動きを踏まえながら、日本政府としてのスタンスの取り方が問われるのが2025年と理解される。
なお、本稿校正時である2024年12月19日に、「AI法案、悪質事案を国が調査 世界で規制進み「やらないわけには」」という新聞記事が公表されている17。
16)https://www8.cao.go.jp/cstp/ai/ai_senryaku/11kai/shiryo1.pdf
17)https://www.asahi.com/articles/ASSDL3F8GSDLULFA02NM.html
<筆者プロフィール>
松尾剛行(まつお・たかゆき)
桃尾・松尾・難波法律事務所パートナー弁護士(第一東京弁護士会)・ニューヨーク州弁護士、法学博士、学習院大学特別客員教授、慶應義塾大学特任准教授、AI・契約レビューテクノロジー協会代表理事。