ABEJA Tech Blog

中の人の興味のある情報を発信していきます

【AI倫理・法務に関わる人必見!】AIに関する国内外のルールメイキングの状況 (2023年12月版)

 

今日は、法務・コンプライアンス・AI倫理担当の古川が担当させていただきます。ABEJAアドベントカレンダー2023の3日目の記事です。これで4回目のアドベントカレンダーです。筆者の経歴などは過去の記事で書きましたので省略します。若干追加するならば、Global Partnership On AI(GPAI)というOECDが運営するAIの適切な利活用に関する取り組みの日本の専門家委員を1月からやっております。GPAIを通じてAI倫理だとか責任あるAIの国際的な様々な取り組みに関与させていただいています。

 

今年も去年に従って「AI倫理ニュース振り返り2022年」を書こうと思ったのですが、より興味が高いであろう国内外のルールメーキングの状況をお話しします。といっても、EU、US、日本だけですが。

 

1.EU
  EUはAI法案が非常に重要です。2021年にAI法案をリリースしています。その後、議会による修正案が出ています。基本的にはこの議会の修正版までが一応文章になっているところです。ただ、さらに修正をしようとする動きも存在します。この議会の修正版ですが、「第●条 ・・・・との文言を・・・と修正する」という形でのドキュメントしかなく、これらの修正を反映した全体版のようなものがなく非常に分かりにくくなっています。
  2021年の当初リリースの法案については、過去に別の記事で書いていますので、参照いただければと思います。
  

EUによるAI規制案の説明Part1 #AI - Qiita

EUによるAI規制案の説明Part2 #AI - Qiita

EUによるAI規制案の説明Part3 #AI - Qiita

EUによるAI規制案の説明Part4 #AI - Qiita


  今回は議会修正の内容についてご紹介とコメントを出来ればと思います。修正内容は以下のようになっています。

www.europarl.europa.eu

  かなり多くの修正が入っていることがわかります。主要なものだけ解説します。

  まず、AIの定義が変わっています。自律性を求めることになっています。さすがに元の定義では広すぎると気づいたのでしょうか。また、マイナーな点ですが、ユーザという言葉も変更されています。今まではビジネスでAIを使う人や法人を指していたのですが、ユーザという言葉をなくしてデプロイヤーという言葉に置き換わっています。
  禁止AIの範囲が変更されています。まず、生体情報による分類を行うAIでセンシティヴな属性等に基づいて人を分類するAIが禁止AIになります。また、法執行機関によるリアルタイムの遠隔生体認証(典型的には顔認証)は、今までは原則禁止としつつも、例外として、誘拐された子供の発見や重大なテロ等のためであれば利用可能となっていたのですが、このような例外がなくなってます。他にも再犯確率の推定、スクレイピング等により顔認識データベースの作成等を行うAI、法執行や国境管理などにおける心理分析AI、公共空間における事後的(リアルタイムではない)遠隔生体認証(顔認識など)AIが禁止AIとして追加されています。
  また、ハイリスクAIの範囲も変わっています。まず、全体にかかわるのが6条2項です。今までは別紙2,3に該当するAIはすべてハイリスクAIという立て付けだったのですが、採用AIや生体認証AIなどを定める別紙3に該当するAIについては、重大なリスクが発生する場合のみハイリスクAIとなる旨が定められています。どうも、範囲を狭めた変更らしく、形式的に別紙3に該当するものを排除するようです。また、ハイリスクAIの範囲を定める別紙3の内容も変更が生じています。例えば、今までは生体認証は遠隔生体認証がハイリスクだったのですが、修正では生体認証全体が(遠隔でなくても)ハイリスクになっています。また、生体情報をもとにした人の分類(感情推定を含む)もハイリスクになっています。ただ、修正としては、今までのハイリスクの定義の記載を詳細化したようなものが多いです。
 修正案で一番有名なのは28条bのFoundation Modelに関する規制でしょう。まず、Foundation ModelのProviderは、AI法案の規制を守る必要があります。これは、無料のオープンソースでの提供であっても義務を守る必要があります。まず、1つ目の義務は、安全性等へのリスクの特定、軽減等を設計、テスト、分析を通じて行う必要がります。2つ目の義務は、適切なデータガバナンスの対象となったデータセットの利用です。データの適合性やバイアスや軽減措置などを考えるとのことです。3つ目の義務は、設計と開発を適切に行い、適切なレベルの性能、予測可能性、解釈可能性、修正可能性、安全性、セキュリティを確保することです。4つ目の義務は、設計や開発を適切に行い、電力消費などを減らすためのスタンダードを利用することです。そして、消費電力等を計測してログ作成できるようにファウンデーションモデルを設計しなければならないということです。第5の義務は、技術文書や説明書を作成し、下流のプロバイダーがAI法案に定める義務を守れるようにすることです。第6の義務は、品質マネジメントシステムを確立し、法律の義務の遵守を確保することです。第7の義務は、ファウンデーションモデルをEUのデータベースに登録することです。また、28条B4項でさらに義務は続きます。AIシステムの中で使われているファウンデーションモデルのプロバイダーに関する義務を定めています。まず、限定リスクAIと呼ばれるAI対する義務を遵守することとされています。これは、コンテンツがAIにより生成されたことの明示を指します。次に、EUの法律に違反するようなコンテンツの生成に対するセーフガードを確保できるような学習や、可能であれば学習と開発を行う必要があるとしています。そして、著作権法で保護されている学習用データのサマリーの詳細を公開することが求められています。
 他にも面白い修正はあるのですが紹介は省略します。

 

2.US
  USについては、EUのような法律で規制する形(ハードロー)ではなくて、ガイドライン等の拘束力のないルールで規制するという方針(ソフトロー)をとっています。
  アメリカのルールメーキングを理解するうえで重要なのは、NISTによるAI Risk Management Framework、ホワイトハウスによるBlueprint for an AI Bill of Rights、バイデン大統領による大統領令、また、同じくバイデン大統領による主要IT企業との合意が重要になります。
  体系的には、まずBlueprint for an AI Bill of Rightsを紹介するのが良いかと思います。まず、Bill of Rightsという物が何なのかというのを理解することがこのドキュメントの理解の上では重要です。Bill of Rightsとは権利章典というもので、憲法で人権を定める規程のことを言います。まだ、「青写真段階だが、これは憲法上の権利なんだ」という強力なメッセージが背後には存在するわけです。このあたりは、後に紹介する日本の「人間中心のAI社会原則」と比較してみるとよいでしょう。ともあれ、このBlueprint for an AI Bill of Rightsは、AIの開発や利活用に当たり注意すべき人権を挙げたものになります。挙げている価値としては、
 ・Safe and Effective system
 ・Algorithmic Discrimination Protections
 ・Data Privacy
 ・Notice and Explanation
 ・Human Alternatives, Consideration, and Fallback
が挙げられています。5つしかない、この清々しさが好きです。各原則毎に「なぜ大事なのか」「どういうことが期待されるか」「どう実務に落としていくか」が書かれており、参考になります。
  つぎに、AIに関するリスクへの一般的な取り組み方法を解説するNISTのフレームワークを紹介しましょう。これは、Blueprintとは異なり、どのような価値や原則が重要よりも、そのような価値などを実現するための企業組織の在り方を論じるものです。ただ、「適切な措置を行う」のような結構抽象的な記述が多く、その具体化の例を示した付属ドキュメントが存在しますが、これが長い・・・NISTのフレームワーク自体は非常に参照されることが多く、この手の組織構築のドキュメントでは必ず参照すべきものといえそうです。近々、AI倫理やAIガバナンスに関する一般向けの書籍を出すのですが、その中で雑で荒い訳をつけておきました。NISTのフレームワークに興味にある方は是非ご覧ください。
  今年後半に出されて話題になったバイデン大統領令を次に紹介します。これをもってアメリカもEUのような法律などの強制力のあるハードローのアプローチになったかのようなコメントを聞くことがありますが、私の意見は異なります。大統領令というのは政府機関に対する指示です。日本で言うと、「総理が関係各省庁に指示を出しました」というのと同じです。とても法律と同じとは言えないですし、何ら国民に対して義務を課すものではありません。この大統領令も、各省庁に対して、AIのリスクに関する調査や研究を実施すること、必要な組織や予算を用意することなどを指示しているものです。
  最後はコミットメントです。これは大統領令に先立ち、アメリカの先端AI企業7社による任意の約束です。8つの事項を約束しています。1つ目は、レッドチーミング(Red teaming)です。レッドチーミングですが、まあ、レッドチーム演習という訳の方が一般的でしょうか。雑に言うと社内で敵役を作ってシステムの攻撃を行うことでセキュリティを向上させる手法です。ChatGPTのような生成AIに不適切なコンテンツを生成させるような攻撃を行うことで生成AIが変なコンテンツ(銃の作り方など)を出力しないようにするわけです。ただ、文書を読むと、レッドチーミングが未完成の技術であることは認めていて、この分野を研究してゆくという約束であることに注意が必要です。2点目は、AIに関するリスクや軽減技術に関する情報の企業間や政府との共有です。3点目はサイバーセキュリティや内部の脅威への対応への投資です。4つ目は、第三者による問題の発見へのインセンティヴ付け、5つ目は、音声や視覚コンテンツがAI生成かを分かるように適切な措置を行うことです。出自の明示や透かしなどです。テキスト生成は対象に明示されていないのですよね。以前からテキスト生成ではこの手の出自説明類に意味がないと私も言ってきており、さすがよく考えているなという気がします。テキストの場合は、バックスペースを押せば消せてしまえますから。6つ目は、モデルやシステムの能力、限界、適切又は不適切な利用となるドメインを公にすることです。7つ目は、AIシステムによりもたらされる社会的リスクに対する調査を重視することです。最後の8つ目は、社会的課題のために先端的AIを使うという点です。
  さて、USではほかにも色々取組みを行っており、EEOC(Equal Employment Opportunity Commission)という雇用の公平性に関する機関が今までの法律がAIにも適用がある旨を述べていたり、国防総省が省としてのAI倫理ガイドラインを出していたりしています。
  では、USは今後どのような方向に進んでいくのでしょうか?まず、現状ですが、完全な拘束力のないガイドラインなどでルールを作るというソフトローアプローチです。ただ、上院の民主党のまとめ役のチャック・シューマー議員が中心となって、共和党と手を組んで超党派でAIに関する立法を行うべく調査を行っています。ただ、連邦レベルの個人情報保護法を、超党派で作るといって未だ作っていませんことからもわかる通り、本当にシューマー議員の試みが具体化するのかは、不透明なところです。
 報道では、結構ネガティヴな面にフォーカスした報道が多くて、それに影響を受けている人も多いのかと思います。その意味で、若干読めないのが現在のアメリカです。

 

3.日本
  日本もアメリカと同じくソフトローアプローチです。「国際的な議論のための AI開発ガイドライン案」「人間中心のAI社会原則」「AI利活用ガイドライン」あたりは、重視すべき価値や原則を挙げるガイドラインです。「AI原則実践のためのガバナンス・ガイドライン」は、そういった価値や原則を実現するためにどういう組織や体制を整えればよいかに関するものです。
  最後に、日本はどういう方針でやっていけば良いのかということを考えてみたいと思います。あくまで個人的見解です。よく、法律規制のEUと規制しないUSの中間を狙うべきというような声を最近聞くことが多いのですが、正直理解しかねるところです。なぜ中間なのでしょうか?どっちにもいい顔が出来るようにとか、いい塩梅をとれるように中間ということでしょうか。まず、日本の現状を把握する必要があると思っていまして、やはりアメリカあたりと比べるとAIの導入が進んでいないのが実態かと思います。なので、あまり利活用を抑制するようなことはしない方がよいと思っています。また、AI倫理に関するインシデントで、日本の物というのは非常に少ないです。アメリカとの人口比率や導入状況の違いを考えても少ないです。これは、日本では(人権意識が希薄などで)案件が表面化していないだけなのかもしれませんが、必ずしもそうではないと思っています。日本だと、アメリカで見られるようなAIだけで作用を行うようなことを、余りしない訳です。採用の場合ですと、人間が最後に確認するような運用を行う訳です。つまり安全な運用をするので、比較的問題が起きにくいのではないかと思います。このような状況なので、EU型は論外としても、中間である必要もないように思っています。アメリカ並みに、アメリカ以上に自由にしておくので良いのではと思います。つまり、方向としてはもっと自由にできないかというような法律の在り方を考えるべきだと思っています。
 ただ、AIによるリスクというのもあるので、この存在の周知や対象方法などは国なりが実施する必要があると思います。また、国による情報収集や必須で、そのための政府組織の設立や政府による調査質問権限については法律を作ってもいいと思っています。
 とりあえず、AIをどう利用促進していき、どう規制してゆくかというのは今後どんどん重要なテーマになっていくので、各自で考えを持っておくべきだと思います。