欧州連合、初のAI法を準備

あいづち

2021年4月、欧州委員会は人工知能(AI)を規制する法律案を発表した。

欧州議会によれば

デジタル戦略の一環として、EUは人工知能(AI)を規制し、この革新的技術の開発と利用のためのより良い条件を確保したいと考えている。AIは、より良い医療、より安全でクリーンな輸送、より効率的な製造、より安価で持続可能なエネルギーなど、多くの利益を生み出すことができる

国会によれば

議会の優先課題は、EUで使用されるAIシステムが安全で、透明性が高く、トレーサビリティがあり、非差別的で、環境に優しいものであることを保証することである。 AIシステムは、有害な結果を防ぐために、自動化ではなく、人が監督すべきである。

草案では、AIを次のように定義している。

機械学習、ロジック、知識ベースまたは統計的アプローチで開発されたソフトウェアで、「人間が定義した所定の目的セットに対して、コンテンツ、予測、推奨、または相互作用する環境に影響を与える決定などの出力を生成することができる」。

プロバイダー」とは、AIシステムを提供する企業などを指す。

ユーザー」とは、このようなシステムを利用する個人または団体を指す。

EU域外のプロバイダーおよびユーザーは、AIシステムがEU域内で使用される場合、EU法に従う。

興味深いことに、この法律は武器やその他の軍事目的に使用されるAIを除外している。

EUのAI規制の枠組みは、AIシステムをユーザーに与えるリスクに応じて分析・分類している。 よりリスクの高いシステムは、より多くの規制の対象となる。

リスクの高いシステムとは、"安全や基本的権利に悪影響を及ぼす "システムである。 これらは2つのカテゴリーに分類される:

  1. EUの製品安全法に該当する製品に使用されるAIシステム。 これには玩具、航空、自動車、医療機器、リフト(エレベーター)などが含まれる。
  2. AIシステムは8つの特定分野に分類され、EUのデータベースに登録されなければならない:
    1. 自然人のバイオメトリクス識別と分類
    2. 重要インフラの管理・運営
    3. 教育・職業訓練
    4. 雇用、労働者管理、自営業へのアクセス
    5. 必要不可欠な民間サービス、公的サービス、給付へのアクセスと享受
    6. 法執行機関
    7. 移民、亡命、国境管理
    8. 法律の解釈と適用に関する支援。

同法案は、人間に対する脅威とみなされるAIシステムを禁止している。 などが挙げられます。

  • サブリミナル・テクニックを用いたり、年齢や身体的・精神的障害に起因する脆弱性を利用したりして、身体的・精神的危害を引き起こす、または引き起こす可能性のある人の行動を歪めること;
  • 社会的行動、社会経済的地位、または特定の集団の不利益や不利な扱いにつながる特徴に基づく、公的機関による「社会的採点」;
  • 対象となる犯罪の捜査または実質的な脅威の防止に必要な場合を除き、法執行目的の公共空間におけるリアルタイムおよび遠隔生体認証。

また、AIシステムと対話する際、それが明らかでない場合は、人々に通知しなければならない。 ただし、AIが犯罪を検知、防止、捜査、起訴する場合はこの限りではない。

AIを使って "ディープ・フェイク "を作ることは公表されなければならない。 ウィキペディアの説明によれば、ディープフェイクとは

デジタル技術を駆使した合成メディアで、ある人物の肖像を別の人物に置き換えて説得力を持たせている。 ディープフェイクとは、ディープ・ジェネレイティブ手法によって顔の外見を操作することである。

ディープフェイクは、児童性的虐待の素材、有名人のポルノ動画、リベンジポルノ、フェイクニュース、デマ、いじめ、金融詐欺などに使われる可能性があるとして、広く注目を集めている。

EUの草案では、ディープフェイクを生成できるAIは "限定的なリスク "に過ぎないとされている。

2023年6月に改正が採択され、ChatGPTのようなジェネレーティブAI(GAI)ツールに対応したものもある。

修正条項99が説明するように、

ファウンデーション・モデルとは、一般性と出力の多様性を最適化するために設計されたアルゴリズムからAIモデルを開発する、最近の発展形である。 これらのモデルは、多くの場合、幅広いデータソースと大量のデータで訓練され、特別に開発され訓練されたものではないものも含め、幅広い下流のタスクを達成する。 基礎モデルはユニモーダルでもマルチモーダルでもよく、教師あり学習や強化学習など様々な方法で学習される。 特定の目的を持ったAIシステムや汎用AIシステムは、基盤モデルの実装となりうる。つまり、それぞれの基盤モデルは、無数の下流AIシステムや汎用AIシステムで再利用できる。 これらのモデルは、多くの川下アプリケーションやシステムにとって重要性を増している。

この「広範なデータ」には、著作権で保護され、著作権者がGAI訓練目的での使用を許可していない芸術、文章、音楽などが含まれることがある。

修正案102の注釈

基盤モデルは、人工知能の分野において新しく、急速に発展しているものであるため、欧州委員会とAI室は、このようなモデル、特に、EU法、著作権規則、および潜在的な不正使用に違反するコンテンツの生成に関連する重大な問題を提起する、このようなモデルに基づく生成的AIシステムの法制およびガバナンスの枠組みを監視し、定期的に評価することが適切である。 本規則は、欧州議会および理事会の指令2001/29/EC、2004/48/ECR、および(EU)2019/790を含む、著作権および関連する権利に関する連邦法を損なうものではないことを明確にすべきである。

修正条項399では、財団モデルの提供者は、「著作権法で保護されたトレーニングデータの使用について、十分に詳細な概要を文書化し、一般に公開しなければならない」とされている。 しかし、技術的にどの程度実現可能なのかは定かではない。

EUのAI法は、以下のことを決定するものではないと思われる:

  • AIツールの学習に著作物を使用することが著作権侵害にあたるかどうか
  • 著作権で保護された作品がAIの訓練に使用された場合、著作物の所有者は補償を受けなければならないかどうか。
  • AIが生成したコンテンツが著作権法で保護されるかどうか
  • AIによって生成された作品が人間が創作した作品の著作権を侵害するかどうか

EU委員会、EU理事会、EU議会は、AI法の最終文書に合意するための交渉を行っている。 この法案に関わるEUの各機関は、2023年末までに決定したいと考えている。

カテゴリー: 特許