AIスタートアップの迷路をナビゲート:法的リスクと規制上の課題
世界には約6万7200社の人工知能(AI)企業があると言われているが、その約25%が米国に拠点を置いている。
PwCのGlobal Artificial Intelligence Studyによると、世界のAI市場は2030年までに15兆7000億ドルに達すると予想されている。その結果、多くの投資家がAIの可能性を利用し、AIソリューションを開発・展開する革新的な新興企業やスケールアップ企業を支援しようと躍起になっている。
しかし、PWCは言う、
AIは複雑でダイナミックな分野であり、データ保護、プライバシー、セキュリティ、偏見、説明責任、透明性、人権など、さまざまな倫理的、社会的、法的問題を提起している。これらの問題は、規制当局、政策立案者、市民社会、一般市民からますます注目され、精査されるようになっており、彼らはより責任と信頼のあるAIを求めている。
従って、投資家は、投資先企業に影響を及ぼす可能性のある既存および新たなAI規制、ならびにコンプライアンス違反や不正行為から生じる可能性のある潜在的な責任や罰則について認識しておく必要がある。さらに、投資家は、不測のリスクや許容できないリスクにさらされることがないよう、投資の前後に徹底的かつ包括的な法務、規制リスク管理、デューデリジェンスプロセスを実施する必要がある。
企業がAIビジネスに参入するのに、独自のIPはそれほど必要ない。ChatGPT、Scribe、Dall-E2のようなジェネレーティブAI(GAI)ツールを使って、新しいアプリケーションを構築すればいいのだ。
GAIの定義はさまざまだが、EUのAI法はGAIを「複雑なテキスト、画像、音声、映像などのコンテンツを、さまざまなレベルの自律性をもって生成することを特に意図したAIシステムで使用される基礎モデル」と定義している。
例えば、GAIは記事、エッセイ、詩、映画の批評を「書く」ことができる。あらゆる音楽アーティストのスタイルで曲を「作曲」することも、複数の曲をマッシュアップすることもできる。あらゆるアーティストのスタイルでアート作品を「創作」することができる。ただし、人間の被写体に指を追加したり、不気味な数の歯を追加したりすることが多い。
参入障壁が非常に低いため、多くの起業家が知的財産法やその他の法律問題をほとんど知らないままAI分野に殺到している。
このブログでは、GAIを中心に、それらの問題を簡単に紹介する。
合法か?
デロイトはこの報告書の中でこう述べている、
AIは膨大な量のデータを処理し、特筆すべき人間の介入なしに、AIが生成したアウトプットに変換することができる。AIを訓練するために使用される材料(入力)とAIによって作成された結果(出力)の両方で発生する知的財産権をどのように扱うかについての議論は、まだ初期段階にある。
私たちは、GAIに関わる訴訟やライセンシングについて、以下のようなブログをいくつか書いている:
兆円単位の質問には、次のようなものがある:
- GAI用の大規模言語モデル(LLM)を訓練するために著作権で保護されたコンテンツを使用することが、著作権法上の「公正利用」として認められるかどうか;
- 著作権で保護された素材を無断で使用してLLMを養成し、人間のクリエイターに取って代わる可能性があることが、(フェアユースであるとしても)不正競争であるかどうか。
- LLMのアウトプットが単なる盗作や著作権侵害なのかどうか。
このブログでも書いたように、EUは世界初のAI規制の枠組みを準備した。
州政府評議会はこう述べている、
2019年以降、[as of December 2023] 、17の州が人工知能の設計、開発、利用の規制に焦点を当てた29の法案を制定した。これらの法案は主に、データ・プライバシーと説明責任という2つの規制上の懸念に対処している。カリフォルニア州、コロラド州、バージニア州の立法府は、AIシステムに対する規制とコンプライアンスの枠組みの確立を主導してきた。
また、連邦政府によるさまざまなAI法制化も進められている。
他の国や州、政府機関も追随する可能性が高い。
このような環境では、現在合法(あるいは合法性が不明)なAI関連の事業活動が、明日、来月、あるいは来年には違法となったり、知的財産権侵害責任やその他の訴因を生じさせたりする可能性がある。
結果はこうなるかもしれない:
- AI企業のビジネスモデルを存続不可能にする、
- ソースIPを法外なコストでライセンスするよう要求すること、および/または
- 過去の第三者の権利侵害に対する破滅的な責任を会社に負わせるためだ。
危険なのか?
GAIツールは "幻覚 "を見ることで知られている。
IBMはこう説明する、
AIの幻覚とは、大規模な言語モデル(LLM)(多くの場合、生成AIチャットボットや コンピュータビジョンツール)が、人間の観察者には存在しない、あるいは知覚できないパターンやオブジェクトを知覚し、無意味な、あるいはまったく不正確な出力を作成する現象である。
一般的に、ユーザーが生成AIツールにリクエストを出す場合、プロンプトに適切に対応する出力(すなわち、質問に対する正しい答え)を望む。しかし、AIアルゴリズムが、学習データに基づかない、変換器によって誤ってデコードされた、または識別可能なパターンに従わない出力を生成することがあります。 つまり、反応を "幻覚化 "するのだ。
ニューヨーク・タイムズ紙は、グーグルの最新のA.I.検索機能が「ユーザーに接着剤や石を食べるように誤って伝え、ユーザーの反発を招いた」と報じた。
タイムズの記事にある通りです。
AI概要機能の不正解は、20億人以上が権威ある情報を求めて利用する検索エンジンへの信頼を損なった。他のA.I.チャットボットが嘘をついたり、奇妙な行動をとったりする一方で、今回の反発は、グーグルがA.I.を安全に検索エンジンに取り入れることをより強く求められていることを示した。
もし誰かが、AIが生成した悪いアドバイスに従って行動し、その結果、怪我をした(あるいは殺された)としたら?
ウォール・ストリート・ジャーナル 紙が報じているように、GAIを利用するすべての企業は、その評判を落とすリスクに直面するだけでなく、欠陥製品や、雇用に偏見を持ち込んだり、ひどい助言を与えたり、誰かに経済的損害を与える可能性のある情報をでっち上げたりする言論を規制する法律にも責任を負う可能性がある。
要するに、AIは金鉱のように見えるかもしれないが、その洞窟には合法的なバルログが潜んでいる危険性もあるのだ。