米国政府機関がAIの悪用対策で提携
米司法省(DoJ)、消費者金融保護局(CFPB)、雇用機会均等委員会(EEOC)、連邦取引委員会(FTC)は、人工知能(AI)の利用によって生じる偏見や差別との戦いに関する共同声明を発表した。
声明文にある通りだ、
こうした自動化されたシステムは、しばしば、洞察やブレークスルーを提供し、効率やコスト削減を高め、既存の業務を近代化すると宣伝される。 これらのツールの多くは進歩が期待できるものだが、その使用は不法な偏見を永続させ、不法な差別を自動化し、その他の有害な結果を生む可能性もある。
AIを含む多くの自動化システムは、パターンを見つけ、アルゴリズムを訓練し、タスクを実行し、推奨を行い、予測を行うために、膨大な量のデータに基づいて訓練され、そしてそれを精査する。
残念なことに、こうしたシステムはバイアスを生み出したり、永続させたり、あるいは誤った結果を生み出すことがある。
ハーバード・ビジネス・レビュー』誌の記事によれば、
人間のバイアスは、私たちが自覚していないかもしれないバイアスを実証する暗黙の連想テストから、こうしたバイアスがどれだけ結果に影響を与えるかを実証する実地実験まで、十分に立証されている。 ここ数年、社会はこうした人間のバイアスが人工知能システムにどの程度入り込む可能性があるのかに取り組み始めている。 多くの企業が業務にAIシステムを導入しようとしている今、こうしたリスクを敏感に察知し、その軽減に努めることは喫緊の課題である。
AIシステムにおけるバイアスの問題は、いくつかの理由で存在する可能性がある:
- 代表的でない、あるいは不均衡なデータセットは、結果を歪める可能性がある。
- データセットには、過去に決定を下した人間の歴史的バイアスが組み込まれている可能性がある。
- モデルはプログラマーのバイアスを表しているかもしれない。
- 自動化されたシステムは、内部の仕組みが不明確な「ブラックボックス」である可能性があり、「公正」かどうかを判断することは不可能である。
- 開発者は、自分たちのシステムがどのような文脈で使われるかを理解していない可能性がある。
- 開発者は、データセット、ユーザー、コンテキストなどについて、欠陥のある仮定を使用する可能性がある。
このブログで説明されているように、AIのバイアスの例としては、顔認識アルゴリズムが黒人よりも白人を認識しやすいように訓練されている場合がある。
2019年、研究者たちは、米国の病院が追加医療を必要とする患者を予測するために使用するアルゴリズムが、黒人患者よりも白人患者を優遇していることを発見した。 このアルゴリズムは、患者の過去の医療費支出に基づいて予測を行った。 しかし、同じような病状の黒人は、同じ病状の白人患者よりも医療費が少ない傾向があるため、この結果は一部歪んでいる。
別の例では、グーグルの広告が女性よりも男性に高収入のポジションを表示する頻度が高いという調査結果がある。 これは、雇用主が広告のターゲットを男性に絞ったために起こったのかもしれないし、男性がそのような広告をクリックする可能性が高いために、システムがそのような広告を表示する可能性が高くなったために起こったのかもしれない。
テクノロジーに基づくバイアスは、そのようなバイアスを意識したテクノロジーを使うことで解決できる可能性がある。
例えば、Clearview AIは、偏りのないとされる顔認識アルゴリズムで特許を取得している。 また、AP通信が報じたように、Cangradeは "偏見のない採用と人材管理ソリューション "の特許を取得した。