본문 바로가기
이전 페이지로 가기 공유하기 주요 서비스 메뉴 열기

EU、世界初のAI規制法承認…医療・教育に使用時は人による監督義務

ⓒ 中央日報/中央日報日本語版
オープンAIのチャットGPT、グーグルのジェミニなど生成型人工知能(AI)の副作用に対する懸念が高まる中、欧州連合(EU)が21日にAI規制法の施行を最終確定した。選挙、司法、金融、医療、教育など各分野でAI技術の許容範囲と規制対象などを規定した世界で初めての法律で、米国や日本など関連立法を急ぐ各国にガイドラインの役割をするだろうという見方が出ている。

この日、EUの交通・通信・エネルギー理事会の27加盟国はベルギーのブリュッセルで開かれた会議でAI法を最終承認した。来月発効されるEUのAI法は発効6カ月後から禁止対象のAI規定をまず施行し、1年後には汎用AI(AGI、人と類似の水準か人以上の知能を備えたAI)に対する規制に入る。全面施行は2026年中盤からだ。ただチャットGPTとジェミニ、マイクロソフトのコパイロットなどすでにサービスが提供されている生成型AIには3年の「転換期間」を与え、2027年から規制を適用する。

ベルギーのミッシェル・デジタル化相は声明を通じ「AI法の採択はEUの重要な道しるべ。この法律を通じて欧州は新技術を扱う時の信頼、透明性、責任を強調すると同時に、急速に変化する技術がさらに発展して欧州の革新を促進できるよう保障するだろう」と話した。


この法律はAI活用のリスク水準を▽受け入れ不可能なリスク▽高リスク▽限定されたリスク▽最小のリスク――の4段階に分けて規制する。警察など法執行機関がリアルタイム遠隔生体認識システムを使う行為は「受け入れ不可能なリスク」に相当し原則的には規制対象だ。ただテロや拉致や強姦など深刻で緊急な犯罪は例外的に許される。

個人の特性と行動に関連したデータで点数を付ける「ソーシャルスコアリング」、インターネットや防犯カメラで顔の画像を無作為で収集しデータベースを構築する行為などもEU域内でのAI活用が基本的に禁止される。

医療、教育、試験採点、採用、選挙、核心インフラ、移民、自動運転に使われるAIは「高リスク等級」に分類された。この分野でAI技術を活用するには必ず人が監督しなければならないと同時に、リスク管理システムを構築しなければならない。「限定されたリスク」と「最小リスク」の場合、開発企業に「透明性義務」を付与した。EU著作権法を順守しなくてはならず、AI学習に投入されたデータに対する出典を明示しなければならない。合わせてディープフェイク技術などを活用して生成型AIが作り出した映像やイメージ、音声に対してはAIが作ったことを明らかにしなければならない。もしシステム的にリスクがあると分類された汎用AIに対しては、リスク評価・緩和、事故報告などの義務を追加で付与する。

欧州委員会はAI法に違反した企業には最大3500万ユーロ(約59億円)または、世界売り上げの7%に相当する金額のうち大きい金額を罰金として科すことができる。EU欧州委員会連結総局の傘下に「AI事務所」を新設してAI法の執行を総括させる計画だ、

グーグルとメタ、マイクロソフトなど米国のビッグテック企業はEUのAI法施行に神経を尖らせている。この法律がAIに対する世界で初めての包括的規制という点で他の国のAI規制モデル構築にガイドラインとして作用するなど、事実上の国際標準になる可能性があるためだ。EUのAI法が生成型AIで優位に立つ米国のビッグテック企業を狙ったものとの分析も出ている。



関連記事

この記事を読んで…

포토뷰어

最新記事

    もっと見る 0 / 0

    공유하기

    팝업닫기
    top 메뉴