본문 바로가기
이전 페이지로 가기 공유하기 주요 서비스 메뉴 열기

世界的人権の権威が問う、AIの誤診は誰の責任か

ⓒ 中央日報/中央日報日本語版

19日、高麗(コリョ)大学ソウルキャンパスで、ヘブライ大学法学部のユヴァル・シェニー(Yuval Shany)教授が中央日報のインタビューに応じている。[写真 ヒューマンアジア]

「病院が診断用に導入した人工知能(AI)が誤診をした場合、誰が責任を負うべきでしょうか。AIを開発したメーカーでしょうか、それとも活用した病院でしょうか。あるいは、AI診断サービスを提供したプラットフォームでしょうか」

19日、高麗(コリョ)大学ソウルキャンパスで会ったイスラエルのヘブライ大学法学部教授、ユヴァル・シェニー(Yuval Shany)氏は、中央日報とのインタビューでこのような例を挙げ、「AIが私たちの生活に直接的な影響を及ぼし始めた今、既存の人権体系では不十分だ」と主張した。AI時代に新たに侵害されたり衝突したりする可能性のある人間の権利を、明文化する作業が必要だという。


シェニー氏は2013年から8年間、国連自由権規約委員会で活動し、2018~2019年には委員長を歴任した。現在は英国オックスフォード大学AI倫理研究所の初代アクセラレーター・フェローを兼任している、国際人権法分野の権威だ。同氏はこの日、高麗大学とヒューマンアジアが主催した「国際AI人権章典セミナー」に出席するため韓国を訪問した。


シェニー氏によると、AI時代の意思決定は「人間対機械」の関係に基づいている。医師と患者、教授と学生、政府と市民といった人間関係が機械に代替される中で、融資・入学・採用といった個人の権利は、作動原理さえ知ることが難しいAIシステムに左右される。同氏が「国際AI人権章典」策定の必要性を強調する理由だ。シェニー氏は「AIシステムは開発から活用までのバリューチェーンが長く、責任が分散される『多くの手の問題』が発生する」とし、「ハルシネーション(幻覚)が個人の権利を侵害するほどAIの影響力は増大したが、これを事前にコントロールしたり、事後的に責任を問うための共通基準がない」と指摘した。一例として、誤った医療診断や大規模データの活用によって個人情報が侵害されても、責任の所在が不明であることを挙げた。

AIは日進月歩で発展しているが、現時点でAIの人権基準を議論することに意味はあるのだろうか。シェニー氏はこうした疑問に対し、「技術が完成する時点というものは存在しない」とし、「機械学習やディープラーニングを経て、生成AI、エージェントAI、汎用人工知能(AGI)など、天井を突き破ったと思えば、その上にまた別の天井が現れる」と説明した。同氏は「AI人権は技術が安定した後に議論すべき事案ではなく、今この瞬間に発生している被害を保護するための最小限の安全装置だ」と述べた。22日から施行される韓国の「AI基本法」については、「AIの発展と合理的な規制を同時に模索する意義深い事例になり得る」と評価した。

カギとなるのは、企業などの主要な主体の参加だ。この日のセミナーに出席した企業側からは、現実的な状況に対する言及があった。ある企業関係者は「新しい人権章典が既存の法・制度のどのような空白を埋めるのかについての説明が必要だ」とし、「企業としては各国の状況に合わせてサービスを現地化・具体化し、自社システムにそれを内蔵させるプロセスが伴わなければならないため」と述べた。

シェニー氏は「倫理的正当性と顧客の信頼を重視する企業の特性上、動機は十分にある」とし、「メタ(Meta)やグーグル(Google)など、実際に会ったビッグテックの関係者も予想以上に真剣な関心を示した」と語った。企業の参加よりも大きな障害として、地政学的な緊張、国連などの国際機関の影響力の弱体化、強い反規制の基調などを指摘した。シェニー氏は来月、英国オックスフォード大学でAI人権章典のホワイトペーパー(政策白書)を公式に発表し、関連する議論を本格化させる計画だ。



関連記事

この記事を読んで…

포토뷰어

最新記事

    もっと見る 0 / 0

    공유하기

    팝업닫기
    top 메뉴