본문 바로가기
이전 페이지로 가기 공유하기 주요 서비스 메뉴 열기

【社説】チャットボット「イルダ」論争…AI時代の反面教師にしなくては=韓国

ⓒ 中央日報/中央日報日本語版
ヘイト発言などで議論になった人工知能(AI)チャットボット「イルダ」が3週間で結局サービスを中断した。イルダは対話中に同性愛者や障害者に差別的で、利用者が要求する場合には「性奴隷」水準の返答までし、メディアと社会に叩かれた。一方では関心を集めてイルダの会員数は先週末を経て20万人以上急増したりもした。

事実、AIチャットボットをめぐる問題は今回が初めてではない。2016年に米マイクロソフトがチャットボット「テイ」を出したが白人優越主義と女性嫌悪などの問題が起きてサービスを中断したことがある。2002年に韓国で初めての国産チャットボット「シムシミ」もこれまで同様の倫理問題が起きながら少しずつ進化した。いまでは韓国より海外で有名になり、世界の累積使用者は4億人近いという。それでもイルダが突然議論になったのは外国ではなく韓国国内でAIチャットボットをめぐるヘイトと性差別などの倫理問題が起きたためだ。「AI倫理不感症」や「規制死角地帯」など批判の声は熱い。

韓国社会がイルダ論争で直視すべきことは大きく2種類だ。最初はビッグデータ利用と管理の問題だ。イルダはスタートアップのスキャッターラボが自社の別のサービスを通じて恋人同士のカカオトーク対話数億件を入手し、これを基にチャットボット学習をしたという。利用者の同意も受けたので合法という立場だ。だがほとんどの利用者は対話内容がAIチャットボットサービスの材料になるとは想像もできなかっただろう。AIにとってビッグデータはロケットの燃料のような存在だ。良いビッグデータを入手してこそ良いAIが作られる。専門家らは「説明できて透明で、普遍妥当なビッグデータが使われなければならない」と口をそろえる。ビッグデータ使用に対する具体的同意を経るべきという点は言うまでもない。

2番目に、すでに多く指摘されている倫理問題だ。未成年者も使用できるチャットボットにヘイトとセクハラ的対話が乱舞するのは深刻な問題だ。開発者が精巧なアルゴリズムを実現すべきだけでなく利用者も常識的に容認される対話をする成熟した姿勢が必要だ。

AIはすでに私たちの暮らしの中に深く入り込んでいる。AIを搭載した掃除ロボットが家の中を隅なく掃いて拭くことを立派にやり遂げている。スピーカーの中に入ったAIはまだ完璧ではないが徐々に個人秘書の役割を始めている。こうした生活型AIのほかにも判事の判決を支援する法律AI、医師の診断を助けるドクターAIなど多様な専門領域の中でAIがすでに猛活躍している。こうした分野でAIの言葉と判断が誤る場合、その余波は致命的になりかねない。イルダ論争をAI時代の「ワクチン」と考え、多様な「未来の衝撃」をあらかじめ点検し備えなければならない時だ。

関連記事

この記事を読んで…

포토뷰어

最新記事

    もっと見る 0 / 0
    top 메뉴

    공유하기

    팝업닫기