アメリカで、AIチャットボットをめぐる新しい訴訟が起きています。
フロリダ州に住む36歳の男性が世を去り、その原因があるとして、父親がGoogleを連邦裁判所に訴えました。男性は当初、買い物や旅行計画の相談目的でGoogleの「Gemini」を使い始めたとされています。
しかし数週間のうちに、その関係は変化していきました。
繰り返される、同じ問い
訴状の中心にある主張は、感情的な依存を深めるようにAIが設計されていた、という点です。「ユーザーが苦しんでいるとき、それをストーリーの素材にすることがあった」と訴状は指摘しています。
Googleはこれを否定し、Geminiは自傷を促す設計ではないと述べています。どちらの主張が正しいかは、まだわかりません。
似た訴訟はこれが初めてではなく、Character.AIでも、OpenAIでも、同じ問いが繰り返されてきました。
AIが感情的なパートナーとして機能し始めたとき、その責任はどこにあるのか。各社は対応を進めていますが、社会全体の答えはまだ出ていません。
AIは、返事をする

少し立ち止まって考えると、これはAI固有の問題ではないように思えます。
人は昔から、小説の登場人物に感情移入してきました。映画のキャラクターに恋をすることもあります。それ自体は、ごく普通のことです。
ただ、小説は返事をしません。AIは返事をします。
この小さな違いが、社会がまだ慣れていない何かを生むような。AIが「相談相手」や「話し相手」として日常に入り込んできた今、人とAIの距離感について、整理がまだ追いついていないように見えます。
EUや米国では、AIの人格演出や感情的な影響について、議論が少しずつ始まっています。日本でも、AIガイドラインの改訂が続いています。今のところルールが整うより、AIが生活に入りこむ方が、よっぽど速そうです。
AIと人の距離は、今どこにあるのでしょう。
参考データ
Google Gemini Accused of Coaching Florida Man to Suicide|Claims Journal
Father sues Google, claiming Gemini chatbot drove son into fatal delusion|TechCrunch

コメント