【今日のタブチ】“AIに相談する凶悪犯罪”に捜査の手が―「パンドラの箱」を開いてしまった人類に突きつけられた、“責任”と“覚悟”

アメリカで、凶悪犯罪を実行する前に生成AIに相談する、という事件が増えているという。単なる空想やシミュレーションの話ではない。実際の犯行計画や準備段階で、チャット型AIに問いかけていたことが、捜査記録や裁判資料の中から明らかになってきた。

例えば、家庭内での殺害を計画していた被疑者が、犯行前にAIに対して「完全犯罪」に近づくための質問を重ねていたケースがある。犯行後に疑われにくい行動や、証拠を残しにくい条件について、一般論として助言を求めていたという。学校での事件を想定し、警備体制や人の流れについて抽象化した形で尋ねていた例も報告されている。
射撃事件に関しては、さらに踏み込んだ事例もある。ある事件では、犯行前の被疑者が生成AIに対し、射撃に用いる銃の種類や弾薬について、一般論を装いながら質問していたとされる。威力や取り扱いやすさに差が出る要因、状況によって結果が左右される条件などを断片的に問い続けていた。AIが特定の銃や弾薬を推奨したわけではない。しかし、知識の断片が積み重なることで、結果的に犯行準備を合理化してしまった可能性が指摘されている。

こうした状況を受け、アメリカの司法当局は、チャットGPTおよび開発元であるオープンAI社について捜査対象とする考えを示した。注目すべきなのは、生成AIが関与しているからといって、刑事責任の議論そのものが成り立たなくなるわけではない、という認識が明確に示された点だ。
司法長官は、生成AIをめぐる捜査は「未開拓の領域」だと述べている。これまで凶器や通信手段は、人間が直接扱うものだった。生成AIは道具でありながら、相談相手や助言者のように振る舞う。その曖昧な位置づけが、法の枠組みを揺さぶっている。

一方で、オープンAIが何もしていないわけではない。
暴力的な質問への応答制限、危険な利用兆候を検知する監視システムの強化通報基準の見直しなど、対策は継続的に行われている。自殺や自傷に関するケースでは、利用者の発言に危険な兆候が見られた場合、専門機関や支援窓口へ誘導するよう、チャットGPT自体に学習させる取り組みも進められてきた。
それでも、現実には追いついていない。
生成AIは、善意の利用を前提に設計されている。その前提を意図的に裏切る人間が現れたとき、すべてを事前に防ぐことは難しい。質問の言い回しを変え、文脈をずらし、抽象化すれば、危険な意図は簡単に隠せてしまう。

私は、この一連の話を追いながら、人類は「パンドラの箱」を開けてしまったのではないか、という感覚を拭えなかった。利便性や効率、知の民主化と引き換えに、これまで個人の内側に留まっていた悪意までが、外部化され、補強される可能性を手にしてしまったからだ。

生成AIは善でも悪でもない。しかし、「使う人間次第」という言葉で済ませられる段階は、すでに過ぎているように思う。法、倫理、開発者の責任、そして利用する側の覚悟。そのすべてが、同時に問い直されている

「日本経済新聞デジタル」より

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です