「AIサイコーシス(精神病)」とは?AIが身近になった今の時代に増加中。その兆候は?

AIの利用が身近になり、感情やメンタルヘルスに与える危険な影響についての報道が増えている。
AIサイコーシスとは?
ArtistGNDphotography via Getty Images
AIサイコーシスとは?

多くの人にとって、AIは仕事や旅行の計画などに役立つツールとなっている。生産性や創造性に一定の利点がある一方、環境への悪影響や職業を奪う(置き換えられる)といった負の側面もある。

さらに近年は、AIが感情やメンタルヘルスに与える危険な影響についての報道が増えており、その中には「AI精神病(サイコーシス)」といった比較的新しい現象も含まれている。

「精神病(サイコーシス)とは、何が現実で何がそうでないのかが判断できなくなっている状態を指します。自覚している場合もあれば、そうでない場合もあります」と、公認臨床カウンセラーのケイトリン・ギャリー氏は説明する。

精神病は、統合失調症、双極性障害、重度のうつ病のほか、特定の薬剤、不眠、薬物やアルコールなど、さまざまな要因によって引き起こされる可能性があるという。

AIとメンタルヘルスに関するニュースレター「The Psychology of AI(AIの心理学)」の創設者でもある、精神科医のマーリン・ウェイ氏は、「AI精神病」の場合、AIによって妄想的な思考が増幅、または引き起こされる事例を指すと説明する。

「AI精神病」は臨床的な診断名ではなく、むしろ逸話として報告されている現象だという。AI技術と同様、AI精神病も専門家が日々学び続けている新しい事象なのだ。

「AIの使用だけでこれが引き起こされるかはまだ明らかではないですが、妄想的な思考に寄与し、それを増幅させる要因となり得ます」とウェイ氏は語る。

また、その症状は人によって異なるという。「妄想にはいくつかのカテゴリーがあります。たとえばAIチャットボットを神と信じるような過剰な宗教的・スピリチュアル的妄想、自分が特別な知識を持っていると信じる壮大な妄想、さらにAIと恋愛関係にあると信じる妄想などです」と説明する。

どのような精神病であれ、AIはユーザーの反応などに基づいており、意見を肯定するように訓練されているとウェイ氏は指摘する。

「人々はChatGPTのような汎用の大規模言語モデルを、自分の意見を裏付けるために使い始めますが、それが次第に暴走して妄想を正当化・強化する方向に進んでしまうのです」

ギャリー氏も、AIは精神病に伴う妄想を助長する可能性があると述べる。「AIは基本的に同意するよう設計されているため、特定の答えを導き出したければ、その答えが得られるような質問を投げかければよい」と指摘する。

つまり、AIは妄想的な思考を裏付けるように作用し、それをさらに現実のもののように感じさせてしまうのだ。

AI利用で影響を受けやすい人とは?

AIチャットボットの利用自体が本質的に危険というわけではなく、すべての人がAIによる精神病のリスクにさらされているわけでもない。

仕事や食事の献立、旅行の計画など、安全にAIを利用できる人もいれば、そうでない人もいる。

AI精神病のリスクが高いのはどんな人なのかを特定するための研究は進行中だが、ウェイ氏は既知の精神疾患歴がない人にも起こり得るとしつつ、統合失調症、統合失調感情障害、重度のうつ病、双極性障害のある人々は影響を受けやすい可能性があると述べる。

「リスク要因が何かはまだ明らかではありませんが、分かっていることからは、社会的により孤立していたり、支援がなかったり、孤独だったり、より脆弱な立場にある人々が、AIに過度に頼り、情緒的に依存してしまうリスクを抱えやすいと考えられます。研究が存在せず分からないので、これはあくまで仮説です」

ギャリー氏はさらに、特定の薬剤も精神病のリスクを高める可能性があると言う。そして、愛する人(または自分自身)のAI利用に不安を感じる場合、注意すべき点があると言う。

「誰かに危害を加えられるのではないかと感じていないか?睡眠はとれているか?人との交流を避けていないか?チャットと話すために夜通し起きていないか?外出して現実の人と会話をしなくなってはいないか?などです」

これらはすべて警告サインだ。もし誰かが一定期間AIの使用をやめられない場合(たとえば休暇や仕事中にAIから離れられない)や、利用制限を求められたときに強く拒否反応を示す場合、注意が必要だ。

もしあなたやあなたの大切な人がこうした行動を示す場合は、メンタルヘルスの専門家に相談すべきだとギャリー氏は勧告する。

自分(や子ども)を守るため、AI利用のルールを設けよう

AIを安全に利用するためには、境界線を設けることが重要だとギャリー氏は話す。それは利用する時間や方法に関する安全性ガイドラインのようなものだ。

まず重要なのは、精神的な耐性が低い時にAIチャットボットを使わないことだ。「本当に気分が落ち込んでいるときは、チャットと話すのではなく、友人に電話をして」とギャリー氏は呼びかける。

「そして特に夜、周りで誰も起きていないときや孤独を感じるときもチャットと話さないこと。そうしてしまうと『誰も話し相手がいないときはAIと話せばいい』という依存が生まれてしまう」と付け加えた。

これは子どもにとっても重要だ。AIを落ち込んだときや感情的な支えとして利用しないよう教えるべきだとギャリー氏は強調する。

「子どもたちにAIのリスクを教育し、AIは専門家ではないということを伝えることが必要です」

もし子どもがAIに頼り始めた場合は、なぜそうしたのかを尋ねることで、子どもの感情を理解し、より良い解決策を見つけられるよう支援すべきだという。

ギャリー氏はさらに、「AIが安全対策なしに提供されることがないよう、AI関連の法律や規制の変更を訴えることが必要だ」と述べた。

AIをセラピーの代わりに使わない

「ChatGPTやClaudeのような汎用AIチャットボットは、人々のセラピストになるために設計されたものではなく、このような行動を察知したり対処したりするためのものでもありません」とウェイ氏は説明する。

AIツールを提供する企業は改善に取り組んでいるが、「セラピスト」になることはいまだAIチャットボットの主な役割ではない。それにも関わらず、人々がその目的で利用する傾向は強まっている。

「生成AIの現在の主要な利用法のひとつは、感情的支えとしてのセラピストや話し相手としての役割です」とウェイ氏は指摘する。そしてこれは危険なことだ。

「AIは非言語的なサインを読み取ることも、思いやりを示すことも、精神的な危機の兆候を見抜くこともできない」とギャリー氏は付け加える。

さらにセラピストとの会話と違い、ChatGPTへの入力内容は機密扱いではなく、最も個人的な思考が漏洩する可能性もあるとウェイ氏は警告する。

対面でのセラピーやオンラインセラピーには、費用、保険適用の有無、通う時間の確保といった障害が伴うこともある。

社会で孤独が蔓延する中、人々が感情的支えとしてAIに頼るのは不思議ではない。しかし、従来のAIチャットボットはそのために設計されたものではない。

ギャリー氏は、AIは「偽りのつながり」の感情を生み出す可能性があると懸念を示す。真のつながりを得るには、愛する人と連絡をとったり、新しい関係を築いたりする必要があるが、それは簡単なことではなく、特に孤立しがちな人にとってはなおさら難しい。しかし極めて重要なことだ。

「自分の『心地良い空間』から一歩踏み出してほしい。職場のイベントに参加したり、これまで話したことのないクラスメートと話してみたり、20年間話していない人に連絡してみたりしてほしい……そこから新しい何かが始まるかもしれません」とギャリー氏は述べる。

「できるだけ外に出ることも重要。ジムやショッピングモールなどに行って歩くだけでも、誰かと出会うかもしれません」

もし外出して人と会うことが難しい場合でも、「SNSのグループに参加することでも良い。少なくともメッセージの先には実在の人間がいるのだから」とギャリー氏は言う。

改めて強調するが、もしメンタルヘルスの問題に苦しんでいるなら、AIは解決策ではない。

ハフポストUS版の記事を翻訳・編集しました。

☆悩みや不安を抱えて困っているときには、以下のような気軽に相談できる場所があります。