AIの普及は止まることを知らず、日進月歩で進化しています。この流れは止まることはなく、今後の普及を続けるでしょう。
最近、個人的に「未来はどうなるか」に関心があるので、毎日読書したり、海外の情報を追っています。
「AIをメンタル相談に使う」ことに関して最新の知見も追っていて、非常に重要なことが見えてきたのでここにシェアしたいと思います。
基本的に、AIは有用です。使っていくこと自体に問題はなく、気軽な相談、壁打ち相手としても適切。それが大前提です。
ただ、歴史上、新しい技術は便利さを生み出す一方で、人類の能力を奪う側面もありました。
電車などの乗り物ができることで運動量が減り、身体の問題を抱えたり、スマホによってドーパミン過剰分泌状態になり、集中力が低下。メンタルの低下も世界的に深刻な問題になっています。
このように、便利になることの結果として、人間の機能の低下はほぼセットでついてくる。
では、AIのメンタル相談利用には、どんな機能の低下があるのか?そもそもAIへの相談に問題はないのか?
このことについて、世界的精神医学権威であるドクターKが最新の動画で解説していました。彼の発言、動画の内容から今回のテーマについて紐解いていきます。
まずは、AIは本当に正しい診断が可能で、適切な解決策を提案できるのか?について。ドクターKはそこにいくつかの問題があるとしています。
問題1【仮説の欠如】
診断プロセスは、単に症状をリストアップする作業ではありません。
『専門家の場合』
例えば相談者が「眠れない」と言った瞬間、
専門家の頭の中では「自律神経の問題?」「メンタルの不安?」「最近ストレスのかかる状況があった?」「うつ?」「睡眠時無呼吸?」「睡眠環境?」
といった複数の仮説が同時に立ち上がります。
そして、その可能性を一つずつ潰すために、
「いつ頃からですか?」「具体的な症状は?」「寝具を変えましたか?」「ここ最近何か変わったことは?」
と、意図を持った質問を投げかけます。
『AIの場合』
AIは基本的に、ユーザーが投げかけた言葉に対して「もっともらしい返答」を生成する受動的なシステムです。
自ら「この可能性が高いから、この情報を引き出そう」という能動的な戦略を持って会話をリードするように設計されていません。
(指示されない限り、相手から情報を引き出す「深掘り」が苦手です)
問題2【テキスト依存による読み取り不足】
専門家は「顔色」「話し方の速度」「視線の合わせ方」「雰囲気」といった非言語情報(メタデータ)からもヒントを得て、
「この人は身体的な問題が隠れているかもしれない」
と直感し、検査や特定の質問を組み立てます。
一方、AIはテキスト情報に依存しているため、ユーザーが自覚しておらず語ることができない「隠れた症状」に気づいて質問を差し込むことが極めて困難です。
問題3【疑いの視点を持てない】
AIは、ユーザーが「最近仕事が辛くて、うつ病だと思うんです」と言うと、
その物語に沿った回答をしてしまう傾向(おべっかを使うような性質)があります。
本来の診断には、
「いや、それはうつ病ではなく、別の原因かもしれませんよ」
という疑いの視点が必要ですが、AIはユーザーの提示した文脈を肯定して広げてしまうため、
多角的な質問によって仮説を検証するプロセスが抜け落ちやすいです。
さらに、AIへの相談を続けることで下記のような問題が生じると指摘しています…
続きはサブスタの方でどうぞ。
:AIにメンタル相談はありか?なしか?最新心理学&脳科学が示す答え
最後にお知らせですが、僕は現在、体験トレーニングを行っています。30分間Zoomを使い、直接お話しする機会です。あなたが今抱えている課題や、実現したいけれど進めない悩みなどをお聞きし、解決策の提案や、無意識にある心理的葛藤の言語化をサポートさせていただきます。無料で受講できますので、興味のある方は概要欄からお気軽にお申し込みください。
:【30分で解決策を提供】無料体験パーソナルセッションはこちら
LINE@でも最新情報、LINE限定コンテンツを随時配信中です。
YouTubeもやっています。
noteも書いています。
:note文章版メンタルトレーニング「自信を鍛えるメントレ」
本も出版しています。
こちら韓国でも出版されました。
「無愛想のススメ〜人間関係が劇的に改善する唯一の方法〜(光文社)」 発売4日で増刷!










