増加する「AIメンタル相談」~「AIを擬人化」は危険~

──最近、メンタルの相談を生成AIにする人が増えているそうです。AIをネガティブな思考や感情への対処に活用する可能性は高まるのでしょうか。

生成AIはあくまでツールにすぎません。ネットが普及し出した頃も「Google検索はよくない」「図書館で調べないとダメ」と言われましたが、今はGoogle検索は日常の光景になりましたよね。同じように、AIも活用したほうが得です。

もちろん依存するほどのレベルはダメですが、それは生成AI自体の問題ではなりません。依存する人は対象がAIであれSNSであれ、依存しますから。問題があるのは「依存する人」の側です。今のうちに、AIリテラシーを高めて上手に使うほうが賢いと思います。

──逆に、メンタルケアにAIを活用する際、どんなリスクが考えられますか。

怖いのはAIを擬人化してしまうこと。最近は「AIを恋人代わりにする」といったニュースもありますが、AIを人間のように感じるのは危ういです。「作り物だ」とわかって相談するなら問題ありませんが、AIと人間との境界があいまいになりすぎないよう注意が必要です。

さらに、AIはハルシネーション(誤情報)を起こすため、「出まかせ」を自信満々にアウトプットすることがあります。現時点ではAIの不正確さが目に見えるので安心なものの、精度が飛躍的に上がっていったときが怖い。人々が「AIはほぼ間違えない」と思い始めたら、わずかなエラーでも大問題になりかねません。だからこそ、ユーザが「AIは100%正しいわけではない」と心得る必要がありますね。

安全にAIを活用するためのアドバイス
【関連記事】