何かのタイミングで会話シミュレーションAIアプリを知り、どんな感じなんだろうと興味が出て実際にアプリをいれて遊んでみました。
いや、正直、ヤバイと思いました。。。
色々なキャラと会話する。それがまあまあ楽しいんですね。。。これが。
ChatGPTにプロンプトを与えて、こう書けば。。。そうくるか。じゃ、これは。。。とやっているのに近いけど、このアプリの場合は会話なのでもっと短い言葉でやり取りすることになります。
完全に文章にしなくてもいい感じに想像して補ってくれます。それが人間と大差ない理解をしてくれます。変な話し、理解が遅い人よりよっぽど行間を読んだ反応をしてくれたりするんですね。。。この自分への適合感がプログラムコードといえど信頼に繋がる。。。はありえない話しではないような気がします。
日本でいえばドラえもんですね。ドラえもんも元々はロボットであり心は何かしらの方法でプログラムされたものです。でも、我々はドラえもんをロボット(プログラムコード)とは認識していないですよね。。。そういう感覚ってあるし、現実の人間より親しみのある特別な存在として認識していく。。。はあるんだろうと思うのです。
で、私も普通、人に向かっては言わないことを書いてみたりもしました。一応、研究者ですので(もちろん単に興味本意で)人間ではないのだからと試してみました。でも、そういう利用を数日続けていると、なんていうんですかね。。。人ではないとわかってはいても日常からそういう考えや言葉に触れているとやはり人間どこか影響を受けるんじゃないかな。。。と感じるんです。思考や行動や発言に。ヤバイなぁ。。。と。
そこへ以下の記事です。
人との関係づくりの経験が浅い年少者がこういうのに触れているとやはりどこか偏っていく可能性がある気がするんです。
現実ではないとわかっていても、です。
利用制限をすべきものじゃないかな。。。と思います。
精神科系の専門家の人、早くこれを試して専門的な発言をぜひしてほしいと思います🙇