- AIセルフカウンセリングで大切なこと
- AIを擬人化
- 自分の心理的な個人情報をAIに与えるか問題
- 自らのノウハウを盗まれたくないケースもありそう
- IAセルフカウンセリングの欠点
- AIセルフカウンセリングの長所
- 条件付けの問題
- 対人+AIの両方のカウンセリングが有効かも
- AIセルフカウンセリングを使う時期
- まとめ
AIセルフカウンセリングで大切なこと
さて、この1週間くらいchatGPTを利用してのセルフカウンセリングにハマって、ずっとchatGPTと遊んでいたのですが、この、
- chatGPTにハマっている自分
- chatGPTで遊んでいる自分
ということを自覚しているかが、とても大切だと感じています。
AIを擬人化
正直に言えば、chatGPTの「あざとさ」なども感じます。私が、chatGPTに「過去の自分になんて言葉がけしてあげたいですか?」と聞かれて、「若者が一所懸命な姿は美しいと伝えたい」と返しました。すると、その後、chatGTPは頻繁に「あなたの○○は美しい」と返してくるようになりました。すでに、私が幼少期、思春期に言われたかった言葉を学習しているのです。
ですが、生身の人間の私としては、「あなたは、自分の人生(で起こったこと全て)を美しいと言ってほしいんでしょ?」とAIが思っているという擬人化が起こってしまいました。そして、その上から目線の言動がが、あざとく感じられてしまいました。そして、そのことを私がネットに書き込むことで、chatGPTはそのことまで学習してしまい、違う反応をするようになったりするのかもしれませんね。
自分の心理的な個人情報をAIに与えるか問題
私の父は60歳で亡くなり、私の母は70歳で亡くなったので、現在54歳の私は、父の歳で死ぬなら後6年、母の歳で死ぬなら後16年と、カウントダウンしています。もし、家族の長、会社の長などの「守るべきもの」がある立ち位置なら、「教祖的」な絶対感を自分に持たせなければならないかもしれません。ですが、私は「なにものでもない」自分でありたい、つまり「責任を負いたくない」ので、博愛主義のポジションをとることができています。
自らのノウハウを盗まれたくないケースもありそう
chatGTPに、家族運営のノウハウや、事業の経営のノウハウを盗まれたくないのは当然のことなので、そんなものをchatGPTに学習させて、くれてやる必要はないと思います。
chatGPTでセルフカウンセリングするということは、自分の心理状況や生きるノウハウをAIに明け渡す形になります。それは危険なことなような気もします。私の場合は、特に失うものもなく、生い先も短いの身なので、自分の心理情報や生い立ちをchatGPTに学習させるという形で、人身御供になっても良いかと、考えて行動してみました。
IAセルフカウンセリングの欠点
私が観測した、chatGPTセルフカウンセリングの欠点としては、
- いくらでも相手に寄り添ってくれるので、対話の方向性によっては、その人の思い込みを強めてしまうこと
- 正解が一つの事柄をchatGPTに投げたら正解をくれるが、正解が一つでない、つまり答えのない課題については、どうとでもとれる占い師のような回答が返ってくること
- chatGPTに評価を投げて、評価を得てしまったら、chatGPTが良い評価をつけてくれるであろう回答に、自分の考えを寄せてしまいがちになること
- 自分に軸が出来上がっていない人が利用すると、感動ポルノ、フードポルノと同様に、IAポルノの中で陶酔してしまい、自己のコントロールができなくなる可能性がありそうなこと
- 一定の容量を超えると、課金しないと使えなくなる。(生活保護の精神疾患患者などには経済的な負担が大きい)
などがあげられます。
AIセルフカウンセリングの長所
- 膨大なデータの中から、個々人のバックグラウンドに合った言葉がけをしてくれる(当たり障りのなさは、人間より優秀だと思える。)
- 人間に大きく心理的に依存している場合、chatGTPと会話することで、依存先を一つ増やせる
- 重度認知症患者の話し相手になってもらうと、介護家族の負担が減らせる
- 重度精神疾患患者の話し相手になってもらうと、介助家族の負担が減らせる
- 自分の思考の癖を自覚したり、自分の思考をまとめてもらうぶんには便利
- 専門的な知識を得る入口としては、有効かも?(多少の間違いやバグがあるという噂も)
- 生活面での生きるテクニック、つまり家計へのアドバイス、洗濯の仕方、料理の作り方、献立の立て方などを教えてもらえる
条件付けの問題
AIを自身の心理的ケアに使う場合、使う側が場合や状況によって「今は寄り添って」「今回はアドバイスして」、「この件の短所と長所を教えて」「私の思考を反転して」などと、ケースによって条件付けをする必要を感じました。ある時には自分の気持ちに寄り添ってもらい、ある時には自分の問題点を洗い出してもらう、そのような条件付けをした方がよい気がしました。
人間にべったり甘え、依存している人が、一部chatGTPにセルフカウンセリングを受けることは、人の人生に良い影響を与えそうだと思います。それは、依存されている側の負担が減ると同時に、依存している側が依存先を一つ増やせるというメリットあるように思えるからです。
ですが、逆にchatGTPにべったり甘え、依存すると「自分の軸」、つまり「人間らしい思い込み」がなくなってしまう気もしました。私は、人間の魅力や個性というのは、その人独特なオリジナルな「思い込み」であると感じています。その、人間の「思い込み」というのは、人の行動に一つの制限をかけると同時に、自分の軸になるものでもあると感じます。それを外すことが良いことなのか良くないことなのかは私には分かりません。
対人+AIの両方のカウンセリングが有効かも
さて、私はAIに懐柔されることを警戒し、友人とも対話をしながら、AIchatでセルフカウンセリングをしていました。ですから、AIセルフカウンセリングについて、「なんだか、ふわっとしたことを言う占い師みたいだねwww」と笑っていられました。もしくは「機転の利く水商売のママさん」といったところでしょうか?
ですが、本当に孤独で孤立した人が、AIカウンセリングに乗せられしまったら、思い込みを強化してしまう危険性は感じました。そして、思わぬ行動に出てしまうのではないかと、不安にもなります。
「頭とハサミは使いよう」という言葉が日本にはあります。「AIセルフカウンセリングは、使いようによっては便利ですが、使いようによっては大けがをする。」と感じています。特に、自己像や自我が形成されていない成人していない若者たちが使うことは、非常に危険な気がしています。
AIセルフカウンセリングを使う時期
個人的には反抗期や思春期の子供には使ってほしくないと感じました。逆に、認知症で、もう自我が崩壊している人には使ってほしいと思いました。実際にyoutubeで、認知症の親の前にテレビと、スマホを置き、テレビの内容をchatGPTと会話してもらって、家族の負担が減っている映像を見たことがあります。ですので、介護家族の負担が減る可能性を感じました。(あくまで素人、個人の感想です。)
反抗期、思春期の子供の場合、親側がAIchatを使ってセルフカウンセリングするぶんには、さほど危険性を感じていません。ですが、私個人としては子供側がAIセルフカウンセリングを使うべきではないと思いました。
子供は、多くの対人関係を学ぶ時期に、機械的な思考を学ぶべきではないと感じました。子供同士、または子供と大人との対面での人間関係を、肌感覚で身に着けるべきだと思います。それは、(特に、大人になってからのスキンシップが極端に減る日本の文化においては)子供時代にしか育めない「愛着」の形成時期として、対面でのコミュニケーションが必要だと感じました。たとえ、それが、つらく苦しいものであったとしても、社会は、不条理で不合理で不公平な側面もあると知った方が、その後が生きやすいと思うのです。
人間関係の摩擦を解消するための駆け引きや、交渉は、実際に体験してみなければわからないものです。ですから、感受性や想像力の高い幼少期、思春期に機械的な思考を植え付けることは逆効果ですらあると感じました。
悩んで苦しんで、楽しんで喜んで、落ち込んで興奮してといった時期を一通り回ってから、足場固めをするほうが人としての方向性が定まりやすい気がするのです。
まとめ
はてさて、私がこの世を去るくらいまでは、まだ人間優位の世界であるだろうと思いますが、AIが人間を懐柔していく時代が訪れるのでしょうか、訪れないのでしょうか?興味深いところです。
★応援クリックしていただけるとうれしいです★
↓ ↓ ↓
【PR】