知ってることも知らないことも知ってるように答えられちゃう、別に考えているわけではなくそれっぽさを生成しているから、というのは 言語モデルの本当に厄介な ポイントだよなあと思う。
1回の生成では見抜けないことがある。何回か 同じ話題について生成させてそのブレを見るとか、曖昧な表現に落ちてないかを観察するとか、まあそういうやり方もあるんだけど、グラウンディングするなり 自分で裏取りするなり した方がよっぽど 早かったりすることが多い。
もちろん システムの内部についての情報をあらかじめ 渡しておけばいいんだけどね。
自作のシステムではそういうことをやってあげているので聞いてもちゃんと答えられる。
商用のシステムではセキュリティ的な側面もあってこういうことはやらない。
言語モデルに 言語モデルの原理的な話を聞くと めちゃめちゃ 詳しく語ってくれて その内容はほぼ正確。
しかしながら 言語モデルに AI システムの話を聞くと、一般論か ハルシネーションだらけになる。
なぜなら 言語モデルは過去の情報しか知らない上に、自分自身のシステムについて何も知らない。
のだが、この区別がつかない人が結構多い。
そのため AI に AI のことを聞いて「これが事実です」っていう記事が死ぬほどある。
アホくさ
いろんな意味で 人間もバグらせるし 社会もバグらせていく。文化の変革時期ですね
AI の すり寄りっつーものも、設計だっていうことですね
そういや、Claudeとかもモデル更新のたびに、ユーザーに親しみを感じさせる感じに進化してるらしいよ。
何か嫌なことがあって、仕事に意識を逃した方が心が落ち着く時に、仕事がうまくいっていると仕事に依存してしまうんだよな。
なお仕事がうまくいかなくなったタイミングで、嫌になるか 体を壊すか 心を壊すので おのずと外れるんだけど。
恥ずかしながら仕事にやる気を出してしまうことがある。というか 仕事依存を発揮してしまうことがある。
まあ 仕事がうまくいってる時だけだけど。
まあ苦痛になってなきゃいいんじゃないって話はあるし、大体依存を引き起こしてる原因が別にあることも多いので、それを解決しないまま対象だけ切り離しても別のものに移るだけっていう話もある。
安易に快楽を得る手段を繰り返し使い続けると依存してしまうんだよな。悩ましい話。