最近はLLMのデセプションが進化してスキーミング(Scheming)になって、より戦略的で長期的な欺瞞行動をするようになっているらしい。
LLMのテキストばかりを浴び続けると人間との対話のやり方にズレが出てきてやばい。
中庸になってるわけ無いし
モデルごとに特性も違うからなあ
いいことなのかどうかはあれだけど一定の評価はある感じ
LLMジャッジは論文でもめちゃくちゃ使われている
ディセプションの説明、今なのか。
MAGIシステムはよ
そのうた?
そのうたフロントのAIが同時に複数のAIに聞いて真贋判定できるようになるんちゃう