まあ知識の広さとか速度とか、人間に勝ってるところは色々ある
だから、「AIは人間とは異なる優秀な存在だ」という言説がたくさん出てくるわけですねェ〜〜〜
そもそも、模倣というラベルがついてる時点で、本物を100点とした減点評価にしかならないという罠がある。
なので、人間がなんか作る時もそうだが、見せ方を模倣から外さないといけない。
模倣は、模倣である時点で本物を超えられないが、模倣の仕方次第で顧客が満足することはできる。
2025年1月までの人間のマネしかできないから、2026年に言語モデルが存在できない。
そういや、言語モデルに最近の政治ニュースや記事を読ませると「こんなのフェイクだ」「面白い未来予想ですね」って言ってくるパターンがそれなりにある。
(特にGeminiが多い。日付を無視して、2024年の気分になってることが多い)
割と最近のかしこい言語モデルでも、外部ツールの返してくる情報がアホだと、一緒にアホになる現象に悩まされる。
人間のようには外部情報を適切に疑うことがやっぱできないみたい。
なので、外部ツールにPerplexity API使ってかしこい検索結果要約を渡すようにしたら、振る舞いが賢くなった
チューーーン
言語モデルも、自発的になんかさせるより、システム内部の処理結果を自然言語にするほうが、本来はたぶん得意
人間の脳内には、言語モデル相当のネットワークはあるが、判断や思考には使ってないっぽいっていう研究が最近あった気がする。