言語を操る存在が人間しかいなかったことによる脆弱性であり、これは文化的な進化で解決するような気はしてる。
人間は後付の理由でもそれっぽいなら納得できてしまうのだ
人間の作りそうな文を模倣させたら、人間の思想な判断まで模倣できるようになったというのは面白い。 しかし、あくまでそれっぽさであって、そこに論理はない。 しかしやっかいなのは、言語モデルは与えられた情報からそれっぽい文を作ることはできるので、自分の判断に後付の理由を生成するのは得意中の得意だということ。
言語モデルも最初こんなに応用幅広いとは思われてなかったふしあるし
何をさせたかったっていうのはないんじゃないかなあ。 人間追求の一環で色々作ってみたらこういうのに使えるようになったとか、そういうのはありそうな気がする。
動物のマネをさせるために動物の構造を機械に真似させたものはそりゃ動物っぽいのだが、先入観というのは本当に目を曇らせる
人間が簡単だが手間だと思ってることが生成AIに難しく、人間が難しいと思ってることが生成AIには簡単だったというギャップ
答えが一意に定まらず、それでいて後工程で機械的に正常性を保証できる用途、そんなに多くないと思ってる。 あとはブログ文とかスライドとか絵とか音楽とかの、人間の満足が得られれば良い用途は、生成AIが強い。 人間が一番嫌いな「正しい書類作成」とかが一番生成AIが苦手なの面白い。
言語モデルは、確率的言語生成モデルの通り、原理的には「それっぽい文」を作ることにしか責任を持たないわけで、そこに十分な情報を与えて、後工程で確からしさを保証して初めて使い物になる。 コーディング用途は、確からしさをある程度機械的に保証できるので、人間の手間がそこまで大きくないというのが成功要因だろうなと思ってる。
この記事良かった