やってないから知らないけどLLMだけならメモリを積みまくるだけでもなんとかなるっぽいよね llama cppのおかげで
RX 7900 XTXの後継モデル出てくれー LLM遊びに1番コスパ良さそうなんだよ
あんまメジャーじゃないとこのAPI経由であんまり使いたくないけどローカル起動すると遅くて使えないやつね
deepseekがまたなんかすごいことしてくれるに期待
名駅の井の庄行きたいけど毎回混んでてまぁ良いかになるんよな
辛辛魚本物食べてみたい
Agentモード以外使わないと思ってた Askとか古い実装消すに消せなくて残ってるやつやんの気持ち
Agentにしないと出てこないよ
vscodeのcopilotのマイクの横にある🛠️ボタンから簡単にツール一覧見えた
ある意味では内製mcpと言ってもいいのかもしれないけど