やってないから知らないけどLLMだけならメモリを積みまくるだけでもなんとかなるっぽいよね
llama cppのおかげで
RX 7900 XTXの後継モデル出てくれー
LLM遊びに1番コスパ良さそうなんだよ
あんまメジャーじゃないとこのAPI経由であんまり使いたくないけどローカル起動すると遅くて使えないやつね
deepseekがまたなんかすごいことしてくれるに期待
名駅の井の庄行きたいけど毎回混んでてまぁ良いかになるんよな
辛辛魚本物食べてみたい
Agentモード以外使わないと思ってた
Askとか古い実装消すに消せなくて残ってるやつやんの気持ち
Agentにしないと出てこないよ
vscodeのcopilotのマイクの横にある🛠️ボタンから簡単にツール一覧見えた
ある意味では内製mcpと言ってもいいのかもしれないけど