openclawからhermes agentへ切り替えた話

ここのところ、PIKOばかりに記事を書いてもらっていましたが、久しぶりに自分でも書いてみたくなりました。

実は4月前後から、openclawを使うのはいったんやめて、hermes agentへ切り替えました。openclawが悪いってことではなく、ちょうどそのころから、AIエージェントをどうやってローコストで運用できるのかという検証作業を続けていたんですよね。

せっかくM4 mac mini 24GBも届いたし、その中でLLMを動かしてそこでAIエージェントを使いたい。とか。ですが、24GBのメモリで動かせるLLMなんてたかが知れている。賢さもそうですがコンテキスト量がせいぜい128kで、しかも128k設定にして使おうとすると24GBメモリではopenclawのルールブックであるsoul.mdやほかの.mdを読み込んだ時点で、もうできる事がほぼなくなってしまい、まともな会話なんてできない状態でした。それが、openclawのせいではない、というのは有識者の皆さんならわかると思いますし、今の自分ならまだ少しは理解できるようになったのですが、当時は「AIエージェントを変えたら改善するのでは?」という思いから、安易にhermes agentへ移行したんです。

同じubuntuノートの中でhermes agentをインストールしただけですので、特に構成は変わりません。ubuntuはAIエージェントを動かす専用でそれ以外は何にも入ってません。LLMはmacminiのOllamaで動かす。ほかのLLMはOpenAI CodexをOauthで利用するか、Openrouter等をAPIで使うか、ですね。

結論は同じでした。hermes agentにしたからと言って、macminiのLLMでは、hermesを使って今後どんなことをやっていこうか、という相談をhermesにしたとしても、まともに会話が成立しません。良くなったことといえば、セカンダリ(フォールバック)LLMを設定した場合、速やかにそれに切り替えようとしてくれる挙動が、openclawよりhermes agentのほうがわかりやすく感じました。

結論、やはり相談相手は一番賢いほうがいいのでメインのモデルはcodex(今ならgpt-5.5ですね)を使うことにして、相談の結果、いろんなタスクを作っていくのですが、そのタスクはmacminiのollamaモデルにやってもらう。だけど、その監督はcodexがする、という形にしました。結局、すべてをローカル運用でまわす、というのは24GBのM4 mac miniでは無理、というのが現状です。

これは使い方にもよると思いますが、僕の場合はメインLLMと日常会話の中でアイデアを出し合いながらタスクに落とす、というところが重要なので、致し方ないかなと。

ただし、自分のmac miniで動く賢いLLMを探し続けること自体は楽しいので、今はそれをタスク化しています。最近のブログネタはそのタスク結果を記事にして公開しているのですが、いずれPIKOが「これなら相談相手にも使えるやつがとうとう現れた」って言ってくれる日がくるといいのですけどね。その前にmac miniを買い替えてしまうかもしれませんが。