実際確認してみて

KVキャッシュはとってこれなかった。まあ重くなりすぎるからかな。あとはwebserch付けたらいったんアップロードかな。そしたらそのあとでテキストデータの履歴管理つけて、そのあとoperation強化かな。

thinkingがうまく取れない。

いったんほりゅにしようと思う。
AIにミニマムのllmのAPIラップ作らせてみたらollamaではうまくthinkingもとれた。しばらくしたら、langchainから変更も考えたほうがいいかも。あと、kvキャッシュとってこれるのがollamaだけと知って、履歴管理どうしようかと思っている。<- なんかAIごとにこの辺り言っていることが違う。

現状

だいぶまとまってきた。thinking対応やwebserch付けたらいったん上げようかな。
そのあと履歴機能つけたり、音声入力付ければ基本機能は完成かな。
Applicationsというフォルダを作ったので、特化機能アプリも管理しやすくなった。

有志の量子化バージョンが安定する。

LMStudioのglm-4.7-flashはオリジナルのより有志がMXFP4で量子化したバージョンのほうが安定する。

オリジナルはすぐ同じ文章を繰り返すけど有志版はそれが起こらない。同じように量子化されたものでも、行った人によってモデルの動作が明らかに異なる。

根こそぎ

コード再利用しつつ根こそぎ作り変える感じになる。大きくフォルダ・ファイル構造かかわりそう。その分まとまりがよくななると思う。

特に、これまでずっと気になっていたAIAgentクラスをAICharacterに変更しcoreの中に移動

リファクタリング中

かなり構造を変えている。

toolsの機能の実態はcoreフォルダを作りそちらに移している。呼び出し部分をfunctioin_callingフォルダを作りそちらに移している。将来MCPを作ることに対する準備みたいな感じ。

それとAIAgentのロジックをpythonコードからOperaterのインタープリターに変更することも考えている。Operaterコードを人間が作りやすいGUIを整えたり、AIが作ったり変更しやすいインターフェイスにしたいと思っている。Operaterのコードは今のような簡易インタープリターからjsonにすることも考えている。このjson化はすでに一部組み込まれている。json化で機能拡張がしやすくなることを期待している。