AIChatをアップロードしました。
ダウンロードはできますが、ソースコードのページはまだ更新されてません。
せっかくなのでAIにやらせることができないか、挑戦してみようと思います。
サイトの壊れたらお察しください。
——–
wordpressは単純にFPTでアップロードすればいいわけではないのか
AIChatをアップロードしました。
ダウンロードはできますが、ソースコードのページはまだ更新されてません。
せっかくなのでAIにやらせることができないか、挑戦してみようと思います。
サイトの壊れたらお察しください。
——–
wordpressは単純にFPTでアップロードすればいいわけではないのか
どこで打ち切るかは大切だよね。
langchainがイメージを履歴で保存してくれない。
もともと履歴表示の際に、テキストファイルが履歴に表示されるのに、送信直後は表示されないため、挙動としておかしいのでテキストだけども表示されるようにしようと思っていたのに、いつの間にか「イメージも」、となっていた。
イメージが保存されないのは、あとで対策が必要。履歴表示の際に実際画像が見えていないのは確認済み。
この流れだとワードデータなんかは再現不可になる。
ーーーー
ある程度形になった。いったんこれでアップロードしようかな。AIによるテキスト編集機能を持たせたいけど、それまで入れると、あらにGUI追加で永遠と耕起できなさそうだし。
今の段階でも複数のpythonファイルを与えてアドバイスを受けるとかの使い道があるんだよね。無課金だと長めのコードエラーになったりするから、ローカルで心置きなく長めののコードをドロップして実際使い始めてる。
モデル選択周りの手回し完了。ただまだ細かいところで気になることがあるので、修正が必要。

データ管理ができたのでモデル選択の手直しと、テキストエディット機能を追加でアップロードできるかも。最低限使えるツールになるのではと期待。
なんでわざわざ、チャットソフトを自作しているかというと、このメモリ管理機能がエージェントでどうしても必要になるからというのがある。
ollamaのthinkingの取得はできた。lmstudioもapiを直接たたいて、thinkingデータが来ているのは確認できた。
履歴管理のため、llmbaseにあったメモリ管理を外に出した。甘利美和巣くなったとは思えないが、それでもまとまっていたころよりはまし。
どうもこれまで使えない感じだったが、使えるソフトのイメージがわきつつある。
今ローカルllmの速度に不満があるので、他のDgx sparkとか、AI max pro 395とかのベンチマーク調べて見たけど、oss-gpt120Bはかなり伸びるみたいだけど、一番伸びてほしいサイズ24-30Bであまり伸びてないからなんかいいや、となった。
ここまでのところでアップロードしようとしたけど相対importに変えてまとめ直してみる。
oss-gpt20bがたの同サイズのモデルと比べて2-3倍速い。カスタマイズで優遇されているのか?構造の問題か。
あとNvidiaのドライバ更新でAIの速度上がったきがする。
KVキャッシュはとってこれなかった。まあ重くなりすぎるからかな。あとはwebserch付けたらいったんアップロードかな。そしたらそのあとでテキストデータの履歴管理つけて、そのあとoperation強化かな。