デバッグの手順がやっと安定してきた。
とりあえずif for while selectが単段で動作しているのは確認したが何度の呼び出されるなどの問題はある。また、多段の時の動作確認も必要。
デバッグの手順がやっと安定してきた。
とりあえずif for while selectが単段で動作しているのは確認したが何度の呼び出されるなどの問題はある。また、多段の時の動作確認も必要。
エラーが抜け、やっとデバッグに入り始めた。
システムプロンプトを指定するAgentを選択するよう書いたら、LLMのモデルを指定してきた。
“GPT-4”
Geminiは忖度しない。
なんか動いていたものまで動かなくなっている気がする。仕様変わったかな。
まずはエラー潰し。
if,for,whileなどの機能がある程度形になってきた。あとは使ってみて調整する必要がある。
今if,for,whileなどを簡易的に処理できるコードを作成中。AIに疑似コードを出力させてそれを解析して処理することを目指している。
EmotionalBehaviorAgentの入り口を公開。欲望と恐怖をもとに他のエージェントに指示を出してユーザーなしで動作させる実験のソース。まあまだあまりうまく動いていなくて、改良の余地が大きいけどきっちりできてからでは一向に公開できないので。
思い通りには動いていないけど、ここまでの成果をアップロードするためのまとめに入ろうと思う。
それが終わったらもっと部品ごとにまとめて機能を整理しようと思う。ロボットの方いじれないのがストレス。
openai のswarmはAGIの入り口の前でやっていることを機能として用意しましたというだけであまり魅力を感じない。
ファンクションコーリングも書式が悪いのか、Geminiで使っているのが悪いのか、いまいち安定しないし、他のllmへの適用とか考えると、pythonコードで出力させてそれを解析する方が出力がおかしな時の処理とか決められるし、デバッグもやりやすいし、安定しそうなんだよね。
AGIの入り口の前 ではエージェントの選択をファンクションコーリングでやっているけど、pythonコードで出力してやった方が安定しそう。
いま、pythonプログラムで機能追加するの書いてるけど結局pythonのコードに簡単なコメント出して、それを解析して、実現しようとしている。