システムプロンプトを指定するAgentを選択するよう書いたら、LLMのモデルを指定してきた。
“GPT-4”
Geminiは忖度しない。
投稿者: robot_creation_root
動いていたものまで
なんか動いていたものまで動かなくなっている気がする。仕様変わったかな。
エラー潰し中
まずはエラー潰し。
機能はある程度形になってきた。
if,for,whileなどの機能がある程度形になってきた。あとは使ってみて調整する必要がある。
次の記事までは時間がかかりそう
今if,for,whileなどを簡易的に処理できるコードを作成中。AIに疑似コードを出力させてそれを解析して処理することを目指している。
EmotionalBehaviorAgentの入り口
EmotionalBehaviorAgentの入り口を公開。欲望と恐怖をもとに他のエージェントに指示を出してユーザーなしで動作させる実験のソース。まあまだあまりうまく動いていなくて、改良の余地が大きいけどきっちりできてからでは一向に公開できないので。
いったんここまでのをまとめてアップロードしようと思う。
思い通りには動いていないけど、ここまでの成果をアップロードするためのまとめに入ろうと思う。
それが終わったらもっと部品ごとにまとめて機能を整理しようと思う。ロボットの方いじれないのがストレス。
openai のswarm
openai のswarmはAGIの入り口の前でやっていることを機能として用意しましたというだけであまり魅力を感じない。
ファンクションコーリングも書式が悪いのか、Geminiで使っているのが悪いのか、いまいち安定しないし、他のllmへの適用とか考えると、pythonコードで出力させてそれを解析する方が出力がおかしな時の処理とか決められるし、デバッグもやりやすいし、安定しそうなんだよね。
AGIの入り口の前 ではエージェントの選択をファンクションコーリングでやっているけど、pythonコードで出力してやった方が安定しそう。
いま、pythonプログラムで機能追加するの書いてるけど結局pythonのコードに簡単なコメント出して、それを解析して、実現しようとしている。
ルールの不明瞭さに悩まされる。
例えば
……
この二つについて、どちらにするか、これまでの経緯や進捗や要望に基づいて出力してください。
選んだ方は、#で始まるpythonのプログラムコードとして出力してください。
はうまくいかないけど
…….
この二つについて、どちらにするか、これまでの経緯や進捗や要望に基づいて、#で始まるコメントでpythonのプログラムコードとして出力されます。
と1行にまとめるとうまくいく。プログラムと違ってルールが不明瞭だから困る
細かな癖がある。
なんか細かな癖がある。
例えば、pythonコードとpythonプログラムは微妙に意味が異なってとらえられている。
pythonコードは挙動そのものにあまり意味がないような出力もされる。
pythonプログラムは明確に挙動がプログラムとして機能するようなものが出力される。
自立駆動型のエージェントそれっぽいものができたけど、やっぱりシーケンシャルなエージェントチェーンでは限界がある。
