今手元でAI動かしながらあれこれ考えているのだけど、なんか引っかかるんだよね。
自分のプロンプトが悪いのかもしれないけど、GPT-2ベースだとまともな返答が来ない。出力される文章自体は文章としてそれっぽいんだけど、内容があっていないみたいな。
そもそも人はwikipedia丸暗記なんかしなくてもコミュニケーションとれるし、はるかに少ない情報で知っている範囲での回答ができる。多分このあたりに解決の糸口があるんだろうな。
今手元でAI動かしながらあれこれ考えているのだけど、なんか引っかかるんだよね。
自分のプロンプトが悪いのかもしれないけど、GPT-2ベースだとまともな返答が来ない。出力される文章自体は文章としてそれっぽいんだけど、内容があっていないみたいな。
そもそも人はwikipedia丸暗記なんかしなくてもコミュニケーションとれるし、はるかに少ない情報で知っている範囲での回答ができる。多分このあたりに解決の糸口があるんだろうな。
今マニピュレータの逆運動学は、手首の位置合わせたあと後、手の向きを合わせたているけど、これは逆にした方が、把持の位置を合わせる時一発できれいに合わせられる。もちろん手首の位置を合わせあってものだけど。
ロボット胴体のポールの上下についている部品のデータ公開。ただあまりうまくいってない(ポール突っ込んだ際に割れたりしている)感じなので、環境に合わせて適当に調整してもらう必要があるかも。
なお使用しているのはダイソーの棚用のポール。47cmのやつ4つがメイン。
ここまででちょっと一区切り案がある。
今後の展開として考えられるのが、
ただ、足回りはバッテリーなどでお金がかかる。jetsonもしかり。シミュレーション環境と3を進めるのが最もコスパは良さそう。
決めるまで、まだ公開してないデータをまとめて公開したり、ブログ記事を充実させたりしとく感じかな。
サーボモーターの角度を小数第2位まで送信するように修正これでサーボモーターの動作精度が上がるはず。
実際触ってみた感想としては確かに少し精度良く動いている”気”がします。
Meta(Oculus)Quest で立体視しながら、コントローラーでロボットハンドの操作
のソースコードや仕様の説明を更新しています。
ロボットでペンを持ち替える映像。もう少し調整が必要。
動作確認はまだだけど、とりあえず組んでみた。長い。外装デザインはキリンが首長竜かな。人ならろくろ首にしかなりそうにない。
腕の長さを長くしたりしたらまた変わってくるのだろうけど。
Meta(Oculus)Quest で立体視しながら、コントローラーでロボットハンドの操作のコンテンツを公開しました。
ソースコードでMeta(Oculus)Quest のコントローラーの動きでロボットの手の動きを制御と同じ部分はMeta(Oculus)Quest のコントローラーの動きでロボットの手の動きを制御のページにリンクしてあります。
これでやっと高さ調整に取り掛かれる。
ブログのメニューの一部をアコーディオン化しました。
完全に満足する動きというわけで和ありませんが、元の長大なメニューよりましでしょう。