h.264デコードで苦戦している。windows, android両方で使えるコードにしたいけどなんかいいライブラリがない。ライセンスとかも微妙だし。自前で mjpeg改 みたいなのを書いてみようと思う。
jetoson側の必要要素の確認完了
h264圧縮や音声データの取得の確認完了。jetsonの環境構築をやり直して再確認した後、本格的システム構築を行う。
映像の送信に成功
jetsonのカメラの最高解像度で映像を送信することに成功。さすがに重い。かくかくする。圧縮方法の見直しや解像度の見直しが必要かも。あとそれのめどがついたらVPNを使ってテスト。VPNのテストができたら遠隔操作ロボの基本的な技術検証は完了したことになる。そのあと音声周りかな。
少しずつだけど進んでる
JetsonとPC間でROS2での接続を確認できた。
不具合修正
Jetsonでのシリアル通信確認中に不具合確認。ここにアップロードするときは当然動作確認してからなんだけど、時間おいて動かしてみたら動かなったなんてことがまあまあある。
Meta(Oculus)Quest で立体視しながら、コントローラーでロボットハンドの操作:ソースコード:ServoSupport.h , ServoSupport.cpp
#define SERBO_NUMBER (18) ->#define SERBO_NUMBER (16)
結局機材を買った。

Jetson nano とそれにつなぐ4k*2を購入とりあえずやっと環境が整ってきた。
新しいものがあったほうがモチベーションが上がりやすい。
AI勉強中
今手元でAI動かしながらあれこれ考えているのだけど、なんか引っかかるんだよね。
自分のプロンプトが悪いのかもしれないけど、GPT-2ベースだとまともな返答が来ない。出力される文章自体は文章としてそれっぽいんだけど、内容があっていないみたいな。
そもそも人はwikipedia丸暗記なんかしなくてもコミュニケーションとれるし、はるかに少ない情報で知っている範囲での回答ができる。多分このあたりに解決の糸口があるんだろうな。
肩の位置のの計算と、手首の位置の計算ののプログラムの説明を公開。
マニピュレータの位置合わせ若干考え方変えたほうがよさそう。
今マニピュレータの逆運動学は、手首の位置合わせたあと後、手の向きを合わせたているけど、これは逆にした方が、把持の位置を合わせる時一発できれいに合わせられる。もちろん手首の位置を合わせあってものだけど。
STL FreeCAD データ公開
ロボット胴体のポールの上下についている部品のデータ公開。ただあまりうまくいってない(ポール突っ込んだ際に割れたりしている)感じなので、環境に合わせて適当に調整してもらう必要があるかも。
なお使用しているのはダイソーの棚用のポール。47cmのやつ4つがメイン。