
urdfの練習で作った。見た目だけ。少なくとも一番上のx軸周りの回転をっせるモーターの向きは修正しなくてはいけない。
実際に作るのは何年も先になりそう。
バッテリーの電源でrspberrypiを動かすケーブルが来たから、それで動作確認した後、現在のロボットのurdfを作ろうかなと思う。あと現状のデータのアップロードも必要。
urdfの練習で作った。見た目だけ。少なくとも一番上のx軸周りの回転をっせるモーターの向きは修正しなくてはいけない。
実際に作るのは何年も先になりそう。
バッテリーの電源でrspberrypiを動かすケーブルが来たから、それで動作確認した後、現在のロボットのurdfを作ろうかなと思う。あと現状のデータのアップロードも必要。
手首回りを新しいサーボに置き換え完了。jetson nanoとは raspberrypiの電源が違うので変換ケーブルを買う必要がある。そのほか小物も買う必要がある。
変換ケーブル調べる前バッテリーを調べていたけど大出量となるとリチウムイオン電池になる。怖いからあまり使いたくないけど対策して使う方法考えておいた方がいいかも。
手首より先のサーボが半分逝ったのでメタルギアのサーボに交換しようと思う。手首より先を取り出した。所の写真。サーボのサイズが微妙に違うので、ブラケットやエンドエフェクタの作り直す必要がある。手の先だから、手を動かしたときの加速度が大きすぎたのかもしれない。
![]() | ![]() |
前の顔 | 今の顔 |
いい顔になってきた。目のとこ隙間があるけど、スピーカーをつける時に埋めればいいかなと。
ソフト部分はすべて動作確認できた。あとはは度部分。RaspberryPiの箱とカメラを一体にした入れ物を作る必要がある。それに合わせて首回りの変更も必要。さらに手の周りが壊れているのでその修理も必要。
pipでインストールするために仮想環境を使用せざるを得なくて使用したら、ROS2が仮想環境を認識できずに一苦労した。
export PYTHONPATH="<path to your virtual environment>/lib/python<python-version>/site-packages"
とりあえずこのコマンドを実行して回避できることが分かった。
例えばユーザー名robotで保無ディレクトリに仮想環境venvを作っている場合.
Rasberrypi5のデフォルトのpythonを使用する場合
export PYTHONPATH="/home/robot/venv/lib/python3.11/site-packages"
となる。ちなみに
export PYTHONPATH="~/venv/lib/python3.11/site-packages"
ではうまくいかなかった。
毎回、使用する必要はありそうなのでbashの中に追加した。
RaspberrrypiからPCへの音声送信確認。実は何気に音声と映像の同時配信は今回が初めてだと思う。
で作ってはいたけど効果を確認していなかったマイクに取り付ける耳は効果があることを確認した。きっちり音を大きくしてくれていた。音源からマイクが離れた時実感しやすい。
フレームレートの問題は音声データが足引っ張ていたのでこれは別口でやることにした。
それと1640×1232で15フレーム出せる。30だとおそらく通信が追い付いていないのかまともに動かない。20くらいまでは確認したけど、ほかの通信もあるのでそこまで攻める必要ないかなと。それとなんか画素数小さいのはクリッピングしているようだ。1280*720だとクリッピングの関係で、魚眼レンズの映像全体が表示できないので1280*720にしてフレームレート上げるのはやめた。
後は音声の送信と、制御部分をつないで動くかの確認。そして3DプリンタでRaspberrypi用の頭を作れば完成。
PCについて色白調べたけど……なんか高い!
llmやるの考えたらmacもいいかなと思ったりしたけどトレーニングとかCNNとか考えるとAITOPSとFLOPSはやっぱり重要そうなのでNVIDIA関連に大金突っ込むことになりそう。
raspberrypiから映像の送信に成功。
ただフレームレートが出てない。