ふるお〜と!- FullAuto

AI・ロボットが普及しBI(ベーシックインカム)が早急に実現されることを願う元ニートのブログ

ふるお〜と!-FullAuto

AIロボットシミュレーションのためのStart Acquisition(画像取り込み)

どうやってリアル映像をコンピュータに取得させ、DeepLearningさせ、仮想ロボットのシミュレーションに使用するか。
そのためのカメラの選定についてLinux上で動くものを記述します。

ホビーユース

Raspberry Pi Camera Module (MIPI CSI-2)

Raspberry Pi用カメラを使用して、取得した映像をロボットのシミュレーションに使うのは難しいです。Raspberry PiのCPUが非力だからです。
そこで画像データをメインPCに飛ばして処理をさせようとすると、今度は処理が複雑になります。
二つのOS上でプロセスを動かすのは開発もめんどくさいです。

また、画像のポインタを直接扱える場合と比べて、ネットワーク上のやりとりだとどうしてもレイテンシが発生します。

Iotで有望な技術ではあるので時間がある人は頑張ってみるのも良いかもしれません。

Webカメラ (USBカメラ)

これが最も敷居が低いです。
しかし、リアルタイム性がありません。

joe.ash.jp

Depth Camera

Intel RealSense Depth Camera (D415/D435/D435i)
これを使うのも良い選択かもしれません。
私はkinectで一度挫折しています。

産業用カメラを使う場合

PCに高画質の画像を直接取り込めますがめちゃくちゃ高価です。 また、オートフォーカス機能が通常ありません。

GigE Vision カメラ

産業用カメラの中では最もシステムコストが安価です。
USBカメラと比べると帯域も広く、複数のカメラにも強いです。
複数つなげる場合はネットワークカードが必要になります(ネットワークHubを使うと遅延する)。

ケーブルは100均でも手に入ります。

欧米市場で1番普及しています。

USB3 カメラ

USB2.0カメラやGigE Visionに比べると帯域が広く、リアルタイム性が高いです。
今後、普及が期待されていますが、普及していません。

Camera Link

フレームグラバボードと専用ケーブルが必要です。
そのため高価です。

アジア市場で1番普及しています。

CoaXpress

フレームグラバボードと専用ケーブルが必要です。
そのため高価です。

見た目がかっこいい。

その他ウルトラハイエンド規格

省略

結論

Webカメラで満足できなかったら、GigE Visionが良いかもしれません。
満足できない時がいずれ来るでしょう。

それでも満足できなかったら10万円以上の予算が必要になります。

余談

ちなみに人間の目は約5億7600万画素。
1画素あたり10bit、RGB(×3)、60Hzとすると、約1Tbit/s。

TeraE Vision カメラが欲しい。