CSAILでDARPA Grand Challengeで4位の車の実物見学。前から。横から。後ろから。運転席。スポンサー。
ちなみに、多分どこかを調べればちゃんと載っているのでしょうが、このときの説明とカンファレンスのキーノートをあわせた自分のメモによれば、
- センサーたくさん
- Applanix IMU/GPU
- 12 SICK LIDAR
- Velodyne (3Dレーザージェネレーター、データが多く処理が大変なためRapidly Exploring Random Tree(RRT)使用)
- 15 Raders
- 5 Cameras
- 電源に6kW Generator
- Blade Cluster (2 Core * 2 CPU * 10 blades)
- コード
- 150kLOC C
- 10kLOC Python
- もうひとつ何か
- Google MapやStanfordのapriori map with denseも使っている
- なかなか良いソフトウェアアーキテクチャーがあってね
- 部分的に落ちても互いに影響が無いよう設計している
- センサーデータはUDPで流れてくる(と言ったと思う)
こちらは車の隣にあった、ウェアハウスオートメーションのための自動走行フォークリフト。ファンドソースは米軍で、90%のコードは自動車走行と共通。
アンダーウォータービークル。水中はGPSが無くて難しいらしい。
- 10sごとに水上のカヤック (安価なacoustic modem搭載)とsync
- moos-ivpプラットホームで動かしている
- 水上のマップづくりにrealtimeのSLAMアルゴリズム利用
あとはBoeingの協力?寄付?講座の、組立工場コンソリデーションのための、レール不要の組立ロボットなどを拝見。
0 件のコメント:
コメントを投稿