物体把持・ロボット

背景と目的

 近年では産業目的だけでなく、人の生活に密接に関わり、人間の生活をサポートすることを目的としたロボットの研究が進められています。そういったロボットは実空間の物体の位置を把握し、適切な行動を行う必要があります。

 本研究室ではロボットに画像認識などを用いてロボットに適切な行動を選択できるように研究を行っています。

      

研究内容

【1】物体把持方法の想起

人の簡単な指示に応じてロボットが自動的に複雑な動作を生成して物体を把持するためには、1つのオブジェクトに対して複数の把持方法の候補の中から適応的に推定することが重要です。

そこで、オブジェクトが写った画像から把持位置や手の形状の候補を特徴別に想起する方法について研究を進めています。

【2】Transform Invariant Auto-encoderを用いた人間の把持方法の模倣

Auto-Encoderは次元削減方式の一種で入力ベクトルを重要な情報を表す記述子へマッピングすることができます。しかし、空間的にシフトした画像はシフトしていない画像とは異なる記述子へマッピングされてしまいます。

そこでシフト情報を分離し、画像内のパターン情報をマッピングすることができるTransform Invariant Auto-encoderを提案しました。これを用いると前処理なしで人間の手の画像から形状情報を抽出することができます。

【3】深層学習を用いた家庭内環境における不安定物体の推定

机の上に物体が存在するというシチュエーション下にてその物体が落ちそうかそうでないかを推定する研究を行いました。学習データをUnity上でシミュレーションして作っているため、物体の エネルギー変位などを教師信号として用いることができています。

【4】人間共存環境におけるアームロボットの回避行動

 ロボットが人間のいる空間で行動する場合、人間は独立して動くため、ロボットは人間の行動に干渉しないように行動しなくてなりません。

 この研究ではSciurus17というヒューマノイドロボットを用いて、ロボットのカメラに映る人間を障害物を認識し、人間を避けるように行動することを目的としています。

1.ロボットの右腕を右から左へ移動させる
2.移動経路に障害物(人間の腕)があれば避けるように腕の角度を変える
3.障害物がなくなれば元の関節角度に戻す
4.目標の位置まで腕を移動させる

【5】姿勢による移動性の違いを考慮した人物の位置推定

 ロボットはカメラで観測している物体の位置の変化は認識できますが、観測範囲外ではその変化を認識できません。そこで過去の観測から現在の物体の位置推定を研究します。

 この研究ではRealsenseという深度カメラを用いて人間の骨格推定を行い、人間の立ち姿勢と座姿勢を把握します。そして、姿勢による移動性の違いを考慮した上で、過去の人間の姿勢から、人間の現在位置の推定を行います。

上図の左側はカメラの映像、右側の赤と黄緑の点群はロボットが観測している人間の位置を示す。カメラが観測できない位置に人が移動すると、観測できなくなる直前の人間の姿勢から、現在の人間の位置を推定する。推定位置まで点群の位置が移動する。

【6】部分観測から復元した 全体像の曖昧さを反映する 記述子空間の設計手法

視覚的想像力の実現のために、深層学習を用いて画像内のどの物体が不安定であるかを推定します。

そのために、画像内の物体に外力を加えたときに変化する位置エネルギーの推定を深層学習を用いて試みます。


不安定な状態の物体の画像と力の大きさと向きをCNN(畳み込みニューラルネットワーク)に入力します。

すると、不安定な物体がどれであるかがわかります。

しかし、ある視点からの情報では物理的な情報を取得することに限界があります。

そこで、人間のように複数視点の情報を組み合わせて観測の不完全さを考慮した曖昧性を表現することを試みています。

つまり、1視点からだけではなく、複数視点からの情報を組み合わせることでより良い認識を試みています。

ShapeNet[1]という3D物体のデータセットの中から車についてのデータを入力として提案手法で予測を行いました。


複数視点からの情報を与えることで予測の物体の形が真値に近づいていることが確認できます。

【7】TRGAILに基づく多段レバースイッチの視触覚統合制御

世の中には力の変化を伴う動作があり、それらの動作をロボットが学習するには、視覚・触覚の情報を用いて学習を行う必要があります。そこで、操作時に複数の段階で抵抗が発生する多段レバースイッチを用いて、レバーの操作行動の学習を行います。

視覚情報ではレバーの位置、向き、グリップ角度を画像検知モデルにより獲得します。

視覚情報から得られるレバーの状態

触覚情報はロボット内部のモータートルクから、手先の力を獲得します。

これらの情報を基に模倣学習手法・TRGAILを用いて学習を行います。

多段レバースイッチの操作の様子

今回では4つある内の一段階目抵抗を超える様子が見られた。しかし、二段階目を超えていないため、今後、学習モデルやパラメータの見直しなどを行い、視触覚統合制御を行うためのモデルの構築を目指す。

【8】不規則移動物体の追従及び捕獲のためのROS2 MoveIt2の拡張

分散協調システムのフレームワークであるROSにおいて,ロボットアームの軌道計画を作成するパッケージであるMoveItでは,動的な環境におけるタスクを想定していなかったため,アームの軌道を動作中に変更することができなかった.本研究では,動的な環境に適応する必要があるタスクとして,移動するボールを追従することを設定した.

本システムでは,位置制御によりアームを制御している.エンドエフェクタが取るべき位置姿勢を連続的に変更することにより,ボールの追従を実現した.一回のゴール変更の所要時間が0.2ms程度と非常に高速に動作することが確認できた.また,ROSノードとして実装したため再利用性に優れている.

ROS2 で実装されたHybrid Planningの拡張を行うことで,ROS上においてロボットアームは,環境に適応的な振る舞いを獲得することができた.

ボール追従の様子

本実験ではrealsenseという深度カメラを用いており,RGBイメージに対するYOLOXによる物体検出と深度情報の組み合わせにより,ボールの3次元位置を特定する.ここで得られた3次元座標にロボットアームの手先が向かうよう指示を出し続ける.

YOLOXによる物体認識の結果