JP2016146188A - 情報処理装置、情報処理方法およびコンピュータプログラム - Google Patents

情報処理装置、情報処理方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2016146188A
JP2016146188A JP2016039874A JP2016039874A JP2016146188A JP 2016146188 A JP2016146188 A JP 2016146188A JP 2016039874 A JP2016039874 A JP 2016039874A JP 2016039874 A JP2016039874 A JP 2016039874A JP 2016146188 A JP2016146188 A JP 2016146188A
Authority
JP
Japan
Prior art keywords
information
correspondence
viewpoint
robot
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016039874A
Other languages
English (en)
Other versions
JP6164319B2 (ja
Inventor
嘉寧 呉
Ka-Nyong Oh
嘉寧 呉
岩井 嘉昭
Yoshiaki Iwai
嘉昭 岩井
俊一 本間
Shunichi Honma
俊一 本間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2016039874A priority Critical patent/JP6164319B2/ja
Publication of JP2016146188A publication Critical patent/JP2016146188A/ja
Application granted granted Critical
Publication of JP6164319B2 publication Critical patent/JP6164319B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】物体を複数の視点から撮影してその物体について学習させる際に、各視点における特徴点同士の対応関係を用いることで物体の学習状況を視覚的に提示することが可能な情報処理装置を提供する。【解決手段】所定の物体について複数の視点から撮影された画像を取得する画像取得部と、前記画像取得部で取得された画像に対してそれぞれ特徴点を抽出する特徴点抽出部と、隣接視点間の画像で前記特徴点の対応関係を取得する対応関係取得部と、前記対応関係取得部で取得された前記対応関係についての情報を量的に提示する情報提示部と、を備える、情報処理装置が提供される。【選択図】図1

Description

本開示は、情報処理装置、情報処理方法およびコンピュータプログラムに関する。
ロボットに物体を把持させて、ロボットにその物体の外観的な特徴を学習させた上で、その物体について認識させる技術がある。ロボットに物体の外観的な特徴を学習させる際には、ロボットに搭載する撮像装置で物体を撮像さて、その撮像装置から出力される画像データに基づいて物体の外観的な特徴を学習させる方法が広く用いられている。
例えば特許文献1には、認識対象の物体を、所定の撮像手段に対して予め定められた所定の空間位置に移動させて、当該空間位置において所定状態に保持し、撮像手段に出力に基づいて物体を認識し、認識出来なかったときには当該物体を学習する物体認識装置について開示されている。
特開2003−346152号公報
しかし、特許文献1に記載された発明では、ロボットが対象物体の各視点の画像を取得し、各視点について特徴点を検出し、特徴を抽出して識別器を作成するが、各視点の識別器は独立しており、各々に存在する特徴点の関係を考慮していない。そのため、各視点における識別器では、物体と背景からの特徴点とを区別すること無く学習するので、周辺環境の変化に伴って識別性能が低下するおそれがあるという問題があった。
また特許文献1に記載された発明では、各視点で学習できた物体に属する特徴点の数量や位置を知ることができないので、各視点の学習状況を把握することができず、また、視点間の特徴点の対応関係を持たないので、仮想的な視点を生成してユーザに提示したり、ユーザとの間でインタラクティブな処理を行ったりすることができないという問題があった。
そこで、本開示は、上記問題に鑑みてなされたものであり、本開示の目的とするところは、物体を複数の視点から撮影してその物体について学習させる際に、各視点における特徴点同士の対応関係を用いることで物体の学習状況を視覚的に提示することが可能な、新規かつ改良された情報処理装置、情報処理方法およびコンピュータプログラムを提供することにある。
本開示によれば、所定の物体について複数の視点から撮影された画像を取得する画像取得部と、前記画像取得部で取得された画像に対してそれぞれ特徴点を抽出する特徴点抽出部と、隣接視点間の画像で前記特徴点の対応関係を取得する対応関係取得部と、前記対応関係取得部で取得された前記対応関係についての情報を登録する物体モデル登録部と、を備える、情報処理装置が提供される。
かかる構成によれば、画像取得部は、所定の物体について複数の視点から撮影された画像を取得し、特徴点抽出部は、画像取得部で取得された画像に対してそれぞれ特徴点を抽出する。そして、対応関係取得部は隣接視点間の画像で前記特徴点の対応関係を取得し、物体モデル登録部は、対応関係取得部で取得された対応関係についての情報を登録する。その結果、かかる情報処理装置は、物体を複数の視点から撮影して、その物体について学習させる際に、各視点における特徴点同士の対応関係を用いることで物体の学習状況を視覚的に提示することが可能となる。
また本開示によれば、所定の物体について複数の視点から撮影された画像を取得する画像取得ステップと、前記画像取得ステップで取得された画像に対してそれぞれ特徴点を抽出する特徴点抽出ステップと、隣接視点間の画像で前記特徴点の対応関係を取得する対応関係取得ステップと、前記対応関係取得ステップで取得された対応関係についての情報を登録する物体モデル登録ステップと、を含む、情報処理方法が提供される。
また本開示によれば、コンピュータに、所定の物体について複数の視点から撮影された画像を取得する画像取得ステップと、前記画像取得ステップで取得された画像に対してそれぞれ特徴点を抽出する特徴点抽出ステップと、隣接視点間の画像で前記特徴点の対応関係を取得する対応関係取得ステップと、前記対応関係取得ステップで取得された対応関係についての情報を登録する物体モデル登録ステップと、を実行させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、物体を複数の視点から撮影してその物体について学習させる際に、各視点における特徴点同士の対応関係を用いることで物体の学習状況を視覚的に提示することが可能な、新規かつ改良された情報処理装置、情報処理方法およびコンピュータプログラムを提供することができる。
本開示の一実施形態にかかるロボットの外観例を示す説明図である。 本開示の一実施形態にかかるロボット100のハードウェア構成例を示す説明図である。 本開示の一実施形態にかかるロボット100の機能構成例を示す説明図である。 本開示の一実施形態にかかるロボット100の動作を示す流れ図である。 本開示の一実施形態にかかるロボット100の動作を示す流れ図である。 本開示の一実施形態にかかるロボット100の動作を示す流れ図である。 隣接視点のInlier特徴点及びマッチ点間のリンク情報の概念を示す説明図である。 ユーザがロボット100の物体モデルの学習状態を確認するためのGUIの例を示す説明図である。 ロボット100が学習した物体モデルについての物体名やカテゴリ名の登録処理の一例を示す流れ図である。 ユーザがロボット100の物体モデルの学習状態を確認するためのGUIの例を示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<1.本開示の一実施形態>
[ロボットの外観例]
[ロボットの機能構成例]
[ロボットの動作例]
<2.まとめ>
<1.本開示の一実施形態>
[ロボットの外観例]
まず、本開示の一実施形態にかかるロボットの外観例について説明する。図1は、本開示の一実施形態にかかるロボットの外観例を示す説明図である。以下、図1を参照して、本開示の一実施形態にかかるロボットの外観例について説明する。
図1に示すように、本開示の一実施形態にかかるロボット100は、体幹部ユニット102の所定の位置に、頭部ユニット101が連結されるとともに、左右で対をなす腕部ユニット103L、103Rと、左右で対をなす脚部ユニット104L、104Rが連結されて構成される。腕部ユニット103L、103Rの先には、それぞれ手部105L、105Rが連結されている。また頭部ユニット101には、画像データを得るための画像入力装置121が備えられている。
本開示の一実施形態にかかるロボット100は、手部105L、105Rに把持した物体を画像入力装置121で撮影することで認識し、その物体が認識できない場合は、手部105L、105Rに把持した物体を複数の方向から画像入力装置121で撮影することでその物体について学習することができるよう構成されている。
そして図1には、ロボット100と併せて、ロボット100に対する制御を実行する情報処理装置200を図示している。情報処理装置200は、ロボット100に対して物体の学習を指示したり、ロボット100が学習した内容について表示したりできるよう構成されている。
以上、図1を参照して、本開示の一実施形態にかかるロボットの外観例について説明した。次に、本開示の一実施形態にかかるロボットのハードウェア構成例について説明する。
[ロボットのハードウェア構成例]
図2は、本開示の一実施形態にかかるロボット100のハードウェア構成例を示す説明図である。以下、図2を用いて本開示の一実施形態にかかるロボット100のハードウェア構成例について説明する。
図2に示すように、本開示の一実施形態にかかるロボット100は、例えば体幹部ユニット102に制御システムを有している。制御システムは、ユーザ入力等に動的に反応して情緒判断や感情表現を司る思考制御モジュール110と、アクチュエータ140の駆動等、ロボット100の全身協調運動を制御する運動制御モジュール130により構成される。
思考制御モジュール110は、情緒判断や感情表現に関する演算処理を実行するCPU111や、RAM112、ROM113および外部記憶装置114等により構成される。思考制御モジュール110は、画像入力装置121から入力される画像データや音声入力装置122から入力される音声データ、通信IF124から入力される指令コマンド等、外界からの刺激に応じてロボット100の現在の感情や意思を決定する。思考制御モジュール110は、意思決定に基づいた動作や行動を実行するように、運動制御モジュール130に指令を伝達する。
運動制御モジュール130は、ロボット100の全身協調運動を制御するCPU131や、RAM132、ROM133および外部記憶装置134等により構成される。外部記憶装置134には、例えば、オフラインで算出された歩行パターンや目標とするZMP(ゼロモーメントポイント)軌道、その他の動作パターンが蓄積される。
運動制御モジュール130には、アクチュエータ140、距離計測センサ(不図示)、姿勢センサ141、接地確認センサ142L,142R、荷重センサ(不図示)、電源制御装置143等の各種の装置がバスインターフェイス(IF)310を介して接続されている。ここで、アクチュエータ140はロボット100の各関節部の動きを実現し、姿勢センサ141は体幹部ユニット102の姿勢や傾斜を計測するために用いられる。接地確認センサ142L,142Rは左右の足底の離床または着床を検出し、荷重センサは左右の足底に作用する荷重を検出し、電源制御装置143はバッテリ等の電源を管理するために用いられる。
思考制御モジュール110と運動制御モジュール130は、共通のプラットフォーム上に構築され、両者は、バスインターフェイス(IF)115,135を介して相互接続されている。
運動制御モジュール130は、思考制御モジュール110から指示された行動を実行するように、各アクチュエータ140による全身協調運動を制御する。つまり、CPU131は、思考制御モジュール110から指示された行動に応じた動作パターンを外部記憶装置134から読出し、または内部的に動作パターンを生成する。そして、CPU131は、指定された動作パターンに従って、足部運動、ZMP軌道、体幹運動、上肢運動、腰部水平位置・高さ等を設定し、設定内容に従った動作を指示する指令を各アクチュエータ140に伝達する。
また、CPU131は、姿勢センサ141の出力信号によりロボット100の体幹部ユニット102の姿勢や傾きを検出するとともに、各接地確認センサ142L、142Rの出力信号により各脚部ユニット104L、104Rが遊脚または立脚のいずれの状態であるかを検出することで、ロボット100の全身協調運動を適応的に制御する。さらに、CPU131は、ZMP位置が常にZMP安定領域の中心に向かうように、ロボット100の姿勢や動作を制御する。
また、運動制御モジュール130は、思考制御モジュール110により決定された意思通りの行動がどの程度実現されたか、つまり処理の状況を思考制御モジュール110にフィードバックする。このように、ロボット100は、制御プログラムに基づいて自己および周囲の状況を判断し、自律的に行動することができる。
以上、図2を用いて本開示の一実施形態にかかるロボット100のハードウェア構成例について説明した。次に、本開示の一実施形態にかかるロボット100の機能構成例について説明する。
[ロボットの機能構成例]
図3は、本開示の一実施形態にかかるロボット100の機能構成例を示す説明図である。図3に示したロボット100の機能構成は、画像入力装置121で撮影した物体について学習する際の構成を示したものである。以下、図3を用いて本開示の一実施形態にかかるロボット100の機能構成例について説明する。
図3に示したように、本開示の一実施形態にかかるロボット100は、画像認識部151と、特徴点検出部152と、特徴量抽出部153と、画像マッチング部154と、画像変換部155と、学習状態提示部156と、物体モデル登録部157と、を含んで構成される。
画像認識部151は、画像入力装置121で撮影された画像から、学習対象となる物体の認識を行うものである。画像認識部151は、画像入力装置121で撮影された画像から、学習対象となる物体を認識すると、画像入力装置121で撮影された画像を特徴点検出部152へ送る。
特徴点検出部152は、画像入力装置121で撮影された画像から特徴点を検出する。特徴点は、例えば、画像入力装置121で撮影された物体のコーナー部等、特徴的な部位に相当する画素パターンを探索することで検出される。特徴点検出部152は、画像入力装置121で撮影された画像から特徴点を検出すると、画像とともに特徴点の情報を特徴量抽出部153へ送る。
特徴量抽出部153は、特徴点検出部152から送られてくる、画像入力装置121で撮影された画像と、当該画像に含まれる特徴点の情報とから、特徴点の特徴量を抽出する。特徴量の抽出手法については様々な手法があり特定の手法に限定されるものではないが、一例を挙げれば、例えば特徴量抽出部153は、特徴点に対応する位置の画素の情報を特徴量(局所特徴量)として抽出する。特徴量抽出部153は、特徴点の特徴量を抽出すると、特徴量の情報を、特徴点の情報と合わせて画像マッチング部154に送る。
画像マッチング部154は、ロボット100がある視点で画像入力装置121によって撮影した画像と、その視点の周辺の視点で画像入力装置121によって撮影した画像との間で、特徴量の情報を用いて特徴点のマッチングを行って、特徴点がマッチすると思われる候補を求める。画像マッチング部154は、特徴点がマッチすると思われる候補の情報を画像変換部155に送る。
画像変換部155は、画像マッチング部154から送られてくる、特徴点がマッチすると思われる候補の情報を用いて画像変換処理を行う。具体的には、画像変換部155は、特徴点がマッチすると思われる候補の情報を用いて、マッチする特徴点のペア間の平面変換を求める。画像変換部155は、画像マッチング部154から送られてくる、特徴点がマッチすると思われる候補の情報に対して、RANSAC(RANdom SAmple Consensus)を適用し、Outlierペアを除去してから平面変換を求めても良い。画像変換部155は、マッチする特徴点のペア間の平面変換を求めると、求めた平面変換を、マッチする特徴点および特徴点のペアの情報とともに、学習状態提示部156および物体モデル登録部157へ送る。
学習状態提示部156は、ロボット100による、学習対象の物体の学習状態を提示する。学習対象の物体の学習状態は、マッチする特徴点のペア間の平面変換、マッチする特徴点および特徴点のペアの情報を用いて提示される。学習対象の物体の学習状態は、例えばロボット100とネットワークで接続されるパーソナルコンピュータ、タブレット、スマートフォンその他の情報処理装置に表示される。
物体モデル登録部157は、マッチする特徴点のペア間の平面変換、マッチする特徴点および特徴点のペアの情報を、それぞれの視点の情報、および視点間の情報を、それぞれの視点における物体モデルとして登録する。物体モデル登録部157が、それぞれの視点における物体モデルを構築することで、ロボット100は、複数の物体モデルの共通部分を認識し、統合して、対象物体のモデルとして学習する。
以上、図3を用いて本開示の一実施形態にかかるロボット100の機能構成例について説明した。次に、本開示の一実施形態にかかるロボット100の動作について説明する。
[ロボットの動作例]
図4は、本開示の一実施形態にかかるロボット100の動作を示す流れ図である。図4に示した流れ図は、ユーザの指示によりロボット100が物体を学習する場合について示したものである。以下、図4を用いて本開示の一実施形態にかかるロボット100の動作について説明する。
ロボット100は、ユーザから物体を手渡され、その物体の学習指示を受けると(ステップS101)、まずその物体が手部105R、105Lで把持可能かどうかを判断する(ステップS102)。
上記ステップ102の判断の結果、ユーザから手渡された物体が手部105R、105Lで把持可能であれば、ロボット100は、その物体を手部105R、105Lで把持し、把持した物体を回転させつつ、複数の視点からの画像を画像入力装置121で撮影する(ステップS103)。ロボット100は、画像入力装置121による画像の撮影を、例えば水平角方向に5度単位、天頂角方向に5度単位等の所定の間隔で行う。ロボット100は、画像入力装置121によって撮影する間隔を、物体の形状に応じて変化させても良い。例えばロボット100は、その物体中の尖っている箇所は、間隔を狭めて画像入力装置121で撮影するようにしてもよい。
ロボット100は、上記ステップS103で、把持した物体の複数の視点からの画像を画像入力装置121で撮影すると、続いて、各視点からの画像に基づき、把持した物体のモデルを学習する(ステップS104)。ロボット100が、把持した物体のモデルをどのように学習するかについては後に詳述する。
上記ステップS104で、ロボット100が、各視点からの画像に基づき、把持した物体のモデルを学習すると、続いて、ロボット100は、把持した物体の、手部105R、105Lで隠れている部分が見えるように、把持した物体を持ち直す(ステップS105)。この物体の持ち直しは、ロボット100が自ら判断して実行してもよく、ユーザからの指示に応じて実行しても良い。
上記ステップS105で、ロボット100が物体を持ち直すと、上記ステップS103と同様に、その物体を手部105R、105Lで把持し、把持した物体を回転させつつ、複数の視点からの画像を画像入力装置121で撮影する(ステップS106)。ロボット100は、上記ステップS106で、把持した物体の複数の視点からの画像を画像入力装置121で撮影すると、続いて、各視点からの画像に基づき、把持した物体のモデルを学習する(ステップS107)。
ロボット100は、全ての視点から把持した物体を撮影し終えると、ロボット100は、各視点での物体モデルの共通部分を認識し、各視点での物体モデルを統合して、対象物体のモデルとして学習する(ステップS108)。
一方、上記ステップS102の判断の結果、ユーザから手渡された物体が手部105R、105Lで把持可能で無い場合には、ロボット100は、物体が把持できない旨のエラーメッセージを所定の手段で提示する(ステップS109)。エラーメッセージの提示方法は特定の例に限定されるものではないが、一例を挙げれば、ロボット100に備えられている表示装置にエラーメッセージを表示するようにしてもよく、ロボット100から情報処理装置へ把持できない旨を通信し、情報処理装置にエラーメッセージを表示させるようにしてもよい。
ロボット100は、このように一連の動作を実行することで、ユーザの指示により、手部105R、105Lで把持した未知の物体を学習することができる。
以上、図4を用いて本開示の一実施形態にかかるロボット100の動作について説明した。次に、ロボット100による未知の物体の学習方法の別の例について説明する。
図5は、本開示の一実施形態にかかるロボット100の動作を示す流れ図である。図5に示した流れ図は、ロボット100が未知の物体を自ら発見し、その未知の物体について学習する場合について示したものである。以下、図5を用いて本開示の一実施形態にかかるロボット100の動作について説明する。
ロボット100は、レーザーレンジファインダー(LRF)その他のセンサ等を用いて物体を発見すると(ステップS111)、まず、その発見した物体が手部105R、105Lで把持可能かどうかを判断する(ステップS112)。
上記ステップ112の判断の結果、ユーザから手渡された物体が手部105R、105Lで把持可能であれば、ロボット100は、その物体を手部105R、105Lで把持し、把持した物体を回転させつつ、複数の視点からの画像を画像入力装置121で撮影する(ステップS113)。ロボット100は、画像入力装置121による画像の撮影を、例えば水平角方向に5度単位、天頂角方向に5度単位等の所定の間隔で行う。もちろんロボット100による物体の画像の撮影間隔はかかる例に限定されるものではない。
ロボット100は、上記ステップS113で、把持した物体の複数の視点からの画像を画像入力装置121で撮影すると、続いて、各視点からの画像に基づき、把持した物体のモデルを学習する(ステップS114)。ロボット100が、把持した物体のモデルをどのように学習するかについては後に詳述する。
上記ステップS114で、ロボット100が、各視点からの画像に基づき、把持した物体のモデルを学習すると、続いて、ロボット100は、把持した物体の、手部105R、105Lで隠れている部分が見えるように、把持した物体を持ち直す(ステップS105)。この物体の持ち直しは、ロボット100が自ら判断して実行してもよく、ユーザからの指示に応じて実行しても良い。
上記ステップS115で、ロボット100が物体を持ち直すと、上記ステップS113と同様に、その物体を手部105R、105Lで把持し、把持した物体を回転させつつ、複数の視点からの画像を画像入力装置121で撮影する(ステップS116)。ロボット100は、上記ステップS116で、把持した物体の複数の視点からの画像を画像入力装置121で撮影すると、続いて、各視点からの画像に基づき、把持した物体のモデルを学習する(ステップS117)。
ロボット100は、全ての視点から把持した物体を撮影し終えると、ロボット100は、各視点での物体モデルの共通部分を認識し、各視点での物体モデルを統合して、対象物体のモデルとして学習する(ステップS118)。
一方、上記ステップS112の判断の結果、ユーザから手渡された物体が手部105R、105Lで把持可能で無い場合には、ロボット100は、物体が把持できない旨のエラーメッセージを所定の手段で提示する(ステップS119)。エラーメッセージの提示方法は特定の例に限定されるものではないが、一例を挙げれば、ロボット100に備えられている表示装置にエラーメッセージを表示するようにしてもよく、ロボット100から情報処理装置へ把持できない旨を通信し、情報処理装置にエラーメッセージを表示させるようにしてもよい。
以上、図5を用いて本開示の一実施形態にかかるロボット100の動作として、ロボット100による未知の物体の学習方法の別の例について説明した。次に、ロボット100による学習の対象物体の、視点構造を持ったモデル構築の方法について説明する。
図6は、本開示の一実施形態にかかるロボット100の動作を示す流れ図である。図6に示した流れ図は、ロボット100による学習の対象物体の、視点構造を持ったモデル構築の方法について示したものである。以下、図6を用いて本開示の一実施形態にかかるロボット100の動作について説明する。
ロボット100は、複数の視点からの画像を画像入力装置121で撮影すると、撮影して得られるこれらの複数の画像に対して、画像認識部151で学習対象の物体が含まれていることを認識した後、それぞれの画像について特徴点検出を行う(ステップS121)。特徴点検出は特徴点検出部152が実行する。
上記ステップS121で、各画像において特徴点を検出すると、続いてロボット100は、ステップS121で得られた特徴点について特徴量抽出を行う(ステップS122)。特徴量の抽出は、特徴量抽出部153が実行する。
上記ステップS122で、各画像に含まれる特徴点について特徴量を抽出すると、続いてロボット100は、各々の視点で得られた特徴点の、周辺視点の画像の特徴点のマッチングを行う(ステップS123)。この特徴点のマッチングは、画像マッチング部154が実行する。
上記ステップS123で、各視点における特徴点と、周辺視点の画像の特徴点とのマッチングを行うと、続いてロボット100は、マッチングにより求められるマッチ点ペアの候補に対して、例えばRANSACを適用し,Outlierペアの除去とともにマッチ点ペア間の平面変換(Homography)を求める(ステップS124)。マッチ点ペア間の平面変換は、画像変換部155が求める。
図7は、隣接視点のInlier特徴点及びマッチ点間のリンク情報の概念を示す説明図である。図7では、視点V1、V2におけるInlier特徴点及びマッチ点間のリンク情報を示している。このようなInlier特徴点及びマッチ点間のリンク情報が、全ての視点において隣接する視点との間で生成される。
上記ステップ124で、マッチ点ペア間の平面変換を行うと、続いてロボット100は、視点間でマッチした双方のマッチ点、マッチ点間のリンク情報、およびマッチ点ペア間の平面変換を、各々の視点及び視点間情報として物体モデルに登録する(ステップS125)。物体モデルへの登録は物体モデル登録部157が実行する。ロボット100は、この一連の動作を全ての視点について実行する。
ロボット100は、この図6に示したような動作を実行することで、画像入力装置121で撮影した複数の視点からの画像に基づいて、未知の物体についての物体モデルを登録することができる。そして、ロボット100は、画像入力装置121で撮影した複数の視点からの画像に基づいて得られる物体モデルの学習状況を、例えば情報処理装置200へ提示することができる。
以上、ロボット100による学習の対象物体の、視点構造を持ったモデル構築の方法について説明した。次に、ロボット100の物体モデルの学習状態を確認するためのGUI(Graphical User Interface)の例について説明する。
図8は、ユーザがロボット100の物体モデルの学習状態を確認するためのGUIの例を示す説明図である。ロボット100の物体モデルの学習状態を確認するためのGUIは、例えば学習状態提示部156が生成して、情報処理装置200へ送信してもよく、情報処理装置200がロボット100から学習状態に関する情報を得て、情報処理装置200で生成してもよい。以下、図8を用いて、ユーザがロボット100の物体モデルの学習状態を確認するためのGUIの例について説明する。
図8に示したGUIでは、現在ユーザに提示している視点において,学習済みの特徴点の局所画像を、その物体モデルに対応する位置に表示している。現在表示中の視点が、物体モデルに存在する実視点(学習画像として取得した視点)の場合は、該当視点の情報に基づいて提示する。
一方、現在表示中の視点が物体モデルに存在しない場合は、近傍の隣接する実視点における特徴点及びその局所画像、視点間に存在する特徴点のリンク情報、及び平面変換(Homography)に基づいて、所定の画像処理(例えばモーフィング処理等)によって仮想視点を生成して、仮想視点画像を提示する。
ユーザは、学習状態提示部156が生成した、この局所画像によって描かれた物体を、例えばタッチパネルなどを介して回転させることができる。ユーザによる回転が行われると,物体モデルの回転後の視点における特徴点の位置および局所画像が呼び出され,仮想視点の場合は適切な画像処理(例えばモーフィング処理等)が行われ、ユーザに提示される。
ロボット100の学習状態が、図8に示したようなGUIによって提示されることで、ユーザは、どの視点からの学習状態は充分で、どの視点からの学習状態は不充分であるかを判断できる。そしてユーザは、学習が不充分である視点を指定して、ロボット100に再学習を指示することができる。指示を受けたロボット100は、当該視点およびその周辺視点における物体の画像を撮影して、再度学習を実行することで、学習を十分なレベルに達しさせることができる。
例えば図8に示した例では、視点Aと視点Bとの間の合成視点ABについては、物体の仮想視点画像が充分に作成できているので、表示が密であるが、視点Bと視点Cとの間の合成視点BCについては、物体の仮想視点画像が充分に作成できていないので、表示が疎らである様子を示している。このように仮想視点画像が表示される場合は、視点Cにおける学習が不充分であるので、ユーザはロボット100に対して視点Cからの再学習を指示することが出来る。ロボット100は、ユーザから視点Cからの再学習が指示されると、物体を視点Cおよび視点Cの周辺視点から撮影し、再度学習を実行する。
以上、図8を用いて、ユーザがロボット100の物体モデルの学習状態を確認するためのGUIの例について説明した。次に、ロボット100が学習した物体モデルについての物体名やカテゴリ名の登録処理の一例を説明する。
図9は、ロボット100が学習した物体モデルについての物体名やカテゴリ名の登録処理の一例を示す流れ図である。以下、図9を用いて、ロボット100が学習した物体モデルについての物体名やカテゴリ名の登録処理の一例について説明する。
例えば、図8で示したGUIを利用して提示された物体モデルに対して、ユーザがその物体モデルについて物体名やカテゴリ名を命名する。まず、ロボット100が、未知の物体を学習して得られた物体モデルを、例えば、図8で示したようなGUIで提示する(ステップS131)。
ユーザは、上記ステップS131で提示された物体モデルについて、物体名や、その物体が属するカテゴリ名を入力する(ステップS132)。
上記ステップS132で、ユーザが物体名やカテゴリ名を入力すると、ロボット100は、その物体名、カテゴリ名を、上記ステップS131で提示した物体モデル、およびその物体と同一の未知物体として学習したモデルに付与する(ステップS133)。
ロボット100が学習した物体モデルについての物体名やカテゴリ名が、このような流れで登録されることにより、ロボット100が、物体名やカテゴリ名を登録済みの物体と形状が近い未知物体を学習した際に、ロボット100は、その未知物体の物体名やカテゴリ名を、形状が近い物体に登録された物体名やカテゴリ名から取得して、ユーザに提示することができる。
以上、図9を用いて、ロボット100が学習した物体モデルについての物体名やカテゴリ名の登録処理の一例について説明した。次に、ロボット100の物体モデルの学習状態を確認するためのGUIの別の例について説明する。
図10は、ロボット100の物体モデルの学習状態を確認するためのGUIの別の例について示す説明図である。以下、図10を用いて、ロボット100の物体モデルの学習状態を確認するためのGUIの別の例について説明する。
図10に示したGUIは、球面を投影した図形上に学習状態を表示する例を示したものであり、物体に対する視点について、水平角・天頂角のメジャーを持ち、物体から等距離の球面として表したものである。各視点は、その対応する水平角・天頂角により球面の区切られたグリッドとして表されている。
図10に示したGUIは、各視点で学習したモデルの、周辺視点の特徴点とリンクが張れている特徴点の数に応じて、当該視点に対応するグリッドの色を変化させるものである。ユーザはタッチパネル等を介して任意に球面を回転することができる。これにより、ユーザは特徴点の少ない視点を確認でき,タッチパネル等を介してロボット100に追加学習を指示できる。なお、図10では周辺視点の特徴点とリンクが張れている特徴点の数に応じて、当該視点に対応するグリッドの色を変化させていたが、その他にも、特徴点の数に応じて、当該視点に対応するグリッドの色の濃淡や明暗を変化させるようにしてもよい。
ロボット100の物体モデルの学習状態を確認するためのGUIは、かかる例に限定されないことは言うまでもない。図10のように球面で表示した際に、図7で示したような特徴点のリンク情報を重畳させるようにしても良い。また例えば、ロボット100の物体モデルの学習状態を図10のように球面で示す際に、図8に示したような物体の実際の画像および仮想視点からの画像を併せて示しても良い。ロボット100の物体モデルの学習状態をそのように示した場合は、ユーザによる物体の回転操作に連動して球面を回転させてもよく、ユーザによる球面の回転操作に連動して物体を回転させるようにしても良い。このように、ロボット100の物体モデルの学習状態を提示することで、ユーザは、物体のどの視点からの学習が充分で、どの視点からの学習が不充分であるかを視覚的に確認でき、学習が不充分な視点での再学習をロボット100に対して指示しやすくなる。
また例えば、ロボット100の物体モデルの学習状態を確認するためのGUIとして、各視点における、リンクが張られていない特徴点を提示するようにしても良い。ロボット100が、リンクが張れていない特徴点であると判断した場合でも、実際には、その特徴点は、周辺視点の画像の特徴点と同一の特徴点である場合も考えられる。そのような場合に、リンクが張られていないと提示された特徴点を、リンクが張れている特徴点である旨を、ユーザがGUIに対して入力できるようにしても良い。
逆に、ロボット100が、リンクが張れている特徴点であると判断した場合でも、実際には、その特徴点は、周辺視点の画像の特徴点と同一の特徴点ではない場合も考えられる。そのような場合に、リンクが張られていると提示された特徴点を、リンクが張れていない特徴点である旨を、ユーザがGUIに対して入力できるようにしても良い。
<2.まとめ>
以上説明したように本開示の一実施形態によれば、ロボット100が学習した物体モデルの学習状況を視覚的に提示できる。ロボット100が学習した物体モデルの学習状況を視覚的に提示することで、ロボット100に物体の再学習が必要であるかどうかをユーザに判断させることが出来る。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、ロボット100に物体を把持させて、把持させた物体を学習の対象としたが、本開示はかかる例に限定されない。例えば、ロボット100は、学習対象の物体の周囲を周回運動しながら、物体を撮影するようにしてもよい。また例えば、上記実施形態では、ロボット100は、ユーザから手渡された物体が、大きすぎたり、形状が歪であったりするなどして、手部105R、105Lで把持可能で無い場合には、物体が把持できない旨のエラーメッセージを所定の手段で提示するようにしたが、本開示はかかる例に限定されるものではない。ロボット100は、ユーザから手渡された物体が、大きすぎたり、形状が歪であったりするなどして手部105R、105Lで把持可能で無いと判断した場合には、床面に置かれたその物体の周囲を自ら移動して、複数の視点からの物体の画像を取得し、取得した画像に基づいて物体の学習を行うようにしても良い。
また例えば、上記実施形態では、物体の学習をロボット100に行わせていたが、本開示はかかる例に限定されない。例えば、ロボット100の画像入力装置121が撮影した物体の画像を、ロボット100とネットワークで接続されるサーバ装置に随時送信し、ロボット100が撮影した物体についての学習を当該サーバ装置で実行するようにしてもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
所定の物体について複数の視点から撮影された画像を取得する画像取得部と、
前記画像取得部で取得された画像に対してそれぞれ特徴点を抽出する特徴点抽出部と、
隣接視点間の画像で前記特徴点の対応関係を取得する対応関係取得部と、
前記対応関係取得部で取得された前記対応関係についての情報を量的に提示する情報提示部と、
を備える、情報処理装置。
(2)
前記情報提示部は、所定の視点と、該視点に隣接する視点との間における、前記対応関係についての情報を量的に提示する、前記(1)に記載の情報処理装置。
(3)
前記情報提示部は、前記対応関係についての情報として、前記特徴点間を結ぶ線を提示する、前記(2)に記載の情報処理装置。
(4)
前記情報提示部は、前記対応関係についての情報として、所定の視点と、該視点に隣接する視点との間の視点からの画像を仮想的に生成して提示する、前記(2)または(3)に記載の情報処理装置。
(5)
前記情報提示部は、前記対応関係についての情報として、所定の視点に隣接する視点との間において取得できた前記対応関係の数の大小に応じて、前記所定の視点における前記対応関係についての情報の表示を変化させて提示する、前記(2)から(4)のいずれかに記載の情報処理装置。
(6)
前記情報提示部は、前記所定の視点における前記対応関係についての情報を色の変化で提示する、前記(5)に記載の情報処理装置。
(7)
前記情報提示部は、前記所定の視点における前記対応関係についての情報を濃淡の変化で提示する、前記(5)に記載の情報処理装置。
(8)
前記情報提示部は、所定の視点と、該視点に隣接する視点との間における、前記対応関係についての情報を、球面を投影した図形上に提示する、前記(2)から(7)のいずれかに記載の情報処理装置。
(9)
前記対応関係取得部は、隣接視点間の画像で前記特徴点の対応関係を取得する際に、当該特徴点の特徴量の情報を用いる、前記(1)から(8)に記載の情報処理装置。
(10)
前記画像取得部は、前記情報提示部が提示した前記対応関係についての情報において選択された視点からの、前記所定の物体についての画像を取得する、前記(1)から(9)のいずれかに記載の情報処理装置。
(11)
所定の物体について複数の視点から撮影された画像を取得する画像取得ステップと、
前記画像取得ステップで取得された画像に対してそれぞれ特徴点を抽出する特徴点抽出ステップと、
隣接視点間の画像で前記特徴点の対応関係を取得する対応関係取得ステップと、
前記対応関係取得ステップで取得された対応関係についての情報を量的に提示する情報提示ステップと、
を備える、情報処理方法。
(12)
コンピュータに、
所定の物体について複数の視点から撮影された画像を取得する画像取得ステップと、
前記画像取得ステップで取得された画像に対してそれぞれ特徴点を抽出する特徴点抽出ステップと、
隣接視点間の画像で前記特徴点の対応関係を取得する対応関係取得ステップと、
前記対応関係取得ステップで取得された対応関係についての情報を量的に提示する情報提示ステップと、
を実行させる、コンピュータプログラム。
100 :ロボット
101 :頭部ユニット
102 :体幹部ユニット
103L,103R :腕部ユニット
104L,104R :脚部ユニット
105L,105R :手部
110 :思考制御モジュール
114 :外部記憶装置
121 :画像入力装置
122 :音声入力装置
130 :運動制御モジュール
134 :外部記憶装置
140 :アクチュエータ
141 :姿勢センサ
142L,142R :接地確認センサ
143 :電源制御装置
151 :画像認識部
152 :特徴点検出部
153 :特徴量抽出部
154 :画像マッチング部
155 :画像変換部
156 :学習状態提示部
157 :物体モデル登録部
200 :情報処理装置

Claims (15)

  1. 所定の物体について複数の視点から撮影された画像を取得する画像取得部と、
    前記画像取得部で取得された画像に対してそれぞれ特徴点を抽出する特徴点抽出部と、
    隣接視点間の画像で前記特徴点の対応関係を取得する対応関係取得部と、
    前記対応関係取得部で取得された前記対応関係についての情報を登録する物体モデル登録部と、
    を備える、情報処理装置。
  2. 所定の視点と、該視点に隣接する視点との間における、前記対応関係についての情報を量的に提示する情報提示部を更に備える、請求項1に記載の情報処理装置。
  3. 前記情報提示部は、前記対応関係についての情報として、前記特徴点間を結ぶ線を提示する、請求項2に記載の情報処理装置。
  4. 前記情報提示部は、前記対応関係についての情報として、所定の視点と、該視点に隣接する視点との間の視点からの画像を仮想的に生成して提示する、請求項2または3に記載の情報処理装置。
  5. 前記情報提示部は、前記対応関係についての情報として、所定の視点に隣接する視点との間において取得できた前記対応関係の数の大小に応じて、前記所定の視点における前記対応関係についての情報の表示を変化させて提示する、請求項2〜4のいずれかに記載の情報処理装置。
  6. 前記情報提示部は、前記所定の視点における前記対応関係についての情報を色の変化で提示する、請求項5に記載の情報処理装置。
  7. 前記情報提示部は、前記所定の視点における前記対応関係についての情報を濃淡の変化で提示する、請求項5に記載の情報処理装置。
  8. 前記情報提示部は、所定の視点と、該視点に隣接する視点との間における、前記対応関係についての情報を、球面を投影した図形上に提示する、請求項2〜7のいずれかに記載の情報処理装置。
  9. 前記対応関係取得部は、隣接視点間の画像で前記特徴点の対応関係を取得する際に、当該特徴点の特徴量の情報を用いる、請求項1〜8のいずれかに記載の情報処理装置。
  10. 前記画像取得部は、前記物体モデル登録部が登録した前記対応関係についての情報において選択された視点からの、前記所定の物体についての画像を取得する、請求項1〜9のいずれかに記載の情報処理装置。
  11. 前記物体モデル登録部は、所定の視点における物体モデルとして登録する、請求項1に記載の情報処理装置。
  12. 前記画像取得部は、前記物体の形状に応じて、撮影間隔を制御する、請求項1に記載の情報処理装置。
  13. 前記物体モデル登録部は、各視点における物体モデルを統合して、前記物体のモデルとして学習する、請求項1に記載の情報処理装置。
  14. 所定の物体について複数の視点から撮影された画像を取得する画像取得ステップと、
    前記画像取得ステップで取得された画像に対してそれぞれ特徴点を抽出する特徴点抽出ステップと、
    隣接視点間の画像で前記特徴点の対応関係を取得する対応関係取得ステップと、
    前記対応関係取得ステップで取得された対応関係についての情報を登録する物体モデル登録ステップと、
    を含む、情報処理方法。
  15. コンピュータに、
    所定の物体について複数の視点から撮影された画像を取得する画像取得ステップと、
    前記画像取得ステップで取得された画像に対してそれぞれ特徴点を抽出する特徴点抽出ステップと、
    隣接視点間の画像で前記特徴点の対応関係を取得する対応関係取得ステップと、
    前記対応関係取得ステップで取得された対応関係についての情報を登録する物体モデル登録ステップと、
    を実行させる、コンピュータプログラム。
JP2016039874A 2016-03-02 2016-03-02 情報処理装置、情報処理方法およびコンピュータプログラム Active JP6164319B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016039874A JP6164319B2 (ja) 2016-03-02 2016-03-02 情報処理装置、情報処理方法およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016039874A JP6164319B2 (ja) 2016-03-02 2016-03-02 情報処理装置、情報処理方法およびコンピュータプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2012024773A Division JP5895569B2 (ja) 2012-02-08 2012-02-08 情報処理装置、情報処理方法およびコンピュータプログラム

Publications (2)

Publication Number Publication Date
JP2016146188A true JP2016146188A (ja) 2016-08-12
JP6164319B2 JP6164319B2 (ja) 2017-07-19

Family

ID=56686505

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016039874A Active JP6164319B2 (ja) 2016-03-02 2016-03-02 情報処理装置、情報処理方法およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP6164319B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020508888A (ja) * 2017-02-25 2020-03-26 ディリジェント ロボティクス,インコーポレイテッド ロボットが技能を学習し実行するシステム、装置及び方法
US11833684B2 (en) 2017-02-25 2023-12-05 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
US11904470B2 (en) 2021-02-08 2024-02-20 Diligent Robotics, Inc. Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019192145A (ja) 2018-04-27 2019-10-31 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346152A (ja) * 2002-05-24 2003-12-05 Sony Corp 物体認識装置及び方法並びにロボット装置
JP2004235934A (ja) * 2003-01-30 2004-08-19 Sony Corp キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
JP2007219765A (ja) * 2006-02-15 2007-08-30 Toyota Motor Corp 画像処理装置、その方法、および画像処理用プログラム
JP2009238029A (ja) * 2008-03-27 2009-10-15 Nec System Technologies Ltd 座標対応装置、座標対応方法およびプログラム
JP2011198349A (ja) * 2010-02-25 2011-10-06 Canon Inc 情報処理方法及びその装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003346152A (ja) * 2002-05-24 2003-12-05 Sony Corp 物体認識装置及び方法並びにロボット装置
JP2004235934A (ja) * 2003-01-30 2004-08-19 Sony Corp キャリブレーション処理装置、およびキャリブレーション処理方法、並びにコンピュータ・プログラム
JP2007219765A (ja) * 2006-02-15 2007-08-30 Toyota Motor Corp 画像処理装置、その方法、および画像処理用プログラム
JP2009238029A (ja) * 2008-03-27 2009-10-15 Nec System Technologies Ltd 座標対応装置、座標対応方法およびプログラム
JP2011198349A (ja) * 2010-02-25 2011-10-06 Canon Inc 情報処理方法及びその装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
平井 悠貴: "2段階のRandomized Treesによる高速3次元物体認識", 第17回 画像センシングシンポジウム講演論文集 [CD-ROM], vol. IS4-15 (2011年6月), JPN6017008997, 8 June 2011 (2011-06-08), JP, pages 4 - 15, ISSN: 0003519411 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020508888A (ja) * 2017-02-25 2020-03-26 ディリジェント ロボティクス,インコーポレイテッド ロボットが技能を学習し実行するシステム、装置及び方法
US11833684B2 (en) 2017-02-25 2023-12-05 Diligent Robotics, Inc. Systems, apparatus, and methods for robotic learning and execution of skills
US11904470B2 (en) 2021-02-08 2024-02-20 Diligent Robotics, Inc. Systems, apparatuses, and methods for robotic learning and execution of skills including navigation and manipulation functions

Also Published As

Publication number Publication date
JP6164319B2 (ja) 2017-07-19

Similar Documents

Publication Publication Date Title
JP5895569B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
JP6942177B2 (ja) ロボットが学習した経路を自律的に走行するように初期化するためのシステムおよび方法
CN110480634B (zh) 一种针对机械臂运动控制的手臂引导运动控制方法
CN113696186B (zh) 复杂光照条件下基于视触融合的机械臂自主移动抓取方法
JP6164319B2 (ja) 情報処理装置、情報処理方法およびコンピュータプログラム
US10710244B2 (en) Robot control using gestures
JP4479194B2 (ja) 動作識別装置、及び対象物の姿勢識別装置
Droeschel et al. 3D body pose estimation using an adaptive person model for articulated ICP
JP2012526334A (ja) 可変姿勢を含む画像シーケンスのリアルタイム利用可能なコンピュータ支援分析方法
US10380411B2 (en) Method for constructing a model of the face of a person, method and device for posture analysis using such a model
CN113614784A (zh) 利用稀疏rgb-d slam和交互感知对对象进行检测、跟踪和三维建模
CN107030692A (zh) 一种基于感知增强的机械手遥操作方法及系统
CN109839827B (zh) 一种基于全空间位置信息的手势识别智能家居控制系统
KR101256046B1 (ko) 공간 제스처 인식을 위한 신체 트래킹 방법 및 시스템
JP4765075B2 (ja) ステレオ画像を利用した物体の位置および姿勢認識システムならびに物体の位置および姿勢認識方法を実行するプログラム
CN110728739A (zh) 一种基于视频流的虚拟人控制与交互方法
US20190095711A1 (en) Systems and methods for generating three dimensional skeleton representations
KR20200113743A (ko) 인체 자세 추정 및 보정을 하는 방법 및 장치
Grewal et al. Autonomous wheelchair navigation in unmapped indoor environments
JP7171294B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP6770208B2 (ja) 情報処理装置
Phan et al. Towards 3D human posture estimation using multiple kinects despite self-contacts
CN115862074B (zh) 人体指向确定、屏幕控制方法、装置及相关设备
CN109214295A (zh) 基于Kinect v2和Leap Motion的数据融合的手势识别方法
Großmann et al. Communicating unknown objects to robots through pointing gestures

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170523

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170605

R151 Written notification of patent or utility model registration

Ref document number: 6164319

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250