JP2005279804A - 対象物認識装置 - Google Patents
対象物認識装置 Download PDFInfo
- Publication number
- JP2005279804A JP2005279804A JP2004094819A JP2004094819A JP2005279804A JP 2005279804 A JP2005279804 A JP 2005279804A JP 2004094819 A JP2004094819 A JP 2004094819A JP 2004094819 A JP2004094819 A JP 2004094819A JP 2005279804 A JP2005279804 A JP 2005279804A
- Authority
- JP
- Japan
- Prior art keywords
- photographed
- specifying
- unit
- model data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【構成】 対象物がCCDカメラ20および22によって撮影されると、撮影対象物に埋め込まれた無線タグのタグ情報がタグリーダ40または54によって検出される。CPUは、検出されたタグ情報に基づいて、撮影対象物に対応する3次元モデルデータを外部サーバから取得する。撮影対象物の姿勢は、CCDカメラ20または22によって撮影された対象物画像データと外部サーバから取得された3次元モデルデータとのパターンマッチングによって特定される。
【効果】 対象物の姿勢を速やかに特定することができる。
【選択図】 図1
【効果】 対象物の姿勢を速やかに特定することができる。
【選択図】 図1
Description
この発明は、対象物認識装置に関し、特にたとえば自律移動ロボットに適用され、カメラによって捉えられた対象物の画像に基づいて対象物の姿勢を認識する、対象物認識装置に関する。
従来のこの種の装置の一例が、特許文献1に開示されている。この従来技術は、空中からカメラによって撮影された構造物の形状や撮影位置を、カメラの位置データおよび姿勢データと記憶手段に記憶された構造物の3Dデータとに基づいて推定しようとするものである。
特開2003−83744号
しかし、従来技術では、撮影される構造物の種類が多くなるほど、この構造物の3Dデータの特定に時間がかかり、処理動作の迅速性に欠けてしまう。
それゆえに、この発明の主たる目的は、対象物の姿勢を迅速に特定することができる、対象物認識装置を提供することである。
請求項1の発明に従う対象物認識装置は、識別情報が割り当てられた対象物を撮影するカメラ、カメラによって撮影された撮影対象物の識別情報を検出する検出手段、検出手段によって検出された識別情報に基づいて撮影対象物に対応する3次元モデルデータを外部から取得する取得手段、およびカメラによって撮影された対象物画像データと取得手段によって取得された3次元モデルデータとに基づいて撮影対象物の姿勢を特定する特定手段を備える。
対象物がカメラによって撮影されると、撮影対象物に割り当てられた識別情報が検出手段によって検出される。取得手段は、検出された識別情報に基づいて、撮影対象物に対応する3次元モデルデータを外部から取得する。撮影対象物の姿勢は、カメラによって撮影された対象物画像データと取得手段によって取得された3次元モデルデータとに基づいて特定される。
このように、撮影対象物に対応する3次元モデルデータは、撮影対象物に割り当てられた識別情報に基づいて取得される。これによって、対象物の姿勢を速やかに特定することができる。
請求項2の発明に従う対象物認識装置は、請求項1に従属し、3次元モデルデータに基づくモデルを複数の視点で眺めたときにそれぞれ認識される複数画面の2次元画像データを作成する作成手段、および作成手段によって作成された複数画面の2次元画像データの各々と対象物データとの近似度を算出する算出手段をさらに備え、特定手段は算出手段の算出結果に基づいて撮影対象物の姿勢を特定する。
請求項3の発明に従う対象物認識装置は、請求項2に従属し、撮影対象物までの距離を測定する測定手段をさらに備え、モデルから複数の視点の各々までの距離は測定手段によって測定された距離に相当する。これによって、近似度の算出精度が向上する。
請求項4の発明に従う対象物認識装置は、請求項1または2に従属し、撮影対象物を把持する少なくとも2つの把持部材、および特定手段の特定結果に基づいて2つの把持部材の把持角度を調整する調整手段をさらに備える。これによって、対象物を的確には把持することができる。
請求項5の発明に従う対象物認識装置は、請求項4に従属し、特定手段の特定結果に基づいて撮影対象物に基準軸を割り当てる割り当て手段をさらに備え、調整手段は割り当て手段によって割り当てられた基準軸を参照して把持角度を調整する。
この発明によれば、撮影対象物に対応する3次元モデルデータを撮影対象物に割り当てられた識別情報に基づいて取得するようにしたため、対象物の姿勢を速やかに特定することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
本発明対象物認識装置を採用したロボット10を示す図1とその内部構成を示す図2とを参照して、この実施例のロボット10は、台車16を含み、この台車16の下面には、このロボット10を自律移動させる車輪18が設けられる。この車輪18は、走行用モータ72によって駆動され、台車16すなわちロボット10を前後左右任意の方向に動かすことができる。
台車16の上には、ロボット10の胴体14が直立するように取り付けられる。胴体14の両肩には、それぞれ、肩関節28および42によって、上腕30および44が取り付けられる。肩関節30および44はそれぞれ右肩モータ56および左肩モータ64によって駆動され、1軸の自由度を有する。すなわち、肩関節30および44は、ロボット12の前後に伸びる軸の廻りを回転することができる。
上腕30および44の先端には、肘関節32および46を介して、前腕34および48が取り付けられる。肘関節32は、右肘モータ58によって駆動され、肩関節28の回転軸と上腕30の長さ方向に伸びる軸とに直交する軸の廻りを回転することができる。肘関節46は、左肘モータ66によって駆動され、肩関節42の回転軸と上腕44の長さ方向に伸びる軸とに直交する軸の廻りを回転することができる。
前腕34および48の先端には、手首関節36および50を介して、2指ハンド38および52が取り付けられる。手首関節36および50はそれぞれ、右手首モータ60および左手首モータ68によって駆動され、前腕34および48の長さ方向に伸びる軸の廻りを回転することができる。
右手の2指ハンド38は右手モータ62によって駆動され、指38aおよび38bの間隔を縮小方向または拡大方向に調整することができる。左手の2指ハンド52は左手モータ70によって駆動され、指52aおよび52bの間隔を縮小方向または拡大方向に調整することができる。かかる2指ハンド38または52によって任意の対象物の把持動作が可能となる。
指38aおよび52aには、タグリーダ40および54がそれぞれ装着される。把持される対象物には無線タグが埋め込まれており、この無線タグから発信されたタグ情報はかかるタグリーダ40または54によって検出される。
胴体14の中央上方には、首関節24および26を介して、頭部12が取り付けられる。首関節24は、首上下モータ74によって駆動され、首から左右に伸びる軸の廻りを回転することができる。首関節26は、首左右モータ76によって駆動され、首から上下に伸びる軸の廻りを回転することができる。かかる首関節24および26によって、頭部12は上下左右の任意の方向を向くことができる。
頭部12の目に相当する位置には、CCDカメラ20および22が設けられる。CCDカメラ20および22は、頭部12が向く方向の被写界を撮影し、撮影画像データを出力する。
図2を参照して、モータ56〜76は、バスBSに接続されたドライバ78〜98によってそれぞれ駆動される。バスBSにはまた、CCDカメラ20および22,タグリーダ40および54,通信I/F100,CPU102,およびメモリ104が接続される。
CCDカメラ20および22によって対象物が視覚的に捕捉されたとき、CPU102は、図3〜図5に示すフロー図に従う処理を実行する。なお、このフロー図に対応する制御プログラムは、図示しないフラッシュメモリに記憶される。
まずステップS1で対象物の方向DR1と対象物までの距離DS1とを検出する。方向DR1は現時点の頭部12の向きであり、ドライバ96および98の制御情報に基づいて検出される。距離DS1は、CCDカメラ20および22から出力された撮影画像データに基づく三角測量によって検出される。
ステップS3では、ドライバ94を制御してロボット10を捕捉された対象物の近傍に移動させ、ステップS5では、対象物の把持に用いる2指ハンドを決定する。以下の説明では、右手の2指ハンド38が選択されたことを前提として説明する。
ステップS7では、ドライバ78〜82を制御して、右手の2指ハンド38つまりタグリーダ40を対象物の近傍に配置し、ステップS9では、タグリーダ40を能動化して、対象物に埋め込まれた無線タグから発信されるタグ情報を取得する。タグリーダ40によって読み取られたタグ情報は、バスBSを介してメモリ104に書き込まれる。
ステップS11では、2指ハンド38つまり対象物の方向DR2および2指ハンド38つまり対象物までの距離DS2を検出する。検出方法は、上述のステップS1と同じである。方向DR2および距離DS2が検出されるとステップS13に進み、ドライバ78および80を制御して2指ハンド38をCCDカメラ20および22の撮影範囲外に移動させる。移動が完了すると、CCDカメラ20および22の一方から出力された撮影画像データつまり対象物画像データをメモリ104に書き込む。メモリ104には、たとえば図6に示す対象物画像データOBJが格納される。
ステップS17では、ステップS9で取得したタグ情報を通信I/F100を通してサーバ(図示せず)に送信する。サーバは、複数の対象物の3Dモデルデータ(ポリゴンデータPLG)を管理しており、ステップS17で送信されたタグ情報に対応する3Dモデルデータをロボット10に返送する。返送された3Dモデルデータが通信I/F100によって受信されると、ステップS19でYESと判断し、返送された3DモデルデータをステップS21でメモリ104に書き込む。メモリ104には、たとえば図7に示す3DモデルデータPLGが格納される。なお、3Dモデルデータには、互いに直交するXYZ軸が割り当てられる。
こうして同じ対象物の3Dモデルと実際に撮影された対象物画像とが取得されると、ステップS23に進み、取得された3Dモデルを距離DS2の間隔を保って複数の視点座標(図7参照)から眺めたときに認識される複数の2次元画像を作成する。作成された各々の2次元画像には、識別番号が割り当てられる。
ステップS25では変数Nを“1”に設定し、ステップS27では対象物画像とN番目の2次元画像とがどの程度近似するかを示す近似度(適正度)を算出する。この算出には、周知のパターンマッチングの手法を用いる。ステップS29では、変数Nが識別番号の最大値に相当するNmaxに達したか否か判別する。ここでNOであれば、ステップS31で変数NをインクリメントしてからステップS27に戻る。これによって変数NがNmaxに達するまでステップS27の処理が繰り返され、ステップS23で作成された全ての2次元画像について近似度が算出される。
変数NがNmaxに達するとステップS29からステップS33に進み、上述の複数の2次元画像の中から近似度が最大の2次元画像を特定する。ステップS35では、特定された2次元画像を作成したときの視点座標を、上述の複数の視点座標の中から検出する。ステップS37では、検出された視点座標に基づいて、3次元画像データに割り当てられたX軸と同じ方向に伸びる基準軸を対象物に割り当てる。
ステップS39では右肩モータ56および右肘モータ58を制御して2指ハンド38を対象物の真上に移動させる。ステップS41では右手首モータ60を制御して2指ハンド38の把持角度を調整する。把持角度は、対象物に割り当てられた基準軸に直交することになる。
角度調整が完了すると、ステップS43で右手モータ62を動作させて対象物OBJを把持する。つまり、右肩モータ56および右肘モータ58を制御して2指ハンド38を対象物OBJの位置に配置し、右手モータ60を制御して対象物OBJを指38aおよび38bによって挟む。ステップS45では右肩モータ56および右肘モータ58を制御して対象物OBJを持ち上げ、その後、処理を終了する。
以上の説明から分かるように、対象物がCCDカメラ20および22によって撮影されると、撮影対象物に埋め込まれた無線タグのタグ情報がタグリーダ40または54によって検出される。CPU102は、検出されたタグ情報に基づいて、撮影対象物に対応する3次元モデルデータを外部サーバから取得する。撮影対象物の姿勢は、CCDカメラ20または22によって撮影された対象物画像データと外部サーバから取得された3次元モデルデータとに基づいて特定される。
このように、撮影対象物に対応する3次元モデルデータを撮影対象物に割り当てられたタグ情報に基づいて取得するようにしたため、対象物の姿勢を速やかに特定することができる。
なお、この実施例では、近似度が最大の2次元画像の視点座標をCCDカメラの視点とみなすようにしているが、近似度が閾値を上回る視点座標に対する重み付け加算によって視点座標を新たに検出し、この新規の視点座標をCCDカメラの視点とみなすようにすれば、基準軸をより正確に対象物に割り当てることができる。
また、この実施例では、外部のサーバに複数の3次元モデルデータを準備するようにしているが、これに代えて内部の記憶媒体に複数の3次元モデルデータを準備するようにしてもよい。
10 … 自律移動ロボット
12 … 頭部
20,22 … CCDカメラ
38,52 … 2指ハンド
40,54 … タグリーダ
100 … 通信I/F
102 … CPU
12 … 頭部
20,22 … CCDカメラ
38,52 … 2指ハンド
40,54 … タグリーダ
100 … 通信I/F
102 … CPU
Claims (5)
- 識別情報が割り当てられた対象物を撮影するカメラ、
前記カメラによって撮影された撮影対象物の識別情報を検出する検出手段、
前記検出手段によって検出された識別情報に基づいて前記撮影対象物に対応する3次元モデルデータを取得する取得手段、および
前記カメラによって撮影された対象物画像データと前記取得手段によって取得された3次元モデルデータとに基づいて前記撮影対象物の姿勢を特定する特定手段を備える、対象物認識装置。 - 前記3次元モデルデータに基づくモデルを複数の視点で眺めたときにそれぞれ認識される複数画面の2次元画像データを作成する作成手段、および
前記作成手段によって作成された複数画面の2次元画像データの各々と前記対象物データとの近似度を算出する算出手段をさらに備え、
前記特定手段は前記算出手段の算出結果に基づいて前記撮影対象物の姿勢を特定する、請求項1記載の対象物認識装置。 - 前記撮影対象物までの距離を測定する測定手段をさらに備え、
前記モデルから前記複数の視点の各々までの距離は前記測定手段によって測定された距離に相当する、請求項2記載の対象物認識装置。 - 前記撮影対象物を把持する少なくとも2つの把持部材、および
前記特定手段の特定結果に基づいて前記2つの把持部材の把持角度を調整する調整手段をさらに備える、請求項1または2記載の対象物認識装置。 - 前記特定手段の特定結果に基づいて前記撮影対象物に基準軸を割り当てる割り当て手段をさらに備え、
前記調整手段は前記割り当て手段によって割り当てられた基準軸を参照して前記把持角度を調整する、請求項4記載の対象物認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004094819A JP2005279804A (ja) | 2004-03-29 | 2004-03-29 | 対象物認識装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004094819A JP2005279804A (ja) | 2004-03-29 | 2004-03-29 | 対象物認識装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005279804A true JP2005279804A (ja) | 2005-10-13 |
Family
ID=35178728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004094819A Pending JP2005279804A (ja) | 2004-03-29 | 2004-03-29 | 対象物認識装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005279804A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008001265A1 (en) * | 2006-06-29 | 2008-01-03 | Philips Intellectual Property & Standards Gmbh | Method of providing object models to a plurality of object recognition devices |
KR100799743B1 (ko) * | 2006-09-19 | 2008-02-01 | 화천기공 주식회사 | 가사용 로봇 |
JP2009037419A (ja) * | 2007-08-01 | 2009-02-19 | Toshiba Corp | 画像処理装置およびプログラム |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293695A (ja) * | 1999-04-08 | 2000-10-20 | Fanuc Ltd | 画像処理装置 |
JP2002215655A (ja) * | 2001-01-15 | 2002-08-02 | Shigeru Ando | 情報検索方法、情報検索装置およびロボットの動作制御装置 |
JP2004090099A (ja) * | 2002-08-29 | 2004-03-25 | National Institute Of Advanced Industrial & Technology | ロボットマニピュレータによる物体操作方法および装置 |
JP2005088137A (ja) * | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | ロボット及び物体処理方法 |
JP2005088143A (ja) * | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | 物体処理システム、物体処理方法及びロボット |
JP2005088140A (ja) * | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | 物体処理システム、物体処理方法及びロボット |
JP2005088146A (ja) * | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | 物体処理システム、物体処理方法及びロボット |
-
2004
- 2004-03-29 JP JP2004094819A patent/JP2005279804A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000293695A (ja) * | 1999-04-08 | 2000-10-20 | Fanuc Ltd | 画像処理装置 |
JP2002215655A (ja) * | 2001-01-15 | 2002-08-02 | Shigeru Ando | 情報検索方法、情報検索装置およびロボットの動作制御装置 |
JP2004090099A (ja) * | 2002-08-29 | 2004-03-25 | National Institute Of Advanced Industrial & Technology | ロボットマニピュレータによる物体操作方法および装置 |
JP2005088137A (ja) * | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | ロボット及び物体処理方法 |
JP2005088143A (ja) * | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | 物体処理システム、物体処理方法及びロボット |
JP2005088140A (ja) * | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | 物体処理システム、物体処理方法及びロボット |
JP2005088146A (ja) * | 2003-09-18 | 2005-04-07 | National Institute Of Advanced Industrial & Technology | 物体処理システム、物体処理方法及びロボット |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008001265A1 (en) * | 2006-06-29 | 2008-01-03 | Philips Intellectual Property & Standards Gmbh | Method of providing object models to a plurality of object recognition devices |
KR100799743B1 (ko) * | 2006-09-19 | 2008-02-01 | 화천기공 주식회사 | 가사용 로봇 |
JP2009037419A (ja) * | 2007-08-01 | 2009-02-19 | Toshiba Corp | 画像処理装置およびプログラム |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7111114B2 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
JP3834297B2 (ja) | 画像処理装置 | |
US8265791B2 (en) | System and method for motion control of humanoid robot | |
JP4961860B2 (ja) | ロボット装置及びロボット装置の制御方法 | |
US9679385B2 (en) | Three-dimensional measurement apparatus and robot system | |
US7280687B2 (en) | Device for detecting position/orientation of object | |
KR101964332B1 (ko) | 핸드-아이 캘리브레이션 방법, 이를 실행하기 위한 컴퓨터 프로그램 및 로봇 시스템 | |
US9905016B2 (en) | Robot identification system | |
TWI607814B (zh) | 即時三維建模之雷射飛行打標系統及其方法 | |
EP2933604A1 (en) | A method for localizing a robot in a localization plane | |
WO2013145025A1 (ja) | ステレオカメラシステム及び移動体 | |
WO2022174594A1 (zh) | 基于多相机的裸手追踪显示方法、装置及系统 | |
JP2020052979A (ja) | 情報処理装置およびプログラム | |
JP5609760B2 (ja) | ロボット、ロボットの動作方法、及びプログラム | |
JP2008168372A (ja) | ロボット装置及び形状認識方法 | |
CN114341930A (zh) | 图像处理装置、拍摄装置、机器人以及机器人系统 | |
JP2016148649A (ja) | 情報処理装置、情報処理装置の制御方法、およびプログラム | |
TW201129084A (en) | Controlling system and method for camera, adjusting apparatus for camera including the same | |
KR101380852B1 (ko) | 사용자로부터 환경에 대한 사진 입력을 받는 이동로봇의 slam 시스템 및 방법 | |
JP2004338889A (ja) | 映像認識装置 | |
JP2018173882A (ja) | 情報処理装置、方法、及びプログラム | |
WO2021117479A1 (ja) | 情報処理装置、方法およびプログラム | |
JP2005279804A (ja) | 対象物認識装置 | |
CN110631586A (zh) | 基于视觉slam的地图构建的方法、导航系统及装置 | |
CN115514885A (zh) | 基于单双目融合的远程增强现实随动感知系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070115 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100119 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100525 |