JP2005279804A - 対象物認識装置 - Google Patents

対象物認識装置 Download PDF

Info

Publication number
JP2005279804A
JP2005279804A JP2004094819A JP2004094819A JP2005279804A JP 2005279804 A JP2005279804 A JP 2005279804A JP 2004094819 A JP2004094819 A JP 2004094819A JP 2004094819 A JP2004094819 A JP 2004094819A JP 2005279804 A JP2005279804 A JP 2005279804A
Authority
JP
Japan
Prior art keywords
photographed
specifying
unit
model data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004094819A
Other languages
English (en)
Inventor
Kazuhiko Shinosawa
一彦 篠沢
Kiyoshi Kogure
潔 小暮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2004094819A priority Critical patent/JP2005279804A/ja
Publication of JP2005279804A publication Critical patent/JP2005279804A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【構成】 対象物がCCDカメラ20および22によって撮影されると、撮影対象物に埋め込まれた無線タグのタグ情報がタグリーダ40または54によって検出される。CPUは、検出されたタグ情報に基づいて、撮影対象物に対応する3次元モデルデータを外部サーバから取得する。撮影対象物の姿勢は、CCDカメラ20または22によって撮影された対象物画像データと外部サーバから取得された3次元モデルデータとのパターンマッチングによって特定される。
【効果】 対象物の姿勢を速やかに特定することができる。
【選択図】 図1

Description

この発明は、対象物認識装置に関し、特にたとえば自律移動ロボットに適用され、カメラによって捉えられた対象物の画像に基づいて対象物の姿勢を認識する、対象物認識装置に関する。
従来のこの種の装置の一例が、特許文献1に開示されている。この従来技術は、空中からカメラによって撮影された構造物の形状や撮影位置を、カメラの位置データおよび姿勢データと記憶手段に記憶された構造物の3Dデータとに基づいて推定しようとするものである。
特開2003−83744号
しかし、従来技術では、撮影される構造物の種類が多くなるほど、この構造物の3Dデータの特定に時間がかかり、処理動作の迅速性に欠けてしまう。
それゆえに、この発明の主たる目的は、対象物の姿勢を迅速に特定することができる、対象物認識装置を提供することである。
請求項1の発明に従う対象物認識装置は、識別情報が割り当てられた対象物を撮影するカメラ、カメラによって撮影された撮影対象物の識別情報を検出する検出手段、検出手段によって検出された識別情報に基づいて撮影対象物に対応する3次元モデルデータを外部から取得する取得手段、およびカメラによって撮影された対象物画像データと取得手段によって取得された3次元モデルデータとに基づいて撮影対象物の姿勢を特定する特定手段を備える。
対象物がカメラによって撮影されると、撮影対象物に割り当てられた識別情報が検出手段によって検出される。取得手段は、検出された識別情報に基づいて、撮影対象物に対応する3次元モデルデータを外部から取得する。撮影対象物の姿勢は、カメラによって撮影された対象物画像データと取得手段によって取得された3次元モデルデータとに基づいて特定される。
このように、撮影対象物に対応する3次元モデルデータは、撮影対象物に割り当てられた識別情報に基づいて取得される。これによって、対象物の姿勢を速やかに特定することができる。
請求項2の発明に従う対象物認識装置は、請求項1に従属し、3次元モデルデータに基づくモデルを複数の視点で眺めたときにそれぞれ認識される複数画面の2次元画像データを作成する作成手段、および作成手段によって作成された複数画面の2次元画像データの各々と対象物データとの近似度を算出する算出手段をさらに備え、特定手段は算出手段の算出結果に基づいて撮影対象物の姿勢を特定する。
請求項3の発明に従う対象物認識装置は、請求項2に従属し、撮影対象物までの距離を測定する測定手段をさらに備え、モデルから複数の視点の各々までの距離は測定手段によって測定された距離に相当する。これによって、近似度の算出精度が向上する。
請求項4の発明に従う対象物認識装置は、請求項1または2に従属し、撮影対象物を把持する少なくとも2つの把持部材、および特定手段の特定結果に基づいて2つの把持部材の把持角度を調整する調整手段をさらに備える。これによって、対象物を的確には把持することができる。
請求項5の発明に従う対象物認識装置は、請求項4に従属し、特定手段の特定結果に基づいて撮影対象物に基準軸を割り当てる割り当て手段をさらに備え、調整手段は割り当て手段によって割り当てられた基準軸を参照して把持角度を調整する。
この発明によれば、撮影対象物に対応する3次元モデルデータを撮影対象物に割り当てられた識別情報に基づいて取得するようにしたため、対象物の姿勢を速やかに特定することができる。
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。
本発明対象物認識装置を採用したロボット10を示す図1とその内部構成を示す図2とを参照して、この実施例のロボット10は、台車16を含み、この台車16の下面には、このロボット10を自律移動させる車輪18が設けられる。この車輪18は、走行用モータ72によって駆動され、台車16すなわちロボット10を前後左右任意の方向に動かすことができる。
台車16の上には、ロボット10の胴体14が直立するように取り付けられる。胴体14の両肩には、それぞれ、肩関節28および42によって、上腕30および44が取り付けられる。肩関節30および44はそれぞれ右肩モータ56および左肩モータ64によって駆動され、1軸の自由度を有する。すなわち、肩関節30および44は、ロボット12の前後に伸びる軸の廻りを回転することができる。
上腕30および44の先端には、肘関節32および46を介して、前腕34および48が取り付けられる。肘関節32は、右肘モータ58によって駆動され、肩関節28の回転軸と上腕30の長さ方向に伸びる軸とに直交する軸の廻りを回転することができる。肘関節46は、左肘モータ66によって駆動され、肩関節42の回転軸と上腕44の長さ方向に伸びる軸とに直交する軸の廻りを回転することができる。
前腕34および48の先端には、手首関節36および50を介して、2指ハンド38および52が取り付けられる。手首関節36および50はそれぞれ、右手首モータ60および左手首モータ68によって駆動され、前腕34および48の長さ方向に伸びる軸の廻りを回転することができる。
右手の2指ハンド38は右手モータ62によって駆動され、指38aおよび38bの間隔を縮小方向または拡大方向に調整することができる。左手の2指ハンド52は左手モータ70によって駆動され、指52aおよび52bの間隔を縮小方向または拡大方向に調整することができる。かかる2指ハンド38または52によって任意の対象物の把持動作が可能となる。
指38aおよび52aには、タグリーダ40および54がそれぞれ装着される。把持される対象物には無線タグが埋め込まれており、この無線タグから発信されたタグ情報はかかるタグリーダ40または54によって検出される。
胴体14の中央上方には、首関節24および26を介して、頭部12が取り付けられる。首関節24は、首上下モータ74によって駆動され、首から左右に伸びる軸の廻りを回転することができる。首関節26は、首左右モータ76によって駆動され、首から上下に伸びる軸の廻りを回転することができる。かかる首関節24および26によって、頭部12は上下左右の任意の方向を向くことができる。
頭部12の目に相当する位置には、CCDカメラ20および22が設けられる。CCDカメラ20および22は、頭部12が向く方向の被写界を撮影し、撮影画像データを出力する。
図2を参照して、モータ56〜76は、バスBSに接続されたドライバ78〜98によってそれぞれ駆動される。バスBSにはまた、CCDカメラ20および22,タグリーダ40および54,通信I/F100,CPU102,およびメモリ104が接続される。
CCDカメラ20および22によって対象物が視覚的に捕捉されたとき、CPU102は、図3〜図5に示すフロー図に従う処理を実行する。なお、このフロー図に対応する制御プログラムは、図示しないフラッシュメモリに記憶される。
まずステップS1で対象物の方向DR1と対象物までの距離DS1とを検出する。方向DR1は現時点の頭部12の向きであり、ドライバ96および98の制御情報に基づいて検出される。距離DS1は、CCDカメラ20および22から出力された撮影画像データに基づく三角測量によって検出される。
ステップS3では、ドライバ94を制御してロボット10を捕捉された対象物の近傍に移動させ、ステップS5では、対象物の把持に用いる2指ハンドを決定する。以下の説明では、右手の2指ハンド38が選択されたことを前提として説明する。
ステップS7では、ドライバ78〜82を制御して、右手の2指ハンド38つまりタグリーダ40を対象物の近傍に配置し、ステップS9では、タグリーダ40を能動化して、対象物に埋め込まれた無線タグから発信されるタグ情報を取得する。タグリーダ40によって読み取られたタグ情報は、バスBSを介してメモリ104に書き込まれる。
ステップS11では、2指ハンド38つまり対象物の方向DR2および2指ハンド38つまり対象物までの距離DS2を検出する。検出方法は、上述のステップS1と同じである。方向DR2および距離DS2が検出されるとステップS13に進み、ドライバ78および80を制御して2指ハンド38をCCDカメラ20および22の撮影範囲外に移動させる。移動が完了すると、CCDカメラ20および22の一方から出力された撮影画像データつまり対象物画像データをメモリ104に書き込む。メモリ104には、たとえば図6に示す対象物画像データOBJが格納される。
ステップS17では、ステップS9で取得したタグ情報を通信I/F100を通してサーバ(図示せず)に送信する。サーバは、複数の対象物の3Dモデルデータ(ポリゴンデータPLG)を管理しており、ステップS17で送信されたタグ情報に対応する3Dモデルデータをロボット10に返送する。返送された3Dモデルデータが通信I/F100によって受信されると、ステップS19でYESと判断し、返送された3DモデルデータをステップS21でメモリ104に書き込む。メモリ104には、たとえば図7に示す3DモデルデータPLGが格納される。なお、3Dモデルデータには、互いに直交するXYZ軸が割り当てられる。
こうして同じ対象物の3Dモデルと実際に撮影された対象物画像とが取得されると、ステップS23に進み、取得された3Dモデルを距離DS2の間隔を保って複数の視点座標(図7参照)から眺めたときに認識される複数の2次元画像を作成する。作成された各々の2次元画像には、識別番号が割り当てられる。
ステップS25では変数Nを“1”に設定し、ステップS27では対象物画像とN番目の2次元画像とがどの程度近似するかを示す近似度(適正度)を算出する。この算出には、周知のパターンマッチングの手法を用いる。ステップS29では、変数Nが識別番号の最大値に相当するNmaxに達したか否か判別する。ここでNOであれば、ステップS31で変数NをインクリメントしてからステップS27に戻る。これによって変数NがNmaxに達するまでステップS27の処理が繰り返され、ステップS23で作成された全ての2次元画像について近似度が算出される。
変数NがNmaxに達するとステップS29からステップS33に進み、上述の複数の2次元画像の中から近似度が最大の2次元画像を特定する。ステップS35では、特定された2次元画像を作成したときの視点座標を、上述の複数の視点座標の中から検出する。ステップS37では、検出された視点座標に基づいて、3次元画像データに割り当てられたX軸と同じ方向に伸びる基準軸を対象物に割り当てる。
ステップS39では右肩モータ56および右肘モータ58を制御して2指ハンド38を対象物の真上に移動させる。ステップS41では右手首モータ60を制御して2指ハンド38の把持角度を調整する。把持角度は、対象物に割り当てられた基準軸に直交することになる。
角度調整が完了すると、ステップS43で右手モータ62を動作させて対象物OBJを把持する。つまり、右肩モータ56および右肘モータ58を制御して2指ハンド38を対象物OBJの位置に配置し、右手モータ60を制御して対象物OBJを指38aおよび38bによって挟む。ステップS45では右肩モータ56および右肘モータ58を制御して対象物OBJを持ち上げ、その後、処理を終了する。
以上の説明から分かるように、対象物がCCDカメラ20および22によって撮影されると、撮影対象物に埋め込まれた無線タグのタグ情報がタグリーダ40または54によって検出される。CPU102は、検出されたタグ情報に基づいて、撮影対象物に対応する3次元モデルデータを外部サーバから取得する。撮影対象物の姿勢は、CCDカメラ20または22によって撮影された対象物画像データと外部サーバから取得された3次元モデルデータとに基づいて特定される。
このように、撮影対象物に対応する3次元モデルデータを撮影対象物に割り当てられたタグ情報に基づいて取得するようにしたため、対象物の姿勢を速やかに特定することができる。
なお、この実施例では、近似度が最大の2次元画像の視点座標をCCDカメラの視点とみなすようにしているが、近似度が閾値を上回る視点座標に対する重み付け加算によって視点座標を新たに検出し、この新規の視点座標をCCDカメラの視点とみなすようにすれば、基準軸をより正確に対象物に割り当てることができる。
また、この実施例では、外部のサーバに複数の3次元モデルデータを準備するようにしているが、これに代えて内部の記憶媒体に複数の3次元モデルデータを準備するようにしてもよい。
この発明の一実施例を示す外観図である。 図1実施例の構成の一例を示すブロック図である。 図1実施例に適用されるCPUの動作の一部を示すフロー図である。 図1実施例に適用されるCPUの動作の他の一部を示すフロー図である。 図1実施例に適用されるCPUの動作のその他の一部を示すフロー図である。 図1実施例の2指ハンドによって把持される対象物の撮影画像の一例を示す斜視図である。 図6に示す対象物に対応する3Dモデルを示す斜視図である。
符号の説明
10 … 自律移動ロボット
12 … 頭部
20,22 … CCDカメラ
38,52 … 2指ハンド
40,54 … タグリーダ
100 … 通信I/F
102 … CPU

Claims (5)

  1. 識別情報が割り当てられた対象物を撮影するカメラ、
    前記カメラによって撮影された撮影対象物の識別情報を検出する検出手段、
    前記検出手段によって検出された識別情報に基づいて前記撮影対象物に対応する3次元モデルデータを取得する取得手段、および
    前記カメラによって撮影された対象物画像データと前記取得手段によって取得された3次元モデルデータとに基づいて前記撮影対象物の姿勢を特定する特定手段を備える、対象物認識装置。
  2. 前記3次元モデルデータに基づくモデルを複数の視点で眺めたときにそれぞれ認識される複数画面の2次元画像データを作成する作成手段、および
    前記作成手段によって作成された複数画面の2次元画像データの各々と前記対象物データとの近似度を算出する算出手段をさらに備え、
    前記特定手段は前記算出手段の算出結果に基づいて前記撮影対象物の姿勢を特定する、請求項1記載の対象物認識装置。
  3. 前記撮影対象物までの距離を測定する測定手段をさらに備え、
    前記モデルから前記複数の視点の各々までの距離は前記測定手段によって測定された距離に相当する、請求項2記載の対象物認識装置。
  4. 前記撮影対象物を把持する少なくとも2つの把持部材、および
    前記特定手段の特定結果に基づいて前記2つの把持部材の把持角度を調整する調整手段をさらに備える、請求項1または2記載の対象物認識装置。
  5. 前記特定手段の特定結果に基づいて前記撮影対象物に基準軸を割り当てる割り当て手段をさらに備え、
    前記調整手段は前記割り当て手段によって割り当てられた基準軸を参照して前記把持角度を調整する、請求項4記載の対象物認識装置。
JP2004094819A 2004-03-29 2004-03-29 対象物認識装置 Pending JP2005279804A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004094819A JP2005279804A (ja) 2004-03-29 2004-03-29 対象物認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004094819A JP2005279804A (ja) 2004-03-29 2004-03-29 対象物認識装置

Publications (1)

Publication Number Publication Date
JP2005279804A true JP2005279804A (ja) 2005-10-13

Family

ID=35178728

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004094819A Pending JP2005279804A (ja) 2004-03-29 2004-03-29 対象物認識装置

Country Status (1)

Country Link
JP (1) JP2005279804A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001265A1 (en) * 2006-06-29 2008-01-03 Philips Intellectual Property & Standards Gmbh Method of providing object models to a plurality of object recognition devices
KR100799743B1 (ko) * 2006-09-19 2008-02-01 화천기공 주식회사 가사용 로봇
JP2009037419A (ja) * 2007-08-01 2009-02-19 Toshiba Corp 画像処理装置およびプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293695A (ja) * 1999-04-08 2000-10-20 Fanuc Ltd 画像処理装置
JP2002215655A (ja) * 2001-01-15 2002-08-02 Shigeru Ando 情報検索方法、情報検索装置およびロボットの動作制御装置
JP2004090099A (ja) * 2002-08-29 2004-03-25 National Institute Of Advanced Industrial & Technology ロボットマニピュレータによる物体操作方法および装置
JP2005088137A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology ロボット及び物体処理方法
JP2005088143A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology 物体処理システム、物体処理方法及びロボット
JP2005088140A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology 物体処理システム、物体処理方法及びロボット
JP2005088146A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology 物体処理システム、物体処理方法及びロボット

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293695A (ja) * 1999-04-08 2000-10-20 Fanuc Ltd 画像処理装置
JP2002215655A (ja) * 2001-01-15 2002-08-02 Shigeru Ando 情報検索方法、情報検索装置およびロボットの動作制御装置
JP2004090099A (ja) * 2002-08-29 2004-03-25 National Institute Of Advanced Industrial & Technology ロボットマニピュレータによる物体操作方法および装置
JP2005088137A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology ロボット及び物体処理方法
JP2005088143A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology 物体処理システム、物体処理方法及びロボット
JP2005088140A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology 物体処理システム、物体処理方法及びロボット
JP2005088146A (ja) * 2003-09-18 2005-04-07 National Institute Of Advanced Industrial & Technology 物体処理システム、物体処理方法及びロボット

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008001265A1 (en) * 2006-06-29 2008-01-03 Philips Intellectual Property & Standards Gmbh Method of providing object models to a plurality of object recognition devices
KR100799743B1 (ko) * 2006-09-19 2008-02-01 화천기공 주식회사 가사용 로봇
JP2009037419A (ja) * 2007-08-01 2009-02-19 Toshiba Corp 画像処理装置およびプログラム

Similar Documents

Publication Publication Date Title
JP7111114B2 (ja) 情報処理装置、情報処理方法及び情報処理システム
JP3834297B2 (ja) 画像処理装置
US8265791B2 (en) System and method for motion control of humanoid robot
JP4961860B2 (ja) ロボット装置及びロボット装置の制御方法
US9679385B2 (en) Three-dimensional measurement apparatus and robot system
US7280687B2 (en) Device for detecting position/orientation of object
KR101964332B1 (ko) 핸드-아이 캘리브레이션 방법, 이를 실행하기 위한 컴퓨터 프로그램 및 로봇 시스템
US9905016B2 (en) Robot identification system
TWI607814B (zh) 即時三維建模之雷射飛行打標系統及其方法
EP2933604A1 (en) A method for localizing a robot in a localization plane
WO2013145025A1 (ja) ステレオカメラシステム及び移動体
WO2022174594A1 (zh) 基于多相机的裸手追踪显示方法、装置及系统
JP2020052979A (ja) 情報処理装置およびプログラム
JP5609760B2 (ja) ロボット、ロボットの動作方法、及びプログラム
JP2008168372A (ja) ロボット装置及び形状認識方法
CN114341930A (zh) 图像处理装置、拍摄装置、机器人以及机器人系统
JP2016148649A (ja) 情報処理装置、情報処理装置の制御方法、およびプログラム
TW201129084A (en) Controlling system and method for camera, adjusting apparatus for camera including the same
KR101380852B1 (ko) 사용자로부터 환경에 대한 사진 입력을 받는 이동로봇의 slam 시스템 및 방법
JP2004338889A (ja) 映像認識装置
JP2018173882A (ja) 情報処理装置、方法、及びプログラム
WO2021117479A1 (ja) 情報処理装置、方法およびプログラム
JP2005279804A (ja) 対象物認識装置
CN110631586A (zh) 基于视觉slam的地图构建的方法、导航系统及装置
CN115514885A (zh) 基于单双目融合的远程增强现实随动感知系统及方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070115

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100119

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100525