JP2005078375A - 方向認識装置、方向認識方法、方向認識システム及びロボット装置 - Google Patents
方向認識装置、方向認識方法、方向認識システム及びロボット装置 Download PDFInfo
- Publication number
- JP2005078375A JP2005078375A JP2003307923A JP2003307923A JP2005078375A JP 2005078375 A JP2005078375 A JP 2005078375A JP 2003307923 A JP2003307923 A JP 2003307923A JP 2003307923 A JP2003307923 A JP 2003307923A JP 2005078375 A JP2005078375 A JP 2005078375A
- Authority
- JP
- Japan
- Prior art keywords
- image
- registered
- recognition
- direction recognition
- recognizing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 52
- 238000003860 storage Methods 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 13
- 238000003384 imaging method Methods 0.000 abstract description 23
- 230000009466 transformation Effects 0.000 description 44
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 41
- 230000009471 action Effects 0.000 description 34
- 230000006399 behavior Effects 0.000 description 31
- 230000008451 emotion Effects 0.000 description 30
- 238000012545 processing Methods 0.000 description 27
- 230000007704 transition Effects 0.000 description 24
- 230000008859 change Effects 0.000 description 14
- 238000001514 detection method Methods 0.000 description 13
- 230000008569 process Effects 0.000 description 13
- 239000013598 vector Substances 0.000 description 13
- 238000000605 extraction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 230000009467 reduction Effects 0.000 description 6
- 210000002414 leg Anatomy 0.000 description 5
- 238000012952 Resampling Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000036528 appetite Effects 0.000 description 2
- 235000019789 appetite Nutrition 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000276398 Opsanus tau Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
【課題】 移動体に対して、1つの物体により、複数の方向を認識させる。
【解決手段】 方向認識装置は、撮像部と、登録画像と該登録画像に対応付けられた方向情報とが複数登録された登録画像データベースと、撮像部によりポール100を撮像した入力画像が入力され、データベースを参照し、入力画像に含まれる方向認識用部材に一致又は類似すると判断された登録画像を抽出する画像認識部と、画像認識部にて選択された登録画像に対応付けられた方向情報に基づき方向を認識して出力する方向認識部とを有する。ポール100の側面を周方向にN分割したN分割部分側面SNに対して異なるNの方向情報を設定してデータベースに登録する場合、方向情報を示す表示面となるN分割部分側面SNより、広い範囲を方向認識用領域ASNとし登録画像とする。
【選択図】 図2
【解決手段】 方向認識装置は、撮像部と、登録画像と該登録画像に対応付けられた方向情報とが複数登録された登録画像データベースと、撮像部によりポール100を撮像した入力画像が入力され、データベースを参照し、入力画像に含まれる方向認識用部材に一致又は類似すると判断された登録画像を抽出する画像認識部と、画像認識部にて選択された登録画像に対応付けられた方向情報に基づき方向を認識して出力する方向認識部とを有する。ポール100の側面を周方向にN分割したN分割部分側面SNに対して異なるNの方向情報を設定してデータベースに登録する場合、方向情報を示す表示面となるN分割部分側面SNより、広い範囲を方向認識用領域ASNとし登録画像とする。
【選択図】 図2
Description
本発明は、方向認識用部を使用して入力画像から方向を認識する方向認識装置及び方法、方向認識用部材と方向認識装置とからなる方向認識システム、並びに方向認識装置を搭載したロボット装置に関する。
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータ及び搬送ロボット等の産業用ロボット(Industrial Robot)であった。
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬又は猫のように4足歩行の動物の身体メカニズム及びその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う人間等の身体メカニズム及びその動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等のロボット装置は、既に実用化されつつある。
これらのロボット装置は、産業用ロボットと比較して、例えばエンターテインメント性を重視した様々な動作等を行うことができるため、エンターテインメントロボットと呼称される場合もある。また、そのようなロボット装置には、CCD(Charge Coupled Device)カメラ及びマイクロホン等の各種外部センサが搭載され、これら外部センサの出力に基づいて外部状況を認識して、外部からの情報及び内部の状態に応じて自律的に動作するものがある。
例えば、ユーザの顔を認識したり、障害物を認識してこれをよけたり、対象物を発見して近寄ったりと、様々な知能的な行動を自律的に実行するようになされており、このために、ロボット装置には、ランドマーク等を使用してカメラにより取得した入力画像から自己位置を同定することができるものがある。このような技術として、ロボット装置の位置検出装置が例えば下記特許文献1に記載されている。この特許文献1に記載の位置検出装置は、移動するロボット装置の位置を検出するものであって、ある領域内に予め異なる配色のポール等からなる標識を3つ配置しておく。これをロボット装置が撮像して各標識の位置関係から、ロボット装置自身の位置を算出することにより、位置検出するものである。
しかしながら、このような位置検出方法では、位置を検出するために複数の標識を用意し、且つそれらの位置関係を把握して位置を算出する必要がある。従って、例えば1つの標識の認識に失敗したりすることで正確な位置を算出することができなくなってしまったり、全ての標識を認識し更に位置を算出するため、位置検出するための処理時間が長くかかってしまったり、ロボット装置の移動範囲内に複数の標識を配置するための領域が必要になってしまう等、エンターテイメント用のロボット装置には不向きである。
本発明は、このような従来の実情に鑑みて提案されたものであり、移動体に複数の方向を認識させることができる方向認識用部材を使用することで、複数の方向を認識することができる方向認識装置、方向認識方法、及び方向認識システム、並びにそのような方向認識装置を搭載したロボット装置を提供することを目的とする。
上述した目的を達成するために、本発明に係る方向認識装置は、少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識装置であって、上記Nの方向を識別するためのN個の登録画像と、各登録画像に対応付けられた方向情報とが登録された記憶手段と、上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録画像とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録画像を抽出する画像認識手段と、上記抽出した登録画像に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有し、上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有することを特徴とする。
本発明においては、異なるNの各方向から認識可能な表示面を有する方向認識用部材を撮像した入力画像と、予め用意した方向情報に対応づけた登録画像と比較することで、入力画像から方向認識用部材の撮像方向を認識することができ、これにより、1つの物体である方向認識用部材により、N以上の複数の方向を認識することができる。
また、上記登録画像は、上記方向認識用部材の表面を上記Nの方向に応じて分割したN分割部分表面を含み該N分割部分表面より広い表面を識別するための画像であり、上記方向情報は、上記Nの方向に応じて設定することができ、例えば外周を360°に対応させたとき、360°/Nに対応させた表面より大きい表面を識別するための画像とすることにより、登録画像を、N分割部分表面より大きい表面とすることで、方向認識率を向上し、正確に方向認識することができる。
更に、上記方向認識用部材は、その表面に周期性がないパターンを有するものとすることができ、各登録画像は、各登録画像は、上記表面のパターンを示すパターンデータから、一のN分割部分表面を含み且つ当該一のN分割部分表面より大きい領域となるように切り出された画像、又は設定される方向情報が示す方向から上記方向認識用部材を撮像した撮像画像とすることができる。
更にまた、上記方向認識用部材は、柱状体であり、上記登録画像は、上記柱状体の側面を周方向にN分割したN分割部分側面を含み且つN分割部分側面より大きい側面を識別するための画像とすることができ、方向認識用部材が柱状体であれば設置しやすい。
本発明に係る他の方向認識装置は、少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識装置であって、上記Nの方向を識別するためのN個の登録領域を有する登録画像と、各登録領域に対応付けられた方向情報とが登録された記憶手段と、上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録領域とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録領域を抽出する画像認識手段と、上記抽出した登録領域に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有し、上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有することを特徴とする。
本発明においては、例えば方向認識用部材の撮像可能な範囲全体を登録画像としておき、その一部分の領域毎に方向情報を対応付けることにより、画像認識手段により、任意の方向から撮像した方向認識用部材と一致又は類似すると判断した登録領域を抽出することで方向を認識することができる。
本発明に係る方向認識方法は、少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識方法であって、記憶手段に登録された、方向情報が対応付けられ上記Nの方向を識別するためのN個の登録画像と、上記方向認識用部材を任意の方向から撮像した入力画像とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録画像を抽出する画像認識工程と、上記抽出した登録画像に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識工程とを有し、上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有することを特徴とする。
本発明に係る他の方向認識方法は、少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識方法であって、記憶手段に登録された、方向情報が対応付けられ上記Nの方向を識別するためのN個の登録領域と、上記方向認識用部材を任意の方向から撮像した入力画像とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録領域を抽出する画像認識工程と、上記抽出した登録領域に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識工程とを有し、上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有することを特徴とする。
本発明に係る方向認識システムは、少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材と、上記方向認識用部材を使用して方向認識する方向認識装置とを有し、上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有し、上記方向認識装置は、上記Nの方向を識別するためのN個の登録画像と、各登録画像に対応付けられた方向情報とが登録された記憶手段と、上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録画像とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録画像を抽出する画像認識手段と、上記抽出した登録画像に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有することを特徴とする。
本発明に係る他の方向認識システムは、少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材と、上記方向認識用部材を使用して方向認識する方向認識装置とを有し、上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有し、上記方向認識装置は、上記Nの方向を識別するためのN個の登録領域を有する登録画像と、各登録領域に対応付けられた方向情報とが登録された記憶手段と、上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録領域とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録領域を抽出する画像認識手段と、上記抽出した登録領域に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有することを特徴とする。
本発明に係るロボット装置は、少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識装置を搭載し自律的に動作するロボット装置であって、上記方向認識装置は、上記Nの方向を識別するためのN個の登録画像と、各登録画像に対応付けられた方向情報とが登録された記憶手段と、上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録画像とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録画像を抽出する画像認識手段と、上記抽出した登録画像に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有し、上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有することを特徴とする。
本発明に係る他のロボット装置は、少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識装置を搭載し自律的に動作するロボット装置において、上記方向認識装置は、上記Nの方向を識別するためのN個の登録領域を有する登録画像と、各登録領域に対応付けられた方向情報とが登録された記憶手段と、上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録領域とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録領域を抽出する画像認識手段と、上記抽出した登録領域に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有し、上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有することを特徴とする。
本発明に係る方向認識装置及びシステムによれば、異なるNの各方向から識別可能な表示面を有する方向認識部材を使用し、そのNの方向を識別するためのN個の画像とこれ対応付けられた方向情報とを予め登録しておくことで、入力画像に含まれる方向認識用部材に一致又は類似する登録画像を識別して抽出し、抽出された登録画像に対応付けられた方向情報に基づき撮像方向を認識することができる。
また、このような方向認識可能な方向認識装置をロボット装置に搭載すれば、撮像方向を認識することができ、例えば距離センサ等により距離を認識すれば、物体に近づく際に距離と物体に対する方向を認識することで、効率よく物体に接近することができ、より知的に見える動作を発現させることができる。
以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。この実施の形態は、本発明を、物体の方向を認識可能な方向認識装置及びこれを搭載した2足又は4足のロボット装置に適用したものである。
方向認識装置及びロボット装置は、方向を認識するための方向認識用部材を使用して方向を認識する。ここでは、先ず移動体に方向を認識させるための方向認識用部材とこれを使用することで方向を認識可能な方向認識装置について説明し、次に、本発明における方向認識装置が方向認識用部材を認識するために好適な認識技術の一具体例について説明し、最後に方向認識装置を搭載するロボット装置について説明する。
(1)方向認識用部材による方向認識
先ず、ロボット装置等の移動体に方向認識させるための方向認識用部材について説明する。本実施の形態における方向認識用部材は、方向認識用部材を、この方向認識用部材を中心に異なる方向から撮像した際に、その異なる方向毎に識別可能な表示面を有したものである。例えばロボット装置等の移動体が、この識別可能な表示面を方向情報に対応付けておけば、該表示面を識別して方向(方位)を認識することができる。
先ず、ロボット装置等の移動体に方向認識させるための方向認識用部材について説明する。本実施の形態における方向認識用部材は、方向認識用部材を、この方向認識用部材を中心に異なる方向から撮像した際に、その異なる方向毎に識別可能な表示面を有したものである。例えばロボット装置等の移動体が、この識別可能な表示面を方向情報に対応付けておけば、該表示面を識別して方向(方位)を認識することができる。
例えば、方向認識用部材が円柱状(以下、ポールという。)とされる場合、上記識別可能な表示面として、その側面に周期性を持たないパターン(模様)を有したものとすることができる。このポールを地面に垂直に設置し、例えばその略中心軸に対して垂直方向、すなわち地面に平行方向に放射状にN等分に分割し、このN分割した各部分表面に対して異なる方向情報を設定する。この部分表面を示す画像と対応する方向情報とを予め登録しておき、方向認識装置やこれを搭載したロボット装置等が、上記登録された複数の画像(登録画像)と、方向認識用部材を撮像した際の画像(入力画像)とを比較し、入力画像に一致又は類似する登録画像を選択することで、選択された登録画像に対応付けられた方向情報、すなわち撮像方向を獲得することができる。
図1は、本実施の形態における方向認識用部材としてのポールを示す斜視図、図2は、そのポールの側面の展開図を示す図であって、方向を認識させるための表示面を示す模式図である。
図1に示すように、円柱状のポール100を地面に対して垂直方向に設置し、このポール100の略中心軸101から中心軸101に垂直方向に放射状にN個、すなわち中心角が360°/Nになるよう分割する。こうしてNに分割した領域に含まれるポール100の側面である各N分割部分側面SNに対して一の方向を示す方向情報を設定することで、計N方向を認識可能とするものである。ここで設定される方向情報は、ポール100の中心軸からの放射方向に対応するものとすることができる。
以下の説明では、簡単のため、分割数N=8として説明するが、分割数Nは必要に応じて設定することができ、例えばN=4や、N=16等としてもよいことは勿論である。
このポール100の側面には、図2に示すように、方向情報が設定される表示として、全体としては周期性を持たない幾何学模様が記載される。なお、微少単位の周期性はあってもよく、後述するように、方向認識用領域ARNが画像認識部により互いに認識可能なレベルで異なるパターンとなっていればよい。
また、本実施の形態においては、方向を認識するために識別可能な表示面がポール100の側面に形成されるものとするが、方向認識用部材が例えば球状である場合は、その全表面に形成され、また、例えば半円柱形とされ壁に面して設置されるような場合は、壁に接する以外の側面に形成されるものとすることができる。すなわち、撮像手段を有するロボット装置等の移動体により撮像可能な部分が方向認識用の表示面となる。
また、本実施の形態においては、設定される方向から方向認識用部材を撮像した場合に一意に特定できるパターンが形成されるものとして説明するが、方向認識用の表示面としては、後述する画像認識部にて認識可能であれば、パターンに限らず凹凸部等を形成したものであってもよい。
本実施の形態においては、8つの方向情報を設定するために、放射状に8等分に分割した各放射状領域に含まれる8つのN分割部分側面SN=S0〜S7に対応した方向情報が設定される。この分割部分側面SN=S0〜S7は、図2に示す側面展開図上では、ポールの高さHP、半径RPとすると、高さHP、幅が2πRP/Nの矩形領域に相当する。
図3は、ポール100の上面図であって、領域分割方法を説明する図である。図3に示すように、中心軸101から放射状にN=8等分に分割すると、中心角45°の放射状領域APN(AP0〜AP7)が形成される。すなわち、センタACN=AC0〜AC7を、各放射状領域APNの角二等分線の延長とポール100の円弧との接点とすると、このセンタACNを中心に中心角45°の円弧を含むN分割部分側面SNが放射状領域APNに含まれることになる。
次に、これらのN分割部分側面SNに対して方向情報を設定する。例えば、中心軸101とセンタAC0とを結ぶ線を基準(=0°)にすると、各センタAC1〜AC7は、AC0からの角度がそれぞれ45°、90°、・・・315°となる。したがって、N分割部分側面S0〜SNに対して、それぞれ45°、90°、・・・315°の方向情報を設定することができる。これにより、例えば、方向情報=90°に設定されるN分割部分側面S2を含む放射状領域AP2内のポール100を撮像可能な位置に方向認識装置を搭載したロボット装置1が移動した場合、ロボット装置1は、このポール100の放射状領域AP2に含まれるN分割部分側面S2を認識することで、このN分割部分側面S2に対して設定された上記方向情報=90°を獲得する。
次に、本実施の形態における方向認識装置について説明する。図4は、本実施の形態における方向認識装置を示すブロック図である。図4に示すように、方向認識装置110は、CCDカメラやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等からなる撮像部111と、所定の方向から撮像されたポール100を認識するための画像からなる登録画像と該登録画像に対応付けられた方向情報とが複数登録された登録画像データベース112と、撮像部111により方向認識用部材としてのポール100を撮像した入力画像が入力され、登録画像データベース112を参照し、入力画像に含まれる方向認識用部材に一致又は類似すると判断された登録画像を抽出する画像認識部113と、画像認識部113にて抽出された登録画像に対応付けられた方向情報に基づき方向を認識して出力する方向認識部114とを有する。
画像登録データベース112は、上述したN分割部分側面SNを含む登録画像と、これと対応付けられた方向情報、すなわちポール100の中心軸101から放射状にN分割したN分割部分側面SNに割当てられたNの方向を示す方向情報とが記憶されている。画像登録データベース112に登録する登録画像としては、予め用意されたパターンデータから登録画像となる領域を切り出したものを登録してもよく、また、ポール100をNの方向から実際に撮影した画像又は撮影した画像を加工した画像等としてもよい。
ところで、例えばN=8の方向を認識するためには、図2に示すように、パターンが付された側面領域を8個に分割した8分割部分側面SNを方向情報を示す表示面とし、これを画像認識する方法が考えられる。ここで、図1からも明らかなように、ポール100がカメラ等により撮像された場合、本実施の形態にて設定する中心角45°の円弧を含むN分割部分側面S1より広い範囲、例えば中心角150°乃至180°程度の円弧を含む部分側面が含まれる。このような知見に基づき、本願発明者等は、N個の方向情報を設定する場合、すなわちポール100の側面を周方向にN分割したN分割部分側面SNに対して異なる方向情報を設定する場合、この方向情報を示す表示面となるN分割部分側面SNより、広い範囲を方向認識用の登録画像として登録することにより、画像認識率が向上し、誤認識が低減することを見出した。
すなわち、N分割後のN分割部分側面SNの横辺となる円弧に対する中心角は360°/Nであるが、方向認識用登録画像としては、(360°/N)<中心角θに対する円弧を含む領域、すなわち、周方向2πRP/Nより大きい幅を有する領域を方向認識用の登録画像とする。ここで、N分割部分側面SNに対応付けた方向情報を認識するための方向認識用の登録画像には、当該N分割側面領域SNが含まれるが、このN分割側面領域SNが略中心に位置するように方向認識用領域を設定する。このように登録範囲を設定することで、方向情報を獲得するために認識する表示として登録可能な領域が、N分割部分側面より広域となるため、誤認識を低減させることができる。
例えば図2に示すように、センタAC2のN分割部分側面S2の方向認識用の登録画像は、その左右のN分割側面領域S1及びS3などを含む方向認識用領域AS2を少なくとも含む画像とし、センタAC3のN分割部分側面S3の方向認識用の登録画像は、N分割部分側面S2〜S4などを含む方向認識用領域AS3を少なくとも含む画像とする。
従って各方向認識用の登録画像ASNに含まれる方向認識用領域ASNは、互いにオーバーラップ部分を有するものとなる。ここで、方向認識装置110は、各方向認識用の方向認識用領域ASNを個別に識別することで、これに含まれるN分割部分側面SNに対応付けられた方向情報を得るものであるため、各方向認識用領域ASNは互いに識別可能なユニークなものとする必要がある。図2は、そのようなパターンを示す一例である。方向認識用登録領域ASNを互いに識別可能な表示とするためのパターンとしては、例えばこのように周期性がない幾何学模様が挙げられる。
図5は、パターンデータから方向認識用領域を切り出して登録画像として登録する場合の登録方法を示すフローチャートである。図5に示すように、先ず、図2に示すようなポール100の側面展開図に相当するパターンデータを用意する。そして、円周方向の任意の点を基準に円周方向にN等分に分割する。図2に示す場合では、例えは、任意の点をセンタAC0とし、センタAC0から2πRP/N(中心角が360°/Nの円弧)の間隔、すなわちセンタAC0を中心にして周方向を上記円弧の長さとすると、8個のN分割側面領域S0〜S7に分けられる。そして、この各N分割部分側面SNを中心に、周方向がN分割部分側面SNより長く、従ってN分割部分側面SNより面積が大きい方向認識用領域ASNを方向認識用登録画像として切り出す(ステップS1)。例えばセンタAC2のN分割部分側面S2を含む方向認識用領域AS2が方向認識用登録画像となる。
すなわち、図2の展開図においては、中心軸101から中心角45°の放射状領域APNに対して一の方向情報を対応付けるため、一の方向情報には、中心角45°の扇形の円弧が横辺となるN分割部分側面S2に対応するが、上記一の方向情報を認識するために使用する方向認識用領域AS2は、N分割部分側面S2を含み、中心角150°の扇形の円弧を横方向とする領域とすることで、N分割部分側面S2より広く設定するものとする。そして、ここではこの方向認識用領域AS2を登録画像view2とする。
そして、同様に、中心角45°の円弧分、例えば左方向にずらして、中心角150°の扇形の円弧を横方向とする方向認識用領域AS3を切り出し、これを登録画像view3とし、・・・というように、展開図において、中心角45°の円弧分ずらして方向認識用領域ASNを切り出し登録画像viewNを作成する(ステップS2)。
こうして作成されたN個の方向認識用領域ASNを方向認識用登録画像viewNとして登録する。図6は、N=8の方向認識用登録画像viewNの登録例を示す図である。図6に示すように、8つの登録画像viewNが登録される。各登録画像viewNには、その略中央部分にN分割部分側面SNが位置し、それ以外の領域は、他の登録画像とオーバーラップする領域となる。そして、これら8つの登録画像viewNに対し、それぞれ例えば、0°、45°、90°、・・・、315°等の方向情報が対応付けられ、登録データベース112に記憶される。上述したように、これら登録画像viewNは、互いにユニークなパターンを有し、方向情報を得るための表示(標識)となっている。このように方向認識用登録画像を作成すれば、方向認識用登録画像がそのまま表示を示すものとなり、入力画像に含まれるポール100に一致又は類似する方向認識用登録画像を識別しやすい。
また、方向認識用登録画像は、図2に示すようなポール100の側面に相当するパターンデータから、各方向認識用領域ASNを切り出して登録することができる他、ポール100に対して設定する方向から実際にポール100を撮像した撮像画像を登録画像として使用することができる。
従って、上述のステップS1及びS2における登録画像の作成に際しては、カメラ等の撮像手段により、実際にポール100を撮影する。例えば、この方向認識装置を後述するロボット装置に搭載する場合には、そのロボット装置が有する撮像手段によりポール100を45°ずつ回転させて撮影し、Nの方向情報に対応付ける方向認識用の登録画像viewNを作成することができる。この場合、上述とは異なり、登録画像viewN内には、方向認識用領域とその背景とが含まれる場合がある。そこで、図7に示すように、各登録画像viewNを撮影する際に背景が含まれるような場合には、濃淡がない等、特徴的な領域として抽出されないようなものを背景として撮影する。この際、各登録画像viewNを撮影する条件を同じにすることが好ましい。
また、同一方向情報に対応付けられる登録画像を複数登録してもよい。例えば複数の環境下で同一の方向情報を獲得できるように同一方向に向けてキャプチャした複数の画像を登録しておくことにより、環境によるロバスト性を高めることができる。例えばカメラによりキャプチャした画像を登録画像とする場合、登録画像と入力画像との照明等、環境の違いにより、入力画像から登録画像に一致又は類似するものを識別しにくい場合等がある場合には、異なる明度等で同一の方向情報を対応づけた登録画像viewNを撮影し、これらをグループとして登録しておいてもよい。
このように、複数枚の画像を登録することにより、複雑な環境下においても安定してポールの撮像方向を認識することができる。図8(a)乃至(c)に示すように、方向を認識させるためのポール100は、様々な環境下に設置されることが想定される。したがって、このような異なる環境下では、ポール100と背景との境界の区別がつきにくい場合が生じる。そのような場合においても、ポール100を安定して認識できるようにするために、複数の背景でキャプチャした画像を登録をすることで様々な環境下でのロバスト性を向上することができる。
具体的に、例えば背景色が白となるようにしてポール100を撮像した画像と、背景色が黒となるようにしてポール100を撮像した画像とを登録する等する。また、図8(a)乃至図8(c)に示すような環境下で、ポール100と若干の背景を含むように撮像するか、又は切り出した画像を登録しておいてもよい。
更に、複数の登録画像を同一方向情報に対応付けて登録する他の例として、遠い距離の認識用に全体像を示す画像と、近い距離の認識用に部分の詳細を示す画像等を登録すれば、認識距離の幅を広げることができる。
また、ポール100は、図2に示すような周期性がない幾何学模様を有するものとしたが、N分割後の分割領域が識別可能なパターンであれば幾何学模様以外でもよく、例えば図9に示すようなパターンを有する他のポールを用意し、同様にN方向を認識させるものとすることもできる。
図4に戻って、画像認識部113は、入力画像に含まれるポール100に一致又は類似すると判断した登録画像を抽出する。この画像認識部113として、本願出願人が先に出願した例えば特願2003−124525号に記載の画像認識装置等を使用することができる。上記画像認識装置は、撮像部111からの入力画像及び上記登録画像データベース112の登録画像からそれぞれ特徴点を抽出する特徴点抽出部と、それぞれ抽出された各特徴点について特徴量を抽出し、この特徴量と特徴点の位置情報とを保持するするそれぞれ特徴量保持部と、両者の各特徴点の特徴量を比較して類似度又は相違度を計算し、この類似尺度を用いて特徴量が類似する、すなわち対応する可能性が高い特徴点ペア(候補対応特徴点ペア)を生成する特徴量比較部と、上記候補対応特徴点ペアから入力画像に含まれるポールに一致する方向認識用登録画像を検出する推定部とを有する。
特徴量比較部は、入力画像の各特徴点と登録画像の各特徴点とを比較し、比較対象となる特徴点同士の濃度勾配方向ヒストグラムの一方を濃度勾配方向に巡回的にシフトさせながら順次求めた該濃度勾配方向ヒストグラム間の距離のうち、最小の距離を該濃度勾配方向ヒストグラム間の最小距離とし、該最小距離が所定の閾値以下の特徴点ペアを候補対応特徴点ペアとする。
また、推定部は、生成された候補対応特徴点ペア群を用いて入力画像上にポール100の表示面が含まれるか否かを検出する。この画像認識部113は、登録画像と入力画像とを比較した際、入力画像に含まれるポール100が登録画像より大きかったり、多少変形していたりしても、各画像における特徴点を抽出して比較するためにそれらの識別が可能である。なお、この認識装置の詳細については後述する。
方向判定部14は、画像認識部113にて抽出された登録画像に対応付けられた方向情報に基づき認識方向を出力する。ここで、画像認識部113にて、一致又は類似するとされた登録画像viewNが1つであれば、その登録画像viewNに対応付けられている方向情報を読出しこれを出力する。
また、一致又は類似するとされた登録画像viewNが複数ある場合には、予め決められた所定の選択基準に従って方向情報を出力するものとする。上述した図6に示す登録画像viewNは、中心角150°の円弧を含む方向認識用領域ASNを示すパターンデータであり、登録画像viewNは他の登録画像とオーバーラップ部分を有している。従って、周囲の環境やポール100を撮影する位置等においては、複数の登録画像viewNと一致すると判断する場合がある。例えば、図3において、放射状領域AP2と放射状領域AP3との間にてポール100をカメラで撮影したものを入力画像とする場合、登録画像view2と登録画像view3とを認識する可能性がある。また、放射状領域P2内にてポール100の認識を行った場合に、例えば登録画像view1〜view3を認識する可能性がある。
そこで、予め決めておく所定の選択基準としては、例えば、一致するとされた複数の登録画像viewNの中で最も類似性が高いもの、最もスコアが大きいものを一致した登録画像viewNとし、これに対応付けられた方向情報を認識方向として出力することができる。又は、スコアが所定値以上のものが複数あるような場合には、スコアに応じて重み付けした方向情報を認識方向としてもよい。
又は、例えば一致するとされた登録画像viewNが3つ等、奇数であった場合、その中心に位置する登録画像viewNに対応付けられた方向情報を認識方向として出力することができる。また、2つ等、偶数であった場合には、方向認識用登録画像viewn及び登録画像viewn+1に対応付けられた方向情報の中間値を認識方向として出力することができる。このように中間値を認識方向とする場合には、Nに分割してNの方向を認識するために用意した各登録画像から、2×Nの方向を認識できることになる。
以上説明した方向をさせる認識するための標識となるポール100は、例えばロボット装置1における充電ステーション等に設置することができる。充電ステーションに設置する場合には、ロボット装置1は、予めポール100のどの方向に充電ステーションが位置するかの情報を有しているものとする。ロボット装置は、認識したポール100の例えば入力画像に対するポール100の大きさや、距離センサ等からポール100までの距離を認識することができ、更にポール100に対する方向が認識でき、これらの情報により、どちらの方向からどのようにポール100に近づけば充電しやすいかを判断し、最適な経路計画を立てて実行することができる。
すなわち、例えばセンタAC0と向かい合った状態で充電されるよう放射状領域AP0に充電ステーションが設置される場合、方向認識装置110を搭載したロボット装置1は、ポール100を撮像した入力画像と、複数の登録画像とを比較し、入力画像に含まれるポール100に一致する登録画像を選択することで、ポール100に対する撮像方向認識できるため、例えば現在の位置が放射状領域AP2であるという方向情報を得ることができる。この方向情報を獲得することで、ロボット装置1は、90°時計周りの方向に回りこむ動作を発現することができる。
ここで、方向情報は、上述したように、例えばN分割部分側面S0を0°として、N分割部分側面S1は45°、N分割部分側面S2は90°といった角度情報としたが、その方向情報に対して更に所定の行動が関連付けられたものであってもよい。すなわち、上述の例では方向情報に、更にロボット装置1が90°時計周りの方向に回りこむ動作が予め対応付けられてもよい。
いずれにおいてもポール100から方向情報を獲得することにより、ロボット装置1が進みたい方向と獲得した方向情報とから充電ステーションへの最適な経路計画を立てて行動することができ、このような行動が可能になることにより、ロボット装置1が知的に見える手助けとなる。
なお、本発明は上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。上述の実施の形態においては、図2に示すような周期性のない幾何学模様として説明したが、これに限らず、例えば上述したように、図9に示す風景画やイラスト等でもよく、また、テキスト等が記載されたものであってもよい。すなわち、異なる方向から撮像した際の異なる方向に応じて識別可能な表示を有していれば、どのようなものであってもよい。
更に、カメラでキャプチャした入力画像と方向認識用登録画像とを比較し、対象物を検出するため、図2に示すパターンを側面に有するポール100に限らず、設定する方向から撮像した際に異なる表示として識別できればよく、表面に凹凸や、突起部等を形成したものであってもよい。また、円柱状ではなく、三角、四角、五角柱等の多角柱であってもよい。更に、例えば壁際に設置したいような場合には、半円柱状等とすることもでき、方向情報を設定して方向を認識させたい領域にのみ識別可能なパターンを形成すればよく、方向情報の設定が不要な領域等を除いた部分に、方向情報としての表示を形成すればよい。
また、本実施の形態においては、円柱状のポールとして説明したが、例えば円錐、多角推、又は球形等であってもよい。但し、この場合においても、方向認識用部材としては、例えば地球儀のように視野角に応じて異なるパターンを有するものとする。
更に、本実施の形態においては、N等分に分割するものとして説明したが、等分ではなく、例えば認識させたい重要度等に応じて、方向情報を対応付けるために分割する分割領域の大きさを異ならせて設定してもよい。
(2)画像認識部における画像認識
次に、上述の画像認識部113に好適な一具体例として、本願出願人が先に出願した特願2003−124525号に記載の画像認識装置について詳細に説明する。この画像認識装置は、1以上のオブジェクトを含む入力画像(以下、オブジェクト画像という)。と、検出対象となるモデルを含むモデル画像とを比較し、オブジェクト画像からモデルを抽出するものである。ここで、モデルが上述した登録領域に相当する。
次に、上述の画像認識部113に好適な一具体例として、本願出願人が先に出願した特願2003−124525号に記載の画像認識装置について詳細に説明する。この画像認識装置は、1以上のオブジェクトを含む入力画像(以下、オブジェクト画像という)。と、検出対象となるモデルを含むモデル画像とを比較し、オブジェクト画像からモデルを抽出するものである。ここで、モデルが上述した登録領域に相当する。
図10は、画像認識装置の概略構成を示す図である。図10に示す画像認識装置201において、特徴点抽出部210a,210bは、モデル画像及びオブジェクト画像からそれぞれモデル特徴点及びオブジェクト特徴点を抽出し、特徴量保持部211a,211bは、抽出された各特徴点について後述する特徴量を抽出し、特徴点の位置情報と共に保持する。そして特徴量比較部212は、各モデル特徴点の特徴量と各オブジェクト特徴点の特徴量とを比較して類似度又は相違度を計算し、この類似尺度を用いて特徴量が類似する、すなわち対応する可能性の高いモデル特徴点及びオブジェクト特徴点のペア(候補対応特徴点ペア)を生成する。
モデル姿勢推定部213は、生成された候補対応特徴点ペア群を用いてオブジェクト画像上のモデルの有無を検出し、「モデル有」の判定結果の場合には、「検出されるモデルはオブジェクト画像上へのアフィン変換による画像変形が施されている」という拘束条件の下、候補対応特徴点ペア群からランダムに選択した3ペアにより決定されるアフィン変換パラメータをパラメータ空間に投射する操作を繰り返し、パラメータ空間上で形成されたクラスタのうち最多メンバ数を持つクラスタの各メンバを真の特徴点ペア(インライヤ)とし、このインライヤを用いた最小自乗推定によりアフィン変換パラメータを求める。そして、モデル姿勢推定部213は、このアフィン変換パラメータで決定されるモデル姿勢をモデル認識結果として出力する。
以下、上記画像認識装置201の各ブロックについて詳細に説明する。なお、以下では、画像の水平方向をX軸、垂直方向をY軸として説明する。
特徴点抽出部210a,210bは、特徴点抽出対象画像(モデル画像又はオブジェクト画像)に対し、先ず平滑化フィルタリング、例えば以下の式(1)で示す2次元ガウス関数による畳み込み積(ガウスフィルタリング)と、双2次線形補間リサンプリングによる画像縮小とを繰り返し交互に適用することで、画像の多重解像度ピラミッド構造を構築する。ここで、リサンプリングファクタとしては、式(1)のガウスフィルタで用いたσを用いる。
すなわち、図11に示すように、例えば入力画像Iにσ=√2であるガウスフィルタg(x、y)を施すことにより第1レベル(最高解像度)の画像I1を生成し、さらにガウスフィルタを施すことにより画像g*I1を生成する。そして、この画像g*I1をリサンプリングしてガウスフィルタを施すことにより第2レベルの画像I2,g*I2を生成し、同様にして画像g*I2から第3レベルの画像I3,g*I3を生成する。
続いて、特徴点抽出部210a,210bは、各レベル(各解像度)の画像に対して、DoG(Difference of Gaussian)フィルタを適用する。このDoGフィルタは、画像の輪郭強調のために用いられる2次微分フィルタの一種であり、人間の視覚系で網膜からの情報が外側膝状体で中継されるまでに行われている処理の近似モデルとして、LoG(Laplacian of Gaussian)フィルタと共によく用いられるものである。DoGフィルタの出力は、2つのガウスフィルタ出力画像の差分を取ることにより容易に得られる。すなわち、図11に示すように、第1レベルの画像について画像DI1(=I1−g*I1)が得られ、第2レベル,第3レベルの画像について画像DI2(=I2−g*I2),画像DI3(=I3−g*I3)が得られる。
そして、特徴点抽出部210a,210bは、各レベルにおけるDoGフィルタ出力画像DI1,DI2,DI3・・・の局所点(局所極大点及び局所極小点)のうち、所定の範囲内の解像度変化によって位置の変化がないような点を特徴点として検出する。これにより、画像の拡大縮小操作に対してロバストな特徴点間のマッチングが実現できる。
ここで、多重解像度ピラミッド構造の第Lレベル、すなわちσの(L−1)乗ファクタまでの解像度変化によって位置の変化がないような特徴点を検出する際の処理について図12のフローチャートを用いて説明する。
先ずステップS11において、第1レベル(最高解像度)におけるDoGフィルタ出力画像DI1の局所点(局所極大点及び局所極小点)を検出する。なお、局所近傍としては、例えば3×3直接近傍を用いることができる。
次にステップS12において、検出された各局所点について、その1つ上位レベル(解像度の1つ低い層)における対応点を解像度減少に伴う画像縮小を考慮して求め、この対応点が局所点か否かを判別する。局所点である場合(Yes)にはステップS13に進み、局所点でない場合(No)には探索を終了する。
続いてステップS13では、第Lレベルまで探索が成功したか否かを判別する。第Lレベルまで探索を行っていない場合(No)にはステップS12に戻ってさらに上位レベルの探索を行い、第Lレベルまで探索が成功した場合(Yes)には特徴点であるとして、ステップS14においてその位置情報を保持する。
例えば第3レベルまでの解像度変化によって位置の変化がないような特徴点を検出する場合、図13に示すように、第1レベルの画像DI1において検出された局所点FP1,FP2のうち、FP1は第3レベルの画像DI3まで対応点が存在するため特徴点とされ、FP2は第2レベルまでしか対応点が存在しないため特徴点でないとされる。
なお、この特徴点抽出部210a,210bでは、DoGフィルタの代わりにLoGフィルタを用いるようにしてもよい。また、文献「Harris C. and Stephens M.,“A combined corner and edge detector.”, in Proc. Alvey Vision Conf., pp.147-151, 1988」で物体のコーナー検出に用いられているcorner-ness 関数の出力値をDoGフィルタ出力の代わりに用いるようにしてもよい。
次に、特徴量保持部211a,211b(図10)は、特徴点抽出部210a,210bにて抽出された各特徴点について特徴量を抽出し、保持する。特徴量としては、多重解像度ピラミッド構造の各レベルの画像(Il,l=1,…,L)の画像情報から導出される特徴点の近傍領域各点の濃度勾配情報(勾配強度及び勾配方向)を用いる。点(x、y)における勾配強度Mx,y及び勾配方向Rx,yは以下の式(2),(3)により与えられる。
ここで、特徴量を算出する特徴点近傍領域としては、回転変化に対して構造の変わらないような、特徴点に関して対称なものを選択することが好ましい。これにより、回転変化に対するロバスト性を実現することができる。例えば、(i)特徴点から半径rピクセルの範囲内を特徴点近傍領域とする手法や、(ii)特徴点を中心に幅σの特徴点に関して対称な2次元ガウス重みを濃度勾配に掛ける手法を用いることができる。
特徴点から半径3.5ピクセルの範囲内を近傍領域とした場合における特徴点近傍領域の濃度勾配情報の例を図14(a)に示す。ここで、図14(a)において矢印の長さは勾配強度を表し、矢印の方向は勾配方向を表す。
また、特徴量保持部211a,211bは、特徴点近傍の勾配方向に関するヒストグラム(方向ヒストグラム)も特徴量として保持する。図14(a)の濃度勾配情報から得られる勾配方向ヒストグラムの例を図14(b)に示す。ここで、図14(b)における階級幅Δθは10deg であり、階級数Nは36(=360deg /10deg )である。
続いて、特徴量比較部212(図10)は、各モデル特徴点の特徴量と各オブジェクト特徴点の特徴量とを比較し、類似する特徴量を有するモデル特徴点及びオブジェクト特徴点のペア(候補対応特徴点ペア)を生成する。
この特徴量比較部12における処理の詳細について、図15のフローチャートを用いて説明する。先ず、ステップS20において、特徴量比較部212は、各モデル特徴点の方向ヒストグラムと各オブジェクト特徴点の方向ヒストグラムとを比較してヒストグラム間の距離(相違度)を計算すると共に、モデル−オブジェクト間の推定回転角度を求める。
ここで、階級幅Δθと階級数Nとが同一である2つの方向ヒストグラムH1={h1(n),n=1,…,N}及びH2={h2(n),n=1,…,N}を想定し、h1(n),h2(n)が階級nにおける度数を示すものとすると、ヒストグラムH1とヒストグラムH2との間の距離d(H1,H2)は、例えば以下の式(4)で与えられる。ここで、式(4)におけるrとしては、r=1,2,∞が一般的に用いられる。
この式(4)を用いて各モデル特徴点及び各オブジェクト特徴点の方向ヒストグラム間の相違度を計算するが、(i)モデル−オブジェクト間のスケール比がマッチング段階で未知であるため、モデル特徴点の各レベルとオブジェクト特徴点の各レベル間で方向ヒストグラム間のマッチングを行う必要がある。また、(ii)方向ヒストグラム間のマッチングに関しては、モデル−オブジェクト間の回転変換量を考慮する必要がある。
モデル特徴点mのレベルLVにおける方向ヒストグラムHm LV={hm LV(n),n=1,…,N}と、オブジェクト特徴点oのレベルlvにおける方向ヒストグラムHo lv={ho lv(n),n=1,…,N}との相違度を求める場合を考える。方向ヒストグラムは回転変換に対して巡回的に変化するため、Ho lvを巡回的に階級を1つずつシフトさせながら式(4)の計算を行い、その最小値をHm LVとHo lvとの間の相違度とする。このとき、相違度の最小値を与えた時のシフト量(ずらした階級数)からオブジェクト特徴点の回転角度を推定することができる。なお、この手法は方向ヒストグラム交差法として知られている。
Ho lvをk階級分シフトさせた方向ヒストグラムをHo lv(k)とすると、方向ヒストグラム交差法による方向ヒストグラム間相違度dissimilarity(Hm LV,Ho lv(k))は、以下の式(5)で与えられる。
また、最小のd(Hm LV,Ho lv(k))を与えるkをk’とすると、オブジェクト特徴点oの近傍領域における推定回転角度θ(m,LV,o,lv)は以下の式(6)で与えられる。
上述の(i)を考慮すると、モデル特徴点mとオブジェクト特徴点oとの方向ヒストグラム間相違度dissimilarity(Hm,Ho)は、以下の式(7)のようになる。
特徴量比較部212は、モデル特徴点mとオブジェクト特徴点oとの各ペア(m、n)に対し、最小の方向ヒストグラム間相違度dissimilarity(Hm,Ho)を与えるレベルLV,lv(以下、それぞれLVm *,lvo *と表記する。)と、その推定回転角度θ(m,LVm *,o,lvo *)とを、方向ヒストグラム間相違度dissimilarity(Hm,Ho)と共に保持する。
次にステップS21(図15)において、特徴量比較部212は、各モデル特徴点mに対し方向ヒストグラム間相違度の小さい順にK個のオブジェク特徴点om1,…,omKを選択し、候補対応特徴点ペアを組ませる。すなわち、各モデル特徴点mに対してK個の候補対応特徴点ペア(m、om1),…,(m、omk),…,(m、omK)が組まれる。また、各候補対応特徴点ペア(m、omk)には対応するレベルLVm *,lvomk *と推定回転角度θ(m,LVm *,o,lvomk *)との情報が保持される。
以上のようにして、全モデル特徴点に対し候補対応特徴点ペアを組ませることで得られたペア群が、候補対応特徴点ペア群となる。
このように、特徴量比較部212では、ヒストグラム度数に勾配強度を累積しておらず、単に勾配方向のみに注目しているため、明度変化に対してロバストな特徴量マッチングが可能になる。また、本実施の形態では方向ヒストグラムの形状を考慮したより安定なマッチングを行うことができる。更に、二次的に安定した特徴量(推定回転角度)を得ることができる。
なお、上述のステップS21では、各モデル特徴点mに対してK個の候補対応特徴点ペアを選択するものとして説明したが、これに限定されるものではなく、方向ヒストグラム間相違度が閾値を下回るペア全てを選択するようにしてもよい。
ここで、上述の操作で生成された候補対応特徴点ペア群は、方向ヒストグラムが類似するものの濃度勾配の空間的特徴が異なっているような対応点ペアも含んでいる。そこで、続くステップS22(図15)では、濃度勾配ベクトル間類似度によるペアの選択、候補対応特徴点ペア群の更新を行う。
具体的には、モデル特徴点mの近傍のレベルLVm *における濃度勾配ベクトルをUmとし、このモデル特徴点mと対応点ペアを組むオブジェクト特徴点oの近傍のレベルlvomk *における濃度勾配ベクトルをUoとしたとき、UmとUoとの類似度が閾値を下回るペアを排除し、候補対応特徴点ペア群を更新する。
濃度勾配ベクトルUm,Uo間の類似度の計算手法を図16に示す。先ず、Umを空間的に4領域Ri(i=1,…,4)に分割し、各領域の平均濃度勾配ベクトル<Vi>(i=1,…,4)を求める。この<Vi>をまとめた8次元ベクトル<V>でUmが表現される。一方、回転変換を考慮した濃度勾配情報のマッチングを行うために、Uoの勾配方向を先に求めた推定回転角度θ(m,LVm *,o,lvomk *)で補正し、Uo *を得る。この際、中間位置の値は、双2次線形補間により求める。先と同様にUo *を4領域Ri(i=1,…,4)に分割し、各領域の平均濃度勾配ベクトル<Wi>(i=1,…,4)を求める。この平均濃度勾配ベクトル<Wi>をまとめた8次元ベクトル<W>でUoが表現される。このとき、UmとUoとの類似度similarity(Um、Uo)∈[0,1]は、平均濃度勾配ベクトル<V>と<W>との類似度として解釈され、例えばコサイン相関値を用いて以下の式(8)により求められる。ここで、式(8)において(<V>・<W>)は<V>と<W>との内積を表す。
特徴量比較部212は、各候補対応特徴点ペアに対して上記式(8)で得られる平均濃度勾配ベクトル間の類似度を求め、類似度が閾値δを下回るペアを候補対応特徴点ペア群から排除し、候補対応特徴点ペア群を更新する。
このように、特徴量比較部212では、部分領域の平均濃度勾配ベクトルを用いて特徴量の比較を行っているため、特徴点位置や推定回転角度の微妙なずれや、明度の変化による濃度勾配情報の変化に対してロバストなマッチングを実現することができ、計算量の削減にもなる。
以上の操作により、特徴点近傍の局所的な濃度勾配情報が類似する(モデル特徴点−オジェクト特徴点)ペア群を抽出することができるが、巨視的に見ると、このように得られたペア群は、対応特徴点間の空間的位置関係がモデルのオブジェクト画像上での姿勢(モデル姿勢)と矛盾するような「偽の特徴点ペア(アウトライヤ)」を含んでしまっている。
ここで、候補対応特徴点ペアが3組以上ある場合には、最小自乗推定により近似アフィン変換パラメータの推定が可能であり、推定モデル姿勢と空間的位置関係の矛盾する対応ペアを排除し、残ったペアで再びモデル姿勢推定を行うという操作を繰り返すことで、モデル姿勢を認識することができる。
しかしながら、候補対応特徴点ペア群中のアウトライヤが多い場合や真のアフィン変換パラメータから極端に逸脱したアウトライヤが存在する場合には、最小自乗推定による推定結果は一般的に満足のいくものではないことが知られている(Hartley R., Zisserman A.,“Multiple View Geometry in Computer Vision.”, Chapter 3, pp.69-116, Cambridge University Press, 2000)ため、本実施の形態におけるモデル姿勢推定部213(図10)では、アフィン変換拘束の下、候補対応特徴点ペア群の空間的位置関係から「真の特徴点ペア(インライヤ)」を抽出し、抽出されたインライヤを用いてモデル姿勢(平行移動量,回転,拡大縮小,ストレッチを決定するアフィン変換パラメータ)を推定する。
以下、このモデル姿勢推定部213における処理について説明する。上述したように、候補対応特徴点ペアが3組以上なければアフィン変換パラメータを決定できないため、候補対応特徴点ペアが2組以下の場合、モデル姿勢推定部213は、オブジェクト画像中にモデルが存在しない、又はモデル姿勢検出に失敗したとして、「認識不可」と出力し処理を終了する。一方、候補対応特徴点ペアが3組以上ある場合、モデル姿勢推定部213は、モデル姿勢を検出可能であるとし、アフィン変換パラメータの推定を行う。なお、モデル姿勢推定部213は、モデル画像及びオブジェクト画像の例えば第1レベル(最高解像度)における特徴点の空間的位置を元にモデル姿勢を推定するものとする。
ここで、モデル特徴点[x y]Tのオブジェクト特徴点[u v]Tへのアフィン変換は、以下の式(9)で与えられる。
この式(9)において、ai(i=1,…,4)は回転,拡大縮小,ストレッチを決定するパラメータを表し、[b1 b2]Tは平行移動パラメータを表す。決定すべきアフィン変換パラメータはa1,…,a4及びb1,b2の6つであるため、候補対応特徴点ペアが3組あればアフィン変換パラメータを決定することができる。
3組の候補対応特徴点ペアで構成されるペア群<P>を([x1 y1]T,[u1 v1]T),([x2 y2]T,[u2 v2]T),([x3 y3]T,[u3 v3]T)とすると、ペア群<P>とアフィン変換パラメータとの関係は、以下の式(10)に示す線形システムで表現することができる。
この式(10)を<A><x>=<b>のように書き直すと、アフィン変換パラメータ<x>の最小自乗解は以下の式(11)で与えられる。
さて、候補対応特徴点ペア群からアウトライヤが1つ以上混入するように繰り返しランダムにペア群<P>を選択した場合、そのアフィン変換パラメータはパラメータ空間上に散らばって投射される。一方、インライヤのみから構成されるペア群<P>を繰り返しランダムに選択した場合、そのアフィン変換パラメータは、何れもモデル姿勢の真のアフィン変換パラメータに極めて類似した、すなわちパラメータ空間上で距離の近いものとなる。したがって、候補対応特徴点ペア群からランダムにペア群<P>を選択し、そのアフィン変換パラメータをパラメータ空間上に投射していく操作を繰り返すと、インライヤはパラメータ空間上で密度の高い(メンバ数の多い)クラスタを形成し、アウトライヤは散らばって出現することになる。このことから、パラメータ空間上でクラスタリングを行い、最多メンバ数を持つクラスタの要素がインライヤとなる。
モデル姿勢推定部213における処理の詳細を図17のフローチャートを用いて説明する。なお、このモデル姿勢推定部213におけるクラスタリング手法としては、NN(Nearest Neighbor)法を用いるものとする。この際、上述したb1,b2は、認識対象画像により様々な値を取り得るため、アフィン変換パラメータ<x>空間でもクラスタリングにおいてクラスタリング閾値の選択が認識対象に依存してしまう。そこで、モデル姿勢推定部13では、「真のパラメータとa1,…,a4は類似するがb1,b2が異なるようなアフィン変換パラメータを与えるペア群<P>は殆ど存在しない」という仮定の下、パラメータa1,…,a4(以下、<a>と表記する。)で張られるパラメータ空間上のみでクラスタリングを行う。なお、上記仮定が成り立たない状況が生じたとしても、<a>空間とは独立にb1,b2で張られるパラメータ空間でクラスタリングを行いその結果を考慮することで、容易に問題を回避することができる。
先ず図17のステップS30において初期化を行う。具体的には、繰り返し数のカウント値cntをcnt=1とし、候補対応特徴点ペア群からランダムにペア群<P1>を選択し、アフィン変換パラメータ<a1>を求める。また、クラスタ数NをN=1とし、アフィン変換パラメータ空間<a>上で<a1>を中心とするクラスタC1を作る。このクラスタC1のセントロイド<c1>を<c1>=<a1>とし、メンバ数nc1をnc1=1とする。
次にステップS31において、モデル姿勢推定部213は、候補対応特徴点ペア群からランダムにペア群<Pcnt>を選択し、アフィン変換パラメータ<acnt>を求める。
続いてステップS32において、モデル姿勢推定部213は、NN法を用いてアフィン変換パラメータ空間のクラスタリングを行う。具体的には、先ず以下の式(12)に従ってアフィン変換パラメータ<acnt>と各クラスタCiのセントロイド<ci>(i=1,…,N)との距離d(<acnt>、<ci>)のうち、最初の距離dminを求める。
そして、所定の閾値τ(例えばτ=0.1)に対してdmin<τであればdminを与えるクラスタCiにアフィン変換パラメータ<acnt>を属させ、<acnt>を含めた全メンバでクラスタCiのセントロイド<ci>を更新する。また、クラスタCiのメンバ数nciをnci=nci+1とする。一方、dmin≧τであればクラスタ数NをN=N+1とし、アフィン変換パラメータ空間<a>上で<acnt>をセントロイド<cN+1>とする新しいクラスタCN+1を作り、メンバ数ncN+1をncN+1=1とする。
続いてステップS33では、繰り返し終了条件を満たすか否かが判別される。ここで、繰り返し終了条件としては、例えば最多メンバ数が所定の閾値(例えば15)を超え、且つ最多メンバ数と2番目に多いメンバ数との差が所定の閾値(例えば3)を超える場合、或いは繰り返し数カウンタのカウント値cntが所定の閾値(例えば5000回)を超える場合に終了するように設定することができる。ステップS33において、繰り返し終了条件を満たさない場合(No)には、ステップS34で繰り返し数のカウント値cntをcnt=cnt+1とした後、ステップS31に戻る。一方、繰り返し終了条件を満たす場合(Yes)にはステップS35に進む。
最後にステップS35において、モデル姿勢推定部213は、以上で得られたインライヤを用いて、最小自乗法によりモデル姿勢を決定するアフィン変換パラメータを推定する。
ここで、インライヤを([xIN1 yIN1]T,[uIN1 vIN1]T),([xIN2 yIN2]T,[uIN2 vIN2]T),…とすると、インライヤとアフィン変換パラメータとの関係は、以下の式(13)に示す線形システムで表現することができる。
この式(13)を<AIN><xIN>=<bIN>のように書き直すと、アフィン変換パラメータ<xIN>の最小自乗解は以下の式(14)で与えられる。
そしてステップS35では、このアフィン変換パラメータ<xIN>で決定されるモデル姿勢をモデル認識結果として出力する。
なお、以上の説明では、閾値τが定数値であるものとしたが、ステップS31乃至ステップS34の繰り返し処理を行う際に、始めは比較的大きな閾値τを用いて大雑把なインライヤ抽出を行い、繰り返し回数が増える毎に次第に小さい閾値τを用いる、いわゆる「焼きなまし法」のような手法を適用してもよい。これにより、精度よくインライヤを抽出することができる。
また、以上の説明では、候補対応特徴点ペア群からランダムにペア群Pを選択し、そのアフィン変換パラメータをパラメータ空間上に投射していく操作を繰り返し、パラメータ空間上で最多メンバ数を持つクラスタの要素をインライヤとして、最小自乗法によりモデル姿勢を決定するアフィン変換パラメータを推定したが、これに限定されるものではなく、例えば最多メンバ数を持つクラスタのセントロイドを、モデル姿勢を決定するアフィン変換パラメータとしてもよい。
また、特徴量比較部212で生成された候補対応特徴点ペア群中のアウトライヤの比率が大きくなるほどモデル姿勢推定部213におけるインライヤの選択確率が低下し、モデル姿勢を推定する際に繰り返し回数が多くなるため、計算時間が増大してしま場合がある。そのような場合には、上記検出可能判定部213に入力される候補対応特徴点ペア群からできる限りアウトライヤを排除しておくことが望ましい。そこで、画像認識装置1の特徴量比較部212とモデル姿勢推定部213との間に候補対応特徴点ペア選択部を設け、これにより、特徴量比較部212で生成された候補対応特徴点ペア群のうち、推定回転角度ヒストグラムのピークを与える推定回転角度を有するペアを選択したり、回転,拡大縮小率,平行移動(x、y方向)の4つの画像変換パラメータを特徴空間(投票空間)とした一般化ハフ変換を用い、最多投票パラメータに投票した候補対応特徴点ペア群を選択してからモデル姿勢推定部213に供給するようにしてもよい。
このような画像認識装置及びその方法によれば、特徴量が類似するとして生成された候補対応特徴点ペアを用いて上記オブジェクト画像上のモデルの有無を検出し、モデルが存在する場合に該モデルの位置及び姿勢を推定する際に、ランダムに選択した3組の候補対応特徴点ペアから決定されるアフィン変換パラメータをパラメータ空間に投射する操作を繰り返し、パラメータ空間上で形成されたクラスタのうち最多メンバ数を持つクラスタに属するアフィン変換パラメータに基づいて上記モデルの位置及び姿勢を決定するアフィン変換パラメータを求める。このように、最小自乗推定を用いてモデルの位置及び姿勢を決定するアフィン変換パラメータを求めるのではなく、アフィン変換パラメータを投射したパラメータ空間上で最多メンバ数を持つクラスタに属するアフィン変換パラメータに基づいてアフィン変換パラメータを求めることにより、候補対応特徴点ペアに偽の対応点ペア含まれている場合であっても、安定してモデルの位置及び姿勢を推定することができる。
このような画像認識装置201によれば、特徴点の近傍領域における濃度勾配情報から得られる濃度勾配方向ヒストグラムを特徴量として特徴量マッチングを行う際に、比較対象となる特徴点同士の濃度勾配方向ヒストグラムの一方を濃度勾配方向に巡回的にシフトさせながら濃度勾配方向ヒストグラム間の距離を求め、最小の距離を濃度勾配方向ヒストグラム間の距離として、距離の類似する特徴点同士で候補対応特徴点ペアを生成する。このように、ヒストグラム度数に勾配強度を累積せず、単に勾配方向のみに注目しているため、明度変化に対してロバストな特徴量マッチングが可能になる。また、方向ヒストグラムの形状を考慮したより安定なマッチングを行うことができると共に、二次的に安定した特徴量(推定回転角度)を得ることができる。
更に、画像認識装置201は、オブジェクト画像及びモデル画像の色彩を認識することなく、その濃淡から対象物を検出するため、例えば対象物と同一の色の物体を対象物とご認識するようなことがない。
(3)ロボット装置
次に、上述した方向認識装置を搭載したロボット装置について説明する。本ロボット装置は、外部の刺激や内部状態に応じて自律的に動作が可能なロボット装置である。
次に、上述した方向認識装置を搭載したロボット装置について説明する。本ロボット装置は、外部の刺激や内部状態に応じて自律的に動作が可能なロボット装置である。
(3−1)ロボット装置の構成
図18に示すように、本実施の形態によるロボット装置1は、4足歩行の脚式移動ロボットとされ、胴体部ユニット2の前後左右にそれぞれ脚部ユニット3a,3b,3c,3dが連結されると共に、胴体部ユニット2の前端部に頭部ユニット4が連結されて構成されている。
図18に示すように、本実施の形態によるロボット装置1は、4足歩行の脚式移動ロボットとされ、胴体部ユニット2の前後左右にそれぞれ脚部ユニット3a,3b,3c,3dが連結されると共に、胴体部ユニット2の前端部に頭部ユニット4が連結されて構成されている。
胴体部ユニット2には、図19に示すように、CPU(Central Processing Unit)10、DRAM(Dynamic Random Access Memory)11、フラッシュROM(Read Only Memory)12、PC(Personal Computer)カードインターフェース回路13及び信号処理回路14が内部バス15を介して相互に接続されることにより形成されたコントロール部16と、このロボット装置1の動力源としてのバッテリ17とが収納されている。また、胴体部ユニット2には、ロボット装置1の向きや動きの加速度を検出するための角速度センサ18及び加速度センサ19なども収納されている。
また、頭部ユニット4には、外部の状況を撮像するとともに、周囲の明るさを検出するためのCCDカメラ20と、前後に倒すといった使用者からの物理的な働きかけを検出するためのタッチセンサ21と、前方に位置する物体までの距離を測定するための距離センサ22と、外部音を集音するためのマイクロホン23と、各種音声を出力するためのスピーカ24と、頭部ユニット4内に格納可能とされたヘッドライト25と、ロボット装置1の「目」に相当するLED(Light Emitting Diode)(図示せず)などがそれぞれ所定位置に配置されている。なお、ロボット装置1においては、タッチセンサ21以外にも、胴体部ユニット2及び頭部ユニット4の所定位置に複数のタッチセンサが配置されている。
さらに、各脚部ユニット3a〜3dの関節部分や各脚部ユニット3a〜3d及び胴体部ユニット2の各連結部分、並びに頭部ユニット4及び胴体部ユニット2の連結部分などにはそれぞれ自由度数分のアクチュエータ261〜26n及びポテンショメータ271〜27nが配設されている。例えば、アクチュエータ261〜26nはサーボモータを構成として有している。サーボモータの駆動により、脚部ユニット3a〜3dが制御されて、目標の姿勢或いは動作に遷移する。
そして、これら角速度センサ18、加速度センサ19、タッチセンサ21、距離センサ22、マイクロホン23、スピーカ24、及び各ポテンショメータ271〜27nなどの各種センサ並びにヘッドライト25、LED及び各アクチュエータ261 〜26nは、それぞれ対応するハブ281〜28nを介してコントロール部16の信号処理回路14と接続され、CCDカメラ20及びバッテリ17は、それぞれ信号処理回路14と直接接続されている。
信号処理回路l4は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部バス15を介してDRAM11内の所定位置に順次格納する。また信号処理回路14は、これと共にバッテリ17から供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM11内の所定位置に格納する。
このようにしてDRAM11に格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、この後CPU10がこのロボット装置1の動作制御を行う際に利用される。
実際上CPU10は、ロボット装置1の電源が投入された初期時、胴体部ユニット2の図示しないPCカードスロットに装填されたメモリカード29又はフラッシュROM12に格納された制御プログラムをPCカードインターフェース回路13を介して又は直接読み出し、これをDRAM11に格納する。
また、CPU10は、この後上述のように信号処理回路14よりDRAM11に順次格納される各センサデータ、画像データ、音声データ及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無などを判断する。
さらに、CPU10は、この判断結果及びDRAM11に格納した制御プログラムに基づいて続く行動を決定すると共に、当該決定結果に基づいて必要なアクチュエータ261〜26nを駆動させることにより、頭部ユニット4を上下左右に振らせたり、各脚部ユニット3A〜3Dを駆動させて歩行させるなどの行動を行わせる。
また、この際CPU10は、必要に応じて音声データを生成し、これを信号処理回路14を介して音声信号としてスピーカ24に与えることにより当該音声信号に基づく音声を外部に出力させたり、上述のLEDを点灯、消灯又は点滅させる。また、CPU10は、後述するように、CCDカメラ20を用いて周囲の明るさを検出させ、その検出結果に応じてヘッドライト25を点灯させる。
このようにしてこのロボット装置1においては、自己及び周囲の状況や、使用者からの指示及び働きかけに応じて自律的に行動し得るようになされている。
(3−2)制御プログラムのソフトウェア構成
ここで、ロボット装置1における上述の制御プログラムのソフトウェア構成は、図20に示すようになる。この図20において、デバイス・ドライバ・レイヤ30は、この制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット31から構成されている。この場合、各デバイス・ドライバは、CCDカメラ20(図19)やタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
ここで、ロボット装置1における上述の制御プログラムのソフトウェア構成は、図20に示すようになる。この図20において、デバイス・ドライバ・レイヤ30は、この制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット31から構成されている。この場合、各デバイス・ドライバは、CCDカメラ20(図19)やタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
また、ロボティック・サーバ・オブジェクト32は、デバイス・ドライバ・レイヤ30の最下位層に位置し、例えば上述の各種センサやアクチュエータ261〜26n等のハードウェアにアクセスするためのインターフェースを提供するソフトウェア群でなるバーチャル・ロボット33と、電源の切換えなどを管理するソフトウェア群でなるバワーマネージャ34と、他の種々のデバイス・ドライバを管理するソフトウェア群でなるデバイス・ドライバ・マネージャ35と、ロボット装置1の機構を管理するソフトウェア群でなるデザインド・ロボット36とから構成されている。
マネージャ・オブジェクト37は、オブジェクト・マネージャ38及びサービス・マネージャ39から構成されている。オブジェクト・マネージャ38は、ロボティック・サーバ・オブジェクト32、ミドル・ウェア・レイヤ40、及びアプリケーション・レイヤ41に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群であり、サービス・マネージャ39は、メモリカード29(図19)に格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて各オブジェクトの接続を管理するソフトウェア群である。
ミドル・ウェア・レイヤ40は、ロボティック・サーバ・オブジェクト32の上位層に位置し、画像処理や音声処理などのこのロボット装置1の基本的な機能を提供するソフトウェア群から構成されている。また、アプリケーション・レイヤ41は、ミドル・ウェア・レイヤ40の上位層に位置し、当該ミドル・ウェア・レイヤ40を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置1の行動を決定するためのソフトウェア群から構成されている。
なお、ミドル・ウェア・レイヤ40及びアプリケーション・レイヤ41の具体なソフトウェア構成をそれぞれ図21に示す。
ミドル・ウェア・レイヤ40は、図21に示すように、騒音検出用、温度検出用、明るさ検出用、音階認識用、距離検出用、姿勢検出用、タッチセンサ用、動き検出用及び色認識用の各信号処理モジュール50〜58並びに入力セマンティクスコンバータモジュール59などを有する認識系60と、出力セマンティクスコンバータモジュール68並びに姿勢管理用、トラッキング用、モーション再生用、歩行用、転倒復帰用、ライト点灯用及び音再生用の各信号処理モジュール61〜67などを有する出力系69とから構成されている。
認識系60の各信号処理モジュール50〜58は、ロボティック・サーバ・オブジェクト32のバーチャル・ロボット33によりDRAM11(図19)から読み出される各センサデータや画像データ及び音声データのうちの対応するデータを取り込み、当該データに基づいて所定の処理を施して、処理結果を入力セマンティクスコンバータモジュール59に与える。ここで、例えば、バーチャル・ロボット33は、所定の通信規約によって、信号の授受或いは変換をする部分として構成されている。
入力セマンティクスコンバータモジュール59は、これら各信号処理モジュール50〜58から与えられる処理結果に基づいて、「うるさい」、「暑い」、「明るい」、「ボールを検出した」、「転倒を検出した」、「撫でられた」、「叩かれた」、「ドミソの音階が聞こえた」、「動く物体を検出した」又は「障害物を検出した」などの自己及び周囲の状況や、使用者からの指令及び働きかけを認識し、認識結果をアプリケーション・レイヤ41(図19)に出力する。
アプリケーション・レイヤ4lは、図22に示すように、行動モデルライブラリ70、行動切換モジュール71、学習モジュール72、感情モデル73及び本能モデル74の5つのモジュールから構成されている。
行動モデルライブラリ70には、図23に示すように、「バッテリ残量が少なくなった場合」、「転倒復帰する」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」などの予め選択された複数の条件項目にそれぞれ対応させて、それぞれ独立した行動モデル701〜70nが設けられている。
そして、これら行動モデル701〜70nは、それぞれ入力セマンティクスコンバータモジュール59から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したときなどに、必要に応じて後述のように感情モデル73に保持されている対応する情動のパラメータ値や、本能モデル74に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換モジュール71に出力する。
なお、この実施の形態の場合、各行動モデル701〜70nは、次の行動を決定する手法として、図24に示すような1つのノード(状態)NODE0〜NODEnから他のどのノードNODE0〜NODEnに遷移するかを各ノードNODE0〜NODEnに間を接続するアークARC1〜ARCnに対してそれぞれ設定された遷移確率P1〜Pnに基づいて確率的に決定する有限確率オートマトンと呼ばれるアルゴリズムを用いる。
具体的に、各行動モデル701〜70nは、それぞれ自己の行動モデル701〜70nを形成するノードNODE0〜NODEnにそれぞれ対応させて、これらノードNODE0〜NODEnごとに図25に示すような状態遷移表80を有している。
この状態遷移表80では、そのノードNODE0〜NODEnにおいて遷移条件とする入力イベント(認識結果)が「入力イベント名」の列に優先順に列記され、その遷移条件についてのさらなる条件が「データ名」及び「データ範囲」の列における対応する行に記述されている。
したがって、図25の状態遷移表80で表されるノードNODE100では、「ボールを検出(BALL)」という認識結果が与えられた場合に、当該認識結果と共に与えられるそのボールの「大きさ(SIZE)」が「0から1000」の範囲であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果と共に与えられるその障害物までの「距離(DISTANCE)」が「0から100」の範囲であることが他のノードに遷移するための条件となっている。
また、このノードNODE100では、認識結果の入力がない場合においても、行動モデル701〜70nが周期的に参照する感情モデル73及び本能モデル74にそれぞれ保持された各情動及び各欲求のパラメータ値のうち、感情モデル73に保持された「喜び(JOY)」、「驚き(SURPRISE)」若しくは「悲しみ(SUDNESS)」のいずれかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。
また、状態遷移表80では、「他のノードヘの遷移確率」の欄における「遷移先ノード」の行にそのノードNODE0〜 NODEnから遷移できるノード名が列記されていると共に、「入力イベント名」、「データ値」及び「データの範囲」の列に記述された全ての条件が揃ったときに遷移できる他の各ノードNODE0〜NODEnへの遷移確率が「他のノードヘの遷移確率」の欄内の対応する箇所にそれぞれ記述され、そのノードNODE0〜NODEnに遷移する際に出力すべき行動が「他のノードヘの遷移確率」の欄における「出力行動」の行に記述されている。なお、「他のノードヘの遷移確率」の欄における各行の確率の和は100[%]となっている。
したがって、図25の状態遷移表80で表されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION1」の行動が出力されることとなる。
各行動モデル701〜70nは、それぞれこのような状態遷移表80として記述されたノードNODE0〜 NODEnがいくつも繋がるようにして構成されており、入力セマンティクスコンバータモジュール59から認識結果が与えられたときなどに、対応するノードNODE0〜NODEnの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換モジュール71に出力するようになされている。
図22に示す行動切換モジュール71は、行動モデルライブラリ70の各行動モデル701〜70nからそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデル701〜70nから出力された行動を選択し、当該行動を実行すべき旨のコマンド(以下、これを行動コマンドという。)をミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68に送出する。なお、この実施の形態においては、図23において下側に表記された行動モデル701〜70nほど優先順位が高く設定されている。
また、行動切換モジュール71は、行動完了後に出力セマンティクスコンバータモジュール68から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール72、感情モデル73及び本能モデル74に通知する。
一方、学習モジュール72は、入力セマンティクスコンバータモジュール59から与えられる認識結果のうち、「叩かれた」や「撫でられた」など、使用者からの働きかけとして受けた教示の認識結果を入力する。
そして、学習モジュール72は、この認識結果及び行動切換モジュール71からの通知に基づいて、「叩かれた(叱られた)」ときにはその行動の発現確率を低下させ、「撫でられた(誉められた)」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ70における対応する行動モデル701〜70nの対応する遷移確率を変更する。
他方、感情モデル73は、「喜び(joy)」、「悲しみ(sadness)」、「怒り(anger)」、「驚き(surprise)」、「嫌悪(disgust)」及び「恐れ(fear)」の合計6つの情動について、各情動ごとにその情動の強さを表すパラメータを保持している。そして、感情モデル73は、これら各情動のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール59から与えられる「叩かれた」及び「撫でられた」などの特定の認識結果と、経過時間及び行動切換モジュール71からの通知などに基づいて周期的に更新する。
具体的には、感情モデル73は、入力セマンティクスコンバータモジュール59から与えられる認識結果と、そのときのロボット装置1の行動と、前回更新してからの経過時間などに基づいて所定の演算式により算出されるそのときのその情動の変動量を△E[t]、現在のその情動のパラメータ値をE[t]、その情動の感度を表す係数をkeとして、(15)式によって次の周期におけるその情動のパラメータ値E[t+1]を算出し、これを現在のその情動のパラメータ値E[t]と置き換えるようにしてその情動のパラメータ値を更新する。また、感情モデル73は、これと同様にして全ての情動のパラメータ値を更新する。
なお、各認識結果や出力セマンティクスコンバータモジュール68からの通知が各情動のパラメータ値の変動量△E[t]にどの程度の影響を与えるかは予め決められており、例えば「叩かれた」といった認識結果は「怒り」の情動のパラメータ値の変動量△E[t]に大きな影響を与え、「撫でられた」といった認識結果は「喜び」の情動のパラメータ値の変動量△E[t]に大きな影響を与えるようになっている。
ここで、出力セマンティクスコンバータモジュール68からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報であり、感情モデル73は、このような情報によっても感情を変化させる。これは、例えば、「吠える」といった行動により怒りの感情レベルが下がるといったようなことである。なお、出力セマンティクスコンバータモジュール68からの通知は、上述した学習モジュール72にも入力されており、学習モジュール72は、その通知に基づいて行動モデル701〜70nの対応する遷移確率を変更する。
なお、行動結果のフィードバックは、行動切換モジュール71の出力(感情が付加された行動)によりなされるものであってもよい。
一方、本能モデル74は、「運動欲(exercise)」、「愛情欲(affection)」、「食欲(appetite)」及び「好奇心(curiosity)」の互いに独立した4つの欲求について、これら欲求ごとにその欲求の強さを表すパラメータを保持している。そして、本能モデル74は、これらの欲求のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール59から与えられる認識結果や、経過時間及び行動切換モジュール71からの通知などに基づいて周期的に更新する。
具体的には、本能モデル74は、「運動欲」、「愛情欲」及び「好奇心」については、認識結果、経過時間及び出力セマンティクスコンバータモジュール68からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の変動量をΔI[k]、現在のその欲求のパラメータ値をI[k]、その欲求の感度を表す係数kiとして、所定周期で(16)式を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにしてその欲求のパラメータ値を更新する。また、本能モデル74は、これと同様にして「食欲」を除く各欲求のパラメータ値を更新する。
なお、認識結果及び出力セマンティクスコンバータモジュール68からの通知などが各欲求のパラメータ値の変動量△I[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール68からの通知は、「疲れ」のパラメータ値の変動量△I[k]に大きな影響を与えるようになっている。
なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数ke、kiの値も各情動及び各欲求ごとに個別に設定されている。
一方、ミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68は、図21に示すように、上述のようにしてアプリケーション・レイヤ41の行動切換モジュール71から与えられる「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを出力系69の対応する信号処理モジュール61〜67に与える。
そしてこれら信号処理モジュール61〜67は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動を行うために対応するアクチュエータ261〜26n(図19)に与えるべきサーボ指令値や、スピーカ24(図19)から出力する音の音声データ及び又は「目」のLEDに与える駆動データを生成し、これらのデータをロボティック・サーバ・オブジェクト32のバーチャル・ロボット33及び信号処理回路14(図19)を順次介して対応するアクチュエータ261〜26n又はスピーカ24又はLEDに順次送出する。
このようにしてロボット装置1においては、制御プログラムに基づいて、自己(内部)及び周囲(外部)の状況や、使用者からの指示及び働きかけに応じた自律的な行動を行うことができるようになされている。
従って、自身の充電池の充電量が減ったり、又はユーザが回りに見当たらないとき等、又は上述の充電ポールを発見した際に等には、自身でその充電ステーションまでの行動を算出し、自己充電することができる。この際、上述した如く、ロボット装置は、上記ポール100のパターンを検出することでポール100の方向を認識することができ、例えば距離センサ等によりポール100までの距離を測定しておけば、ポール100、すなわち充電ステーションまでの相対位置を認識でき、従って充電ステーションまでの最適な経路計画を立てることができる。このような動作は、ロボット装置が知能的に見える手助けとなり、ユーザに親近感や満足感を与えることができ、エンターテイメント性の更なる向上となる。
また、上述の方向認識可能な対象物を使用すれば、ロボット装置が周囲の環境を同定する際に極めて有効的である。例えばロボット装置自身が現在どの部屋にいるかを認識する際、例えばランドマーク等を複数設置し、その位置関係を覚えるような方法があるが、方向認識可能なポール100を使用すれば、任意の部屋と、上述のポールとを対応付けておけば、ポール100のみで上記部屋を同定できると供に、ポール100により方向情報が得られるため、ポール100に対する相対位置からロボット装置自身が部屋のどの位置にいるかを把握することができる。
1 ロボット装置、100 ポール、101 中心軸、110 方向認識装置、111 撮像部、112 登録データベース、113 画像認識部、114 方向判定部、201 画像認識装置、210a,210b 特徴点抽出部、211a,211b 特徴量保持部、212 特徴量比較部、213 モデル姿勢推定部、214 候補対応特徴点ペア選択部、SN N分割側面領域、APN 放射状領域、ACN センタ、viewN 登録画像
Claims (21)
- 少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識装置であって、
上記Nの方向を識別するためのN個の登録画像と、各登録画像に対応付けられた方向情報とが登録された記憶手段と、
上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録画像とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録画像を抽出する画像認識手段と、
上記抽出した登録画像に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有し、
上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有する
ことを特徴とする方向認識装置。 - 上記登録画像は、上記方向認識用部材の表面を上記Nの方向に応じて分割したN分割部分表面を含み該N分割部分表面より広い表面を識別するための画像であり、
上記方向情報は、上記Nの方向に応じて設定される
ことを特徴とする請求項1記載の方向認識装置。 - 上記登録画像は、上記方向認識用部材の外周を360°に対応させたとき、360°/Nに対応させた表面より大きい表面を識別するための画像である
ことを特徴とする請求項2記載の方向認識装置。 - 上記方向認識用部材は、その表面に周期性がないパターンを有する
ことを特徴とする請求項2記載の方向認識装置。 - 各登録画像は、上記表面のパターンを示すパターンデータから、一のN分割部分表面を含み且つ当該一のN分割部分表面より大きい領域となるように切り出された画像である
ことを特徴とする請求項4記載の方向認識装置。 - 各登録画像は、上記Nの方向のうち一の方向から上記方向認識用部材を撮像した撮像画像である
ことを特徴とする請求項1記載の方向認識装置。 - 上記方向認識用部材は、柱状体であり、
上記登録画像は、上記柱状体の側面を周方向にN分割したN分割部分側面を含み且つN分割部分側面より大きい側面を識別するための画像である
ことを特徴とする請求項2記載の方向認識装置。 - 上記画像認識手段は、上記入力画像及び上記登録画像の各々から特徴点を抽出する特徴点抽出手段と、上記入力画像及び上記登録画像の各々について、少なくとも上記特徴点の近傍領域における濃度勾配情報から得られる濃度勾配方向ヒストグラムを特徴量として抽出して保持する特徴量保持手段と、上記入力画像の各特徴点と上記登録画像の各特徴点とを比較し、比較対象となる特徴点同士の上記濃度勾配方向ヒストグラムの一方を濃度勾配方向に巡回的にシフトさせながら求めた該濃度勾配方向ヒストグラム間の距離の最小を該濃度勾配方向ヒストグラム間の最小距離とし、少なくとも該最小距離が所定の閾値以下となる特徴点ペアを候補対応特徴点ペアとして生成する特徴量比較手段と、上記候補対応特徴点ペアを用いて上記入力画像に含まれる方向認識用部材に一致又は類似する登録画像の有無を検出する推定手段とを有する
ことを特徴とする請求項2記載の方向認識装置。 - 少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識装置であって、
上記Nの方向を識別するためのN個の登録領域を有する登録画像と、各登録領域に対応付けられた方向情報とが登録された記憶手段と、
上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録領域とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録領域を抽出する画像認識手段と、
上記抽出した登録領域に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有し、
上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有する
ことを特徴とする方向認識装置。 - 少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識方法であって、
記憶手段に登録された、方向情報が対応付けられ上記Nの方向を識別するためのN個の登録画像と、上記方向認識用部材を任意の方向から撮像した入力画像とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録画像を抽出する画像認識工程と、
上記抽出した登録画像に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識工程とを有し、
上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有する
ことを特徴とする方向認識方法。 - 上記登録画像は、上記方向認識用部材の表面を、上記Nの方向に応じて分割したN分割部分表面を含み該N分割部分表面より広い表面を識別するための画像であり、
上記方向情報は、上記Nの方向に応じて設定される
ことを特徴とする請求項10記載の方向認識方法。 - 上記登録画像は、上記方向認識用部材の外周を360°に対応させたとき、360°/Nに対応させた表面より大きい表面を識別するための画像である
ことを特徴とする請求項10記載の方向認識方法。 - 上記方向認識用部材は、その表面に周期性がないパターンを有する
ことを特徴とする請求項11記載の方向認識方法。 - 各登録画像は、上記表面のパターンを示すパターンデータから、一のN分割部分表面を含み且つ当該一のN分割部分表面より大きい領域となるように切り出された画像である
ことを特徴とする請求項13記載の方向認識方法。 - 上記登録画像は、設定される方向情報が示す方向から上記方向認識用部材を撮像した撮像画像である
ことを特徴とする請求項10記載の方向認識方法。 - 少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識方法であって、
記憶手段に登録された、方向情報が対応付けられ上記Nの方向を識別するためのN個の登録領域と、上記方向認識用部材を任意の方向から撮像した入力画像とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録領域を抽出する画像認識工程と、
上記抽出した登録領域に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識工程とを有し、
上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有する
ことを特徴とする方向認識方法。 - 少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材と、
上記方向認識用部材を使用して方向認識する方向認識装置とを有し、
上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有し、
上記方向認識装置は、
上記Nの方向を識別するためのN個の登録画像と、各登録画像に対応付けられた方向情報とが登録された記憶手段と、
上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録画像とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録画像を抽出する画像認識手段と、
上記抽出した登録画像に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有する
ことを特徴とする方向認識システム。 - 少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材と、
上記方向認識用部材を使用して方向認識する方向認識装置とを有し、
上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有し、
上記方向認識装置は、
上記Nの方向を識別するためのN個の登録領域を有する登録画像と、各登録領域に対応付けられた方向情報とが登録された記憶手段と、
上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録領域とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録領域を抽出する画像認識手段と、
上記抽出した登録領域に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有する
ことを特徴とする方向認識システム。 - 少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識装置を搭載し自律的に動作するロボット装置であって、
上記方向認識装置は、
上記Nの方向を識別するためのN個の登録画像と、各登録画像に対応付けられた方向情報とが登録された記憶手段と、
上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録画像とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録画像を抽出する画像認識手段と、
上記抽出した登録画像に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有し、
上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有する
ことを特徴とするロボット装置。 - 上記登録画像は、上記方向認識用部材の表面を上記Nの方向に応じて分割したN分割部分表面を含み該N分割部分表面より広い表面を識別するための画像であり、
上記方向情報は、上記Nの方向に応じて設定される
ことを特徴とする請求項19記載のロボット装置。 - 少なくとも異なるN(N≧2)の方向を認識させるための方向認識用部材を使用して方向認識する方向認識装置を搭載し自律的に動作するロボット装置において、
上記方向認識装置は、
上記Nの方向を識別するためのN個の登録領域を有する登録画像と、各登録領域に対応付けられた方向情報とが登録された記憶手段と、
上記方向認識用部材を任意の方向から撮像した入力画像と、上記N個の登録領域とを比較し、該入力画像に含まれる方向認識用部材に一致又は類似すると判断した登録領域を抽出する画像認識手段と、
上記抽出した登録領域に対応付けられた方向情報に基づき、上記撮像した方向を認識する方向認識手段とを有し、
上記方向認識用部材は、異なるNの各方向から識別可能な表示面を有する
ことを特徴とするロボット装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003307923A JP2005078375A (ja) | 2003-08-29 | 2003-08-29 | 方向認識装置、方向認識方法、方向認識システム及びロボット装置 |
US10/913,598 US7672503B2 (en) | 2003-08-29 | 2004-08-09 | Direction-recognizing apparatus, direction-recognizing method, direction-recognizing system, and robot apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003307923A JP2005078375A (ja) | 2003-08-29 | 2003-08-29 | 方向認識装置、方向認識方法、方向認識システム及びロボット装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005078375A true JP2005078375A (ja) | 2005-03-24 |
Family
ID=34372427
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003307923A Pending JP2005078375A (ja) | 2003-08-29 | 2003-08-29 | 方向認識装置、方向認識方法、方向認識システム及びロボット装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7672503B2 (ja) |
JP (1) | JP2005078375A (ja) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007034866A (ja) * | 2005-07-29 | 2007-02-08 | Hitachi Appliances Inc | 移動体の走行制御方法及び自走式掃除機 |
JP2010151712A (ja) * | 2008-12-26 | 2010-07-08 | Shinei Denki Seisakusho:Kk | 位相差検出システム |
JP2010214546A (ja) * | 2009-03-17 | 2010-09-30 | Fuji Electric Holdings Co Ltd | 組立装置および組立方法 |
JP2011053937A (ja) * | 2009-09-02 | 2011-03-17 | Nec Corp | 画像変換パラメータ算出装置、画像変換パラメータ算出方法およびプログラム |
JP2013070129A (ja) * | 2011-09-21 | 2013-04-18 | Panasonic Corp | 画像情報抽出装置及びそれを用いた画像送信装置と画像受信装置並びに画像伝送システム |
KR20130058526A (ko) * | 2011-11-25 | 2013-06-04 | 한국전자통신연구원 | 회전체의 회전 특성 측정 방법 및 장치 |
JP2016218849A (ja) * | 2015-05-22 | 2016-12-22 | 日本電信電話株式会社 | 平面変換パラメータ推定装置、方法、及びプログラム |
JP2018084509A (ja) * | 2016-11-24 | 2018-05-31 | 日本電信電話株式会社 | 画像測量方法、画像測量装置及び画像測量プログラム |
JP2019091224A (ja) * | 2017-11-14 | 2019-06-13 | 東芝映像ソリューション株式会社 | 電子装置、マーカ、電子装置の制御方法及びプログラム |
JP2019191145A (ja) * | 2018-04-18 | 2019-10-31 | 深セン市優必選科技股▲ふん▼有限公司Ubtech Poboticscorp Ltd | 充電台の識別方法、装置、ロボット及びコンピュータ読取可能な記憶媒体 |
CN112866076A (zh) * | 2020-12-30 | 2021-05-28 | 武汉船舶通信研究所(中国船舶重工集团公司第七二二研究所) | 以太网虚拟专用网络、运营商设备和用户侧设备 |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7463770B2 (en) * | 2003-07-21 | 2008-12-09 | Lockheed Martin Corporation | Methods and systems for detection of repeating patterns of features |
US7519221B1 (en) * | 2005-02-28 | 2009-04-14 | Adobe Systems Incorporated | Reconstructing high-fidelity electronic documents from images via generation of synthetic fonts |
US7805714B2 (en) * | 2005-03-30 | 2010-09-28 | Alcatel-Lucent Usa Inc. | Technique for constructing syntax-directed search and modifications in program transformation systems |
US7596270B2 (en) * | 2005-09-23 | 2009-09-29 | Dynacomware Taiwan Inc. | Method of shuffling text in an Asian document image |
ES2623920T3 (es) * | 2005-12-02 | 2017-07-12 | Irobot Corporation | Sistema de robot. |
US7970239B2 (en) * | 2006-01-19 | 2011-06-28 | Qualcomm Incorporated | Hand jitter reduction compensating for rotational motion |
US8019179B2 (en) * | 2006-01-19 | 2011-09-13 | Qualcomm Incorporated | Hand jitter reduction for compensating for linear displacement |
US8120658B2 (en) * | 2006-01-19 | 2012-02-21 | Qualcomm Incorporated | Hand jitter reduction system for cameras |
US7702182B2 (en) * | 2006-02-16 | 2010-04-20 | Adobe Systems, Incorporated | Method and apparatus for creating a high-fidelity glyph prototype from low-resolution glyph images |
US8175394B2 (en) * | 2006-09-08 | 2012-05-08 | Google Inc. | Shape clustering in post optical character recognition processing |
US7697758B2 (en) * | 2006-09-11 | 2010-04-13 | Google Inc. | Shape clustering and cluster-level manual identification in post optical character recognition processing |
US7646921B2 (en) * | 2006-09-11 | 2010-01-12 | Google Inc. | High resolution replication of document based on shape clustering |
US7650035B2 (en) * | 2006-09-11 | 2010-01-19 | Google Inc. | Optical character recognition based on shape clustering and multiple optical character recognition processes |
US7676068B2 (en) * | 2006-09-18 | 2010-03-09 | Miguel Angel Cervantes | Biometric authentication |
US8340400B2 (en) * | 2009-05-06 | 2012-12-25 | Honeywell International Inc. | Systems and methods for extracting planar features, matching the planar features, and estimating motion from the planar features |
EP2249288A3 (en) * | 2009-05-08 | 2014-05-21 | Citysync Limited | Object detection |
US9091553B2 (en) * | 2009-12-22 | 2015-07-28 | Honeywell International Inc. | Systems and methods for matching scenes using mutual relations between features |
JP2011209019A (ja) * | 2010-03-29 | 2011-10-20 | Sony Corp | ロボット装置及びロボット装置の制御方法 |
US8521418B2 (en) | 2011-09-26 | 2013-08-27 | Honeywell International Inc. | Generic surface feature extraction from a set of range data |
US9082008B2 (en) | 2012-12-03 | 2015-07-14 | Honeywell International Inc. | System and methods for feature selection and matching |
US9355320B2 (en) * | 2014-10-30 | 2016-05-31 | Toyota Motor Engineering & Manufacturing North America, Inc. | Blur object tracker using group lasso method and apparatus |
TW201718296A (zh) * | 2015-11-30 | 2017-06-01 | 鴻海精密工業股份有限公司 | 自走式電池模組及電動車 |
KR102358373B1 (ko) * | 2017-04-06 | 2022-02-04 | 삼성전자주식회사 | 손글씨 입력에 대한 그래픽 효과를 제공하기 위한 장치 및 그에 관한 방법 |
JP7030007B2 (ja) * | 2018-04-13 | 2022-03-04 | 東芝ライフスタイル株式会社 | 自律型電気掃除機 |
CN112601592A (zh) * | 2018-08-30 | 2021-04-02 | Groove X 株式会社 | 机器人及声音生成程序 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62280986A (ja) * | 1986-05-29 | 1987-12-05 | Mitsubishi Heavy Ind Ltd | パタ−ン識別装置 |
JPH0350210U (ja) * | 1989-07-13 | 1991-05-16 | ||
JPH05164706A (ja) * | 1991-12-17 | 1993-06-29 | Kuwabara Yasunaga | 異種容器の混入検査方法 |
JPH05165968A (ja) * | 1991-12-18 | 1993-07-02 | Komatsu Ltd | 物体の位置・姿勢認識装置 |
JPH0624424A (ja) * | 1992-07-02 | 1994-02-01 | Kuwabara Yasunaga | 容器向き位置合わせ方法 |
JPH07121713A (ja) * | 1993-10-21 | 1995-05-12 | Kobe Steel Ltd | パターン認識方法 |
JPH0953939A (ja) * | 1995-08-18 | 1997-02-25 | Fujitsu Ltd | 自走車の自己位置測定装置および自己位置測定方法 |
JPH09229646A (ja) * | 1996-02-26 | 1997-09-05 | Matsushita Electric Works Ltd | 物体認識方法 |
JP2003216931A (ja) * | 2002-01-28 | 2003-07-31 | Matsushita Electric Works Ltd | 特定パターン認識方法、特定パターン認識プログラム、特定パターン認識プログラム記録媒体および特定パターン認識装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3918893A1 (de) | 1989-06-09 | 1990-12-13 | Bayer Ag | Alternierende copolymere, verfahren zu ihrer herstellung sowie deren verwendung |
JP3300682B2 (ja) * | 1999-04-08 | 2002-07-08 | ファナック株式会社 | 画像処理機能を持つロボット装置 |
JP4387552B2 (ja) | 2000-04-27 | 2009-12-16 | 富士通株式会社 | 画像照合処理システム |
JP3886471B2 (ja) * | 2003-05-20 | 2007-02-28 | ファナック株式会社 | 画像処理装置 |
-
2003
- 2003-08-29 JP JP2003307923A patent/JP2005078375A/ja active Pending
-
2004
- 2004-08-09 US US10/913,598 patent/US7672503B2/en not_active Expired - Fee Related
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62280986A (ja) * | 1986-05-29 | 1987-12-05 | Mitsubishi Heavy Ind Ltd | パタ−ン識別装置 |
JPH0350210U (ja) * | 1989-07-13 | 1991-05-16 | ||
JPH05164706A (ja) * | 1991-12-17 | 1993-06-29 | Kuwabara Yasunaga | 異種容器の混入検査方法 |
JPH05165968A (ja) * | 1991-12-18 | 1993-07-02 | Komatsu Ltd | 物体の位置・姿勢認識装置 |
JPH0624424A (ja) * | 1992-07-02 | 1994-02-01 | Kuwabara Yasunaga | 容器向き位置合わせ方法 |
JPH07121713A (ja) * | 1993-10-21 | 1995-05-12 | Kobe Steel Ltd | パターン認識方法 |
JPH0953939A (ja) * | 1995-08-18 | 1997-02-25 | Fujitsu Ltd | 自走車の自己位置測定装置および自己位置測定方法 |
JPH09229646A (ja) * | 1996-02-26 | 1997-09-05 | Matsushita Electric Works Ltd | 物体認識方法 |
JP2003216931A (ja) * | 2002-01-28 | 2003-07-31 | Matsushita Electric Works Ltd | 特定パターン認識方法、特定パターン認識プログラム、特定パターン認識プログラム記録媒体および特定パターン認識装置 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007034866A (ja) * | 2005-07-29 | 2007-02-08 | Hitachi Appliances Inc | 移動体の走行制御方法及び自走式掃除機 |
JP2010151712A (ja) * | 2008-12-26 | 2010-07-08 | Shinei Denki Seisakusho:Kk | 位相差検出システム |
JP2010214546A (ja) * | 2009-03-17 | 2010-09-30 | Fuji Electric Holdings Co Ltd | 組立装置および組立方法 |
JP2011053937A (ja) * | 2009-09-02 | 2011-03-17 | Nec Corp | 画像変換パラメータ算出装置、画像変換パラメータ算出方法およびプログラム |
JP2013070129A (ja) * | 2011-09-21 | 2013-04-18 | Panasonic Corp | 画像情報抽出装置及びそれを用いた画像送信装置と画像受信装置並びに画像伝送システム |
KR101706200B1 (ko) * | 2011-11-25 | 2017-02-16 | 한국전자통신연구원 | 회전체의 회전 특성 측정 방법 및 장치 |
KR20130058526A (ko) * | 2011-11-25 | 2013-06-04 | 한국전자통신연구원 | 회전체의 회전 특성 측정 방법 및 장치 |
JP2016218849A (ja) * | 2015-05-22 | 2016-12-22 | 日本電信電話株式会社 | 平面変換パラメータ推定装置、方法、及びプログラム |
JP2018084509A (ja) * | 2016-11-24 | 2018-05-31 | 日本電信電話株式会社 | 画像測量方法、画像測量装置及び画像測量プログラム |
JP2019091224A (ja) * | 2017-11-14 | 2019-06-13 | 東芝映像ソリューション株式会社 | 電子装置、マーカ、電子装置の制御方法及びプログラム |
JP7013212B2 (ja) | 2017-11-14 | 2022-01-31 | Tvs Regza株式会社 | 電子装置、マーカ、電子装置の制御方法及びプログラム |
JP2019191145A (ja) * | 2018-04-18 | 2019-10-31 | 深セン市優必選科技股▲ふん▼有限公司Ubtech Poboticscorp Ltd | 充電台の識別方法、装置、ロボット及びコンピュータ読取可能な記憶媒体 |
CN112866076A (zh) * | 2020-12-30 | 2021-05-28 | 武汉船舶通信研究所(中国船舶重工集团公司第七二二研究所) | 以太网虚拟专用网络、运营商设备和用户侧设备 |
Also Published As
Publication number | Publication date |
---|---|
US7672503B2 (en) | 2010-03-02 |
US20050069173A1 (en) | 2005-03-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005078375A (ja) | 方向認識装置、方向認識方法、方向認識システム及びロボット装置 | |
US10852729B2 (en) | Moving robot and control method thereof | |
JP7150773B2 (ja) | 移動ロボット及びその制御方法 | |
EP3505310B1 (en) | Mobile robot and control method therefor | |
JP7356567B2 (ja) | 移動ロボット及びその制御方法 | |
KR102192791B1 (ko) | 이동 로봇 및 이동 로봇의 제어방법 | |
JP4032793B2 (ja) | 充電システム及び充電制御方法、ロボット装置、及び充電制御プログラム及び記録媒体 | |
Field et al. | Motion capture in robotics review | |
US7835820B2 (en) | System and method for image mapping and visual attention | |
KR102548936B1 (ko) | 인공지능 이동 로봇 및 그 제어방법 | |
KR20180134683A (ko) | 인공지능 이동 로봇의 제어 방법 | |
Kulhánek et al. | Visual navigation in real-world indoor environments using end-to-end deep reinforcement learning | |
JP2005078376A (ja) | 対象物検出装置、対象物方法、及びロボット装置 | |
KR102024094B1 (ko) | 인공지능을 이용한 이동 로봇 및 그 제어방법 | |
Pang et al. | Efficient hybrid-supervised deep reinforcement learning for person following robot | |
Ishihara et al. | Deep radio-visual localization | |
Pang et al. | A visual leader-following approach with a tdr framework for quadruped robots | |
KR102147210B1 (ko) | 인공지능 이동 로봇의 제어 방법 | |
JP4449410B2 (ja) | ロボット装置及びその物体学習方法 | |
KR102147211B1 (ko) | 인공지능 이동 로봇의 제어 방법 | |
Siddiqui et al. | Visual tracking using particle swarm optimization | |
JP2005074562A (ja) | ロボット装置、ロボット装置の制御方法、及び記録媒体 | |
JP4779226B2 (ja) | ロボット装置、並びに、画像記憶方法及び画像記憶装置、並びに、制御プログラム及び記録媒体 | |
JP4407244B2 (ja) | ロボット装置及びその物体学習方法 | |
US20210325890A1 (en) | Robot and map update method using the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20071221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080310 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080408 |