JP4779226B2 - ROBOT DEVICE, IMAGE STORAGE METHOD, IMAGE STORAGE DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM - Google Patents
ROBOT DEVICE, IMAGE STORAGE METHOD, IMAGE STORAGE DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM Download PDFInfo
- Publication number
- JP4779226B2 JP4779226B2 JP2001128196A JP2001128196A JP4779226B2 JP 4779226 B2 JP4779226 B2 JP 4779226B2 JP 2001128196 A JP2001128196 A JP 2001128196A JP 2001128196 A JP2001128196 A JP 2001128196A JP 4779226 B2 JP4779226 B2 JP 4779226B2
- Authority
- JP
- Japan
- Prior art keywords
- wide
- field image
- image
- stored
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 70
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 238000003860 storage Methods 0.000 claims description 201
- 238000003384 imaging method Methods 0.000 claims description 87
- 238000012545 processing Methods 0.000 claims description 66
- 230000008859 change Effects 0.000 claims description 48
- 230000008569 process Effects 0.000 claims description 36
- 230000000875 corresponding effect Effects 0.000 claims description 26
- 230000002596 correlated effect Effects 0.000 claims description 24
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 7
- 230000006399 behavior Effects 0.000 description 35
- 230000009471 action Effects 0.000 description 31
- 230000008451 emotion Effects 0.000 description 31
- 230000007704 transition Effects 0.000 description 22
- 238000010586 diagram Methods 0.000 description 18
- 230000015654 memory Effects 0.000 description 11
- 241001465754 Metazoa Species 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 210000003141 lower extremity Anatomy 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 241000282412 Homo Species 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 210000001364 upper extremity Anatomy 0.000 description 3
- 230000036528 appetite Effects 0.000 description 2
- 235000019789 appetite Nutrition 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000010191 image analysis Methods 0.000 description 2
- 230000035945 sensitivity Effects 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Description
【0001】
【発明の属する技術分野】
本発明は、内部状態に基づいて行動するロボット装置、並びに、画像記憶装置及び画像記憶方法に関し、特に、撮像手段において受動的又は能動的に取得された狭視野画像から広視野画像を合成し周囲の環境を空間的に認識して記憶するとともに、所定期間前までの周囲の環境を時系列に沿って記憶するロボット装置、並びに、所定の視野の画像データから広視野画像データを合成し空間的に認識して記憶するとともに、所定期間前までの画像データを時系列に沿って記憶する画像記憶装置及び画像記憶方法に関する。
【0002】
【従来の技術】
電気的又は磁気的な作用を用いて人間(生物)の動作に似た運動を行う機械装置を「ロボット」という。我が国においてロボットが普及し始めたのは、1960年代末からであるが、その多くは、工場における生産作業の自動化・無人化等を目的としたマニピュレータや搬送ロボット等の産業用ロボット(Industrial Robot)であった。
【0003】
最近では、人間のパートナーとして生活を支援する、すなわち住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットの開発が進められている。このような実用ロボットは、産業用ロボットとは異なり、人間の生活環境の様々な局面において、個々に個性の相違した人間、又は様々な環境への適応方法を自ら学習する能力を備えている。例えば、犬、猫のように4足歩行の動物の身体メカニズムやその動作を模した「ペット型」ロボット、或いは、2足直立歩行を行う動物の身体メカニズムや動作をモデルにしてデザインされた「人間型」又は「人間形」ロボット(Humanoid Robot)等の脚式移動ロボットは、既に実用化されつつある。
【0004】
これらの脚式移動ロボットは、産業用ロボットと比較してエンターテインメント性を重視した様々な動作を行うことができるため、エンターテインメントロボットと呼称される場合もある。動物や人間の容姿にできるだけ近い外観形状や動作を行う脚式移動ロボットは、「目」に相当する小型カメラ等を備えているものもある。この場合、脚式移動ロボットは、取得した画像に対して画像処理を施すことによって、画像情報として入力した周囲の環境を認識することができる。
【0005】
【発明が解決しようとする課題】
ところが、従来のロボット装置は、搭載されたカメラの視野が限られているため、画像認識に有効な視野範囲が限定されるという欠点がある。また、画像処理のために使用できるメモリ及びCPUのリソースが限定されているため画像処理速度、画像容量等に限界があった。
【0006】
搭載されたカメラの視野を改善する方法としては、魚眼レンズを用いて広視野画像を得る方法、全方位カメラを用いて全方位の画像を取得する方法、カメラを水平方向に回転させてパノラマ画像を平面画像として得る方法、高解像度カメラとともに広角カメラを併用する方法等が考案されている。
【0007】
しかし、魚眼レンズや全方位カメラを用いる場合、認識のための画像解析の前処理として、画像の歪みを補正する処理を施す必要があり、この補正処理と画像解析処理には時間がかかる。これらのロボット装置には、リアルタイム性が要求されるため、この方法は、ロボット装置に所定の動作を行わせるには、不適合である。また、これらの処理の結果として得られる画像の解像度は、相対的に低くなるため認証の程度が低下する。
【0008】
また、パノラマ画像を生成する方法は、カメラを回転させて画像を取得する動作に時間がかかるため、画像を認識するまでに要する時間も増大してしまう。また、高解像度カメラと広角カメラとを併用する方法は、ロボット装置のようにカメラを搭載するスペースが非常に限られている場合、両カメラを搭載するスペースが確保できないという問題点がある。
【0009】
取得した画像を全て記憶しておき、全ての画像に対して認識処理を施す方法も考えられる。この方法によれば全画像データの内容を検索することができるが、膨大な画像データの中から情報を抽出することは、リソースの限られたロボット装置には不適合である。
【0010】
さらに、脚式移動ロボットは、周囲の画像データが収集できたとしても、歩行時に取得される画像が上下左右にぶれるため自らが移動している際は、移動する対象物の認識が困難である。つまり、自身の動きによる画像のぶれか、対象物の移動によるぶれかを検出できないという問題点があった。
【0011】
そこで本発明は、このような従来の実情に鑑みて提案されたものであり、カメラの視野角に制限されない広範囲の画像を合成し周囲の環境を空間的に認識して記憶するとともに、周囲の環境を時系列に沿って記憶するロボット装置、並びに、カメラの視野角に制限されない広範囲の画像を合成し、合成した画像データを時系列に沿って記憶する画像記憶装置及び画像記憶方法を提供することを目的とする。
【0012】
【課題を解決するための手段】
上述した目的を達成するために、本発明にかかるロボット装置は、移動手段を備え、内部状態に応じて自律動作するロボット装置において、上記ロボット装置正面に対して独立した方向に可動とされ所定の画角で被写体を撮像する撮像手段と、上記撮像手段によって能動的に取得された画像、又は上記撮像手段を介して受動的に取得された画像を逐次付加して上記撮像手段の画角よりも広い視野の広視野画像を生成する広視野画像生成手段と、上記広視野画像を一時的に記憶する一時記憶手段と、上記一時記憶手段に記憶された広視野画像を記憶手段に記憶制御する記憶制御手段とを備え、上記記憶制御手段は、上記一時記憶手段に記憶された広視野画像と、上記記憶手段に記憶された最新の広視野画像である基準広視野画像とを比較して得られる変化量が予め決められた所定の閾値よりも大きくなったとき、上記一時記憶手段に記憶された広視野画像を上記記憶手段に記憶するとともに、上記記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した過去の広視野画像ほど少ない情報量の画像データに圧縮して書き換える。
【0013】
このようなロボット装置は、撮像手段を介して能動的又は受動的に取得された画像を逐次付加して撮像手段の画角よりも広い視野の広視野画像を生成し、取得された画像の変化量に応じて該広視野画像に関する付加情報とともに広視野画像を記憶手段に時系列で記憶し、記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換える。
【0014】
また、本発明にかかる画像記憶装置は、所定の画角で被写体を撮像する撮像手段と、上記撮像手段によって随時取得された画像を逐次付加して上記撮像手段の画角よりも広い視野の広視野画像を生成する広視野画像生成手段と、上記広視野画像を一時的に記憶する一時記憶手段と、上記一時記憶手段に記憶された広視野画像を記憶手段に記憶制御する記憶制御手段とを備え、上記記憶制御手段は、上記一時記憶手段に記憶された広視野画像と、上記記憶手段に記憶された最新の広視野画像である基準広視野画像とを比較して得られる変化量が予め決められた所定の閾値よりも大きくなったとき、上記一時記憶手段に記憶された広視野画像を上記記憶手段に記憶するとともに、上記記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した過去の広視野画像ほど少ない情報量の画像データに圧縮して書き換える。
【0015】
このような画像記憶装置は、撮像手段を介して取得された画像を逐次付加して撮像手段の画角よりも広い視野の広視野画像を生成し、取得された画像の変化量に応じて該広視野画像に関する付加情報とともに広視野画像を記憶手段に時系列で記憶し、記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換える。
【0016】
また、本発明にかかる画像記憶方法は、所定の画角で被写体を撮像する撮像工程と、上記撮像工程において随時取得された画像を逐次付加して上記撮像工程で撮像される画角よりも広い視野の広視野画像を生成する広視野画像生成工程と、上記広視野画像を一時記憶手段に一時的に記憶する一時記憶工程と、上記一時記憶工程で記憶された広視野画像を記憶手段に記憶制御する記憶制御工程とを備え、上記記憶制御工程では、上記一時記憶手段に記憶された広視野画像と、上記記憶手段に記憶された最新の広視野画像である基準広視野画像とを比較して得られる変化量が予め決められた所定の閾値よりも大きくなったとき、上記一時記憶手段に記憶された広視野画像を上記記憶手段に記憶するとともに、上記記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した過去の広視野画像ほど少ない情報量の画像データに圧縮して書き換える。
【0017】
このような画像記憶方法では、撮像工程において取得された画像を逐次付加して撮像手段の画角よりも広い視野の広視野画像を生成し、取得された画像の変化量に応じて該広視野画像に関する付加情報とともに広視野画像を時系列で記憶手段に記憶し、記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換える。
【0018】
本発明にかかる制御プログラムは、コンピュータに、撮像手段において所定の画角で被写体を撮像する撮像処理と、上記撮像処理によって随時取得される画像を逐次付加して上記撮像手段で撮像される画角よりも広い視野の広視野画像を生成する広視野画像生成処理と、上記広視野画像を一時記憶手段に一時的に記憶する一時記憶処理と、上記一時記憶手段に記憶された広視野画像を記憶手段に記憶制御する際に、上記一時記憶手段に記憶された広視野画像と、上記記憶手段に記憶された最新の広視野画像である基準広視野画像とを比較して得られる変化量が予め決められた所定の閾値よりも大きくなったとき、上記一時記憶手段に記憶された広視野画像を上記記憶手段に記憶するとともに、上記記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した過去の広視野画像ほど少ない情報量の画像データに圧縮して書き換える記憶制御処理とを実行させるためのプログラムである。
【0019】
このような制御プログラムは、撮像処理によって随時取得される画像を逐次付加して撮像手段で撮像される画角よりも広い視野の広視野画像を生成し、取得された画像の変化量に応じて、記憶処理で記憶した広視野画像を該広視野画像に関する付加情報とともに基準広視野画像として時系列で記憶手段に記憶し、記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換える処理を備えていない電子機器に、この一連の画像記憶処理を実行させる。また、上述の制御プログラムを記録媒体に記録して提供する。
【0020】
【発明の実施の形態】
本発明の一構成例として示すロボット装置は、内部状態に応じて自律動作するロボット装置である。このロボット装置は、少なくとも上肢と体幹部と下肢とを備え、上肢及び下肢、又は下肢のみを移動手段とする脚式移動ロボットである。脚式移動ロボットには、4足歩行の動物の身体メカニズムやその動きを模倣したペット型ロボットや、下肢のみを移動手段として使用する2足歩行の動物の身体メカニズムやその動きを模倣したロボット装置があるが、本実施の形態として示すロボット装置は、4足歩行タイプの脚式移動ロボットである。
【0021】
このロボット装置は、住環境その他の日常生活上の様々な場面における人的活動を支援する実用ロボットであり、内部状態(怒り、悲しみ、喜び、楽しみ等)に応じて行動できるほか、4足歩行の動物が行う基本的な動作を表出できるエンターテインメントロボットである。
【0022】
このロボット装置は、特に、「犬」を模した形体であり、頭部、胴体部、上肢部、下肢部、尻尾部等を有している。各部の連結部分及び関節に相当する部位には、運動の自由度に応じた数のアクチュエータ及びポテンショメータが備えられており、制御部の制御によって目標とする動作を表出できる。
【0023】
さらに、ロボット装置は、周囲の状況を画像データとして取得するための撮像部や、外部から受ける作用を検出するための各種センサ等を備えている。撮像部としては、小型のCCD(Charge-Coupled Device)カメラを使用する。また、センサには、角速度を検出する角速度センサ、CCDカメラによって撮像した被写体までの距離を計測する距離センサ、外部からの接触を検出するタッチセンサ等があり、これらは、ロボット装置外部又は内部の適切な箇所に設置されている。
【0024】
本発明の一構成例として示すロボット装置は、CCDカメラによって取得された限られた視野角の画像から、CCDカメラの画角よりも広い視野の画像を生成し、この広い視野の画像を使用することによって、周囲の状況を、限られた領域としてではなく、広い空間として認識できる。また、この広い視野の画像に時刻情報、位置情報、姿勢情報等の付加情報を付加して順次記憶することによって、空間の情報に時間情報を加味して認識することができる。ここで、時刻情報とは、例えば、広い視野の画像を生成したときの時刻であり、位置情報とは、画像を取得した位置を絶対位置、又は、ある基準地点からの相対位置で表した情報であり、姿勢情報とは、画像を取得したときのロボット装置の姿勢を示す情報である。
【0025】
このロボット装置が周囲の状況を画像として取得し、限られた視野の画像から広い視野の画像(以下、広視野画像と記す。)を生成し、さらに、生成した広視野画像とこの広視野画像に関する付加情報とを時間経過とともに記憶する処理について、図1を用いて説明する。
【0026】
ステップS1において、CCDカメラから画像を取得する。このとき、画像の取得には、画像認識を目的として撮影する能動的撮影と、画像認識を目的とする撮影ではないとき、すなわち、待機中或いは他の動作中にCCDカメラから常に「流れ込む」画像を取得する受動的撮影とがある。
【0027】
続いてステップS2では、ロボット装置が移動しているか否か、動作しているか否かが検出される。ロボット装置の移動は、各アクチュエータの動作やポテンショメータから検出できる。
【0028】
ロボット装置が移動している場合、ステップS3において、これまでに生成された広視野画像を変更する。すなわち、CCDカメラの角度情報等の方向データに基づいて、変更された方向とは反対の方向に変更分に相当するだけ広視野画像を移動することによって、撮像方向と広視野画像の正面方向とを一致させる。ステップS2において、ロボット装置が移動していない場合は、ステップS4へと移る。
【0029】
ステップS4において、CCDカメラの方向データより、取得した画像と広視野画像との対応関係を算出する。つまり、取得した画像がこのときまでに生成された広視野画像のどの部分に対応するかを算出する。
【0030】
続いて、ロボット装置は、ステップS5において、取得した画像が未記憶の視野領域を含むか否かを判別する。未記憶の視野領域を含む場合、ステップS7へ移る。未記憶の視野領域を含まない場合、ステップS6において、取得した画像の変化量が閾値より大きいか否かを判別する。ここで変化量とは、例えば、取得した画像の画素分布と、これまでに生成された広視野画像内における、この画像に対応する領域の画素分布との差異等から判別される変化量である。
【0031】
変化量が閾値より小さい場合、ステップS1に戻って新たに取得した画像に対して同様の処理を繰り返す。また、変化量が閾値より大きい場合、ステップS7において、取得画像を広視野画像に合成する。このとき、これまでに生成された広視野画像と重複する領域は、上書きし、未記憶領域は、追加記憶することで広視野画像の領域を拡張する。
【0032】
このように、取得画像の変化量と予め決定された所定の閾値とを比較することによって、変化量の少ない画像を重複して記憶することによる処理時間や記憶容量等の損失を防ぐことができる。
【0033】
続いて、ステップS8において、拡張された後の広視野画像を基準広視野画像として記憶部に記憶されている画像と比較する。基準広視野画像とは、所定時間前の広視野画像を示している。記憶部には、生成された広視野画像が付加情報とともに時系列に沿って順番に記憶されている。
【0034】
ロボット装置は、ステップS9において、拡張された広視野画像の変化量が閾値以上であるか否か判別する。ステップS6で使用した閾値が取得した狭視野の画像における変化量の閾値であるのに対して、ここでの閾値は、例えば、生成された広視野画像全体に亘る変化量の閾値を示している。
【0035】
拡張された広視野画像の変化量が閾値より小さい場合、ステップS1に戻って、新たに取得された画像に対して同様の処理を繰り返す。すなわち、広視野画像をさらに拡張するための画像処理を行う。一方、変化量が閾値より大きい場合、ステップS10へ移って、拡張された広視野画像を新規の基準広視野画像として更新するとともに、これまで基準広視野画像として使用していた画像を含めた全ての広視野画像を記憶開始からの経過時間に応じて圧縮し記憶部に保存し直す。
【0036】
上述の画像処理及び記憶処理によって、ロボット装置は、搭載されたCCDカメラの視野角に制限されない広い範囲の画像を画像認識のための画像として利用できる。
【0037】
また、従来のロボット装置では、認識させる物体に対するアテンション(捕捉指示)を予め与えて積極的に記憶させる必要があったが、本実施の形態として示すロボット装置は、能動的撮影又は受動的撮影によって取得した画像から広視野画像を生成し、生成した広視野画像にロボット装置の位置情報、姿勢情報、時間情報等の付加情報を添付して併せて記憶することによって、記憶内容を検索する際には、いつ、何処で、何を見たか等を、人間が記憶を「思い出す」かのように検索することができる。特に、過去に受動的に視野に入った物体やアテンション(捕捉指示)を与えていない物体も記憶していることになるため、予め指定された物体でなくとも検索できる。
【0038】
以下、本発明の一構成例として示すロボット装置について、図面を参照して説明する。
【0039】
本実施の形態では、ロボット装置1は、図2に示すように、「犬」を模した形状のいわゆるペット型ロボットである。ロボット装置1は、胴体部ユニット2の前後左右に脚部ユニット3A、3B、3C、3Dが連結され、胴体部ユニット2の前端部に頭部ユニット4が連結され、後端部に尻尾部ユニット5が連結されて構成されている。
【0040】
胴体部ユニット2には、図3に示すように、CPU(Central Processing Unit)10、DRAM(Dynamic Random Access Memory)11、フラッシュROM(Read Only Memory)12、PC(Personal Computer)カードインターフェイス回路13及び信号処理回路14が内部バス15を介して相互に接続されることにより形成されたコントロール部16と、このロボット装置1の動力源としてのバッテリ17とが収納されている。また、胴体部ユニット2には、ロボット装置1の向きや動きの加速度を検出するための角速度センサ18及び加速度センサ19が収納されている。
【0041】
頭部ユニット4には、外部の状況を撮像するためのCCD(Charge Coupled Device)カメラ20と、使用者からの「撫でる」や「叩く」といった物理的な働きかけにより受けた圧力を検出するためのタッチセンサ21と、前方に位置する物体までの距離を測定するための距離センサ22と、外部音を集音するためのマイク23と、鳴き声等の音声を出力するためのスピーカ24と、ロボット装置1の「目」に相当するLED(Light Emitting Diode)(図示せず)等が所定位置にそれぞれ配置されている。CCDカメラ20は、頭部ユニット4の向く方向にある被写体を所定の画角で撮像することができる。
【0042】
さらに、胴体部ユニット2におけるコントロール部16には、CCDカメラ20によって取得された画像を逐次付加することによってCCDカメラ20の画角よりも広い視野の画像(以下、広視野画像と記す。)を生成する広視野画像生成部30と、広視野画像とこの広視野画像に関する付加情報とを記憶開始からの経過時間に相関した情報量の画像データに圧縮して記憶し直す記憶制御部31とを備えている。
【0043】
広視野画像生成部30は、例えば、周囲の画像情報を取得するために能動的に取得された画像、また、CCDカメラ20から受動的に取得される画像を逐次付加してCCDカメラの画角よりも広い視野の広視野画像を生成する。
【0044】
また、記憶制御部31は、CCDカメラ20で取得された画像の画素値、特徴点等の変化量に応じて、広視野画像とこの広視野画像に関する付加情報とを新たな基準広視野画像としてメモリカード28に記憶し、それまでメモリカード28に記憶されてた基準広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して記憶し直す。この記憶制御に関する詳細は、後述する。
【0045】
各脚部ユニット3A〜3Dの関節部分、各脚部ユニット3A〜3Dと胴体部ユニット2との連結部分、頭部ユニット4と胴体部ユニット2との連結部分、尻尾部ユニット5と尻尾5Aとの連結部分には、自由度数分のアクチュエータ251〜25n及びポテンショメータ261〜26nがそれぞれ配設されている。アクチュエータ251〜25nは、例えば、サーボモータを構成として有している。サーボモータの駆動により、脚部ユニット3A〜3Dが制御されて目標の姿勢、或いは動作に遷移する。
【0046】
これら角速度センサ18、加速度センサ19、タッチセンサ21、距離センサ22、マイク23、スピーカ24及び各ポテンショメータ261〜26nなどの各種センサ並びにLED及び各アクチュエータ251〜25nは、それぞれ対応するハブ271〜27nを介してコントロール部16の信号処理回路14と接続され、CCDカメラ20及びバッテリ17は、それぞれ信号処理回路14と直接接続されている。
【0047】
信号処理回路14は、上述の各センサから供給されるセンサデータや画像データ及び音声データを順次取り込み、これらをそれぞれ内部バス15を介してDRAM11内の所定位置に順次格納する。また信号処理回路14は、これとともにバッテリ17から供給されるバッテリ残量を表すバッテリ残量データを順次取り込み、これをDRAM11内の所定位置に格納する。
【0048】
このようにしてDRAM11に格納された各センサデータ、画像データ、音声データ及びバッテリ残量データは、CPU10が当該ロボット装置1の動作制御を行う際に使用される。
【0049】
CPU10は、ロボット装置1の電源が投入された初期時において、フラッシュROM12に格納された制御プログラムを読み出して、DRAM11に格納する。又は、CPU10は、図2に図示しない胴体部ユニット2のPCカードスロットに装着された半導体メモリ装置、例えばいわゆるメモリカード28に格納された制御プログラムをPCカードインターフェイス回路13を介して読み出してDRAM11に格納する。
【0050】
CPU10は、上述のように信号処理回路14よりDRAM11に順次格納される各センサデータ、画像データ、音声データ、及びバッテリ残量データに基づいて自己及び周囲の状況や、使用者からの指示及び働きかけの有無を判断している。
【0051】
さらに、CPU10は、この判断結果とDRAM11に格納した制御プログラムとに基づく行動を決定する。CPU10は、当該決定結果に基づいてアクチュエータ251〜25nの中から必要とするアクチュエータを駆動することによって、例えば頭部ユニット4を上下左右に振らせたり、尻尾部ユニット5の尻尾を動かしたり、各脚部ユニット3A乃至3Dを駆動して歩行させたりする。また、CPU10は、必要に応じて音声データを生成し、信号処理回路14を介してスピーカ24に供給する。また、CPU10は、上述のLEDの点灯・消灯を指示する信号を生成し、LEDを点灯したり消灯したりする。
【0052】
このように、ロボット装置1は、自己及び周囲の状況や、使用者からの指示及び働きかけに応じて自律的に行動する。
【0053】
続いて、ロボット装置1が、CCDカメラから得られた画像からCCDカメラの視野角よりも広い範囲の画像を生成する場合を、図4を用いて説明する。
【0054】
図4(a)に、CCDカメラ20の動きに合わせて限られた画角の画像が次々と取得される様子を示し、図4(b)に合成された広視野画像を示す。図4(a)及び図4(b)における画枠100は、ロボット装置1において生成される広視野画像の限界画枠を示している。また、図4(a)に示す画像の1つ1つの画枠の大きさは、CCDカメラ20の視野に相当する。例えば、CCDカメラ20が図中矢印に沿って動くとき、CCDカメラ20から画像101a、101b、101c、・・・、101fが撮像される。最新のロボット装置1の視野が画像101gである。
【0055】
CCDカメラ20によって撮影される各画像は、ビデオ等の撮像機器で得られる画像のように、例えば、30分の1秒毎に撮影される各フレームを示すため、実際は、各画像の間隔は、狭く連続的である。ただし、各画像は、所定時間毎に撮影される静止画像であってもよい。
【0056】
ロボット装置1における広視野画像生成部30は、図1に示した処理に基づいて、CCDカメラ20から取得した画像を画像間で適合処理(マッチング)し、マッチングした位置で画像を合成して繋ぎ合わせる。この処理を繰り返すことにより、CCDカメラ20の撮像方向に追従して次々と画像が付加されて拡張されていく。マッチングの際には、ロボット装置のアクチュエータの角度情報を用いることによって、マッチングの範囲を限定することができる。このようにして広視野画像102が生成される。
【0057】
広視野画像生成部30が広視野画像を生成する際、平面画像を重ね合わせる手法では、ロボット装置1の正面の一点から離れるにしたがって画像の歪みが問題となる。そこで、広視野画像制止絵部30は、球面上に投影した球面画像として広視野画像を生成する。図5に、CCDカメラ20からの画像を球面投影して広視野画像を生成する様子を示す。CCDカメラ20から得られた画像103の仮想球面110上への投影画像を画像103aとし、画像104の球面110上への投影画像を画像104aとする。仮想球面110は、CCDカメラ20を中心Oとしている。これにより、歪みの影響のない広視野画像105が得られる。
【0058】
続いて、ロボット装置1が移動せず、その場でCCDカメラ20の向きだけを変えたときの広視野画像の生成を図6及び図7に示す。図6における矢印は、CCDカメラ20の撮像方向を示している。図7(a)には、カメラ方向が方向D1のときの取得画像及び広視野画像を示し、図7(b)には、カメラ方向が方向D2のときの取得画像及び広視野画像を示す。
【0059】
図6に示すように、ロボット装置1が方向D1から方向D2へと向きを変えた場合、ロボット装置1の正面方向が右方に変わる。方向の変更に伴って、ロボット装置1の正面の画像は、図7(a)に示すCCDカメラ20の撮像方向D1の画像106からCCDカメラ20の撮像方向D2の画像107へと変化する。このとき広視野画像生成部30は、図7(b)に示すように、ロボット装置1の動きから検出される移動方向と移動量に基づいて、生成された広視野画像108を左方に移動することによって、ロボット装置1の正面方向と広視野画像108の正面方向とを一致させる。この状態で、広視野画像生成部30は、引き続き、図1に説明した処理に基づいて広視野画像を生成することによって、姿勢を変える前に得られていた画像情報を保持したまま、広視野画像の拡張処理を続けることができる。
【0060】
続いて、ロボット装置1が移動した場合の広視野画像の生成を図8及び図9に示す。図8に示すように、ロボット装置1がポジションP1からポジションP2へと前進した場合を考える。図9(a)にポジションP1における取得画像及び広視野画像を示し、図9(b)にポジションP2における取得画像及び広視野画像を示す。
【0061】
定位置にある被写体を撮像した場合、前進前に撮影された画像109と前進後に撮影される画像110とでは、後者の方が被写体が拡大されて表示される。したがって、広視野画像生成部30は、前進後に得られた画像110と、記憶している広視野画像111との間で画像の適合処理(マッチング)を行って、画像の拡大率を算出する。得られた拡大率に基づいて広視野画像111の全体を拡大し、拡大広視野画像112を得ることによって、移動前に得られていた画像情報を有効に利用して、移動後の位置で広視野画像の拡張処理を続けることができる。
【0062】
また、ロボット装置1がポジションP3からポジションP4へと横移動した場合について図10及び図11に示す。図11(a)にポジションP3における取得画像及び広視野画像を示し、図11(b)にポジションP4における取得画像及び広視野画像を示す。
【0063】
右方向に移動した場合、広視野画像生成部30は、ロボット装置1の前方方向の広視野画像115と移動前に取得した画像113と移動後に取得した画像114との間で画像をマッチングすることにより、得られた移動分だけ広視野画像115を左方に移動させることによって、ロボット装置1の正面方向と広視野画像の正面とを一致させることができる。
【0064】
なお、以上説明した広視野画像の生成において、ステレオ計測等の手法によって、広視野画像中の対象物までの距離情報を得られる場合には、その距離情報を用いることで拡大率及び移動距離を決定することもできる。
【0065】
次に、取得した画像を用いて広視野画像を拡張する場合について、図12を用いて具体的に説明する。これは、図1に示した一連の処理工程のうち、ステップS5乃至ステップS7に相当する。
【0066】
広視野画像生成部30は、図12(a)に示すように、CCDカメラ20によって取得される画像116と広視野画像117とを常に比較している。画像116が広視野画像117の情報を含まない場合、若しくは一部含む場合には、広視野画像生成部30は、図1に示した処理によって広視野画像を拡張する。一方、画像116が既に生成されている広視野画像117の範囲内の画像である場合、広視野画像生成部30は、広視野画像117の対応箇所の画像領域118と画像116とを比較する。その変化量が予め決められた所定の閾値よりも大きい場合は、広視野画像117の対応する領域に画像116を上書きする。この変化量は、取得画像と広視野画像のこの画像に対応する領域の画素値の変化量であるほかに、画像から特徴量を抽出して、その特徴点の画素値のみの変化量であってもよい。このように変化量が所定量を超える場合にのみ、画像処理することにより合成のための無駄な演算処理を省くことができる。
【0067】
以上説明したように、限られた画像から広視野画像を生成して広視野画像を用いて画像認識する手法によれば、ロボット装置1が移動しているときに移動物体を認識する際の認識精度が向上するという利点がある。
【0068】
図13には、ロボット装置1が歩行動作をしているとき、CCDカメラ20において取得される画像を並べて示してある。CCDカメラ20の限られた画角119に移動する対象物体120が撮像されている様子を模式的に示している。狭視野の画像では、図13に示すように、上下左右方向に一様でないぶれ成分を含むため、対象物体120の動きか歩行動作による視野ぶれかを区別することは困難であった。しかし、図14に示すように、本実施の形態のロボット装置1では、広視野画像生成部30において、これらの取得画像と広視野画像121とをマッチングすることによって、ロボット装置1の動きによる画像のぶれ成分と対象物体120の移動成分とを分離することができる。図14では、対象物体120が図中に示す矢印方向に移動していることが認識できる。したがって、広視野画像を生成することによって、移動物体の動きの認識精度が向上する。
【0069】
さらに、ジャイロセンサ等のCCDカメラの向きを検出できるセンサを用いることにより、広視野画像上の視野領域を決定することができるため、マッチング処理では認識することが困難な大きな対象物の動きも認識することができる。
【0070】
次に、生成された広視野画像の保持方法について説明する。これは、図1に示した一連の処理工程におけるステップS9乃至ステップS10に相当する。CCDカメラ20において取得された画像から生成された広視野画像は、ロボット装置1の移動や環境の変化、つまり画像の変化量に伴って変更される。記憶制御部31は、生成された広視野画像と基準となる広視野画像とを比較し、変化量が予め決められた所定の閾値よりも大となったとき、その最新の広視野画像が基準広視野画像として保存する。この操作を繰り返すことによって、閾値以上の変化量を持つ広視野画像が画像列として逐次記憶される。変化量の小さい広視野画像は、記憶されないため、記憶容量が節約できる。したがって、ロボット装置1上のリソースを有効に利用することができる。
【0071】
記憶制御部31は、広視野画像をロボット装置1内に設けられた図示しない不揮発性メモリに記憶する。ロボット装置1では、特に、メモリカード28のような着脱可能な記憶媒体に記憶することもできる。
【0072】
図15には、広視野画像1001、広視野画像1002、・・・、広視野画像100k−1、広視野画像100k、・・・、広視野画像100m−1、広視野画像100m、・・・、広視野画像100n−2、広視野画像100n−1、広視野画像100nが時系列に沿ってメモリカード28に記憶されている様子を概念的に示してある。
【0073】
記憶制御部31は、広視野画像を広視野画像に関する付加情報1301、1302、130k−1、130kとともに記憶し、記憶開始からの経過時間Tに相関した情報量の画像データに圧縮して記憶する。つまり、過去の広視野画像ほど情報量を抑えて記憶する。ここでの画像圧縮には、いわゆるJPEG方式、MPEG方式等、既知の圧縮方法が適用できる。また、経過時間によっては、広視野画像100m−1、100m、100n−2乃至100nのように、例えば、特徴点の画素値のみを画像データとは異なる別の抽象的なデータに変換して、さらに記憶容量を小さくして記憶する。広視野画像は、所定の期間記憶された後、消去される。
【0074】
このように、ロボット装置1では、過去の広視野画像ほど情報量を少なくすることによって、限られたメモリ及びCPUのリソースの中で効率的に画像認識処理及び画像記憶処理を実行できる。また、過去の記憶を忘れていく「人間の記憶モデル」に、より近い記憶モデルを実現することができる。
【0075】
なお、広視野画像を記憶してから消去するまでの時間及び記憶する広視野画像の枚数は、ロボット装置のリソースに応じて変更できる。
【0076】
ところで、本実施の形態として示すロボット装置1は、内部状態に応じて自律的に行動できるロボット装置である。ロボット装置1における制御プログラムのソフトウェア構成は、図16に示すようになる。この制御プログラムは、上述したように、予めフラッシュROM12に格納されており、ロボット装置1の電源投入初期時において読み出される。
【0077】
図16において、デバイス・ドライバ・レイヤ30は、制御プログラムの最下位層に位置し、複数のデバイス・ドライバからなるデバイス・ドライバ・セット31から構成されている。この場合、各デバイス・ドライバは、CCDカメラ20(図3)やタイマ等の通常のコンピュータで用いられるハードウェアに直接アクセスすることを許されたオブジェクトであり、対応するハードウェアからの割り込みを受けて処理を行う。
【0078】
また、ロボティック・サーバ・オブジェクト32は、デバイス・ドライバ・レイヤ30の最下位層に位置し、例えば上述の各種センサやアクチュエータ251〜25n等のハードウェアにアクセスするためのインターフェイスを提供するソフトウェア群でなるバーチャル・ロボット33と、電源の切換えなどを管理するソフトウェア群でなるパワーマネージャ34と、他の種々のデバイス・ドライバを管理するソフトウェア群でなるデバイス・ドライバ・マネージャ35と、ロボット装置1の機構を管理するソフトウェア群でなるデザインド・ロボット36とから構成されている。
【0079】
マネージャ・オブジェクト37は、オブジェクト・マネージャ38及びサービス・マネージャ39から構成されている。オブジェクト・マネージャ38は、ロボティック・サーバ・オブジェクト32、ミドル・ウェア・レイヤ40、及びアプリケーション・レイヤ41に含まれる各ソフトウェア群の起動や終了を管理するソフトウェア群であり、サービス・マネージャ39は、メモリカード28(図3)に格納されたコネクションファイルに記述されている各オブジェクト間の接続情報に基づいて各オブジェクトの接続を管理するソフトウェア群である。
【0080】
ミドル・ウェア・レイヤ40は、ロボティック・サーバ・オブジェクト32の上位層に位置し、画像処理や音声処理などのこのロボット装置1の基本的な機能を提供するソフトウェア群から構成されている。また、アプリケーション・レイヤ41は、ミドル・ウェア・レイヤ40の上位層に位置し、当該ミドル・ウェア・レイヤ40を構成する各ソフトウェア群によって処理された処理結果に基づいてロボット装置1の行動を決定するためのソフトウェア群から構成されている。
【0081】
なお、ミドル・ウェア・レイヤ40及びアプリケーション・レイヤ41の具体なソフトウェア構成をそれぞれ図17に示す。
【0082】
ミドル・ウェア・レイヤ40は、図17に示すように、騒音検出用、温度検出用、明るさ検出用、音階認識用、距離検出用、姿勢検出用、タッチセンサ用、動き検出用及び色認識用の各信号処理モジュール50〜58並びに入力セマンティクスコンバータモジュール59などを有する認識系60と、出力セマンティクスコンバータモジュール68並びに姿勢管理用、トラッキング用、モーション再生用、歩行用、転倒復帰用、LED点灯用及び音再生用の各信号処理モジュール61〜67などを有する出力系69とから構成されている。
【0083】
認識系60の各信号処理モジュール50〜58は、ロボティック・サーバ・オブジェクト32のバーチャル・ロボット33によりDRAM11(図3)から読み出される各センサデータや画像データ及び音声データのうちの対応するデータを取り込み、当該データに基づいて所定の処理を施して、処理結果を入力セマンティクスコンバータモジュール59に与える。ここで、例えば、バーチャル・ロボット33は、所定の通信規約によって、信号の授受或いは変換をする部分として構成されている。
【0084】
入力セマンティクスコンバータモジュール59は、これら各信号処理モジュール50〜58から与えられる処理結果に基づいて、「うるさい」、「暑い」、「明るい」、「ボールを検出した」、「転倒を検出した」、「撫でられた」、「叩かれた」、「ドミソの音階が聞こえた」、「動く物体を検出した」又は「障害物を検出した」などの自己及び周囲の状況や、使用者からの指令及び働きかけを認識し、認識結果をアプリケーション・レイヤ41に出力する。
【0085】
アプリケーション・レイヤ41は、図18に示すように、行動モデルライブラリ70、行動切換えモジュール71、学習モジュール72、感情モデル73及び本能モデル74の5つのモジュールから構成されている。
【0086】
行動モデルライブラリ70には、図19に示すように、「バッテリ残量が少なくなった場合」、「転倒復帰する」、「障害物を回避する場合」、「感情を表現する場合」、「ボールを検出した場合」などの予め選択されたいくつかの条件項目にそれぞれ対応させて、それぞれ独立した行動モデルが設けられている。
【0087】
そして、これら行動モデルは、それぞれ入力セマンティクスコンバータモジュール59から認識結果が与えられたときや、最後の認識結果が与えられてから一定時間が経過したときなどに、必要に応じて後述のように感情モデル73に保持されている対応する情動のパラメータ値や、本能モデル74に保持されている対応する欲求のパラメータ値を参照しながら続く行動をそれぞれ決定し、決定結果を行動切換えモジュール71に出力する。
【0088】
なお、この実施の形態の場合、各行動モデルは、次の行動を決定する手法として、図20に示すような1つのノード(状態)NODE0〜NODEnから他のどのノードNODE0〜NODEnに遷移するかを各ノードNODE0〜NODEnに間を接続するアークARC1〜ARCn1に対してそれぞれ設定された遷移確率P1〜Pnに基づいて確率的に決定する有限確率オートマトンと呼ばれるアルゴリズムを用いる。
【0089】
具体的に、各行動モデルは、それぞれ自己の行動モデルを形成するノードNODE0〜NODEnにそれぞれ対応させて、これらノードNODE0〜NODEn毎に図21に示すような状態遷移表80を有している。
【0090】
この状態遷移表80では、そのノードNODE0〜NODEnにおいて遷移条件とする入力イベント(認識結果)が「入力イベント名」の行に優先順に列記され、その遷移条件についてのさらなる条件が「データ名」及び「データ範囲」の行における対応する列に記述されている。
【0091】
したがって、図21の状態遷移表80で表されるノードNODE100では、「ボールを検出(BALL)」という認識結果が与えられた場合に、当該認識結果とともに与えられるそのボールの「大きさ(SIZE)」が「0から1000」の範囲であることや、「障害物を検出(OBSTACLE)」という認識結果が与えられた場合に、当該認識結果とともに与えられるその障害物までの「距離(DISTANCE)」が「0から100」の範囲であることが他のノードに遷移するための条件となっている。
【0092】
また、このノードNODE100では、認識結果の入力がない場合においても、行動モデルが周期的に参照する感情モデル73及び本能モデル74にそれぞれ保持された各情動及び各欲求のパラメータ値のうち、感情モデル73に保持された「喜び(Joy)」、「驚き(Surprise)」若しくは「悲しみ(Sadness)」のいずれかのパラメータ値が「50から100」の範囲であるときには他のノードに遷移することができるようになっている。
【0093】
また、状態遷移表80では、「他のノードヘの遷移確率」の欄における「遷移先ノード」の列にそのノードNODE0〜NODEnから遷移できるノード名が列記されているとともに、「入力イベント名」、「データ名」及び「データの範囲」の行に記述された全ての条件が揃ったときに遷移できるほかの各ノードNODE0〜NODEnへの遷移確率が「他のノードヘの遷移確率」の欄内の対応する箇所にそれぞれ記述され、そのノードNODE0〜NODEnに遷移する際に出力すべき行動が「他のノードヘの遷移確率」の欄における「出力行動」の行に記述されている。なお、「他のノードヘの遷移確率」の欄における各行の確率の和は100[%]となっている。
【0094】
したがって、図21の状態遷移表80で表されるノードNODE100では、例えば「ボールを検出(BALL)」し、そのボールの「SIZE(大きさ)」が「0から1000」の範囲であるという認識結果が与えられた場合には、「30[%]」の確率で「ノードNODE120(node 120)」に遷移でき、そのとき「ACTION1」の行動が出力されることとなる。
【0095】
各行動モデルは、それぞれこのような状態遷移表80として記述されたノードNODE0〜 NODEnが幾つも繋がるようにして構成されており、入力セマンティクスコンバータモジュール59から認識結果が与えられたときなどに、対応するノードNODE0〜NODEnの状態遷移表を利用して確率的に次の行動を決定し、決定結果を行動切換えモジュール71に出力するようになされている。
【0096】
図18に示す行動切換えモジュール71は、行動モデルライブラリ70の各行動モデルからそれぞれ出力される行動のうち、予め定められた優先順位の高い行動モデルから出力された行動を選択し、当該行動を実行すべき旨のコマンド(以下、これを行動コマンドという。)をミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68に送出する。なお、この実施の形態においては、図19において下側に表記された行動モデルほど優先順位が高く設定されている。
【0097】
また、行動切換えモジュール71は、行動完了後に出力セマンティクスコンバータモジュール68から与えられる行動完了情報に基づいて、その行動が完了したことを学習モジュール72、感情モデル73及び本能モデル74に通知する。
【0098】
一方、学習モジュール72は、入力セマンティクスコンバータモジュール59から与えられる認識結果のうち、「叩かれた」や「撫でられた」など、使用者からの働きかけとして受けた教示の認識結果を入力する。
【0099】
そして、学習モジュール72は、この認識結果及び行動切換えモジュール71からの通知に基づいて、「叩かれた(叱られた)」ときにはその行動の発現確率を低下させ、「撫でられた(誉められた)」ときにはその行動の発現確率を上昇させるように、行動モデルライブラリ70における対応する行動モデルの対応する遷移確率を変更する。
【0100】
他方、感情モデル73は、「喜び(Joy)」、「悲しみ(Sadness)」、「怒り(Anger)」、「驚き(Surprise)」、「嫌悪(Disgust)」及び「恐れ(Fear)」の合計6つの情動について、各情動毎にその情動の強さを表すパラメータを保持している。そして、感情モデル73は、これら各情動のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール59から与えられる「叩かれた」及び「撫でられた」などの特定の認識結果と、経過時間及び行動切換えモジュール71からの通知となどに基づいて周期的に更新する。
【0101】
具体的には、感情モデル73は、入力セマンティクスコンバータモジュール59から与えられる認識結果と、そのときのロボット装置1の行動と、前回更新してからの経過時間となどに基づいて所定の演算式により算出されるそのときのその情動の変動量を△E[t]、現在のその情動のパラメータ値をE[t]、その情動の感度を表す係数をkeとして、(1)式によって次の周期におけるその情動のパラメータ値E[t+1]を算出し、これを現在のその情動のパラメータ値E[t]と置き換えるようにしてその情動のパラメータ値を更新する。また、感情モデル73は、これと同様にして全ての情動のパラメータ値を更新する。
【0102】
【数1】
なお、各認識結果や出力セマンティクスコンバータモジュール68からの通知が各情動のパラメータ値の変動量△E[t]にどの程度の影響を与えるかは予め決められており、例えば「叩かれた」といった認識結果は「怒り」の情動のパラメータ値の変動量△E[t]に大きな影響を与え、「撫でられた」といった認識結果は「喜び」の情動のパラメータ値の変動量△E[t]に大きな影響を与えるようになっている。
【0103】
ここで、出力セマンティクスコンバータモジュール68からの通知とは、いわゆる行動のフィードバック情報(行動完了情報)であり、行動の出現結果の情報であり、感情モデル73は、このような情報によっても感情を変化させる。これは、例えば、「吠える」といった行動により怒りの感情レベルが下がるといったようなことである。なお、出力セマンティクスコンバータモジュール68からの通知は、上述した学習モジュール72にも入力されており、学習モジュール72は、その通知に基づいて行動モデルの対応する遷移確率を変更する。
【0104】
なお、行動結果のフィードバックは、行動切換えモジュレータ71の出力(感情が付加された行動)によりなされるものであってもよい。
【0105】
一方、本能モデル74は、「運動欲(exercise)」、「愛情欲(affection)」、「食欲(appetite)」及び「好奇心(curiosity)」の互いに独立した4つの欲求について、これら欲求毎にその欲求の強さを表すパラメータを保持している。そして、本能モデル74は、これらの欲求のパラメータ値を、それぞれ入力セマンティクスコンバータモジュール59から与えられる認識結果や、経過時間及び行動切換えモジュール71からの通知などに基づいて周期的に更新する。
【0106】
具体的には、本能モデル74は、「運動欲」、「愛情欲」及び「好奇心」については、認識結果、経過時間及び出力セマンティクスコンバータモジュール68からの通知などに基づいて所定の演算式により算出されるそのときのその欲求の変動量をΔI[k]、現在のその欲求のパラメータ値をI[k]、その欲求の感度を表す係数kiとして、所定周期で(2)式を用いて次の周期におけるその欲求のパラメータ値I[k+1]を算出し、この演算結果を現在のその欲求のパラメータ値I[k]と置き換えるようにしてその欲求のパラメータ値を更新する。また、本能モデル74は、これと同様にして「食欲」を除く各欲求のパラメータ値を更新する。
【0107】
【数2】
なお、認識結果及び出力セマンティクスコンバータモジュール68からの通知などが各欲求のパラメータ値の変動量△I[k]にどの程度の影響を与えるかは予め決められており、例えば出力セマンティクスコンバータモジュール68からの通知は、「疲れ」のパラメータ値の変動量△I[k]に大きな影響を与えるようになっている。
【0108】
なお、本実施の形態においては、各情動及び各欲求(本能)のパラメータ値がそれぞれ0から100までの範囲で変動するように規制されており、また係数ke、kiの値も各情動及び各欲求毎に個別に設定されている。
【0109】
一方、ミドル・ウェア・レイヤ40の出力セマンティクスコンバータモジュール68は、図17に示すように、上述のようにしてアプリケーション・レイヤ41の行動切換えモジュール71から与えられる「前進」、「喜ぶ」、「鳴く」又は「トラッキング(ボールを追いかける)」といった抽象的な行動コマンドを出力系69の対応する信号処理モジュール61〜67に与える。
【0110】
そしてこれら信号処理モジュール61〜67は、行動コマンドが与えられると当該行動コマンドに基づいて、その行動をするために対応するアクチュエータ251〜25n(図3)に与えるべきサーボ指令値や、スピーカ24(図3)から出力する音の音声データ及び又は「目」のLEDに与える駆動データを生成し、これらのデータをロボティック・サーバ・オブジェクト32のバーチャル・ロボット33及び信号処理回路14(図3)を順次介して対応するアクチュエータ251〜25n又はスピーカ24又はLEDに順次送出する。
【0111】
このようにしてロボット装置1は、制御プログラムに基づいて、自己(内部)及び周囲(外部)の状況や、使用者からの指示及び働きかけに応じた自律的な行動ができる。したがって、広視野画像を生成し、この広視野画像と付加情報とを時間に相関した情報量に圧縮して記憶するという一連の画像記憶処理を実行するための制御プログラムが予め組み込まれていないロボット装置であっても、制御プログラムを読み込ませることによって、図1に示した画像記憶処理を実行させることができる。
【0112】
このような制御プログラムは、ロボット装置が読取可能な形式で記録された記録媒体を介して提供される。制御プログラムを記録する記録媒体としては、磁気読取方式の記録媒体(例えば、磁気テープ、フロッピーディスク、磁気カード)、光学読取方式の記録媒体(例えば、CD−ROM、MO、CD−R、DVD)等が考えられる。記録媒体には、半導体メモリ(いわゆるメモリカード(矩形型、正方形型など形状は問わない。)、ICカード)等の記憶媒体も含まれる。また、制御プログラムは、いわゆるインターネット等を介して提供されてもよい。
【0113】
これらの制御プログラムは、専用の読込ドライバ装置、又はパーソナルコンピュータ等を介して再生され、有線又は無線接続によってロボット装置1に伝送されて読み込まれる。また、ロボット装置は、半導体メモリ、又はICカード等の小型化された記憶媒体のドライブ装置を備える場合、これら記憶媒体から制御プログラムを直接読み込むこともできる。ロボット装置1では、メモリカード28から読み込むことができる。
【0114】
なお、本発明は、上述した実施の形態のみに限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能であることは勿論である。本実施の形態では、4足歩行の脚式移動ロボットに関して説明したが、ロボット装置は、内部状態に応じて動作するものであれば適用可能であって、移動手段は、4足歩行、さらには脚式移動方式に限定されない。
【0115】
【発明の効果】
以上詳細に説明したように、本発明にかかるロボット装置は、移動手段を備え、内部状態に応じて自律動作するロボット装置において、ロボット装置正面に対して独立した方向に可動とされ所定の画角で被写体を撮像する撮像手段と、撮像手段によって能動的に取得された画像、又は撮像手段を介して受動的に取得された画像を逐次付加して撮像手段の画角よりも広い視野の広視野画像を生成する広視野画像生成手段と、広視野画像を一時的に記憶する一時記憶手段と、取得された画像の変化量に応じて、一時記憶手段に記憶された広視野画像を該広視野画像に関する付加情報とともに基準広視野画像として時系列で記憶手段に記憶し、記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換える記憶制御手段とを備える。
【0116】
したがって、本発明にかかるロボット装置は、撮像手段を介して能動的又は受動的に取得された画像を逐次付加して撮像手段の画角よりも広い視野の広視野画像を生成することによって、画像認識に有効な視野範囲が拡大でき、より幅広い環境下において高い画像認識性能を達成できる。これにより、対象物体、特に、移動物体の認識精度が向上する。
【0117】
また、本発明にかかるロボット装置は、取得された画像の変化量に応じて該広視野画像に関する付加情報とともに広視野画像を記憶手段に時系列で記憶することにより、時間的に過去に得られた画像情報の中から画像認識結果を抽出することができる。特に、対象物体に対してアテンション(捕捉指示)を指定する必要がなくなる。
【0118】
さらに、本発明にかかるロボット装置は、記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換えることにより、記憶容量が節約できる。したがって、リソースを有効利用でき、リソースに応じてリアルタイム性を重視した画像処理ができるようになる。また、より人間に近い記憶モデルを実現できることから、豊富なユーザインタラクションが可能となり、エンターテインメント性が向上する。
【0119】
また、本発明にかかる画像記憶装置は、所定の画角で被写体を撮像する撮像手段と、撮像手段によって随時取得された画像を逐次付加して撮像手段の画角よりも広い視野の広視野画像を生成する広視野画像生成手段と、広視野画像を一時的に記憶する一時記憶手段と、取得された画像の変化量に応じて、一時記憶手段に記憶された広視野画像を該広視野画像に関する付加情報とともに基準広視野画像として時系列で記憶手段に記憶し、記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換える記憶制御手段とを備える。
【0120】
したがって、本発明にかかる画像記憶装置は、撮像手段を介して取得された画像を逐次付加して撮像手段の画角よりも広い視野の広視野画像を生成することによって、画像認識に有効な視野範囲が拡大でき、より幅広い環境下において高い画像認識性能を達成できる。これにより、対象物体、特に、移動物体の認識精度が向上する。
【0121】
また、本発明にかかる画像記憶装置は、取得された画像の変化量に応じて該広視野画像に関する付加情報とともに広視野画像を記憶手段に時系列で記憶することにより、時間的に過去に得られた画像情報の中から画像認識結果を抽出することができる。特に、対象物体に対してアテンション(捕捉指示)を指定する必要がなくなる。
【0122】
さらに、本発明にかかる画像記憶装置は、記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換えることにより、記憶容量が節約できる。したがって、リソースを有効利用でき、リソースに応じてリアルタイム性を重視した画像処理ができるようになる。
【0123】
また、本発明にかかる画像記憶方法は、所定の画角で被写体を撮像する撮像工程と、撮像工程において随時取得された画像を逐次付加して撮像工程で撮像される画角よりも広い視野の広視野画像を生成する広視野画像生成工程と、広視野画像を一時的に記憶する一時記憶工程と、取得された画像の変化量に応じて、一時記憶工程で記憶された広視野画像を該広視野画像に関する付加情報とともに基準広視野画像として時系列で記憶手段に記憶し、記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換える記憶制御工程とを備える。
【0124】
したがって、本発明にかかる画像記憶方法によれば、撮像工程において取得された画像を逐次付加して撮像工程で撮像される画角よりも広い視野の広視野画像が生成されることによって、画像認識に有効な視野範囲が拡大され、より幅広い環境下において高い画像認識性能が達成される。これにより、対象物体、特に、移動物体の認識精度が向上する。
【0125】
また、本発明にかかる画像記憶方法によれば、取得された画像の変化量に応じて該広視野画像に関する付加情報とともに広視野画像が時系列で記憶されることにより、時間的に過去に得られた画像情報の中から画像認識結果を抽出することができる。特に、対象物体に対してアテンション(捕捉指示)を指定する必要がなくなる。
【0126】
さらに、本発明にかかる画像記憶方法によれば、記憶手段に記憶された広視野画像が記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換えられることにより、記憶容量が節約できる。したがって、リソースを有効利用でき、リソースに応じてリアルタイム性を重視した画像処理ができるようになる。
【0127】
本発明にかかる制御プログラムは、撮像手段において所定の画角で被写体を撮像する撮像処理と、撮像処理によって随時取得される画像を逐次付加して撮像手段で撮像される画角よりも広い視野の広視野画像を生成する広視野画像生成処理と、広視野画像を一時的に記憶する記憶処理と、取得された画像の変化量に応じて、記憶処理で記憶した広視野画像を該広視野画像に関する付加情報とともに基準広視野画像として時系列で記憶手段に記憶し、記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換える記憶制御処理とを画像処理機能を備えた電子機器に実行させるためのプログラムである。
【0128】
したがって、本発明にかかる制御プログラムによれば、画像処理機能を備えた電子機器に対して、撮像処理によって随時取得される画像を逐次付加して撮像手段で撮像される画角よりも広い視野の広視野画像を生成する処理を実行させることによって、電子機器が画像認識を行う上での有効な視野範囲が拡大され、より幅広い環境下において高い画像認識性能が達成される。これにより、対象物体、特に、移動物体の認識精度が向上する。
【0129】
また、本発明にかかる制御プログラムによれば、画像処理機能を備えた電子機器に対して、取得された画像の変化量に応じて該広視野画像に関する付加情報とともに広視野画像が時系列で記憶する処理を実行させることにより、電子機器は、時間的に過去に得られた画像情報の中から画像認識結果を抽出できるようになる。特に、対象物体に対してアテンション(捕捉指示)を指定する必要がなくなる。
【0130】
さらに、本発明にかかる制御プログラムによれば、画像処理機能を備えた電子機器に対して、記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した情報量の画像データに圧縮して書き換える処理を実行させることにより、電子機器の画像記憶容量が節約される。したがって、電子機器は、リソースを有効利用でき、リソースに応じてリアルタイム性を重視した画像処理を実行できるようになる。
【図面の簡単な説明】
【図1】本発明の一構成例として示すロボット装置が周囲の状況を画像として取得し、限られた視野の画像から広視野画像を生成し、さらに、生成した広視野画像とこの広視野画像に関する付加情報とを時間経過とともに記憶する処理を示すフローチャートである。
【図2】本発明の一構成例として示すロボット装置の外観を示す外観図である。
【図3】本発明の一構成例として示すロボット装置の構成を示す構成図である。
【図4】図4(a)は、本発明の一構成例として示すロボット装置のCCDカメラの動きに合わせて限られた画角の画像が次々と取得される様子を示す模式図であり、図4(b)は、取得された画像から合成された広視野画像を示す模式図である。
【図5】本発明の一構成例として示すロボット装置が取得した画像を球面投影して広視野画像を生成する様子を説明する模式図である。
【図6】本発明の一構成例として示すロボット装置がその場でCCDカメラの向きだけを変える様子を示す図である。
【図7】図7(a)は、本発明の一構成例として示すロボット装置のカメラ方向が方向D1のときの取得画像及び広視野画像を示す図であり、図7(b)は、本発明の一構成例として示すロボット装置のカメラ方向が方向D2のときの取得画像及び広視野画像を示す図である。
【図8】本発明の一構成例として示すロボット装置がポジションP1からポジションP2へと前進する様子を示す図である。
【図9】図9(a)は、本発明の一構成例として示すロボット装置がポジションP1にあるときの取得画像及び広視野画像を示す図であり、図9(b)は、本発明の一構成例として示すロボット装置がポジションP2にあるときの取得画像及び広視野画像を示す図である。
【図10】本発明の一構成例として示すロボット装置がポジションP3からポジションP4へと横移動する様子を示す図である。
【図11】図11(a)は、本発明の一構成例として示すロボット装置がポジションP3にあるときの取得画像及び広視野画像を示す図であり、図11(b)は、本発明の一構成例として示すロボット装置がポジションP4にあるときの取得画像及び広視野画像を示す図である。
【図12】図12(a)は、本発明の一構成例として示すロボット装置がCCDカメラによって取得した画像と広視野画像とを比較する様子を模式的に示す図であり、図12(b)は、ロボット装置が比較した画像を広視野画像に上書きする様子を説明する図である。
【図13】本発明の一構成例として示すロボット装置が歩行動作をしているとき、CCDカメラにおいて取得される画像を並べて示した図である。
【図14】本発明の一構成例として示すロボット装置によって生成された広視野画像上で表される対象物体の移動を説明する図である。
【図15】本発明の一構成例として示すロボット装置において、広視野画像が時系列に沿ってメモリカードに記憶される概念を説明する図である。
【図16】本発明の一構成例として示すロボット装置の制御プログラムのソフトウェア構成を示す構成図である。
【図17】本発明の一構成例として示すロボット装置の制御プログラムのうち、ミドル・ウェア・レイヤの構成を示す構成図である。
【図18】本発明の一構成例として示すロボット装置の制御プログラムのうち、アプリケーション・レイヤの構成を示す構成図である。
【図19】本発明の一構成例として示すロボット装置の制御プログラムのうち、行動モデルライブラリの構成を示す構成図である。
【図20】本発明の一構成例として示すロボット装置の行動を決定するためのアルゴリズムである有限確率オートマトンを説明する模式図である。
【図21】本発明の一構成例として示すロボット装置の行動を決定するための状態遷移条件を表す図である。
【符号の説明】
1 ロボット装置、2 胴体部ユニット、3A,3B,3C,3D 脚部ユニット、4 頭部ユニット、5 尻尾部ユニット、10 CPU、11 DRAM、12 フラッシュROM、13 PCカードインターフェイス回路、14 信号処理回路、15 内部バス、16 コントロール部、17 バッテリ、18 角速度センサ、19 加速度センサ、20 CCDカメラ、21 タッチセンサ、22 距離センサ、23 マイク、24 スピーカ、251〜25n アクチュエータ、261〜26n ポテンショメータ、271〜27n ハブ、28 メモリカード、30 広視野画像生成部、31 記憶制御部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a robot apparatus that acts based on an internal state, an image storage apparatus, and an image storage method, and in particular, synthesizes a wide-field image from a narrow-field image passively or actively acquired by an imaging unit and Spatially recognizing and storing the environment of the robot, and storing the surrounding environment up to a predetermined period in time series, and combining the wide-field image data from the image data of the predetermined field of view The present invention relates to an image storage apparatus and an image storage method for storing image data up to a predetermined period in a time series.
[0002]
[Prior art]
A mechanical device that performs an action similar to that of a human (living body) using an electrical or magnetic action is called a “robot”. Robots have begun to spread in Japan since the late 1960s, but many of them are industrial robots such as manipulators and transfer robots for the purpose of automating and unmanned production work in factories. Met.
[0003]
Recently, practical robots that support life as a human partner, that is, support human activities in various situations in daily life such as the living environment, have been developed. Unlike industrial robots, such practical robots have the ability to learn how to adapt themselves to humans with different personalities or to various environments in various aspects of the human living environment. For example, a “pet-type” robot that mimics the body mechanism and movement of a four-legged animal such as a dog or cat, or a body mechanism or movement of an animal that walks upright on two legs. Legged mobile robots such as “humanoid” or “humanoid” robots are already in practical use.
[0004]
Since these legged mobile robots can perform various operations with an emphasis on entertainment as compared to industrial robots, they are sometimes called entertainment robots. Some legged mobile robots that perform appearance and movement as close as possible to the appearance of animals and humans include a small camera or the like corresponding to an “eye”. In this case, the legged mobile robot can recognize the surrounding environment input as image information by performing image processing on the acquired image.
[0005]
[Problems to be solved by the invention]
However, since the conventional robot apparatus has a limited field of view of the mounted camera, there is a disadvantage that the field of view effective for image recognition is limited. Further, since the memory and CPU resources that can be used for image processing are limited, the image processing speed, the image capacity, and the like are limited.
[0006]
There are several methods for improving the field of view of the mounted camera: a method for obtaining a wide-field image using a fisheye lens, a method for obtaining an omnidirectional image using an omnidirectional camera, and a panoramic image by rotating the camera horizontally. A method of obtaining a flat image, a method of using a wide-angle camera together with a high-resolution camera, and the like have been devised.
[0007]
However, when a fisheye lens or an omnidirectional camera is used, it is necessary to perform processing for correcting image distortion as preprocessing for image analysis for recognition, and this correction processing and image analysis processing take time. Since these robot apparatuses are required to have real-time characteristics, this method is not suitable for causing the robot apparatus to perform a predetermined operation. Further, since the resolution of the image obtained as a result of these processes is relatively low, the degree of authentication is reduced.
[0008]
Further, in the method of generating a panoramic image, it takes time to acquire an image by rotating the camera, so that the time required to recognize the image also increases. Also, the method of using a high-resolution camera and a wide-angle camera together has a problem that a space for mounting both cameras cannot be secured when the space for mounting the camera is very limited as in a robot apparatus.
[0009]
A method is also conceivable in which all acquired images are stored and recognition processing is performed on all images. According to this method, the contents of all image data can be searched. However, extracting information from a large amount of image data is not suitable for a robot apparatus with limited resources.
[0010]
Furthermore, even if the legged mobile robot can collect surrounding image data, it is difficult to recognize the moving object when it is moving because the image acquired during walking is up and down and left and right. . That is, there is a problem that it is impossible to detect whether the image is blurred due to its own movement or due to the movement of the object.
[0011]
Therefore, the present invention has been proposed in view of such a conventional situation, and synthesizes a wide range of images not limited by the viewing angle of the camera, spatially recognizes and stores the surrounding environment, and Provided are a robot apparatus for storing an environment in time series, and an image storage apparatus and an image storage method for synthesizing a wide range of images not limited by the viewing angle of a camera and storing the synthesized image data in time series. For the purpose.
[0012]
[Means for Solving the Problems]
In order to achieve the above-described object, a robot apparatus according to the present invention includes a moving unit, and in a robot apparatus that autonomously operates according to an internal state,the aboveAn imaging means that is movable in an independent direction with respect to the front surface of the robot apparatus and images a subject at a predetermined angle of view;the aboveImages actively acquired by imaging means, orthe aboveBy sequentially adding images acquired passively via imaging meansthe aboveWide-field image generation means for generating a wide-field image having a wider field of view than the angle of view of the imaging means;the aboveTemporary storage means for temporarily storing a wide-field image;the aboveWide-field image stored in temporary storageTheStore in storageControlWith memory control meansFurther, the storage control means has a change amount obtained by comparing the wide-field image stored in the temporary storage means with the reference wide-field image that is the latest wide-field image stored in the storage means in advance. When the predetermined predetermined threshold value is exceeded, the wide-field image stored in the temporary storage unit is stored in the storage unit, and the wide-field image stored in the storage unit is elapsed from the start of storage. The past wide-field image correlated with the image data is compressed and rewritten to a smaller amount of image data.
[0013]
Such a robot apparatus sequentially adds images acquired actively or passively through the imaging unit to generate a wide-field image having a field of view wider than the angle of view of the imaging unit, and changes in the acquired image Depending on the amount, the wide-field image is stored in the storage unit in time series together with additional information related to the wide-field image, and the wide-field image stored in the storage unit is converted into image data with an information amount correlated with the elapsed time from the start of storage. Compress and rewrite.
[0014]
An image storage device according to the present invention includes an imaging unit that images a subject at a predetermined angle of view;the aboveAdd images acquired by the imaging means as neededthe aboveWide-field image generation means for generating a wide-field image having a wider field of view than the angle of view of the imaging means;the aboveTemporary storage means for temporarily storing a wide-field image;the aboveWide-field image stored in temporary storageTheStore in storageControlWith memory control meansFurther, the storage control means has a change amount obtained by comparing the wide-field image stored in the temporary storage means with the reference wide-field image that is the latest wide-field image stored in the storage means in advance. When the predetermined predetermined threshold value is exceeded, the wide-field image stored in the temporary storage unit is stored in the storage unit, and the wide-field image stored in the storage unit is elapsed from the start of storage. The past wide-field image correlated with the image data is compressed and rewritten to a smaller amount of image data.
[0015]
Such an image storage device sequentially adds the images acquired through the imaging unit to generate a wide-field image having a field of view wider than the angle of view of the imaging unit, and the image storage device generates the image according to the amount of change in the acquired image. The wide-field image is stored in the storage unit in time series together with the additional information related to the wide-field image, and the wide-field image stored in the storage unit is compressed and rewritten into image data having an information amount correlated with the elapsed time from the start of storage.
[0016]
An image storage method according to the present invention includes an imaging step of imaging a subject at a predetermined angle of view;the aboveAdd images acquired at any time during the imaging processthe aboveA wide-field image generation step for generating a wide-field image having a wider field of view than the angle of view captured in the imaging step;the aboveWide field imageTemporary storage meansA temporary storage step for temporarily storing;the aboveWide-field image stored in the temporary storage processTheStore in storageControlMemory control processIn the storage control step, the amount of change obtained by comparing the wide-field image stored in the temporary storage unit with the reference wide-field image that is the latest wide-field image stored in the storage unit is previously determined. When the predetermined predetermined threshold value is exceeded, the wide-field image stored in the temporary storage unit is stored in the storage unit, and the wide-field image stored in the storage unit is elapsed from the start of storage. The past wide-field image correlated with the image data is compressed and rewritten to a smaller amount of image data.
[0017]
In such an image storage method, the images acquired in the imaging process are sequentially added to generate a wide-field image having a field of view wider than the angle of view of the imaging unit, and the wide-field of view is determined according to the amount of change in the acquired image. A wide-field image is stored in the storage unit in time series together with additional information related to the image, and the stored wide-field image is compressed and rewritten into image data having an information amount correlated with the elapsed time from the start of storage.
[0018]
The control program according to the present invention is:On the computer,Imaging processing for imaging a subject at a predetermined angle of view in the imaging means;the aboveBy sequentially adding images acquired as needed by the imaging processthe aboveWide-field image generation processing for generating a wide-field image having a wider field of view than the angle of view captured by the imaging means;the aboveWide field imageTemporary storage meansTemporary storage processing for temporarily storing;Stored in the temporary storage meansWide field imageTheStore in storageAt the time of control, a change amount obtained by comparing the wide-field image stored in the temporary storage unit with the reference wide-field image that is the latest wide-field image stored in the storage unit is determined in advance. When it becomes larger than a predetermined threshold, the wide-field image stored in the temporary storage unit is stored in the storage unit, and the wide-field image stored in the storage unit is correlated with the elapsed time from the start of storage. Compress and rewrite image data with less information as past wide-field imagesStorage control processingTheThis is a program to be executed.
[0019]
Such a control program generates images with a wider field of view than the angle of view captured by the imaging means by sequentially adding images acquired as needed by the imaging process, and according to the amount of change in the acquired images. The wide-field image stored in the storage process is stored in the storage unit in time series as a reference wide-field image together with additional information related to the wide-field image, and the wide-field image stored in the storage unit is correlated with the elapsed time from the start of storage. This series of image storage processing is executed by an electronic device that does not include processing for compressing and rewriting the image data with the amount of information. Also, the above-described control program is provided by being recorded on a recording medium.
[0020]
DETAILED DESCRIPTION OF THE INVENTION
A robot apparatus shown as one configuration example of the present invention is a robot apparatus that autonomously operates according to an internal state. This robot apparatus is a legged mobile robot that includes at least an upper limb, a trunk, and a lower limb, and uses only the upper limb and the lower limb or the lower limb as a moving means. Legged mobile robots include a pet-type robot that mimics the body mechanism and movement of a quadruped animal, and a robot device that mimics the body mechanism and movement of a biped animal that uses only the lower limbs as moving means. However, the robot apparatus shown as the present embodiment is a quadruped walking type legged mobile robot.
[0021]
This robotic device is a practical robot that supports human activities in various situations in daily life such as the living environment, and can act according to internal conditions (anger, sadness, joy, fun, etc.) and walk on four legs It is an entertainment robot that can express the basic movements of animals.
[0022]
In particular, this robot apparatus has a shape imitating a “dog”, and has a head, a torso, an upper limb, a lower limb, a tail, and the like. The number of actuators and potentiometers corresponding to the degree of freedom of movement are provided in the portions corresponding to the connecting parts and joints of each part, and a target action can be expressed by the control of the control part.
[0023]
Furthermore, the robot apparatus includes an imaging unit for acquiring surrounding conditions as image data, various sensors for detecting an action received from the outside, and the like. A small CCD (Charge-Coupled Device) camera is used as the imaging unit. The sensor includes an angular velocity sensor that detects an angular velocity, a distance sensor that measures a distance to a subject imaged by a CCD camera, a touch sensor that detects contact from the outside, and the like. It is installed at an appropriate location.
[0024]
The robot apparatus shown as one configuration example of the present invention generates an image with a wider field of view than the angle of view of the CCD camera from an image with a limited field of view acquired by the CCD camera, and uses the image with the wide field of view. Thus, the surrounding situation can be recognized as a wide space, not as a limited area. Further, by adding additional information such as time information, position information, posture information, etc. to this wide field-of-view image and sequentially storing it, it is possible to recognize the time information in addition to the space information. Here, the time information is, for example, the time when an image with a wide field of view is generated, and the position information is information representing the position where the image was acquired as an absolute position or a relative position from a certain reference point. The posture information is information indicating the posture of the robot apparatus when an image is acquired.
[0025]
This robot apparatus acquires the surrounding situation as an image, generates an image with a wide field of view (hereinafter referred to as a wide field image) from an image with a limited field of view, and further generates the generated wide field image and the wide field image. A process of storing additional information related to time with time will be described with reference to FIG.
[0026]
In step S1, an image is acquired from the CCD camera. At this time, for image acquisition, an active image capturing for the purpose of image recognition and an image that always “flows” from the CCD camera when not for image recognition, that is, during standby or during other operations. There is with passive shooting to get.
[0027]
Subsequently, in step S2, it is detected whether or not the robot apparatus is moving or operating. The movement of the robot apparatus can be detected from the operation of each actuator or a potentiometer.
[0028]
If the robot apparatus is moving, the wide-field image generated so far is changed in step S3. That is, based on the direction data such as the angle information of the CCD camera, the wide-field image is moved in the direction opposite to the changed direction by the amount corresponding to the change, thereby obtaining the imaging direction and the front direction of the wide-field image. Match. If the robot apparatus is not moving in step S2, the process proceeds to step S4.
[0029]
In step S4, the correspondence between the acquired image and the wide-field image is calculated from the direction data of the CCD camera. That is, it is calculated which part of the wide-field image generated by this time the acquired image corresponds to.
[0030]
Subsequently, in step S5, the robot apparatus determines whether or not the acquired image includes an unstored visual field area. If an unstored visual field area is included, the process proceeds to step S7. If an unstored visual field area is not included, it is determined in step S6 whether or not the obtained image change amount is larger than a threshold value. Here, the amount of change corresponds to, for example, the pixel distribution of the acquired image and this image in the wide-field images generated so far.regionThe amount of change determined based on the difference from the pixel distribution.
[0031]
If the change amount is smaller than the threshold value, the process returns to step S1 and the same processing is repeated for the newly acquired image. If the change amount is larger than the threshold value, the acquired image is combined with the wide-field image in step S7. At this time, the area overlapping the wide-field image generated so far is overwritten, and the area of the wide-field image is expanded by additionally storing the unstored area.
[0032]
In this way, by comparing the change amount of the acquired image with a predetermined threshold value, it is possible to prevent a loss in processing time, storage capacity, and the like due to redundant storage of images with a small change amount. .
[0033]
Subsequently, in step S8, the expanded wide-field image is compared with an image stored in the storage unit as a reference wide-field image. The reference wide-field image indicates a wide-field image before a predetermined time. In the storage unit, the generated wide-field images are stored in order along the time series together with the additional information.
[0034]
In step S9, the robot apparatus determines whether or not the amount of change in the expanded wide-field image is greater than or equal to a threshold value. The threshold value used in step S6 is the threshold value of the change amount in the acquired narrow-field image, whereas the threshold value here indicates, for example, the threshold value of the change amount over the entire generated wide-field image. .
[0035]
When the change amount of the extended wide-field image is smaller than the threshold value, the process returns to step S1 and the same processing is repeated for the newly acquired image. That is, image processing for further expanding the wide-field image is performed. On the other hand, if the change amount is larger than the threshold value, the process proceeds to step S10, where the extended wide-field image is updated as a new reference wide-field image, and all the images that have been used as the reference wide-field image so far are included. Are compressed in accordance with the elapsed time from the start of storage, and stored again in the storage unit.
[0036]
Through the above-described image processing and storage processing, the robot apparatus can use a wide range of images not limited by the viewing angle of the mounted CCD camera as images for image recognition.
[0037]
Further, in the conventional robot apparatus, it is necessary to preliminarily store an attention (capture instruction) with respect to the object to be recognized. However, the robot apparatus shown in the present embodiment can perform active imaging or passive imaging. When retrieving the stored contents by generating a wide-field image from the acquired image and storing the generated wide-field image together with additional information such as position information, posture information, and time information of the robot apparatus. Can search when, where, what, etc. as if a human “remembers” the memory. In particular, an object that has been passively entered in the field of view in the past and an object that has not been given an attention (capture instruction) are also stored, so that it is possible to search even if the object is not specified in advance.
[0038]
Hereinafter, a robot apparatus shown as one configuration example of the present invention will be described with reference to the drawings.
[0039]
In the present embodiment, the
[0040]
As shown in FIG. 3, the
[0041]
The
[0042]
Furthermore, an image having a wider field of view than the angle of view of the CCD camera 20 (hereinafter referred to as a wide-field image) is added to the
[0043]
The wide-field
[0044]
Further, the
[0045]
Joint portions of the
[0046]
These
[0047]
The signal processing circuit 14 sequentially takes in sensor data, image data, and audio data supplied from the above-described sensors, and sequentially stores them in a predetermined position in the DRAM 11 via the
[0048]
The sensor data, image data, audio data, and battery remaining amount data stored in the DRAM 11 in this way are used when the
[0049]
The
[0050]
As described above, the
[0051]
Further, the
[0052]
Thus, the
[0053]
Next, a case where the
[0054]
FIG. 4A shows how images with a limited angle of view are acquired one after another in accordance with the movement of the
[0055]
Each image photographed by the
[0056]
The wide-field
[0057]
When the wide-field
[0058]
Subsequently, generation of a wide-field image when the
[0059]
As shown in FIG. 6, the
[0060]
Next, generation of a wide-field image when the
[0061]
When a subject at a fixed position is imaged, the latter is enlarged and displayed in the
[0062]
Also, the
[0063]
When moving in the right direction, the wide-field
[0064]
In addition, in the generation of the wide-field image described above, when distance information to the object in the wide-field image can be obtained by a technique such as stereo measurement, the enlargement ratio and the movement distance can be determined by using the distance information. It can also be determined.
[0065]
Next, a case where the wide-field image is expanded using the acquired image will be specifically described with reference to FIG. This corresponds to steps S5 to S7 in the series of processing steps shown in FIG.
[0066]
As shown in FIG. 12A, the wide-field
[0067]
As described above, according to the technique for generating a wide-field image from a limited image and recognizing the image using the wide-field image, recognition when recognizing a moving object when the
[0068]
FIG. 13 shows images obtained by the
[0069]
In addition, by using a sensor that can detect the orientation of a CCD camera, such as a gyro sensor, it is possible to determine the field of view on a wide-field image, and thus recognize the movement of large objects that are difficult to recognize by matching processing. can do.
[0070]
Next, a method for holding the generated wide-field image will be described. This corresponds to steps S9 to S10 in the series of processing steps shown in FIG. The wide-field image generated from the image acquired by the
[0071]
The
[0072]
FIG. 15 shows a wide field image 100.1Wide-
[0073]
The
[0074]
As described above, the
[0075]
Note that the time from storing the wide-field image to erasing and the number of stored wide-field images can be changed according to the resource of the robot apparatus.
[0076]
By the way, the
[0077]
In FIG. 16, the
[0078]
Further, the
[0079]
The
[0080]
The
[0081]
Note that specific software configurations of the
[0082]
As shown in FIG. 17, the
[0083]
Each of the
[0084]
Based on the processing result given from each of these
[0085]
As shown in FIG. 18, the
[0086]
In the
[0087]
These behavior models are used as necessary as described later when a recognition result is given from the input
[0088]
In the case of this embodiment, each behavior model uses one node (state) NODE as shown in FIG. 20 as a method for determining the next behavior.0~ NODEnTo any other node NODE0~ NODEnEach node NODE0~ NODEnArc ARC connecting between the two1~ ARCn1Transition probability P set for each1~ PnAn algorithm called a finite-probability automaton, which is determined probabilistically based on the above, is used.
[0089]
Specifically, each behavior model is a node NODE that forms its own behavior model.0~ NODEnCorrespond to each of these nodes NODE0~ NODEnEach has a state transition table 80 as shown in FIG.
[0090]
In this state transition table 80, the node NODE0~ NODEnInput events (recognition results) as transition conditions in are listed in priority order in the “input event name” row, and further conditions for the transition conditions are described in the corresponding columns in the “data name” and “data range” rows Has been.
[0091]
Therefore, the node NODE represented by the state transition table 80 in FIG.100Then, when the recognition result “ball detected (BALL)” is given, the “size (SIZE)” of the ball given together with the recognition result is in the range of “0 to 1000”, “ When the recognition result “OBSTACLE” is given, the other node has a “distance” to the obstacle given together with the recognition result within the range of “0 to 100”. It is a condition for transition to.
[0092]
This node NODE100Then, even when there is no input of the recognition result, the
[0093]
Further, in the state transition table 80, the node NODE appears in the “transition destination node” column in the “transition probability to other node” column.0~ NODEnThe node names that can be transitioned from are listed, and each other node NODE that can transition when all the conditions described in the "input event name", "data name", and "data range" lines are met0~ NODEnThe transition probabilities to are respectively described in the corresponding places in the “transition probabilities to other nodes” column, and the node NODE0~ NODEnThe action to be output when transitioning to is described in the “output action” line in the “transition probability to other node” column. The sum of the probabilities of each row in the “transition probability to other node” column is 100 [%].
[0094]
Therefore, the node NODE represented by the state transition table 80 in FIG.100Then, for example, when the “ball is detected (BALL)” and the recognition result that the “SIZE (size)” of the ball is in the range of “0 to 1000” is given, “30 [%]” The probability of “node NODE120(Node 120) ", and the action of"
[0095]
Each behavior model has a node NODE described as such a state transition table 80, respectively.0~ NODEnAre connected to each other, and when the recognition result is given from the input
[0096]
The
[0097]
Further, the
[0098]
On the other hand, the
[0099]
Then, based on the recognition result and the notification from the
[0100]
On the other hand, the
[0101]
Specifically, the
[0102]
[Expression 1]
It should be noted that how much each notification result or notification from the output
[0103]
Here, the notification from the output
[0104]
Note that the feedback of the behavior result may be performed by the output of the behavior switching modulator 71 (the behavior to which the emotion is added).
[0105]
On the other hand, the
[0106]
Specifically, the
[0107]
[Expression 2]
Note that how much the recognition result and the notification from the output
[0108]
In the present embodiment, the parameter values of each emotion and each desire (instinct) are regulated so as to fluctuate in the range from 0 to 100, respectively, and the coefficient ke, KiThe value of is also set individually for each emotion and each desire.
[0109]
On the other hand, the output
[0110]
When the action command is given, these
[0111]
In this way, the
[0112]
Such a control program is provided via a recording medium recorded in a format readable by the robot apparatus. As a recording medium for recording the control program, a magnetic reading type recording medium (for example, magnetic tape, floppy disk, magnetic card), an optical reading type recording medium (for example, CD-ROM, MO, CD-R, DVD) Etc. are considered. The recording medium also includes a storage medium such as a semiconductor memory (a so-called memory card (regardless of a rectangular shape, a square shape or the like), an IC card). The control program may be provided via the so-called Internet.
[0113]
These control programs are reproduced via a dedicated read driver device or a personal computer, and transmitted to the
[0114]
It should be noted that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention. Although the present embodiment has been described with respect to a quadruped legged mobile robot, the robot apparatus can be applied as long as it operates according to the internal state, and the moving means can be a quadruped walking, It is not limited to the legged movement method.
[0115]
【The invention's effect】
As described above in detail, the robot apparatus according to the present invention includes a moving unit, and is a robot apparatus that autonomously operates according to an internal state. The robot apparatus is movable in an independent direction with respect to the front surface of the robot apparatus and has a predetermined angle of view. A wide field of view with a wider field of view than the angle of view of the imaging means by sequentially adding an imaging means for imaging a subject and an image actively acquired by the imaging means, or an image passively acquired via the imaging means Wide-field image generation means for generating an image, temporary storage means for temporarily storing the wide-field image, and the wide-field image stored in the temporary storage means according to the amount of change in the acquired image Along with additional information about the image, it is stored in the storage means as a reference wide-field image in time series, and the wide-field image stored in the storage means is compressed into image data with an information amount correlated with the elapsed time from the start of storage And a storage control means for changing.
[0116]
Therefore, the robot apparatus according to the present invention sequentially adds images acquired actively or passively through the imaging unit to generate a wide-field image having a wider field of view than the angle of view of the imaging unit, thereby generating an image. The visual field range effective for recognition can be expanded, and high image recognition performance can be achieved in a wider environment. Thereby, the recognition accuracy of the target object, in particular, the moving object is improved.
[0117]
In addition, the robot apparatus according to the present invention can be obtained in the past in time by storing the wide-field image together with additional information related to the wide-field image in the storage unit in time series according to the obtained image change amount. The image recognition result can be extracted from the obtained image information. In particular, it is not necessary to specify an attention (capture instruction) for the target object.
[0118]
Furthermore, the robot apparatus according to the present invention can save the storage capacity by compressing and rewriting the wide-field image stored in the storage means into image data having an information amount correlated with the elapsed time from the start of storage. Therefore, resources can be used effectively, and image processing with an emphasis on real time can be performed according to the resources. In addition, since a memory model closer to humans can be realized, abundant user interaction is possible and entertainment is improved.
[0119]
The image storage device according to the present invention includes an imaging unit that images a subject at a predetermined angle of view, and a wide-field image having a field of view wider than the angle of view of the imaging unit by sequentially adding images acquired by the imaging unit as needed. A wide-field image generating unit that generates a temporary image, a temporary storage unit that temporarily stores the wide-field image, and a wide-field image stored in the temporary storage unit according to the amount of change in the acquired image. Storage control means for storing the reference wide-field image in a time series as a reference wide-field image together with additional information relating to the image, and compressing and rewriting the wide-field image stored in the storage means into image data having an information amount correlated with the elapsed time from the start of storage With.
[0120]
Therefore, the image storage device according to the present invention sequentially adds the images acquired through the imaging unit to generate a wide-field image having a field of view wider than the angle of view of the imaging unit, thereby enabling an effective visual field for image recognition. The range can be expanded and high image recognition performance can be achieved in a wider range of environments. Thereby, the recognition accuracy of the target object, in particular, the moving object is improved.
[0121]
In addition, the image storage device according to the present invention stores the wide-field image in time series in the storage unit together with the additional information related to the wide-field image according to the obtained image change amount, thereby obtaining in the past in time. An image recognition result can be extracted from the obtained image information. In particular, it is not necessary to specify an attention (capture instruction) for the target object.
[0122]
Furthermore, the image storage device according to the present invention can save the storage capacity by compressing and rewriting the wide-field image stored in the storage means into image data having an information amount correlated with the elapsed time from the start of storage. Therefore, resources can be used effectively, and image processing with an emphasis on real time can be performed according to the resources.
[0123]
In addition, the image storage method according to the present invention includes an imaging process for imaging a subject at a predetermined angle of view, and a field of view wider than the angle of view captured in the imaging process by sequentially adding images acquired at any time in the imaging process. A wide-field image generation step for generating a wide-field image, a temporary storage step for temporarily storing the wide-field image, and the wide-field image stored in the temporary storage step according to the amount of change in the acquired image Along with the additional information related to the wide-field image, a reference wide-field image is stored in the storage unit in time series, and the wide-field image stored in the storage unit is compressed and rewritten into image data with an information amount correlated with the elapsed time from the start of storage. A storage control step.
[0124]
Therefore, according to the image storage method of the present invention, image recognition is performed by sequentially adding the images acquired in the imaging process and generating a wide-field image having a wider field of view than the angle of view captured in the imaging process. The effective visual field range is expanded, and high image recognition performance is achieved in a wider environment. Thereby, the recognition accuracy of the target object, in particular, the moving object is improved.
[0125]
Further, according to the image storage method of the present invention, the wide-field image is stored in time series together with the additional information related to the wide-field image according to the amount of change of the acquired image, so that it can be obtained in the past in time. An image recognition result can be extracted from the obtained image information. In particular, it is not necessary to specify an attention (capture instruction) for the target object.
[0126]
Furthermore, according to the image storage method of the present invention, the wide-field image stored in the storage means is compressed and rewritten into image data having an information amount correlated with the elapsed time from the start of storage, thereby saving storage capacity. it can. Therefore, resources can be used effectively, and image processing with an emphasis on real time can be performed according to the resources.
[0127]
The control program according to the present invention has an imaging process in which an imaging unit captures an image of a subject at a predetermined angle of view, and an image acquired by the imaging process as needed, and a field of view wider than the angle of view captured by the imaging unit. Wide-field image generation processing for generating a wide-field image, storage processing for temporarily storing the wide-field image, and the wide-field image stored in the storage processing according to the amount of change in the acquired image Storage control processing for storing a wide-field image as a reference wide-field image in time series together with additional information related to the image, and compressing and rewriting the wide-field image stored in the storage unit into image data with an amount of information correlated with the elapsed time from the start of storage Is executed by an electronic device having an image processing function.
[0128]
Therefore, according to the control program of the present invention, an electronic device having an image processing function has a field of view wider than the angle of view captured by the imaging unit by sequentially adding images acquired as needed by the imaging process. By executing the process of generating a wide-field image, an effective visual field range for the electronic device to perform image recognition is expanded, and high image recognition performance is achieved in a wider environment. Thereby, the recognition accuracy of the target object, in particular, the moving object is improved.
[0129]
In addition, according to the control program of the present invention, a wide-field image is stored in time series together with additional information related to the wide-field image in accordance with the amount of change in the acquired image for an electronic device having an image processing function. By executing the processing, the electronic device can extract the image recognition result from the image information obtained in the past in terms of time. In particular, it is not necessary to specify an attention (capture instruction) for the target object.
[0130]
Further, according to the control program of the present invention, for an electronic device having an image processing function, the wide-field image stored in the storage unit is compressed into image data having an information amount correlated with the elapsed time from the start of storage. By executing the rewriting process, the image storage capacity of the electronic device is saved. Therefore, the electronic device can effectively use the resource, and can execute image processing with an emphasis on real-time property according to the resource.
[Brief description of the drawings]
FIG. 1 shows a configuration example of a robot apparatus according to an embodiment of the present invention in which a surrounding situation is acquired as an image, a wide-field image is generated from an image with a limited field of view, and the generated wide-field image and the wide-field image It is a flowchart which shows the process which memorize | stores the additional information regarding with time passage.
FIG. 2 is an external view showing an external appearance of a robot apparatus shown as an example of the configuration of the present invention.
FIG. 3 is a configuration diagram showing a configuration of a robot apparatus shown as one configuration example of the present invention.
FIG. 4A is a schematic diagram showing a state in which images with a limited angle of view are acquired one after another according to the movement of the CCD camera of the robot apparatus shown as an example of the present invention; FIG. 4B is a schematic diagram showing a wide-field image synthesized from the acquired image.
FIG. 5 is a schematic diagram for explaining how a wide-field image is generated by spherical projection of an image acquired by a robot apparatus shown as an example of the configuration of the present invention.
FIG. 6 is a diagram showing how the robot apparatus shown as an example of the present invention changes only the direction of the CCD camera on the spot.
FIG. 7 (a) shows the direction of the camera D of the robot apparatus shown as an example of the configuration of the present invention.1FIG. 7B is a diagram showing an acquired image and a wide-field image in the case of FIG. 7, and FIG.2It is a figure which shows the acquired image and wide-field image at the time of.
FIG. 8 shows a robot apparatus shown as a configuration example of the present invention in a position P.1To position P2It is a figure which shows a mode that it advances to.
FIG. 9 (a) shows a robot apparatus shown as one configuration example of the present invention in a position P.1FIG. 9B is a diagram showing an acquired image and a wide-field image when the robot apparatus shown in FIG.2It is a figure which shows an acquired image when it exists in, and a wide-field image.
FIG. 10 shows a robot apparatus shown as an example of the present invention in a position P.3To position P4FIG.
FIG. 11 (a) shows a position P of the robot apparatus shown as an example of the configuration of the present invention.3FIG. 11B is a diagram showing an acquired image and a wide-field image when the robot apparatus shown in FIG.4It is a figure which shows an acquired image when it exists in, and a wide-field image.
12A is a diagram schematically showing a state in which the robot apparatus shown as an example of the configuration of the present invention compares an image acquired by a CCD camera with a wide-field image, and FIG. ) Is a diagram for explaining a state in which the image compared by the robot apparatus is overwritten on the wide-field image.
FIG. 13 is a view showing images obtained by a CCD camera side by side when the robot apparatus shown as an example of the configuration of the present invention is walking.
FIG. 14 is a diagram for explaining the movement of a target object represented on a wide-field image generated by a robot apparatus shown as an example of the configuration of the present invention.
FIG. 15 is a diagram illustrating a concept in which a wide-field image is stored in a memory card in time series in the robot apparatus shown as an example of the configuration of the present invention.
FIG. 16 is a configuration diagram showing a software configuration of a control program of the robot apparatus shown as one configuration example of the present invention.
FIG. 17 is a configuration diagram showing a configuration of a middleware layer in a control program for a robot apparatus shown as an example configuration of the present invention.
FIG. 18 is a configuration diagram showing a configuration of an application layer in a control program for a robot apparatus shown as one configuration example of the present invention.
FIG. 19 is a configuration diagram showing a configuration of an action model library in a control program for a robot apparatus shown as an example configuration of the present invention.
FIG. 20 is a schematic diagram illustrating a finite probability automaton that is an algorithm for determining the behavior of the robot apparatus shown as an example of the configuration of the present invention.
FIG. 21 is a diagram showing a state transition condition for determining the behavior of the robot apparatus shown as one configuration example of the present invention.
[Explanation of symbols]
DESCRIPTION OF
Claims (10)
上記ロボット装置正面に対して独立した方向に可動とされ所定の画角で被写体を撮像する撮像手段と、
上記撮像手段によって能動的に取得された画像、又は上記撮像手段を介して受動的に取得された画像を逐次付加して上記撮像手段の画角よりも広い視野の広視野画像を生成する広視野画像生成手段と、
上記広視野画像を一時的に記憶する一時記憶手段と、
上記一時記憶手段に記憶された広視野画像を記憶手段に記憶制御する記憶制御手段とを備え、
上記記憶制御手段は、上記一時記憶手段に記憶された広視野画像と、上記記憶手段に記憶された最新の広視野画像である基準広視野画像とを比較して得られる変化量が予め決められた所定の閾値よりも大きくなったとき、上記一時記憶手段に記憶された広視野画像を上記記憶手段に記憶するとともに、上記記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した過去の広視野画像ほど少ない情報量の画像データに圧縮して書き換えるロボット装置。In a robot apparatus that includes moving means and operates autonomously according to the internal state,
An imaging means that is movable in an independent direction with respect to the front surface of the robot apparatus and images a subject at a predetermined angle of view;
Wide field of view that generates images with a wider field of view than the angle of view of the imaging unit by sequentially adding images acquired actively by the imaging unit or passively acquired via the imaging unit Image generating means;
Temporary storage means for temporarily storing the wide-field image,
E Bei and storage control means for storing control in the storage means wide-field image stored in the temporary storage means,
The storage control unit has a predetermined amount of change obtained by comparing the wide-field image stored in the temporary storage unit with the reference wide-field image that is the latest wide-field image stored in the storage unit. When the predetermined threshold value is exceeded, the wide-field image stored in the temporary storage unit is stored in the storage unit, and the wide-field image stored in the storage unit is correlated with the elapsed time from the start of storage. A robot device that compresses and rewrites image data with a smaller amount of information as the past wide-field image becomes smaller .
上記広視野画像生成手段は、上記検出手段によって検出された撮像方向情報に基づいて、上記撮像方向の変更方向とは反対方向に変更分に相当するだけ上記一時記憶手段に記憶された広視野画像を移動することによって、撮像方向と広視野画像の正面方向とを一致させる請求項2記載のロボット装置。Detecting means for detecting the imaging direction of the imaging means,
The wide-field image generation means stores the wide-field image stored in the temporary storage means corresponding to the change in the direction opposite to the change direction of the image pickup direction based on the image pickup direction information detected by the detection means. The robot apparatus according to claim 2 , wherein the imaging direction is matched with the front direction of the wide-field image by moving the.
上記撮像手段によって随時取得された画像を逐次付加して上記撮像手段の画角よりも広い視野の広視野画像を生成する広視野画像生成手段と、
上記広視野画像を一時的に記憶する一時記憶手段と、
上記一時記憶手段に記憶された広視野画像を記憶手段に記憶制御する記憶制御手段とを備え、
上記記憶制御手段は、上記一時記憶手段に記憶された広視野画像と、上記記憶手段に記憶された最新の広視野画像である基準広視野画像とを比較して得られる変化量が予め決められた所定の閾値よりも大きくなったとき、上記一時記憶手段に記憶された広視野画像を上記記憶手段に記憶するとともに、上記記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した過去の広視野画像ほど少ない情報量の画像データに圧縮して書き換える画像記憶装置。Imaging means for imaging a subject at a predetermined angle of view;
Wide-field image generation means for sequentially adding images acquired at any time by the imaging means to generate a wide-field image having a wider field of view than the angle of view of the imaging means;
Temporary storage means for temporarily storing the wide-field image,
E Bei and storage control means for storing control in the storage means wide-field image stored in the temporary storage means,
The storage control unit has a predetermined amount of change obtained by comparing the wide-field image stored in the temporary storage unit with the reference wide-field image that is the latest wide-field image stored in the storage unit. When the predetermined threshold value is exceeded, the wide-field image stored in the temporary storage unit is stored in the storage unit, and the wide-field image stored in the storage unit is correlated with the elapsed time from the start of storage. An image storage device that compresses and rewrites image data with a smaller amount of information as the past wide-field image is reduced .
上記撮像工程において随時取得された画像を逐次付加して上記撮像工程で撮像される画角よりも広い視野の広視野画像を生成する広視野画像生成工程と、
上記広視野画像を一時記憶手段に一時的に記憶する一時記憶工程と、
上記一時記憶工程で記憶された広視野画像を記憶手段に記憶制御する記憶制御工程とを備え、
上記記憶制御工程では、上記一時記憶手段に記憶された広視野画像と、上記記憶手段に記憶された最新の広視野画像である基準広視野画像とを比較して得られる変化量が予め決められた所定の閾値よりも大きくなったとき、上記一時記憶手段に記憶された広視野画像を上記記憶手段に記憶するとともに、上記記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した過去の広視野画像ほど少ない情報量の画像データに圧縮して書き換える画像記憶方法。An imaging step of imaging a subject at a predetermined angle of view;
A wide-field image generation step of sequentially adding images acquired at any time in the imaging step to generate a wide-field image with a wider field of view than the angle of view captured in the imaging step;
A temporary storage step of temporarily storing the wide-field image in a temporary storage means ;
E Bei a storage control step of storing control in the storage means a wide viewing images stored in the temporary storage step,
In the storage control step, a change amount obtained by comparing the wide-field image stored in the temporary storage unit with the reference wide-field image that is the latest wide-field image stored in the storage unit is determined in advance. When the predetermined threshold value is exceeded, the wide-field image stored in the temporary storage unit is stored in the storage unit, and the wide-field image stored in the storage unit is correlated with the elapsed time from the start of storage. An image storage method in which a past wide-field image is compressed and rewritten into image data with a smaller amount of information .
撮像手段において所定の画角で被写体を撮像する撮像処理と、
上記撮像処理によって随時取得される画像を逐次付加して上記撮像手段で撮像される画角よりも広い視野の広視野画像を生成する広視野画像生成処理と、
上記広視野画像を一時記憶手段に一時的に記憶する一時記憶処理と、
上記一時記憶手段に記憶された広視野画像を記憶手段に記憶制御する際に、上記一時記憶手段に記憶された広視野画像と、上記記憶手段に記憶された最新の広視野画像である基準広視野画像とを比較して得られる変化量が予め決められた所定の閾値よりも大きくなったとき、上記一時記憶手段に記憶された広視野画像を上記記憶手段に記憶するとともに、上記記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した過去の広視野画像ほど少ない情報量の画像データに圧縮して書き換える記憶制御処理と
を実行させるための制御プログラム。 On the computer,
Imaging processing for imaging a subject at a predetermined angle of view in the imaging means;
A wide-field image generation process for generating a wide-field image having a wider field of view than the angle of view captured by the imaging unit by sequentially adding images acquired as needed by the imaging process;
Temporary storage processing for temporarily storing the wide-field image in a temporary storage means ;
When the storage control in the storage means wide-field image stored in the temporary storage means, a wide-field image stored in the temporary storage means, the reference size is the latest wide-field image stored in the storage means When the amount of change obtained by comparing with the visual field image becomes larger than a predetermined threshold value, the wide-field image stored in the temporary storage unit is stored in the storage unit, and the storage unit control program order to execute a storage control process of rewriting by compressing the stored wide-field image to the image data of the smaller information amount past wide-field image correlated with the elapsed time from the storage start.
撮像手段において所定の画角で被写体を撮像する撮像処理と、
上記撮像処理によって随時取得された画像を逐次付加して上記撮像手段で撮像される画角よりも広い視野の広視野画像を生成する広視野画像生成処理と、
上記広視野画像を一時記憶手段に一時的に記憶する記憶処理と、
上記一時記憶手段に記憶された広視野画像を記憶手段に記憶制御する際に、上記一時記憶手段に記憶された広視野画像と、上記記憶手段に記憶された最新の広視野画像である基準広視野画像とを比較して得られる変化量が予め決められた所定の閾値よりも大きくなったとき、上記一時記憶手段に記憶された広視野画像を上記記憶手段に記憶するとともに、上記記憶手段に記憶された広視野画像を記憶開始からの経過時間に相関した過去の広視野画像ほど少ない情報量の画像データに圧縮して書き換える記憶制御処理と
を実行させるための制御プログラムが記録された記録媒体。 On the computer,
Imaging processing for imaging a subject at a predetermined angle of view in the imaging means;
A wide-field image generation process for generating a wide-field image having a wider field of view than the angle of view captured by the imaging unit by sequentially adding images acquired as needed by the imaging process;
A storage process for temporarily storing the wide-field image in a temporary storage unit ;
When the storage control in the storage means wide-field image stored in the temporary storage means, a wide-field image stored in the temporary storage means, the reference size is the latest wide-field image stored in the storage means When the amount of change obtained by comparing with the visual field image becomes larger than a predetermined threshold value, the wide-field image stored in the temporary storage unit is stored in the storage unit, and the storage unit A recording medium recorded with a control program for executing a storage control process for compressing and rewriting a stored wide-field image into image data with a smaller amount of information as the past wide-field image correlates with the elapsed time from the start of storage .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001128196A JP4779226B2 (en) | 2001-04-25 | 2001-04-25 | ROBOT DEVICE, IMAGE STORAGE METHOD, IMAGE STORAGE DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001128196A JP4779226B2 (en) | 2001-04-25 | 2001-04-25 | ROBOT DEVICE, IMAGE STORAGE METHOD, IMAGE STORAGE DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002326176A JP2002326176A (en) | 2002-11-12 |
JP4779226B2 true JP4779226B2 (en) | 2011-09-28 |
Family
ID=18976936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001128196A Expired - Fee Related JP4779226B2 (en) | 2001-04-25 | 2001-04-25 | ROBOT DEVICE, IMAGE STORAGE METHOD, IMAGE STORAGE DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4779226B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4010161B2 (en) * | 2002-03-07 | 2007-11-21 | ソニー株式会社 | Acoustic presentation system, acoustic reproduction apparatus and method, computer-readable recording medium, and acoustic presentation program. |
JP4238679B2 (en) * | 2003-09-12 | 2009-03-18 | ソニー株式会社 | Video recording / playback device |
JP5850958B2 (en) | 2014-01-24 | 2016-02-03 | ファナック株式会社 | Robot programming device for creating a robot program for imaging a workpiece |
JP6413510B2 (en) * | 2014-09-03 | 2018-10-31 | 村田機械株式会社 | Carrier vehicle system and route periphery monitoring method |
JP6443419B2 (en) | 2016-10-04 | 2018-12-26 | トヨタ自動車株式会社 | Spoken dialogue apparatus and control method thereof |
CN111866396B (en) * | 2020-08-27 | 2022-04-12 | 路邦数码有限公司 | Shooting assisting robot |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6224988A (en) * | 1985-07-23 | 1987-02-02 | 志井田 孝 | Robot having feeling |
JPS63236108A (en) * | 1987-03-25 | 1988-10-03 | Hitachi Ltd | Guiding device for moving object |
JP2989617B2 (en) * | 1989-09-29 | 1999-12-13 | マツダ株式会社 | Mobile vehicle environment recognition device |
JPH04365104A (en) * | 1991-06-13 | 1992-12-17 | Toshiba Corp | Optimum course planning device and autonomously moving robot |
JPH07271434A (en) * | 1994-03-30 | 1995-10-20 | Nippon Telegr & Teleph Corp <Ntt> | Environment map preparing method by plural mobile robots |
JP4235858B2 (en) * | 1999-05-07 | 2009-03-11 | ソニー株式会社 | Robot apparatus and obstacle map generation method for robot apparatus |
-
2001
- 2001-04-25 JP JP2001128196A patent/JP4779226B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2002326176A (en) | 2002-11-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3855812B2 (en) | Distance measuring method, apparatus thereof, program thereof, recording medium thereof, and robot apparatus mounted with distance measuring apparatus | |
JP4609584B2 (en) | Robot device, face recognition method, and face recognition device | |
JP4032793B2 (en) | Charging system, charging control method, robot apparatus, charging control program, and recording medium | |
JP3714268B2 (en) | Robot device | |
KR100898435B1 (en) | Robot apparatus and control method thereof | |
JP2004133637A (en) | Face detector, face detection method and program, and robot apparatus | |
JP2004298977A (en) | Action control device, action control method, action control program and mobile robot device | |
JP2005078376A (en) | Object detection device, object detection method, and robot device | |
JP2006082150A (en) | Robot device and its action controlling method | |
JP2003266345A (en) | Path planning device, path planning method, path planning program, and moving robot device | |
JP7417356B2 (en) | robot control system | |
JP4779226B2 (en) | ROBOT DEVICE, IMAGE STORAGE METHOD, IMAGE STORAGE DEVICE, CONTROL PROGRAM, AND RECORDING MEDIUM | |
JP2004298975A (en) | Robot device and obstacle searching method | |
JP2003136456A (en) | Robot device, brightness detection method of robot device, brightness detection program and recording medium | |
JP7309371B2 (en) | robot control system | |
JP2003271958A (en) | Method and processor for processing image, program therefor, recording medium therefor, and robot system of type mounted with image processor | |
JP2004130427A (en) | Robot device and method for controling operation of robot device | |
JP4281286B2 (en) | Robot apparatus and control method thereof | |
JP4379052B2 (en) | Moving object detection apparatus, moving object detection method, and robot apparatus | |
JP2020017206A (en) | Information processing apparatus, action determination method, and program | |
JP2002239952A (en) | Robot device, action control method for robot device, program, and recording medium | |
JP2004130426A (en) | Robot device and its operation control method | |
JP2003346150A (en) | Floor surface recognition device, floor surface recognition method, and robot device | |
JP2004054610A (en) | Tracking device, its method and robot device | |
JP2004229003A (en) | Robotic device and imaging direction switching method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110201 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110303 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110607 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110620 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140715 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140715 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |