JP3996015B2 - 姿勢認識装置及び自律ロボット - Google Patents

姿勢認識装置及び自律ロボット Download PDF

Info

Publication number
JP3996015B2
JP3996015B2 JP2002234066A JP2002234066A JP3996015B2 JP 3996015 B2 JP3996015 B2 JP 3996015B2 JP 2002234066 A JP2002234066 A JP 2002234066A JP 2002234066 A JP2002234066 A JP 2002234066A JP 3996015 B2 JP3996015 B2 JP 3996015B2
Authority
JP
Japan
Prior art keywords
instruction
posture
human
image
contour
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002234066A
Other languages
English (en)
Other versions
JP2004078316A (ja
Inventor
信男 檜垣
義秋 坂上
直亮 住田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2002234066A priority Critical patent/JP3996015B2/ja
Priority to US10/635,778 priority patent/US7340100B2/en
Publication of JP2004078316A publication Critical patent/JP2004078316A/ja
Application granted granted Critical
Publication of JP3996015B2 publication Critical patent/JP3996015B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Description

【0001】
【発明の属する技術分野】
本発明は、画像を使用して人間の姿勢を認識することにより人間が出す指示を認識する姿勢認識装置及び自律ロボットに関する。
【0002】
【従来の技術】
従来から人間が発する音声指示を音声認識することにより、自己に対する指示を認識して行動を起こす自律ロボットが知られている。これは、自律ロボットに対して指示する場合において、指示する者は特別な装置を用いることなく指示を与えることができるという特徴を有している。
ところで、音声による指示系統は、騒音が多い場所では音声認識率が低下するため、認識に時間を要するという問題を有している。さらに、音声認識は、認識率を向上させるためには音声を発する人物の音声を予め登録する必要があり、システムの構成が複雑になるという問題もある。
【0003】
このような問題を解決するために、画像情報を用いて指示を認識する手法が試みられている。例えば、特開平8−315154号公報(以下、先行技術1という)に記載されたジェスチャ認識システムが知られている。このシステムは、まず1台のカメラで撮影して得られた画像とハンドテンプレートを用い、局所的なイメージの方向性の角度との正規化された相関関係を求める処理を施すことにより指示を出す人物の手を検出する。そして、検出した手の動きをX、Y方向(上下左右方向)で追尾するようにして、空間内の位置に応じたジェスチャ信号を発生し、このジェスチャ信号に基づいて機械を制御するものである。
また、特開2000−326274号公報(以下、先行技術2という)に記載された自律行動ロボットが知られている。この自律行動ロボットは、ステレオカメラで得られた画像から人物を検出し、この検出された人物の行動を音源方向検出、音声認識、タッチセンサ、超音波センサなどからの様々な入力に応じて自己の行動を制御するものである。
これらの技術を用いれば、周囲に居る人物を認識し、この人物が出す指示を認識することにより、ロボットが次の動作を起こすなどのヒューマン・ロボットインタフェースとして利用することが可能である。
【0004】
【発明が解決しようとする課題】
しかしながら、先行技術1のように、テンプレートとの相関関係に基づいて、手の検出を行う方法は、手の大きさや形態毎にテンプレートを予め複数内部に蓄えておき、手を撮像した画像とテンプレートをマッチングすることによって手の検出を行うため、膨大なデータ量のテンプレートを内部蓄えておかなければならないとともに、マッチングの処理に膨大な計算時間を必要とするために、実時間処理を行う場合は適さないという問題がある。また、テンプレートを用いる方法は、任意の画像入力に対応できるテンプレートを設定することは容易なことではないため、テレビの操作などのように使用形態が制限されてしまうという問題もある。さらには、自律移動する自律ロボットは、自由に動き回れるため、得られる画像の背景や指示を与える人物までの距離を固定することができないため、テンプレートマッチングによる姿勢認識処理を適用することはできないという問題もある。
また、先行技術2のように、特定の人物を検出して識別する方法は、予め決められた対象計測領域内に単独で存在する人物を認識することを目的としているため、得られた画像内に人物が複数存在する場合は自己の行動を決定することができないという問題もある。
【0005】
本発明は、このような事情に鑑みてなされたもので、自由に移動できる移動体に搭載した場合でも高速で信頼性の高い姿勢認識を行うことができる姿勢認識装置及び姿勢認識結果に基づいて行動を起こす自律ロボットを提供することを目的とする。
【0006】
【課題を解決するための手段】
発明は、撮像手段で得られた画像から周囲に居る人間の姿勢が意味する指示を認識する姿勢認識装置であって、前記画像から人間の候補である物体の輪郭を抽出する輪郭抽出手段と、前記輪郭の重心位置に基づいて頭頂点の探索領域を設定し、該頭頂点探索領域内の前記輪郭の最上端から頭頂点位置を求める頭頂点抽出手段と、前記画像中における前記輪郭を前記頭頂点を基準として複数の領域に分割し、前記分割された輪郭内の平均距離を求める距離計算手段と、前記頭頂点位置に基づいて、手の探索領域を設定し、前記手探索領域内の前記輪郭の平均距離と前記人間候補の輪郭全体の平均距離との差が所定の範囲内である前記手の探索領域内の前記輪郭を人間の手の候補とする探索手段と、前記手の候補と前記頭頂点位置との相対的位置に対応する指示を判定して、この判定結果を姿勢認識結果とする姿勢判定手段とを備えたことを特徴とする。
この構成によれば、姿勢認識を行う対象となる人物の抽出に輪郭抽出を適用するとともに、同時に距離画像を参照するようにしたため、複数の人物が撮像領域内に存在する場合であっても姿勢認識を確実に行うことが可能となる。また、抽出された輪郭情報から顔や手などの人物の特徴点を検出し、これらの特徴点の位置関係から人物の姿勢を認識するようにしたため、信頼性が高くかつ高速処理が可能である姿勢認識を実現することができる。
【0007】
発明は、人間の手と身体または顔との相対位置毎に指示が定義された設定ファイルをさらに備え、前記姿勢判定手段は、前記設定ファイルに定義された指示を参照することにより姿勢判定結果を得ることを特徴とする。
この構成によれば、設定ファイルに任意の指示を設定することができるため、必要に応じて、人間の手と身体または顔との相対位置毎の指示の変更を容易にすることができる。
【0008】
発明は、前記設定ファイルは、指示の各々に優先順位が定義されていることを特徴とする。
この構成によれば、各指示に優先順位を定義したため、従うべき指示の判定を確実に行うことが可能となる。
【0009】
発明は、撮像手段で得られた画像から周囲に居る人間の姿勢が意味する指示を認識する姿勢認識装置であって、前記画像から人間の候補である物体の輪郭を抽出する輪郭抽出手段と、前記輪郭の重心位置に基づいて頭頂点の探索領域を設定し、該頭頂点探索領域内の前記輪郭の最上端から頭頂点位置を求める頭頂点抽出手段と、前記画像中における前記輪郭を前記頭頂点を基準として複数の領域に分割し、前記分割された輪郭内の平均距離を求める距離計算手段と、前記画像から色情報を抽出し所定の色を持つ領域を抽出する色領域抽出手段と、前記頭頂点位置に基づいて、手の探索領域を設定し、前記手探索領域内の前記所定の色を持つ領域の平均距離と前記人間候補の輪郭全体の平均距離との差が所定の範囲内である前記手の探索領域内の前記所定の色を持つ領域を人間の手の候補とする探索手段と、前記手の候補と前記頭頂点位置との相対的位置に対応する指示を判定して、この判定結果を姿勢認識結果とする姿勢判定手段とを備えたことを特徴とすることを特徴とする。
この構成によれば、特定の色領域を抽出して、この特定の色領域を手の候補としたため、姿勢認識を確実に行うことが可能となる。
【0010】
発明は、前記画像から周囲に居る複数の人間が存在する場合には、前記輪郭抽出手段の出力に基づいて各々の人間の姿勢を認識する手段をさらに備えたことを特徴とする。
この構成によれば、周囲に居る人間が複数であっても姿勢の認識を行うことができる。
【0011】
発明は、周囲に居る人間が複数である場合は、前記画像の中心近傍にいる人間の指示を優先することを特徴とする。
この構成によれば、複数の人間が周囲に居る場合であっても従うべき指示の判定を確実に行うことが可能となる。
【0012】
発明は、前記画像の中心近傍以外の人間の指示が、所定の指示である場合、少なくとも前記設定ファイルで定義された優先順位に基づいて、この所定の指示を出した人間の指示を優先することを特徴とする。
この構成によれば、所定の指示を出した人間の指示を優先するようにしたため、危険回避するような指示に対して優先的に従うようにすることができる。
【0013】
発明は、複数の人間の中から顔の認識をする顔認識手段をさらに備え、この顔認識結果に基づいて特定の人間の指示を優先することを特徴とする。
この構成によれば、顔認識結果に基づいて認識できた人間の出す指示を優先するようにしたため、特定の人間の指示に従うことができる。
【0015】
発明は、本発明による姿勢認識装置を備えた自律ロボットであって、前記姿勢認識装置から姿勢認識結果を取得する認識結果取得手段と、前記姿勢認識結果に対応する行動を起こすために自己の移動制御を行うための移動指示を出力する移動指示手段と、前記移動指示に基づき自己の行動制御を行う行動制御手段とを備えたことを特徴とする。
この構成によれば、指示を出す人物から姿勢による指示が出された場合に、この指示に対応する行動を起こすための処理を実行するようにしたため、外部コントローラ等を使用しなくとも自律ロボットの動作を制御することが可能となる。
【0016】
発明は、前記姿勢認識結果に対応する行動を起こすために自己の撮像手段を人間に向ける制御を行うための撮像指示を出力する撮像指示手段をさらに備え、前記行動制御手段は、撮像指示に基づき自己の行動制御を行うことを特徴とする。
この構成によれば、自己の撮像手段を人間に向ける制御を行うための撮像指示を出力する撮像指示手段を備えたため、指示を出した人間に追従する等の行動を起こすことが可能になる。
【0017】
発明は、前記行動制御手段は、人間との距離を一定に保ちながら移動する場合に、安全を確保するために必要な第一の所定距離を保ちながら移動するように行動を制御することを特徴とする。
この構成によれば、人間との距離が近づき過ぎて認識が困難になったり、所定の作業を行うことが困難となることを避けることができる。
【0018】
発明は、前記行動制御手段は、人間との距離が少なくとも第一の所定距離より短い第二の所定距離未満になった場合に停止するように行動を制御することを特徴とする。
この構成によれば、人間との距離が所定距離未満になった場合に停止するようにしたため、「停止」の指示を出し続けなくても済むようになる。
【0019】
発明は、前記行動制御手段は、人間との距離が前記第二の所定距離以上でかつ第一の所定距離未満である場合に少なくとも人間との距離が第二の所定距離以上となるよう自己の移動速度を調整するように行動を制御することを特徴とする。
この構成によれば、人間との距離を確実に所定範囲内にすることができる。
発明は、前記行動制御手段は、所定の期間指示の認識ができない場合は停止するように行動を制御し、新たな認識ができるまで待機するように行動を制御することを特徴とする。
この構成によれば、指示を出した人間を見失った場合においても次にとる行動の指示を確実に受けることが可能になる。
【0020】
請求項15に記載の発明は、前記行動制御手段は、所定の期間指示の認識ができない場合は停止するように行動を制御し、新たな認識ができるまで待機するように行動を制御することを特徴とする。
この構成によれば、指示を出した人間を見失った場合においても次にとる行動の指示を確実に受けることが可能になる。
【0021】
【発明の実施の形態】
以下、本発明の一実施形態による姿勢認識装置及び自律ロボットを図面を参照して説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号Rは、二足歩行型の自律ロボットである。符号1L、1Rは、2台のカラーCCDを用いたステレオカメラ(以下、単にカメラと称する)であり、符号L、Rはそれぞれ左(L)側のカメラと右(R)側のカメラを表している。符号2L、2Rは、カメラ1L、1Rでそれぞれ得られたアナログ画像に対して標本化と量子化を行うA/D変換器である。符号3L、3Rは、A/D変換器2L、2Rの出力をフレーム毎にそれぞれ記憶するフレームバッファである。このフレームバッファ3L、3Rは、リングバッファ形式のフレームバッファであり、それぞれ常に最新の60フレーム分の画像を記憶することが可能である。符号21は、人物が発する音声を集音するマイクである。符号22は、マイク21で集音した音声の内容を認識して、文字列に変換する音声認識部である。符号31は、人物に対して音声合成した音声を発するスピーカである。符号32は、音声を合成してスピーカ31から発声させる音声合成部である。符号5は、主に画像処理を用い姿勢認識処理を行う処理部である。符号71は、人物の姿勢と対応する指示が予め定義された設定ファイルである。符号72は、人物の顔の識別情報が予め定義された顔データベースである。符号8は、姿勢認識に必要なデータを記憶するメモリである。符号9は、自律ロボットRの駆動部分(頭部、腕、脚等)を制御する行動制御部である。符号4は、音声認識部22、音声合成部32、フレームバッファ3L、3R、処理部5、設定ファイル71、顔データベース72、メモリ8及び駆動制御部9の間でデータを送受信するデータバスである。
【0022】
符号51は、カメラ1L、1Rによって撮像した画像に対して、キャリブレーションやレクティフィケーションの補正を行い、カラー画像81、輝度画像82、輝度画像83を生成してメモリ8へ記憶する画像補正処理部である。図1に示すカラー画像81における(R、t−1)は、右(R)の画像で時刻t−1(時刻tの直前のフレーム)の画像であることを示している。また、輝度画像82における(L、t−1)は、左(L)の画像で時刻t−1(時刻tの直前のフレーム)の画像であることを示している。また、輝度画像83における(R、t)は、右(R)の画像で時刻tの画像であることを示している。以下の説明においては、時刻tは最新画像を表し、時刻t−1は最新画像直前のフレーム画像を表すものとする。符号52は、カラー画像81と輝度画像82及び三角測量の原理を用いて、3D画像84と視差85の情報を生成してメモリ8へ記憶する3D画像生成部である。3D画像84は、各画素毎に距離情報が定義された画像である。符号53は、後の処理を簡単にするための前処理を施し、前処理画像86を生成する前処理部である。前処理部53は、カラー画像81から肌色領域を抽出して肌色領域画像87を生成する処理と、カラー画像81と輝度画像83から動きのある領域を抽出して動きのある領域画像88を生成する処理と、カラー画像81からエッジを抽出してエッジ画像89を生成する処理とを行い、それぞれ得られた画像をメモリ8へ記憶する。なお、ここでいう肌色とは、衣服に覆われていない部分の肌の色のことであり、前処理部53は、人間抽出に最適な色を適宜選択して決定した色の領域を抽出するものである。
【0023】
符号54は、3D画像84、視差85、動きのある領域画像88及びエッジ画像89から輪郭を抽出し、抽出結果を移動オブジェクトデータ90としてメモリ8へ記憶する輪郭抽出部である。移動オブジェクトデータ90は、画像から抽出された輪郭と同数だけ記憶されるものである。輪郭抽出部54は、得られた閉領域の輪郭毎に一意となる移動オブジェクトID91を付与し、この輪郭までの距離92、相対的な角度93および輪郭を構成する節点の画像上の座標である輪郭節点座標94をメモリ8へ記憶する。符号55は、輪郭節点座標94に基づいて人物の頭頂点(頭部の上端)を抽出して頭頂点座標95を求めメモリ8へ記憶する頭頂点抽出部である。符号56は、視差85、エッジ画像89、距離92、頭頂点座標95に基づいて人物の顔位置を抽出して顔位置座標96を求めメモリ8へ記憶する顔位置抽出部である。符号57は、視差85、エッジ画像89、距離92、顔位置座標96に基づいて人物の手(掌及び腕を含む)を抽出して手位置座標97を求めメモリ8へ記憶する手位置抽出部である。
【0024】
符号58は、3D画像84とカラー画像81から3次元空間上のオブジェクトを抽出して、このオブジェクト毎に一意となる3DオブジェクトID101を付与し、このオブジェクトとの実空間上の相対位置102をメモリ8へ記憶する3Dオブジェクト抽出部である。符号59は、カラー画像81、肌色領域画像87、相対位置102から人物の顔を検出して、画像上と実空間上の顔位置103、104を求めメモリ8へ記憶する顔検出部である。符号60は、カラー画像81、顔位置(画像)103、顔位置(実空間)104及び顔データベース72に定義されている顔データから顔を認識して、顔ID105を求めメモリ8へ記憶する顔認識部である。符号61は、移動オブジェクトデータ90の顔位置座標96、手位置座標97及び設定ファイル71に定義されている内容に基づいて、人物の姿勢を判定する姿勢判定部である。
【0025】
符号62は、移動オブジェクトデータ90と3Dオブジェクトデータ100とを関連付けて人情報マップ110を生成するオブジェクト統合部である。符号63は、人情報マップ110を参照して人物に対して応答する行動を起こす応答処理部である。符号64は、応答処理部63からの出力と3Dオブジェクトデータ100に基づいて移動の指示を作成し行動制御部9へ出力する移動指示部である。符号65は、応答処理部63からの出力と移動オブジェクトデータ90に基づいて視線を向ける方向の指示を作成し行動制御部9へ出力する視線指示部である。
【0026】
ここで、自律ロボットRの構成を簡単に説明する。図23は、自律ロボットRを外観を示す説明図である。この図において、符号R1は、処理部5、メモリ8、行動制御部9が搭載される制御装置搭載部である。符号R2は、頭部であり、カメラ1L、1R、A/D変換器2L、2R、フレームバッファ3L、3R、マイク21、音声認識部22、スピーカ31、音声合成部32が備えられる。符号R3は腕部であり、符号R4は脚部である。頭部R2、腕部R3、脚部R4の動作は、行動制御部7から出力される駆動部制御信号によって制御される。
【0027】
<第1の姿勢認識動作>
次に、図1に示す装置の動作を説明する。初めに、図2〜4を参照して、第1の姿勢認識動作を説明する。まず、カメラ1L、1Rで撮像されたアナログ画像に対してそれぞれA/D変換器2L、2Rによって標本化と量子化の処理が施され、フレームバッファ3L、3Rに格納される。この動作は、処理部5の動作の状況にかかわらず常に繰り返し動作し、2つのフレームバッファ3L、3Rには最新の60フレーム分の画像が格納される。一方、画像補正処理部51は、フレームバッファ3L、3Rから最新画像(時刻t)と直前の画像(時刻t−1)を読み出してこの画像に対して補正を加え、その結果をカラー画像81、輝度画像82、83としてメモリ8へ記憶する。
次に、3D画像生成部52は、上記カラー画像81、輝度画像82から3D画像84を生成し、メモリ8へ記憶する。続いて、前処理部53は、前処理を施し前処理画像86を生成し、メモリ8へ記憶する。
【0028】
次に、輪郭抽出部54は、例えばスネーク手法を用いて動的な輪郭抽出を行い、人物である可能性が高い部分の輪郭を抽出して(ステップS1)出力する。スネーク手法は、スネーク(snakes)と呼ばれる動的な閉曲線による輪郭線モデルを用いることが特徴で、画像中で物体の形状が時間的に変化していても対象物体の形状の抽出が可能であるという特徴を有している。このスネークは、対象物体の形状とスネークの形状が一致したときにエネルギーが最小になるように、その位置と形状によりエネルギー関数を設定する。具体的には曲線の滑らかさによる内部的なエネルギー、曲線と対象物体の輪郭との誤差のエネルギー、外的な拘束力によるエネルギーなどの和によって定義される。画像中の対象物体の輪郭に対して、エネルギーが局所最小解に到達するまで、位置と形状を動的に調整していくことによって、輪郭形状の抽出問題がエネルギー最小化という最適化問題として扱うことが可能となる。これによって、画像中における人物である可能性が高い領域を得ることができる。この処理によって移動オブジェクトID91、オブジェクトまでの距離92、オブジェクトとの相対的な角度93、輪郭節点座標94が得られる。
【0029】
この輪郭抽出処理は、1枚の画像中に複数の移動オブジェクトが存在する場合、それぞれの移動オブジェクトの輪郭を分離して抽出し、分離して抽出された数の移動オブジェクトをそれぞれ移動オブジェクトデータ90としてメモリ8へ記憶する。この分離された移動オブジェクトが複数の人物候補となる。なお、複数の移動体を分離して抽出する方法としては、特開2002−92622号公報等に記載されている周知の輪郭抽出方法を利用することができる。また、他の手法の輪郭抽出手法を用いてもよいことは言うまでもない。
【0030】
次に、頭頂点抽出部55は、輪郭節点座標94に基づいて、輪郭の頂点となる頭頂点を抽出する(ステップS2)。ここで、頭頂点を抽出する動作を図3、図10(a)を参照して説明する。図10(a)において、符号Aは、輪郭節点座標94から得られる輪郭である。まず、この輪郭で囲まれる領域の重心位置(1)を求め(ステップS6)、続いて、輪郭内の平均距離を距離画像を参照して求める(ステップS7)。次に、頭頂点探索領域を設定する(ステップS8)これは、輪郭重心のx座標に予め決められた人間の平均肩幅Wの1/2を加算と減算して得られたx座標値を求め、この2つのx座標値を通る垂直線を求める(2)。そして、2つの垂直線に挟まれた領域を探索領域とする。次に、この探索領域内の最上端を頭頂点(3)とする(ステップS9)。ここで得られた頭頂点座標95はメモリ8へ記憶される。
【0031】
次に、姿勢判定部61は、頭頂点座標95に基づいて、空間領域と領域区分の設定を行う(ステップS3)。ここで、図11を参照して、空間領域と領域区分について説明する。図11は、空間領域と領域区分を示す説明図である。図11に示すように、頭頂点を基準として、人間の両手の届く範囲内を複数の領域に、画像上において論理的に分割したのが空間領域であり、この空間領域に識別名を付与したのが領域区分である。この例は、10分割(A〜K)に分割した例であり、空間領域の外枠のx方向の大きさは、腕と半身の長さから決まり、距離方向は、腕の長さから決定される。ここで設定される空間領域と領域区分は姿勢判定部61内部に保持される。
【0032】
次に、手位置抽出部57は、輪郭抽出で抽出された輪郭内における手の位置を抽出する(ステップS4)。ここで、図4を参照して、手位置抽出動作を説明する。手位置抽出部56は、頭頂点座標と左右の手の届く範囲に基づいて手の探索領域を設定する(ステップS10)。続いて、手位置抽出部57は、先に設定した手の探索領域内に存在する輪郭抽出で抽出された輪郭内の平均距離を求める(ステップS11)。そして、手位置抽出部57は、ここで求めた平均距離が輪郭全体の平均距離±α内に収まっていれば、この輪郭を手と見なす判定をする(ステップS12)。ここで、αは腕の長さである。ここで、抽出された手位置の座標は手位置座標97としてメモリ8に記憶される。
【0033】
次に、姿勢判定部61は、得られた手位置座標97が、先に設定した空間領域A〜Kのどこに存在するかを判定する。そして、姿勢判定部26は、この判定の結果得られた領域区分と設定ファイル71に記憶されている姿勢を参照して、人物の姿勢を判定する(ステップS5)。図12に設定ファイル71に記憶されるテーブルの一例を示す。図12に示すように、設定ファイル71には、領域区分と対応する姿勢が定義されており、各姿勢に対して一意となる姿勢IDが付与されている。例えば、領域区分A、Bであれば「握手」をしようとしている姿勢であり、領域区分C、Dであれば、「注目」せよという指示を出している姿勢であり、領域区分E、Fであれば、「停止」せよという指示を出している姿勢である。また、領域区分G、Hであれば、「右、または左に寄れ」という指示を出している姿勢であり、領域区分J、Kであれば、「さようなら」をしている姿勢である。また、各姿勢には、優先順位が設定されており、2つの姿勢が判定された場合、順位の数字が小さい方の姿勢を優先して判定結果とする。例えば、一人の人間の両手がそれぞれ異なる姿勢の認識がされた場合には、優先順位の数字が小さい方の手の指示を優先する。この姿勢判定結果得られた姿勢ID98はメモリ8へ記憶される。設定ファイル71に記憶されるテーブルの内容は、作業者が図示しないキーボード等から入力することによって設定される。
以上の動作を、メモリ8に記憶されている移動オブジェクトデータ90の数だけ繰り返し実行することにより、画像に撮像された全ての人物の姿勢を認識することができる。また、3D画像84で各輪郭の遠近を判断して、複数の人物がいる場合でもそれぞれの人間を分離して抽出することができるので背景に肌色があったとしても認識対象の手や顔をして処理することを防止することができる。
【0034】
<第2の姿勢認識動作>
次に、図5を参照して、第2の姿勢認識動作を説明する。図5は、図2に示す手位置抽出(ステップS4)の詳細動作を示す図であり、図4に示す第1の姿勢認識動作における手位置抽出動作に相当するものである。
まず、手位置抽出部57は、頭頂点座標95と左右の手の届く範囲に基づいて手の探索領域を設定する(ステップS21)。続いて、手位置抽出部57は、前処理で得られた肌色領域画像87と先に得られた手の探索領域に基づいて、探索領域内の肌色領域を抽出する(ステップS22)。次に、手位置抽出部57は、3D画像84を参照して、ここで得られた肌色領域の平均距離を求める(ステップS23)。そして、手位置抽出部57は、ここで求めた平均距離が輪郭全体の平均距離±α内に収まっていれば、この肌色領域を手と見なす判定をする(ステップS24)。ここで、αは腕の長さである。ここで、抽出された手位置の座標は手位置座標97としてメモリ8へ記憶される。
第2の姿勢認識動作において、図5に示す手位置抽出動作以外は、第1の姿勢認識動作と同一である。
【0035】
<第3の姿勢認識動作>
次に、図6、7、8を参照して第3の姿勢認識動作を説明する。まず、輪郭抽出部54は、スネーク手法を用いて動的な輪郭抽出を行い、人物である可能性が高い部分の輪郭を抽出して(ステップS31)出力する。
【0036】
次に、頭頂点抽出部55は、頭頂点を抽出する(ステップS32)。ここでの動作は、第1の動作と同一であるので、詳細な説明を省略する。ここで得られた頭頂点座標95はメモリ8へ記憶される。
【0037】
次に、顔位置抽出部56は、人物の顔の中心点を抽出する(ステップS33)。ここで、図7、10、13を参照して、顔の中心点を抽出する動作を説明する。まず、顔位置抽出部56は、顔探索領域を設定する(ステップS38)。この顔探索領域は、先に求めた頭頂点座標95を参照して、頭頂点を上端として予め決められている標準顔の大きさに基づく3D空間領域を論理的に定義することにより設定する。続いて、顔位置抽出部56は、肌色領域画像87を参照して、先に設定した顔探索領域内の肌色領域を抽出し、この肌色領域の中心を顔位置として抽出する(ステップS39)。これによって図10(b)に示す顔位置(4)が抽出されたこととなる。
【0038】
次に、姿勢判定部61は、頭頂点座標95に基づいて、空間領域と領域区分の設定を行う(ステップS34)。この空間領域と領域区分については、前述したものと同一であるので、ここでは詳細な説明を省略する。
【0039】
次に、手位置抽出部57は、手位置と手先(手首より先の部分)を抽出する(ステップS35)。ここで、図8を参照して、手位置抽出動作および手先抽出動作を説明する。手位置抽出部57は、頭頂点座標95と左右の手の届く範囲に基づいて手の探索領域を設定する(ステップS41)。このとき、ステップS38で設定した顔探索領域は除くようにする。続いて、手位置抽出部57は、前処理で得られた肌色領域画像87と先に設定した手の探索領域に基づいて、探索領域内の肌色領域を抽出する(ステップS42)。次に、手位置抽出部57は、3D画像84を参照して、ここで得られた肌色領域の平均距離を求める。そして、手位置抽出部57は、ここで求めた平均距離が輪郭全体の平均距離±α内に収まっていれば、この肌色領域を手と見なす判定をする(ステップS43)。ここで、αは腕の長さである。
【0040】
次に、手位置抽出部57は、ステップS43において手と見なす肌色領域の中心を基準として手先位置抽出用探索範囲を設定する(ステップS44)。この探索範囲は、3D画像84を参照して、人物の腕の長さを推定して設定する。続いて手位置抽出部57は、手先位置抽出用探索範囲内における肌色領域の輪郭の上下左右の端点を抽出する(ステップS45)。そして、手位置抽出部57は、ステップS43で得られた手位置と顔との距離がしきい値より大きい場合、得られた端点のうち顔の中心から最も遠い端点を手先位置として抽出する(ステップS46)。一方しきい値より小さい場合は、肘を曲げていると見なして顔の中心に近い方の端点を手先位置として抽出する。この手先位置座標は、手位置座標97としてメモリ8へ記憶される。
【0041】
次に、姿勢判定部61は、手位置座標97が、先に設定した空間領域A〜Kのどこに存在するかを判定する。そして、姿勢判定部61は、この判定の結果得られた領域区分と設定ファイル71に記憶されている姿勢を参照して、人物の姿勢を判定する(ステップS36)。この姿勢判定結果は、姿勢ID98としてメモリ8へ記憶される。
【0042】
<複数の人物が居る場合の姿勢認識動作>
次に、図9を参照して、周囲に複数の人物がいる場合の姿勢認識動作を説明する。図9は、周囲に複数の人物がいる場合の姿勢認識動作を示すフローチャートである。ここでは、例として、得られた画像に2人の人物が捕らえられたものとして説明する。まず、前述した動作によって人間の検出を行う(ステップS47)。続いて、ステップS47において検出された人物の手の位置検出を行う(ステップS48)。この手の位置検出は前述した動作によって行う。続いて、ステップS48における手の位置検出結果に基づいて姿勢認識を行う(ステップS49)。この姿勢認識は、前述した動作によって行う。そして、画像上の人数分の処理を行ったか否かを判定し、画像上の全ての人物の姿勢認識を繰り返し行う(ステップS50)。
この動作(ステップS47〜S50)によって、移動オブジェクトデータ90内に人数分の人情報が記憶されたこととなる。この例では、2人分の移動オブジェクトが移動オブジェクトデータ90に記憶されたことになる。
【0043】
次に、姿勢判定部61は、指示の優位を決定する(ステップS51)。この指示優位とは、複数の人物が所定の姿勢を取った場合にどの指示に従うべきかを決定することである。従うべき指示の優位は、予め決まっており、原則的に画像中心に最も近い人物の指示である。ただし、画像中心近傍にいる人物以外の人物の指示が「停止」を意味する指示であった場合は、この指示を優先して従い、自己の移動動作を停止させる。そして、次の指示があるまで動かないように制御する。また、特定の人間の指示に従うようにする場合は、顔認識部60の認識結果に基づいて、認識できた顔を持つ人間の指示を優先するようにしてもよい。または、オーナーなどの特定の人間の指示を優先するようにしてもよい。
【0044】
このように、周囲に複数の人物が居る場合であってもすべての人物の検出、手の位置検出及び姿勢認識を行うようにしたため、それぞれの人物が出す指示を認識することが可能となる。また、複数の人物がいる場合であっても指示の優位処理を行うようにしたため、確実に指示を認識することができる。
【0045】
なお、この処理においては、画像上の複数の人物が腕の長さの分だけ離れている必要があることと、前後(自己からの距離方向)に人物が居る場合に後方に居る人物の認識は、手前に居る人物に隠れていない手を認識対象とすることが制限事項となる。
【0046】
また、図11に示す空間領域は、カメラ1R、1Lからの距離方向に対してさらに細分化するようにしてもよい。このとき、図12に示すテーブルは、分割して設定された領域の数だけ対応する姿勢を定義すればよい。このようにすることによって、人物が手を前方に出した場合と後方に下げた場合の姿勢を判別することが可能となる。また、距離方向に分割するピッチは、得られる距離画像の精度に基づいて決定すればよい。また、設定ファイル71に記憶するテーブルにおいて、所定の領域に対して対応する姿勢を定義しないようにしてもよい。これによって、この領域に手がある場合の姿勢を無視するようにすることができる。
【0047】
このように、姿勢認識を行う対象となる人物の抽出に輪郭抽出を適用するとともに、同時に距離画像を参照するようにしたため、複数の人物が視野内に存在する場合であっても姿勢認識を確実に行うことが可能となる。また、抽出された輪郭情報から顔や手などの人物の特徴点を検出し、これらの特徴点の位置関係から人物の姿勢を認識するようにしたため、信頼性が高くかつ高速処理が可能である姿勢認識を実現することができる。
【0048】
<応答処理動作>
次に、図14〜22を参照して、姿勢判定部61によって判定された姿勢に基づいて、自律ロボットRが応答行動を行う動作を説明する。図14は、応答の基本動作を示すフローチャートである。ここでは、各姿勢に対応する指示が以下のように予め決められているものとして説明する。
(1)「来い」という指示を受けた場合、所定の条件を満たすように指示を出した人物に追従する。所定の条件とは、「自律ロボットRが人間との距離を一定に保ちながら移動する場合に、安全を確保するための距離が第一の所定距離(例えば150cm)になるように移動する」、「人間との距離が第二の所定距離(例えば90cm)未満になった場合は停止する」、「人間との距離が第二の所定距離(例えば、90cm)以上〜第一の所定距離(例えば、150cm)未満になった場合は後退または歩調を合わせる」等である。
(2)「停止」という指示を受けた場合は、直ぐに停止する。
(3)「握手」という指示を受けた場合は、指示を出した人物と握手をする。
(4)「さようなら」という指示を受けた場合は、指示を出した人物に対して手を振る。
(5)指示を出した人物を見失った場合は、自己の移動を止めて新たな指示を受けるまで待機する。
なお、姿勢に対応する指示は、上記の(1)〜(5)の組み合わせであってもよい。
【0049】
次に、応答処理部63は、メモリ8より姿勢判定部61の判定結果である姿勢ID98を得る(ステップS52)。続いて、応答処理部63は、音声認識部22から音声認識結果である指示を得る(ステップS53)。ここで得た指示は内部に保持される。
一方、3Dオブジェクト抽出部58は、3D画像84とカラー画像81から3Dオブジェクトを抽出して、この3Dオブジェクトに付与した3DオブジェクトID101と、3Dオブジェクトとの相対位置(実空間)102をメモリ8へ記憶する。これを受けて、顔検出部59は、カラー画像81より肌色を検出し、顔輪郭(楕円)で抽出した顔に顔オブジェクトID103を付与し、さらにこの顔の位置を求め、顔位置座標105、106をメモリ8へ記憶する。続いて、顔認識部60は、顔位置座標105、106に基づいて、カラー画像81から顔の部分だけを抜き出し、顔の特徴ベクトルを求める。そして、顔認識部60は、求めた特徴量に類似したデータに基づき顔データベース72を検索し、該当する顔データが存在した場合、該当する顔データに付与された個人ID104をメモリ8へ記憶する。ここで説明した3Dオブジェクトデータ100の生成動作は、他の処理状況に関係なく繰り返し行われる。
【0050】
次に、オブジェクト統合部62は、移動オブジェクトデータ90と3Dオブジェクトデータ100とを関連付けて人情報マップ110を生成し、メモリ8へ記憶する(ステップS54)。人情報マップ110とは、指示を出す人物が現時点でどこにいるかを把握するために、自己(自律ロボットR)との相対的位置関係を定義したマップであり、人物を一意に特定するための個人ID111、自己との相対位置112、顔オブジェクトID113、個人ID114、姿勢ID115、移動体オブジェクトID116、顔位置(画像)座標117、顔位置(実空間)座標118、手位置座標119、自己との距離120、自己との相対的な角度121、輪郭接点座標122、頭頂点座標123からなる。これらの値は、新たに求めるのではなく、移動オブジェクトデータ90と3Dオブジェクトデータ100とを関連付けたときにそれぞれの値を複製したものである。ここで、図15を参照して、オブジェクト統合部62における人情報マップの更新動作を説明する。まず、人物が検出されたか否かを判断する(ステップS61、S62)。そして、人物が検出されれば追跡処理を行い(ステップS63)、追跡ができたかを判断する(ステップS64)。追跡ができた場合は、追跡に応じて時々刻々変化する人マップ情報110を更新していく(ステップS65)。一方、追跡ができなかった場合は、新規にマップ登録する(ステップS66)。また、ステップS62において人物検出ができなかった場合、既に登録されている人物をチェックする(ステップS67)。そして、一定時間検出ができなければマップから削除する(ステップS68,S69)。このようにして、自己の周囲に存在する人物に関する情報を、移動オブジェクトデータ90と3Dオブジェクトデータ100の関連付けを行いながら時々刻々更新する。
【0051】
次に、時々刻々変化する人情報マップ110を参照して、応答処理部63は、認識結果(指示)を整合させる(ステップS55)。そして、条件を満たしているか否かを判定する(ステップS56)。この結果条件を満たしていれば、行動を起こすための制御コマンドを移動指示部64または視線指示部65に対して送信する(ステップS57)。これによって、移動指示または視線指示が行動制御部9に対して送信され、駆動部が動作する。
【0052】
次に、指示を出す人物から「来い」という指示が出された場合を例にして、応答処理部63、移動指示部64、及び視線指示部65の動作を説明する。
初めに、図16、17、18を参照して、視線指示部65が視線方向(カメラの光軸方向)を変更させる動作を説明する。まず、視線指示部65は、他の処理部との間の通信を初期化する(ステップS71)。続いて、視線指示部66は、応答処理部63から出力されるコマンドを受け付ける(ステップS72)。そして、視線指示部65は、移動体(人物)情報を取得する(ステップS73)。視線指示部65は、ステップS72、S73を繰り返し実行する。
【0053】
次に、図17を参照して、図16に示すステップS72のコマンド受付処理を説明する。まず、視線指示部65は、応答処理部63から出力されるコマンドを入力する(ステップS74)。そして、コマンドが終了したか否かを判断する。そして、コマンドが終了していれば、処理を終了し(ステップS77)、コマンドが終了していなければ、メイン処理に戻る(ステップS76)。
【0054】
次に、図18を参照して、図16に示すステップS73の移動体情報取得処理を説明する。まず、視線指示部65は、輪郭抽出部54よりメモリ8より移動オブジェクトデータ90を読み込む(ステップS78)。そして、読み込んだ移動オブジェクトデータ90に基づいて、移動体があったか否かを判断する(ステップS79)。この結果、移動体がなければ何もせずに処理を終了しメイン処理に戻る。一方、移動体がある場合は、メモリ8より個人IDを読み込む(ステップS80)。
【0055】
続いて、視線指示部65は、個人IDが一致する人情報マップ110から顔位置座標117を読み込み、頭部の推定位置を求め、この推定位置からカメラ1L、1Rのパン角度及びチルト角度を求める(ステップS81)。そして、視線指示部65は、求めたパン角度及びチルト角度を行動制御部9へ送信する(ステップS82)。これによって、カメラ1L、1R、すなわち自律ロボットの頭部R2が人物の頭部の方向へ向くこととなる。これによって、「来い」と指示した人物の頭方向へ必ずカメラ1L、1Rが向くことになるため、人物に追従することが可能となる。
【0056】
次に、図19、20、21を参照して、移動指示部64の動作を説明する。初めに、図19を参照して、移動指示部64のメイン処理を説明する。まず、移動指示部64は、他の処理部との間の通信を初期化する(ステップS91)。続いて、移動指示部64は、応答処理部63から出力されるコマンドを受け付ける(ステップS92)。続いて、移動指示部64は、移動オブジェクトデータ90を読み込む(ステップS93)。この移動オブジェクトデータ90は、視線指示部65に対して送信される(ステップ94)。そして、移動指示部64は、移動オブジェクトデータ90に基づいて、「来い」と指示した人物に追従する(ステップS95)。移動指示部64は、ステップS92〜S95の処理を繰り返し実行する。
【0057】
次に、図20を参照して、図19に示すコマンド受付処理(ステップS92)を説明する。まず、移動指示部64は、応答処理部63から出力されるコマンドを入力する(ステップS96)。そして、追従開始のユーザコマンドであるか否かを判断する(ステップS97)。この結果、追従開始のコマンドであれば、個人ID114を変数にセットして、メイン処理に戻る(ステップS103)。ステップS97において、追従開始のコマンドでない場合、移動指示部64は、停止コマンドであるか否かを判断する(ステップS99)。この結果停止コマンドである場合、移動指示部64は、停止指示を行動制御部9へ出力して(ステップS100)、メイン処理へ戻る(ステップS103)。これによって、自律ロボットRは、移動を停止する。ステップS99において、停止コマンドでない場合、移動指示部64は、コマンド処理が終了か否かを判断する(ステップS101)。この結果、コマンド処理が終了でなければ、メイン処理へ戻り(ステップS103)、コマンド処理が終了であれば、処理を終了する(ステップS102)。
【0058】
次に、図21を参照して、図19に示す追従処理(ステップS95)を説明する。まず、移動指示部64は、得られた相対距離が所定値th1(ここでは、90cm)より短いか否かを判断する(ステップS105)。この結果、所定値th1より短い場合、移動指示部64は、行動制御部9に対して停止指示を出力して(ステップS106)、メイン処理へ戻る。これによって、追従する人物に近づき過ぎたので、自律ロボットRは停止する。一方、相対距離が所定値th1以上である場合、移動指示部65は、相対距離から所定値th2を減算した値と相対方位を行動制御部9に対して送信し(ステップS107)、メイン処理へ戻る。これによって、人物に対して追従する動作を起こす。
【0059】
次に、図22を参照して、追従動作を行う場合の状態遷移について説明する。まず、追従開始の指示を受ける(a)と、指示を出した人物に接近移動する(b)。そして、停止指示を受けた場合、停止距離以内になった場合及び人物を見失った場合(c)は、停止する(d)。一方、接近移動して、接近しすぎた(所定距離以内)場合(e)は、後退移動する(f)。そして、後退した結果、所定距離以上になった場合、接近移動する(b)。この処理を繰り返し行うことによって、人物への追従動作を実現する。
【0060】
このように、指示を出す人物から姿勢による指示が出された場合に、この指示に対応する行動動作の処理を実行するようにしたため、外部コントローラ等を使用しなくとも自律ロボットRの動作を制御することが可能となる。
【0061】
なお、図1における各処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより姿勢認識処理及び応答処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。
【0062】
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
【0063】
【発明の効果】
以上説明したように、請求項1に記載の発明によれば、姿勢認識を行う対象となる人物の抽出に輪郭抽出を適用するとともに、同時に距離画像を参照するようにしたため、複数の人物が撮像領域内に存在する場合であっても姿勢認識を確実に行うことが可能となる。また、抽出された輪郭情報から顔や手などの人物の特徴点を検出し、これらの特徴点の位置関係から人物の姿勢を認識するようにしたため、信頼性が高くかつ高速処理が可能である姿勢認識を実現することができる。また輪郭から頭頂点を抽出し、この頭頂点に基づいて顔と手の位置を判定するようにしたため、顔と手の位置を抽出するを簡単にすることができる。
【0064】
請求項に記載の発明によれば、設定ファイルに任意の指示を設定することができるため、必要に応じて、人間の手と身体または顔との相対位置毎の指示の変更を容易にすることができる。
【0065】
請求項に記載の発明によれば、各指示に優先順位を定義したため、従うべき指示の判定を確実に行うことが可能となる。
【0066】
請求項に記載の発明によれば、特定の色領域を抽出して、この特定の色領域を手の候補としたため、姿勢認識を確実に行うことが可能となる。
【0067】
請求項に記載の発明によれば、周囲に居る人間が複数であっても姿勢の認識を行うことができる。
【0068】
請求項に記載の発明によれば、複数の人間が周囲に居る場合であっても従うべき指示の判定を確実に行うことが可能となる。
【0069】
請求項に記載の発明によれば、所定の指示を出した人間の指示を優先するようにしたため、危険回避するような指示に対して優先的に従うようにすることができる。
【0070】
請求項に記載の発明によれば、顔認識結果に基づいて認識できた人間の出す指示を優先するようにしたため、特定の人間の指示に従うことができる。
【0072】
請求項に記載の発明によれば、指示を出す人物から姿勢による指示が出された場合に、この指示に対応する行動を起こすための処理を実行するようにしたため、外部コントローラ等を使用しなくとも自律ロボットの動作を制御することが可能となる。
【0073】
請求項に記載の発明によれば、自己の撮像手段を人間に向ける制御を行うための撮像指示を出力する撮像指示手段を備えたため、指示を出した人間に追従する等の行動を起こすことが可能になる。
【0074】
請求項10に記載の発明によれば、人間との距離が近づき過ぎて認識が困難になったり、所定の作業を行うことが困難となることを避けることができる。
【0075】
請求項11に記載の発明によれば、人間との距離が所定距離未満になった場合に停止するようにしたため、「停止」の指示を出し続けなくても済むようになる。
【0076】
請求項12に記載の発明によれば、人間との距離を確実に所定範囲内にすることができる。
【0077】
請求項13に記載の発明によれば、指示を出した人間を見失った場合においても次にとる行動の指示を確実に受けることが可能になる。
【図面の簡単な説明】
【図1】 本発明の一実施形態の構成を示すブロック図である。
【図2】 図1に示す処理部5の動作を示すフローチャートである。
【図3】 図1に示す処理部5の動作を示すフローチャートである。
【図4】 図1に示す処理部5の動作を示すフローチャートである。
【図5】 図1に示す処理部5の動作を示すフローチャートである。
【図6】 図1に示す処理部5の動作を示すフローチャートである。
【図7】 図1に示す処理部5の動作を示すフローチャートである。
【図8】 図1に示す処理部5の動作を示すフローチャートである。
【図9】 図1に示す処理部5の動作を示すフローチャートである。
【図10】 図1に示す処理部5の動作を示す説明図である。
【図11】 図1に示す処理部5の動作を示す説明図である。
【図12】 図1に設定ファイル71のテーブル構造を示す説明図である。
【図13】 図1に示す処理部5の動作を示す説明図である。
【図14】 図1に示す処理部5の動作を示すフローチャートである。
【図15】 図1に示す処理部5の動作を示すフローチャートである。
【図16】 図1に示す処理部5の動作を示すフローチャートである。
【図17】 図1に示す処理部5の動作を示すフローチャートである。
【図18】 図1に示す処理部5の動作を示すフローチャートである。
【図19】 図1に示す処理部5の動作を示すフローチャートである。
【図20】 図1に示す処理部5の動作を示すフローチャートである。
【図21】 図1に示す処理部5の動作を示すフローチャートである。
【図22】 図1に示す処理部5の状態遷移を示す説明図である。
【図23】 自律ロボットの外観を示す説明図である。
【符号の説明】
1L、1R・・・カメラ
2L、2R・・・A/D変換器
3L、3R・・・フレームバッファ
4・・・データバス
21・・・マイク
22・・・音声認識部
31・・・スピーカ
32・・・音声合成部
5・・・処理部
51・・・画像補正処理部
52・・・3D画像生成部
53・・・前処理部
54・・・輪郭抽出部
55・・・頭頂点抽出部
56・・・顔位置抽出部
57・・・手位置抽出部
58・・・3Dオブジェクト抽出部
59・・・顔検出部
60・・・顔認識部
61・・・姿勢判定部
62・・・オブジェクト統合部
63・・・応答処理部
64・・・移動指示部
65・・・視線指示部
71・・・設定ファイル
72・・・顔データベース
8・・・メモリ
9・・・行動制御部

Claims (13)

  1. 撮像手段で得られた画像から周囲に居る人間の姿勢が意味する指示を認識する姿勢認識装置であって、
    前記画像から人間の候補である物体の輪郭を抽出する輪郭抽出手段と、
    前記輪郭の重心位置に基づいて頭頂点の探索領域を設定し、該頭頂点探索領域内の前記輪郭の最上端から頭頂点位置を求める頭頂点抽出手段と、
    前記画像から色情報を抽出し所定の色を持つ領域を抽出する色領域抽出手段と、
    前記頭頂点位置と左右の手の届く範囲に基づいて、手の探索領域を設定し、三角測量の原理で測定された前記手探索領域内の前記所定の色を持つ領域の平均距離と三角測量の原理で測定された前記人間候補の輪郭全体の平均距離との差が所定の範囲内である前記手の探索領域内の前記所定の色を持つ領域を人間の手の候補とする探索手段と、
    前記手の候補と前記頭頂点位置との相対的位置に対応する指示を判定して、この判定結果を姿勢認識結果とする姿勢判定手段と
    を備えたことを特徴とする姿勢認識装置。
  2. 人間の手と身体または顔との相対位置毎に指示が定義された設定ファイルをさらに備え、
    前記姿勢判定手段は、前記設定ファイルに定義された指示を参照することにより姿勢判定結果を得ることを特徴とする請求項に記載の姿勢認識装置。
  3. 前記設定ファイルは、指示の各々に優先順位が定義され、
    前記姿勢判定手段は、複数の姿勢が判定された場合は、前記優先順位が高い指示を優先して判定結果とすることを特徴とする請求項に記載の姿勢認識装置。
  4. 前記画像から周囲に居る複数の人間が存在する場合には、前記輪郭抽出手段の出力に基づいて各々の人間の姿勢を認識する手段をさらに備えたことを特徴とする請求項に記載の姿勢認識装置。
  5. 周囲に居る人間が複数である場合は、前記画像の中心近傍にいる人間の指示を優先することを特徴とする請求項に記載の姿勢認識装置。
  6. 前記画像の中心近傍以外の人間の指示が、所定の指示である場合、少なくとも前記設定ファイルで定義された優先順位に基づいて、この所定の指示を出した人間の指示を優先することを特徴とする請求項に記載の姿勢認識装置。
  7. 複数の人間の中から顔の認識をする顔認識手段をさらに備え、この顔認識結果に基づいて特定の人間の指示を優先することを特徴とする請求項に記載の姿勢認識装置。
  8. 請求項1ないしのいずれかに記載の姿勢認識装置を備えた自律ロボットであって、
    前記姿勢認識装置から姿勢認識結果を取得する認識結果取得手段と、
    前記姿勢認識結果に対応する行動を起こすために自己の移動制御を行うための移動指示を出力する移動指示手段と、
    前記移動指示に基づき自己の行動制御を行う行動制御手段と
    を備えたことを特徴とする自律ロボット。
  9. 前記姿勢認識結果に対応する行動を起こすために自己の撮像手段を
    人間に向ける制御を行うための撮像指示を出力する撮像指示手段をさらに備え、
    前記行動制御手段は、撮像指示に基づき自己の行動制御を行うことを特徴とする請求項に記載の自律ロボット。
  10. 前記行動制御手段は、人間との距離を一定に保ちながら移動する場合に、第一の所定距離を保ちながら移動するように行動を制御することを特徴とする請求項に記載の自律ロボット。
  11. 前記行動制御手段は、人間との距離が少なくとも第一の所定距離より短い第二の所定距離未満になった場合に停止するように行動を制御することを特徴とする請求項10に記載の自律ロボット。
  12. 前記行動制御手段は、人間との距離が前記第二の所定距離以上でかつ第一の所定距離未満である場合に少なくとも人間との距離が第二の所定距離以上となるよう自己の移動速度を調整するように行動を制御することを特徴とする請求項11に記載の自律ロボット。
  13. 前記行動制御手段は、所定の期間指示の認識ができない場合は停止するように行動を制御し、新たな認識ができるまで待機するように行動を制御することを特徴とする請求項12に記載の自律ロボット。
JP2002234066A 2002-08-09 2002-08-09 姿勢認識装置及び自律ロボット Expired - Lifetime JP3996015B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002234066A JP3996015B2 (ja) 2002-08-09 2002-08-09 姿勢認識装置及び自律ロボット
US10/635,778 US7340100B2 (en) 2002-08-09 2003-08-07 Posture recognition apparatus and autonomous robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002234066A JP3996015B2 (ja) 2002-08-09 2002-08-09 姿勢認識装置及び自律ロボット

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007161830A Division JP4435212B2 (ja) 2007-06-19 2007-06-19 姿勢認識装置及び自律ロボット

Publications (2)

Publication Number Publication Date
JP2004078316A JP2004078316A (ja) 2004-03-11
JP3996015B2 true JP3996015B2 (ja) 2007-10-24

Family

ID=31492441

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002234066A Expired - Lifetime JP3996015B2 (ja) 2002-08-09 2002-08-09 姿勢認識装置及び自律ロボット

Country Status (2)

Country Link
US (1) US7340100B2 (ja)
JP (1) JP3996015B2 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7680295B2 (en) * 2001-09-17 2010-03-16 National Institute Of Advanced Industrial Science And Technology Hand-gesture based interface apparatus
US7646372B2 (en) * 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7873448B2 (en) 2002-12-10 2011-01-18 Honda Motor Co., Ltd. Robot navigation system avoiding obstacles and setting areas as movable according to circular distance from points on surface of obstacles
JP2004302785A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 移動ロボットの画像送信装置
JP2004298988A (ja) * 2003-03-31 2004-10-28 Honda Motor Co Ltd 移動ロボットの画像送信装置
EP1640917B1 (en) * 2003-07-01 2017-06-14 Honda Motor Co., Ltd. Contour extracting device, contour extracting method, and contour extracting program
JP4479194B2 (ja) * 2003-08-29 2010-06-09 富士ゼロックス株式会社 動作識別装置、及び対象物の姿勢識別装置
JP2005100367A (ja) * 2003-09-02 2005-04-14 Fuji Photo Film Co Ltd 画像生成装置、画像生成方法、及び画像生成プログラム
JP4481663B2 (ja) * 2004-01-15 2010-06-16 キヤノン株式会社 動作認識装置、動作認識方法、機器制御装置及びコンピュータプログラム
US7911655B2 (en) * 2004-10-06 2011-03-22 Iuval Hatzav System for extracting information from an identity card
JP4459788B2 (ja) * 2004-11-16 2010-04-28 パナソニック株式会社 顔特徴照合装置、顔特徴照合方法、及びプログラム
JP4441879B2 (ja) * 2005-06-28 2010-03-31 ソニー株式会社 信号処理装置および方法、プログラム、並びに記録媒体
JP5188977B2 (ja) 2005-09-30 2013-04-24 アイロボット コーポレイション 個人の相互交流のためのコンパニオンロボット
US20070098229A1 (en) * 2005-10-27 2007-05-03 Quen-Zong Wu Method and device for human face detection and recognition used in a preset environment
JP4458284B2 (ja) * 2005-10-31 2010-04-28 株式会社エクォス・リサーチ 遠隔操作装置
JP4699298B2 (ja) * 2006-06-28 2011-06-08 富士フイルム株式会社 人体領域抽出方法および装置並びにプログラム
US7606411B2 (en) * 2006-10-05 2009-10-20 The United States Of America As Represented By The Secretary Of The Navy Robotic gesture recognition system
JP4243326B2 (ja) * 2007-06-27 2009-03-25 パナソニック株式会社 ロボットアームの制御装置及び制御方法、ロボット、及びプログラム
JP2009012148A (ja) * 2007-07-09 2009-01-22 Noriko Mitsuhayashi ペット型ロボット
EP2276234A4 (en) * 2008-04-23 2017-11-22 NEC Corporation Image processing device, camera, image processing method, and program
TWI408397B (zh) * 2008-08-15 2013-09-11 Univ Nat Chiao Tung Automatic navigation device with ultrasonic and computer vision detection and its navigation method
JP5001930B2 (ja) * 2008-11-21 2012-08-15 富士通株式会社 動作認識装置及び方法
JP5294956B2 (ja) * 2009-04-08 2013-09-18 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
US8452599B2 (en) * 2009-06-10 2013-05-28 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for extracting messages
US8269616B2 (en) * 2009-07-16 2012-09-18 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for detecting gaps between objects
US8337160B2 (en) * 2009-10-19 2012-12-25 Toyota Motor Engineering & Manufacturing North America, Inc. High efficiency turbine system
US8237792B2 (en) 2009-12-18 2012-08-07 Toyota Motor Engineering & Manufacturing North America, Inc. Method and system for describing and organizing image data
US8514188B2 (en) * 2009-12-30 2013-08-20 Microsoft Corporation Hand posture mode constraints on touch input
US8781160B2 (en) * 2009-12-31 2014-07-15 Indian Institute Of Technology Bombay Image object tracking and segmentation using active contours
JP5051671B2 (ja) * 2010-02-23 2012-10-17 Necシステムテクノロジー株式会社 情報処理装置、情報処理方法およびプログラム
US8424621B2 (en) 2010-07-23 2013-04-23 Toyota Motor Engineering & Manufacturing North America, Inc. Omni traction wheel system and methods of operating the same
JP2012098988A (ja) * 2010-11-04 2012-05-24 Sony Corp 画像処理装置および方法、並びにプログラム
EP2671134A1 (en) * 2011-02-04 2013-12-11 Koninklijke Philips N.V. Gesture controllable system uses proprioception to create absolute frame of reference
US9067319B2 (en) * 2011-08-11 2015-06-30 GM Global Technology Operations LLC Fast grasp contact computation for a serial robot
JPWO2013114806A1 (ja) * 2012-01-30 2015-05-11 Necソリューションイノベータ株式会社 生体認証装置及び生体認証方法
JP5649601B2 (ja) * 2012-03-14 2015-01-07 株式会社東芝 照合装置、方法及びプログラム
KR20150130808A (ko) * 2014-05-14 2015-11-24 삼성전자주식회사 사용자의 공간 제스처를 식별하는 방법 및 장치
JP6468871B2 (ja) * 2015-02-03 2019-02-13 キヤノン株式会社 ロボットハンド制御方法及びロボット装置
JP6348097B2 (ja) * 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US9694494B1 (en) * 2015-12-11 2017-07-04 Amazon Technologies, Inc. Feature identification and extrapolation for robotic item grasping
CN108885436B (zh) 2016-01-15 2021-12-14 美国iRobot公司 自主监视机器人系统
WO2018023727A1 (en) * 2016-08-05 2018-02-08 SZ DJI Technology Co., Ltd. Methods and associated systems for communicating with/controlling moveable devices by gestures
US20180081352A1 (en) * 2016-09-22 2018-03-22 International Business Machines Corporation Real-time analysis of events for microphone delivery
US10406685B1 (en) * 2017-04-20 2019-09-10 X Development Llc Robot end effector control
JP6922410B2 (ja) * 2017-05-19 2021-08-18 富士通株式会社 姿勢判定プログラム、姿勢判定装置及び姿勢判定方法
US10100968B1 (en) 2017-06-12 2018-10-16 Irobot Corporation Mast systems for autonomous mobile robots
DE102017007908A1 (de) * 2017-08-21 2019-02-21 Hochschule Bochum Verfahren zur Steuerung der Bewegung eines mobilen Roboters
CN109558000B (zh) * 2017-09-26 2021-01-22 京东方科技集团股份有限公司 一种人机交互方法及电子设备
US10682774B2 (en) 2017-12-12 2020-06-16 X Development Llc Sensorized robotic gripping device
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
US10726248B2 (en) 2018-02-01 2020-07-28 Ford Global Technologies, Llc Validating gesture recognition capabilities of automated systems
CN109199240B (zh) * 2018-07-24 2023-10-20 深圳市云洁科技有限公司 一种基于手势控制的扫地机器人控制方法及系统
KR102627014B1 (ko) * 2018-10-02 2024-01-19 삼성전자 주식회사 전자 장치 및 제스처 인식 방법
US11110595B2 (en) 2018-12-11 2021-09-07 Irobot Corporation Mast systems for autonomous mobile robots
KR20200077775A (ko) * 2018-12-21 2020-07-01 삼성전자주식회사 전자 장치 및 그의 정보 제공 방법
CN109890573B (zh) * 2019-01-04 2022-05-03 上海阿科伯特机器人有限公司 移动机器人的控制方法、装置、移动机器人及存储介质
US11416002B1 (en) * 2019-06-11 2022-08-16 Ambarella International Lp Robotic vacuum with mobile security function
WO2021039378A1 (ja) * 2019-08-29 2021-03-04 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
JP6731532B1 (ja) * 2019-08-31 2020-07-29 グリー株式会社 動画再生装置、動画再生方法、及び動画配信システム
JPWO2021250843A1 (ja) * 2020-06-11 2021-12-16
CN112762895B (zh) * 2020-10-30 2022-07-15 四川写正智能科技有限公司 一种基于传感器判定读写姿态的方法
CN113219870B (zh) * 2021-05-07 2022-03-08 禹焱科技河北有限公司 一种用于工业仪表数据智能采集共享器

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07282235A (ja) 1994-04-15 1995-10-27 Matsushita Electric Ind Co Ltd 動作認識装置
JP3440644B2 (ja) 1995-01-31 2003-08-25 松下電器産業株式会社 手動作認識装置
US5594469A (en) 1995-02-21 1997-01-14 Mitsubishi Electric Information Technology Center America Inc. Hand gesture machine control system
JPH08329254A (ja) 1995-03-24 1996-12-13 Matsushita Electric Ind Co Ltd 輪郭抽出装置
EP0905644A3 (en) * 1997-09-26 2004-02-25 Matsushita Electric Industrial Co., Ltd. Hand gesture recognizing device
JPH11174948A (ja) 1997-09-26 1999-07-02 Matsushita Electric Ind Co Ltd 手動作認識装置
JP2967086B1 (ja) 1998-09-25 1999-10-25 株式会社エイ・ティ・アール知能映像通信研究所 多眼画像処理による人物の三次元姿勢推定方法
DE69936620T2 (de) * 1998-09-28 2008-05-21 Matsushita Electric Industrial Co., Ltd., Kadoma Verfahren und Vorrichtung zum Segmentieren von Handgebärden
JP2000326274A (ja) 1999-05-24 2000-11-28 Nec Corp 自律行動ロボット
AUPQ181699A0 (en) * 1999-07-23 1999-08-19 Cmte Development Limited A system for relative vehicle navigation
JP3400961B2 (ja) 1999-09-27 2003-04-28 株式会社国際電気通信基礎技術研究所 人物像の姿勢推定装置および人物像の姿勢推定プログラムを記録した記録媒体
JP4409072B2 (ja) 2000-09-14 2010-02-03 本田技研工業株式会社 輪郭抽出装置、輪郭抽出方法、及び輪郭抽出プログラムを記録した記録媒体
JP4590717B2 (ja) * 2000-11-17 2010-12-01 ソニー株式会社 顔識別装置及び顔識別方法
US6804396B2 (en) 2001-03-28 2004-10-12 Honda Giken Kogyo Kabushiki Kaisha Gesture recognition system

Also Published As

Publication number Publication date
JP2004078316A (ja) 2004-03-11
US20040028260A1 (en) 2004-02-12
US7340100B2 (en) 2008-03-04

Similar Documents

Publication Publication Date Title
JP3996015B2 (ja) 姿勢認識装置及び自律ロボット
JP4435212B2 (ja) 姿勢認識装置及び自律ロボット
JP4149213B2 (ja) 指示位置検出装置及び自律ロボット
US6853880B2 (en) Autonomous action robot
CN110097024B (zh) 一种移乘搬运护理机器人的人体姿态视觉识别方法
Nakauchi et al. A social robot that stands in line
JP4460528B2 (ja) 識別対象識別装置およびそれを備えたロボット
JP5120745B2 (ja) コミュニケーションロボット
KR102463806B1 (ko) 이동이 가능한 전자 장치 및 그 동작 방법
JP2003039365A (ja) ジェスチャを認識するコンピュータシステム、歩行ロボット及び方法
KR20110139694A (ko) 제스쳐 인식 방법 및 시스템
JP7045938B2 (ja) 対話システム及び対話システムの制御方法
JP2004230479A (ja) コミュニケーションロボットおよびそれを用いたコミュニケーションシステム
US20210031378A1 (en) Information processor, information processing method, and program
JP2007257088A (ja) ロボット装置及びそのコミュニケーション方法
JP2003271975A (ja) 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置
JP4399603B2 (ja) コミュニケーションロボット
Grewal et al. Autonomous wheelchair navigation in unmapped indoor environments
JP2017170568A (ja) サービス提供ロボットシステム
CN113056315B (zh) 信息处理装置、信息处理方法和程序
JPH09179988A (ja) 手振り認識装置
JP2005069734A (ja) 指さし行為による物体の空間位置の教示方法
KR20220023543A (ko) 로봇 인터랙션 행위 생성 장치 및 방법
JP7360158B2 (ja) 制御システム及び制御プログラム
Ghazal et al. Localized assistive scene understanding using deep learning and the IoT

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20041129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070312

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070424

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070619

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20070704

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070801

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 3996015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100810

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110810

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120810

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130810

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140810

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term