JP2007280417A - 姿勢認識装置及び自律ロボット - Google Patents
姿勢認識装置及び自律ロボット Download PDFInfo
- Publication number
- JP2007280417A JP2007280417A JP2007161830A JP2007161830A JP2007280417A JP 2007280417 A JP2007280417 A JP 2007280417A JP 2007161830 A JP2007161830 A JP 2007161830A JP 2007161830 A JP2007161830 A JP 2007161830A JP 2007280417 A JP2007280417 A JP 2007280417A
- Authority
- JP
- Japan
- Prior art keywords
- instruction
- hand
- posture
- human
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Manipulator (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
【解決手段】姿勢認識装置は、画像から人間の輪郭を抽出する輪郭抽出手段と、輪郭の重心位置に基づいて頭頂点の探索領域を設定し、頭頂点探索領域内の輪郭の最上端から頭頂点位置を求める頭頂点抽出手段と、画像から色情報を抽出し所定の色を持つ領域を抽出する色領域抽出手段と、頭頂点位置に基づいて手探索領域を設定し、手探索領域内の前記所定の色を持つ領域の平均距離と人間候補の輪郭全体の平均距離との差が所定の範囲内である手探索領域内の所定の色を持つ領域を人間の手の領域とし、手の領域に基づいて手先位置を抽出する手位置抽出手段と、抽出された手先位置と頭頂点位置との相対的位置に対応する指示を判定して、この判定結果を姿勢認識結果とする姿勢判定手段を備える。
【選択図】図1
Description
ところで、音声による指示系統は、騒音が多い場所では音声認識率が低下するため、認識に時間を要するという問題を有している。さらに、音声認識は、認識率を向上させるためには音声を発する人物の音声を予め登録する必要があり、システムの構成が複雑になるという問題もある。
また、特開2000−326274号公報(以下、先行技術2という)に記載された自律行動ロボットが知られている。この自律行動ロボットは、ステレオカメラで得られた画像から人物を検出し、この検出された人物の行動を音源方向検出、音声認識、タッチセンサ、超音波センサなどからの様々な入力に応じて自己の行動を制御するものである。
これらの技術を用いれば、周囲に居る人物を認識し、この人物が出す指示を認識することにより、ロボットが次の動作を起こすなどのヒューマン・ロボットインタフェースとして利用することが可能である。
また、先行技術2のように、特定の人物を検出して識別する方法は、予め決められた対象計測領域内に単独で存在する人物を認識することを目的としているため、得られた画像内に人物が複数存在する場合は自己の行動を決定することができないという問題もある。
この構成によれば、姿勢認識を行う対象となる人物の抽出に輪郭抽出を適用するとともに、同時に距離画像を参照するようにしたため、複数の人物が撮像領域内に存在する場合であっても姿勢認識を確実に行うことが可能となる。また、抽出された輪郭情報から顔や手などの人物の特徴点を検出し、これらの特徴点の位置関係から人物の姿勢を認識するようにしたため、信頼性が高くかつ高速処理が可能である姿勢認識を実現することができる。
この構成によれば、設定ファイルに任意の指示を設定することができるため、必要に応じて、人間の手と身体または顔との相対位置毎の指示の変更を容易にすることができる。
この構成によれば、各指示に優先順位を定義したため、従うべき指示の判定を確実に行うことが可能となる。
この構成によれば、特定の色領域を抽出して、この特定の色領域を手の候補としたため、姿勢認識を確実に行うことが可能となる。
この構成によれば、周囲に居る人間が複数であっても姿勢の認識を行うことができる。
この構成によれば、複数の人間が周囲に居る場合であっても従うべき指示の判定を確実に行うことが可能となる。
この構成によれば、所定の指示を出した人間の指示を優先するようにしたため、危険回避するような指示に対して優先的に従うようにすることができる。
この構成によれば、顔認識結果に基づいて認識できた人間の出す指示を優先するようにしたため、特定の人間の指示に従うことができる。
この構成によれば、前記輪郭から頂点を抽出する頂点抽出手段と、前記頂点に基づいて顔と手の位置を判定する手段とを備えたため、顔と手の位置を抽出を簡単にすることができる。
この構成によれば、指示を出す人物から姿勢による指示が出された場合に、この指示に対応する行動を起こすための処理を実行するようにしたため、外部コントローラ等を使用しなくとも自律ロボットの動作を制御することが可能となる。
この構成によれば、自己の撮像手段を人間に向ける制御を行うための撮像指示を出力する撮像指示手段を備えたため、指示を出した人間に追従する等の行動を起こすことが可能になる。
この構成によれば、人間との距離が近づき過ぎて認識が困難になったり、所定の作業を行うことが困難となることを避けることができる。
この構成によれば、人間との距離が所定距離未満になった場合に停止するようにしたため、「停止」の指示を出し続けなくても済むようになる。
この構成によれば、人間との距離を確実に所定範囲内にすることができる。
この構成によれば、指示を出した人間を見失った場合においても次にとる行動の指示を確実に受けることが可能になる。
次に、図1に示す装置の動作を説明する。初めに、図2〜4を参照して、第1の姿勢認識動作を説明する。まず、カメラ1L、1Rで撮像されたアナログ画像に対してそれぞれA/D変換器2L、2Rによって標本化と量子化の処理が施され、フレームバッファ3L、3Rに格納される。この動作は、処理部5の動作の状況にかかわらず常に繰り返し動作し、2つのフレームバッファ3L、3Rには最新の60フレーム分の画像が格納される。一方、画像補正処理部51は、フレームバッファ3L、3Rから最新画像(時刻t)と直前の画像(時刻t−1)を読み出してこの画像に対して補正を加え、その結果をカラー画像81、輝度画像82、83としてメモリ8へ記憶する。
次に、3D画像生成部52は、上記カラー画像81、輝度画像82から3D画像84を生成し、メモリ8へ記憶する。続いて、前処理部53は、前処理を施し前処理画像86を生成し、メモリ8へ記憶する。
以上の動作を、メモリ8に記憶されている移動オブジェクトデータ90の数だけ繰り返し実行することにより、画像に撮像された全ての人物の姿勢を認識することができる。また、3D画像84で各輪郭の遠近を判断して、複数の人物がいる場合でもそれぞれの人間を分離して抽出することができるので背景に肌色があったとしても認識対象の手や顔をして処理することを防止することができる。
次に、図5を参照して、第2の姿勢認識動作を説明する。図5は、図2に示す手位置抽出(ステップS4)の詳細動作を示す図であり、図4に示す第1の姿勢認識動作における手位置抽出動作に相当するものである。
まず、手位置抽出部57は、頭頂点座標95と左右の手の届く範囲に基づいて手の探索領域を設定する(ステップS21)。続いて、手位置抽出部57は、前処理で得られた肌色領域画像87と先に得られた手の探索領域に基づいて、探索領域内の肌色領域を抽出する(ステップS22)。次に、手位置抽出部57は、3D画像84を参照して、ここで得られた肌色領域の平均距離を求める(ステップS23)。そして、手位置抽出部57は、ここで求めた平均距離が輪郭全体の平均距離±α内に収まっていれば、この肌色領域を手と見なす判定をする(ステップS24)。ここで、αは腕の長さである。ここで、抽出された手位置の座標は手位置座標97としてメモリ8へ記憶される。
第2の姿勢認識動作において、図5に示す手位置抽出動作以外は、第1の姿勢認識動作と同一である。
次に、図6、7、8を参照して第3の姿勢認識動作を説明する。まず、輪郭抽出部54は、スネーク手法を用いて動的な輪郭抽出を行い、人物である可能性が高い部分の輪郭を抽出して(ステップS31)出力する。
次に、図9を参照して、周囲に複数の人物がいる場合の姿勢認識動作を説明する。図9は、周囲に複数の人物がいる場合の姿勢認識動作を示すフローチャートである。ここでは、例として、得られた画像に2人の人物が捕らえられたものとして説明する。まず、前述した動作によって人間の検出を行う(ステップS47)。続いて、ステップS47において検出された人物の手の位置検出を行う(ステップS48)。この手の位置検出は前述した動作によって行う。続いて、ステップS48における手の位置検出結果に基づいて姿勢認識を行う(ステップS49)。この姿勢認識は、前述した動作によって行う。そして、画像上の人数分の処理を行ったか否かを判定し、画像上の全ての人物の姿勢認識を繰り返し行う(ステップS50)。
この動作(ステップS47〜S50)によって、移動オブジェクトデータ90内に人数分の人情報が記憶されたこととなる。この例では、2人分の移動オブジェクトが移動オブジェクトデータ90に記憶されたことになる。
次に、図14〜22を参照して、姿勢判定部61によって判定された姿勢に基づいて、自律ロボットRが応答行動を行う動作を説明する。図14は、応答の基本動作を示すフローチャートである。ここでは、各姿勢に対応する指示が以下のように予め決められているものとして説明する。
(1)「来い」という指示を受けた場合、所定の条件を満たすように指示を出した人物に追従する。所定の条件とは、「自律ロボットRが人間との距離を一定に保ちながら移動する場合に、安全を確保するための距離が第一の所定距離(例えば150cm)になるように移動する」、「人間との距離が第二の所定距離(例えば90cm)未満になった場合は停止する」、「人間との距離が第二の所定距離(例えば、90cm)以上〜第一の所定距離(例えば、150cm)未満になった場合は後退または歩調を合わせる」等である。
(2)「停止」という指示を受けた場合は、直ぐに停止する。
(3)「握手」という指示を受けた場合は、指示を出した人物と握手をする。
(4)「さようなら」という指示を受けた場合は、指示を出した人物に対して手を振る。
(5)指示を出した人物を見失った場合は、自己の移動を止めて新たな指示を受けるまで待機する。
なお、姿勢に対応する指示は、上記の(1)〜(5)の組み合わせであってもよい。
一方、3Dオブジェクト抽出部58は、3D画像84とカラー画像81から3Dオブジェクトを抽出して、この3Dオブジェクトに付与した3DオブジェクトID101と、3Dオブジェクトとの相対位置(実空間)102をメモリ8へ記憶する。これを受けて、顔検出部59は、カラー画像81より肌色を検出し、顔輪郭(楕円)で抽出した顔に顔オブジェクトID103を付与し、さらにこの顔の位置を求め、顔位置座標105、106をメモリ8へ記憶する。続いて、顔認識部60は、顔位置座標105、106に基づいて、カラー画像81から顔の部分だけを抜き出し、顔の特徴ベクトルを求める。そして、顔認識部60は、求めた特徴量に類似したデータに基づき顔データベース72を検索し、該当する顔データが存在した場合、該当する顔データに付与された個人ID104をメモリ8へ記憶する。ここで説明した3Dオブジェクトデータ100の生成動作は、他の処理状況に関係なく繰り返し行われる。
初めに、図16、17、18を参照して、視線指示部65が視線方向(カメラの光軸方向)を変更させる動作を説明する。まず、視線指示部65は、他の処理部との間の通信を初期化する(ステップS71)。続いて、視線指示部66は、応答処理部63から出力されるコマンドを受け付ける(ステップS72)。そして、視線指示部65は、移動体(人物)情報を取得する(ステップS73)。視線指示部65は、ステップS72、S73を繰り返し実行する。
2L、2R・・・A/D変換器
3L、3R・・・フレームバッファ
4・・・データバス
21・・・マイク
22・・・音声認識部
31・・・スピーカ
32・・・音声合成部
5・・・処理部
51・・・画像補正処理部
52・・・3D画像生成部(3D画像生成手段)
53・・・前処理部(色領域抽出手段)
54・・・輪郭抽出部(輪郭抽出手段)
55・・・頭頂点抽出部(頭頂点抽出手段)
56・・・顔位置抽出部(顔位置抽出手段)
57・・・手位置抽出部(手位置抽出手段)
58・・・3Dオブジェクト抽出部
59・・・顔検出部
60・・・顔認識部
61・・・姿勢判定部(姿勢判定手段)
62・・・オブジェクト統合部
63・・・応答処理部
64・・・移動指示部
65・・・視線指示部
71・・・設定ファイル
72・・・顔データベース
8・・・メモリ
9・・・行動制御部
Claims (16)
- 撮像手段で得られた画像から周囲に居る人間の姿勢が意味する指示を認識する姿勢認識装置であって、
前記画像から人間の候補である物体の輪郭を抽出する輪郭抽出手段と、
前記輪郭の重心位置に基づいて頭頂点の探索領域を設定し、該頭頂点探索領域内の前記輪郭の最上端から頭頂点位置を求める頭頂点抽出手段と、
前記画像から色情報を抽出し所定の色を持つ領域を抽出する色領域抽出手段と、
前記頭頂点位置に基づいて手の探索領域を設定し、前記手の探索領域内の前記所定の色を持つ領域の平均距離と前記人間候補の輪郭全体の平均距離との差が所定の範囲内である前記手の探索領域内の前記所定の色を持つ領域を人間の手の領域とし、前記手の領域に基づいて手先位置を抽出する手位置抽出手段と、
抽出された前記手先位置と前記頭頂点位置との相対的位置に対応する指示を判定して、この判定結果を姿勢認識結果とする姿勢判定手段と
を備えたことを特徴とする姿勢認識装置。 - 前記撮像手段で得られた前記画像を基に三角測量の原理を用いて、画素毎に距離情報が定義された3D画像を生成する3D画像生成手段をさらに備え、
前記撮像手段は、複数のカメラであり、
前記手位置抽出手段は、前記3D画像に基づいて、前記手の探索領域内の前記所定の色を持つ領域の平均距離と前記人間候補の輪郭全体の平均距離とを求める
ことを特徴とする請求項1に記載の姿勢認識装置。 - 前記頭頂点位置に基づいて顔探索領域を設定し、前記顔探索領域内の前記所定の色を持つ領域を顔位置として抽出する顔位置抽出手段をさらに備え、
前記手位置抽出手段は、前記顔位置と前記手の領域との距離が所定のしきい値よりも大きい場合は前記人間の手の領域の抽出された複数の端点のうち前記顔位置から最も遠い端点を前記手先位置として抽出し、前記顔位置と前記手の領域との距離が所定のしきい値よりも小さい場合は前記複数の端点のうち前記顔位置に最も近い端点を前記手先位置として抽出する
ことを特徴とする請求項1または2に記載の姿勢認識装置。 - 人間の手と身体または顔との相対位置毎に指示が定義された設定ファイルをさらに備え、
前記姿勢判定手段は、前記設定ファイルに定義された指示を参照することにより姿勢判定結果を得ることを特徴とする請求項1から3までのいずれかに記載の姿勢認識装置。 - 前記設定ファイルは、指示の各々に優先順位が定義され、
前記姿勢判定手段は、複数の姿勢が判定された場合は、前記優先順位が高い指示を優先して判定結果とすることを特徴とする請求項4に記載の姿勢認識装置。 - 前記画像から周囲に居る複数の人間が存在する場合には、前記輪郭抽出手段の出力に基づいて各々の人間の姿勢を認識する手段をさらに備えたことを特徴とする請求項5に記載の姿勢認識装置。
- 周囲に居る人間が複数である場合は、前記画像の中心近傍にいる人間の指示を優先することを特徴とする請求項6に記載の姿勢認識装置。
- 前記画像の中心近傍以外の人間の指示が、所定の指示である場合、少なくとも前記設定ファイルで定義された優先順位に基づいて、この所定の指示を出した人間の指示を優先することを特徴とする請求項7に記載の姿勢認識装置。
- 複数の人間の中から顔の認識をする顔認識手段をさらに備え、この顔認識結果に基づいて特定の人間の指示を優先することを特徴とする請求項8に記載の姿勢認識装置。
- 請求項1から9までのいずれかに記載の姿勢認識装置を備えた自律ロボットであって、
前記姿勢認識装置から姿勢認識結果を取得する認識結果取得手段と、
前記姿勢認識結果に対応する行動を起こすために自己の移動制御を行うための移動指示を出力する移動指示手段と、
前記移動指示に基づき自己の行動制御を行う行動制御手段と
を備えたことを特徴とする自律ロボット。 - 前記姿勢認識結果に対応する行動を起こすために自己の撮像手段を
人間に向ける制御を行うための撮像指示を出力する撮像指示手段をさらに備え、
前記行動制御手段は、撮像指示に基づき自己の行動制御を行うことを特徴とする請求項10に記載の自律ロボット。 - 前記行動制御手段は、人間との距離を一定に保ちながら移動する場合に、第一の所定距離を保ちながら移動するように行動を制御することを特徴とする請求項11に記載の自律ロボット。
- 前記行動制御手段は、人間との距離が少なくとも第一の所定距離より短い第二の所定距離未満になった場合に停止するように行動を制御することを特徴とする請求項12に記載の自律ロボット。
- 前記行動制御手段は、人間との距離が前記第二の所定距離以上でかつ第一の所定距離未満である場合に少なくとも人間との距離が第二の所定距離以上となるよう自己の移動速度を調整するように行動を制御することを特徴とする請求項13に記載の自律ロボット。
- 前記行動制御手段は、所定の期間指示の認識ができない場合は停止するように行動を制御し、新たな認識ができるまで待機するように行動を制御することを特徴とする請求項14に記載の自律ロボット。
- 撮像手段で得られた画像から周囲に居る人間の姿勢が意味する指示を認識する姿勢認識装置であって、
前記画像から人間の候補である物体の輪郭を抽出する輪郭抽出手段と、
前記輪郭の重心位置に基づいて頭頂点の探索領域を設定し、該頭頂点探索領域内の前記輪郭の最上端から頭頂点位置を求める頭頂点抽出手段と、
前記画像から色情報を抽出し所定の色を持つ領域を抽出する色領域抽出手段と、
前記頭頂点位置と左右の手の届く範囲に基づいて、手の探索領域を設定し、三角測量の原理で測定された前記手探索領域内の前記所定の色を持つ領域の平均距離と三角測量の原理で測定された前記人間候補の輪郭全体の平均距離との差が所定の範囲内である前記手の探索領域内の前記所定の色を持つ領域を人間の手の候補とする探索手段と、
前記手の候補と前記頭頂点位置との相対的位置に対応する指示を判定して、この判定結果を姿勢認識結果とする姿勢判定手段と
を備えたことを特徴とする姿勢認識装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007161830A JP4435212B2 (ja) | 2007-06-19 | 2007-06-19 | 姿勢認識装置及び自律ロボット |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007161830A JP4435212B2 (ja) | 2007-06-19 | 2007-06-19 | 姿勢認識装置及び自律ロボット |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002234066A Division JP3996015B2 (ja) | 2002-08-09 | 2002-08-09 | 姿勢認識装置及び自律ロボット |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007280417A true JP2007280417A (ja) | 2007-10-25 |
JP4435212B2 JP4435212B2 (ja) | 2010-03-17 |
Family
ID=38681722
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007161830A Expired - Lifetime JP4435212B2 (ja) | 2007-06-19 | 2007-06-19 | 姿勢認識装置及び自律ロボット |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4435212B2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011042011A (ja) * | 2009-08-21 | 2011-03-03 | Tokyo Metropolitan Univ | ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット |
JP2011175347A (ja) * | 2010-02-23 | 2011-09-08 | Nec System Technologies Ltd | 情報処理装置および情報処理方法 |
JP2016135625A (ja) * | 2015-01-23 | 2016-07-28 | みこらった株式会社 | 浮揚移動台 |
JP2019059476A (ja) * | 2019-01-16 | 2019-04-18 | みこらった株式会社 | 浮揚移動台 |
JP2020088721A (ja) * | 2018-11-29 | 2020-06-04 | シャープ株式会社 | 情報処理装置、情報処理装置の制御方法、制御プログラム、記録媒体 |
JP2021004033A (ja) * | 2019-01-16 | 2021-01-14 | みこらった株式会社 | 浮揚移動台及び浮揚移動台用プログラム |
JP2021183496A (ja) * | 2020-09-30 | 2021-12-02 | みこらった株式会社 | 浮揚移動台及び浮揚移動台用プログラム |
US11485021B2 (en) | 2018-06-21 | 2022-11-01 | Casio Computer Co., Ltd. | Robot, robot control method, and recording medium |
US11928974B2 (en) | 2019-02-19 | 2024-03-12 | Panasonic Intellectual Property Management Co., Ltd. | Unmanned aircraft, information processing method, and recording medium |
JP7470464B2 (ja) | 2022-07-22 | 2024-04-18 | みこらった株式会社 | 浮揚移動台及び浮揚移動台用のプログラム |
-
2007
- 2007-06-19 JP JP2007161830A patent/JP4435212B2/ja not_active Expired - Lifetime
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011042011A (ja) * | 2009-08-21 | 2011-03-03 | Tokyo Metropolitan Univ | ロボット制御装置、ロボット制御方法、ロボット制御プログラム、及びロボット |
JP2011175347A (ja) * | 2010-02-23 | 2011-09-08 | Nec System Technologies Ltd | 情報処理装置および情報処理方法 |
JP2016135625A (ja) * | 2015-01-23 | 2016-07-28 | みこらった株式会社 | 浮揚移動台 |
US11780098B2 (en) | 2018-06-21 | 2023-10-10 | Casio Computer Co., Ltd | Robot, robot control method, and recording medium |
US11485021B2 (en) | 2018-06-21 | 2022-11-01 | Casio Computer Co., Ltd. | Robot, robot control method, and recording medium |
JP7158261B2 (ja) | 2018-11-29 | 2022-10-21 | シャープ株式会社 | 情報処理装置、制御プログラム、記録媒体 |
JP2020088721A (ja) * | 2018-11-29 | 2020-06-04 | シャープ株式会社 | 情報処理装置、情報処理装置の制御方法、制御プログラム、記録媒体 |
JP2019059476A (ja) * | 2019-01-16 | 2019-04-18 | みこらった株式会社 | 浮揚移動台 |
JP2021004033A (ja) * | 2019-01-16 | 2021-01-14 | みこらった株式会社 | 浮揚移動台及び浮揚移動台用プログラム |
US11928974B2 (en) | 2019-02-19 | 2024-03-12 | Panasonic Intellectual Property Management Co., Ltd. | Unmanned aircraft, information processing method, and recording medium |
JP7153397B2 (ja) | 2020-09-30 | 2022-10-17 | みこらった株式会社 | 浮揚移動台及び浮揚移動台用プログラム |
JP2021183496A (ja) * | 2020-09-30 | 2021-12-02 | みこらった株式会社 | 浮揚移動台及び浮揚移動台用プログラム |
JP7470464B2 (ja) | 2022-07-22 | 2024-04-18 | みこらった株式会社 | 浮揚移動台及び浮揚移動台用のプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP4435212B2 (ja) | 2010-03-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3996015B2 (ja) | 姿勢認識装置及び自律ロボット | |
JP4435212B2 (ja) | 姿勢認識装置及び自律ロボット | |
JP4149213B2 (ja) | 指示位置検出装置及び自律ロボット | |
US6853880B2 (en) | Autonomous action robot | |
CN110097024B (zh) | 一种移乘搬运护理机器人的人体姿态视觉识别方法 | |
Nakauchi et al. | A social robot that stands in line | |
JP5881136B2 (ja) | 情報処理装置及び方法、並びにプログラム | |
KR102463806B1 (ko) | 이동이 가능한 전자 장치 및 그 동작 방법 | |
US20160205352A1 (en) | Method for providing telepresence using avatars, and system and computer-readable recording medium using the same | |
KR20110139694A (ko) | 제스쳐 인식 방법 및 시스템 | |
JP2003039365A (ja) | ジェスチャを認識するコンピュータシステム、歩行ロボット及び方法 | |
JP2006192563A (ja) | 識別対象識別装置およびそれを備えたロボット | |
KR20130039578A (ko) | 지능 로봇, 지능 로봇과 사용자의 상호작용을 위한 시스템 및 지능 로봇과 사용자의 상호작용을 위한 방법 | |
JP7045938B2 (ja) | 対話システム及び対話システムの制御方法 | |
US20210031378A1 (en) | Information processor, information processing method, and program | |
JP2007257088A (ja) | ロボット装置及びそのコミュニケーション方法 | |
JP2003271975A (ja) | 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置 | |
Grewal et al. | Autonomous wheelchair navigation in unmapped indoor environments | |
JP2017170568A (ja) | サービス提供ロボットシステム | |
KR101100240B1 (ko) | 멀티모달 상호작용을 이용한 로봇의 물체 학습 시스템 및 방법 | |
JP2015011404A (ja) | 動作認識処理装置 | |
JPH09179988A (ja) | 手振り認識装置 | |
JP2005069734A (ja) | 指さし行為による物体の空間位置の教示方法 | |
JP2017177228A (ja) | サービス提供ロボットシステム | |
Ouellet et al. | Multimodal biometric identification system for mobile robots combining human metrology to face recognition and speaker identification |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091209 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091215 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091222 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4435212 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130108 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130108 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140108 Year of fee payment: 4 |
|
EXPY | Cancellation because of completion of term |