JP4303602B2 - 顔面像取得システム - Google Patents

顔面像取得システム Download PDF

Info

Publication number
JP4303602B2
JP4303602B2 JP2004004010A JP2004004010A JP4303602B2 JP 4303602 B2 JP4303602 B2 JP 4303602B2 JP 2004004010 A JP2004004010 A JP 2004004010A JP 2004004010 A JP2004004010 A JP 2004004010A JP 4303602 B2 JP4303602 B2 JP 4303602B2
Authority
JP
Japan
Prior art keywords
visitor
information
robot
face image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004004010A
Other languages
English (en)
Other versions
JP2005193351A (ja
Inventor
孝裕 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004004010A priority Critical patent/JP4303602B2/ja
Priority to KR1020040108608A priority patent/KR100776690B1/ko
Priority to US11/028,152 priority patent/US7539556B2/en
Priority to DE102005001026.1A priority patent/DE102005001026B4/de
Publication of JP2005193351A publication Critical patent/JP2005193351A/ja
Application granted granted Critical
Publication of JP4303602B2 publication Critical patent/JP4303602B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Description

本発明は、カメラおよび腕部を有するロボットを利用した顔画像取得システムに関する。
企業などにおいて、業務の効率化や人件費の削減などを目的として、ロボットを用いて来訪者の案内を行う受付案内システムが研究されている。例えば、特許文献1および特許文献2には、ロボットを用いて受付業務を行う発明が開示されている。
しかしながら、特許文献1および特許文献2に記載の発明は、ロボットを用いて来訪者の受付を行うものの、これらのロボットは、人間の補助的な機能しか有しておらず、業務の効率化や、人件費の削減といった本来の目的を達成できていなかった。特に、これらのロボットには来訪者を認識する機能を有していないため、画一的な対応しか行えなかった。
そこで、特許文献3に開示されたような、顔認識技術を用いて、来訪者を識別して個別に対応する方法が考えられる。本願出願人は、人型のロボットに顔認識技術を適用して、来訪者に応じて個別に対応できる受付案内システムを開発した。
特開平2−240684号公報(2〜3頁、第5図) 特開平7−295637号公報(段落0011〜0013、図3、図4、図5) 特開2001−266152号公報(段落0066〜0071、図1)
ところで、前記した人型のロボットを用いた受付案内システムにおいて、来訪者の顔認識をするためには、来訪者の顔画像を登録しておく必要がある。さらに、この画像の登録には、顔認識の精度を向上させるため、ビデオカメラなどにより、来訪者に静止してもらい撮像した顔画像を登録する作業が必要であった。そのため、顔画像が登録されていない来訪者の顔画像を登録するためには、そのような作業を受付窓口などで行う必要があり、スムーズな受付を行うことが難しかった。
したがって、本発明は、来訪者に意識させることなく、来訪者の顔画像を取得でき、その際、顔認識の精度を向上させることを目的として、来訪者の正面顔画像を取得できる顔画像の取得手段を提供することを課題とする。
前記した課題を解決するためになされた請求項1に記載された顔画像取得システムは、カメラおよび腕部を有するロボットならびに人物を特定する人物情報と前記人物情報と対応付けられた前記人物の顔画像を登録した人物情報データベース、来訪者を検出し、前記来訪者の顔画像を取得する来訪者検出手段、前記人物情報データベースと来訪者検出手段から送られる情報とに基づいて、前記ロボットの動作を指示する動作指示情報を作成する動作情報管理手段および前記動作指示情報に基づいて前記ロボットの動作の指示を送る動作指示手段を含んで構成される動作制御手段からなる来訪者の顔画像取得システムであって、前記動作制御手段は、前記来訪者検出手段において来訪者を検出すると、前記来訪者検出手段で取得した前記来訪者の顔画像に基づいて、前記人物情報データベースを参照して前記来訪者の特定を試み、前記人物情報データベースから該当する人物が登録されていないときは、前記動作情報管理手段において、前記来訪者を特定できるID情報を作成し、前記来訪者の顔画像を取得する動作指示情報を作成して、前記動作指示手段から前記ロボットに動作の指示を送信し、前記ロボットは、この動作の指示に基づいて、前記腕部を前記来訪者に差し出し、握手をする動作の間に、前記来訪者の顔画像を前記カメラにより撮像し、前記動作制御手段は、前記ID情報を人物情報として、この人物情報および前記ロボットが撮像した前記来訪者の顔画像を対応付けて前記人物情報データベースに登録することを特徴としている。
請求項1に記載の発明によると、人物情報データベースに登録されていない来訪者であっても、ID情報を設定して、来訪者の顔画像を人物情報データベースに登録することで、再度顔画像取得動作を行う必要がなくなる。
また、請求項2に記載された発明は、請求項1に記載された顔画像取得システムにおいて、前記ロボットは、前記来訪者に対して前記来訪者に関する情報の入力を促し、前記動作制御手段は、取得した前記来訪者に関する情報を、前記人物情報に付加して前記人物情報データベースに登録することを特徴としている。
請求項2に記載された発明によると、請求項1に記載された発明の効果に加えて、予め人物情報データベースに登録されていない来訪者であっても、来訪者を特定する人物情報を取得することができる。
また、請求項3に記載された発明は、請求項1または請求項2に記載された顔画像取得システムにおいて、前記ロボットは、前記来訪者の顔画像を撮像する際に、所定の枚数の顔画像を撮像し、最後に撮像した1以上の各顔画像と、それより前に撮像した顔画像を集計した顔クラスとの類似度を算出し、前記類似度の平均値が所定の値以上になるまで、さらに前記来訪者の1以上の顔画像を撮像することを特徴としている。
請求項3に記載の発明によると、所定の類似度になるまで顔画像を取得することで、来訪者の特定の精度を所定の水準に保つことができる。
また、請求項4に記載された発明は、請求項1に記載された顔画像取得システムにおいて、前記動作制御手段は、前記来訪者検出手段において来訪者を検出すると、前記来訪者検出手段で取得した前記来訪者の顔画像に基づいて、前記人物情報データベースを参照して前記来訪者の特定を試み、前記人物情報データベースから該当する人物を特定すると、前記動作情報管理手段において前記来訪者の顔画像の類似度を判定する動作指示情報を作成して、前記動作指示手段から前記ロボットに動作の指示を送信し、前記ロボットは、この動作の指示に基づいて、前記腕部を前記来訪者に差し出し、握手をする動作の間に、前記来訪者の顔画像を前記カメラにより撮像し、前記ロボットが撮像した顔画像と、前記人物情報データベースに登録された顔画像を集計した顔クラスとの類似度を算出し、前記類似度が所定の値以上になるまで、さらに前記来訪者の顔画像を撮像し、前記動作制御手段は、前記ロボットが撮像した前記来訪者の顔画像を、前記人物情報データベースに登録することを特徴としている。
請求項4に記載の発明によると、来訪者を特定し、この特定に用いられる登録された来訪者の顔画像を追加登録できるため、年齢などにより来訪者の顔が変化した場合であっても、来訪者を特定する精度を保つことができる。
また、請求項5に記載された発明は、請求項4に記載された顔画像取得システムにおいて、前記ロボットは前記来訪者が差し出した腕部を握ったか否かを判定する握手判定手段をさらに含んで構成され、前記ロボットは、握手をする動作に入ったとき、前記握手判定手段により、前記来訪者が握手をしてくれたか否かを判定し、前記来訪者が握手をしてくれたと判定した場合にのみ、前記カメラで前記来訪者の顔画像を撮像することを特徴としている。
請求項5に記載の発明によると、来訪者の特定に誤りがあった場合には、顔画像を取得しないため、人物情報データベースに誤った顔画像を追加して格納することを防ぐことができる。
また、請求項6に記載された発明は、請求項1ないし請求項5のいずれか1項に記載された顔画像取得システムにおいて、前記動作制御手段は、前記人物情報データベースに格納された人物情報のうち、所定の項目が含まれていない人物情報は、それに対応付けられた顔画像とあわせて所定のタイミングで消去することを特徴としている。
請求項6に記載の発明によると、所定のタイミングで人物情報データベースに登録された名前などの特定の項目を有しない人物情報とそれに対応付けられた顔画像を消去してしまうことで、人物情報データベースに格納する情報量の肥大化を抑えることができる。
本発明によると、握手をする自然な動作により、来訪者は所定の位置に静止するため、取得対象者の同一の位置からの顔画像を撮像でき、さらに、来訪者に負担をかけることなく顔画像の取得が可能となる。さらに、予め登録されていない来訪者であっても、新規にID情報を作成して、来訪者の顔画像を人物情報データベースに登録することで、再度顔画像の取得動作を行うことを防止することができる。また、所定のタイミングで人物情報データベースの特定の項目が含まれていない人物情報とそれに対応付けられた顔画像とを消去することで、格納する情報量の肥大化を防止することができる。さらに、各データベースに登録される顔画像は、所定の類似度を保って登録されているため、来訪者を特定する精度が向上する。
本発明の実施形態例について適宜図面を参照しながら説明する。以下、二足歩行による自律移動が可能な人間型ロボットを使用し、企業などのオフィスビルに設けられたロビーに訪れた来訪者の受付をする場合に本発明を適用した例を説明する。
例えば図1は、本実施形態例における受付システム1を示す概略図である。図2は、受付システム1のロボット2の構成例を示すブロック図である。図3は、受付システム1の受付動作制御手段Bの例を示すブロック図である。図1に示すように、受付システム1は、主にロボット2および受付動作制御手段Bから構成される。さらに、受付動作制御手段Bは、ロボット支援サーバ3、送受信部35および場内カメラ4から構成されている。なお、図1では、ロボット支援サーバ3はロビー内に設置される構成としたが、別室に設置される構成であってもよい。
次に、ロボット2について説明する。図2に示すように、ロボット2は、二足歩行による自律移動が可能であり、カメラ21a、21a、マイク22a、スピーカ23a、制御部2A、自律移動手段26b、作業手段27および送受信部28から構成されている。制御部2Aは、画像認識部21b、音声認識部22b、発話生成部23b、人応答部24、自己位置推定手段25、移動制御部26a、シナリオDB(データベース)29aおよび地図情報DB29bから構成されている。
ロボット2の構成要素を詳しく説明すると、カメラ21aは、ロボット2の周囲の状況や来訪者の顔などの画像を撮像して画像認識部21bに送るための機器である。ここで、カメラ21aは、モノクロまたはカラービデオカメラであって、本実施例ではカメラ21aを2つ備える構成とした。カメラ21aを2つ備える構成とすることで、2つの画像の視差に基づいて、来訪者までの距離や、ロビー内における自己位置を演算することが可能となる。また、カメラ21aは、図示しないモータなどの駆動手段により、パン(左右方向)およびチルト(上下方向)に駆動され、所望の方向に向けることができる構成とした。
画像認識部21bは、カメラ21aが撮像した画像情報をデジタル化して取り込む。また、動的輪郭モデル(Snakes)などの手法を用いた移動体の自動抽出・追跡機能を有している。また、画像認識部21bは、デジタル化した画像情報を人応答部24および自己位置推定手段25に送る。さらに、画像認識部21bは、所定のサイズに来訪者の顔画像を切り出す機能を有し、撮像した顔画像または後記するロボット支援サーバ3の来訪者情報DB34bに格納された来訪者の顔画像に基づいて、来訪者の顔画像の類似度を算出して、人応答部24に送る機能を有している。
マイク22aは、周囲の音や、来訪者の発話などの音情報を集め、音声認識部22bに送る。また、音声認識部22bは、マイク22aが集めた音情報に基づいて、予め登録された語彙を参照して、来訪者の発話内容を認識する。
スピーカ23aは、発話生成部23bが生成した音声を出力し、来訪者とのコミュニケーションを行うための機器である。また、発話生成部23bは、人応答部24からシナリオDB29aに格納されるコミュニケーションのためのシナリオや、ロボット支援サーバ3の受付動作指示手段33(図3参照)からの受付動作の指示に基づき、来訪者に伝える内容を音声に合成してスピーカ23aに出力する。
人応答部24は、図1に示したロボット支援サーバ3から送られてきた各情報、画像認識部21bから送られた画像情報、マイク22aからの来訪者の発話などに応じて、会話の情報を生成したり、作業手段27に信号を送ってロボット2の動作(例えば腕を上げる)を制御したりする。また、人応答部24は、ロボット支援サーバ3からの受付動作の指示の送信により受付動作を開始するときに、受付開始情報を送受信部28からロボット支援サーバ3に送信する。さらに、来訪者の受付動作が完了したときには、受付完了情報を送受信部28から、ロボット支援サーバ3に送信する。さらに、画像認識部21bが算出した来訪者の顔画像の類似度に基づいて、来訪者の顔画像を取得する制御を行う。
自己位置推定手段25は、画像認識部21bから送られる2つのカメラ21aで撮像された画像情報と、地図情報DB29bに格納された地図情報とをもとに、ロボット2の現在位置を推定してロボット位置情報を算出し、移動制御部26aおよび送受信部28を介してロボット支援サーバ3にこのロボット位置情報を送信する。
移動制御部26aは、自己位置推定手段25から送られたロボット位置情報、地図情報DB29bに格納される地図情報およびロボット支援サーバ3から送られる受付動作の指示をもとに自律移動手段26bの動作を制御する。
自律移動手段26bは、ロボット2が自律的に移動するための機器であり、本実施形態例ではロボット2の脚部に相当する部分である。また、作業手段27は、人応答部24の制御信号に応じてロボット2の作業を制御するための機器であり、本実施形態例ではロボット2の腕部に相当している。さらに、送受信部28は、ロボット支援サーバ3との無線による送受信を行うための機器である。
シナリオDB29aは、来訪者とのコミュニケーションを支援するデータベースであり、「はじめまして」「お名前を教えてください」などの、来訪者との間で行われる会話に用いられる文例や、この文例に対応付けられたロボット2の動作(例えば握手をする)に関する情報、さらに、受付動作の終了後にホームポジションに移動する動作に関する情報などが格納されている
地図情報DB29bは、ロボット2が移動可能な領域の地図情報を格納するデータベースである。この地図情報は、ロボット支援サーバ3の地図情報DB34a(図3参照)に格納されている地図情報と同一のものであり、ロボット支援サーバ3との送受信により情報の更新が可能である。
次に、図3を参照して、請求項の動作制御手段に相当する受付動作制御手段Bについて説明する。受付動作制御手段Bは、ロボット支援サーバ3、送受信部35および場内カメラ4から主に構成される。ロボット支援サーバ3は、画像認識部31、受付情報管理手段32、受付動作指示手段33、地図情報DB34a、来訪者情報DB34bおよびスケジュール情報DB34cから構成され、付帯する送受信部35を通じて、ロボット2とさまざまな情報を送受信可能な構成となっている。
画像認識部31は、場内カメラ4が撮像した画像情報をデジタル化して取り込む。また、この画像認識部31は、動的輪郭モデル(Snakes)などの手法を用いた移動体抽出・追跡機能を有し来訪者を検出することができる。次に、画像認識部31は、所定のサイズに来訪者の顔画像を切り出す機能も有している。さらに、画像認識部31は、撮像した画像情報から、ロビー内の来訪者やロボット2の位置関係を示す情報である配置情報を検出することが可能に構成されている。
場内カメラ4は、出入口を含む来訪者およびロボット2が移動可能なロビーの領域の画像情報を撮像し、画像認識部31に送る。画像認識部31では、場内カメラ4が出入口からロビーに入ってきた来訪者を撮像した画像情報から、撮像された移動体を来訪者であると認識する。そして、画像認識部31は、この来訪者をはじめに認識した時刻を、来訪時刻として受付情報管理手段32に送信する。そして、画像認識部31は、場内カメラ4が撮像した画像情報をもとに、ロビー内における来訪者およびロボット2の位置を算出することで配置情報を取得して、受付情報管理手段32に送る。
なお、画像認識部31および場内カメラ4は、請求項の来訪者検出手段に相当している。
地図情報DB34aは、ロボット2が移動可能な領域の地図情報を格納している。例えば、ロビーの形状、ロビー内の観葉植物、ソファなどの障害物などが地図情報として格納されている。この地図情報は、図1に示したオペレータ用PCからの入力により、情報の更新が可能である。したがって、ロビーの形状変更や、テーブル、ソファなどのレイアウトの変更にも対応できる。また、オペレータ用PCからの入力により変更された地図情報は、送受信部35からロボット2に送信され、ロボット2の地図情報DB29b(図2参照)に格納された地図情報も同様に更新される。
特許請求の範囲の人物情報データベースに相当する来訪者情報DB34bは、来訪者情報とその来訪者の顔画像とを関連付けて格納している。この来訪者情報には、来訪者に一意に付けられたID番号、氏名、所属会社名、肩書きなどが含まれている。ここで、来訪者情報DB34bに含まれる来訪者情報の一部の例を表1に示す。表1に示すように、来訪者情報は複数の項目から構成され、ID番号以外の項目は必須ではないため、入力されていない項目はデフォルトでnullデータとなっている。本実施形態例では、受付情報管理手段32により、来訪者情報の項目のうち「名前」の情報がnullデータである来訪者情報とそれに対応付けられた顔画像は、所定の時間(例えば数日ごと)や所定のタイミング(例えば、ロボット2の電源を落とす時点)などで消去される設定となっている。
また、これらの来訪者情報の項目のうち、少なくとも一つの項目の情報を、スケジュール情報DB34cに格納されたスケジュール情報を検索する際のキー情報として用いることができる。なお、来訪者情報DB34bに格納された来訪者情報は、オペレータ用PCから入力されることや、ロボット2が来訪者から直接取得することが考えられる。
なお、受付情報管理手段32により、来訪者情報を消去する条件は、「来訪者情報の所定の項目の情報がnullデータであること」以外にも、例えば、来訪者情報に含まれる画像認識部31が取得した来訪者の来訪時刻を用いて、来訪者が来訪して所定の時間(例えば1週間)経過したことを条件として、来訪者情報とそれに対応付けられた顔画像を消去するなど様々に変更可能である。
また、来訪者情報DB34bに格納できる来訪者一人当りの顔画像の枚数を予め設定し、最大枚数になった場合は、古い画像から上書きして書き換える構成も考えられる。
さらに、来訪頻度を来訪者情報に格納して、その頻度に応じて顔画像を消去するまでの時間を可変させることも可能である。
Figure 0004303602
スケジュール情報DB34cは、予め登録された来訪者のスケジュール情報と来訪者情報(例えば、ID番号)とを関連付けて格納している。スケジュール情報は、例えば、来訪する日付、予定時刻、来訪者の所属会社名、肩書き、氏名、面会予定者、案内先などに関する情報である。このスケジュール情報は、事前にオペレータ用PCから入力されて格納されている。
受付情報管理手段32は、地図情報DB34a、来訪者情報DB34bおよびスケジュール情報DB34cに格納される各情報、ならびに画像認識部31から送られる画像情報、配置情報およびロボット2の自己位置推定手段25(図2参照)から送信されるロボット位置情報などをもとに受付動作情報を作成し管理する。
ここで、受付動作情報の作成例について説明する。
はじめに、画像認識部31は、来訪者の来訪時刻、所定のサイズに切り出された来訪者の顔画像および配置情報を受付情報管理手段32に送る。そして、受付情報管理手段32は、来訪者情報DB34bから、この来訪者の顔画像と類似度の高い顔画像を求めて、その求めた顔画像に対応する来訪者情報を取得する。
ここで、画像認識部31から送られる来訪者の顔画像と類似度の高い顔画像を、来訪者情報DB34bに格納された顔画像から求める手法としては、例えば、従来技術である顔画像の各輝度値を要素とするベクトル空間に主成分分析を適用する手法(固有空間法)を用いることができる。この固有空間法とは、所定のサイズに切り出されて正規化された来訪者の顔画像から抽出した特徴ベクトルの集合から、射影成分の分散が大きい射影軸を求め、特徴ベクトルをその射影軸への射影成分(主成分)で表すことで、来訪者の顔画像および来訪者情報DB34cに格納された来訪者情報の顔画像の主成分スコア間の距離を用いて類似度を算出し、その算出した類似度が所定の閾値以上でかつ最大のものを来訪者情報DB34cに格納された来訪者情報の顔画像と認識する方法である。なお、本発明はこの手法に限定されず、様々な顔認識手法を適用することが可能である。
そして、受付情報管理手段32は、来訪者情報の一つ、例えばID番号をキー情報として、スケジュール情報DB34cを検索し、この来訪者のスケジュール情報を取得する。さらに、来訪者情報と、スケジュール情報と、画像認識部31から取得した来訪者位置情報とをあわせて案内誘導のための受付動作情報を作成して、受付動作指示手段33に送る。
なお、来訪者情報DB34bに所定の類似度を有する来訪者の候補が無い場合には、未登録者として新たにID番号を設定し、新規の来訪者の顔画像の取得のための受付動作情報を受付動作指示手段33に送る。
受付動作指示手段33は、受付情報管理手段32から送られる受付動作情報に基づいて、指示情報をロボット2に送信する。このように来訪者ごとに受付動作情報は異なるため、ロボット2は、来訪者に合わせた受付動作を行うことになる。
なお、この受付動作の指示については、後記する受付過程を説明するフローチャートを用いて詳しく説明する。
送受信部35は、ロボット2の送受信部28(図2参照)との間で無線による情報の送受信を行う。送受信の具体例としては、受付動作指示手段33が逐次出力する指示情報をロボット2側に送信する。また、ロボット2の画像認識部21b(図2参照)がデジタル化して取得した画像情報などを受信する。さらに、ロボット2側からの受付開始情報や受付完了情報を受信し、この受信した情報をロボット支援サーバ3に送る。これらの受付開始情報および受付完了情報は、受付情報管理手段32に送られ、来訪者情報に付加される。これにより、ロビー内の来訪者が未受付であるか、受付中であるかまたは受付済みであるかが識別可能となる。また、これらがスケジュール情報と組み合わせられることにより、予定された来訪者が未受付であるか、受付済みであるかを確認することができる。
オペレータ用PCは、各DB内の情報や受付状況等を入力、表示、更新するための機器である。オペレータは、オペレータ用PCの画面から受付状況を確認したりすることができる。
(受付・新規登録動作)
続いて、本実施形態例に係る受付システム1を用いた来訪者の受付動作について、図4に示すフローチャートを用いて説明する(適宜、図2、図3参照)。
はじめに、ロボット支援サーバ3は、場内カメラ4が撮像した画像をもとに、画像認識部31において、来訪者の有無を検出する(ステップS401)。場内カメラ4の画像から来訪者が検出されない場合は(ステップ401においてNoの場合)、来訪者が検出されるまでステップS401の処理を繰り返す。
そして、ステップS401において来訪者の存在を検出した場合(ステップS401においてYesの場合)には、場内カメラ4が撮像した画像をもとに、画像認識部31は、ロボット支援サーバ3の受付情報管理手段32に、所定の大きさに切り出された来訪者の顔画像ならびにロビー内における来訪者およびロボット2の配置情報を送る(ステップS402)。
次に、ロボット支援サーバ3の受付情報管理手段32では、場内カメラ4で撮像された来訪者の顔画像と来訪者情報DB34bに格納された顔画像とを用いて前記した固有空間法などの所定の方法により、来訪者の顔認識を実行して、この来訪者が来訪者情報DB34bに登録された人物か否かを判断する(ステップS403)。ここで、来訪者が来訪者情報DB34bに登録された人物ではないと判断した場合は(ステップ403においてNoの場合)、後段側のステップに進み、登録された人物であると判断した場合は(ステップS403においてYesの場合)、後記する来訪者の受付・案内のステップ(図中では符合A)に進む。
なお、この来訪者の検索の際に、現在時刻およびスケジュール情報DB34cに格納された来訪者の来訪予定時刻から、来訪する可能性の高い来訪者情報を絞り込んでから、顔認識を行うことで、顔認識の精度および認識時間を向上させることも可能である。
ステップ403においてNoの場合、次に、ロボット支援サーバ3の受付情報管理手段32は、この来訪者に一意に付けられるID番号を新たに設定して、この来訪者の来訪時刻とあわせて来訪者情報として、来訪者情報DB34bに格納する(ステップS404)。
そして、受付情報管理手段32は、画像認識部31から送られた配置情報、地図情報DB34aに格納された地図情報およびロボット2から送信されたロボット位置情報を合わせて来訪者の受付・新規登録の受付動作情報を作成して(ステップS405)、受付動作指示手段33に送る。なお、この受付・新規登録の受付動作情報は、請求項の来訪者の顔画像を取得する動作指示情報に相当する。
この来訪者の受付・新規登録の受付動作情報に基づいて、受付動作指示手段33は、送受信部35からロボット2に、受付動作の対象となる来訪者に対して、所定の距離まで接近するように指示する指示情報を送信する(ステップS406)。ここで、この指示情報には、受付対象となる来訪者の位置を判断する配置情報が含まれている。
この指示情報を受信した(ステップS407)ロボット2は、指示情報に含まれる配置情報に基づいて受付動作の対象となる来訪者を認識し、同時に、受付動作に入ったことを示す受付開始情報をロボット支援サーバ3に送信する(ステップS408)。この受付開始情報を受信したロボット支援サーバ3は、受付開始情報を来訪者情報DB34bに格納されたこの来訪者の来訪者情報に付加して登録する(ステップS409)。
そして、ロボット2は、自律的に受付の対象である来訪者とコミュニケーションが取れる所定の距離まで接近する(ステップS410)。
ロボット2が来訪者から所定の距離まで接近すると、ロボット支援サーバ3の受付情報管理手段32は、来訪者に挨拶をする指示情報をロボット2に送信する(ステップS411)。なお、ステップS411のタイミングは、ロボット2がステップS410の来訪者に接近する動作が終了した時点で、ロボット2がロボット支援サーバ3に動作の終了を示す情報を送信することや、ロボット支援サーバ3の画像認識部31から送られる配置情報から、ロボット2と来訪者の距離を判断して決定することなどが考えられる。また、ロボット2のシナリオDB29aに、来訪者と所定の距離になると、右手を差し出すことを登録しておくことも可能である。
来訪者に挨拶をする指示情報を受信したロボット2は、シナリオDB29aに格納された挨拶のシナリオ情報に基づいて「はじめまして」と発話すると同時に、握手をするポーズである右手を差し出す(ステップS412)。ここで、ロボット2は、所定時間、来訪者がこのポーズに応じて握手をしてくれるかを判断する(ステップS413)。この来訪者が握手をしてくれるか否かの判断は、図示しないロボット2の手に備えられたタッチセンサなどを用いることや、ロボット2の画像認識部21bにおいて、カメラ21aが撮像した画像情報から、来訪者が手を差し出したかを判定することなどにより行われる。
なお、ステップS413の握手をしてくれたか否かの判定を行わずに、ステップS412においてロボット2の右手を差し出すタイミングで、後段側のステップに進む構成とすることもできる。この場合、握手をしてくれたかの判定手段が必要ないため、ロボット2の構成を簡略化できるが、来訪者の正面顔画像を撮像できる確率が低下する。
ステップS413において、所定時間を経過しても来訪者が手を差し出さない場合は(ステップS413においてNoの場合)、来訪者とのコミュニケーションを断念してステップS415に進む。また、ステップS413において、来訪者が手を差し出したと判定した場合は(ステップS413においてYesの場合)、来訪者の顔画像の登録を実行する(ステップS414)。
ここで、図5は、ステップS414の来訪者の顔画像の登録の過程を詳しく説明するフローチャートである。図5を参照して来訪者の顔画像の登録について詳しく説明する(図2参照)。
はじめに、ロボット2は、来訪者が手を差し出したと判定した時点で、来訪者の顔画像を取得するために、顔画像の枚数をカウントする変数である画像枚数Nをリセットする(ステップS501)。そして、カメラ21aから、来訪者の顔画像を撮像する(ステップS502)。
このとき、来訪者はロボット2と握手をする姿勢であるため、ロボット2と対峙する所定の位置で静止することになり、来訪者の正面顔画像を取得することが可能となる。これにより、顔認識を行う際の認識精度を向上させるうえで重要な、来訪者の正面顔画像を容易に取得することができる。
そして、ロボット2の人応答部24は、撮像開始からの時間が、所定の時間に達したかを判定する(ステップS503)。ここで、所定の時間とは、握手の動作を行っている時間以内に設定することが望ましい。そして、撮像開始からの時間が所定時間に達していない場合は(ステップS503においてNoの場合)、後段側のステップに進み、撮像開始からの時間が所定時間に達した場合は(ステップS503においてYesの場合)、撮像を終了してステップS506に進む。
次に、ロボット2の人応答部24は、来訪者の顔画像の枚数が、所定枚数に達したかを判断し(ステップS504)、所定枚数に達していない場合は(ステップS504においてNoの場合)、さらに来訪者の顔画像を取得し、所定枚数に達した場合は(ステップS504においてYesの場合)、後段側のステップに進む。なお、この所定枚数とは、握手の動作の中で自然に撮像可能な枚数であり、例えば、撮像開始から2秒間に60枚の顔画像を撮像することが考えられる。また、来訪者情報DB34bに格納できる来訪者一人当りの顔画像の枚数を設定した場合には、設定された最大枚数まで、顔画像を撮像することとしてもよい。
次に、ステップS504において、顔画像の撮像枚数が、所定枚数に達した場合は、ロボット2の人応答部24は、最後に撮像した顔画像の、それより前に撮像した顔画像を集計した顔クラスに対する類似度が、所定の閾値以上か否かを判定する(ステップS505)。詳しく説明すると、このステップS505では、画像認識部21bにおいて、来訪者の顔画像を、所定枚数取り終えた時点で、最後に撮像された顔画像より前に撮像された顔画像をまとめて固有空間上にその来訪者の顔クラスを形成させて、最後に撮像された顔画像とこの顔クラスとの類似度を計算して人応答部24に送る、人応答部24では、この送られた類似度が所定の閾値を超えたか否かを判定している。
なお、ステップS505の判定において、例えば、最後に撮像された5枚の各顔画像と、この5枚の顔画像より前に撮像された顔画像の顔クラスに対する類似度の平均値が所定の閾値以上となったか否かを判定する構成とすることもできる。
ステップS505において最後に撮像した顔画像の顔クラスに対する類似度が所定の閾値以上ではない場合は(ステップS505においてNoの場合)、人応答部24のさらに来訪者の顔画像の撮像を繰り返す。
なお、この追加の来訪者の顔画像の撮像は、1枚単位だけでなく、例えば5枚単位で撮像することも考えられる。この場合も、最後に撮像された5枚の各顔画像の類似度の平均値を求め、この類似度の平均値が所定の閾値以上となったか否かをステップS505において判定することになる。
また、ステップS505における類似度の判定は、必ずしも必要ではなく、図5においてステップS505を省略し、ステップS504において所定枚数の来訪者の顔画像を撮像したと判定した場合に、後段側のステップS506に進む構成とすることも可能である。
ステップS505において類似度が所定の閾値以上である場合は(ステップS505においてYesの場合)、後段側のステップに進み、ロボット2は、シナリオDB29aに格納されたシナリオ情報に基づいて、「お名前を、教えてください。」と発話し、来訪者の名前を尋ねる(ステップS506)。
そして、ロボット2は、マイク22aから来訪者の音声を取得し、音声認識部22bにおいて来訪者の名前を取得して、撮像された顔画像および名前の情報をロボット支援サーバ3に送信する(ステップS507)。これらの情報を受信したロボット支援サーバ3は、名前の情報を、この来訪者の来訪者情報に付加し、顔画像をこの来訪者の来訪者情報と対応付けて来訪者情報DB34bに格納する(ステップS508)。これにより、この来訪者は、来訪者情報DBに登録され、ロボット2と再びコミュニケーションをとる場合に、受付動作を繰り返すことはなくなる。
なお、ステップS506において、シナリオDB29aに所定の手順を登録しておき、来訪者とコミュニケーションをとることで、来訪者の名前以外の情報(会社名、肩書、氏名、生年月日等)を質問して取得する構成とすることもできる。これらの情報が取得された場合も、顔画像とともに来訪者情報に付加して来訪者情報DB34bに登録される。また、ロボット2が来訪者の名前を認識できなかった場合は、顔画像のみが、この来訪者の来訪者情報(この場合はID番号の項目のみを有する)に対応付けて来訪者情報DB34bに格納される。
再び図4に戻って、ロボット2は、ステップS414において来訪者の顔画像の登録が終了するか、ステップS413において、所定時間を経過しても来訪者が手を差し出さない場合には、ロボット支援サーバ3に受付動作の終了を示す受付完了情報を送信する(ステップS415)。この受付完了情報を受信したロボット支援サーバ3は、来訪者情報DB34bに格納されたこの来訪者の来訪者情報にこの受付完了情報を付加して格納する(ステップS416)。また、ステップS413において来訪者が握手してくれなかった場合は、場内カメラ4で撮像された来訪者の顔画像を来訪者情報DB34bに格納し、さらにこの来訪者の来訪者情報に受付完了情報を付加して格納する。
受付完了情報が来訪者情報に付加されることで、来訪者の受付が完了しているか否かが識別でき、受付が完了した来訪者に再度受付動作を行なわないように設定できる。
そして、ロボット2は、シナリオDB29aに格納されたシナリオ情報に基づいて、ホームポジション(例えば、ロビーの受付カウンタ付近)に戻る動作を行い、受付動作を終了する(ステップS417)。このように、ホームポジションに戻るようにするのは、受付動作が終了した場所で次の来訪者が訪れるのを待つようにすると、次の来訪者の受付動作に移るのに時間がかかるようになり、また、ロボット2が社員などの通行の邪魔になることを避けるためである。なお、ホームポジションに戻ることにより、ロボット2の充電が開始される構成にすることも可能であり、これにより受付動作中にロボット2のバッテリが切れる事態を防ぐことができる。
(受付・案内動作)
次に、ステップS403において、来訪者が来訪者情報DB34bに登録された人物であると判断した場合(ステップS403においてYesの場合)の来訪者の受付・案内のステップについて、図6に示したフローチャートを参照して説明する。
受付情報管理手段32は、来訪者の来訪者情報を用いてスケジュール情報DB34dに格納されたスケジュール情報を検索し、画像認識部31から送られた配置情報、地図情報DB34aに格納された地図情報およびロボット2から送信されたロボット位置情報を合わせて受付・案内の受付動作情報を作成して(ステップS601)、受付動作指示手段33に送る。なお、この受付・案内の受付動作情報は、請求項の来訪者の顔画像の類似度を判定する動作指示情報に相当する。
以下、本実施形態例では、ロボット支援サーバ3のスケジュール情報DB34cに、来訪者と所定の部屋(面談室A)で面談を行うと登録されており、この情報に基づいて、来訪者を誘導する受付動作情報が作成されて、この受付動作情報によりロボット2が受付動作を行う例を説明する。
ロボット支援サーバ3の受付動作指示手段33は、送受信部35からロボット2に、受付対象となる来訪者に所定の距離まで接近するように指示情報を送信する(ステップS602)。ここで、この指示情報には、受付対象となる来訪者の位置を判断する配置情報が含まれている。
この指示情報を受信した(ステップS603)ロボット2は、指示情報に含まれる配置情報に基づいて受付動作の対象となる来訪者を認識し、同時に、受付動作に入ったことを示す受付開始情報をロボット支援サーバ3に送信する(ステップS604)。この受付開始情報を受信したロボット支援サーバ3は、この受付開始情報および来訪時刻を、この来訪者の来訪者情報に付加して来訪者情報DB34bに格納する(ステップS605)。
そして、ロボット2は、自律的に受付動作の対象である来訪者とコミュニケーションが取れる所定の距離まで接近する(ステップS606)。
ロボット2が来訪者から所定の距離まで接近すると、ロボット支援サーバ3の受付情報管理手段32は、来訪者に挨拶をする指示情報をロボット2に送信する(ステップS607)。なお、この指示情報には、来訪者情報DB34bに格納されたこの来訪者の顔画像の情報も含まれている。また、この指示情報を送信するタイミングは、前記したように、ロボット2の前の動作(来訪者と所定の距離まで移動する)が終了した時点やロボット支援サーバ3に動作の終了情報を送信する時点や、ロボット支援サーバ3の画像認識部31から送られる配置情報から判断して送信することなどが考えられる。
来訪者に挨拶をする指示情報を受信したロボット2は、シナリオDB29aに格納されたシナリオ情報に基づいて、「○○さん、ようこそ」と発話すると同時に、握手をするポーズとして右手を差し出す(ステップS608)。ここで、ロボット2は、所定時間、来訪者がこのポーズに応じて握手をしてくれるかを判断する(ステップS609)。この来訪者が握手をしてくれるか否かの判断は、前記したタッチセンサなどを用いることでなされる。
ステップS609において、所定時間を経過しても来訪者が手を差し出さない場合は(ステップS607においてNoの場合)、来訪者とのコミュニケーションを断念してステップS614に進む。また、ステップS609において、来訪者が手を差し出したと判定した場合は(ステップS607においてYesの場合)、ロボット2は、来訪者の顔画像を撮像する(ステップS610)。
次に、ロボット2の人応答部24は、撮像開始からの時間が、所定の時間に達したかを判定する(ステップS611)。ここで、所定の時間は、握手の動作を行っている時間以内に設定することが望ましい。そして、撮像開始からの時間が所定時間に達していない場合は(ステップS611においてNoの場合)、後段側のステップに進み、撮像開始からの時間が所定時間に達した場合は(ステップS611においてYesの場合)、撮像を終了してステップS614に進む。
次に、ステップS611において、撮像開始からの時間が所定時間に達していない場合は、ロボット2の人応答部24は、撮像した顔画像と、ステップS607で送信された来訪者の顔画像を集計した顔クラスとの類似度が、所定の閾値以上か否かを判定する(ステップS612)。ステップS612において撮像した顔画像の顔クラスに対する類似度が所定の閾値以上ではない場合は(ステップS612においてNoの場合)、さらに来訪者の顔画像の撮像し、最後に撮像された顔画像と、それまでに撮像した顔画像含めて集計した顔クラスとの類似度が所定の閾値以上になるまで判定を繰り返す。
なお、このステップS610における追加の来訪者の顔画像の撮像は、1枚単位だけでなく、例えば、5枚単位で撮像することも考えられる。この場合、撮像された各顔画像の類似度の平均値を求め、この類似度の平均値が所定の閾値以上となったか否かをステップS612において判定することもできる
次に、ステップS609において、来訪者が握手してくれないと判定した場合およびステップS612において類似度が所定の閾値以上である場合(ステップS612においてYesの場合)、ロボット支援サーバ3の受付動作指示手段33は、ロボット2に来訪者を案内する指示情報を送信し(ステップS613)、この来訪者を案内する指示情報を受信したロボット2は、シナリオDB29aに格納されたシナリオ情報に基づいて、来訪者に「○○さん、面談室Aにお入りください。」と発話して、来訪者に案内を行う(ステップS614)。
なお、このとき発話するだけでなく、実際に先導して来訪者を面談室Aまで誘導する構成とすることもできる。また、来訪者のスケジュール等が不明である場合には、所定の場所(ロビー内のソファなど)に来訪者を誘導し、その旨をオペレータ用PCに表示することで、オペレータに応援をたのむ構成でもよい。
そして、ロボット2は、ステップS614において来訪者の案内動作が終了するか、ステップS609において、所定時間を経過しても来訪者が手を差し出さない場合には、ロボット支援サーバ3に受付動作の終了を示す受付完了情報を送信する(ステップS615)。なお、この時、撮像した来訪者の顔画像がある場合にはこの顔画像も合わせて送信する。
この受付完了情報を受信したロボット支援サーバ3は、来訪者情報DB34bに格納された来訪者情報に付加して格納する(ステップS616)。この際、来訪者の顔画像を合わせて受信した場合には、この顔画像も、来訪者情報DB34bに格納された来訪者情報に付加して格納する。
そして、ロボット2は、シナリオDB29aに格納されたシナリオ情報に基づいて、ホームポジション(例えば、ロビーの受付カウンタ付近)に戻る動作を行い、受付動作を終了する(ステップS617)。
なお、本実施形態例の図6に示したフローチャートでは、ロボット支援サーバ3の来訪者情報DB34bに登録され、かつスケジュール情報DB34cにスケジュール情報が登録された来訪者に対応する例を説明したが、ロボット支援サーバ3の来訪者情報DB34bに登録され、かつスケジュール情報DB34cにスケジュール情報が登録されていない来訪者に対しては、ステップS614の来訪者を案内する動作以外の受付動作を行うことになる。
以上説明した本実施形態例のかかる構成、動作により、来訪者を特定する顔認識を実行する上で重要な、来訪者の正面顔画像を、来訪者に意識させることなく取得できる。また、保持している顔画像と新たに取得した顔画像の類似度を計算し、所定の類似度を有するまで、来訪者の顔画像をさらに取得することで、顔認識の精度の向上が期待できる。
また、来訪が予定されていない来訪者であっても、新たにID番号を設定して来訪者情報DB34bに、この来訪者の顔画像を登録することで、同じ来訪者に何度も受付動作を行うことが無く、さらに、所定の期間内(来訪者情報DB34bに格納された来訪者情報が消去されるまで)では、予め登録された来訪者と同様に、ロボット2とコミュニケーションをとることも可能となる。
また、来訪者情報のうち名前などの特定の項目の情報が取得できなかった場合は、その来訪者に関する情報を、所定のタイミングで消去してしまうため、来訪者情報DB34bの容量が肥大化することを防ぐことができる。
さらに、ロボット2が来訪者を受付中や、ロボット2のカメラ21aの視野に入っていない来訪者がいる場合であっても、場内カメラ4が来訪者の有無、来訪者とロボット2の配置情報、来訪者の顔画像を検出する。したがって、スムーズに来訪者の受付動作を行うことができる。
前記した実施形態は、本発明の要旨を逸脱しない範囲で適宜設計変更が可能である。例えば、前記した実施形態では、ロボット支援サーバ3において、受付動作情報を作成し、受付動作指示手段33から、逐次ロボット2に動作指示を送信する構成としたが、一連の動作をロボット2のシナリオDB29aに格納して、ロボット支援サーバ3においてこのシナリオ情報を選択する構成とすることも可能である。
また、ロボット支援サーバ3に含まれる機能を、ロボット2に含んだ構成とすることもできる。その場合、ロボット2と場内カメラ4およびロボット2とオペレータ用PCは、無線手段などにより接続される構成となる。この場合、場内カメラ4は、単に出入口の画像を、ロボット2へ送信し、来訪者の検出および来訪者の顔認識は、ロボット2本体側で実行することになる。
また、来訪者検出手段を構成する場内カメラ4を1台備えることとしたが、これに限定されない。カメラの台数、各カメラの有する機能、カメラの設置場所等は適宜設計変更可能である。さらに、場内カメラ4の役割をロボット2のカメラ21aに持たせることも考えられる。この場合は、ロボット2のカメラ21aの視界に入った来訪者を認識して受付動作を行うことになる。
また、一台のロボット2を用いて案内動作を行う構成としたが、複数のロボット2を有する構成であってもよい。この場合には、さらにロボット2ごとに異なる役割を与えることが可能となる。例えば、既に顔画像等を登録済みの来訪者を案内するロボット2と、未登録の来訪者の受付を行い、顔画像の一時登録を行うロボット2とを備える構成であってもよい。
また、ロボット2の仕様も適宜設計変更可能である。自律移動手段26bとして、複数の車輪を有する構成であってもよい。また、画像表示部を有し、文字情報や画像情報により来訪者とコミュニケーションを行うことが可能な構成であってもよい。また、タッチパネルを有し、来訪者が来訪の目的等を入力可能な構成であってもよい。
また、来訪者とロビー内を通行する社員との識別を、場内カメラ4で撮像された顔画像に基づいて受付情報管理手段32において行い、社員と認識された場合には、受付動作を行わない構成とすることも可能である。この場合、各社員に、社員であることを認識できるような制服や靴などを着るようにしたり、社員IDカードを所定の位置に付けたりすることで、社員の認識の精度を向上させることも考えられる。また、社員情報を格納した無線タグを、各社員に身に付けさせ、例えばロビーの出入口に無線タグの受信手段を備える構成とすることで、受付情報管理手段32の認識の精度に関係なく社員を識別する構成とすることなども可能である。
本発明の実施形態例に係る受付システムを配置したロビーを示す概略図である。 本発明の実施形態例に係る受付システムのロボットの構成を示すブロック図である。 本発明の実施形態例に係る受付システムの受付動作制御手段の構成を示すブロック図である。 本発明の実施形態例に係る受付システムを用いた来訪者の受付・新規登録の過程を説明するフローチャートである。 本発明の実施形態例に係る受付システムを用いた来訪者の顔登録過程を詳しく説明するフローチャートである。 本発明の実施形態例に係る受付システムを用いた来訪者の受付・案内の過程を説明するフローチャートである。
符号の説明
1 受付システム
2 ロボット
3 ロボット支援サーバ
4 場内カメラ
21a カメラ
21b 画像認識部
22a マイク
22b 音声認識部
23a スピーカ
23b 発話生成部
24 人応答部
25 自己位置推定手段
26a 移動制御手段
26b 自律移動手段
29a シナリオDB
29b 地図情報DB
31 画像認識部
32 受付情報管理手段
33 受付動作指示手段
34a 地図情報DB
34b 来訪者情報DB
34c スケジュール情報DB

Claims (6)

  1. カメラおよび腕部を有するロボットならびに人物を特定する人物情報と前記人物情報と対応付けられた前記人物の顔画像を登録した人物情報データベース、来訪者を検出し、前記来訪者の顔画像を取得する来訪者検出手段、前記人物情報データベースと来訪者検出手段から送られる情報とに基づいて、前記ロボットの動作を指示する動作指示情報を作成する動作情報管理手段および前記動作指示情報に基づいて前記ロボットの動作の指示を送る動作指示手段を含んで構成される動作制御手段からなる来訪者の顔画像取得システムであって、
    前記動作制御手段は、前記来訪者検出手段において来訪者を検出すると、前記来訪者検出手段で取得した前記来訪者の顔画像に基づいて、前記人物情報データベースを参照して前記来訪者の特定を試み、
    前記人物情報データベースに該当する人物が登録されていないときは、
    前記動作情報管理手段において、前記来訪者を特定できるID情報を作成し、前記来訪者の顔画像を取得する動作指示情報を作成して、前記動作指示手段から前記ロボットに動作の指示を送信し、
    前記ロボットは、この動作の指示に基づいて、前記腕部を前記来訪者に差し出し、握手をする動作の間に、前記来訪者の顔画像を前記カメラにより撮像し、
    前記動作制御手段は、前記ID情報を人物情報として、この人物情報および前記ロボットが撮像した前記来訪者の顔画像を対応付けて前記人物情報データベースに登録すること、
    を特徴とする顔画像取得システム。
  2. 前記ロボットは、前記来訪者に対して前記来訪者に関する情報の入力を促し、
    前記動作制御手段は、取得した前記来訪者に関する情報を、前記人物情報に付加して前記人物情報データベースに登録すること、
    を特徴とする請求項1に記載の顔画像取得システム。
  3. 前記ロボットは、前記来訪者の顔画像を撮像する際に、
    所定の枚数の顔画像を撮像し、最後に撮像した1以上の各顔画像と、それより前に撮像した顔画像を集計した顔クラスとの類似度を算出し、前記類似度の平均値が所定の値以上になるまで、さらに前記来訪者の1以上の顔画像を撮像することを特徴とする請求項1または請求項2に記載の顔画像取得システム。
  4. 前記動作制御手段は、前記来訪者検出手段において来訪者を検出すると、前記来訪者検出手段で取得した前記来訪者の顔画像に基づいて、前記人物情報データベースを参照して前記来訪者の特定を試み、
    前記人物情報データベースから該当する人物を特定したとき、
    前記動作情報管理手段において前記来訪者の顔画像の類似度を判定する動作指示情報を作成して、前記動作指示手段から前記ロボットに動作の指示を送信し、
    前記ロボットは、この動作の指示に基づいて、前記腕部を前記来訪者に差し出し、握手をする動作の間に、前記来訪者の顔画像を前記カメラにより撮像し、前記ロボットが撮像した顔画像と、前記人物情報データベースに登録された顔画像を集計した顔クラスとの類似度を算出し、前記類似度が所定の値以上になるまで、さらに前記来訪者の顔画像を撮像し、
    前記動作制御手段は、前記ロボットが撮像した前記来訪者の顔画像を、前記人物情報データベースに登録すること、
    を特徴とする請求項1に記載の顔画像取得システム。
  5. 前記ロボットは、前記来訪者が差し出した腕部を握ったか否かを判定する握手判定手段をさらに含んで構成され、
    前記ロボットは、握手をする動作に入ったとき、前記握手判定手段により、前記来訪者が握手をしたか否かを判定し、前記来訪者が握手をしたと判定した場合に、前記カメラで前記来訪者の顔画像を撮像すること、
    を特徴とする請求項1ないし請求項4のいずれか1項に記載の顔画像取得システム。
  6. 前記動作制御手段は、前記人物情報データベースに格納された人物情報のうち、所定の項目が含まれていない人物情報は、それに対応付けられた顔画像とあわせて所定のタイミングで消去すること、
    を特徴とする請求項1ないし請求項5のいずれか1項に記載の顔画像取得システム。
JP2004004010A 2004-01-09 2004-01-09 顔面像取得システム Expired - Fee Related JP4303602B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004004010A JP4303602B2 (ja) 2004-01-09 2004-01-09 顔面像取得システム
KR1020040108608A KR100776690B1 (ko) 2004-01-09 2004-12-20 얼굴화상 취득방법 및 그 시스템
US11/028,152 US7539556B2 (en) 2004-01-09 2005-01-04 Face image acquisition method and face image acquisition system
DE102005001026.1A DE102005001026B4 (de) 2004-01-09 2005-01-07 Gesichtsbild-Erfassungsverfahren und Gesichtsbild-Erfassungssystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004004010A JP4303602B2 (ja) 2004-01-09 2004-01-09 顔面像取得システム

Publications (2)

Publication Number Publication Date
JP2005193351A JP2005193351A (ja) 2005-07-21
JP4303602B2 true JP4303602B2 (ja) 2009-07-29

Family

ID=34737177

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004004010A Expired - Fee Related JP4303602B2 (ja) 2004-01-09 2004-01-09 顔面像取得システム

Country Status (4)

Country Link
US (1) US7539556B2 (ja)
JP (1) JP4303602B2 (ja)
KR (1) KR100776690B1 (ja)
DE (1) DE102005001026B4 (ja)

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7783013B2 (en) * 2004-04-30 2010-08-24 At&T Intellectual Property I, L.P. Method and system for routing emergency communications
EP2050544B1 (en) * 2005-09-30 2011-08-31 iRobot Corporation Robot system with wireless communication by TCP/IP transmissions
JP4512830B2 (ja) * 2006-02-20 2010-07-28 国立大学法人埼玉大学 コミュニケーションロボット
JPWO2008001492A1 (ja) * 2006-06-28 2009-11-26 日本電気株式会社 ロボット、ロボット制御方法、および、ロボット制御プログラム
KR100823739B1 (ko) * 2006-12-08 2008-04-21 한국전자통신연구원 주변 환경 변화에 신속하게 적응하여 환경 지도를 작성할수 있는 이동체의 환경 지도 작성 장치 및 그 방법
JP2008243093A (ja) * 2007-03-29 2008-10-09 Toshiba Corp 辞書データの登録装置及び辞書データの登録方法
WO2009004772A1 (ja) * 2007-07-05 2009-01-08 Panasonic Corporation ロボットアームの制御装置及び制御方法、ロボット、及び制御プログラム
KR101436834B1 (ko) * 2008-01-11 2014-09-02 삼성전자주식회사 디지털 영상 처리장치 및 그 제어방법
TW201205449A (en) * 2010-07-20 2012-02-01 Hon Hai Prec Ind Co Ltd Video camera and a controlling method thereof
TWI507047B (zh) * 2010-08-24 2015-11-01 Hon Hai Prec Ind Co Ltd 麥克風控制系統及方法
US8965067B2 (en) * 2010-10-28 2015-02-24 Telefonaktiebolaget L M Ericsson (Publ) Face data acquirer, end user video conference device, server, method, computer program and computer program product for extracting face data
JP5765153B2 (ja) * 2011-09-12 2015-08-19 日本電気株式会社 人物監視システム、ロボット、人物監視方法およびロボット制御プログラム
JP5582422B2 (ja) * 2012-03-16 2014-09-03 株式会社安川電機 ロボットシステム
JP2014029623A (ja) * 2012-07-31 2014-02-13 Canon Inc 情報処理装置及び情報処理方法
JP6126028B2 (ja) * 2014-02-28 2017-05-10 三井不動産株式会社 ロボット制御システム、ロボット制御サーバ及びロボット制御プログラム
JP2016052697A (ja) * 2014-09-03 2016-04-14 インターマン株式会社 人型ロボット
JP6543047B2 (ja) * 2015-02-25 2019-07-10 シャープ株式会社 情報処理装置、制御プログラム、記録媒体
CN105069437A (zh) 2015-08-14 2015-11-18 惠州Tcl移动通信有限公司 一种能够自动识别位置的智能系统及其实现方法
JP6610349B2 (ja) * 2016-03-10 2019-11-27 大日本印刷株式会社 案内ロボット制御システム、プログラム及び案内ロボット
JP6726388B2 (ja) * 2016-03-16 2020-07-22 富士ゼロックス株式会社 ロボット制御システム
JP6675893B2 (ja) * 2016-03-17 2020-04-08 株式会社エヌ・ティ・ティ・データ 個人認証システム、個人認証装置、個人認証方法、およびプログラム
EP4086791A1 (en) 2016-06-13 2022-11-09 NEC Corporation Response device, response system, response method, and recording medium
JP6785308B2 (ja) * 2016-06-22 2020-11-18 ローレル精機株式会社 窓口受付システムおよびサービスロボット
WO2018084170A1 (ja) * 2016-11-07 2018-05-11 Groove X株式会社 人を識別する自律行動型ロボット
US10134006B2 (en) * 2016-12-07 2018-11-20 Invia Robotics, Inc. Workflow management system and methods for coordinating simultaneous operation of multiple robots
JP6874437B2 (ja) * 2017-03-13 2021-05-19 大日本印刷株式会社 コミュニケーションロボット、プログラム及びシステム
JP2018149626A (ja) * 2017-03-13 2018-09-27 大日本印刷株式会社 コミュニケーションロボット、プログラム及びシステム
JP6844385B2 (ja) * 2017-03-31 2021-03-17 日本電気株式会社 照合システム、管理装置、照合方法、及びプログラム
JP7020639B2 (ja) * 2017-05-16 2022-02-16 株式会社サテライトオフィス ロボットまたは電子回路モジュール制御システム、プログラム
JP7000704B2 (ja) * 2017-05-16 2022-01-19 富士フイルムビジネスイノベーション株式会社 移動式サービス提供装置及びプログラム
CN110069651B (zh) * 2017-10-23 2023-04-07 腾讯科技(北京)有限公司 图片筛选方法及装置、存储介质
JP7109207B2 (ja) * 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
SG10201807678WA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd A method for identifying potential associates of at least one target person, and an identification device
US11890747B2 (en) 2018-09-26 2024-02-06 Disney Enterprises, Inc. Interactive autonomous robot configured with in-character safety response protocols
JP7273638B2 (ja) * 2019-07-17 2023-05-15 本田技研工業株式会社 ロボット管理装置、ロボット管理方法およびロボット管理システム
CN112765404B (zh) * 2021-01-22 2023-03-31 北京市商汤科技开发有限公司 到访信息处理方法、装置、系统、设备及存储介质
JP2022142506A (ja) * 2021-03-16 2022-09-30 本田技研工業株式会社 制御装置、制御方法、およびロボット制御システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
JPH02240684A (ja) 1989-03-14 1990-09-25 Sanyo Electric Co Ltd 接客ロボット
US5835616A (en) * 1994-02-18 1998-11-10 University Of Central Florida Face detection using templates
JP2802416B2 (ja) 1994-04-20 1998-09-24 株式会社テムス 受付・案内ロボットシステム
EP0815531A4 (en) * 1995-03-20 1999-08-04 Lau Technologies SYSTEMS AND METHODS FOR IDENTIFYING IMAGES
US5774591A (en) * 1995-12-15 1998-06-30 Xerox Corporation Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images
JP3625941B2 (ja) * 1996-01-30 2005-03-02 沖電気工業株式会社 虹彩認識システム
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
JP2001266152A (ja) * 2000-03-17 2001-09-28 Toshiba Corp 顔画像認識装置および顔画像認識方法
JP2001277166A (ja) * 2000-03-31 2001-10-09 Sony Corp ロボット及びロボットの行動決定方法
JP2001357391A (ja) 2000-06-14 2001-12-26 Omron Corp 画像照合装置
KR20010016048A (ko) * 2000-10-16 2001-03-05 장기영 다기능 홈 퍼스널 로봇
JP4143305B2 (ja) * 2001-01-30 2008-09-03 日本電気株式会社 ロボット装置、照合環境判定方法、及び照合環境判定プログラム
US7369686B2 (en) 2001-08-23 2008-05-06 Sony Corporation Robot apparatus, face recognition method, and face recognition apparatus
JP2003205483A (ja) * 2001-11-07 2003-07-22 Sony Corp ロボットシステム及びロボット装置の制御方法
JP3529049B2 (ja) * 2002-03-06 2004-05-24 ソニー株式会社 学習装置及び学習方法並びにロボット装置
JP2003281653A (ja) 2002-03-26 2003-10-03 Victor Co Of Japan Ltd 自律行動ロボット
JP2004357915A (ja) 2003-06-04 2004-12-24 Matsushita Electric Ind Co Ltd センシング玩具

Also Published As

Publication number Publication date
KR100776690B1 (ko) 2007-11-16
US7539556B2 (en) 2009-05-26
DE102005001026B4 (de) 2017-01-26
DE102005001026A1 (de) 2005-08-04
KR20050073524A (ko) 2005-07-14
US20050151842A1 (en) 2005-07-14
JP2005193351A (ja) 2005-07-21

Similar Documents

Publication Publication Date Title
JP4303602B2 (ja) 顔面像取得システム
JP4718987B2 (ja) インターフェース装置およびそれを備えた移動ロボット
US7720685B2 (en) Receptionist robot system
JP5157595B2 (ja) 接客システム及び接客方法
US9733896B2 (en) System, apparatus, and method for displaying virtual objects based on data received from another apparatus
JP4787813B2 (ja) 検知対象検知システム
JP2008084135A (ja) 移動制御方法、移動ロボットおよび移動制御プログラム
JP7164373B2 (ja) 案内システム
JP7045938B2 (ja) 対話システム及び対話システムの制御方法
JP2005103722A (ja) 協調ロボット装置、システム、およびナビゲーションロボット装置
JP2019049786A (ja) 人識別システム及び人識別方法
WO2018108176A1 (zh) 机器人视频通话控制方法、装置及终端
JP2015111836A (ja) 画像処理装置、カメラ、画像処理方法およびプログラム
US20210031378A1 (en) Information processor, information processing method, and program
CN108007459A (zh) 楼宇中的导航实现方法和装置
US10339381B2 (en) Control apparatus, control system, and control method
JP6887035B1 (ja) 制御システム、制御装置、制御方法及びコンピュータプログラム
WO2011007381A1 (ja) ナビゲーションシステム
JP4220857B2 (ja) 携帯端末機器を用いた移動ロボットの画像撮影装置
US20190193261A1 (en) Information processing device, information processing method, and non-transitory computer-readable recording medium for acquiring information of target
CN109129460B (zh) 机器人管理系统
CN113984055A (zh) 室内导航定位方法和相关装置
JP4220855B2 (ja) 携帯端末機器を用いた移動ロボットの画像送信装置及びその方法
JP2019196959A (ja) 案内システム及び案内用ロボット
CN112975950B (zh) 远程操作系统及远程操作方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090319

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090421

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090424

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120501

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4303602

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130501

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140501

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees