JP2004310702A - 顔識別システム - Google Patents

顔識別システム Download PDF

Info

Publication number
JP2004310702A
JP2004310702A JP2003129613A JP2003129613A JP2004310702A JP 2004310702 A JP2004310702 A JP 2004310702A JP 2003129613 A JP2003129613 A JP 2003129613A JP 2003129613 A JP2003129613 A JP 2003129613A JP 2004310702 A JP2004310702 A JP 2004310702A
Authority
JP
Japan
Prior art keywords
face
robot
unit
face data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003129613A
Other languages
English (en)
Other versions
JP4247041B2 (ja
Inventor
Takahiro Ohashi
孝裕 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2003129613A priority Critical patent/JP4247041B2/ja
Priority to US10/808,520 priority patent/US7014102B2/en
Publication of JP2004310702A publication Critical patent/JP2004310702A/ja
Application granted granted Critical
Publication of JP4247041B2 publication Critical patent/JP4247041B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)
  • Collating Specific Patterns (AREA)

Abstract

【課題】顔の識別率をより向上させることができる顔識別システムを提供する。
【解決手段】対象人物の顔データを生成する顔データ生成部18、参照顔データを登録する参照顔データ記憶部19、及び前記顔データと前記参照顔データとを比較して、前記対象人物の顔を識別する顔識別部21を有し、複数のエリアを移動可能なロボット12と、複数の人物の顔データを登録するデータベース14と、前記ロボット12が存在するエリアに居ると推定される人物の顔データを前記データベース14から抽出し、この抽出された顔データを参照顔データとして前記ロボット12に送信するコントローラ13とを備える。
【選択図】 図1

Description

【0001】
【発明の属する技術分野】
本発明は、人物の顔を識別するための顔識別システムに関する。
【0002】
【従来の技術】
従来、顔識別システムとして、CCDカメラなどの撮像手段によって対象人物を撮像した画像から、対象人物の顔を識別するシステムが知られている(例えば、特許文献1)。この顔識別システムは、データベースに登録した多くの顔の画像パターンと、対象人物の撮像画像パターンとを対比することによって、対象人物の顔を識別している。
【0003】
ところで、昨今、例えば社屋といった広いエリア内を巡回するロボットが知られているが、このようなロボットに顔識別システムが組み込まれれば、このロボットは、訪れる顧客の応対に利用することができる。
【0004】
【特許文献1】
特開2000−259834号公報(段落番号(0027)乃至段落番号(0095)参照)
【0005】
【発明が解決しようとする課題】
しかしながら、このような顔識別システムが組み込まれたロボットでは、ロボットに、屋内の全エリアにいると推定される多くの顔の画像パターンと、対象人物の撮像画像パターンとを対比させると、対比させる顔の画像データパターンの種類が膨大になるため、顔の識別率が低下する。
【0006】
そこで、本発明は、顔の識別率をより向上させることができる顔識別システムを提供することを課題とする。
【0007】
【課題を解決するための手段】
前記課題を解決するために、請求項1に記載の顔識別システムは、対象人物を撮像し、前記対象人物の顔データを生成する顔データ生成部、参照顔データを登録する参照顔データ記憶部、及び前記顔データと前記参照顔データとを比較することにより、前記対象人物の顔を識別する顔識別部を有し、複数のエリアを移動可能なロボットと、複数の人物の顔データを登録するデータベースと、前記ロボットが存在するエリアにいると推定される人物の顔データを前記データベースから抽出し、この抽出された顔データを参照顔データとして前記ロボットに送信するコントローラとを備えることを特徴とする。
【0008】
この顔識別システムでは、ロボットが存在するエリアにいると推定される人物の参照顔データと、対照人物の顔データとを比較することによって、ロボットが対照人物の顔を識別するので、当該エリアに存在する確率の低い人物の顔データは、参照顔データから除かれる。したがって、この顔識別システムによれば、ロボットは、より高い識別率で対照人物の顔を識別することができる。また、この顔識別システムによれば、参照顔データの量が低減されるので、ロボットによる顔の識別速度を高めることができる。
【0009】
請求項2に記載の顔識別システムは、請求項1に記載の顔識別システムにおいて、前記ロボットは、自身の位置を検出するとともに、その検出された位置情報を前記コントローラに出力する位置情報出力部をさらに備え、前記コントローラは、前記位置情報出力部から入力された位置情報に基づいて、前記ロボットが存在する位置を認識することを特徴とする。
【0010】
この顔識別システムによれば、ロボットが、自身の位置を検出することができるので、ロボットが存在するエリアを推定することができる。したがって、この顔識別システムによれば、ロボット自身が、そのエリアに存在すると推定される人物の参照顔データをコントローラに要求することができる。
【0011】
請求項3に記載の顔識別システムは、請求項1又は請求項2に記載の顔識別システムにおいて、前記コントローラは、予め設定された時間帯の切り替わりに基づいて、前記ロボットが存在するエリアにいる人物を推定することを特徴とする。
【0012】
この顔識別システムによれば、ロボットが存在するエリアにいる人物が、時間と場所とで推定されるので、当該エリアに存在する確率の低い人物の顔データは、参照顔データからさらに確実に除かれる。したがって、この顔識別システムによれば、ロボットは、より一層高い識別率で対照人物の顔を識別することができる。また、この顔識別システムによれば、参照顔データの量がさらに低減されるので、ロボットによる顔の識別速度をより高めることができる。
【0013】
請求項4に記載の顔識別システムは、請求項3に記載の顔識別システムにおいて、前記コントローラは、予め設定された時間帯の切り替わりに基づいて、前記ロボットのいる位置の明るさを推定し、その推定された明るさ情報に基づいて、前記データベースから抽出した顔データを補正して参照顔データを生成することを特徴とする。
【0014】
この顔識別システムでは、ロボットのいる位置の明るさに基づいて、前記データベースから抽出した顔データを補正して参照顔データを生成するので、この参照顔データは、ロボットのカメラが撮像した際の明るさで得られた顔データと同等に補正されている。したがって、この顔識別システムによれば、ロボットによる顔の識別率は、一層高められる。
【0015】
請求項5に記載の顔識別システムは、請求項1から請求項4のいずれか一項に記載の顔識別システムにおいて、前記ロボットは、自身が存在する位置の明るさを検出するとともに、その検出された明るさ情報を前記コントローラに出力する光センサをさらに備え、前記コントローラは、前記光センサから出力された明るさ情報に基づいて、前記データベースから抽出した顔データを補正して参照顔データを生成することを特徴とする。
【0016】
この顔識別システムでは、光センサによって、ロボットが存在する位置の明るさ情報が得られ、ロボットが存在する位置に基づいて、参照顔データが生成される。したがって、この顔識別システムによれば、ロボットによる顔の識別率が、より一層高められる。
請求項6に記載の顔識別システムは、請求項4又は請求項5に記載の顔識別システムにおいて、前記データベースは、明るさに応じた肌色閾値が登録されているとともに、前記コントローラは、前記ロボットのいる位置の明るさに応じた前記肌色閾値を前記データベースから抽出して、前記ロボットに出力することを特徴とする。
この顔識別システムによれば、ロボットがいる位置の明るさに応じた適切な肌色閾値を利用して、対象人物の顔を検出することができる。
【0017】
【発明の実施の形態】
次に、本発明に係る顔識別システムの実施の形態について適宜図面を参照しながら説明する。
【0018】
参照する図面において、図1は、本実施の形態に係る顔識別システムのブロック図、図2は、図1の顔識別システムを構成するロボットの参照顔データ記憶部、顔データ生成部、顔識別部及び顔データ登録部の関係を示すブロック図、図3は、図1の顔識別システムを構成するコントローラの顔データ抽出条件設定部のブロック図、図4は、図1の顔識別システムを構成するデータベース及びサーバの関係を示すブロック図、図5(a)及び図5(b)は、図1の顔識別システムを構成する顔認識条件データベースに登録される顔認識条件(テーブル)の説明図である。
【0019】
図1に示すように、本実施の形態に係る顔識別システム11は、ロボット12と、コントローラ13と、データベース14とを備えている。以下に、ロボット12、コントローラ13及びデータベース14の順番に説明する。
【0020】
(ロボット)
ロボット12は、図1及び図2に示すように、識別の対象となる対象人物を撮像して撮像画像を取得するカメラCR,CLと、対象人物の撮像画像から後記個人顔データを生成する顔データ生成部18と、前記個人顔データと対比するためにコントローラ13から送信された個人顔データを登録するための参照顔データ記憶部19と、顔データ生成部18で生成した個人顔データ及び参照顔データ記憶部19に登録された個人顔データを比較することによって、前記対照人物の顔を識別する顔識別部21と、新規な顔データ(後記顔画像データ)を後記データベース14に登録する際に使用される顔データ登録部22と、ロボット12の位置を検出するとともに、その検出された位置情報をコントローラ13に出力するジャイロ17と、ロボット12が存在する位置の明るさを検出するとともに、その検出された明るさ情報を出力する光センサ16と、コントローラ13との間でデータの送受信を行う送受信部12aとを備えている。なお、個人顔データ及び顔画像データは、特許請求の範囲にいう「顔データ」に含まれ、ジャイロ17は、特許請求の範囲にいう「位置情報出力部」に相当する。
【0021】
カメラCR,CLは、カラーCCDカメラであり、このカメラCR,CLで撮像された画像(撮像画像)は、フレーム毎に図示しないフレームグラバに記憶された後、次に説明する顔データ生成部18の移動体抽出部18aに入力されるようになっている。
【0022】
次に、ロボット12の参照顔データ記憶部19、顔データ生成部18、顔識別部21及び顔データ登録部22について、図2を参照しながら説明する。
顔データ生成部18は、移動体抽出部18aと、顔検出部18bと、個人顔データ生成部18cとで構成されており、これら移動体抽出部18a、顔検出部18b及び個人顔データ生成部18cは、この順番で互いに接続されている。また、この顔データ生成部18は、送受信部12aと接続されており、後記する顔認識条件データベース14aから、顔認識条件読出部及びコントローラ13を経由して送信される顔認識条件、具体的には、顔検出部18bで使用される肌色閾値を受信するように構成されている。なお、この肌色閾値は、前記カメラCR,CLのカメラゲインやホワイトバランスの調整に使用されてもよい。
【0023】
移動体抽出部18aは、移動体、つまり対象人物の撮像画像部分を抽出するものであり、次の手順によって、カメラCR,CLで捕らえた撮像画像から対象人物の撮像画像部分を抽出するように構成されている。まず、左右のカメラCR,CLで同時刻に撮像された左右の画像の視差に基づいて、視差の大きさ(視差量)を距離の情報として各画素ごとに埋め込んだ距離画像を生成する。また、一方のカメラ(例えばCR)を基準として、時刻の異なる画像を入力し、その差分によって、撮像画像の中から動きのある領域を抽出した差分画像を生成する。そして、これら距離画像及び差分画像から、最も動き量の多い視差(距離)を特定し、その距離を人物が存在する対象距離とする。さらに、対象距離の前後の所定範囲の距離に対応する画素を距離画像から抽出した対象距離画像を生成する。この対象距離画像で、画素が存在する領域を対象領域としてSNAKES手法を用い、輪郭を抽出することで、移動体を抽出する。
【0024】
なお「SNAKES手法」とは、閉曲線からなる動的輪郭モデル(SNAKES)を、予め定義されたエネルギ関数が最小となるように収縮変形させることにより、対象物の輪郭を抽出する手法である。
【0025】
顔検出部18bは、カメラCR,CLの撮像画像から抽出した肌色領域で覆われる、移動体抽出部18aで抽出された対象人物の頭部に相当する領域を顔の撮像画像部分として検出するように構成されている。そして、この顔検出部18bは、前記した肌色領域が所定の基準を満足する程度に検出されなかった場合には、ロボット12が対象人物を見失ったと判断するようになっている。また、顔検出部18bは、顔特徴点の位置合わせを行うことによって、正規化処理を行うように構成されている。この正規化処理が施された顔の撮像画像部分(以下に、これを単に「顔画像データ」という)は、この顔検出部18bに接続された個人顔データ生成部18c及び顔データ登録部22に送信される。なお、顔検出部18bには、顔の撮像画像部分を正規化するに際に抽出する肌色領域を設定するにあたって、コントローラ13から送信される肌色閾値が設定されている。
【0026】
個人顔データ生成部18cは、後記する参照顔データ記憶部19に登録された固有ベクトルを参照するとともに、顔検出部18bから受け取った顔画像データをベクトルで表したものと、各固有ベクトルとの内積を求めることによって、個人顔データを生成するように構成されている。なお、この個人顔データは、顔画像データを固有ベクトルで規定された固有空間内の位置を示す、固有ベクトルの係数(パラメータ)であり、いわば、顔の特徴パラメータともいうべきものである。
【0027】
顔識別部21は、個人顔データ生成部18c及び参照顔データ記憶部19と接続されている。この顔識別部21は、顔データ生成部18が生成した個人顔データを、参照顔データ記憶部19から読み出した個人顔データと対比させて、識別の対象となる顔の人物がいかなる者であるか、つまり、顔データ生成部18が生成した個人顔データが、いかなる個人IDで関連付けされた個人顔データに相当するかを識別するように構成されている。
【0028】
また、この顔識別部21は、後記する識別回数f(図6参照)を積算するカウンタ機能を備えている。このカウンタ機能は、複数の識別回数fを経てもなお、識別の対象となる顔の人物がいかなる者であるかを識別できない場合に、後記する顔データ登録部22に対して、この対象人物の顔画像データ(顔検出部18bから出力されたもの)を後記する顔画像データベース14b(図1参照)に登録するように要求するきっかけを生起するものである。
【0029】
参照顔データ記憶部19は、個人顔データ生成部18c、顔識別部21及び次に説明する顔データ登録部22と接続されるとともに、顔データ登録部22を介して送受信部12aと接続されている。この参照顔データ記憶部19は、後記するコントローラ13(図1参照)から送信された個人顔データ、その個人ID及び固有ベクトルを登録するものである。ここでの個人顔データは、特許請求の範囲にいう「参照顔データ」に相当する。
【0030】
顔データ登録部22は、顔検出部18b、顔識別部21、参照顔データ記憶部19及び送受信部12aと接続されている。この顔データ登録部22は、1フレームごとの対象人物の顔画像データを顔検出部18bから受信するように構成されている。
【0031】
また、顔データ登録部22は、識別に利用できる程度の顔画像データを一時的に記憶するメモリ機能を有している。そして、顔データ登録部22は、記憶した顔画像データの蓄積枚数n(図7参照)を積算するカウンタ機能を有している。
【0032】
また、顔データ登録部22は、コントローラ13から送受信部12aを介して受け取った個人顔データを、前記参照顔データ記憶部19に登録させるように構成されている。また、この顔データ登録部22は、前記顔識別部21から出力された登録要求を受けて、顔検出部18bから出力された顔画像データを、送受信部12aを介してコントローラ13に送信するようになっている。なお、このような登録要求を受けることによって、顔データ登録部22が、このような動作を開始することを、以下に、「登録モードがONになる」と表現する。また、この顔データ登録部22に対して、後記するように、ロボット駆動制御装置15(図1参照)が、顔画像データを新規に登録するように要求した場合にも、この顔識別システム11では、登録モードがONになるように設定されている。
【0033】
また、この顔データ登録部22は、クロック機能を備えており、登録モードがONになってから、所定の時間が経過してもなお、顔画像データがコントローラ13に送信されない場合に、登録モードを解除(OFF)にするように構成されている。
【0034】
ジャイロ17は、ロボット12が、移動するエリアの先々で、ロボット12のいる位置を検出するとともに、その位置情報を出力するように構成されている。光センサ16は、ロボット12のいる位置の照度や輝度といった明るさを検出し、その明るさ情報を出力するように構成されている。
【0035】
送受信部12aは、前記ジャイロ17、前記光センサ16及び顔データ登録部22と接続されており、ロボット12及びコントローラ13(図1参照)間におけるデータのやり取りの仲立ちを行うように構成されている。
【0036】
(コントローラ)
コントローラ13は、顔データ抽出条件設定部23、サーバ24、ロボット駆動制御装置15及び送受信部13a(図1参照)を備えている。この送受信部13aは、前記したロボット12の送受信部12a(図1参照)と同様に構成されているのでその説明は省略する。以下に、顔データ抽出条件設定部23、サーバ24及びロボット駆動制御装置15の順番に説明する。
【0037】
顔データ抽出条件設定部23は、図3に示すように、送受信部13a及び地図情報データベース25に接続されたロボット位置推定部26と、エリア切り替わり判断部27、時間帯変化判断部28、明るさ判断部29及び天候判断部31で構成される判断部と、これら判断部に接続される人的抽出条件出力部32及び光学的抽出条件出力部33とを備えている。
【0038】
ロボット位置推定部26は、ロボット12のジャイロ17(図1参照)が出力したロボット12の位置情報を、送受信部13aを介して受け取るようになっている。また、ロボット位置推定部26は、地図情報データベース25から読み出した地図情報、つまりロボット12が移動する複数のエリアの地図情報と、受け取った位置情報とを照合することによって、エリア内におけるロボット12の位置を推定するように構成されている。
【0039】
エリア切り替わり判断部27は、ロボット位置推定部26が推定したロボット12の位置を参照することによって、ロボット12の存在するエリアが切り替わったことを判断するように構成されている。この「エリアが切り替わる」とは、ロボット12が隣り合うエリアの境界を越えたことをいい、この「エリアが切り替わる」場合の具体例としては、ロボット12がロビーから応接室に入った場合、ロボット12が社屋1号館から社屋2号館に移った場合等が挙げられる。
【0040】
時間帯変化判断部28は、任意の時間幅で区切ることによって予め設定された時間帯が変化したことを、この時間帯変化判断部28に配設されたクロック28aで判断するように構成されている。なお、この時間帯は、それぞれの時間帯の長さが同一でも異なっていてもよく、この時間帯の具体例としては、社屋にいる人物の勤務時間帯や社屋に訪れる顧客の面会時間帯、社屋の照明が点灯又は消灯する時間帯等が挙げられる。
【0041】
明るさ判断部29は、コントローラ13の送受信部13aと接続されており、ロボット12の光センサ16(図1参照)が出力した明るさ情報を、ロボット12の送受信部12a及びコントローラ13の送受信部13a(図1参照)を介して受け取るようになっている。そして、明るさ判断部29は、この明るさ情報に基づいて、ロボット12のいるエリアの明るさを判断するように構成されている。
【0042】
天候判断部31は、リアルタイムの天候情報データを配信する、例えばインターネットといったネットワーク31aに接続されており、ネットワーク31aから得られた天候情報データによって、ロボット12のいる地域の天候を判断するように構成されている。
【0043】
人的抽出条件出力部32は、後記する顔画像データベース14b(図4参照)に登録された顔画像データを、後記するサーバ24(図4参照)に読み出させる際に、顔画像データの抽出条件を設定するものである。
【0044】
この人的抽出条件出力部32は、エリア切り替わり判断部27と接続されており、このエリア切り替わり判断部27が、前記したようにエリアが切り替わったことを判断することによって、ロボット12のいるエリアを認識するようになっている。また、人的抽出条件出力部32は、時間帯変化判断部28と接続されており、この時間帯変化判断部28が、前記したように時間帯が変化したことを判断することによって、所定の時間帯を認識するようになっている。そして、人的抽出条件出力部32は、これらロボット12のいるエリア及び所定の時間帯を顔画像データの抽出条件(人的抽出条件)として出力するように構成されている。なお、エリアの切り替わり及び時間帯の変化がない場合には、人的抽出条件出力部32は、これら人的抽出条件を出力しないようになっている。
【0045】
光学的抽出条件出力部33は、後記するように、ロボット12に向けて送信する顔画像データを補正するために使用される補正値を、この補正値が登録される顔認識条件データベース14aから読み出す際の抽出条件を設定するものである。この光学的抽出条件出力部33は、エリア切り替わり判断部27と接続されており、前記したと同様にして、ロボット12のいるエリアを認識するようになっている。また、光学的抽出条件出力部33は、時間帯変化判断部28と接続されており、前記したと同様にして、時間帯の変化によって特定される所定の時間帯を認識するようになっている。
【0046】
また、光学的抽出条件出力部33は、明るさ判断部29と接続されており、明るさ判断部29が判断したロボット12のいるエリアの明るさ(以下に、「光センサ16で検出した明るさ」という)を認識するようになっている。また、光学的抽出条件出力部33は、天候判断部31と接続されており、天候判断部31が判断したロボット12のいる地域のリアルタイムの天候を認知するようになっている。そして、この光学的抽出条件出力部33は、その切り替わりがあったエリア、変化した時間帯、変化した明るさ及び変化した天候のいずれかを前記した補正値の抽出条件(光学的抽出条件)として出力するように構成されている。
【0047】
また、この光学的抽出条件出力部33は、これらエリアの切り替わり、時間帯の変化、ロボット12の光センサ16で検出した明るさの変化及び天候の変化のいずれかをトリガとすることによって、次に説明する顔認識条件読出部34が、顔認識条件データベース14aから顔認識条件を読み出すきっかけを生起している。なお、これらエリアの切り替わり、時間帯の変化、ロボット12の光センサ16で検出した明るさの変化及び天候の変化のいずれもがない場合には、光学的抽出条件出力部33は、これら光学的抽出条件を出力しないようになっている。
【0048】
コントローラ13を構成するサーバ24は、図4に示すように、顔認識条件読出部34と、顔画像データ読出部35と、顔画像データ補正部36と、個人顔データ生成部38と、登録顔画像データ標準化部39とを備えている。
【0049】
顔認識条件読出部34は、顔データ抽出条件設定部23からそれぞれ出力された前記人的抽出条件及び前記光学的抽出条件を受け取ることによって、顔認識条件データベース14aから次に説明する顔認識条件を読み出すとともに、人的抽出条件に対応する顔認識条件及び光学的抽出条件に対応する顔認識条件をそれぞれ出力するように構成されている。
【0050】
人的抽出条件に対応する顔認識条件は、人的抽出条件、つまりロボット12のいるエリア及び所定の時間帯に関連付けされた情報であり、この顔認識条件には、所定の時間帯にロボット12が移動したエリアにいると推定される人物の個人IDが少なくとも含まれている。
【0051】
光学的抽出条件に対応する顔認識条件は、光学的抽出条件を構成する前記トリガとなった切り替わりや変化があったもの、つまり、切り替わりがあったエリア、変化した時間帯、変化した明るさ及び変化した天候のいずれかに関連付けされた情報であり、この顔認識条件には、少なくとも、ロボット12のいるエリアにおける所定の時間帯の平均的な明るさに対応する補正値、ロボット12の光センサ16で検出した明るさに対応する補正値、前記天候から推定される明るさに対応する補正値及び顔検出部18bで使用される肌色閾値が含まれている。
【0052】
そして、顔認識条件読出部34は、光学的抽出条件に対応する顔認識条件を出力するにあたって、主に、ロボット12の光センサ16で検出した明るさに対応する補正値を出力するとともに、補完的に、ロボット12のいるエリアにおける所定の時間帯の平均的な明るさに対応する補正値及び前記天候から推定される明るさに対応する補正値を出力するようになっている。
【0053】
ここで「補完的に」とは、ロボット12の光センサ16が、例えば、不測に遮蔽された場合や故障した場合に、当該補正値が補完的に使用されるという意味である。なお、本実施の形態では、ロボット12のいるエリアにおける所定の時間帯の平均的な明るさに対応する補正値及び前記天候から推定される明るさに対応する補正値が、補完的に出力されるように構成されているが、本発明は、これに限定されることなく、顔認識条件読出部34が、ロボット12のいるエリアにおける所定の時間帯の平均的な明るさに対応する補正値及び前記天候から推定される明るさに対応する補正値を主に出力するように構成されていてもよい。
【0054】
顔画像データ読出部35は、顔認識条件読出部34が出力した人的抽出条件に対応する顔認識条件である個人IDに基づいて、この個人IDに関連付けされた顔画像データを、後記する顔画像データベース14bから読み出すように構成されている。そして、顔画像データ読出部35は、読み出した顔画像データを出力するようになっている。
【0055】
顔画像データ補正部36は、前記顔認識条件読出部34と接続されており、この顔認識条件読出部34が出力した光学的抽出条件に対応する顔認識条件、すなわち顔画像データ読出部35で読み出された顔画像データを補正するための補正値を受け取るようになっている。
【0056】
また、顔画像データ補正部36は、顔画像データ読出部35に接続されており、この顔画像データ読出部35が出力した顔画像データを受け取って、この顔画像データを前記した補正値で補正するとともに、補正された顔画像データを出力するように構成されている。
【0057】
個人顔データ生成部38は、顔画像データ補正部36及び顔画像データベース14bと接続されており、前記顔データ生成部18の個人顔データ生成部18cと同様に構成されている。そして、この個人顔データ生成部38は、後記する顔画像データベース14bに登録されている固有ベクトルを参照するとともに、顔画像データ補正部36から出力された顔画像データをベクトルで表したものと、各固有ベクトルとの内積を求めることによって、個人顔データを生成するように構成されている。このようにして生成された個人顔データと、顔画像データベース14bから読み出した固有ベクトルとは、送受信部13aを介してロボット12に出力されるようになっている。なお、このようにして出力される個人顔データは、前記顔画像データ補正部36で顔画像データが補正されていることから、前記ロボット12のカメラCR,CLが撮像した際の明るさで得られた画像から生成した個人顔データと同等に補正されている。
【0058】
登録顔画像データ標準化部39は、送受信部13a、顔認識条件読出部34及び顔画像データベース14bと接続されているとともに、新規に登録される顔画像データに個人IDを自動的に付与するID付与機能を備えている。この登録顔画像データ標準化部39は、ロボット12の顔データ登録部22(図2参照)が出力した新規に登録する顔画像データを、ロボット12の送受信部12a(図2参照)及びコントローラ13の送受信部13aを介して受け取るように構成されている。そして、登録顔画像データ標準化部39は、顔認識条件読出部34が出力する顔認識条件(光学的抽出条件に対応するもの)を参照するとともに、前記顔画像データ補正部36とは逆の操作を行うことによって、新規に登録する顔画像データを標準化するように構成されている。また、登録顔画像データ標準化部39は、標準化した顔画像データに個人IDを付与するとともに、この顔画像データをデータベース14に登録するように構成されている。また、登録顔画像データ標準化部39は、この個人IDに関連付けて、新規に登録した顔画像データがどこの場所で、何時に取得されたものであるかを特定するデータをデータベース14に登録するように構成されていてもよい。
【0059】
なお、ここでいう標準化とは、予め設定した基準となる明るさで撮像して得た顔画像データの状態になるように、明るさの異なる環境で撮像した顔画像データを補正することをいう。
【0060】
コントローラ13のロボット駆動制御装置15は、再び図1を参照すると明らかなように、入力端末15aとモニタ15bとを備えるとともに、送受信部13aに接続されている。このロボット駆動制御装置15は、必要に応じて、オペレータがロボット12を操作するときに使用されるものである。また、このロボット駆動制御装置15は、オペレータからの指令によって、顔データ登録部22(図2参照)に、登録モードをONにするように要求することができるようになっている。
入力端末15aは、ロボット12の操作コマンドを入力するものであり、モニタ15bは、入力した操作コマンドを確認するためのものである。
【0061】
(データベース)
データベース14は、図4に示すように、顔画像データを登録した顔画像データベース14bと、顔認識条件を登録した顔認識条件データベース14aとで構成されている。
【0062】
顔画像データベース14bには、個人IDに関連付けされた顔画像データが標準化されて複数登録されている。そして、この顔画像データベース14bには、顔の特徴パラメータである個人顔データを求める際に使用される固有ベクトルが格納されている。
顔認識条件データベース14aには、どのエリアにいかなる人物が存在しているかを推定する情報として、それらの人物の個人IDがエリア別及び時間帯別で登録されている。この情報は、前記した人的抽出条件に対応する顔認識条件に相当する。この顔認識条件の具体例としては、図5(a)に示すように、エリアa,b,cと時間帯A,B,Cとで特定される情報、さらに具体的には、社屋の各エリアと、これらエリアに勤務する社員の勤務時間帯とで特定される情報や、各エリアと、これらエリアに訪れる顧客の面会時間帯とで特定される情報等が挙げられる。
【0063】
また、顔認識条件データベース14aには、前記した光学的抽出条件に対応する顔認識条件が登録されている。この顔認識条件としては、ロボット12のいるエリアの明るさと、この明るさに関連付けされた補正値、つまり、標準化された顔画像データを、ロボット12のいるエリアの明るさで撮像された画像の状態になるように補正する補正値であれば特に制限はない。そして、顔認識条件データベース14aには、この補正値が、前記した光学的抽出条件に関連付けされて登録されている。このような顔認識条件としては、例えば、図5(b)に示すように、時間帯Aにおける、エリアa,b,cの明るさで特定される肌色の補正値や、図示しないが、照明のみで明るさが決定されているエリアにおいて、そのエリアで特定される肌色の補正値や、窓からの外光のみで明るさが決定されているエリアにおいて、エリアと時間帯とで特定される肌色の補正値等が挙げられる。
【0064】
次に、本実施の形態に係る顔識別システムの動作について適宜図面を参照しながら説明する。
【0065】
参照する図面において、図6は、本実施の形態に係る顔識別システムを構成するロボットの動作中の工程を示すフローチャート、図7は、本実施の形態に係る顔識別システムを構成するロボットの登録モードがONになった場合のフローチャート、図8は、本実施の形態に係る顔識別システムを構成するコントローラが、ロボットの参照顔データ記憶部の更新処理を行う際の動作を示すフローチャート、図9は、コントローラが、ロボットから受けた顔画像データをデータベースに登録する際の動作を示すフローチャートである。
【0066】
(ロボットの動作)
ロボット12は、図6に示すように、ロボット12の駆動を開始してから(ステップS1)、ロボット12の駆動を停止するまで(ステップS15)、次に説明するデータの送受信、参照顔データ記憶部19(図2参照)への個人顔データ等の登録、対象人物の撮像、撮像した対象人物の顔の識別、コントローラ13(図1参照)への新規の顔画像データの送信等を繰り返している。
【0067】
このようなロボット12の一連の動作を適宜に図1及び図2を参照しながら説明する。ロボット12は、コントローラ13に向けて、ジャイロ17(図1参照)が出力した位置情報や光センサ16(図1参照)が出力した明るさ情報を送信するとともに、コントローラ13からの個人顔データや顔画像データの登録要求を受信している(ステップS2)。これらのデータの送受信は、ロボット12及びコントローラ13の送受信部12a,13aを介して行われる。なお、ロボット12が受信する個人顔データは、その個人顔データを受信した時間帯に、ロボット12が存在しているエリアにいると推定される人物の個人顔データに限定されている。
【0068】
ここで、ロボット12が、個人顔データ、その個人ID及び固有ベクトル(図6中、「個人顔データ等」と表現する)を受信すると(ステップS3,Yes)、参照顔データ記憶部19(図2参照)は、これら個人顔データ、個人ID及び固有ベクトルを参照顔データ記憶部19に登録する(ステップS4)。そして、ロボット12の送受信部12aが、これら個人顔データ、個人ID及び固有ベクトルを受信しなかった場合(ステップS3,No)には、後記する登録モードに係るステップS5を経て、ステップS6に移行する。このステップS6では、ロボット12のカメラCR,CL(図2参照)が、対象人物を撮像する。そして、移動体抽出部18a(図2参照)は、カメラCR,CLが撮像した画像を取得して、この画像から移動体(対象人物)を抽出する(ステップS7)。
【0069】
移動体の抽出は、次のようにして行われる。まず、左右のカメラCR,CLで同時刻に撮像された左右の画像の視差に基づいて、視差の大きさ(視差量)を距離の情報として各画素ごとに埋め込んだ距離画像を生成する。また、一方のカメラ(例えばCR)を基準として、時刻の異なる画像を入力し、その差分によって、撮像画像の中から動きのある領域を抽出した差分画像を生成する。そして、これら距離画像及び差分画像から、最も動き量の多い視差(距離)を特定し、その距離を人物が存在する対象距離とする。さらに、対象距離の前後の所定範囲の距離に対応する画素を距離画像から抽出した対象距離画像を生成する。この対象距離画像で、画素が存在する領域を対象領域としてSNAKESを用い、輪郭を抽出することで、移動体が抽出される。
【0070】
次に、撮像画像中で移動体として抽出された対象人物の撮像画像部分に基づいて、顔検出部18b(図2参照)は、顔の撮像画像部分を検出する(ステップS8)。この顔の検出は、カメラCR,CLで撮像された撮像画像から肌色領域を抽出し、移動体抽出部18aで抽出された対象人物の頭部に相当する肌色領域を覆う領域を検出することによって行われる。そして、顔検出部18bは、顔の撮像画像の正規化処理をも行う。この正規化した顔の撮像画像のデータ、つまり顔画像データは、個人顔データ生成部18c(図2参照)に送信される。
【0071】
この顔画像データを受け取った個人顔データ生成部18cは、参照顔データ記憶部19に格納された固有ベクトルを参照するとともに、顔画像データをベクトルで表したものと、各固有ベクトルとの内積を求めることによって、個人顔データを生成する(ステップS9)。
【0072】
生成された個人顔データは、顔識別部21(図2参照)に送信される。顔識別部21は、この個人顔データを受信したことによって、前記参照顔データ記憶部19を参照する(ステップS10)。そして、顔識別部21は、参照顔データ記憶部19から読み出された個人顔データと、個人顔データ生成部18cで生成された個人顔データとを対比することによって、カメラCR,CLで撮像した対象人物の顔を識別する(ステップS11)。
【0073】
ここで、顔識別部21が、個人顔データ生成部18cで生成された個人顔データに該当する個人顔データを参照顔データ記憶部19に見出した場合、すなわち顔を識別できた場合(ステップS12,Yes)には、個人顔データと関連付けられた個人IDを参照することによって、その個人IDに対応する図示しないサブルーチン、例えば、その対象人物に応じた挨拶や案内を実行する。そして、このサブルーチンが終了すると、後記するカウンタステップS16のfを初期化(f=0)し(ステップS13)、その後、ロボット12の駆動を停止しない場合(ステップS14,No)には、工程がステップS2に戻る。そして、ロボット12の駆動を停止させる場合(ステップS14,Yes)には、ロボット12の駆動を停止させることによって(ステップS15)、このロボット12の動作工程が終了する。
【0074】
その一方で、顔識別部21が、顔を識別することができなかった場合(ステップS12,No)には、この顔識別部21に配設されたカウンタによるカウンタステップS16,S17が実行され、f≦10の場合(ステップS17,No)には、ステップS2乃至ステップS12が繰り返される。そして、f>10になると(ステップS17,Yes)、この顔識別システム11の登録モードがONになる(ステップS18)。
【0075】
なお、このロボット12の動作工程で、カウンタステップS16,S17を設定しているのは、顔識別部21が対象人物の顔を識別することができなかった理由として、対象人物の個人顔データが、参照顔データ記憶部19に登録されていない場合に加えて、対象人物の顔の撮像(ステップS6)が適正に実行されていない場合が考えられるので、ステップS6が、適正な対象人物の撮像であったかを確認するためである。また、本実施の形態では、ステップS17をf>10に設定しているが、このfの下限値は、10に限定されず、適宜に選択することができる。
【0076】
次に、前記したステップS5について説明する。ロボット12の送受信部12aが、コントローラ13のロボット駆動制御装置15(図1参照)から送信された顔画像データの登録要求を受信し、そして、この登録要求を顔データ登録部22(図2)が受け取ることによって、この顔識別システム11の登録モードがONになるか、あるいは前記したステップS18で、この顔識別システム11の登録モードがONになると(ステップS5,Yes)、図7に示すように、後記するカウンタステップ(ステップS27,S28)のnを、顔データ登録部22が、初期化(n=0)するとともに、顔データ登録部22のタイマ(クロック機能)を初期化(t=0)する(ステップS20)。そして、タイマは初期化されると同時にスタートする。このステップS21に続いて、前記したステップS6乃至ステップS8と同様の、対象人物の撮像(ステップS21)、移動体抽出(ステップS22)及び顔検出(ステップS23)が実行される。
【0077】
次に、ステップS23によって、移動体抽出部18aから出力されたデータを、顔検出部18bが受け取ると、この顔検出部18bは、移動体輪郭内の肌色領域を検出することによって、対象人物を見失っていないか、つまり対象人物の顔を検出することができたか否かを判断する(ステップS24)。そして、顔検出部18bが、対象人物の顔を検出することができたと判断すると(ステップS24,Yes)、この顔検出部18bは、検出した顔領域内から顔特徴点を抽出し、位置合わせを行うことで正規化顔画像を得る。顔特徴点を抽出できたか否かによって、登録用画像として使用できるか否かを判断する(ステップS25)。
【0078】
顔検出部18bが、顔画像データを登録画像として使用できると判断した場合には(ステップ25,Yes)、その登録用画像を顔データ登録部22は、顔検出部18bから受け取り、それをメモリに蓄積する(ステップS26)。そして、顔データ登録部22のカウンタ機能によって、カウンタステップS27,S28を経た後、蓄積枚数nが30枚になったとき、あるいは、顔データ登録部22のタイマが15秒を経過(t>15s)したときに(ステップS28,Yes)、顔データ登録部22は、メモリに蓄積した顔画像データの全てを送受信部12aを介してコントローラ13に送信する(ステップS29)。次いで、顔データ登録部22が、登録モードを解除(OFF)にした(ステップS30)後に、このロボット12の動作は、ステップS2に戻る。
【0079】
一方、前記ステップS24で、顔検出部18bが、対象人物の顔を検出することができなかった場合(ステップS24,No)には、顔データ登録部22が、登録モードを解除(OFF)にした(ステップS30)後に、このロボット12の動作は、ステップS2に戻る。
【0080】
また、ステップS25で、顔検出部18bが、顔特徴点の抽出に失敗した、すなわち取得した顔画像データが登録用画像として使用できないと判断した場合には(ステップS25,No)、クロックの初期化時(ステップS20)から15秒を超えた時点(t>15s)で(ステップS31,Yes)、顔データ登録部22が、登録モードを解除(OFF)にした(ステップS30)後に、このロボット12の動作は、ステップS2に戻る。
【0081】
そして、ステップS14で、ロボット12の駆動を停止する場合(ステップS14,Yes)には、ロボット12の駆動を停止させることによって(ステップS15)、このロボット12の動作工程が終了する。
【0082】
(コントローラの動作)
図8に示すように、まず、コントローラ13の送受信部13aが、ジャイロ17(図1参照)が出力したロボット12の位置情報や光センサ16(図1参照)が出力した明るさ情報を受信すると(ステップS40)、コントローラ13のロボット位置推定部26(図3参照)は、地図情報データベース25から読み出した地図情報と、受け取った位置情報とを照合することによって、エリア内におけるロボット12の位置を推定する(ステップS41)。
【0083】
次に、エリア切り替わり判断部27は、ロボット位置推定部26が推定したロボット12の位置を参照することによって、ロボット12のいるエリアが切り替わったか否かを判断し(ステップS42)、明るさ判断部29は、ロボット12の光センサ16(図1参照)が出力した明るさ情報に基づいて、ロボット12がいるエリアの明るさが変化した否かを判断し(ステップS43)、時間帯変化判断部28は、予め設定された時間帯が変化したか否かを判断し(ステップS44)、天候判断部31は、ネットワーク31aから天候情報を受信することによって(ステップS45)、天候が変化したか否かを判断する(ステップS46)。その結果、ロボット12のいるエリアが切り替わっておらず(ステップS42,No)、ロボット12がいるエリアの明るさが変化しておらず(ステップS43,No)、時間帯が変化しておらず(ステップS44,No)、且つ天候が変化していない(ステップS46,No)場合には、人的抽出条件出力部32及び光学的抽出条件出力部33(図3参照)は、人的抽出条件及び光学的抽出条件のいずれをも出力しない。したがって、ロボット12の参照顔データ記憶部19の顔画像データが更新されずに、このコントローラ13の動作工程は終了する。
【0084】
一方、ロボット12のいるエリアが切り替わるか(ステップS42,Yes)、ロボット12がいるエリアの明るさが変化するか(ステップS43,Yes)、時間帯が変化するか(ステップS44,Yes)、天候が変化するか(ステップS46,Yes)のいずれかの場合には、人的抽出条件出力部32及び光学的抽出条件出力部33から人的抽出条件及び光学的抽出条件が出力されるか、あるいは、少なくとも光学的抽出条件が出力される。そして、人的抽出条件及び光学的抽出条件の少なくともいずれかを、顔認識条件読出部34が受け取ることによって、顔認識条件データベース14aから顔認識条件が読み出される(ステップS47)。ここでは、人的抽出条件出力部32及び光学的抽出条件出力部33から人的抽出条件及び光学的抽出条件が出力された場合を想定して説明を続ける。
【0085】
顔認識条件読出部34が、例えば人的抽出条件(エリア=a、時間帯=A)及び光学的抽出条件(エリア=a、明るさ=X)を受け取った場合に、顔認識条件読出部34は、顔データ生成用データベース14aの図5(a)に示されるようなテーブルを参照する。そして、顔認識条件読出部34は、人的抽出条件(エリア=a、時間帯=A)に基づいて、人的抽出条件に対応する顔認識条件として、ID3、ID5及びID15で示される個人IDを取得する。これら個人IDで特定される人物が、時間帯Aにおいてエリアaにいると推定される人物となる。次いで、顔認識条件読出部34は、顔データ生成用データベース14aの図5(b)に示されるようなテーブルを参照する。そして、顔認識条件読出部34は、光学的抽出条件(エリア=a、明るさ=X)に基づいて、明るさXのエリアaの輝度の補正値(+5)を、光学的抽出条件に対応する顔認識条件として取得する。
また、顔認識条件読出部34は、光学的抽出条件(エリア=a、明るさ=X)に基づいて、顔データ生成用データベース14aから肌色閾値を読み出すとともに、この肌色閾値を、コントローラ13の顔データ生成部18に出力する。出力された肌色閾値は、顔検出部18bで顔の撮像画像部分の正規化処理を行う際に使用される。したがって、ロボットがいる位置の明るさに応じた適切な肌色閾値を利用して、対象人物の顔を検出することができる。
【0086】
次に、人的抽出条件に対応する顔認識条件が顔画像データ読出部35(図4参照)に出力されると、この顔画像データ読出部35は、ID3、ID5及びID15に関連付けされた顔画像データを顔画像データベース14bから読み出す(ステップS48)。
【0087】
その一方で、顔画像データ補正部36(図4参照)は、顔認識条件読出部34(図4参照)から前記輝度の補正値(+5)を取得するとともに、顔画像データ読出部35から前記ID3、ID5及びID15に関連付けされた顔画像データを受け取る。そして、顔画像データ補正部36は、これらの顔画像データを補正値(+5)で補正する(ステップS49)。このように補正された顔画像データは、ロボット12のカメラCR,CLが撮像した際の明るさで得られた画像と同等に補正されている。
【0088】
このように補正された顔画像データが、顔画像データ補正部36から個人顔データ生成部38(図4参照)に出力されると、個人顔データ生成部38は、顔画像データベース14bから固有ベクトルを読み出すとともに、前記ステップS9と同様にして、個人顔データを生成する(ステップS50)。そして、この個人顔データ及び固有ベクトルが、送受信部13aを介してロボット12に送信されて(ステップS51(図6中、ステップS6参照))、コントローラ13のロボット12への個人顔データの送信工程は終了する。
【0089】
次に、コントローラ13が、ロボット12から送信された顔画像データの登録処理をする工程を説明する。図9に示すように、ロボット12の顔データ登録部22(図2参照)が送受信部12aを介して、顔画像データを出力すると(図7、ステップS29参照)、コントローラ13の送受信部13aは、図9に示すように、この顔画像データを受信するとともに(ステップS55)、この顔画像データを登録顔画像データ標準化部39(図4参照)に出力する。そして、登録顔画像データ標準化部39は、前記した顔認識条件読出部34の顔認識条件を参照することによって(ステップS56)、顔画像データを標準化する(ステップS57)。このとき、登録顔画像データ標準化部39は、前記顔画像データ補正部36(図4参照)とは逆の操作を行うことによって、新規に登録する顔画像データを標準化する。そして、登録顔画像データ標準化部39が、標準化した顔画像データに個人IDを付与するとともに、この顔画像データをデータベース14に登録することによって(ステップS58)、このコントローラ13の顔画像データの登録処理動作は終了する。
【0090】
このような本実施の形態に係る顔識別システム11では、ロボット12が存在するエリアにいると推定される人物の個人顔データと、対照人物の個人顔データとを比較することによって、ロボット12が対照人物の顔を識別するので、当該エリアに存在する確率の低い人物の個人顔データは、参照顔データ記憶部19には登録されない。したがって、この顔識別システム11によれば、ロボット12は、より高い識別率で対照人物の顔を識別することができる。また、この顔識別システム11によれば、参照顔データ記憶部19に登録される個人顔データの量が低減されるので、ロボット12による顔の識別速度を高めることができる。
【0091】
また、この顔識別システム11によれば、ロボット12が、ジャイロ17によって、自身の位置を検出することができるので、エリアの切り替わりを的確に推定することができる。したがって、この顔識別システム11によれば、ロボット12自身が、そのエリアに存在すると推定される人物の個人顔データをコントローラ13に要求することができる。
【0092】
また、この顔識別システム11によれば、前記ロボット12が存在するエリアにいる人物が、時間帯の変化とエリアの切り替わりが判断されることによって推定される。したがって、当該エリアに存在する確率の低い人物の個人顔データは、参照顔データ記憶部19にはさらに確実に登録されない。したがって、この顔識別システム11によれば、ロボット12は、より一層高い識別率で対照人物の顔を識別することができる。また、この顔識別システム11によれば、参照顔データ記憶部19に登録される個人顔データの量がさらに低減されるので、ロボット12による顔の識別速度をより高めることができる。
【0093】
この顔識別システム11では、ロボット12のいる位置の明るさに基づいて、顔画像データベース14bから抽出した顔画像データを補正して個人顔データを生成するので、この個人顔データは、ロボット12のカメラCR,CLが撮像した際の明るさで得られた顔画像データから生成した個人顔データと同等に補正されている。したがって、この顔識別システム11によれば、ロボット12による顔の識別率は、一層高められる。
【0094】
この顔識別システム11では、光センサ16によって、ロボット12が存在する位置の明るさ情報が得られ、そして、この明るさ情報に基づいて、参照顔データが生成されるので、ロボット12が存在する位置の明るさは、より的確に推測される。したがって、この顔識別システム11によれば、ロボット12による顔の識別率は、より一層高められる。
【0095】
また、この顔識別システム11では、ロボット12が存在する位置の明るさ情報を、ロボット12が存在するエリアや、時間帯及び天候によって、推定することができる。
【0096】
また、この顔識別システム11によれば、天候判断部31が、ネットワーク31aに接続されているので、季節の変動による明るさの変化をも把握することができるようになる。
【0097】
また、この顔識別システム11では、時間帯の変化とエリアの切り替わりによって、エリアに存在する人物のスケジュールをロボット12に把握させることができる。したがって、この顔識別システム11によれば、訪れる顧客の面会予定に合わせて、参照顔データ記憶部19に登録されている個人顔データを更新すれば、当該顧客の対応にロボット12を使用することができる。
【0098】
以上、本発明の顔識別システム11を本実施の形態に基づいて具体的に説明したが、本発明は、これらの実施の形態に何ら制限されるものではない。
【0099】
本実施の形態に係る顔識別システム11では、ロボット12の参照顔データ記憶部19における個人顔データの更新及び顔画像データベース14bへの新規の顔画像データの登録を、自動的に行うように構成したが、本発明はこれに限定されることなく、これらの更新工程及び登録工程の一部を手動で行うように構成してもよい。
【0100】
例えば、本実施の形態に係る顔識別システム11では、顔データ抽出条件設定部23が、人的抽出条件及び光学的抽出条件を、自動的にサーバ24の顔認識条件読出部34に送信するように構成しているが、本発明はこれに限定されることなく、ロボット12に随伴するオペレータが、エリアの切り替わりや時間帯の変化を判断して、そのエリア及び時間帯を、例えばGUI回路を介して、顔認識条件読出部34に入力するように構成してもよい。
【0101】
また、本実施の形態に係る顔識別システム11では、新規に顔画像データを登録するにあたって、ロボット12が参照顔データ記憶部19を参照することによって、対象人物の顔画像データを登録するか否かを判断するように構成されているが、本発明は、これに限定されることなく、ロボット12に随伴するオペレータが、対象人物の顔を登録するか否かを判断するようにしてもよい。
【0102】
また、本実施の形態に係る顔識別システム11では、顔データ登録部22が、対象人物の顔の撮像画像が、顔の識別に使用することができるものか否かを判断するように構成されているが、本発明は、これに限定されるものではなく、オペレータが目視でこれを判断するようにしてもよい。
【0103】
また、本実施の形態に係る顔識別システム11では、サーバ24を構成する個人顔データ生成部38で個人顔データを生成する際に、顔画像データベースに予め格納された固有ベクトルを使用しているが、本発明はこれに限定されるものではない。例えば、顔画像データベース14bから読み出された、ロボット12が参照するべき人物の顔画像データ郡について、顔画像データの主成分分析を行うことによって固有ベクトルを算出する固有ベクトル生成部をサーバ24に配設するとともに、この固有ベクトル生成部から個人顔データ生成部38に固有ベクトルを供給するように、本発明の顔識別システムは構成されていてもよい。
【0104】
また、本実施の形態では、ネットワーク31aとして、インターネットを例示したが、ネットワーク31aは、LANやWANであってもよい。
【0105】
また、本実施の形態では、ロボット12から送信された顔画像データを標準化するとともに、これを個人IDやこの顔画像データが取得された場所(エリア)や時間をデータベース14に登録するように構成しているが、さらに、この顔画像データの対象人物を当該エリアで見かけた回数といった、この対象人物に係る履歴を、データベース14に登録するように、本発明の顔識別システムは構成されていてもよい。このような顔識別システムによれば、この履歴に基づいて、ロボット12に挨拶や応対をさせることができる。
【0106】
【発明の効果】
本発明の顔識別システムによれば、顔の識別率をより向上させることができる。
【図面の簡単な説明】
【図1】本実施の形態に係る顔識別システムのブロック図である。
【図2】図1の顔識別システムを構成するロボットの参照顔データ記憶部、顔データ生成部、顔識別部及び顔データ登録部の関係を示すブロック図である。
【図3】図1の顔識別システムを構成するコントローラの顔データ抽出条件設定部のブロック図である。
【図4】図1の顔識別システムを構成するデータベース及びサーバの関係を示すブロック図である。
【図5】図5(a)は、図1の顔識別システムを構成する顔認識条件データベースに登録される人的抽出条件に対応する顔認識条件(テーブル)の説明図、図5(b)は、図1の顔識別システムを構成する顔認識条件データベースに登録される光学的抽出条件に対応する顔認識条件(テーブル)の説明図である。
【図6】本実施の形態に係る顔識別システムを構成するロボットの動作中の工程を示すフローチャートである。
【図7】本実施の形態に係る顔識別システムを構成するロボットの登録モードがONになった場合のフローチャートである。
【図8】本実施の形態に係る顔識別システムを構成するコントローラが、ロボットの参照顔データ記憶部の更新処理を行う際の動作を示すフローチャートである。
【図9】本実施の形態に係る顔識別システムを構成するコントローラが、ロボットから受けた顔画像データをデータベースに登録する際の動作を示すフローチャートである。
【符号の説明】
11 顔識別システム
12 ロボット
13 コントローラ
14 データベース
16 光センサ
17 ジャイロ(位置情報出力部)
18 顔データ生成部
19 参照顔データ記憶部
21 顔識別部

Claims (6)

  1. 対象人物を撮像し、前記対象人物の顔データを生成する顔データ生成部、参照顔データを登録する参照顔データ記憶部、及び前記顔データと前記参照顔データとを比較することにより、前記対象人物の顔を識別する顔識別部を有し、複数のエリアを移動可能なロボットと、
    複数の人物の顔データを登録するデータベースと、
    前記ロボットが存在するエリアにいると推定される人物の顔データを前記データベースから抽出し、この抽出された顔データを参照顔データとして前記ロボットに送信するコントローラとを備えることを特徴とする顔識別システム。
  2. 前記ロボットは、自身の位置を検出するとともに、その検出された位置情報を前記コントローラに出力する位置情報出力部をさらに備え、
    前記コントローラは、前記位置情報出力部から入力された位置情報に基づいて、前記ロボットが存在する位置を認識することを特徴とする請求項1に記載の顔識別システム。
  3. 前記コントローラは、予め設定された時間帯の切り替わりに基づいて、前記ロボットが存在するエリアにいる人物を推定することを特徴とする請求項1又は請求項2に記載の顔識別システム。
  4. 前記コントローラは、予め設定された時間帯の切り替わりに基づいて、前記ロボットのいる位置の明るさを推定し、その推定された明るさ情報に基づいて、前記データベースから抽出した顔データを補正して参照顔データを生成することを特徴とする請求項3に記載の顔識別システム。
  5. 前記ロボットは、自身が存在する位置の明るさを検出するとともに、その検出された明るさ情報を前記コントローラに出力する光センサをさらに備え、
    前記コントローラは、前記光センサから出力された明るさ情報に基づいて、前記データベースから抽出した顔データを補正して参照顔データを生成することを特徴とする請求項1から請求項4のいずれか一項に記載の顔識別システム。
  6. 前記データベースは、明るさに応じた肌色閾値が登録されているとともに、前記コントローラは、前記ロボットのいる位置の明るさに応じた前記肌色閾値を前記データベースから抽出して、前記ロボットに出力することを特徴とする請求項4又は請求項5に記載の顔識別システム。
JP2003129613A 2003-04-01 2003-04-01 顔識別システム Expired - Fee Related JP4247041B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2003129613A JP4247041B2 (ja) 2003-04-01 2003-04-01 顔識別システム
US10/808,520 US7014102B2 (en) 2003-04-01 2004-03-25 Face identification system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003129613A JP4247041B2 (ja) 2003-04-01 2003-04-01 顔識別システム

Publications (2)

Publication Number Publication Date
JP2004310702A true JP2004310702A (ja) 2004-11-04
JP4247041B2 JP4247041B2 (ja) 2009-04-02

Family

ID=33095355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003129613A Expired - Fee Related JP4247041B2 (ja) 2003-04-01 2003-04-01 顔識別システム

Country Status (2)

Country Link
US (1) US7014102B2 (ja)
JP (1) JP4247041B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007160440A (ja) * 2005-12-12 2007-06-28 Honda Motor Co Ltd 脚式移動ロボットの制御装置
JP2007249427A (ja) * 2006-03-14 2007-09-27 Honda Motor Co Ltd 情報管理システム
JP2007274207A (ja) * 2006-03-30 2007-10-18 Fujifilm Corp 画像表示装置、撮像装置および画像表示方法
JP2007276080A (ja) * 2006-04-11 2007-10-25 Toyota Motor Corp 案内ロボット
CN108242007A (zh) * 2016-12-26 2018-07-03 纳恩博(北京)科技有限公司 服务提供方法及装置
CN109949449A (zh) * 2019-01-28 2019-06-28 平安科技(深圳)有限公司 基于人脸识别的识别访客身份方法、装置、计算机设备

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3733075B2 (ja) * 2002-02-07 2006-01-11 株式会社国際電気通信基礎技術研究所 インタラクション・メディアシステム
US8989453B2 (en) * 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
CN100458817C (zh) * 2005-07-21 2009-02-04 欧姆龙株式会社 监视装置
JP2007052770A (ja) * 2005-07-21 2007-03-01 Omron Corp 監視装置
KR20070077528A (ko) * 2006-01-24 2007-07-27 삼성전자주식회사 이동 단말의 키패드 백 라이트 제어 장치 및 방법
JP4898475B2 (ja) * 2007-02-05 2012-03-14 富士フイルム株式会社 撮影制御装置、撮影装置、及び撮影制御方法
US7896113B1 (en) * 2007-05-12 2011-03-01 Fernando Ramirez Police robotic system
KR101469246B1 (ko) * 2007-08-07 2014-12-12 삼성전자주식회사 로봇에서 사진 촬영하는 장치 및 방법
US8026955B2 (en) * 2007-08-30 2011-09-27 Honda Motor Co., Ltd. Camera exposure controller including imaging devices for capturing an image using stereo-imaging
US8406505B2 (en) * 2007-08-30 2013-03-26 Honda Motor Co., Ltd. Image brightness reduction for legged mobile robot
US20090146908A1 (en) * 2007-12-07 2009-06-11 Research In Motion Limited System and method for event-dependent state activation for a mobile communication device
WO2009078815A1 (en) * 2007-12-14 2009-06-25 Nanyang Technological University A nanostructured material loaded with noble metal particles
US8855360B2 (en) * 2008-07-23 2014-10-07 Qualcomm Technologies, Inc. System and method for face tracking
US9294755B2 (en) 2010-10-20 2016-03-22 Raytheon Company Correcting frame-to-frame image changes due to motion for three dimensional (3-D) persistent observations
US8923401B2 (en) * 2011-05-31 2014-12-30 Raytheon Company Hybrid motion image compression
US8761933B2 (en) * 2011-08-02 2014-06-24 Microsoft Corporation Finding a called party
CN102609695A (zh) * 2012-02-14 2012-07-25 上海博物馆 一种多角度人脸识别方法及系统
CN102622579B (zh) * 2012-02-20 2014-03-19 华焦宝 人脸预警方法及系统
CN102622580A (zh) * 2012-02-20 2012-08-01 华焦宝 一种人脸检测识别方法及系统
US9230333B2 (en) 2012-02-22 2016-01-05 Raytheon Company Method and apparatus for image processing
US8965046B2 (en) 2012-03-16 2015-02-24 Qualcomm Technologies, Inc. Method, apparatus, and manufacture for smiling face detection
JP5959923B2 (ja) * 2012-04-26 2016-08-02 キヤノン株式会社 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
US10198758B2 (en) 2014-03-28 2019-02-05 Ecovacs Robotics, Inc. Guide robot for shopping guiding system and method
US9639742B2 (en) 2014-04-28 2017-05-02 Microsoft Technology Licensing, Llc Creation of representative content based on facial analysis
US10013620B1 (en) * 2015-01-13 2018-07-03 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for compressing image data that is representative of a series of digital images
US9243741B1 (en) * 2015-04-20 2016-01-26 Intellectual Fortress, LLC Telescoping monopod apparatus for holding photographic instrument
US10341565B2 (en) 2016-05-10 2019-07-02 Raytheon Company Self correcting adaptive low light optical payload
US11321951B1 (en) 2017-01-19 2022-05-03 State Farm Mutual Automobile Insurance Company Apparatuses, systems and methods for integrating vehicle operator gesture detection within geographic maps
CN110032982B (zh) * 2019-04-22 2021-05-25 广东博智林机器人有限公司 机器人引路方法、装置、机器人和存储介质
CN111347438A (zh) * 2020-02-24 2020-06-30 五邑大学 一种学习式机器人及基于其的学习矫正方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5012522A (en) * 1988-12-08 1991-04-30 The United States Of America As Represented By The Secretary Of The Air Force Autonomous face recognition machine
JP3886660B2 (ja) 1999-03-11 2007-02-28 株式会社東芝 人物認識装置における登録装置及びその方法
JP4143305B2 (ja) * 2001-01-30 2008-09-03 日本電気株式会社 ロボット装置、照合環境判定方法、及び照合環境判定プログラム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007160440A (ja) * 2005-12-12 2007-06-28 Honda Motor Co Ltd 脚式移動ロボットの制御装置
JP2007249427A (ja) * 2006-03-14 2007-09-27 Honda Motor Co Ltd 情報管理システム
US10554894B2 (en) 2006-03-30 2020-02-04 Fujifilm Corporation Image display apparatus, image-taking apparatus and image display method
JP2007274207A (ja) * 2006-03-30 2007-10-18 Fujifilm Corp 画像表示装置、撮像装置および画像表示方法
JP4507281B2 (ja) * 2006-03-30 2010-07-21 富士フイルム株式会社 画像表示装置、撮像装置および画像表示方法
US11678049B2 (en) 2006-03-30 2023-06-13 Fujifilm Corporation Image display apparatus, image-taking apparatus and image display method
US8704856B2 (en) 2006-03-30 2014-04-22 Fujifilm Corporation Image display apparatus, image-taking apparatus and image display method
US9736379B2 (en) 2006-03-30 2017-08-15 Fujifilm Corporation Image display apparatus, image-taking apparatus and image display method
US11196933B2 (en) 2006-03-30 2021-12-07 Fujifilm Corportation Image display apparatus, image-taking apparatus and image display method
US10841499B2 (en) 2006-03-30 2020-11-17 Fujifilm Corporation Image display apparatus, image-taking apparatus and image display method
JP2007276080A (ja) * 2006-04-11 2007-10-25 Toyota Motor Corp 案内ロボット
JP4539600B2 (ja) * 2006-04-11 2010-09-08 トヨタ自動車株式会社 案内ロボット
CN108242007A (zh) * 2016-12-26 2018-07-03 纳恩博(北京)科技有限公司 服务提供方法及装置
CN109949449A (zh) * 2019-01-28 2019-06-28 平安科技(深圳)有限公司 基于人脸识别的识别访客身份方法、装置、计算机设备
CN109949449B (zh) * 2019-01-28 2022-10-25 平安科技(深圳)有限公司 基于人脸识别的识别访客身份方法、装置、计算机设备

Also Published As

Publication number Publication date
US7014102B2 (en) 2006-03-21
JP4247041B2 (ja) 2009-04-02
US20040197014A1 (en) 2004-10-07

Similar Documents

Publication Publication Date Title
JP4247041B2 (ja) 顔識別システム
CN107958258B (zh) 用于追踪限定区域中的对象的方法和系统
CN111862296B (zh) 三维重建方法及装置、系统、模型训练方法、存储介质
JP6377796B1 (ja) エレベータの乗車検知システム
KR101337060B1 (ko) 화상 처리 장치 및 화상 처리 방법
KR101280920B1 (ko) 화상인식장치 및 방법
CN101281595B (zh) 用于面部确认的装置和方法
JP4476744B2 (ja) 撮像システム、及びプログラム
JP2009087232A (ja) 人物認証装置および人物認証方法
JP3580129B2 (ja) 本人識別装置
KR20150021526A (ko) 데이터베이스 생성 및 업데이트를 위한 심도 기반 추적을 이용하는 자기 학습 얼굴 인식 기법
JP2013508874A (ja) 移動ロボットの位置認識のための地図生成および更新方法
CN108734083A (zh) 智能设备的控制方法、装置、设备和存储介质
JP2019049786A (ja) 人識別システム及び人識別方法
CN108337429A (zh) 图像处理设备和图像处理方法
JP2007264860A (ja) 顔領域抽出装置
US11995914B2 (en) Fast face image capture system
JP4339762B2 (ja) 認証システム、及びプログラム
JP2007148988A (ja) 顔認証装置、顔認証方法および入退場管理装置
EP3819812B1 (en) A method of object re-identification
KR101850835B1 (ko) 광선추적법을 이용한 이동 로봇의 실내 위치 추정방법
JPWO2020065852A1 (ja) 認証システム、認証方法、及び、プログラム
JP2007300185A (ja) 画像監視装置
JP2013101551A (ja) 顔画像認証装置
JP6206405B2 (ja) 情報処理装置、情報処理方法、プログラムおよび監視カメラシステム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090106

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090109

R150 Certificate of patent or registration of utility model

Ref document number: 4247041

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140116

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees