JP2004046399A - Face recognition device and method - Google Patents

Face recognition device and method Download PDF

Info

Publication number
JP2004046399A
JP2004046399A JP2002200951A JP2002200951A JP2004046399A JP 2004046399 A JP2004046399 A JP 2004046399A JP 2002200951 A JP2002200951 A JP 2002200951A JP 2002200951 A JP2002200951 A JP 2002200951A JP 2004046399 A JP2004046399 A JP 2004046399A
Authority
JP
Japan
Prior art keywords
human body
camera
face
image data
face recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002200951A
Other languages
Japanese (ja)
Inventor
Yoshihiro Furuyui
古結 義浩
Keiichiro Osada
長田 啓一郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Heavy Industries Ltd
Original Assignee
Mitsubishi Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Heavy Industries Ltd filed Critical Mitsubishi Heavy Industries Ltd
Priority to JP2002200951A priority Critical patent/JP2004046399A/en
Publication of JP2004046399A publication Critical patent/JP2004046399A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To acquire a front image of a face with high possibility in face recognition. <P>SOLUTION: A human body front detection part 32 executes matching processing on image data captured by a camera 17 to detect the human body front, a movement control part 33 then controls a camera moving part 31 to direct the camera 17 to the human body front, and in this state the camera 17 continuously captures image data, from which a face recognition processing part 34 recognizes the face. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は顔を認識する装置及び方法に関する。
【0002】
【従来の技術】
顔認識処理においては、人間の顔を正面から撮影した顔画像を用いないと、認識精度が著しく低下する。そのため、従来技術として、特開2001−243466号公報に開示された「顔方向を検出してその方向に向けてカメラを移動することで顔の正面画像を取得する」技術が知られている。
【0003】
【発明が解決しようとする課題】
しかし、人間の頭部は胴体に比べて首の回動で左右に動いている可能性が高いため、カメラの方向をリアルタイムに変えて顔方向に常に追従させる必要がある。従って、上記の従来技術を移動ロボットなど、カメラを迅速に移動できない機器に適用した場合、結局正面の顔画像を得にくくなるという問題が生じる。
【0004】
本発明の課題は、上記従来技術に鑑み、移動ロボットなど、カメラを迅速に移動できない機器でも、顔の正面画像を取得することが可能な技術を提供することである。
【0005】
【課題を解決するための手段】
第1発明は、カメラで取得した画像データから顔を認識する顔認識装置であり、前記カメラの位置または方位の少なくとも一方を移動させるカメラ移動手段と、前記画像データから人体の正面方向を検出する人体正面方向検出手段と、この人体正面方向検出手段が検出した人体正面方向にカメラが向くように前記カメラ移動手段を制御する移動制御手段と、カメラが連続して取得した画像データから顔を認識する顔認識処理手段とを備えることを特徴とする。
【0006】
第2発明は、第1発明において、前記人体正面方向検出手段として、
3次元の人体モデルから作成された、回転角が異なる複数の2次元射影画像シルエットを格納するデータベースと、前記画像データから人体のシルエットを抽出する人体シルエット抽出手段と、人体シルエット抽出手段で抽出された人体のシルエットと前記データベースに格納された複数の2次元射影画像シルエットとのマッチング処理を行うマッチング処理手段と、マッチング処理手段の処理結果から得られる前記抽出された人体シルエットに最もマッチングする2次元射影画像シルエットの回転角から、人体の正面方向を推定する人体正面方向推定手段とを備えることを特徴とする顔認識装置である。
【0007】
第3発明は、第2発明において、前記人体シルエット抽出手段は、前記画像データから背景画像との差分により、または、エッジ検出により人体のシルエットを抽出することを特徴とする顔認識装置である。
【0008】
第4発明は、第2発明において、前記データベースには、回転角が同じで姿勢が異なる2次元射影画像シルエットが格納されていることを特徴とする顔認識装置である。
【0009】
第5発明は、カメラで取得した画像データから顔を認識する顔認識方法であり、前記画像データから人体の正面方向を検出し、検出した人体正面方向に向くように前記カメラを移動し、この状態で連続して画像データを取得し、これらの画像データから顔を認識することを特徴とする。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照しながら説明する。
【0011】
本実施の形態では、顔認識装置は移動ロボットに搭載されたものである。そこで、顔認識装置の説明に先立ち、本発明を適用する移動ロボットの一例を図3を参照して説明する。
【0012】
図3に示すロボット1は、ロボット本体11が頭部12と胸部13と胴部(台車部)14と左右の腕部15とを有する人間を模したものであり、頭部12と腕部15は図示しない駆動機構により回動可能であるとともに、胴部14に装備された左右の走行用車輪16は図示しない駆動機構により操舵及び走行可能であって、作業空間をバッテリ駆動により自律的に移動するように構成されている。このロボット1は、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でユーザの生活を補助・支援・介護するために用いられる。そのため、ロボット1は、内蔵のCPU(コンピュータ)及び各種のセンサにより、ユーザと会話したり、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。ロボット1の形状としては、愛玩用に動物を模したものなど、種々考えられる。
【0013】
詳細には、図3に示すロボット1はCPUを用いた図示しない制御部を持ち、頭部12に2つのカメラ17と2つのマイクロホン18が装着され、胸部13の中央部に音量・音源方向センサと焦電型赤外線センサからなる人検知センサ19、左右にスピーカ20aが装着されている。また、胸部13の中央部に画像ディスプレイ20aが装着され、胴部4に超音波式障害物センサ21やレーザ式障害物センサ22が装着されている。キーボード及びタッチセンサ等が装着されることもある。
【0014】
カメラ17はユーザや屋内を撮影してその画像を制御部に出力し、マイクロホン18はユーザの音声や電話のベル、呼び鈴、テレビの音などの生活音を取り込んで制御部に出力し、人検知センサ19はユーザの有無を検出して制御部に出力する。スピーカ20aはマイクロホン18とともにユーザとの会話に用いられ、画像ディスプレイ20bはユーザに対する情報提供に用いられる。キーボードやタッチセンサはユーザ用のデータ入力機器であり、ユーザの生活パターンデータを入力したり、ユーザの意思を入力するために用いられる。スピーカ20aはユーザに対する情報提供にも用いられる。制御部には、所定期間にわたるカレンダ及び現在の年月日及び時刻を計時するカレンダクロックが備えられている。
【0015】
制御部には、キーボード等のデータ入力機器と、カメラ17、マイクロホン18、人検知センサ19及び障害物センサ21等のユーザの生活パターンを常時モニタする外界センサと、カレンダクロックといった内界センサとにより、ロボット1の自己位置に関する情報と、ユーザの位置に関する情報と、ユーザの行動に関する情報とが入力される。
【0016】
制御部は、自己位置認識機能と、ユーザ認識機能と、データベース(データ蓄積部)と、生活パターンデータ処理機能と、駆動制御機能とを有している。
【0017】
自己位置認識機能は、カメラ17が撮影した画像情報に基づいてロボット1自身の位置及び方位(向き、姿勢)を認識する。ユーザ認識機能は、マイクロホン18で取り込んだ音声からユーザの発言内容の認識(音声認識)を行うとともに、カメラ17で撮影した画像情報とマイクロホン18で取り込んだ音声とからユーザ個人の認識を行い、また、カメラ17と人検知センサ19の検出結果からユーザの位置、向き、姿勢、活動量を認識する。
【0018】
データベースは、ユーザとの会話用やユーザへの話し掛け用の音声データ、ユーザとの会話時やユーザへの話し掛け時の身振り動作のデータ、ユーザの生活情報(ユーザの居住に関する部屋の間取りや家具の配置、ユーザ個人の日常の生活パターン、ユーザの趣味、健康状態など)を記憶している。ユーザの生活情報には、必要に応じて文字列や映像、音声などのキーワードが付される。生活パターンのデータとしては、起床、就寝、食事、薬服用、散歩、自由時間、入浴などの行動に関するイベントが上げられ、これらのイベントが時間データとともにタイムスケジュールとして記憶される。
【0019】
生活パターンデータ処理機能は、ユーザがデータ入力機器から直接入力した生活情報をキーワードを付してデータベースに蓄積したり、カメラ17やマイクロホン18、人検知センサ19で取得した音声認識結果などユーザの各種情報を処理することで一つ一つの生活情報にキーワードやその日時を付してデータベースに蓄積する。更に、生活パターンデータ処理機能は、ユーザからの指示や話し掛けに応じて、あるいは、時刻などに応じて、これに対応するデータをデータベースから選択し、選択したデータに応じた指令を動作制御部に与えて制御する。
【0020】
駆動制御機能は、生活パターンデータ処理機能からの指令に応じて、走行用車輪16を駆動してロボット1の走行及び操舵を実行するとともに、頭部12や腕部13を駆動してそれの回動を実行する。また、スピーカ20aや画像ディスプレイ20bを駆動してユーザとの会話を実行する。
【0021】
次に、図1、図2を参照して、本発明の実施例に係る画像認識装置及び方法を説明する。
【0022】
上述したロボット1は、図1に例示する顔認識装置を有しており、この顔認識装置は、カメラ17と、カメラ移動部31と、人体正面方向検出部32と、移動制御部33と、顔認識処理部34とを有している。また、人体正面方向検出部32は、データベース35と、人体シルエット抽出部36と、マッチング処理部37と、人体正面方向推定部38とで構成されている。
【0023】
カメラ17はロボット1の頭部12に搭載されている。カメラ移動部31は、カメラ17の位置または方位の少なくとも一方を移動させる手段であり、ロボット1の胴部14を走行・操舵する走行用車輪16及び頭部12を回動させる機構がこれに相当する。
【0024】
人体正面方向検出部32はカメラ17で取得した画像データから人体の正面方向を検出する手段であり、そのうち、
(1) データベース35には、3次元の人体モデルから回転角が異なる複数の2次元射影画像シルエットを予め作成し、これを格納している。また、データベース35には、回転角が同じでも姿勢が異なる2次元射影画像シルエットが格納されている。
(2) 人体シルエット抽出部36は、カメラ17で取得した画像データから人体のシルエットを抽出する手段であり、背景画像との差分により、または、エッジ検出により人体のシルエットを抽出するようにしている。
(3) マッチング処理部37は、人体シルエット抽出部36で抽出した人体のシルエットとデータベース35に格納されている複数の2次元射影画像シルエットとのマッチング処理を行う手段である。
(4) 人体正面方向推定部38は、マッチング処理部37の処理結果から、抽出した人体シルエットに最もマッチングする2次元射影画像シルエットが判るので、この最もマッチングする2次元射影画像シルエットの回転角から、人体の正面方向を推定する手段である。つまり、人体の正面方向が検出できる。
【0025】
移動制御部33は、人体正面方向検出部32が検出した人体正面方向にカメラ17が向くようにカメラ移動部31を制御する手段である。
【0026】
顔認識処理部34は、カメラ17が連続して取得した画像データから顔を認識する処理を行うものである。顔認識処理は、画像データから顔の特徴部分である目や鼻、口、耳等を抽出してそれら個々の大きさ、形状を用いたり、これらの位置関係を用いたり、あるいは、顔各部の色を調べたりするなど、種々の手法により行うことができる。
【0027】
次に、図2を参照して、顔認識手順を説明する。
(1) まず、人体正面方向検出部32により、カメラ17で取得した画像データから人体の正面方向を検出する(ステップS1)。
(2) カメラ17が検出した人体正面方向に向くように、移動制御部33によりカメラ17の位置及び/または方位を移動する(ステップS2).
(3) カメラ17が人体正面方向に向いた状態で、カメラ17で画像データを連続して取得し、これらの画像データから顔認識処理部34により顔の認識処理を行う(ステップS3)。
【0028】
このように、カメラ17が人体正面方向に向いた状態で取得した画像データから顔の認識処理を行うことにより、カメラ17を迅速に移動できない移動ロボットでも、人が頭を回動しても、正面の顔画像を得る確率が高くなる。つまり、顔認識の精度が向上する。
【0029】
上記実施例では人体正面方向の検出を、画像データから抽出した人体シルエットと予め用意した複数の2次元射影画像シルエットとのマッチングをとることで行っているが、人が着ている服装について、柄の方向等による特徴を定義し、学習することで、人体正面方向を検出することができる。
【0030】
この服装に着目した人体正面方向検出は、顔認識対象の人間がある程度限定されている場合、例えば、一般家庭内でユーザの生活を補助・支援・介護するために用いられる移動ロボットの場合に、特に効果的である。
【0031】
上記実施例ではロボットでの使用について顔認識装置を説明したが、顔認識装置はこれに限らず任意に使用することができる。
【0032】
【発明の効果】
第1発明は、カメラで取得した画像データから顔を認識する顔認識装置において、カメラの位置または方位の少なくとも一方を移動させるカメラ移動手段と、画像データから人体の正面方向を検出する人体正面方向検出手段と、この人体正面方向検出手段が検出した人体正面方向にカメラが向くようにカメラ移動手段を制御する移動制御手段と、カメラが連続して取得した画像データから顔を認識する顔認識処理手段とを備えるので、カメラを迅速に移動できない場合も、人が頭を回動しても、正面の顔画像を得る確率が高くなる。従って、顔認識の精度が向上する。
【0033】
第2発明は、第1発明において、人体正面方向検出手段として、3次元の人体モデルから作成された、回転角が異なる複数の2次元射影画像シルエットを格納するデータベースと、前記画像データから人体のシルエットを抽出する人体シルエット抽出手段と、人体シルエット抽出手段で抽出された人体のシルエットと前記データベースに格納された複数の2次元射影画像シルエットとのマッチング処理を行うマッチング処理手段と、マッチング処理手段の処理結果から得られる前記抽出された人体シルエットに最もマッチングする2次元射影画像シルエットの回転角から、人体の正面方向を推定する人体正面方向推定手段とを備えるので、人体正面方向を正確に検出することができる。
【0034】
第3発明は、第2発明において、人体シルエット抽出手段は、画像データから背景画像との差分により、または、エッジ検出により人体のシルエットを抽出するので、人体のシルエットを正確に抽出することができる。
【0035】
第4発明は、第2発明において、データベースには、回転角が同じで姿勢が異なる2次元射影画像シルエットが格納されているので、顔認識対象の人の姿勢が一定でなくても、人体正面方向を正確に検出することができる。
【0036】
第5発明は、カメラで取得した画像データから顔を認識する顔認識方法において、画像データから人体の正面方向を検出し、検出した人体正面方向に向くように前記カメラを移動し、この状態で連続して画像データを取得し、これらの画像データから顔を認識するカメラを迅速に移動できない場合も、人が頭を回動しても、正面の顔画像を得る確率が高くなる。従って、顔認識の精度が向上する。
【図面の簡単な説明】
【図1】本発明の実施例に係る顔認識装置の構成を示す図。
【図2】顔認識手順の例を示す図。
【図3】ロボットの一例を示す図。
【符号の説明】
1 ロボット
12 頭部
14 胴部
16 走行用車輪
17 カメラ
31 カメラ移動部
32 人体正面方向検出部
33 移動制御部
34 顔認識処理部
35 データベース
36 人体シルエット抽出部
37 マッチング処理部
38 人体正面方向推定部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an apparatus and a method for recognizing a face.
[0002]
[Prior art]
In the face recognition processing, unless a face image of a human face photographed from the front is used, the recognition accuracy is significantly reduced. Therefore, as a conventional technique, a technique disclosed in Japanese Patent Application Laid-Open No. 2001-243466, “a frontal image of a face is acquired by detecting a face direction and moving a camera in the direction” is known.
[0003]
[Problems to be solved by the invention]
However, since the head of the human is more likely to move left and right due to the rotation of the neck than the body, it is necessary to change the direction of the camera in real time and always follow the face direction. Therefore, when the above-described conventional technology is applied to a device that cannot move the camera quickly, such as a mobile robot, there is a problem that it becomes difficult to obtain a front face image after all.
[0004]
An object of the present invention is to provide a technique capable of acquiring a frontal image of a face even with a device such as a mobile robot that cannot move a camera quickly, in view of the above conventional technology.
[0005]
[Means for Solving the Problems]
A first invention is a face recognition device for recognizing a face from image data acquired by a camera, a camera moving means for moving at least one of a position and a direction of the camera, and detecting a front direction of a human body from the image data. Human body front direction detection means, movement control means for controlling the camera moving means so that the camera faces the human body front direction detected by the human body front direction detection means, and a camera recognizing a face from image data obtained continuously. And a face recognizing processing means.
[0006]
In a second aspect based on the first aspect, the human body front direction detecting means includes:
A database for storing a plurality of two-dimensional projected image silhouettes having different rotation angles created from a three-dimensional human body model, a human body silhouette extracting means for extracting a human body silhouette from the image data, and a human body silhouette extracting means. Processing means for performing a matching process between a silhouette of a human body and a plurality of two-dimensional projected image silhouettes stored in the database, and a two-dimensional pattern that best matches the extracted human body silhouette obtained from the processing result of the matching processing means A face recognition apparatus comprising: a human body front direction estimating unit that estimates a front direction of a human body from a rotation angle of a projected image silhouette.
[0007]
A third invention is the face recognition apparatus according to the second invention, wherein the human body silhouette extracting means extracts a human body silhouette from the image data by a difference from a background image or by edge detection.
[0008]
A fourth invention is the face recognition device according to the second invention, wherein the database stores two-dimensional projected image silhouettes having the same rotation angle and different postures.
[0009]
A fifth invention is a face recognition method for recognizing a face from image data acquired by a camera, detecting a front direction of a human body from the image data, moving the camera so as to face the detected front direction of the human body, It is characterized in that image data is continuously acquired in a state, and a face is recognized from these image data.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0011]
In the present embodiment, the face recognition device is mounted on a mobile robot. Therefore, prior to the description of the face recognition device, an example of a mobile robot to which the present invention is applied will be described with reference to FIG.
[0012]
The robot 1 shown in FIG. 3 simulates a human having a robot body 11 having a head 12, a chest 13, a torso (cart unit) 14, and left and right arms 15. Is rotatable by a drive mechanism (not shown), and the left and right traveling wheels 16 mounted on the body 14 can be steered and run by a drive mechanism (not shown), and move autonomously in the work space by battery driving. It is configured to The robot 1 coexists with a human in an indoor space such as a general home as a work space, and is used, for example, to assist, support, and care for a user's life in the general home. Therefore, the robot 1 has a function of talking with the user, watching the user's action, assisting the user's action, and acting together with the user by using the built-in CPU (computer) and various sensors. ing. Various shapes of the robot 1 are conceivable, such as an animal model for pets.
[0013]
Specifically, the robot 1 shown in FIG. 3 has a control unit (not shown) using a CPU, two cameras 17 and two microphones 18 are mounted on the head 12, and a volume / sound source direction sensor is provided at the center of the chest 13. And a human detection sensor 19 composed of a pyroelectric infrared sensor, and speakers 20a on the left and right. An image display 20 a is mounted on the center of the chest 13, and an ultrasonic obstacle sensor 21 and a laser obstacle sensor 22 are mounted on the body 4. A keyboard and a touch sensor may be mounted.
[0014]
The camera 17 captures an image of the user or the room and outputs the image to the control unit, and the microphone 18 captures the user's voice and life sounds such as a telephone bell, a doorbell, and a television sound and outputs the captured image to the control unit. The sensor 19 detects the presence or absence of a user and outputs the result to the control unit. The speaker 20a is used for conversation with the user together with the microphone 18, and the image display 20b is used for providing information to the user. The keyboard and the touch sensor are data input devices for the user, and are used for inputting the life pattern data of the user and inputting the intention of the user. The speaker 20a is also used for providing information to a user. The control unit includes a calendar for a predetermined period and a calendar clock for measuring the current date and time.
[0015]
The control unit includes a data input device such as a keyboard, an external sensor that constantly monitors a user's life pattern such as a camera 17, a microphone 18, a human detection sensor 19, and an obstacle sensor 21, and an internal sensor such as a calendar clock. , Information on the position of the robot 1, information on the position of the user, and information on the behavior of the user are input.
[0016]
The control unit has a self-position recognition function, a user recognition function, a database (data storage unit), a life pattern data processing function, and a drive control function.
[0017]
The self-position recognition function recognizes the position and azimuth (direction, posture) of the robot 1 itself based on image information captured by the camera 17. The user recognition function recognizes the content of the user's utterance (voice recognition) from the voice captured by the microphone 18, and performs personal recognition of the user from the image information captured by the camera 17 and the voice captured by the microphone 18. , The user's position, orientation, posture, and activity amount are recognized from the detection results of the camera 17 and the human detection sensor 19.
[0018]
The database includes voice data for conversation with the user and talking to the user, data of a gesture motion at the time of talking to the user and talking to the user, user's living information (room layout and furniture related to the user's residence, etc.). Location, personal daily life pattern of the user, user's hobby, health condition, etc.). A keyword such as a character string, video, or audio is added to the user's life information as needed. As the life pattern data, events related to activities such as getting up, going to bed, eating, taking medicine, taking a walk, free time, and taking a bath are listed, and these events are stored as time schedules together with time data.
[0019]
The life pattern data processing function stores life information directly input by a user from a data input device in a database with a keyword attached thereto, and various types of user recognition such as voice recognition results obtained by a camera 17, a microphone 18, and a human detection sensor 19. By processing the information, each piece of life information is attached to the database with a keyword and its date and time. Further, the life pattern data processing function selects data corresponding to the command from the database in response to an instruction or speech from the user, or according to time, and issues a command corresponding to the selected data to the operation control unit. Give and control.
[0020]
The drive control function drives the running wheels 16 to execute running and steering of the robot 1 in accordance with a command from the life pattern data processing function, and drives the head 12 and the arm 13 to rotate the head 12 and the arm 13. Perform the action. Further, the speaker 20a and the image display 20b are driven to execute a conversation with the user.
[0021]
Next, an image recognition apparatus and method according to an embodiment of the present invention will be described with reference to FIGS.
[0022]
The above-described robot 1 has a face recognition device illustrated in FIG. 1. The face recognition device includes a camera 17, a camera moving unit 31, a human body front direction detection unit 32, a movement control unit 33, And a face recognition processing unit 34. The human body front direction detection unit 32 includes a database 35, a human body silhouette extraction unit 36, a matching processing unit 37, and a human body front direction estimation unit 38.
[0023]
The camera 17 is mounted on the head 12 of the robot 1. The camera moving unit 31 is a unit that moves at least one of the position and the azimuth of the camera 17, and a mechanism that rotates the traveling wheel 16 and the head 12 that travels and steers the trunk 14 of the robot 1 corresponds thereto. I do.
[0024]
The human body front direction detection unit 32 is a unit that detects the front direction of the human body from the image data acquired by the camera 17, and
(1) In the database 35, a plurality of two-dimensional projected image silhouettes having different rotation angles are created in advance from a three-dimensional human body model and stored. The database 35 stores two-dimensional projected image silhouettes having the same rotation angle but different postures.
(2) The human body silhouette extracting unit 36 is a means for extracting a human body silhouette from the image data acquired by the camera 17, and extracts a human body silhouette by a difference from a background image or by edge detection. .
(3) The matching processing unit 37 is a unit that performs a matching process between the silhouette of the human body extracted by the human body silhouette extraction unit 36 and a plurality of two-dimensional projected image silhouettes stored in the database 35.
(4) The human body front direction estimating unit 38 can determine the two-dimensional projected image silhouette that best matches the extracted human body silhouette from the processing result of the matching processing unit 37. Means for estimating the front direction of the human body. That is, the front direction of the human body can be detected.
[0025]
The movement control unit 33 is a unit that controls the camera movement unit 31 so that the camera 17 faces in the front direction of the human body detected by the front direction detection unit 32.
[0026]
The face recognition processing unit 34 performs a process of recognizing a face from image data continuously acquired by the camera 17. In the face recognition processing, the eyes, nose, mouth, ears, and the like, which are characteristic parts of the face, are extracted from the image data and their sizes and shapes are used, or their positional relationships are used. It can be performed by various methods such as checking the color.
[0027]
Next, the face recognition procedure will be described with reference to FIG.
(1) First, the human body front direction detector 32 detects the front direction of the human body from the image data acquired by the camera 17 (step S1).
(2) The position and / or azimuth of the camera 17 is moved by the movement control unit 33 so that the camera 17 faces the front of the detected human body (step S2).
(3) With the camera 17 facing the front of the human body, image data is continuously acquired by the camera 17 and face recognition processing is performed by the face recognition processing unit 34 from these image data (step S3).
[0028]
As described above, by performing face recognition processing from image data acquired in a state where the camera 17 faces the front of the human body, even if the mobile robot cannot move the camera 17 quickly, even if the person turns his head, The probability of obtaining a frontal face image increases. That is, the accuracy of face recognition is improved.
[0029]
In the above embodiment, the detection of the front direction of the human body is performed by matching the human body silhouette extracted from the image data with a plurality of two-dimensional projected image silhouettes prepared in advance. By defining and learning the characteristics according to the direction of the human body, the frontal direction of the human body can be detected.
[0030]
This human body front direction detection focusing on clothes is performed when the face recognition target person is limited to some extent, for example, in the case of a mobile robot used to assist, support, and care for the life of the user in a general home, Especially effective.
[0031]
In the above embodiment, the face recognition device has been described for use in a robot. However, the face recognition device is not limited to this and can be used arbitrarily.
[0032]
【The invention's effect】
A first aspect of the present invention is a face recognition apparatus for recognizing a face from image data acquired by a camera, a camera moving means for moving at least one of a position and a direction of the camera, and a human body front direction for detecting a front direction of a human body from the image data. Detecting means; moving control means for controlling the camera moving means so that the camera faces the frontal direction of the human body detected by the human frontal direction detecting means; and face recognition processing for recognizing a face from image data continuously obtained by the camera. Therefore, even if the camera cannot be moved quickly, even if the person turns his / her head, the probability of obtaining a frontal face image increases. Therefore, the accuracy of face recognition is improved.
[0033]
According to a second aspect, in the first aspect, as a human body front direction detecting means, a database storing a plurality of two-dimensional projected image silhouettes having different rotation angles created from a three-dimensional human body model, and a human body based on the image data. A human body silhouette extracting unit for extracting a silhouette, a matching processing unit for performing a matching process between a human body silhouette extracted by the human body silhouette extracting unit and a plurality of two-dimensional projected image silhouettes stored in the database, and a matching processing unit. A human body front direction estimating means for estimating the front direction of the human body from the rotation angle of the two-dimensional projected image silhouette most matching the extracted human body silhouette obtained from the processing result, so that the human body front direction is accurately detected. be able to.
[0034]
In a third aspect based on the second aspect, the human body silhouette extracting means extracts the human body silhouette from the image data by a difference from the background image or by edge detection, so that the human body silhouette can be accurately extracted. .
[0035]
According to a fourth aspect, in the second aspect, the database stores two-dimensional projected image silhouettes having the same rotation angle and different postures. The direction can be accurately detected.
[0036]
A fifth aspect of the present invention is a face recognition method for recognizing a face from image data acquired by a camera, wherein the front direction of a human body is detected from the image data, and the camera is moved so as to face the detected front direction of the human body. Even when a camera that continuously obtains image data and recognizes a face from these image data cannot be moved quickly, even if a person turns his / her head, the probability of obtaining a frontal face image increases. Therefore, the accuracy of face recognition is improved.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a face recognition device according to an embodiment of the present invention.
FIG. 2 is a diagram showing an example of a face recognition procedure.
FIG. 3 is a diagram illustrating an example of a robot.
[Explanation of symbols]
Reference Signs List 1 robot 12 head 14 torso 16 running wheel 17 camera 31 camera moving unit 32 human body front direction detection unit 33 movement control unit 34 face recognition processing unit 35 database 36 human body silhouette extraction unit 37 matching processing unit 38 human body front direction estimation unit

Claims (5)

カメラで取得した画像データから顔を認識する顔認識装置において、
前記カメラの位置または方位の少なくとも一方を移動させるカメラ移動手段と、前記画像データから人体の正面方向を検出する人体正面方向検出手段と、
この人体正面方向検出手段が検出した人体正面方向にカメラが向くように前記カメラ移動手段を制御する移動制御手段と、
カメラが連続して取得した画像データから顔を認識する顔認識処理手段と
を備えることを特徴とする顔認識装置。
In a face recognition device that recognizes a face from image data acquired by a camera,
Camera moving means for moving at least one of the position or orientation of the camera, human body front direction detecting means for detecting the front direction of the human body from the image data,
Movement control means for controlling the camera movement means so that the camera faces the human body front direction detected by the human body front direction detection means,
A face recognition apparatus comprising: a face recognition processing unit that recognizes a face from image data obtained continuously by a camera.
請求項1において、前記人体正面方向検出手段として、
3次元の人体モデルから作成された、回転角が異なる複数の2次元射影画像シルエットを格納するデータベースと、
前記画像データから人体のシルエットを抽出する人体シルエット抽出手段と、
人体シルエット抽出手段で抽出された人体のシルエットと前記データベースに格納された複数の2次元射影画像シルエットとのマッチング処理を行うマッチング処理手段と、
マッチング処理手段の処理結果から得られる前記抽出された人体シルエットに最もマッチングする2次元射影画像シルエットの回転角から、人体の正面方向を推定する人体正面方向推定手段と
を備えることを特徴とする顔認識装置。
In claim 1, as the human body front direction detecting means,
A database storing a plurality of two-dimensional projected image silhouettes having different rotation angles created from a three-dimensional human body model;
Human body silhouette extraction means for extracting a human body silhouette from the image data,
Matching processing means for performing matching processing between the silhouette of the human body extracted by the human body silhouette extraction means and a plurality of two-dimensional projected image silhouettes stored in the database;
And a human body front direction estimating means for estimating the front direction of the human body from the rotation angle of the two-dimensional projected image silhouette most matching the extracted human body silhouette obtained from the processing result of the matching processing means. Recognition device.
請求項2において、前記人体シルエット抽出手段は、前記画像データから背景画像との差分により、または、エッジ検出により人体のシルエットを抽出することを特徴とする顔認識装置。3. The face recognition device according to claim 2, wherein the human body silhouette extracting means extracts a human body silhouette from the image data by a difference from a background image or by edge detection. 請求項2において、前記データベースには、回転角が同じで姿勢が異なる2次元射影画像シルエットが格納されていることを特徴とする顔認識装置。3. The face recognition apparatus according to claim 2, wherein the database stores two-dimensional projected image silhouettes having the same rotation angle and different postures. カメラで取得した画像データから顔を認識する顔認識方法において、前記画像データから人体の正面方向を検出し、検出した人体正面方向に向くように前記カメラを移動し、この状態で連続して画像データを取得し、これらの画像データから顔を認識することを特徴とする顔認識方法。In a face recognition method for recognizing a face from image data obtained by a camera, a frontal direction of a human body is detected from the image data, and the camera is moved so as to face the detected human frontal direction. A face recognition method characterized by acquiring data and recognizing a face from the image data.
JP2002200951A 2002-07-10 2002-07-10 Face recognition device and method Withdrawn JP2004046399A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002200951A JP2004046399A (en) 2002-07-10 2002-07-10 Face recognition device and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002200951A JP2004046399A (en) 2002-07-10 2002-07-10 Face recognition device and method

Publications (1)

Publication Number Publication Date
JP2004046399A true JP2004046399A (en) 2004-02-12

Family

ID=31707617

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002200951A Withdrawn JP2004046399A (en) 2002-07-10 2002-07-10 Face recognition device and method

Country Status (1)

Country Link
JP (1) JP2004046399A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010525425A (en) * 2007-03-28 2010-07-22 ソニー エリクソン モバイル コミュニケーションズ, エービー Apparatus and method for adjusting the direction of data representation displayed on a display device
JP2013167986A (en) * 2012-02-15 2013-08-29 Hitachi Ltd Image recognition system and image recognition method
KR20190066916A (en) * 2017-12-06 2019-06-14 롯데정보통신 주식회사 Facial recognition type cafe system and method of providing service of threrof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010525425A (en) * 2007-03-28 2010-07-22 ソニー エリクソン モバイル コミュニケーションズ, エービー Apparatus and method for adjusting the direction of data representation displayed on a display device
JP2013167986A (en) * 2012-02-15 2013-08-29 Hitachi Ltd Image recognition system and image recognition method
KR20190066916A (en) * 2017-12-06 2019-06-14 롯데정보통신 주식회사 Facial recognition type cafe system and method of providing service of threrof
KR102063890B1 (en) * 2017-12-06 2020-01-08 롯데정보통신 주식회사 Facial recognition type cafe system and method of providing service of threrof

Similar Documents

Publication Publication Date Title
US9517559B2 (en) Robot control system, robot control method and output control method
US20220032482A1 (en) Information processing device and storage medium
JP5429462B2 (en) Communication robot
JP7400923B2 (en) Information processing device and information processing method
JP4949969B2 (en) Communication robot and its operation method
WO2018108176A1 (en) Robot video call control method, device and terminal
WO2019138619A1 (en) Information processing device, information processing method and program
JP7375770B2 (en) Information processing device, information processing method, and program
JP2004034274A (en) Conversation robot and its operation method
JP2024023193A (en) Information processing device, and information processing method
JP2024009862A (en) Information processing apparatus, information processing method, and program
JP2005131713A (en) Communication robot
Li et al. An egocentric computer vision based co-robot wheelchair
JP2004034273A (en) Robot and system for generating action program during utterance of robot
Maheux et al. T-Top, a SAR experimental platform
WO2021005878A1 (en) Information processing device, information processing method, and information processing program
JP2004046399A (en) Face recognition device and method
KR20180082777A (en) Communion robot system for senior citizen
JP2006185239A (en) Robot device, moving and following method of robot device, and program
JP4831750B2 (en) Communication trigger system
Spexard et al. Human-like person tracking with an anthropomorphic robot
JP7156300B2 (en) Information processing device, information processing method, and program
JP5633003B2 (en) Recording control apparatus and recording control program
JP2009106325A (en) Communication induction system
JP2004045591A (en) Method for recognizing voice and method for providing specific speaker&#39;s voice dictionary

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051004