JP2004046399A - Face recognition device and method - Google Patents
Face recognition device and method Download PDFInfo
- Publication number
- JP2004046399A JP2004046399A JP2002200951A JP2002200951A JP2004046399A JP 2004046399 A JP2004046399 A JP 2004046399A JP 2002200951 A JP2002200951 A JP 2002200951A JP 2002200951 A JP2002200951 A JP 2002200951A JP 2004046399 A JP2004046399 A JP 2004046399A
- Authority
- JP
- Japan
- Prior art keywords
- human body
- camera
- face
- image data
- face recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は顔を認識する装置及び方法に関する。
【0002】
【従来の技術】
顔認識処理においては、人間の顔を正面から撮影した顔画像を用いないと、認識精度が著しく低下する。そのため、従来技術として、特開2001−243466号公報に開示された「顔方向を検出してその方向に向けてカメラを移動することで顔の正面画像を取得する」技術が知られている。
【0003】
【発明が解決しようとする課題】
しかし、人間の頭部は胴体に比べて首の回動で左右に動いている可能性が高いため、カメラの方向をリアルタイムに変えて顔方向に常に追従させる必要がある。従って、上記の従来技術を移動ロボットなど、カメラを迅速に移動できない機器に適用した場合、結局正面の顔画像を得にくくなるという問題が生じる。
【0004】
本発明の課題は、上記従来技術に鑑み、移動ロボットなど、カメラを迅速に移動できない機器でも、顔の正面画像を取得することが可能な技術を提供することである。
【0005】
【課題を解決するための手段】
第1発明は、カメラで取得した画像データから顔を認識する顔認識装置であり、前記カメラの位置または方位の少なくとも一方を移動させるカメラ移動手段と、前記画像データから人体の正面方向を検出する人体正面方向検出手段と、この人体正面方向検出手段が検出した人体正面方向にカメラが向くように前記カメラ移動手段を制御する移動制御手段と、カメラが連続して取得した画像データから顔を認識する顔認識処理手段とを備えることを特徴とする。
【0006】
第2発明は、第1発明において、前記人体正面方向検出手段として、
3次元の人体モデルから作成された、回転角が異なる複数の2次元射影画像シルエットを格納するデータベースと、前記画像データから人体のシルエットを抽出する人体シルエット抽出手段と、人体シルエット抽出手段で抽出された人体のシルエットと前記データベースに格納された複数の2次元射影画像シルエットとのマッチング処理を行うマッチング処理手段と、マッチング処理手段の処理結果から得られる前記抽出された人体シルエットに最もマッチングする2次元射影画像シルエットの回転角から、人体の正面方向を推定する人体正面方向推定手段とを備えることを特徴とする顔認識装置である。
【0007】
第3発明は、第2発明において、前記人体シルエット抽出手段は、前記画像データから背景画像との差分により、または、エッジ検出により人体のシルエットを抽出することを特徴とする顔認識装置である。
【0008】
第4発明は、第2発明において、前記データベースには、回転角が同じで姿勢が異なる2次元射影画像シルエットが格納されていることを特徴とする顔認識装置である。
【0009】
第5発明は、カメラで取得した画像データから顔を認識する顔認識方法であり、前記画像データから人体の正面方向を検出し、検出した人体正面方向に向くように前記カメラを移動し、この状態で連続して画像データを取得し、これらの画像データから顔を認識することを特徴とする。
【0010】
【発明の実施の形態】
以下、本発明の実施の形態を、図面を参照しながら説明する。
【0011】
本実施の形態では、顔認識装置は移動ロボットに搭載されたものである。そこで、顔認識装置の説明に先立ち、本発明を適用する移動ロボットの一例を図3を参照して説明する。
【0012】
図3に示すロボット1は、ロボット本体11が頭部12と胸部13と胴部(台車部)14と左右の腕部15とを有する人間を模したものであり、頭部12と腕部15は図示しない駆動機構により回動可能であるとともに、胴部14に装備された左右の走行用車輪16は図示しない駆動機構により操舵及び走行可能であって、作業空間をバッテリ駆動により自律的に移動するように構成されている。このロボット1は、一般家庭等の屋内を作業空間として人間と共存し、例えば、一般家庭内でユーザの生活を補助・支援・介護するために用いられる。そのため、ロボット1は、内蔵のCPU(コンピュータ)及び各種のセンサにより、ユーザと会話したり、ユーザの行動を見守ったり、ユーザの行動を補助したり、ユーザと一緒に行動したりする機能を備えている。ロボット1の形状としては、愛玩用に動物を模したものなど、種々考えられる。
【0013】
詳細には、図3に示すロボット1はCPUを用いた図示しない制御部を持ち、頭部12に2つのカメラ17と2つのマイクロホン18が装着され、胸部13の中央部に音量・音源方向センサと焦電型赤外線センサからなる人検知センサ19、左右にスピーカ20aが装着されている。また、胸部13の中央部に画像ディスプレイ20aが装着され、胴部4に超音波式障害物センサ21やレーザ式障害物センサ22が装着されている。キーボード及びタッチセンサ等が装着されることもある。
【0014】
カメラ17はユーザや屋内を撮影してその画像を制御部に出力し、マイクロホン18はユーザの音声や電話のベル、呼び鈴、テレビの音などの生活音を取り込んで制御部に出力し、人検知センサ19はユーザの有無を検出して制御部に出力する。スピーカ20aはマイクロホン18とともにユーザとの会話に用いられ、画像ディスプレイ20bはユーザに対する情報提供に用いられる。キーボードやタッチセンサはユーザ用のデータ入力機器であり、ユーザの生活パターンデータを入力したり、ユーザの意思を入力するために用いられる。スピーカ20aはユーザに対する情報提供にも用いられる。制御部には、所定期間にわたるカレンダ及び現在の年月日及び時刻を計時するカレンダクロックが備えられている。
【0015】
制御部には、キーボード等のデータ入力機器と、カメラ17、マイクロホン18、人検知センサ19及び障害物センサ21等のユーザの生活パターンを常時モニタする外界センサと、カレンダクロックといった内界センサとにより、ロボット1の自己位置に関する情報と、ユーザの位置に関する情報と、ユーザの行動に関する情報とが入力される。
【0016】
制御部は、自己位置認識機能と、ユーザ認識機能と、データベース(データ蓄積部)と、生活パターンデータ処理機能と、駆動制御機能とを有している。
【0017】
自己位置認識機能は、カメラ17が撮影した画像情報に基づいてロボット1自身の位置及び方位(向き、姿勢)を認識する。ユーザ認識機能は、マイクロホン18で取り込んだ音声からユーザの発言内容の認識(音声認識)を行うとともに、カメラ17で撮影した画像情報とマイクロホン18で取り込んだ音声とからユーザ個人の認識を行い、また、カメラ17と人検知センサ19の検出結果からユーザの位置、向き、姿勢、活動量を認識する。
【0018】
データベースは、ユーザとの会話用やユーザへの話し掛け用の音声データ、ユーザとの会話時やユーザへの話し掛け時の身振り動作のデータ、ユーザの生活情報(ユーザの居住に関する部屋の間取りや家具の配置、ユーザ個人の日常の生活パターン、ユーザの趣味、健康状態など)を記憶している。ユーザの生活情報には、必要に応じて文字列や映像、音声などのキーワードが付される。生活パターンのデータとしては、起床、就寝、食事、薬服用、散歩、自由時間、入浴などの行動に関するイベントが上げられ、これらのイベントが時間データとともにタイムスケジュールとして記憶される。
【0019】
生活パターンデータ処理機能は、ユーザがデータ入力機器から直接入力した生活情報をキーワードを付してデータベースに蓄積したり、カメラ17やマイクロホン18、人検知センサ19で取得した音声認識結果などユーザの各種情報を処理することで一つ一つの生活情報にキーワードやその日時を付してデータベースに蓄積する。更に、生活パターンデータ処理機能は、ユーザからの指示や話し掛けに応じて、あるいは、時刻などに応じて、これに対応するデータをデータベースから選択し、選択したデータに応じた指令を動作制御部に与えて制御する。
【0020】
駆動制御機能は、生活パターンデータ処理機能からの指令に応じて、走行用車輪16を駆動してロボット1の走行及び操舵を実行するとともに、頭部12や腕部13を駆動してそれの回動を実行する。また、スピーカ20aや画像ディスプレイ20bを駆動してユーザとの会話を実行する。
【0021】
次に、図1、図2を参照して、本発明の実施例に係る画像認識装置及び方法を説明する。
【0022】
上述したロボット1は、図1に例示する顔認識装置を有しており、この顔認識装置は、カメラ17と、カメラ移動部31と、人体正面方向検出部32と、移動制御部33と、顔認識処理部34とを有している。また、人体正面方向検出部32は、データベース35と、人体シルエット抽出部36と、マッチング処理部37と、人体正面方向推定部38とで構成されている。
【0023】
カメラ17はロボット1の頭部12に搭載されている。カメラ移動部31は、カメラ17の位置または方位の少なくとも一方を移動させる手段であり、ロボット1の胴部14を走行・操舵する走行用車輪16及び頭部12を回動させる機構がこれに相当する。
【0024】
人体正面方向検出部32はカメラ17で取得した画像データから人体の正面方向を検出する手段であり、そのうち、
(1) データベース35には、3次元の人体モデルから回転角が異なる複数の2次元射影画像シルエットを予め作成し、これを格納している。また、データベース35には、回転角が同じでも姿勢が異なる2次元射影画像シルエットが格納されている。
(2) 人体シルエット抽出部36は、カメラ17で取得した画像データから人体のシルエットを抽出する手段であり、背景画像との差分により、または、エッジ検出により人体のシルエットを抽出するようにしている。
(3) マッチング処理部37は、人体シルエット抽出部36で抽出した人体のシルエットとデータベース35に格納されている複数の2次元射影画像シルエットとのマッチング処理を行う手段である。
(4) 人体正面方向推定部38は、マッチング処理部37の処理結果から、抽出した人体シルエットに最もマッチングする2次元射影画像シルエットが判るので、この最もマッチングする2次元射影画像シルエットの回転角から、人体の正面方向を推定する手段である。つまり、人体の正面方向が検出できる。
【0025】
移動制御部33は、人体正面方向検出部32が検出した人体正面方向にカメラ17が向くようにカメラ移動部31を制御する手段である。
【0026】
顔認識処理部34は、カメラ17が連続して取得した画像データから顔を認識する処理を行うものである。顔認識処理は、画像データから顔の特徴部分である目や鼻、口、耳等を抽出してそれら個々の大きさ、形状を用いたり、これらの位置関係を用いたり、あるいは、顔各部の色を調べたりするなど、種々の手法により行うことができる。
【0027】
次に、図2を参照して、顔認識手順を説明する。
(1) まず、人体正面方向検出部32により、カメラ17で取得した画像データから人体の正面方向を検出する(ステップS1)。
(2) カメラ17が検出した人体正面方向に向くように、移動制御部33によりカメラ17の位置及び/または方位を移動する(ステップS2).
(3) カメラ17が人体正面方向に向いた状態で、カメラ17で画像データを連続して取得し、これらの画像データから顔認識処理部34により顔の認識処理を行う(ステップS3)。
【0028】
このように、カメラ17が人体正面方向に向いた状態で取得した画像データから顔の認識処理を行うことにより、カメラ17を迅速に移動できない移動ロボットでも、人が頭を回動しても、正面の顔画像を得る確率が高くなる。つまり、顔認識の精度が向上する。
【0029】
上記実施例では人体正面方向の検出を、画像データから抽出した人体シルエットと予め用意した複数の2次元射影画像シルエットとのマッチングをとることで行っているが、人が着ている服装について、柄の方向等による特徴を定義し、学習することで、人体正面方向を検出することができる。
【0030】
この服装に着目した人体正面方向検出は、顔認識対象の人間がある程度限定されている場合、例えば、一般家庭内でユーザの生活を補助・支援・介護するために用いられる移動ロボットの場合に、特に効果的である。
【0031】
上記実施例ではロボットでの使用について顔認識装置を説明したが、顔認識装置はこれに限らず任意に使用することができる。
【0032】
【発明の効果】
第1発明は、カメラで取得した画像データから顔を認識する顔認識装置において、カメラの位置または方位の少なくとも一方を移動させるカメラ移動手段と、画像データから人体の正面方向を検出する人体正面方向検出手段と、この人体正面方向検出手段が検出した人体正面方向にカメラが向くようにカメラ移動手段を制御する移動制御手段と、カメラが連続して取得した画像データから顔を認識する顔認識処理手段とを備えるので、カメラを迅速に移動できない場合も、人が頭を回動しても、正面の顔画像を得る確率が高くなる。従って、顔認識の精度が向上する。
【0033】
第2発明は、第1発明において、人体正面方向検出手段として、3次元の人体モデルから作成された、回転角が異なる複数の2次元射影画像シルエットを格納するデータベースと、前記画像データから人体のシルエットを抽出する人体シルエット抽出手段と、人体シルエット抽出手段で抽出された人体のシルエットと前記データベースに格納された複数の2次元射影画像シルエットとのマッチング処理を行うマッチング処理手段と、マッチング処理手段の処理結果から得られる前記抽出された人体シルエットに最もマッチングする2次元射影画像シルエットの回転角から、人体の正面方向を推定する人体正面方向推定手段とを備えるので、人体正面方向を正確に検出することができる。
【0034】
第3発明は、第2発明において、人体シルエット抽出手段は、画像データから背景画像との差分により、または、エッジ検出により人体のシルエットを抽出するので、人体のシルエットを正確に抽出することができる。
【0035】
第4発明は、第2発明において、データベースには、回転角が同じで姿勢が異なる2次元射影画像シルエットが格納されているので、顔認識対象の人の姿勢が一定でなくても、人体正面方向を正確に検出することができる。
【0036】
第5発明は、カメラで取得した画像データから顔を認識する顔認識方法において、画像データから人体の正面方向を検出し、検出した人体正面方向に向くように前記カメラを移動し、この状態で連続して画像データを取得し、これらの画像データから顔を認識するカメラを迅速に移動できない場合も、人が頭を回動しても、正面の顔画像を得る確率が高くなる。従って、顔認識の精度が向上する。
【図面の簡単な説明】
【図1】本発明の実施例に係る顔認識装置の構成を示す図。
【図2】顔認識手順の例を示す図。
【図3】ロボットの一例を示す図。
【符号の説明】
1 ロボット
12 頭部
14 胴部
16 走行用車輪
17 カメラ
31 カメラ移動部
32 人体正面方向検出部
33 移動制御部
34 顔認識処理部
35 データベース
36 人体シルエット抽出部
37 マッチング処理部
38 人体正面方向推定部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an apparatus and a method for recognizing a face.
[0002]
[Prior art]
In the face recognition processing, unless a face image of a human face photographed from the front is used, the recognition accuracy is significantly reduced. Therefore, as a conventional technique, a technique disclosed in Japanese Patent Application Laid-Open No. 2001-243466, “a frontal image of a face is acquired by detecting a face direction and moving a camera in the direction” is known.
[0003]
[Problems to be solved by the invention]
However, since the head of the human is more likely to move left and right due to the rotation of the neck than the body, it is necessary to change the direction of the camera in real time and always follow the face direction. Therefore, when the above-described conventional technology is applied to a device that cannot move the camera quickly, such as a mobile robot, there is a problem that it becomes difficult to obtain a front face image after all.
[0004]
An object of the present invention is to provide a technique capable of acquiring a frontal image of a face even with a device such as a mobile robot that cannot move a camera quickly, in view of the above conventional technology.
[0005]
[Means for Solving the Problems]
A first invention is a face recognition device for recognizing a face from image data acquired by a camera, a camera moving means for moving at least one of a position and a direction of the camera, and detecting a front direction of a human body from the image data. Human body front direction detection means, movement control means for controlling the camera moving means so that the camera faces the human body front direction detected by the human body front direction detection means, and a camera recognizing a face from image data obtained continuously. And a face recognizing processing means.
[0006]
In a second aspect based on the first aspect, the human body front direction detecting means includes:
A database for storing a plurality of two-dimensional projected image silhouettes having different rotation angles created from a three-dimensional human body model, a human body silhouette extracting means for extracting a human body silhouette from the image data, and a human body silhouette extracting means. Processing means for performing a matching process between a silhouette of a human body and a plurality of two-dimensional projected image silhouettes stored in the database, and a two-dimensional pattern that best matches the extracted human body silhouette obtained from the processing result of the matching processing means A face recognition apparatus comprising: a human body front direction estimating unit that estimates a front direction of a human body from a rotation angle of a projected image silhouette.
[0007]
A third invention is the face recognition apparatus according to the second invention, wherein the human body silhouette extracting means extracts a human body silhouette from the image data by a difference from a background image or by edge detection.
[0008]
A fourth invention is the face recognition device according to the second invention, wherein the database stores two-dimensional projected image silhouettes having the same rotation angle and different postures.
[0009]
A fifth invention is a face recognition method for recognizing a face from image data acquired by a camera, detecting a front direction of a human body from the image data, moving the camera so as to face the detected front direction of the human body, It is characterized in that image data is continuously acquired in a state, and a face is recognized from these image data.
[0010]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0011]
In the present embodiment, the face recognition device is mounted on a mobile robot. Therefore, prior to the description of the face recognition device, an example of a mobile robot to which the present invention is applied will be described with reference to FIG.
[0012]
The robot 1 shown in FIG. 3 simulates a human having a robot body 11 having a
[0013]
Specifically, the robot 1 shown in FIG. 3 has a control unit (not shown) using a CPU, two
[0014]
The
[0015]
The control unit includes a data input device such as a keyboard, an external sensor that constantly monitors a user's life pattern such as a
[0016]
The control unit has a self-position recognition function, a user recognition function, a database (data storage unit), a life pattern data processing function, and a drive control function.
[0017]
The self-position recognition function recognizes the position and azimuth (direction, posture) of the robot 1 itself based on image information captured by the
[0018]
The database includes voice data for conversation with the user and talking to the user, data of a gesture motion at the time of talking to the user and talking to the user, user's living information (room layout and furniture related to the user's residence, etc.). Location, personal daily life pattern of the user, user's hobby, health condition, etc.). A keyword such as a character string, video, or audio is added to the user's life information as needed. As the life pattern data, events related to activities such as getting up, going to bed, eating, taking medicine, taking a walk, free time, and taking a bath are listed, and these events are stored as time schedules together with time data.
[0019]
The life pattern data processing function stores life information directly input by a user from a data input device in a database with a keyword attached thereto, and various types of user recognition such as voice recognition results obtained by a
[0020]
The drive control function drives the running
[0021]
Next, an image recognition apparatus and method according to an embodiment of the present invention will be described with reference to FIGS.
[0022]
The above-described robot 1 has a face recognition device illustrated in FIG. 1. The face recognition device includes a
[0023]
The
[0024]
The human body front
(1) In the
(2) The human body
(3) The
(4) The human body front
[0025]
The
[0026]
The face recognition processing unit 34 performs a process of recognizing a face from image data continuously acquired by the
[0027]
Next, the face recognition procedure will be described with reference to FIG.
(1) First, the human body
(2) The position and / or azimuth of the
(3) With the
[0028]
As described above, by performing face recognition processing from image data acquired in a state where the
[0029]
In the above embodiment, the detection of the front direction of the human body is performed by matching the human body silhouette extracted from the image data with a plurality of two-dimensional projected image silhouettes prepared in advance. By defining and learning the characteristics according to the direction of the human body, the frontal direction of the human body can be detected.
[0030]
This human body front direction detection focusing on clothes is performed when the face recognition target person is limited to some extent, for example, in the case of a mobile robot used to assist, support, and care for the life of the user in a general home, Especially effective.
[0031]
In the above embodiment, the face recognition device has been described for use in a robot. However, the face recognition device is not limited to this and can be used arbitrarily.
[0032]
【The invention's effect】
A first aspect of the present invention is a face recognition apparatus for recognizing a face from image data acquired by a camera, a camera moving means for moving at least one of a position and a direction of the camera, and a human body front direction for detecting a front direction of a human body from the image data. Detecting means; moving control means for controlling the camera moving means so that the camera faces the frontal direction of the human body detected by the human frontal direction detecting means; and face recognition processing for recognizing a face from image data continuously obtained by the camera. Therefore, even if the camera cannot be moved quickly, even if the person turns his / her head, the probability of obtaining a frontal face image increases. Therefore, the accuracy of face recognition is improved.
[0033]
According to a second aspect, in the first aspect, as a human body front direction detecting means, a database storing a plurality of two-dimensional projected image silhouettes having different rotation angles created from a three-dimensional human body model, and a human body based on the image data. A human body silhouette extracting unit for extracting a silhouette, a matching processing unit for performing a matching process between a human body silhouette extracted by the human body silhouette extracting unit and a plurality of two-dimensional projected image silhouettes stored in the database, and a matching processing unit. A human body front direction estimating means for estimating the front direction of the human body from the rotation angle of the two-dimensional projected image silhouette most matching the extracted human body silhouette obtained from the processing result, so that the human body front direction is accurately detected. be able to.
[0034]
In a third aspect based on the second aspect, the human body silhouette extracting means extracts the human body silhouette from the image data by a difference from the background image or by edge detection, so that the human body silhouette can be accurately extracted. .
[0035]
According to a fourth aspect, in the second aspect, the database stores two-dimensional projected image silhouettes having the same rotation angle and different postures. The direction can be accurately detected.
[0036]
A fifth aspect of the present invention is a face recognition method for recognizing a face from image data acquired by a camera, wherein the front direction of a human body is detected from the image data, and the camera is moved so as to face the detected front direction of the human body. Even when a camera that continuously obtains image data and recognizes a face from these image data cannot be moved quickly, even if a person turns his / her head, the probability of obtaining a frontal face image increases. Therefore, the accuracy of face recognition is improved.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of a face recognition device according to an embodiment of the present invention.
FIG. 2 is a diagram showing an example of a face recognition procedure.
FIG. 3 is a diagram illustrating an example of a robot.
[Explanation of symbols]
Reference Signs List 1
Claims (5)
前記カメラの位置または方位の少なくとも一方を移動させるカメラ移動手段と、前記画像データから人体の正面方向を検出する人体正面方向検出手段と、
この人体正面方向検出手段が検出した人体正面方向にカメラが向くように前記カメラ移動手段を制御する移動制御手段と、
カメラが連続して取得した画像データから顔を認識する顔認識処理手段と
を備えることを特徴とする顔認識装置。In a face recognition device that recognizes a face from image data acquired by a camera,
Camera moving means for moving at least one of the position or orientation of the camera, human body front direction detecting means for detecting the front direction of the human body from the image data,
Movement control means for controlling the camera movement means so that the camera faces the human body front direction detected by the human body front direction detection means,
A face recognition apparatus comprising: a face recognition processing unit that recognizes a face from image data obtained continuously by a camera.
3次元の人体モデルから作成された、回転角が異なる複数の2次元射影画像シルエットを格納するデータベースと、
前記画像データから人体のシルエットを抽出する人体シルエット抽出手段と、
人体シルエット抽出手段で抽出された人体のシルエットと前記データベースに格納された複数の2次元射影画像シルエットとのマッチング処理を行うマッチング処理手段と、
マッチング処理手段の処理結果から得られる前記抽出された人体シルエットに最もマッチングする2次元射影画像シルエットの回転角から、人体の正面方向を推定する人体正面方向推定手段と
を備えることを特徴とする顔認識装置。In claim 1, as the human body front direction detecting means,
A database storing a plurality of two-dimensional projected image silhouettes having different rotation angles created from a three-dimensional human body model;
Human body silhouette extraction means for extracting a human body silhouette from the image data,
Matching processing means for performing matching processing between the silhouette of the human body extracted by the human body silhouette extraction means and a plurality of two-dimensional projected image silhouettes stored in the database;
And a human body front direction estimating means for estimating the front direction of the human body from the rotation angle of the two-dimensional projected image silhouette most matching the extracted human body silhouette obtained from the processing result of the matching processing means. Recognition device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002200951A JP2004046399A (en) | 2002-07-10 | 2002-07-10 | Face recognition device and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002200951A JP2004046399A (en) | 2002-07-10 | 2002-07-10 | Face recognition device and method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004046399A true JP2004046399A (en) | 2004-02-12 |
Family
ID=31707617
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002200951A Withdrawn JP2004046399A (en) | 2002-07-10 | 2002-07-10 | Face recognition device and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004046399A (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010525425A (en) * | 2007-03-28 | 2010-07-22 | ソニー エリクソン モバイル コミュニケーションズ, エービー | Apparatus and method for adjusting the direction of data representation displayed on a display device |
JP2013167986A (en) * | 2012-02-15 | 2013-08-29 | Hitachi Ltd | Image recognition system and image recognition method |
KR20190066916A (en) * | 2017-12-06 | 2019-06-14 | 롯데정보통신 주식회사 | Facial recognition type cafe system and method of providing service of threrof |
-
2002
- 2002-07-10 JP JP2002200951A patent/JP2004046399A/en not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010525425A (en) * | 2007-03-28 | 2010-07-22 | ソニー エリクソン モバイル コミュニケーションズ, エービー | Apparatus and method for adjusting the direction of data representation displayed on a display device |
JP2013167986A (en) * | 2012-02-15 | 2013-08-29 | Hitachi Ltd | Image recognition system and image recognition method |
KR20190066916A (en) * | 2017-12-06 | 2019-06-14 | 롯데정보통신 주식회사 | Facial recognition type cafe system and method of providing service of threrof |
KR102063890B1 (en) * | 2017-12-06 | 2020-01-08 | 롯데정보통신 주식회사 | Facial recognition type cafe system and method of providing service of threrof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9517559B2 (en) | Robot control system, robot control method and output control method | |
US20220032482A1 (en) | Information processing device and storage medium | |
JP5429462B2 (en) | Communication robot | |
JP7400923B2 (en) | Information processing device and information processing method | |
JP4949969B2 (en) | Communication robot and its operation method | |
WO2018108176A1 (en) | Robot video call control method, device and terminal | |
WO2019138619A1 (en) | Information processing device, information processing method and program | |
JP7375770B2 (en) | Information processing device, information processing method, and program | |
JP2004034274A (en) | Conversation robot and its operation method | |
JP2024023193A (en) | Information processing device, and information processing method | |
JP2024009862A (en) | Information processing apparatus, information processing method, and program | |
JP2005131713A (en) | Communication robot | |
Li et al. | An egocentric computer vision based co-robot wheelchair | |
JP2004034273A (en) | Robot and system for generating action program during utterance of robot | |
Maheux et al. | T-Top, a SAR experimental platform | |
WO2021005878A1 (en) | Information processing device, information processing method, and information processing program | |
JP2004046399A (en) | Face recognition device and method | |
KR20180082777A (en) | Communion robot system for senior citizen | |
JP2006185239A (en) | Robot device, moving and following method of robot device, and program | |
JP4831750B2 (en) | Communication trigger system | |
Spexard et al. | Human-like person tracking with an anthropomorphic robot | |
JP7156300B2 (en) | Information processing device, information processing method, and program | |
JP5633003B2 (en) | Recording control apparatus and recording control program | |
JP2009106325A (en) | Communication induction system | |
JP2004045591A (en) | Method for recognizing voice and method for providing specific speaker's voice dictionary |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20051004 |