JP4770869B2 - Robot device, verification environment determination method, and verification environment determination program - Google Patents

Robot device, verification environment determination method, and verification environment determination program Download PDF

Info

Publication number
JP4770869B2
JP4770869B2 JP2008110870A JP2008110870A JP4770869B2 JP 4770869 B2 JP4770869 B2 JP 4770869B2 JP 2008110870 A JP2008110870 A JP 2008110870A JP 2008110870 A JP2008110870 A JP 2008110870A JP 4770869 B2 JP4770869 B2 JP 4770869B2
Authority
JP
Japan
Prior art keywords
collation
lighting
state
room
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2008110870A
Other languages
Japanese (ja)
Other versions
JP2008243217A (en
Inventor
純一 船田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008110870A priority Critical patent/JP4770869B2/en
Publication of JP2008243217A publication Critical patent/JP2008243217A/en
Application granted granted Critical
Publication of JP4770869B2 publication Critical patent/JP4770869B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Description

本発明は、家庭内で用いられ、ユーザの顔を画像情報を用いて記憶し照合する機能を有するロボット装置、照合環境判定方法、及び照合環境判定プログラムに関する。 The present invention relates to a robot apparatus, a verification environment determination method, and a verification environment determination program that are used at home and have a function of storing and collating a user's face using image information.

昨今のペット型ロボットに代表されるロボット装置は、エンターテイメント用途ということもあり、所有者の顔画像を登録して、撮像した画像から人物を照合し名前を呼んだりするように構成されている。 A robot apparatus typified by a recent pet-type robot is sometimes used for entertainment purposes, and is configured to register an owner's face image, collate a person from the captured image, and call a name.

顔照合機能を持つ従来のロボット装置の構成例を図20に示す。これは、画像を撮像する撮像手段1、前記撮像手段1で得られた画像から人物の顔領域を検出して記憶し、また新たに取得した画像に対して、記憶した顔画像情報を用いて人物の照合を行う顔検出照合手段2、顔検出照合手段2で得られた照合結果をユーザに通知する情報通知手段3、情報通知手段3によりユーザに通知した照合結果が正しいか誤っているかをユーザが入力する情報入力手段4、ロボットを制御するための制御手段7、ロボット自身が移動するための走行手段8などから構成される。ロボットは制御手段7からの命令に基づいて情報入力手段4と情報通知手段3を用いてユーザとやりとりをし、走行手段8を用いて部屋内を移動する。そして撮像手段1、顔検出照合手段2を用いてユーザの顔を認識し、対話しているユーザが誰であるのかを判断する。 A configuration example of a conventional robot apparatus having a face matching function is shown in FIG. This is because the image pickup means 1 for picking up an image, the face area of a person is detected from the image obtained by the image pickup means 1 and stored, and the newly acquired image is stored using the stored face image information. Face detection collation means 2 for collating a person, information notification means 3 for notifying the user of the collation result obtained by the face detection collation means 2, and whether the collation result notified to the user by the information notification means 3 is correct or incorrect. The information input means 4 input by the user, the control means 7 for controlling the robot, the traveling means 8 for moving the robot itself, and the like. The robot interacts with the user using the information input unit 4 and the information notification unit 3 based on the command from the control unit 7, and moves within the room using the traveling unit 8. Then, the user's face is recognized by using the imaging unit 1 and the face detection / collation unit 2, and it is determined who is interacting with the user.

家庭で用いられるロボットで顔照合を行う場合、家庭における照明環境が問題となる。家屋内は、照明が部屋に一つであることが多かったり、室内へ日光を取り込みやすい設計となっていたりするため、場所や時間帯による照明変動が激しい。また細かな作業をするために照明設計されているオフィスなどに比べて比較的暗くなっているため、著しく劣悪な照合環境も存在する。従来の照合方式では、このような照明環境の変動に起因する照明変動によって顔画像の特徴量が変動した場合、特徴量の変動を吸収できず照合性能精度が低下する。また、顔領域に充分な照明が当たっていない場合は、照合に必要な特徴を抽出することができず照合がうまくいかない場合もある。 When face collation is performed with a robot used at home, the lighting environment at home becomes a problem. The interior of a house often has a single lighting in the room, or is designed to easily capture sunlight into the room, so the lighting fluctuations depending on the location and time zone are severe. In addition, since it is relatively dark compared to an office or the like that is designed for lighting in order to perform detailed work, there is an extremely poor verification environment. In the conventional collation method, when the feature amount of the face image is fluctuated due to the illumination variation caused by such illumination environment variation, the variation of the feature amount cannot be absorbed and the collation performance accuracy is lowered. In addition, when the face area is not sufficiently illuminated, the features necessary for matching cannot be extracted and matching may not be successful.

このような照明環境の変動が激しい条件下で顔照合を行なう方法として、特開2000−222576号公報に開示された技術がある。この公報に開示された技術は、一人につき照明の当たり方の異なる複数の画像から抽出される特徴量を辞書データとして蓄え、それらを用いて線形判別を行うことで照明変動を吸収するものである。 As a method for performing face matching under such a condition where the illumination environment varies greatly, there is a technique disclosed in Japanese Patent Laid-Open No. 2000-222576. The technology disclosed in this publication stores feature amounts extracted from a plurality of images with different lighting per person as dictionary data, and absorbs variations in illumination by performing linear discrimination using them. .

特開2000−222576号公報JP 2000-222576 A

しかしながら、この特開2000−222576号公報に開示された技術を用いても登録時と著しく異なる照明状態で取得した顔画像ではその変動を吸収することができず、正しく照合することができないという問題がある。 However, even with the technique disclosed in Japanese Patent Laid-Open No. 2000-222576, the face image acquired in an illumination state that is significantly different from that at the time of registration cannot absorb the fluctuation and cannot be correctly verified. There is.

本発明は上記事情に鑑みてなされたものであり、一般家庭といった照明変動が大きい場所や、照合にとって著しく劣悪な照明環境が存在するような場所で顔照合を行なう場合に、顔照合の誤りを減ずることができるロボット装置、照合環境判定方法、及び照合環境判定プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and when face matching is performed in a place such as a general home where there is a large variation in lighting or where there is a lighting environment that is extremely inferior for matching, an error in face matching is detected. An object of the present invention is to provide a robot apparatus, a verification environment determination method, and a verification environment determination program that can be reduced.

係る目的を達成するために、本発明は、入力画像に対して顔画像情報を用いて人物の照合を行う顔検出照合手段を備えるロボット装置であって、照明環境状態を検出する照明環境状態観測手段と、前記照明環境状態が照合に適するか判断する判断手段を有し、前記判断手段が照明環境状態に対する照合の成否を記録した照合性能記録手段を参照して前記照明環境状態が照合に適するか判断し、前記照明環境状態が照合に適さないと判断された場合には、前記顔検出照合手段における照合を行わないことを特徴とする。 In order to achieve such an object, the present invention provides a robot apparatus including face detection / collation means for collating a person using face image information with respect to an input image, the illumination environment state observation detecting a lighting environment state Means for determining whether the lighting environment state is suitable for collation, and the lighting environment state is suitable for collation with reference to a collation performance recording unit in which the judgment unit records the success or failure of the collation for the lighting environment state. If the lighting environment state is determined not to be suitable for collation, the face detection / collation unit does not perform collation.

以上の説明より明らかなように本発明は、照明環境を判断し、照合に適さない照明環境では照合を行なわないようにすることで、照合の誤りを減らすことができる。従って、照明変動が大きく、極端に暗いなどの顔照合にとって劣悪な環境が存在する家庭で誤り少なく顔照合を行うことができる。
また、照合を行うときに照明環境の観測を行いそのときの照明環境で過去にどのくらいの割合で正解だったかをみて、正解が少ない照明環境であれば照合をせずにロボットを動かしてその位置や方向を変える。異なる家庭の照明環境や顔登録の状態には多様なバリエーションがあり、どのような照明環境の場合に照合がうまくいくのかを前もって精度良く予測してロボットを設計するのは困難である。そこでユーザが実際に使って顔照合を行う過程でどのような場所、どのような照明状態で照合がうまく行かないのかを学習すれば、前もって苦手な照明条件を想定するのに比べて精度良く照合が得意な場合やそうでない場合を判断することができる。
また、過去の照合性能を照合性能記録手段から検索し、時刻、カーテンの状態および照明装置の状態が現在の状態と同じ照明カテゴリの中で、顔照合結果が正解した回数の累計を照合を行った回数の累計で割った値が現在の照明カテゴリでの値以上で閾値以上もしくは最高の位置へ移動を行う。このようにすることで良好な照明環境にユーザを導くことができ顔照合の誤りを減らすことができる。
また、ユーザ毎に顔登録したときの照明状態を記憶しておき、ユーザがロボットと対話している最中に過去にそのユーザが顔登録を行っていないような照明条件であればユーザの顔登録を開始する、またはユーザに顔登録をするように促す。このようにすることでより効率よく様々な照明条件の顔画像を登録することが可能となる。
また、様々な照明状態毎に顔画像を登録しておき、照合を行うときはそのときの照明状態を観測し、同じ照明状態で登録された画像から作られた辞書を用いて照合を行う。このようにすることで照明環境を評価せずに登録・照合を行なう場合よりも精度良く照合を行うことができる。
As is apparent from the above description, the present invention can reduce collation errors by determining the lighting environment and not performing collation in an illumination environment that is not suitable for collation. Therefore, face matching can be performed with few errors in a home where there is an environment that is inferior for face matching, such as a large illumination fluctuation and extremely dark.
Also, when checking the lighting environment, check the lighting environment at what rate in the past in the lighting environment, and if there are few correct answers, move the robot without checking and move the position. Or change direction. There are various variations in lighting environments and face registration states in different homes, and it is difficult to design a robot by accurately predicting in advance in which lighting environment matching will be successful. Therefore, if the user actually learns where and in what lighting conditions the matching process does not work in the face matching process, the matching will be performed more accurately than if the lighting conditions are not good in advance. You can determine when you are good at or not.
In addition, the past matching performance is searched from the matching performance recording means, and the total of the number of times the face matching result is correct in the lighting category in which the time, curtain state and lighting device state are the same as the current state is checked. When the value divided by the cumulative number of times is equal to or greater than the value in the current lighting category, movement is performed to a position that is equal to or greater than the threshold value or highest. In this way, the user can be guided to a good lighting environment, and face matching errors can be reduced.
Also, the lighting state when the face registration is performed for each user is stored, and if the lighting condition is such that the user has not registered the face in the past while the user is interacting with the robot, the user's face Start registration or urge the user to register face. By doing so, it is possible to register face images under various illumination conditions more efficiently.
In addition, face images are registered for each of various illumination states, and when collation is performed, the illumination state at that time is observed, and collation is performed using a dictionary created from images registered in the same illumination state. By doing in this way, collation can be performed with higher accuracy than when registration / collation is performed without evaluating the lighting environment.

次に添付図面を参照しながら本発明に係る実施の形態を詳細に説明する。図1〜図19を参照すると本発明に係る実施の形態が示されている。
(第1の実施の形態)
(構成の説明)
図1を参照すると本発明に係る第1の実施形態は、画像を撮像しデジタル化するCCDカメラ、またはアナログ撮像器とAD変換器とからなる撮像手段1と、撮像手段1で得られた画像から人物の顔領域を検出して記憶すると共に、制御手段7によって顔照合を行なう状態への遷移が決定されると、新たに取得した画像の人物照合を、予め記憶した顔画像情報を用いて行なう顔検出照合手段2と、顔検出照合手段2で得られた照合結果を音声で発話したり、CRT上に表示するなどしてユーザに通知する情報通知手段3と、情報通知手段3によってユーザに通知した照合結果が正しいか誤っているかをユーザが音声、ボタン、またはスイッチなどで入力する情報入力手段4と、照明状態が顔照合に適するかどうかを判定する照合結果信頼性算出手段5と、ロボットの部屋の中での位置や時刻などの情報を保持するロボット状態観測手段6と、ロボットを制御する制御手段7と、ロボット自身が移動するための車輪やモータなどといった走行手段8と、を有する。
Next, embodiments of the present invention will be described in detail with reference to the accompanying drawings. 1 to 19 show an embodiment according to the present invention.
(First embodiment)
(Description of configuration)
Referring to FIG. 1, a first embodiment according to the present invention is a CCD camera that captures an image and digitizes it, or an image pickup means 1 comprising an analog image pickup device and an AD converter, and an image obtained by the image pickup means 1. When the control unit 7 determines the transition to the state in which face matching is performed, the person matching of the newly acquired image is performed using the previously stored face image information. The face detection collating means 2 to be performed, the information notifying means 3 for notifying the user by speaking the voice of the collation result obtained by the face detection collating means 2 or displaying it on the CRT, and the information notifying means 3 Information input means 4 for the user to input whether the verification result notified to the user is correct or incorrect by voice, button, switch, or the like, and verification result reliability calculation for determining whether the illumination state is suitable for face verification Means 5, robot state observation means 6 for holding information such as the position and time in the robot room, control means 7 for controlling the robot, and traveling means such as wheels and motors for the robot itself to move 8 and.

顔検出照合手段2は、撮像手段1で撮像した画像から人物の顔を検出して登録したり、制御手段7によって顔照合を行なう状態への遷移が決定されると、新たに取得した画像の人物照合を、予め記憶した顔画像を用いて行なう。ここで、画像から人物の顔画像を検出する方法の一例として、特開2000−222576号公報に開示された方法を説明する。まず、画面内で動きのある画素群を検出する。入力画像データと、それより1つ前に入力された画像データとの差分をとり、差分画像gを生成する。さらに過去mフレーム分(mは2以上の整数)の差分画像gを加算し、平均を取ることによって、統合差分画像Gを得る。統合差分画像Gは、動きのない領域の画素値が0で、動きのある領域ほど画素値が大きい値を取る。統合差分画像Gは、ごま塩ノイズを多く含むので、ノイズ除去処理を行う。ノイズ除去処理の例としては、膨張収縮処理や、メジアンフィルタ処理などがある。次に、統合差分画像Gから頭部矩形座標を求める。各スキャンライン毎に動き領域幅を求める。動き領域幅は各スキャンラインにおいて動き領域のx座標最大値と最小値の差分を表している。次に、頭部のy座標を求める。頭頂座標の求め方としては、動き領域のy座標の最小値を頭頂とする方法がある。次に、頭部矩形の底辺のy座標を求める。頭部矩形の底辺座標の求め方としては、頭頂から下方向(y方向)に検索し、動き領域幅が動き領域幅の平均値dmよりも小さいラインを求め、そのラインの中でY座標が最も大きいところを、頭部矩形の底辺とする方法を用いてもよい。次に、頭部矩形の左右のx座標を求める。左右のx座標の求め方としては、頭頂から頭部下部までの範囲で最も動き領域幅の大きなラインにおける動き領域の左右端の座標を求める方法を用いる。このようにして求めた頭部矩形内を、1画素ずつずらしながら適当な大きさの矩形で切り出し顔らしさを評価し、もっとも顔らしい位置を顔として検出する。顔らしさの評価には、まず、あらかじめ用意したさまざまな人物の多数の画像から、人手で正確に顔画像を切り出し、この切り出した顔画像データを主成分分析することで低次の固有ベクトルで張られる部分空間を得る。そして、この低次の固有ベクトルで張られる部分空間と、前述した適当な大きさで切り出した矩形画像との距離が近いかどうかで判断を行なう。この他に、文献「小杉信、”個人識別のための多重ピラミッドを用いたシーン中の顔の探索・位置決め”、電子情報通信学会論文誌、Vol.J77-D-II, No4, pp.672-681, April 1994 」にある濃淡パターンによるテンプレートマッチングを用いた方法を適用することも可能である。 The face detection / collation unit 2 detects a person's face from the image captured by the imaging unit 1 and registers it, or when the control unit 7 determines a transition to a state in which face collation is performed, the face detection / collation unit 2 The person verification is performed using a face image stored in advance. Here, as an example of a method for detecting a human face image from an image, a method disclosed in Japanese Patent Application Laid-Open No. 2000-222576 will be described. First, a pixel group that moves in the screen is detected. A difference image g is generated by taking the difference between the input image data and the image data input immediately before. Furthermore, the difference image g of past m frames (m is an integer of 2 or more) is added, and an average difference is obtained to obtain an integrated difference image G. The integrated difference image G has a pixel value of 0 in a non-motion area, and a larger pixel value in a movement area. Since the integrated difference image G contains a large amount of sesame salt noise, noise removal processing is performed. Examples of noise removal processing include expansion / contraction processing and median filter processing. Next, the head rectangular coordinates are obtained from the integrated difference image G. The motion area width is obtained for each scan line. The motion region width represents the difference between the maximum and minimum x-coordinate values of the motion region in each scan line. Next, the y coordinate of the head is obtained. As a method of obtaining the vertex coordinates, there is a method in which the minimum value of the y coordinate of the motion region is used as the vertex. Next, the y coordinate of the base of the head rectangle is obtained. As a method of obtaining the base coordinates of the head rectangle, a search is performed from the top to the bottom (y direction), a line having a motion area width smaller than the average value dm of the motion area width is obtained, and the Y coordinate is within that line. You may use the method which makes the largest place the base of a head rectangle. Next, the left and right x coordinates of the head rectangle are obtained. As a method for obtaining the left and right x-coordinates, a method is used in which the coordinates of the left and right ends of the motion region in the line having the largest motion region width in the range from the top of the head to the lower part of the head are used. The head rectangle obtained in this manner is cut out with a rectangle of an appropriate size while shifting one pixel at a time, and the likelihood of a face is evaluated, and the most likely face position is detected as a face. For evaluation of facial appearance, first, a face image is accurately cut out manually from a large number of images of various persons prepared in advance, and this cut out face image data is subjected to principal component analysis to be stretched with low-order eigenvectors. Get subspace. Then, a determination is made based on whether or not the distance between the partial space spanned by the low-order eigenvector and the rectangular image cut out at the appropriate size described above is short. In addition, the document "Kosugi Shin," Finding and locating faces in scenes using multiple pyramids for personal identification ", IEICE Transactions, Vol. J77-D-II, No4, pp.672 -681, April 1994 ", it is also possible to apply the method using template matching by the light and shade pattern.

また、顔画像の照合方法については、文献「M.Turk, A.Pentland, ”FaceRecognition on Using Eigenfaces ”,Proceedings of IEEE, CVPR91」に示された、多数の顔画像を主成分分析した結果得られる基底ベクトルのうち低次のもので張られる部分空間へ入力顔画像を射影した成分を特徴ベクトルとし、照合対象となる画像の特徴ベクトルと、登録されているそれぞれの人物を代表する登録画像の特徴ベクトルとのユークリッド距離を検索し、このユークリッド距離が最も小さい人物を識別結果とする方法を適用してもよい。また、特開2000−222576号公報に開示された人物の特徴データから作成した線形判別辞書を用いて対象顔画像との類似度の大きさを求めることでパターン識別する方法を用いてもよい。 The face image matching method is obtained as a result of principal component analysis of a large number of face images as described in the literature “M. Turk, A. Pentland,“ Face Recognition on Using Eigenfaces ”, Proceedings of IEEE, CVPR91”. The feature vector is the component of the base vector that projects the input face image into the subspace spanned by the lower-order ones. The feature vector of the image to be collated and the features of the registered image representing each registered person A method of searching for the Euclidean distance from the vector and using the person with the smallest Euclidean distance as the identification result may be applied. Alternatively, a pattern identification method may be used by obtaining the degree of similarity with the target face image using a linear discrimination dictionary created from human feature data disclosed in Japanese Patent Laid-Open No. 2000-222576.

情報通知手段3は制御手段7によって制御され、顔検出照合手段2により人物の照合結果が出た段階で照合結果をユーザに通知し、照合結果が正しいかどうかの確認を求める。例えば、あらかじめ録音した音声や計算機による合成音声でスピーカから照合結果のユーザの名前を発話したり、CRTや液晶モニタにユーザの名前やマークを提示する。 The information notification means 3 is controlled by the control means 7 and notifies the user of the collation result when the face collation result is obtained by the face detection collation means 2 and asks for confirmation of whether the collation result is correct. For example, the user's name as a result of collation is spoken from a speaker using voices recorded in advance or synthesized voice by a computer, or the user's name or mark is presented on a CRT or liquid crystal monitor.

情報入力手段4は制御手段7によって制御され、情報通知手段3で通知した照合結果に対するユーザの回答を取得する。例えばユーザが「はい」というか「いいえ」というかを音声認識により識別したり、ユーザがボタンを押すことで正解かどうかをロボットへ入力できるようにする。 The information input unit 4 is controlled by the control unit 7 and acquires a user's answer to the collation result notified by the information notification unit 3. For example, it is possible to identify whether the user is “yes” or “no” by voice recognition, or to allow the user to input whether the answer is correct by pressing a button.

照合結果信頼性算出手段5は、撮像手段1やロボット状態観測手段6からの情報から、顔照合を行おうとするときの照明環境が照合に適するかどうかを判定する。 The collation result reliability calculation unit 5 determines whether or not the illumination environment when performing face collation is suitable for collation from the information from the imaging unit 1 and the robot state observation unit 6.

照明環境を特徴付ける量としては以下に挙げるものなどが利用できる。
[撮像手段1からの情報]
1.顔領域のコントラスト(顔検出照合手段2で得られる顔領域の輝度値の分散。)
照明環境によっては検出された顔領域のコントラストが大きかったり小さかったりする。一般に逆光であるとか顔にほとんど照明が当たらない場合、顔領域のコントラストは小さくなる。顔領域のコントラストが小さいと顔の特徴が失われてしまうため精度の高い照合ができなくなる。顔領域のコントラストは環境によって変化し、照合性能に大きな影響を与える。
2.顔領域と背景の平均輝度の比(顔検出照合手段2で得られる顔領域の輝度値の平均と、その外側近傍領域の輝度値の平均の比)
顔領域と背景の平均輝度値の比は逆光のときに大きくなる。逆光のときはコントラストも小さくなったり検出精度が下がるなど照合にとって不利となる。
3.画像全体の輝度値の平均
画像全体の輝度値の平均は、部屋全体の明るさをおおざっぱに表す。部屋の明るさは顔にあたる光量に関連する。
The following can be used as the quantities characterizing the lighting environment.
[Information from the imaging means 1]
1. Contrast of the face area (dispersion of luminance values of the face area obtained by the face detection collating means 2)
Depending on the lighting environment, the contrast of the detected face area may be large or small. In general, when the face is backlit or the face is hardly illuminated, the contrast of the face area becomes small. If the contrast of the face area is small, facial features will be lost, making it impossible to collate with high accuracy. The contrast of the face area changes depending on the environment, and has a great influence on the matching performance.
2. Ratio of the average brightness of the face area and the background (ratio of the average brightness value of the face area obtained by the face detection collating means 2 and the average brightness value of the outer neighboring area)
The ratio between the average luminance value of the face area and the background increases when the backlight is on. When the backlight is used, the contrast is reduced and the detection accuracy is lowered.
3. Average brightness value of the entire image The average brightness value of the entire image roughly represents the brightness of the entire room. The brightness of the room is related to the amount of light hitting the face.

これらの条件の判定方法は、1の顔領域のコントラストは、特徴量は大きいほど照合に適していると判断することができ、2の顔領域と背景の平均輝度値の比と、3の画像全体の輝度値の平均は、上限と下限を決めたある範囲内にあるかどうかで照合に適しているか否かを判断することができる。 According to the determination method of these conditions, it can be determined that the contrast of the face area 1 is more suitable for collation as the feature amount is larger. The ratio of the average luminance value of the face area 2 to the background and the image 3 It can be determined whether or not the average of all luminance values is suitable for collation based on whether or not the upper limit and the lower limit are within a certain range.

[カメラ以外から得られる情報]
1.時刻(朝か昼か夕方か夜か)
昼間野外から差し込む自然光が存在する場合と、夜その部屋の照明のみで照らされている場合では、照明環境が大きく異なる。
2.照明装置が点灯しているかどうか(図示しない照明装置状態観測手段を部屋に設置されている照明装置に連動させ、照明装置が点灯しているかどうかをロボット(ロボット状態観測手段6)が取得する)
3.カーテンが開いているかどうか(図示しないカーテン状態観測手段を部屋に設置されているカーテンに連動させ、カーテンが開いているかどうかをロボット(ロボット状態観測手段6)が取得する)
照明装置が点灯しているかどうかとカーテンが開いているかどうかという情報は、家庭内の主要な光源である照明光や自然光の有無に大きく関わる。
4.ロボットの部屋の中での位置(車輪のエンコーダや画像からの情報を用いてロボット位置を取得する)
照明や自然光が入り込む位置は部屋の中で固定されているため、部屋の中でどこにロボットがいてどのような方向で人を観測するかが顔にあたる光と大きく関係する。
[Information obtained from other than the camera]
1. Time of day (morning / daytime / evening / night)
The lighting environment is greatly different between the case where there is natural light entering from the outdoors in the daytime and the case where it is illuminated only by the lighting of the room at night.
2. Whether or not the lighting device is lit (the lighting device state observation means (not shown) is linked to the lighting device installed in the room, and the robot (robot state observation means 6) acquires whether or not the lighting device is lit)
3. Whether the curtain is open (the curtain state observation means (not shown) is linked to the curtain installed in the room, and the robot (robot state observation means 6) acquires whether the curtain is open).
Information on whether or not the lighting device is lit and whether or not the curtain is open is greatly related to the presence or absence of illumination light and natural light, which are the main light sources in the home.
4). Position in the robot's room (obtains robot position using information from wheel encoders and images)
Since the position where illumination and natural light enter is fixed in the room, where the robot is in the room and in what direction the person is observed is largely related to the light on the face.

これらの条件の判定方法は、照明装置が点灯しているかどうかと、カーテンが開いているかどうかという情報から、照合を行う時刻での現在のロボット位置での照明環境を判定して照合に適しているかどうかを判定する。 The determination method for these conditions is suitable for verification by determining the lighting environment at the current robot position at the time of verification from information on whether the lighting device is lit and whether the curtain is open. Determine whether or not.

ロボット状態観測手段6は、照合結果信頼性算出手段5で照明環境を判断するのに用いる、カメラ以外からの情報を取得する。例えばロボットの部屋の中での位置を求めるための車輪のエンコーダや、部屋に設置されている照明装置に連動して照明が点灯しているかどうかを判断する部屋状態観測手段(不図示)や、カーテンに連動してカーテンが開いているかどうかを判断するカーテン状態観測手段(不図示)などの一つまたは複数からなる。 The robot state observing means 6 acquires information from other than the camera that is used by the verification result reliability calculating means 5 to determine the illumination environment. For example, a wheel encoder for determining the position of the robot in the room, a room state observing means (not shown) for determining whether the light is lit in conjunction with a lighting device installed in the room, It consists of one or a plurality of curtain state observation means (not shown) for determining whether or not the curtain is open in conjunction with the curtain.

制御手段7は、ロボットを制御する。走行手段8は、モータ、車軸、車輪などを有しロボットの部屋内での移動を実現する。 The control means 7 controls the robot. The traveling means 8 includes a motor, an axle, wheels, and the like, and realizes movement of the robot in the room.

(動作の説明)
次に、図2に示されたフローチャートを参照しながら本実施形態の動作手順を説明する。第1の実施形態では、まず、制御手段7で顔を識別する状態への遷移が決定されると(ステップS201)、照合結果信頼性算出手段5で、顔照合を行おうとするときの照明環境を撮像手段1やロボット状態観測手段6からの情報から得て、照合に適しているかどうかを判断する(ステップS202)。
(Description of operation)
Next, the operation procedure of this embodiment will be described with reference to the flowchart shown in FIG. In the first embodiment, first, when a transition to a state for identifying a face is determined by the control means 7 (step S201), an illumination environment when the face matching is to be performed by the matching result reliability calculation means 5 Is obtained from information from the imaging means 1 and the robot state observation means 6, and it is determined whether or not it is suitable for collation (step S202).

まず、ステップS202で信頼性が高いと判断された場合(ステップS202/YES)を説明する。この場合、顔検出照合手段2で、撮像手段1で得られた画像から顔画像を検出して照合を行い、あらかじめ登録してある人物の誰かに対応付けを行う(ステップS203)。その結果の人物をLとする。その後、情報通知手段3で照合結果をユーザへ知らせ、照合結果が正しいかどうかの確認をユーザに求める(ステップS204)。 First, the case where it is determined in step S202 that the reliability is high (step S202 / YES) will be described. In this case, the face detection / collation unit 2 detects and collates the face image from the image obtained by the imaging unit 1, and associates it with someone registered in advance (step S203). Let the resulting person be L. Thereafter, the information notification means 3 informs the user of the collation result and asks the user to confirm whether the collation result is correct (step S204).

次にステップS202で信頼性が低いと判断された場合(ステップS202/NO)を説明する。この場合、顔照合を行わず、走行手段8を用いてロボット本体を移動し(ステップS205)、再び照明環境を撮像手段1やロボット状態観測手段6から観測し測定する。何度移動してもステップS202の条件が満たされない場合は、顔照合を行うような動作フローとする実現方法も考えられる。 Next, the case where it is determined in step S202 that the reliability is low (step S202 / NO) will be described. In this case, the robot body is moved using the traveling means 8 without performing face matching (step S205), and the illumination environment is again observed and measured from the imaging means 1 and the robot state observation means 6. If the condition of step S202 is not satisfied even if the movement is performed many times, a realization method of an operation flow for performing face matching is also conceivable.

このように本実施形態は、照明状態をあらかじめ持っている知識で判断して照合に適さない照明環境では照合を避けることで、照合の誤りを減らすことができる。具体的には、検出された顔領域の画像に充分なコントラストが出ていない場合や、部屋の照明装置がついていない場合に、照合に適していないと判定して照合を行なわずにロボットを動かしてその位置や方向を変えることで誤判定の発生を減らすことができる。 As described above, according to the present embodiment, it is possible to reduce verification errors by avoiding verification in an illumination environment that is determined based on knowledge of lighting conditions and is not suitable for verification. Specifically, if the detected image of the face area does not have sufficient contrast, or if the room lighting device is not attached, it is determined that the image is not suitable for collation and the robot is moved without performing collation. The occurrence of misjudgment can be reduced by changing the position and direction.

(第2の実施の形態)
(構成の説明)
本発明に係る第2の実施形態について図面を参照して詳細に説明する。図3を参照すると本発明の第2の実施形態は、画像を撮像しデジタル化するCCDカメラ、またはアナログ撮像器とAD変換器とからなる撮像手段1と、撮像手段1で得られた画像から人物の顔領域を検出して記憶すると共に、制御手段7によって顔照合を行なう状態への遷移が決定されると、新たに取得した画像の人物照合を、予め記憶した顔画像情報を用いて行なう顔検出照合手段2と、顔検出照合手段2で得られた照合結果を音声で発話したり、CRT上に表示するなどしてユーザに通知する情報通知手段3と、情報通知手段3を通じてユーザに通知した照合結果が正しいか誤っているかを、ユーザが音声、ボタン、またはスイッチなどで入力する情報入力手段4と、撮像手段1やロボット状態観測手段6からの情報から顔照合を行おうとするときの照明環境が照合に適しているかどうかを判定する照明環境判定手段500と、ロボットの部屋の中での位置や時刻などの情報を保持するロボット状態観測手段6と、ロボットを制御するための制御手段7と、ロボット自身が移動するための車輪やモータなどといった走行手段8とを有する。
(Second Embodiment)
(Description of configuration)
A second embodiment according to the present invention will be described in detail with reference to the drawings. Referring to FIG. 3, the second embodiment of the present invention is based on a CCD camera that captures and digitizes an image, or an imaging unit 1 that includes an analog imager and an AD converter, and an image obtained by the imaging unit 1. When a face area of a person is detected and stored, and the transition to a state in which face matching is performed is determined by the control means 7, person matching of a newly acquired image is performed using face image information stored in advance. The face detection / collation unit 2, the information notification unit 3 for notifying the user by speaking the voice of the collation result obtained by the face detection / collation unit 2 or displaying it on the CRT, etc. Face matching is performed based on information from the information input means 4 in which the user inputs voice, buttons, switches, or the like, and information from the imaging means 1 and the robot state observation means 6 as to whether the notified verification result is correct or incorrect. Lighting environment determination means 500 for determining whether the lighting environment is suitable for collation, robot state observation means 6 for holding information such as the position and time in the robot room, and the robot is controlled. Control means 7 and a traveling means 8 such as a wheel or a motor for the robot itself to move.

また、照明環境判定手段500は、撮像手段1から得られる画像情報や、ロボット状態観測手段6から得られる時刻、現在位置に関する情報を基に照明環境を判断し、照明環境が予め決めてあるカテゴリのどれに対応するのかを判断する照明環境判断手段501と、情報入力手段4で得られた照合結果正誤情報に従って、顔照合が成功した回数と顔照合を行なった回数とを前記カテゴリ毎に記録する照合性能記録手段502と、照合性能記録手段502に記録されている情報を基に照明環境判断手段501で判定された現在の照明環境が照合に適するものかどうかを判断する照明環境比較手段503と、を有する。 The lighting environment determining unit 500 determines the lighting environment based on the image information obtained from the imaging unit 1, the time obtained from the robot state observing unit 6, and the information on the current position, and the lighting environment is a predetermined category. The number of successful face matching and the number of face matching are recorded for each category according to the lighting environment judgment means 501 for judging which one of them corresponds, and the matching result correct / incorrect information obtained by the information input means 4 Collation performance recording means 502 for performing the verification, and lighting environment comparison means 503 for determining whether the current lighting environment determined by the illumination environment determination means 501 is suitable for collation based on the information recorded in the collation performance recording means 502. And having.

照明環境判断手段501は、顔照合を行おうとするときの照明環境を撮像手段1やロボット状態観測手段6からの情報から判断する。照明環境を判定する際の判定材料については上述した第1の実施形態と同一であるため説明を省略する。これら判定材料の一つないし複数を用いて照明環境を表現する。具体的には図4に示すようなテーブルを用意し、照明環境をカテゴリ分けする。つまり照明環境判断手段501では顔照合を行おうとするときに上述したような判断材料を観測し、現在の照明環境があらかじめ設定されたどのカテゴリに属するのかを出力する。 The illumination environment determination unit 501 determines the illumination environment when performing face matching from information from the imaging unit 1 and the robot state observation unit 6. Since the determination material for determining the illumination environment is the same as that in the first embodiment described above, the description thereof is omitted. The lighting environment is expressed using one or more of these determination materials. Specifically, a table as shown in FIG. 4 is prepared, and lighting environments are classified into categories. That is, the lighting environment determination unit 501 observes the determination materials as described above when performing face collation, and outputs which category the current lighting environment belongs to.

照合性能記録手段502は、図5に示すような形式で、顔照合が成功した回数と顔照合を行なった回数とをあらかじめ決められたカテゴリ毎に記録している。そして、情報入力手段4で顔照合に対する回答をユーザから取得すると、対応するカテゴリに顔画像が成功したか否かと、顔照合を行なった回数とを記録する。 The collation performance recording unit 502 records the number of successful face collations and the number of face collations for each predetermined category in the format shown in FIG. When the information input unit 4 obtains an answer to face matching from the user, it records whether or not the face image succeeded in the corresponding category and the number of face matching performed.

照明環境比較手段503は、照明環境判断手段501から得られる照明環境のときの照合性能を照合性能記録手段502から検索し、照合を行った回数(t(K))の累計が予め設定された閾値以上で、かつ、2.顔照合結果が正解した回数の累計(r(K))を照合を行った回数の累計(t(K))で割った照合性能値が、あらかじめ設定された閾値以上であった場合に、その照明環境での照合結果は信頼性が高いと判断する。それ以外の場合[(t(K))が予め設定された閾値以下、またはt(K)が閾値以上で、r(K)/t(K)が閾値未満の場合]、その環境での照合結果は信頼性が低いと判断する。 The lighting environment comparison unit 503 searches the collation performance recording unit 502 for collation performance in the lighting environment obtained from the illumination environment determination unit 501, and the total number of times of collation (t (K)) is preset. Greater than or equal to the threshold and 2. When the matching performance value obtained by dividing the cumulative number of times that the face matching result is correct (r (K)) by the cumulative number of matching times (t (K)) is greater than or equal to a preset threshold value, Judgment result in lighting environment is judged to be highly reliable. In other cases [when (t (K)) is less than or equal to a preset threshold value, or t (K) is greater than or equal to a threshold value and r (K) / t (K) is less than the threshold value), matching in that environment The result is judged to be unreliable.

(動作の説明)
次に、図6に示されたフローチャートを参照しながら本実施形態の動作手順を説明する。第2の実施形態では、まず、制御手段7で自律行動状態から顔を識別する状態への遷移が決定されると(ステップS601/YES)、照明環境判断手段501で、顔照合を行おうとするときの照明環境を撮像手段1やロボット状態観測手段6からの情報から判断し、前述のように図4で示したような形でカテゴリ分けする(ステップS602)。このカテゴリのことを照明カテゴリとよぶ。照明カテゴリにはIDが付けられ、そのIDのことを照明IDと呼ぶ。ここで判断された照明カテゴリのIDをKとする。
(Description of operation)
Next, the operation procedure of this embodiment will be described with reference to the flowchart shown in FIG. In the second embodiment, first, when the control unit 7 determines a transition from the autonomous behavior state to a state for identifying a face (step S601 / YES), the illumination environment determination unit 501 tries to perform face matching. The lighting environment at the time is determined from information from the imaging means 1 and the robot state observation means 6 and is categorized as shown in FIG. 4 as described above (step S602). This category is called the lighting category. An ID is assigned to the illumination category, and the ID is referred to as an illumination ID. Let the ID of the lighting category determined here be K.

次に、照明環境比較手段503で、照明環境判断手段501で判断された照明IDがKのときの照合性能を照合性能記録手段502から検索し、照合を行った回数(t(K))の累計が予め設定された閾値以上で、かつ、2.顔照合結果が正解した回数の累計(r(K))を照合を行った回数の累計(t(K))で割った照合性能値があらかじめ設定された閾値以上であった場合に、その環境での照合結果は信頼性が高いと判断する(ステップS603/YES)。それ以外の場合[(t(K))が予め設定された閾値以下、またはt(K)が閾値以上で、r(K)/t(K)が閾値未満の場合]、その環境での照合結果は信頼性が低いと判断する(ステップS603/NO)。なお、t(K)が小さい時には、無条件で顔照合を行い、照合を行なった回数(t(K))と、照合に正解した場合には正解した回数(r(K))とをインクリメントさせてもよい。 Next, the lighting environment comparison unit 503 searches the collation performance recording unit 502 for collation performance when the illumination ID determined by the illumination environment determination unit 501 is K, and the number of times of collation (t (K)). 1. The cumulative total is equal to or greater than a preset threshold, and If the collation performance value obtained by dividing the total number of correct face matching results (r (K)) by the total number of collation times (t (K)) is equal to or greater than a preset threshold, the environment It is determined that the collation result in is highly reliable (step S603 / YES). In other cases [when (t (K)) is less than or equal to a preset threshold value, or t (K) is greater than or equal to a threshold value and r (K) / t (K) is less than the threshold value), matching in that environment It is determined that the result is low in reliability (step S603 / NO). When t (K) is small, face matching is unconditionally performed, and the number of times of matching (t (K)) is incremented, and the number of correct answers (r (K)) is incremented when matching is correct. You may let them.

照明環境比較手段503で照合の信頼性が高いと判断された場合(ステップS603/YES)、顔検出照合手段2で、撮像手段1で得られた画像から顔画像を検出して予め登録された顔画像との照合を行い、登録してある人物の誰かに対応付けを行う(ステップS604)。その結果の人物をLとする。その後、情報通知手段3で照合結果をユーザへ知らせ、照合結果が正しいかどうかの確認をユーザに求める(ステップS605)。それを受け、ユーザが示した回答を情報入力手段4で取得し、正解だったか不正解だったかを判断する(ステップS606)。正解だったときは(ステップS606/YES)、照明IDがKのときの照合を行った回数t(K)と照明IDがKのときに正解した回数r(K)を1増やし、ユーザとの対話などの自律行動へ戻る(ステップS609、かつS607)。また、不正解だったときは照合を行なった回数t(K)を1増やし(ステップS607)、ユーザとの対話などの自律行動へ戻る。 When the lighting environment comparison unit 503 determines that the collation reliability is high (step S603 / YES), the face detection collation unit 2 detects the face image from the image obtained by the imaging unit 1 and is registered in advance. Collation with the face image is performed, and correspondence is made with someone who is registered (step S604). Let the resulting person be L. Thereafter, the information notification means 3 informs the user of the collation result and asks the user to confirm whether the collation result is correct (step S605). In response to this, the information input means 4 acquires the answer indicated by the user, and determines whether the answer is correct or incorrect (step S606). When the answer is correct (step S606 / YES), the number t (K) of verification when the illumination ID is K and the number r (K) of correct answer when the illumination ID is K are incremented by one. Return to autonomous behavior such as dialogue (steps S609 and S607). If the answer is incorrect, the number of collations t (K) is incremented by 1 (step S607), and the process returns to autonomous behavior such as dialogue with the user.

次に、照明環境比較手段503で照合の信頼性が低いと判断された場合(ステップS603/NO)、顔照合を行わず、走行手段8を用いてロボット本体を移動し(ステップS608)、再び照明環境を観測し、判定する。何度移動してもステップS603の条件が満たされない場合は、顔照合を行うような動作フローとする実現方法も考えられる。なお、ロボットの移動に関して、ユーザに違和感を与えないように自然な演出を施すことが望ましい。 Next, when the lighting environment comparison unit 503 determines that the verification reliability is low (NO in step S603), the robot body is moved using the traveling unit 8 without performing the face verification (step S608), and again. Observe and determine the lighting environment. If the condition in step S603 is not satisfied even if the movement is performed many times, an implementation method that provides an operation flow that performs face matching is also conceivable. It should be noted that it is desirable to give a natural effect on the movement of the robot so as not to give the user a sense of incongruity.

このように本実施形態は、顔照合が行なわれる度にそのときの照明環境の観測と照合結果が正しいかどうかの確認を行い、その照明環境で照合が行われた回数と正解だった回数を累積して記録する。累積が十分されたら、照合を行なうときに照明環境の観測を行い、そのときの照明環境で過去にどのくらいの割合で正解したかをみて、正解が少ない照明環境であれば照合をせずにロボットを動かしてその位置や方向を変える。このようにして過去の照合の履歴をみて照合結果が良くない照合環境では照合を避けることで照合の誤りを減らすことができる。 As described above, every time face matching is performed, the present embodiment performs observation of the lighting environment at that time and checks whether the matching result is correct, and determines the number of times the matching was performed in the lighting environment and the number of correct answers. Cumulatively record. If the accumulation is sufficient, observe the lighting environment at the time of collation, check the percentage of correct answers in the past in the lighting environment at that time, and if there are few correct answers, the robot without collation Move to change its position and direction. In this way, collation errors can be reduced by avoiding collation in a collation environment in which the collation result is not good by looking at past collation histories.

異なる家庭の照明環境や顔登録の状態には多様なバリエーションがあり、どのような照明環境の場合に照合がうまくいくのかを前もって精度よく予測してロボットを設計するのは困難である。そこで、ユーザが実際に使用する段階で、どのような場所、どのような照明状態で照合がうまくいかないのかを学習すれば、前もって苦手な照明条件を想定する場合に比べて精度良く照合を行なうことができる。 There are various variations in lighting environments and face registration states in different homes, and it is difficult to design a robot by accurately predicting in advance in which lighting environment matching will be successful. Therefore, when the user actually learns what kind of place and in what lighting state the collation is not successful, the collation can be performed with higher accuracy than when assuming poor lighting conditions in advance. it can.

(第3の実施の形態)
(構成の説明)
本発明に係る第3の実施形態について図面を参照して詳細に説明する。図7を参照すると本発明に係る第3の実施形態は、第2の実施形態に加えて人物の全体的な特徴量を抽出する全体特徴量抽出手段504を具備する。
(Third embodiment)
(Description of configuration)
A third embodiment according to the present invention will be described in detail with reference to the drawings. Referring to FIG. 7, the third embodiment according to the present invention includes an overall feature amount extraction unit 504 that extracts an entire feature amount of a person in addition to the second embodiment.

全体特徴量抽出手段504は、制御手段7によって制御され、撮像手段1によって撮像された画像から人物を特定可能な特徴量を抽出する。全体特徴量抽出手段504は、ユーザ毎の特徴量が予め登録された辞書を具備し、撮像手段1で撮像された画像からユーザを特定する特徴量を抽出する。この辞書に登録された特徴量とは、例えば、ユーザの身長、体型、髪型、眼鏡をかけているか否かといったユーザを特定することが可能となる情報である。全体特徴量抽出手段504は、全体特徴量を抽出することができた場合には特徴量ありを示す情報を、抽出することができなかった場合には特徴量なしを示す情報を照明環境比較手段503に出力する。 The overall feature quantity extraction unit 504 is controlled by the control unit 7 and extracts a feature quantity that can identify a person from the image captured by the imaging unit 1. The entire feature amount extraction unit 504 includes a dictionary in which feature amounts for each user are registered in advance, and extracts a feature amount that identifies the user from the image captured by the imaging unit 1. The feature amount registered in the dictionary is information that enables the user to be identified, for example, whether the user's height, body shape, hairstyle, or glasses. The whole feature quantity extraction unit 504 displays information indicating that there is a feature quantity when the whole feature quantity can be extracted, and information indicating that there is no feature quantity when the whole feature quantity cannot be extracted. The data is output to 503.

照明環境比較手段503は、全体特徴量抽出手段504により全体特徴量が抽出されたか否かによって、照明環境判断手段501で判断された照明カテゴリでの照合性能を判断する閾値を変更して照合性能を判定する。 The illumination environment comparison unit 503 changes the threshold for determining the collation performance in the illumination category determined by the illumination environment determination unit 501 depending on whether or not the entire feature amount is extracted by the entire feature amount extraction unit 504. Determine.

次に、図8に示されたフローチャートを参照しながら本実施形態の動作手順を説明する。まず、制御手段7で自律行動状態から顔を識別する状態への遷移が決定されると(ステップS801)、照合環境判断手段501で、顔照合を行なおうとするときの照明環境を撮像手段1やロボット状態観測手段6からの情報から判断し、照明カテゴリに分ける(ステップS802)。なお、ここで判断された照明カテゴリのIDをKとする。 Next, the operation procedure of this embodiment will be described with reference to the flowchart shown in FIG. First, when the control unit 7 determines a transition from the autonomous behavior state to a state for identifying a face (step S801), the imaging environment 1 indicates the illumination environment when the collation environment determination unit 501 attempts to perform face collation. Or from the information from the robot state observation means 6 and categorize into illumination categories (step S802). It is assumed that the illumination category ID determined here is K.

また、全体特徴量抽出手段504は、辞書を参照しながら、撮像手段1によって撮像された画像からユーザを特定することができる特徴量の抽出を試みる(ステップS803)。特徴量を抽出することができた場合には(ステップS803/YES)、特徴量ありを示す情報を照明環境比較手段503に出力する。また、特徴量を抽出することができなかった場合には(ステップS803/の)、特徴量なしを示す情報を照明環境比較手段503に出力する。 The overall feature quantity extraction unit 504 attempts to extract a feature quantity that can identify the user from the image captured by the imaging unit 1 while referring to the dictionary (step S803). If the feature amount can be extracted (step S803 / YES), information indicating the presence of the feature amount is output to the illumination environment comparison unit 503. If the feature amount cannot be extracted (in step S803 /), information indicating no feature amount is output to the illumination environment comparison unit 503.

照明環境比較手段503は、照明環境判断手段501から照明IDの情報を取得すると共に全体特徴量抽出手段504から全体特徴量あり/なしの情報を取得すると、照明環境判断手段501から取得した照明IDがKのときの照合性能を照合性能記録手段502から検索する。 When the illumination environment comparison unit 503 acquires the information on the illumination ID from the illumination environment determination unit 501 and also acquires the information on the presence / absence of the entire feature amount from the entire feature amount extraction unit 504, the illumination ID acquired from the illumination environment determination unit 501 The collation performance recording means 502 is searched for collation performance when is K.

全体特徴量抽出手段504によって全体特徴量を抽出することができなかった場合には、照明環境比較手段503は顔照合結果が正解した回数の累計(r(K))を照合を行なった回数の累計(t(K))で割った照合性能値を、上述した第2の実施形態で使用した閾値(R1という)と比較する(ステップS804)。また、全体特徴量を抽出することができた場合には、この閾値よりも低く設定された閾値(R2という)により照合性能値との比較を行なう(ステップS805)。 If the overall feature quantity extraction unit 504 cannot extract the overall feature quantity, the lighting environment comparison unit 503 indicates the total number of times that the face matching result is correct (r (K)). The verification performance value divided by the cumulative total (t (K)) is compared with the threshold value (referred to as R1) used in the second embodiment described above (step S804). If the entire feature amount can be extracted, the comparison performance value is compared with a threshold value (referred to as R2) set lower than this threshold value (step S805).

照合を行なった回数の累計が閾値以上で、照合性能値が予め設定された閾値以上の場合に、照明環境比較手段503はその環境での照合結果は信頼性が高いと判断する。また、それ以外のときはその照合環境での照合性能は信頼性が低いと判断する。なお、以下の動作手順は、図6を用いて説明した第2の実施形態の動作手順と同一であるため説明を省略する。 When the total number of collations is equal to or greater than a threshold and the collation performance value is equal to or greater than a preset threshold, the illumination environment comparison unit 503 determines that the collation result in that environment is highly reliable. In other cases, it is determined that the collation performance in the collation environment is low in reliability. The following operation procedure is the same as the operation procedure of the second embodiment described with reference to FIG.

このように本実施形態は、ユーザを判定する材料に照明環境だけではなくユーーザを特定する特徴量を導入することでユーザの判定をより高精度に行なうことができる。 As described above, according to the present embodiment, it is possible to perform the user's determination with higher accuracy by introducing not only the illumination environment but also the feature amount specifying the user into the material for determining the user.

(第4の実施の形態)
(構成の説明)
本発明に係る第4の実施形態について図面を参照して詳細に説明する。図9を参照すると本発明に係る第4の実施形態は、第2の実施形態の構成に加えて、照合にとって適切な位置へ移動を行なうための走行計画を立てる走行計画生成手段9を有する。
(Fourth embodiment)
(Description of configuration)
A fourth embodiment according to the present invention will be described in detail with reference to the drawings. Referring to FIG. 9, the fourth embodiment according to the present invention includes a travel plan generation means 9 for making a travel plan for moving to an appropriate position for verification in addition to the configuration of the second embodiment.

本実施形態は、図10に示されるように1つの部屋を幾つかの領域に分割し、分割した各領域に識別IDを付加して管理している。また、照合性能記録手段502は、図11に示されるように識別IDが付された領域毎に、照明カテゴリとその照明カテゴリでの照合性能とを記録して管理している。 In the present embodiment, as shown in FIG. 10, one room is divided into several areas, and an identification ID is added to each divided area for management. Moreover, the collation performance recording means 502 records and manages the illumination category and the collation performance in the illumination category for each region to which the identification ID is attached as shown in FIG.

また、本実施形態のロボット状態観測手段6は、図示しない照明装置状態観測手段から照明装置の状態情報を取得する共に、同じく図示しないカーテン状態観測手段によりカーテンの状態情報を取得する。なお、照明装置状態観測手段は、部屋に設置された照明装置と連動し、照明装置が点灯しているかどうかを検出する。また、カーテン状態観測手段は、カーテンに連動してカーテンが開いているかどうかを検出する。 Further, the robot state observing unit 6 of the present embodiment acquires the state information of the lighting device from the lighting unit state observing unit (not shown), and also acquires the curtain state information by the curtain state observing unit (not shown). The lighting device state observation means detects whether the lighting device is turned on in conjunction with the lighting device installed in the room. The curtain state observation means detects whether the curtain is open in conjunction with the curtain.

走行計画生成手段9は、ロボット状態観測手段6から現在のロボットの位置情報を取得すると共に、照合性能を照合性能記録手段502から検索し、照合性能値が現在の位置よりも高い位置へ移動するように走行計画を立案し走行手段8に指示を出す。具体的には、時刻、カーテンの状態及び照明装置の状態が現在の状態と同じ照明カテゴリの中で、顔照合結果が正解した回数の累計を照合を行なった回数の累計で割った照合性能値が現在の照明カテゴリでのそれ以上で、閾値以上もしくは最高の位置へ移動するよう指示を出す。 The travel plan generation unit 9 acquires the current robot position information from the robot state observation unit 6, searches the collation performance recording unit 502 for collation performance, and moves the collation performance value to a position higher than the current position. In this way, a travel plan is prepared and an instruction is given to the travel means 8. Specifically, in the lighting category in which the time, curtain status, and lighting device status are the same as the current status, the verification performance value obtained by dividing the total number of correct facial verification results by the total number of verifications Is instructed to move to a position above or above the threshold at or above the current lighting category.

また、走行計画生成手段9は照合性能値と移動距離とを考慮して移動先を決定してもよい。この場合、現在の照明カテゴリと同一の照合カテゴリでの照合性能が現在位置のものよりも高く、ロボット状態観測手段6から取得した現在位置情報から算出される移動距離が短い領域に移動するように移動計画を立てることになる。 In addition, the travel plan generation unit 9 may determine the destination in consideration of the collation performance value and the movement distance. In this case, the collation performance in the same collation category as the current lighting category is higher than that in the current position, so that the movement distance calculated from the current position information acquired from the robot state observation means 6 moves to a short region. A movement plan will be made.

このように本実施形態は、時刻、カーテンの状態、及び照明装置の状態が現在の状態と同じ照明カテゴリの中で、照合性能値が閾値以上もしくは最高の位置へ移動を行なうようにすることで、良好な照明環境にユーザを導くことができる。 As described above, in the present embodiment, the collation performance value is moved to a position higher than or equal to the threshold value or the highest position in the same lighting category where the time, the curtain state, and the lighting device state are the same as the current state. , Can lead the user to a good lighting environment.

(第5の実施の形態)
(構成の説明)
本発明に係る第5の実施の形態について図面を参照しながら詳細に説明する。図12を参照すると本発明に係る第5の実施形態の照明環境判定手段500は、撮像手段1から得られる画像情報やロボット状態観測手段6から得られる時刻や位置の情報を基に照明環境を判断し、あらかじめ決めてあるカテゴリのどれに対応するのかを判断する照明環境判断手段501と、顔検出照合手段2へ顔画像を登録したときの照明IDをユーザ毎に記憶する登録時照明環境記録手段10と、登録時照明環境記録手段10に記録されている情報を基に、対話中のユーザが現在の照明環境で過去に顔画像を登録したかどうかを判断する登録時照明環境比較手段11と、を具備する。
(Fifth embodiment)
(Description of configuration)
A fifth embodiment according to the present invention will be described in detail with reference to the drawings. Referring to FIG. 12, the illumination environment determination unit 500 according to the fifth embodiment of the present invention determines the illumination environment based on the image information obtained from the imaging unit 1 and the time and position information obtained from the robot state observation unit 6. Lighting environment determination unit 501 that determines and corresponds to a predetermined category, and lighting environment record at the time of registration that stores, for each user, an illumination ID when a face image is registered in the face detection / collation unit 2 Based on the information recorded in the means 10 and the lighting environment recording means 10 at the time of registration, the lighting environment comparison means 11 at the time of registration determines whether or not the user during the conversation has registered a face image in the past in the current lighting environment. And.

登録時照明環境記録手段10は、照明環境判断手段501によって判定された、ユーザが顔検出照合手段2へ顔を登録したときの照明IDをユーザ毎に全て記録しておく。 The lighting environment recording unit 10 at the time of registration records, for each user, all the lighting IDs determined by the lighting environment determination unit 501 when the user registers a face in the face detection / collation unit 2.

登録時照明環境条件比較手段11は、現在対話中のユーザが照明環境判断手段501から得られる現在の照明環境で過去に顔画像登録を行なったかどうかを登録時照明環境記録手段10に記録されている情報を検索することで判定する。 The registration lighting environment condition comparison unit 11 records in the registration lighting environment recording unit 10 whether or not the user currently interacting has registered a face image in the past in the current lighting environment obtained from the lighting environment determination unit 501. It is determined by searching for information.

(動作の説明)
次に、図13に示されたフローチャートを参照しながら本実施形態の動作手順を説明する。本実施形態は顔を顔検出照合手段2へ登録する方法に関するものである。ロボットがユーザLと対話しているときにある確率で登録を行うかどうかを決定する状態へ遷移する(ステップS1301)。まず、対話しているユーザの顔画像がすでに顔検出照合手段2に登録されているかどうかで分岐する(ステップS1302)。もし登録されていない場合は(ステップS1302/NO)、無条件でステップS1304へ、登録されている場合には(ステップS1302/YES)、1/10の確率でステップS1304へ、9/10の確率でユーザとの対話へ戻る。ここでは、1から10の自然数をランダムに発生させ、発生した値が1であった場合には(ステップS1303/YES)、ステップS1304に遷移する。ステップS1304では、照明環境判断手段501でその時点の照明環境をあらかじめ決めてある照明のカテゴリに分類する。その結果のカテゴリの照明IDをKとする。次にステップS1305で対話中のユーザLが過去に照明IDがKの環境で顔登録をしているかどうかを登録時照明環境記録手段10に記録されている情報を基に判断する。もしそのユーザLの照明IDがKのときの顔画像が登録時照明環境記録手段10に登録されている場合には(ステップS1305/YES)、ユーザとの対話へ戻り、登録されていない場合には(ステップS1305/NO)、ステップS1306へ進む。ステップS1306では、顔検出照合手段2で顔登録を行い、ユーザLが照明ID=Kで顔登録したことを登録時照明環境記録手段10へ記録する(ステップS1307)。
(Description of operation)
Next, the operation procedure of this embodiment will be described with reference to the flowchart shown in FIG. The present embodiment relates to a method for registering a face in the face detection / collation means 2. When the robot is interacting with the user L, a transition is made to a state in which it is determined whether or not to perform registration with a certain probability (step S1301). First, the process branches depending on whether or not the face image of the interacting user is already registered in the face detection / collation unit 2 (step S1302). If not registered (step S1302 / NO), unconditionally go to step S1304, if registered (step S1302 / YES), go to step S1304 with a probability of 1/10, probability of 9/10 To return to user interaction. Here, a natural number from 1 to 10 is randomly generated, and when the generated value is 1 (step S1303 / YES), the process proceeds to step S1304. In step S1304, the lighting environment determination unit 501 classifies the lighting environment at that time into predetermined lighting categories. Let K be the illumination ID of the resulting category. In step S1305, it is determined based on the information recorded in the lighting environment recording unit 10 at the time of registration whether or not the user L who is talking has registered a face in the environment where the lighting ID is K in the past. If the face image when the lighting ID of the user L is K is registered in the lighting environment recording means 10 at the time of registration (step S1305 / YES), the process returns to the dialogue with the user and is not registered. (Step S1305 / NO), the process proceeds to step S1306. In step S1306, face registration is performed by the face detection collating unit 2, and the fact that the user L has registered the face with the illumination ID = K is recorded in the illumination environment recording unit 10 at the time of registration (step S1307).

このように本実施形態は、ユーザ毎に登録したときの照明状態を記憶しておき、ユーザがロボットと対話している最中に過去にそのユーザが顔登録を行なっていないような照明環境であれば、ユーザの顔登録を開始する。このようにすることでより効率よく様々な照明条件の顔画像を登録することが可能となる。 As described above, the present embodiment stores the lighting state when each user is registered, and the lighting environment in which the user has not registered the face in the past while the user is interacting with the robot. If there is, the user's face registration is started. By doing so, it is possible to register face images under various illumination conditions more efficiently.

なお、上述した実施形態では、ユーザとの対話と顔照合とをそれぞれ独立した行動として記載しているが、対話の最中に顔画像の撮影を行なうものであってもよい。 In the above-described embodiment, the dialogue with the user and the face matching are described as independent actions, but a face image may be taken during the dialogue.

(第6の実施の形態)
(構成の説明)
本発明の第6の実施の形態について図面を参照して詳細に説明する。図14を参照すると本実施の形態の照明環境判定手段500は、照明環境判断手段501だけからなる。また、顔検出照合手段2は、撮像手段1で得られた画像から顔の領域を検出して切り出し、特徴データに変換する顔検出手段201と、人物毎の顔の特徴データ群を照明環境判断手段501で得られた照明カテゴリ毎に保存するデータ管理手段203と、照明カテゴリ毎の特徴データで認識辞書を作成する辞書作成手段204と、辞書作成手段204で作成した認識辞書を照明カテゴリ毎に保存する辞書保存手段205と、照明環境判断手段501の出力と同じ照明カテゴリの辞書を辞書保存手段205から選択し、顔照合手段202へ供給する辞書選択手段206と、辞書選択手段206から供給された辞書に基づいて顔検出手段201から供給される特徴データが誰の顔であるのかの照合を行う顔照合手段202を有する。
(Sixth embodiment)
(Description of configuration)
A sixth embodiment of the present invention will be described in detail with reference to the drawings. Referring to FIG. 14, the illumination environment determination unit 500 according to the present embodiment includes only the illumination environment determination unit 501. Further, the face detection collating unit 2 detects a face area from the image obtained by the imaging unit 1 and extracts the face region and converts it into feature data. The face feature data group for each person is determined in the illumination environment. Data management means 203 for storing for each lighting category obtained by means 501, dictionary creation means 204 for creating a recognition dictionary with feature data for each lighting category, and recognition dictionary created by the dictionary creation means 204 for each lighting category A dictionary storage unit 205 to store, a dictionary having the same lighting category as the output of the lighting environment determination unit 501 is selected from the dictionary storage unit 205 and supplied to the face matching unit 202, and supplied from the dictionary selection unit 206. A face collating unit 202 that collates with which face the feature data supplied from the face detecting unit 201 is based on the dictionary.

データ管理手段203は、登録時に取得された人物毎の顔の特徴データ群を図15のように照明環境判断手段501で得られた照明カテゴリによって分類して保存する。顔画像からその特徴データを抽出する方法は、正面顔画像を左から右へ1ライン毎にスキャンし、上から下へ1ライン終われば次のラインをスキャンして1次元データを生成し(ラスタスキャン)、それを特徴データとして用いる。その他に1次微分フィルタや2次微分フィルタを用いてフィルタリングし、エッジ情報を抽出したものをラスタスキャンして特徴データとする方法を用いてもよい。 The data management unit 203 classifies and stores the facial feature data group for each person acquired at the time of registration according to the illumination category obtained by the illumination environment determination unit 501 as shown in FIG. The feature data is extracted from the face image by scanning the front face image from left to right line by line, and when one line ends from top to bottom, the next line is scanned to generate one-dimensional data (raster Scan) and use it as feature data. In addition, a method may be used in which filtering is performed using a first-order differential filter or a second-order differential filter, and edge information is extracted and raster scanned to obtain feature data.

辞書作成手段204は、同じ照明カテゴリの特徴データだけを用いて認識辞書を作成する。図16では照明IDがT1、T2のそれぞれのデータセットを用いて辞書を作成している。辞書としては、特開2000−222576号公報に記載されている人物の特徴データから生成される線形判別辞書などを用いることができる。これらの辞書は辞書保存手段205でやはり照明カテゴリ毎に保存される。 The dictionary creation means 204 creates a recognition dictionary using only feature data of the same lighting category. In FIG. 16, a dictionary is created using each data set with illumination IDs T1 and T2. As the dictionary, it is possible to use a linear discrimination dictionary or the like generated from person feature data described in JP-A-2000-222576. These dictionaries are also stored in the dictionary storage means 205 for each lighting category.

辞書選択手段206では、照明環境判断手段501で決定された照明カテゴリのデータで作られた辞書を顔照合手段202へ供給する。図17の例では辞書保存手段205に保存されているT2のときの辞書が供給される。 The dictionary selection unit 206 supplies the face collation unit 202 with a dictionary created from the data of the lighting category determined by the lighting environment determination unit 501. In the example of FIG. 17, the dictionary at T2 stored in the dictionary storage unit 205 is supplied.

顔照合手段202では供給された辞書を使って顔検出手段201から供給される特徴データとの照合を行う。具体的には特開2000−222576号公報に開示された人物の特徴データから作成した線形判別辞書を用いて、対象顔画像との類似度の大きさを求めることでパターン識別する方法を適用することができる。 The face collating unit 202 collates with the feature data supplied from the face detecting unit 201 using the supplied dictionary. Specifically, the pattern identification method is applied by obtaining the degree of similarity with the target face image using a linear discrimination dictionary created from human feature data disclosed in Japanese Patent Laid-Open No. 2000-222576. be able to.

(動作の説明)
次に、図18、19に示されたフローチャートを参照しながら本実施形態の動作手順を説明する。まず顔登録時の動作について図18を参照しながら説明する。ロボットがユーザLと対話しているときにある確率で登録を行うかどうかを決定する状態へ遷移する(ステップS1801)。まず、対話しているユーザの顔画像がすでに顔検出照合手段2に登録されているかどうかで分岐する(ステップS1802)。もし登録されていない場合は(ステップS1802/NO)、無条件でステップS1804へ、登録されている場合には(ステップS1802/YES)、1/10の確率でステップS1801へ、9/10の確率でユーザとの対話へ戻る。ここでは、1から10の自然数をランダムに発生させ、発生した値が1であった場合には(ステップS1803/YES)、ステップS1804に遷移する。ステップS1804では、照明環境判断手段501でその時点の照明環境をあらかじめ決めてある照明のカテゴリに分類する。その結果のカテゴリの照明IDをKとする。次にステップS1805で、撮像手段1を用いて画像の撮影を開始し、その画像から顔検出手段201で顔の特徴データを取得し、取得したデータをデータ管理手段203の「ユーザL、照明カテゴリK」の領域へ格納する。一般に特徴データは一回の登録でも複数枚取得されるので、取得が終了するまでこれを続ける。取得が終了したらステップS1806に進み、辞書作成手段204で照明IDがKのデータに関して辞書を作成し辞書保存手段205へ保存する。このとき照明IDがKのデータが全員分そろっていない場合は処理を中断する。あるいはその場合は照明カテゴリに無関係に全てのデータを使って辞書を作成するという動作でもよい。
(Description of operation)
Next, the operation procedure of this embodiment will be described with reference to the flowcharts shown in FIGS. First, the operation at the time of face registration will be described with reference to FIG. When the robot is interacting with the user L, a transition is made to a state in which it is determined whether or not to perform registration with a certain probability (step S1801). First, the process branches depending on whether or not the face image of the interacting user is already registered in the face detection / collation unit 2 (step S1802). If not registered (step S1802 / NO), unconditionally go to step S1804. If registered (step S1802 / YES), go to step S1801 with a probability of 1/10, probability of 9/10 To return to user interaction. Here, a natural number from 1 to 10 is randomly generated. If the generated value is 1 (step S1803 / YES), the process proceeds to step S1804. In step S1804, the lighting environment determination unit 501 classifies the lighting environment at that time into predetermined lighting categories. Let K be the illumination ID of the resulting category. In step S 1805, image capturing is started using the imaging unit 1, facial feature data is acquired from the image by the face detection unit 201, and the acquired data is stored in the “user L, lighting category” of the data management unit 203. Store in the area of “K”. In general, a plurality of feature data are acquired even with one registration, and this is continued until the acquisition is completed. When the acquisition is completed, the process proceeds to step S1806, where the dictionary creation unit 204 creates a dictionary for the data with the illumination ID K and stores it in the dictionary storage unit 205. At this time, if not all the data with the illumination ID K are available, the process is interrupted. Or in that case, the operation | movement of creating a dictionary using all the data irrespective of a lighting category may be sufficient.

次に顔照合時の動作について図19を参照しながら説明する。まず、制御手段7で顔を識別する状態への遷移が決定されると(ステップS1901)、照明環境判断手段501で、顔照合を行おうとするときの照明環境を撮像手段1やロボット状態観測手段6からの情報から判断し、あらかじめ決めてある照明のカテゴリに分類する。その結果の照明IDをKとする(ステップS1902)。次に照明IDがKの特徴データで作られた辞書が辞書保存手段205に保存されているかどうかを辞書選択手段206により調べる(ステップS1903)。もし保存されていなければ(ステップS1903/NO)、そのまま照合を中止しユーザとの対話に戻る。もし保存されていれば(ステップS1903/YES)、辞書選択手段206により照合IDがKの特徴データで作成した辞書を辞書保存手段205から取得し、顔照合手段202へ供給する(ステップS1904)。次に、撮像手段1で画像の撮像を開始し、その画像から顔検出手段201で顔の特徴データを取得し、取得した特徴データと供給された辞書を用いて顔照合手段202で照合を行い、撮像手段1で撮像した顔画像が誰であるかを判定する(ステップS1905)。 Next, the operation during face matching will be described with reference to FIG. First, when a transition to a state for identifying a face is determined by the control means 7 (step S1901), the illumination environment when the face matching is to be performed by the illumination environment determination means 501 is indicated by the imaging means 1 or robot state observation means. Judging from the information from No. 6, it is classified into predetermined lighting categories. The resulting illumination ID is K (step S1902). Next, the dictionary selection unit 206 checks whether the dictionary created by the feature data with the illumination ID K is stored in the dictionary storage unit 205 (step S1903). If not saved (step S1903 / NO), the collation is stopped as it is and the process returns to the dialog with the user. If stored (step S1903 / YES), the dictionary selected by the dictionary selection unit 206 using the feature data with the verification ID K is acquired from the dictionary storage unit 205 and supplied to the face verification unit 202 (step S1904). Next, imaging of the image is started by the imaging unit 1, face feature data is acquired from the image by the face detection unit 201, and collation is performed by the face matching unit 202 using the acquired feature data and the supplied dictionary. Then, it is determined who the face image imaged by the imaging means 1 is (step S1905).

このように本実施形態は、様々な照明環境毎に顔画像を登録しておき、照合を行なう時は、そのときと同じ照明環境で登録された画像から作られた辞書を用いて照合を行なう。このようにすることで精度よく照合を行なうことができる。 As described above, according to the present embodiment, face images are registered for each of various illumination environments, and when collation is performed, collation is performed using a dictionary created from images registered in the same illumination environment as that time. . By doing so, collation can be performed with high accuracy.

また、本実施形態も、ユーザとの対話と顔照合とをそれぞれ独立した行動として記載しているが、対話の最中に顔画像の撮影を行なって照合を行なうものであってもよい。 Also, in the present embodiment, the dialogue with the user and the face matching are described as independent actions, but the matching may be performed by taking a face image during the dialogue.

なお、上述した実施形態は本発明の好適な実施の形態である。但し、これに限定されるものではなく本発明の要旨を逸脱しない範囲内において種々変形実施が可能である。例えば、上述した実施形態において照合環境を判定する材料として季節(夏と冬とで部屋に日
光が入り込む角度が異なるため)や天気予報(インターネット等を利用してその日の天気情報を取得し、照合環境を判定する材料の一つとする)を考慮してもよい。
The above-described embodiment is a preferred embodiment of the present invention. However, the present invention is not limited to this, and various modifications can be made without departing from the scope of the present invention. For example, as a material for determining the verification environment in the above-described embodiment, the season (because the angle at which sunlight enters the room differs between summer and winter) and the weather forecast (we obtain the weather information of the day using the Internet etc. One of the materials for determining the environment) may be considered.

また、本発明の照合環境判定プログラムに係る実施形態は、それぞれ図2、6、8、13、18、19に示された動作手順で制御するプログラムに基づいて各手段が制御動作を行なうことで実現される。 Further, in the embodiment according to the collation environment determination program of the present invention, each means performs the control operation based on the program controlled by the operation procedure shown in FIGS. 2, 6, 8, 13, 18, and 19, respectively. Realized.

本発明に係る第1の実施形態の構成を示すブロック図である。1 is a block diagram showing a configuration of a first embodiment according to the present invention. 本発明に係る第1の実施形態の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of 1st Embodiment which concerns on this invention. 本発明に係る第2の実施形態の示すブロック図である。It is a block diagram which shows the 2nd Embodiment which concerns on this invention. 第2の実施形態での照明環境判断手段で照明環境をカテゴリ分けする方法を示す図である。It is a figure which shows the method of classifying an illumination environment by the illumination environment judgment means in 2nd Embodiment. 第2の実施形態での照合性能記録手段で照明環境毎に照合結果の履歴を記録する方法を示す図である。It is a figure which shows the method of recording the log | history of a collation result for every lighting environment with the collation performance recording means in 2nd Embodiment. 本発明に係る第2の実施形態の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of 2nd Embodiment which concerns on this invention. 本発明に係る第3の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 3rd Embodiment based on this invention. 本発明に係る第3の実施形態の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of 3rd Embodiment which concerns on this invention. 本発明に係る第4の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 4th Embodiment based on this invention. 部屋を領域に分割し、領域毎にIDを付けて管理する方法を説明するための図である。It is a figure for demonstrating the method which divides | segments a room into an area | region and attaches ID for every area | region and manages. 第4の実施形態での照明環境判断手段で照明環境をカテゴリ分けする方法を示す図である。It is a figure which shows the method of classifying an illumination environment by the illumination environment judgment means in 4th Embodiment. 本発明に係る第5の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of 5th Embodiment based on this invention. 本発明に係る第5の実施形態の動作手順を示すフローチャートである。It is a flowchart which shows the operation | movement procedure of 5th Embodiment concerning this invention. 本発明に係る第6の実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of the 6th Embodiment concerning this invention. 第6の実施形態でのデータ管理手段で、登録時に取得された人物毎の顔の特徴データ群を照明カテゴリ毎に保存する例を示す図である。It is a figure which shows the example which preserve | saves the feature data group of the face for every person acquired at the time of registration for every illumination category with the data management means in 6th Embodiment. 第6の実施形態での辞書作成手段で、同じ照明カテゴリの特徴データだけを用いて認識辞書を作成する例を示す図である。It is a figure which shows the example which produces a recognition dictionary using only the feature data of the same illumination category with the dictionary creation means in 6th Embodiment. 第6の実施形態での辞書選択手段で、ある照明カテゴリのデータで作られた辞書を照合手段へ供給する例を示す図である。It is a figure which shows the example which supplies the dictionary created with the data of a certain illumination category to the collation means by the dictionary selection means in 6th Embodiment. 第6の実施形態の動作手順(顔登録時)を示すフローチャートである。It is a flowchart which shows the operation | movement procedure (at the time of face registration) of 6th Embodiment. 第6の実施形態の動作手順(顔照合時)を示すフローチャートである。It is a flowchart which shows the operation | movement procedure (at the time of face collation) of 6th Embodiment. 顔照合機能を持つ従来のロボット装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional robot apparatus with a face collation function.

符号の説明Explanation of symbols

1 撮像手段
2 顔検出照合手段
201 顔検出手段
202 顔照合手段
203 データ管理手段
204 辞書作成手段
205 辞書保存手段
206 辞書選択手段
3 情報通知手段
4 情報入力手段
5 照合結果信頼性算出手段
500 照明環境判定手段
501 照明環境判断手段
502 照合性能記録手段
503 照明環境比較手段
504 全体特徴量抽出手段
6 ロボット状態観測手段
7 制御手段
8 走行手段
9 走行計画生成手段
10 登録時照明環境記録手段
11 登録時照明環境比較手段
DESCRIPTION OF SYMBOLS 1 Imaging means 2 Face detection collation means 201 Face detection means 202 Face collation means 203 Data management means 204 Dictionary creation means 205 Dictionary storage means 206 Dictionary selection means 3 Information notification means 4 Information input means 5 Collation result reliability calculation means 500 Illumination environment Determination means 501 Illumination environment determination means 502 Collation performance recording means 503 Illumination environment comparison means 504 Overall feature quantity extraction means 6 Robot state observation means 7 Control means 8 Travel means 9 Travel plan generation means 10 Registration illumination environment recording means 11 Illumination at registration Environmental comparison means

Claims (27)

入力画像に対して顔画像情報を用いて人物の照合を行う顔検出照合手段を備えるロボット装置であって、
照明環境状態を検出する照明環境状態観測手段と、
前記照明環境状態が照合に適するか判断する判断手段と、
前記ロボット装置を移動させる走行手段と、を有し、
前記判断手段が照明環境状態に対する照合の成否を記録した照合性能記録手段を参照して前記照明環境状態が照合に適するか判断し、
前記照明環境状態が照合に適さないと判断された場合には、前記顔検出照合手段における照合を行わず、
前記照合性能記録手段には、位置情報及び照明環境状態に対する照合の成否が記録されており、
前記判断手段で前記照明環境状態が照合に適さないと判断された場合には、前記走行手段により照合に適する場所に移動することを特徴とするロボット装置。
A robot apparatus comprising face detection collation means for collating a person using face image information with respect to an input image,
Lighting environment state observation means for detecting the lighting environment state;
Determining means for determining whether the lighting environment state is suitable for verification ;
Traveling means for moving the robot device ,
Determining whether the lighting environment state is suitable for collation by referring to the collation performance recording unit that records the success or failure of the collation for the lighting environment state;
When it is determined that the lighting environment state is not suitable for collation, collation in the face detection collation unit is not performed ,
In the verification performance recording means, the success / failure of the verification for the positional information and the lighting environment state is recorded,
When the lighting unit determines that the lighting environment state is not suitable for collation, the robot device moves to a place suitable for collation by the traveling unit .
前記走行手段は、前記判断手段で前記照明環境状態が照合に適さないと判断された場合には、前記場所のうち照合の成功した場所に移動すること
を特徴とする請求項記載のロボット装置。
The robot apparatus according to claim 1 , wherein when the determination unit determines that the lighting environment state is not suitable for verification, the traveling unit moves to a location where verification is successful among the locations. .
前記走行手段は、前記判断手段で前記照明環境状態が照合に適さないと判断された場合には、前記場所のうち照合の成功した頻度の高い場所に移動すること
を特徴とする請求項記載のロボット装置。
The traveling unit, when the illumination environment state is determined to be unsuitable for verification by the determination means according to claim 1, wherein the moving it to high successful frequency matching of the location Robotic device.
前記走行手段は、前記判断手段で前記照明環境状態が照合に適さないと判断された場合には、前記場所のうち現在の場所より照合の成功した頻度の高い場所に移動すること
を特徴とする請求項記載のロボット装置。
The traveling means moves to a place where the frequency of successful matching is higher than the current place among the places when the judging means judges that the lighting environment state is not suitable for the matching. The robot apparatus according to claim 1 .
前記判断手段は、
前記顔検出照合手段で検出された顔領域の画像の画素値の分散と、前記顔検出照合手段で検出された顔領域の輝度値の平均とその外側近傍領域の輝度値の平均の比と、画像全体の輝度値の平均と、の少なくとも1つを照明環境状態を判定する判断材料とすること
を特徴とする請求項1からの何れか一項に記載のロボット装置。
The determination means includes
The variance of the pixel values of the image of the face area detected by the face detection collating means, the ratio of the average brightness value of the face area detected by the face detection collating means and the average brightness value of the outer neighboring area, the average luminance value of the entire image, a robot apparatus according to the determined decisions from claim 1, wherein in any one of 4 to at least one lighting environmental conditions.
部屋の照明装置と連動してその部屋の照明が点灯しているかどうかを検出する照明装置状態観測手段を用いて部屋の照明環境状態を観測するロボット状態観測手段を有し、
前記判断手段は、その部屋の照明がついているかどうかを照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項1からの何れか1項に記載のロボット装置。
Robot state observing means for observing the lighting environment state of the room using the illuminating device state observing means for detecting whether the lighting of the room is lit in conjunction with the lighting device of the room,
The determining means is a robot apparatus according to any one of claims 1 to 4, characterized in that one of the reference amount at the time of the categorization of the lighting environmental conditions whether the illumination is attached the room .
部屋のカーテンと連動してその部屋のカーテンが開いているかどうかを検出するカーテン状態観測手段を用いて部屋のカーテンの開閉状態を観測するロボット状態観測手段を有し、
判断手段は、その部屋のカーテンが開いているどうかを照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項1からの何れか1項に記載のロボット装置。
Robot state observing means for observing the open / closed state of the room curtain using curtain state observing means for detecting whether the room curtain is open in conjunction with the room curtain,
Determining means, robotic device according to any one of claims 1 to 4, characterized in that one of the reference amount when the categorization assimilation lighting environmental conditions curtain the room is open .
時刻に関する情報を保持するロボット状態観測手段を有し、
前記判断手段は、照合を行おうとするときの時刻を照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項1から4の何れか1項に記載のロボット装置。
Robot state observation means that holds information about time,
5. The robot apparatus according to claim 1, wherein the determination unit sets a time when the comparison is performed as one of reference amounts for categorizing the lighting environment state. 6. .
ロボット装置の部屋内での位置を観測し、
位置情報として保持するロボット状態観測手段を有し、
前記判断手段は、照合を行おうとするときのロボット装置の部屋内での位置を照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項1から4の何れか1項に記載のロボット装置。
Observe the position of the robot device in the room,
It has robot state observation means to hold as position information,
5. The determination unit according to claim 1, wherein the position in the room of the robot apparatus when the collation is to be performed is one of reference amounts for categorizing the lighting environment state. The robot apparatus according to item 1.
入力画像に対して顔画像情報を用いて人物の照合を行う顔検出照合工程を有するロボット装置の照合環境判定方法であって、
照明環境状態を検出する照明環境状態観測工程と、
前記照明環境状態が照合に適するか判断する判断工程と、
走行手段により前記ロボット装置を移動させる移動工程と、を有し、
前記判断工程が照明環境状態に対する照合の成否を記録した照合性能記録手段を参照して前記照明環境状態が照合に適するか判断し、
前記照明環境状態が照合に適さないと判断された場合には、前記顔検出照合工程における照合を行わず、
前記照合性能記録手段には、位置情報及び照明環境状態に対する照合の成否が記録されており、
前記判断工程で前記照明環境状態が照合に適さないと判断された場合には、前記移動工程により照合に適する場所に移動させることを特徴とする照合環境判定方法。
A collation environment determination method of a robot apparatus having a face detection collation process for collating a person using face image information with respect to an input image,
A lighting environment state observation process for detecting a lighting environment state;
A determination step of determining whether the lighting environment state is suitable for verification ;
A moving step of moving the robot device by a traveling means ,
Determining whether the lighting environment state is suitable for collation by referring to collation performance recording means that records the success or failure of the collation for the lighting environment state in the determination step;
When it is determined that the lighting environment state is not suitable for collation, the collation in the face detection collation process is not performed ,
In the verification performance recording means, the success / failure of the verification for the positional information and the lighting environment state is recorded,
A collation environment determination method , wherein when the lighting environment state is determined to be unsuitable for collation in the determination step, the moving step is moved to a location suitable for collation.
前記移動工程において、前記判断工程で前記照明環境状態が照合に適さないと判断された場合には、前記場所のうち照合の成功した場所に移動させること
を特徴とする請求項10記載の照合環境判定方法。
The collation environment according to claim 10 , wherein, in the moving step, if the lighting environment state is determined to be unsuitable for collation in the determination step, the collation environment is moved to a location where collation is successful among the places. Judgment method.
前記移動工程において、前記判断工程で前記照明環境状態が照合に適さないと判断された場合には、前記場所のうち照合の成功した頻度の高い場所に移動させること
を特徴とする請求項10記載の照合環境判定方法。
In the moving step, when the illumination environment state is determined to be unsuitable for verification in the determination step, according to claim 10, wherein the moving it to high successful frequency matching of the location Collation environment judgment method.
前記移動工程において、前記判断工程で前記照明環境状態が照合に適さないと判断された場合には、前記場所のうち現在の場所より照合の成功した頻度の高い場所に移動させること
を特徴とする請求項10記載の照合環境判定方法。
In the movement step, when it is determined in the determination step that the lighting environment state is not suitable for verification, the location is moved to a location where the verification has been successful more frequently than the current location. The collation environment determination method according to claim 10 .
前記判断工程は、
前記顔検出照合工程で検出された顔領域の画像の画素値の分散と、前記顔検出照合手段で検出された顔領域の輝度値の平均とその外側近傍領域の輝度値の平均の比と、画像全体の輝度値の平均と、の少なくとも1つを照明環境状態を判定する判断材料とすること
を特徴とする請求項10から13の何れか一項に記載の照合環境判定方法。
The determination step includes
The variance of the pixel values of the image of the face area detected in the face detection collation process, the ratio of the average brightness value of the face area detected by the face detection collation means and the average of the brightness values of the outer neighboring areas, The collation environment determination method according to any one of claims 10 to 13 , wherein at least one of an average of luminance values of the entire image is used as a determination material for determining an illumination environment state.
部屋の照明装置と連動してその部屋の照明が点灯しているかどうかを検出する照明装置状態観測手段を用いて部屋の照明環境状態を観測するロボット状態観測工程を有し、
前記判断工程は、その部屋の照明がついているかどうかを照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項10から13の何れか1項に記載の照合環境判定方法。
A robot state observation step of observing the lighting environment state of the room using the lighting device state observation means for detecting whether the lighting of the room is lit in conjunction with the lighting device of the room,
The collation environment according to any one of claims 10 to 13 , wherein in the determination step, one of the reference amounts for categorizing the lighting environment state is whether or not the room is illuminated. Judgment method.
部屋のカーテンと連動してその部屋のカーテンが開いているかどうかを検出するカーテン状態観測手段を用いて部屋のカーテンの開閉状態を観測するロボット状態観測工程を有し、
前記判断工程は、その部屋のカーテンが開いているどうかを照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項10から13の何れか1項に記載の照合環境判定方法。
A robot state observing step for observing the open / closed state of the room curtain using curtain state observing means for detecting whether the room curtain is open in conjunction with the room curtain;
The collation according to any one of claims 10 to 13 , wherein in the determination step, one of the reference amounts for categorizing the lighting environment state is whether or not the curtain of the room is open. Environmental judgment method.
前記判断工程は、照合を行おうとするときの時刻を照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項10から13の何れか1項に記載の照合環境判定方法。
The collation environment according to any one of claims 10 to 13 , wherein, in the determination step, a time when collation is to be performed is set as one of reference amounts for categorizing the illumination environment state. Judgment method.
ロボット装置の部屋内での位置を観測するロボット状態観測工程を有し、
前記判断工程は、照合を行おうとするときのロボット装置の部屋内での位置を照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項10から13の何れか1項に記載の照合環境判定方法。
A robot state observation process for observing the position of the robot apparatus in the room,
The determination step, any one of claims 10 to 13, characterized in that one of the reference amount when the position in the room of the robotic device to the categorization of the lighting environmental conditions at the time of attempted verification 2. The verification environment determination method according to item 1.
入力画像に対して顔画像情報を用いて人物の照合を行う顔検出照合処理を有するロボット装置の照合環境判定プログラムであって、
照明環境状態を検出する照明環境状態観測処理と、
前記照明環境状態が照合に適するか判断する判断処理と、
走行手段により前記ロボット装置を移動させる移動処理と、を有し、
前記判断処理が照明環境状態に対する照合の成否を記録した照合性能記録手段を参照して前記照明環境状態が照合に適するか判断し、
前記照明環境状態が照合に適さないと判断された場合には、前記顔検出照合処理における照合を行わず、
前記照合性能記録手段には、位置情報及び照明環境状態に対する照合の成否が記録されており、
前記判断処理で前記照明環境状態が照合に適さないと判断された場合には、前記移動処理により照合に適する場所に移動させることを特徴とする照合環境判定プログラム。
A collation environment determination program for a robot apparatus having face detection collation processing for collating a person using face image information with respect to an input image,
Lighting environment state observation processing for detecting the lighting environment state;
A determination process for determining whether the lighting environment state is suitable for verification ;
And a moving process for moving the robot device by a traveling means ,
Determining whether the lighting environment state is suitable for collation by referring to collation performance recording means in which the judgment process records the success or failure of the collation for the lighting environment state;
When it is determined that the lighting environment state is not suitable for collation, the collation in the face detection collation process is not performed ,
In the verification performance recording means, the success / failure of the verification for the positional information and the lighting environment state is recorded,
A collation environment determination program characterized in that, when it is determined in the determination process that the lighting environment state is not suitable for collation, the movement process moves to a place suitable for collation.
前記移動処理において、前記判断処理で前記照明環境状態が照合に適さないと判断された場合には、前記場所のうち照合の成功した場所に移動させること
を特徴とする請求項19記載の照合環境判定プログラム。
The collation environment according to claim 19 , wherein, in the movement process, when the lighting environment state is determined to be unsuitable for collation in the determination process, the collation environment is moved to a place where the collation is successful among the places. Judgment program.
前記移動処理において、前記判断処理で前記照明環境状態が照合に適さないと判断された場合には、前記場所のうち照合の成功した頻度の高い場所に移動させること
を特徴とする請求項19記載の照合環境判定プログラム。
In the moving process, when the illumination environment state is determined to be unsuitable for verification in the determination process, according to claim 19, wherein the moving it to high successful frequency matching of the location Collation environment judgment program.
前記移動処理において、前記判断処理で前記照明環境状態が照合に適さないと判断された場合には、前記場所のうち現在の場所より照合の成功した頻度の高い場所に移動させること
を特徴とする請求項19記載の照合環境判定プログラム。
In the movement process, when it is determined in the determination process that the lighting environment state is not suitable for collation, the location is moved to a place where the collation succeeded more frequently than the current place. The verification environment determination program according to claim 19 .
前記判断処理は、
前記顔検出照合処理で検出された顔領域の画像の画素値の分散と、前記顔検出照合手段で検出された顔領域の輝度値の平均とその外側近傍領域の輝度値の平均の比と、画像全体の輝度値の平均と、の少なくとも1つを照明環境状態を判定する判断材料とすること
を特徴とする請求項19から22の何れか一項に記載の照合環境判定プログラム。
The determination process includes
The variance of the pixel values of the image of the face area detected by the face detection verification process, the ratio of the average brightness value of the face area detected by the face detection verification means and the average brightness value of the outer neighboring area, The collation environment determination program according to any one of claims 19 to 22 , wherein at least one of an average of luminance values of the entire image is used as a determination material for determining an illumination environment state.
部屋の照明装置と連動してその部屋の照明が点灯しているかどうかを検出する照明装置状態観測手段を用いて部屋の照明環境状態を観測するロボット状態観測処理を有し、
前記判断処理は、その部屋の照明がついているかどうかを照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項19から22の何れか1項に記載の照合環境判定プログラム。
A robot state observation process for observing the lighting environment state of the room using the lighting device state observation means for detecting whether the lighting of the room is lit in conjunction with the lighting device of the room,
23. The collation environment according to any one of claims 19 to 22 , wherein the determination processing uses one of reference amounts when categorizing the lighting environment state based on whether or not the room is illuminated. Judgment program.
部屋のカーテンと連動してその部屋のカーテンが開いているかどうかを検出するカーテン状態観測手段を用いて部屋のカーテンの開閉状態を観測するロボット状態観測処理を有し、
前記判断処理は、その部屋のカーテンが開いているどうかを照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項19から22の何れか1項に記載の照合環境判定プログラム。
A robot state observation process for observing the open / closed state of the room curtain using curtain state observation means for detecting whether the curtain of the room is open in conjunction with the curtain of the room;
The collation according to any one of claims 19 to 22 , wherein in the determination process, one of the reference amounts for categorizing the lighting environment state is whether or not the curtain of the room is open. Environmental judgment program.
前記判断処理は、照合を行おうとするときの時刻を照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項19から22の何れか1項に記載の照合環境判定プログラム。
The collation environment according to any one of claims 19 to 22 , wherein in the determination process, a time when the collation is to be performed is set as one of reference amounts for categorizing the lighting environment state. Judgment program.
ロボット装置の部屋内での位置を観測するロボット状態観測処理を有し、
前記判断処理は、照合を行おうとするときのロボット装置の部屋内での位置を照明環境状態のカテゴリ分けをする際の基準量の1つとすること
を特徴とする請求項19から22の何れか1項に記載の照合環境判定プログラム。
It has a robot state observation process to observe the position of the robot device in the room,
The determination process, any one of claims 19, characterized in that one of the reference amount when the position in the room of the robotic device to the categorization of the lighting environmental conditions at the time of attempted verification 22 The collation environment determination program according to item 1.
JP2008110870A 2001-01-30 2008-04-22 Robot device, verification environment determination method, and verification environment determination program Expired - Lifetime JP4770869B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008110870A JP4770869B2 (en) 2001-01-30 2008-04-22 Robot device, verification environment determination method, and verification environment determination program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2001021648 2001-01-30
JP2001021648 2001-01-30
JP2008110870A JP4770869B2 (en) 2001-01-30 2008-04-22 Robot device, verification environment determination method, and verification environment determination program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2002017642A Division JP4143305B2 (en) 2001-01-30 2002-01-25 Robot device, verification environment determination method, and verification environment determination program

Publications (2)

Publication Number Publication Date
JP2008243217A JP2008243217A (en) 2008-10-09
JP4770869B2 true JP4770869B2 (en) 2011-09-14

Family

ID=39914395

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008110870A Expired - Lifetime JP4770869B2 (en) 2001-01-30 2008-04-22 Robot device, verification environment determination method, and verification environment determination program

Country Status (1)

Country Link
JP (1) JP4770869B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6079352B2 (en) * 2013-03-25 2017-02-15 セイコーエプソン株式会社 ROBOT CONTROL METHOD, ROBOT CONTROL DEVICE, ROBOT, ROBOT SYSTEM, AND PROGRAM
JP2015009067A (en) * 2013-07-01 2015-01-19 株式会社三洋物産 Game machine
NZ753528A (en) 2015-06-30 2022-11-25 Nec Corp America Facial recognition system
JP7017025B2 (en) 2017-03-08 2022-02-08 日本電気株式会社 Autonomous mobile robots, control methods and control programs for autonomous mobile robots
CN111046710A (en) * 2018-10-11 2020-04-21 顾泽苍 Image extraction method for importing SDL (software development language) model
JP6903089B2 (en) * 2019-03-28 2021-07-14 株式会社東芝 Equipment control support device, program and control support method
JP7180759B2 (en) 2019-04-18 2022-11-30 日本電気株式会社 PERSON IDENTIFICATION DEVICE, PERSON IDENTIFICATION METHOD AND PROGRAM

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3580129B2 (en) * 1998-05-06 2004-10-20 オムロン株式会社 Personal identification device
JP2000306095A (en) * 1999-04-16 2000-11-02 Fujitsu Ltd Image collation/retrieval system
JP2000326274A (en) * 1999-05-24 2000-11-28 Nec Corp Acting robot

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10878657B2 (en) 2018-07-25 2020-12-29 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11455864B2 (en) 2018-07-25 2022-09-27 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same
US11521460B2 (en) 2018-07-25 2022-12-06 Konami Gaming, Inc. Casino management system with a patron facial recognition system and methods of operating same

Also Published As

Publication number Publication date
JP2008243217A (en) 2008-10-09

Similar Documents

Publication Publication Date Title
JP4143305B2 (en) Robot device, verification environment determination method, and verification environment determination program
JP4770869B2 (en) Robot device, verification environment determination method, and verification environment determination program
US11669979B2 (en) Method of searching data to identify images of an object captured by a camera system
KR102235271B1 (en) Moving Robot and controlling method
JP5008269B2 (en) Information processing apparatus and information processing method
Filliat A visual bag of words method for interactive qualitative localization and mapping
US7680295B2 (en) Hand-gesture based interface apparatus
JP5077164B2 (en) Tracking device and tracking method
Fritsch et al. Improving adaptive skin color segmentation by incorporating results from face detection
Lim et al. Automated classroom monitoring with connected visioning system
KR100612858B1 (en) Method and apparatus for tracking human using robot
KR100601933B1 (en) Method and apparatus of human detection and privacy protection method and system employing the same
US20030058340A1 (en) Video monitoring system employing hierarchical hidden markov model (HMM) event learning and classification
JP5355446B2 (en) Moving object tracking system and moving object tracking method
JP2007334623A (en) Face authentication device, face authentication method, and access control device
CN101095149A (en) Image comparison
CN102054165A (en) Image processing apparatus and image processing method
JP2006236260A (en) Face authentication device, face authentication method, and entrance/exit management device
Schiele Model-free tracking of cars and people based on color regions
JP5241687B2 (en) Object detection apparatus and object detection program
KR20230077560A (en) Appartus of providing service customized on exhibit hall and controlling method of the same
CN111611979A (en) Intelligent health monitoring system and method based on facial scanning
CN114359646A (en) Video analysis method, device, system, electronic equipment and medium
Aoki et al. Recognizing personal location from video
Huang et al. Face recognition by incremental learning for robotic interaction

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20090512

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110606

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140701

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4770869

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

EXPY Cancellation because of completion of term