JPH0991432A - Method for extracting doubtful person - Google Patents

Method for extracting doubtful person

Info

Publication number
JPH0991432A
JPH0991432A JP25001295A JP25001295A JPH0991432A JP H0991432 A JPH0991432 A JP H0991432A JP 25001295 A JP25001295 A JP 25001295A JP 25001295 A JP25001295 A JP 25001295A JP H0991432 A JPH0991432 A JP H0991432A
Authority
JP
Japan
Prior art keywords
face
image
person
area
dictionary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP25001295A
Other languages
Japanese (ja)
Inventor
Toshiki Iso
俊樹 磯
Hideki Koike
秀樹 小池
Akira Tomono
明 伴野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP25001295A priority Critical patent/JPH0991432A/en
Publication of JPH0991432A publication Critical patent/JPH0991432A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide the method for extracting a doubtful person by which an image from a monitor camera or the like is automatically analyzed to accurately and automatically extract the doubtful person. SOLUTION: Data of a small area of a face such as eyes and a mouth in an image being an object of monitor are collated with dictionary use image data to calculate the similarity. The similarity is discriminated based on a threshold level to extract the doubtful person whose part of face is hidden by a sun glass or a mask or the like automatically. The difference from each part of the face is obtained accurately by not collating the entire face of the center of face but collating each small area of the face with the dictionary data to extract accurately the doubtful person. The doubtful person is more accurately extracted independently of the direction of the face by using dictionary image data for face images from plural different angles so as to make the collation.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、監視カメラからの
画像情報を解析することで不審人物の判定を自動的に行
なう銀行のATM管理システムなどのセキュリティ分野
に関わる不審人物抽出方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for extracting a suspicious person involved in the security field such as a bank ATM management system for automatically determining a suspicious person by analyzing image information from a surveillance camera. .

【0002】[0002]

【従来の技術】従来のこの種の不審者の抽出方法は、基
本的には、監視カメラからの画像を人間が見て、不審人
物か否かを判定するものであった。また、画像解析によ
る不審人物の抽出手法も知られているが、その従来の手
法では、顔全体もしくは顔の中心部分と正常者の顔の辞
書用画像データベースとの照合度合によって判定してい
た。
2. Description of the Related Art A conventional suspicious person extraction method of this type basically determines whether or not a person is a suspicious person by seeing an image from a surveillance camera. Further, a method of extracting a suspicious person by image analysis is also known, but in the conventional method, the determination is made based on the degree of matching between the entire face or the central portion of the face and the dictionary image database of the face of a normal person.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来の画像解析による不審人物の抽出方法では、照合部分
として顔全体もしくは顔の中心部分を用いているため、
顔の向きによっては、背景部分を含んでしまい、誤判定
の原因となっているという問題があった。このような状
況から、監視カメラから取り込まれた画像を人間が直接
見て、不審人物か否かを判定する方法がほとんどであ
り、この人間の観察に頼る方法では、自動化がなされて
いないため、省力化という要求に応えられないという問
題があった。
However, in the above-described conventional method for extracting a suspicious person by image analysis, the entire face or the central portion of the face is used as the matching portion,
There is a problem in that the background portion is included depending on the face orientation, which causes an erroneous determination. From such a situation, most people directly look at the image captured from the surveillance camera to determine whether or not it is a suspicious person, and the method relying on this human observation is not automated, There was a problem that the demand for labor saving could not be met.

【0004】本発明は、上記問題点を解決するためにな
されたものであり、その目的は、監視カメラ等から画像
を自動的に解析して、不審人物を自動的に正確に抽出す
ることができる不審人物抽出方法を提供することにあ
る。
The present invention has been made to solve the above problems, and an object thereof is to automatically analyze an image from a surveillance camera or the like to automatically and accurately extract a suspicious person. It is to provide a suspicious person extraction method that can be performed.

【0005】[0005]

【課題を解決するための手段】上記の目的を達成するた
め、本発明は、人間が顔の一部を隠しているか否かを画
像から判定する不審人物抽出方法であって、正常者の顔
画像について、目または口などといった顔の小領域を取
り出し辞書用画像データとして用意する第1の段階と、
不審人物抽出対象画像中における顔の小領域を取り出し
て該顔の小領域ごとに前記第1の段階で得られた辞書用
画像データとの相関値を算出する第2の段階と、前記第
2の段階で得られた顔の小領域ごとの相関値を正常者で
あると判断するためのしきい値と比較することで、不審
人物か否かを判定する第3の段階と、を有することを特
徴とする不審人物抽出方法を手段とする。
In order to achieve the above-mentioned object, the present invention is a suspicious person extraction method for determining whether or not a person hides a part of a face from an image, and A first step of extracting a small area of a face such as eyes or mouth from an image and preparing it as dictionary image data;
A second step of extracting a small area of a face in the suspicious person extraction target image and calculating a correlation value with the dictionary image data obtained in the first step for each small area of the face; And a third step of determining whether or not the person is a suspicious person by comparing the correlation value for each small area of the face obtained in the step of 1. with a threshold value for determining that the person is a normal person. A suspicious person extraction method characterized by

【0006】上記の第1の段階では、複数の異なる方向
から取り込んだ正常者の顔画像について、顔の小領域を
取り出し辞書用画像データとして用意するのが、顔の向
きにより顔の一部を隠している不審人物を、正確に抽出
する上で好適である。
In the above-mentioned first step, for a face image of a normal person captured from a plurality of different directions, a small area of the face is extracted and prepared as dictionary image data. This is suitable for accurately extracting the hidden suspicious person.

【0007】また、上記の第2の段階では、不審人物抽
出の対象画像中における顔の小領域を背景画像との差分
画像中から取り出すのが、背景部分を含むことによる誤
判定を低減させて、不審人物をより正確に抽出する上で
好適である。
In the second step, the small area of the face in the target image for suspicious person extraction is extracted from the difference image with the background image to reduce erroneous determination due to inclusion of the background portion. It is suitable for more accurately extracting a suspicious person.

【0008】本発明では、監視カメラ等からの不審人物
抽出対象の画像中の目や口などの顔の小領域について算
出した辞書用画像データとの相関値をしきい値で判定す
ることにより、画像中の人物がサングラスやマスクなど
で顔の一部分を隠している状態を検出して、自動的に不
審人物を抽出する。ここで、顔の全体や中心部分ではな
く、顔の小領域ごとに辞書との照合を行なうことによ
り、顔全体等では正確に得られない個々の部分の相違度
が得られるようにして、正確な不審人物の抽出を可能に
する。また、複数の異なる角度の正常者の顔画像から顔
の小領域を取り出して作成した辞書用画像データを用い
て、上記の照合を行うことにより、顔の向きによらず、
辞書用画像データに背景画像情報が入らないようにし、
より正確な不審人物か否かの判定を可能にする。さら
に、監視対象の画像中における顔の小領域を背景画像と
の差分画像中から取り出すことにより、背景部分を含む
ことによる誤判定を低減させて、より正確な不審人物の
抽出を可能にする。
According to the present invention, the threshold value is used to determine the correlation value with the dictionary image data calculated for the small area of the face such as eyes and mouth in the image of the suspicious person extracted from the surveillance camera. It detects the state where a person in the image hides a part of the face with sunglasses or a mask, and automatically extracts a suspicious person. Here, by comparing with the dictionary for each small area of the face, not for the whole face or the central part, it is possible to obtain the dissimilarity of individual parts that cannot be obtained accurately for the whole face, etc. Enables extraction of suspicious persons. Further, by using the dictionary image data created by extracting the small area of the face from the face image of the normal person at a plurality of different angles, by performing the above collation, regardless of the orientation of the face,
Prevent background image information from entering the dictionary image data,
Enables more accurate determination of whether a person is a suspicious person. Furthermore, by extracting the small area of the face in the image of the monitoring target from the difference image with the background image, erroneous determination due to the inclusion of the background portion can be reduced, and a more accurate suspicious person can be extracted.

【0009】[0009]

【発明の実施の形態】以下、本発明の実施の形態を、図
面を用いて詳しく説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.

【0010】ここでは、銀行のATMにおける不審者検
出方法を例に取って説明する。なお、ここで言う不審者
とは、サングラスやメガネあるいはマスク等の道具を使
ったり、極端にうつむいたりすることで、顔の一部分を
隠している人物を指す。
Here, a method of detecting a suspicious person in a bank ATM will be described as an example. The suspicious person referred to here is a person who hides a part of the face by using a tool such as sunglasses, glasses, a mask, etc., or by being extremely depressed.

【0011】図1は本発明の実施の形態例を示す不審者
検出方法のフローチャートである。本不審者検出方法
は、 [1]顔領域を抽出する段階 [2]抽出された顔領域の一部が隠されていないかを判
定する(不審者判定)段階 からなる。
FIG. 1 is a flow chart of a suspicious person detection method showing an embodiment of the present invention. The suspicious individual detection method includes [1] a step of extracting a face area. [2] a step of determining whether a part of the extracted face area is hidden (suspicious person determination).

【0012】まず、図1中の[1]に示す顔領域を抽出
する段階について説明する。図2はその顔領域抽出方法
の説明図である。
First, the step of extracting the face area shown by [1] in FIG. 1 will be described. FIG. 2 is an explanatory diagram of the face area extracting method.

【0013】始めに、設定されている監視カメラで、予
め背景画像データを取り込んでおく。また、監視カメラ
の正面から見て例えば上下左右±30度範囲内で15度
おきに同一人物の顔画像を撮影し、各々の画像につい
て、顔領域をmface×nface個のブロックに分割し、各
々のブロックの濃淡値の平均を代表値で表現する。そし
て、これを顔領域用辞書画像データとして顔領域探索用
辞書データベースに格納しておく。
First, the background image data is previously captured by the set surveillance camera. Further, when viewed from the front of the surveillance camera, for example, face images of the same person are taken every 15 degrees within a range of ± 30 degrees in the vertical and horizontal directions, and the face area is divided into m face × n face blocks for each image. , The average of the gray values of each block is represented by a representative value. Then, this is stored in the face area search dictionary database as face area dictionary image data.

【0014】次に、監視カメラからATMの使用者の画
像を取り込み、この画像と予め用意してある上記の背景
画像の画像差分を求める。そして、各画素ごとに画像差
分がしきい値を越えたか否かで差異の有無を判定し、差
異のある部分には差分値100を、差異のない部分には
差分値0を入れ、2値化した背景差分画像情報として計
算機上に格納する。
Next, the image of the user of the ATM is captured from the surveillance camera, and the image difference between this image and the background image prepared in advance is obtained. Then, it is determined whether or not there is a difference for each pixel depending on whether or not the image difference exceeds a threshold value. A difference value 100 is put in a portion having a difference, and a difference value 0 is put in a portion having no difference. The converted background difference image information is stored on the computer.

【0015】次に、背景差分画像情報をx軸(横軸)、
y軸(縦軸)の各々の軸へ投影した投影像を求める。こ
こで、x軸への投影像のヒストグラム曲線からは、2つ
の変曲点とその2つの変曲点間の距離XLを、y軸への
投影像のヒストグラム曲線からは、ヒストグラム曲線の
立ち上がった地点および最初に現れる変曲点と、そのヒ
ストグラム曲線の立ち上がった地点から最初に現れる変
曲点までの距離YLを求める。そして、これら2つの値
XL,YLを、顔領域のおおよその大きさとする。この
顔領域のおおよその大きさに基づき、照合領域のブロッ
クサイズを、x方向の大きさについてはXL/mface
y方向の大きさについてはYL/nfaceの前後で変化さ
せる。さらに、この顔領域のおおよその大きさと各点の
位置に基づき、画像中の探索領域を決定する。例えば、
x軸上ではヒストグラム曲線における2つの変曲点間の
範囲、y軸上ではヒストグラム曲線の立ち上がった地点
から最初に現れる変曲点までの範囲からなる領域を探索
領域として限定する。この探索領域は、背景差分画像情
報の差分値100の画素が多く含まれる領域である。
Next, the background difference image information is displayed on the x-axis (horizontal axis),
A projected image projected on each of the y-axis (vertical axis) is obtained. Here, from the histogram curve of the projected image on the x-axis, two inflection points and the distance XL between the two inflection points are raised, and from the histogram curve of the projected image on the y-axis, the histogram curve rises. A point and an inflection point that first appears, and a distance YL from a rising point of the histogram curve to the first inflection point are obtained. Then, these two values XL and YL are set as the approximate size of the face area. Based on the approximate size of the face area, the block size of the matching area is XL / m face for the size in the x direction,
The size in the y direction is changed before and after YL / n face . Further, the search area in the image is determined based on the approximate size of the face area and the position of each point. For example,
On the x-axis, a range between two inflection points in the histogram curve and on the y-axis, a range from the rising point of the histogram curve to the first inflection point is defined as a search area. This search area is an area that includes many pixels with a difference value of 100 in the background difference image information.

【0016】次に、その探索領域中でmface×nface
のブロックからなる領域を照合領域として、予め顔領域
探索用辞書データベースに用意した辞書画像データと照
合する。ここで、照合領域に背景差分画像情報の差分値
100の画素が半分以上含まれるか否かを判定すること
で、辞書画像データと照合するか否かを決定するのが、
顔領域として抽出される可能性の低い無効な照合を避け
て計算コストを削減できる点で好適である。照合する場
合は、mface×nface個の各々のブロックの濃淡値の平
均を代表値で表現してブロック画像データを生成する。
そして、このmface×nface個のブロック画像データを
ベクトル表現と考え、辞書画像データとの内積を取り、
それを類似尺度として用いる。この値が最も高い照合領
域を顔領域として抽出する。
Next, the area composed of m face × n face blocks in the search area is used as a matching area and is matched with the dictionary image data prepared in advance in the face area searching dictionary database. Here, by determining whether or not half or more pixels of the difference value 100 of the background difference image information are included in the matching area, it is determined whether or not to match with the dictionary image data.
It is preferable in that the calculation cost can be reduced by avoiding invalid collation that is unlikely to be extracted as a face area. In the case of matching, the average of the gray values of each of m face × n face blocks is represented by a representative value to generate block image data.
Then, this m face × n face block image data is considered as a vector expression, and the inner product with the dictionary image data is taken,
Use it as a similarity measure. The matching area with the highest value is extracted as the face area.

【0017】続いて、図1中の[2]に示す抽出された
顔領域の一部が隠されていないかを判定(不審者判定)
する段階について説明する。図3は、その不審者判定方
法の説明図である。
Subsequently, it is determined whether or not a part of the extracted face area shown in [2] in FIG. 1 is hidden (determination of suspicious person).
The steps to be performed will be described. FIG. 3 is an explanatory diagram of the suspicious person determination method.

【0018】始めに、前段階と同様にして、顔領域の辞
書画像データと同一人物の目元領域(meyes×neyes
のブロックに分割)と口元領域(mmouth×nmouth個の
ブロックに分割)の辞書画像データを各々用意してお
く。すなわち、監視カメラの正面から見て例えば上下左
右±30度範囲内で15度おきに撮影した上記の同一人
物の顔画像の各々について、目元領域をmeyes×neyes
個のブロックに分割し、口元領域をmmouth×nmouth
のブロックに分割して、各々のブロックの濃淡値の平均
を代表値で表現する。そして、目元領域については目元
領域用辞書画像データとして目元領域探索用辞書データ
ベースに、口元領域については目元領域用辞書画像デー
タとして目元領域探索用辞書データベースに格納してお
く。
First, in the same manner as in the previous step, the eye area (divided into m eyes × n eyes blocks) and the mouth area (m mouth × n mouth blocks) of the same person as the dictionary image data of the face area are divided. (Division) dictionary image data is prepared for each. That is, for each of the face images of the same person taken every 15 degrees within the range of ± 30 degrees in the vertical and horizontal directions when viewed from the front of the surveillance camera, the eye area is m eyes × n eyes.
The mouth area is divided into m mouth × n mouth blocks and the average of the gray values of each block is represented by a representative value. The eye area is stored in the eye area searching dictionary database as eye area dictionary image data, and the mouth area is stored in the eye area searching dictionary database as eye area dictionary image data.

【0019】次に、前段階で得られた顔領域の中を探索
して、前段階と同様に照合領域のブロック画像データを
生成し、上記の目元領域用辞書画像データと最も高い類
似度を示した領域を目元領域、口元領域用辞書画像デー
タと最も高い類似度を示した領域を口元領域として得
る。ここで用いる類似度としては、例えば、前段階で用
いたブロック画像データと辞書画像データとの内積を用
いることができる。
Next, the face area obtained in the previous step is searched, block image data of the collation area is generated in the same manner as in the previous step, and the highest degree of similarity with the above-mentioned eye area dictionary image data is obtained. The indicated area is obtained as the eye area, and the area having the highest degree of similarity with the mouth area dictionary image data is obtained as the mouth area. As the similarity used here, for example, the inner product of the block image data used in the previous stage and the dictionary image data can be used.

【0020】最後に、目元領域、口元領域、各々のうち
少なくとも一方の上記した類似度が設定しきい値を下回
った場合は不審者として判定する。なお、相関を表す類
似尺度が小さい値ほど類似度が高い例もあり、一般的に
は、設定しきい値を超えて類似度が低い場合に不審者と
判定する。
Finally, if at least one of the eye area and the mouth area has the above-mentioned degree of similarity lower than the set threshold value, it is judged as a suspicious person. In addition, there is an example in which the similarity is higher as the value indicating the correlation is smaller, and in general, when the similarity exceeds the set threshold and the similarity is low, the suspicious person is determined.

【0021】[0021]

【発明の効果】以上の説明で明らかなように、本発明に
よれば、監視カメラ等からの対象画像を計算機等で自動
的に解析するようにしたので、不審人物の抽出を自動的
に行なうことができる。その際、顔の全体や中心部分で
はなく、顔の小領域ごとに照合を行なうようにしたの
で、顔全体等では正確に得られない個々の部分の相違度
が得られるようになり、正確に不審人物を抽出すること
ができる。
As is apparent from the above description, according to the present invention, a target image from a surveillance camera or the like is automatically analyzed by a computer or the like, so that a suspicious person is automatically extracted. be able to. At that time, the matching is performed not for the whole face or the central part but for each small area of the face, so that it becomes possible to obtain the dissimilarity of each part that cannot be obtained accurately for the whole face, etc. A suspicious person can be extracted.

【0022】また、複数の異なる角度の顔画像から顔の
小領域を取り出して作成した辞書用画像データを用い
て、上記の照合を行うようにした場合には、特に、顔の
向きによらず、より正確に不審人物を抽出することがで
きる。
Further, when the above collation is performed using the dictionary image data created by extracting small areas of the face from a plurality of face images at different angles, the orientation of the face is not particularly limited. , It is possible to more accurately extract a suspicious person.

【0023】さらに、監視対象の画像中における顔の小
領域を背景領域との差分画像中から取り出すようにした
場合には、特に、背景画像を含むことによる誤判定を低
減させて、より正確な不審人物の抽出を可能にする。
Further, when the small area of the face in the image to be monitored is taken out from the difference image with the background area, erroneous determination due to the inclusion of the background image can be reduced, and more accurate. Enables extraction of suspicious persons.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施の形態例を示す不審者検出方法の
フローチャートである。
FIG. 1 is a flowchart of a suspicious individual detection method according to an exemplary embodiment of the present invention.

【図2】上記実施の形態例の不審者検出方法における顔
領域抽出方法の一例を説明する図である。
FIG. 2 is a diagram illustrating an example of a face area extraction method in the suspicious individual detection method of the above-described embodiment.

【図3】上記実施の形態例の不審者検出方法における不
審者判定方法の一例を説明する図である。
FIG. 3 is a diagram illustrating an example of a suspicious person determination method in the suspicious person detection method of the above-described embodiment.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 人間が顔の一部を隠しているか否かを画
像から判定する不審人物抽出方法であって、 正常者の顔画像について、目または口などといった顔の
小領域を取り出し辞書用画像データとして用意する第1
の段階と、 不審人物抽出対象画像中における顔の小領域を取り出し
て該顔の小領域ごとに前記第1の段階で得られた辞書用
画像データとの相関値を算出する第2の段階と、 前記第2の段階で得られた顔の小領域ごとの相関値を正
常者であると判断するためのしきい値と比較すること
で、不審人物か否かを判定する第3の段階と、 を有することを特徴とする不審人物抽出方法。
1. A suspicious person extraction method for determining whether or not a human hides a part of a face from an image, and extracts a small area of a face such as an eye or a mouth from a face image of a normal person for a dictionary. First prepared as image data
And a second step of extracting a small area of the face in the suspicious person extraction target image and calculating a correlation value with the dictionary image data obtained in the first step for each small area of the face. A third step of determining whether a person is a suspicious person by comparing the correlation value for each small area of the face obtained in the second step with a threshold value for determining that the person is a normal person; A method for extracting a suspicious person, comprising:
【請求項2】 第1の段階では、 複数の異なる方向から取り込んだ正常者の顔画像につい
て、顔の小領域を取り出し辞書用画像データとして用意
することを特徴とする請求項1記載の不審人物抽出方
法。
2. The suspicious individual according to claim 1, wherein in the first stage, a small area of the face is extracted and prepared as dictionary image data for a face image of a normal person captured from a plurality of different directions. Extraction method.
【請求項3】 第2の段階では、 不審人物抽出対象画像中における顔の小領域を背景画像
との差分画像中から取り出すことを特徴とする請求項1
または請求項2記載の不審人物抽出方法。
3. The second step is to extract a small area of the face in the suspicious person extraction target image from the difference image with the background image.
Alternatively, the suspicious person extraction method according to claim 2.
JP25001295A 1995-09-28 1995-09-28 Method for extracting doubtful person Pending JPH0991432A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25001295A JPH0991432A (en) 1995-09-28 1995-09-28 Method for extracting doubtful person

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25001295A JPH0991432A (en) 1995-09-28 1995-09-28 Method for extracting doubtful person

Publications (1)

Publication Number Publication Date
JPH0991432A true JPH0991432A (en) 1997-04-04

Family

ID=17201538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25001295A Pending JPH0991432A (en) 1995-09-28 1995-09-28 Method for extracting doubtful person

Country Status (1)

Country Link
JP (1) JPH0991432A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310397A (en) * 2003-04-07 2004-11-04 Toyota Central Res & Dev Lab Inc Device for determining wearing of mask
JP2006202049A (en) * 2005-01-20 2006-08-03 Omron Corp Face recognition apparatus
JP2011034581A (en) * 2010-10-12 2011-02-17 Panasonic Corp Object detection device and learning device for the same
JP2011039994A (en) * 2009-08-18 2011-02-24 Nec Soft Ltd Component detector, component detection method, program, and recording medium
JP2011096291A (en) * 2011-02-18 2011-05-12 Panasonic Corp Feature extraction device, object detector, feature extraction method and object detection method
US8233720B2 (en) 2005-06-15 2012-07-31 Panasonic Corporation Object detecting apparatus and learning apparatus for the same
WO2017043132A1 (en) * 2015-09-08 2017-03-16 日本電気株式会社 Facial recognition system, facial recognition method, display control device, display control method, and display control program

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004310397A (en) * 2003-04-07 2004-11-04 Toyota Central Res & Dev Lab Inc Device for determining wearing of mask
JP2006202049A (en) * 2005-01-20 2006-08-03 Omron Corp Face recognition apparatus
US8233720B2 (en) 2005-06-15 2012-07-31 Panasonic Corporation Object detecting apparatus and learning apparatus for the same
JP2011039994A (en) * 2009-08-18 2011-02-24 Nec Soft Ltd Component detector, component detection method, program, and recording medium
JP2011034581A (en) * 2010-10-12 2011-02-17 Panasonic Corp Object detection device and learning device for the same
JP2011096291A (en) * 2011-02-18 2011-05-12 Panasonic Corp Feature extraction device, object detector, feature extraction method and object detection method
WO2017043132A1 (en) * 2015-09-08 2017-03-16 日本電気株式会社 Facial recognition system, facial recognition method, display control device, display control method, and display control program
JPWO2017043132A1 (en) * 2015-09-08 2018-01-25 日本電気株式会社 Face recognition system, face recognition method, display control apparatus, display control method, and display control program
US10671837B2 (en) 2015-09-08 2020-06-02 Nec Corporation Face recognition system, face recognition method, display control apparatus, display control method, and display control program
US10885311B2 (en) 2015-09-08 2021-01-05 Nec Corporation Face recognition system, face recognition method, display control apparatus, display control method, and display control program
US10885312B2 (en) 2015-09-08 2021-01-05 Nec Corporation Face recognition system, face recognition method, display control apparatus, display control method, and display control program
US10970524B2 (en) 2015-09-08 2021-04-06 Nec Corporation Face recognition system, face recognition method, display control apparatus, display control method, and display control program
JP2021157817A (en) * 2015-09-08 2021-10-07 日本電気株式会社 Face recognition system, display control device, display control method, and display control program
US11842566B2 (en) 2015-09-08 2023-12-12 Nec Corporation Face recognition system, face recognition method, display control apparatus, display control method, and display control program

Similar Documents

Publication Publication Date Title
JP4156430B2 (en) Face verification method and system using automatic database update method
US5450504A (en) Method for finding a most likely matching of a target facial image in a data base of facial images
KR101507662B1 (en) Semantic parsing of objects in video
US6661907B2 (en) Face detection in digital images
US7369687B2 (en) Method for extracting face position, program for causing computer to execute the method for extracting face position and apparatus for extracting face position
US7376270B2 (en) Detecting human faces and detecting red eyes
US6895103B2 (en) Method for automatically locating eyes in an image
KR101546137B1 (en) Person recognizing device and method
KR100361497B1 (en) Method of extraction of face from video image
EP1229493A2 (en) Multi-mode digital image processing method for detecting eyes
JP2001216515A (en) Method and device for detecting face of person
US7995807B2 (en) Automatic trimming method, apparatus and program
JP2014182480A (en) Person recognition device and method
US20220180534A1 (en) Pedestrian tracking method, computing device, pedestrian tracking system and storage medium
JP2004511862A (en) IDENTIFICATION SYSTEM AND METHOD USING IRIS AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING IDENTIFICATION PROGRAM FOR PERFORMING THE METHOD
RU2713876C1 (en) Method and system for detecting alarm events when interacting with self-service device
CN108710841A (en) A kind of face living body detection device and method based on MEMs infrared sensor arrays
CN110991301A (en) Face recognition method
JPH0991432A (en) Method for extracting doubtful person
KR100545559B1 (en) Method for recognizing a face using Haar-like feature/LDA and apparatus thereof
JP3305551B2 (en) Specific symmetric object judgment method
CN111694980A (en) Robust family child learning state visual supervision method and device
JPH0883341A (en) Method and device for extracting object area and object recognizing device
CN114743026A (en) Target object orientation detection method, device, equipment and computer readable medium
JP2002208011A (en) Image collation processing system and its method