JPH0991432A - Method for extracting doubtful person - Google Patents
Method for extracting doubtful personInfo
- Publication number
- JPH0991432A JPH0991432A JP25001295A JP25001295A JPH0991432A JP H0991432 A JPH0991432 A JP H0991432A JP 25001295 A JP25001295 A JP 25001295A JP 25001295 A JP25001295 A JP 25001295A JP H0991432 A JPH0991432 A JP H0991432A
- Authority
- JP
- Japan
- Prior art keywords
- face
- image
- person
- area
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、監視カメラからの
画像情報を解析することで不審人物の判定を自動的に行
なう銀行のATM管理システムなどのセキュリティ分野
に関わる不審人物抽出方法に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for extracting a suspicious person involved in the security field such as a bank ATM management system for automatically determining a suspicious person by analyzing image information from a surveillance camera. .
【0002】[0002]
【従来の技術】従来のこの種の不審者の抽出方法は、基
本的には、監視カメラからの画像を人間が見て、不審人
物か否かを判定するものであった。また、画像解析によ
る不審人物の抽出手法も知られているが、その従来の手
法では、顔全体もしくは顔の中心部分と正常者の顔の辞
書用画像データベースとの照合度合によって判定してい
た。2. Description of the Related Art A conventional suspicious person extraction method of this type basically determines whether or not a person is a suspicious person by seeing an image from a surveillance camera. Further, a method of extracting a suspicious person by image analysis is also known, but in the conventional method, the determination is made based on the degree of matching between the entire face or the central portion of the face and the dictionary image database of the face of a normal person.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上記従
来の画像解析による不審人物の抽出方法では、照合部分
として顔全体もしくは顔の中心部分を用いているため、
顔の向きによっては、背景部分を含んでしまい、誤判定
の原因となっているという問題があった。このような状
況から、監視カメラから取り込まれた画像を人間が直接
見て、不審人物か否かを判定する方法がほとんどであ
り、この人間の観察に頼る方法では、自動化がなされて
いないため、省力化という要求に応えられないという問
題があった。However, in the above-described conventional method for extracting a suspicious person by image analysis, the entire face or the central portion of the face is used as the matching portion,
There is a problem in that the background portion is included depending on the face orientation, which causes an erroneous determination. From such a situation, most people directly look at the image captured from the surveillance camera to determine whether or not it is a suspicious person, and the method relying on this human observation is not automated, There was a problem that the demand for labor saving could not be met.
【0004】本発明は、上記問題点を解決するためにな
されたものであり、その目的は、監視カメラ等から画像
を自動的に解析して、不審人物を自動的に正確に抽出す
ることができる不審人物抽出方法を提供することにあ
る。The present invention has been made to solve the above problems, and an object thereof is to automatically analyze an image from a surveillance camera or the like to automatically and accurately extract a suspicious person. It is to provide a suspicious person extraction method that can be performed.
【0005】[0005]
【課題を解決するための手段】上記の目的を達成するた
め、本発明は、人間が顔の一部を隠しているか否かを画
像から判定する不審人物抽出方法であって、正常者の顔
画像について、目または口などといった顔の小領域を取
り出し辞書用画像データとして用意する第1の段階と、
不審人物抽出対象画像中における顔の小領域を取り出し
て該顔の小領域ごとに前記第1の段階で得られた辞書用
画像データとの相関値を算出する第2の段階と、前記第
2の段階で得られた顔の小領域ごとの相関値を正常者で
あると判断するためのしきい値と比較することで、不審
人物か否かを判定する第3の段階と、を有することを特
徴とする不審人物抽出方法を手段とする。In order to achieve the above-mentioned object, the present invention is a suspicious person extraction method for determining whether or not a person hides a part of a face from an image, and A first step of extracting a small area of a face such as eyes or mouth from an image and preparing it as dictionary image data;
A second step of extracting a small area of a face in the suspicious person extraction target image and calculating a correlation value with the dictionary image data obtained in the first step for each small area of the face; And a third step of determining whether or not the person is a suspicious person by comparing the correlation value for each small area of the face obtained in the step of 1. with a threshold value for determining that the person is a normal person. A suspicious person extraction method characterized by
【0006】上記の第1の段階では、複数の異なる方向
から取り込んだ正常者の顔画像について、顔の小領域を
取り出し辞書用画像データとして用意するのが、顔の向
きにより顔の一部を隠している不審人物を、正確に抽出
する上で好適である。In the above-mentioned first step, for a face image of a normal person captured from a plurality of different directions, a small area of the face is extracted and prepared as dictionary image data. This is suitable for accurately extracting the hidden suspicious person.
【0007】また、上記の第2の段階では、不審人物抽
出の対象画像中における顔の小領域を背景画像との差分
画像中から取り出すのが、背景部分を含むことによる誤
判定を低減させて、不審人物をより正確に抽出する上で
好適である。In the second step, the small area of the face in the target image for suspicious person extraction is extracted from the difference image with the background image to reduce erroneous determination due to inclusion of the background portion. It is suitable for more accurately extracting a suspicious person.
【0008】本発明では、監視カメラ等からの不審人物
抽出対象の画像中の目や口などの顔の小領域について算
出した辞書用画像データとの相関値をしきい値で判定す
ることにより、画像中の人物がサングラスやマスクなど
で顔の一部分を隠している状態を検出して、自動的に不
審人物を抽出する。ここで、顔の全体や中心部分ではな
く、顔の小領域ごとに辞書との照合を行なうことによ
り、顔全体等では正確に得られない個々の部分の相違度
が得られるようにして、正確な不審人物の抽出を可能に
する。また、複数の異なる角度の正常者の顔画像から顔
の小領域を取り出して作成した辞書用画像データを用い
て、上記の照合を行うことにより、顔の向きによらず、
辞書用画像データに背景画像情報が入らないようにし、
より正確な不審人物か否かの判定を可能にする。さら
に、監視対象の画像中における顔の小領域を背景画像と
の差分画像中から取り出すことにより、背景部分を含む
ことによる誤判定を低減させて、より正確な不審人物の
抽出を可能にする。According to the present invention, the threshold value is used to determine the correlation value with the dictionary image data calculated for the small area of the face such as eyes and mouth in the image of the suspicious person extracted from the surveillance camera. It detects the state where a person in the image hides a part of the face with sunglasses or a mask, and automatically extracts a suspicious person. Here, by comparing with the dictionary for each small area of the face, not for the whole face or the central part, it is possible to obtain the dissimilarity of individual parts that cannot be obtained accurately for the whole face, etc. Enables extraction of suspicious persons. Further, by using the dictionary image data created by extracting the small area of the face from the face image of the normal person at a plurality of different angles, by performing the above collation, regardless of the orientation of the face,
Prevent background image information from entering the dictionary image data,
Enables more accurate determination of whether a person is a suspicious person. Furthermore, by extracting the small area of the face in the image of the monitoring target from the difference image with the background image, erroneous determination due to the inclusion of the background portion can be reduced, and a more accurate suspicious person can be extracted.
【0009】[0009]
【発明の実施の形態】以下、本発明の実施の形態を、図
面を用いて詳しく説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.
【0010】ここでは、銀行のATMにおける不審者検
出方法を例に取って説明する。なお、ここで言う不審者
とは、サングラスやメガネあるいはマスク等の道具を使
ったり、極端にうつむいたりすることで、顔の一部分を
隠している人物を指す。Here, a method of detecting a suspicious person in a bank ATM will be described as an example. The suspicious person referred to here is a person who hides a part of the face by using a tool such as sunglasses, glasses, a mask, etc., or by being extremely depressed.
【0011】図1は本発明の実施の形態例を示す不審者
検出方法のフローチャートである。本不審者検出方法
は、 [1]顔領域を抽出する段階 [2]抽出された顔領域の一部が隠されていないかを判
定する(不審者判定)段階 からなる。FIG. 1 is a flow chart of a suspicious person detection method showing an embodiment of the present invention. The suspicious individual detection method includes [1] a step of extracting a face area. [2] a step of determining whether a part of the extracted face area is hidden (suspicious person determination).
【0012】まず、図1中の[1]に示す顔領域を抽出
する段階について説明する。図2はその顔領域抽出方法
の説明図である。First, the step of extracting the face area shown by [1] in FIG. 1 will be described. FIG. 2 is an explanatory diagram of the face area extracting method.
【0013】始めに、設定されている監視カメラで、予
め背景画像データを取り込んでおく。また、監視カメラ
の正面から見て例えば上下左右±30度範囲内で15度
おきに同一人物の顔画像を撮影し、各々の画像につい
て、顔領域をmface×nface個のブロックに分割し、各
々のブロックの濃淡値の平均を代表値で表現する。そし
て、これを顔領域用辞書画像データとして顔領域探索用
辞書データベースに格納しておく。First, the background image data is previously captured by the set surveillance camera. Further, when viewed from the front of the surveillance camera, for example, face images of the same person are taken every 15 degrees within a range of ± 30 degrees in the vertical and horizontal directions, and the face area is divided into m face × n face blocks for each image. , The average of the gray values of each block is represented by a representative value. Then, this is stored in the face area search dictionary database as face area dictionary image data.
【0014】次に、監視カメラからATMの使用者の画
像を取り込み、この画像と予め用意してある上記の背景
画像の画像差分を求める。そして、各画素ごとに画像差
分がしきい値を越えたか否かで差異の有無を判定し、差
異のある部分には差分値100を、差異のない部分には
差分値0を入れ、2値化した背景差分画像情報として計
算機上に格納する。Next, the image of the user of the ATM is captured from the surveillance camera, and the image difference between this image and the background image prepared in advance is obtained. Then, it is determined whether or not there is a difference for each pixel depending on whether or not the image difference exceeds a threshold value. A difference value 100 is put in a portion having a difference, and a difference value 0 is put in a portion having no difference. The converted background difference image information is stored on the computer.
【0015】次に、背景差分画像情報をx軸(横軸)、
y軸(縦軸)の各々の軸へ投影した投影像を求める。こ
こで、x軸への投影像のヒストグラム曲線からは、2つ
の変曲点とその2つの変曲点間の距離XLを、y軸への
投影像のヒストグラム曲線からは、ヒストグラム曲線の
立ち上がった地点および最初に現れる変曲点と、そのヒ
ストグラム曲線の立ち上がった地点から最初に現れる変
曲点までの距離YLを求める。そして、これら2つの値
XL,YLを、顔領域のおおよその大きさとする。この
顔領域のおおよその大きさに基づき、照合領域のブロッ
クサイズを、x方向の大きさについてはXL/mface、
y方向の大きさについてはYL/nfaceの前後で変化さ
せる。さらに、この顔領域のおおよその大きさと各点の
位置に基づき、画像中の探索領域を決定する。例えば、
x軸上ではヒストグラム曲線における2つの変曲点間の
範囲、y軸上ではヒストグラム曲線の立ち上がった地点
から最初に現れる変曲点までの範囲からなる領域を探索
領域として限定する。この探索領域は、背景差分画像情
報の差分値100の画素が多く含まれる領域である。Next, the background difference image information is displayed on the x-axis (horizontal axis),
A projected image projected on each of the y-axis (vertical axis) is obtained. Here, from the histogram curve of the projected image on the x-axis, two inflection points and the distance XL between the two inflection points are raised, and from the histogram curve of the projected image on the y-axis, the histogram curve rises. A point and an inflection point that first appears, and a distance YL from a rising point of the histogram curve to the first inflection point are obtained. Then, these two values XL and YL are set as the approximate size of the face area. Based on the approximate size of the face area, the block size of the matching area is XL / m face for the size in the x direction,
The size in the y direction is changed before and after YL / n face . Further, the search area in the image is determined based on the approximate size of the face area and the position of each point. For example,
On the x-axis, a range between two inflection points in the histogram curve and on the y-axis, a range from the rising point of the histogram curve to the first inflection point is defined as a search area. This search area is an area that includes many pixels with a difference value of 100 in the background difference image information.
【0016】次に、その探索領域中でmface×nface個
のブロックからなる領域を照合領域として、予め顔領域
探索用辞書データベースに用意した辞書画像データと照
合する。ここで、照合領域に背景差分画像情報の差分値
100の画素が半分以上含まれるか否かを判定すること
で、辞書画像データと照合するか否かを決定するのが、
顔領域として抽出される可能性の低い無効な照合を避け
て計算コストを削減できる点で好適である。照合する場
合は、mface×nface個の各々のブロックの濃淡値の平
均を代表値で表現してブロック画像データを生成する。
そして、このmface×nface個のブロック画像データを
ベクトル表現と考え、辞書画像データとの内積を取り、
それを類似尺度として用いる。この値が最も高い照合領
域を顔領域として抽出する。Next, the area composed of m face × n face blocks in the search area is used as a matching area and is matched with the dictionary image data prepared in advance in the face area searching dictionary database. Here, by determining whether or not half or more pixels of the difference value 100 of the background difference image information are included in the matching area, it is determined whether or not to match with the dictionary image data.
It is preferable in that the calculation cost can be reduced by avoiding invalid collation that is unlikely to be extracted as a face area. In the case of matching, the average of the gray values of each of m face × n face blocks is represented by a representative value to generate block image data.
Then, this m face × n face block image data is considered as a vector expression, and the inner product with the dictionary image data is taken,
Use it as a similarity measure. The matching area with the highest value is extracted as the face area.
【0017】続いて、図1中の[2]に示す抽出された
顔領域の一部が隠されていないかを判定(不審者判定)
する段階について説明する。図3は、その不審者判定方
法の説明図である。Subsequently, it is determined whether or not a part of the extracted face area shown in [2] in FIG. 1 is hidden (determination of suspicious person).
The steps to be performed will be described. FIG. 3 is an explanatory diagram of the suspicious person determination method.
【0018】始めに、前段階と同様にして、顔領域の辞
書画像データと同一人物の目元領域(meyes×neyes個
のブロックに分割)と口元領域(mmouth×nmouth個の
ブロックに分割)の辞書画像データを各々用意してお
く。すなわち、監視カメラの正面から見て例えば上下左
右±30度範囲内で15度おきに撮影した上記の同一人
物の顔画像の各々について、目元領域をmeyes×neyes
個のブロックに分割し、口元領域をmmouth×nmouth個
のブロックに分割して、各々のブロックの濃淡値の平均
を代表値で表現する。そして、目元領域については目元
領域用辞書画像データとして目元領域探索用辞書データ
ベースに、口元領域については目元領域用辞書画像デー
タとして目元領域探索用辞書データベースに格納してお
く。First, in the same manner as in the previous step, the eye area (divided into m eyes × n eyes blocks) and the mouth area (m mouth × n mouth blocks) of the same person as the dictionary image data of the face area are divided. (Division) dictionary image data is prepared for each. That is, for each of the face images of the same person taken every 15 degrees within the range of ± 30 degrees in the vertical and horizontal directions when viewed from the front of the surveillance camera, the eye area is m eyes × n eyes.
The mouth area is divided into m mouth × n mouth blocks and the average of the gray values of each block is represented by a representative value. The eye area is stored in the eye area searching dictionary database as eye area dictionary image data, and the mouth area is stored in the eye area searching dictionary database as eye area dictionary image data.
【0019】次に、前段階で得られた顔領域の中を探索
して、前段階と同様に照合領域のブロック画像データを
生成し、上記の目元領域用辞書画像データと最も高い類
似度を示した領域を目元領域、口元領域用辞書画像デー
タと最も高い類似度を示した領域を口元領域として得
る。ここで用いる類似度としては、例えば、前段階で用
いたブロック画像データと辞書画像データとの内積を用
いることができる。Next, the face area obtained in the previous step is searched, block image data of the collation area is generated in the same manner as in the previous step, and the highest degree of similarity with the above-mentioned eye area dictionary image data is obtained. The indicated area is obtained as the eye area, and the area having the highest degree of similarity with the mouth area dictionary image data is obtained as the mouth area. As the similarity used here, for example, the inner product of the block image data used in the previous stage and the dictionary image data can be used.
【0020】最後に、目元領域、口元領域、各々のうち
少なくとも一方の上記した類似度が設定しきい値を下回
った場合は不審者として判定する。なお、相関を表す類
似尺度が小さい値ほど類似度が高い例もあり、一般的に
は、設定しきい値を超えて類似度が低い場合に不審者と
判定する。Finally, if at least one of the eye area and the mouth area has the above-mentioned degree of similarity lower than the set threshold value, it is judged as a suspicious person. In addition, there is an example in which the similarity is higher as the value indicating the correlation is smaller, and in general, when the similarity exceeds the set threshold and the similarity is low, the suspicious person is determined.
【0021】[0021]
【発明の効果】以上の説明で明らかなように、本発明に
よれば、監視カメラ等からの対象画像を計算機等で自動
的に解析するようにしたので、不審人物の抽出を自動的
に行なうことができる。その際、顔の全体や中心部分で
はなく、顔の小領域ごとに照合を行なうようにしたの
で、顔全体等では正確に得られない個々の部分の相違度
が得られるようになり、正確に不審人物を抽出すること
ができる。As is apparent from the above description, according to the present invention, a target image from a surveillance camera or the like is automatically analyzed by a computer or the like, so that a suspicious person is automatically extracted. be able to. At that time, the matching is performed not for the whole face or the central part but for each small area of the face, so that it becomes possible to obtain the dissimilarity of each part that cannot be obtained accurately for the whole face, etc. A suspicious person can be extracted.
【0022】また、複数の異なる角度の顔画像から顔の
小領域を取り出して作成した辞書用画像データを用い
て、上記の照合を行うようにした場合には、特に、顔の
向きによらず、より正確に不審人物を抽出することがで
きる。Further, when the above collation is performed using the dictionary image data created by extracting small areas of the face from a plurality of face images at different angles, the orientation of the face is not particularly limited. , It is possible to more accurately extract a suspicious person.
【0023】さらに、監視対象の画像中における顔の小
領域を背景領域との差分画像中から取り出すようにした
場合には、特に、背景画像を含むことによる誤判定を低
減させて、より正確な不審人物の抽出を可能にする。Further, when the small area of the face in the image to be monitored is taken out from the difference image with the background area, erroneous determination due to the inclusion of the background image can be reduced, and more accurate. Enables extraction of suspicious persons.
【図1】本発明の実施の形態例を示す不審者検出方法の
フローチャートである。FIG. 1 is a flowchart of a suspicious individual detection method according to an exemplary embodiment of the present invention.
【図2】上記実施の形態例の不審者検出方法における顔
領域抽出方法の一例を説明する図である。FIG. 2 is a diagram illustrating an example of a face area extraction method in the suspicious individual detection method of the above-described embodiment.
【図3】上記実施の形態例の不審者検出方法における不
審者判定方法の一例を説明する図である。FIG. 3 is a diagram illustrating an example of a suspicious person determination method in the suspicious person detection method of the above-described embodiment.
Claims (3)
像から判定する不審人物抽出方法であって、 正常者の顔画像について、目または口などといった顔の
小領域を取り出し辞書用画像データとして用意する第1
の段階と、 不審人物抽出対象画像中における顔の小領域を取り出し
て該顔の小領域ごとに前記第1の段階で得られた辞書用
画像データとの相関値を算出する第2の段階と、 前記第2の段階で得られた顔の小領域ごとの相関値を正
常者であると判断するためのしきい値と比較すること
で、不審人物か否かを判定する第3の段階と、 を有することを特徴とする不審人物抽出方法。1. A suspicious person extraction method for determining whether or not a human hides a part of a face from an image, and extracts a small area of a face such as an eye or a mouth from a face image of a normal person for a dictionary. First prepared as image data
And a second step of extracting a small area of the face in the suspicious person extraction target image and calculating a correlation value with the dictionary image data obtained in the first step for each small area of the face. A third step of determining whether a person is a suspicious person by comparing the correlation value for each small area of the face obtained in the second step with a threshold value for determining that the person is a normal person; A method for extracting a suspicious person, comprising:
て、顔の小領域を取り出し辞書用画像データとして用意
することを特徴とする請求項1記載の不審人物抽出方
法。2. The suspicious individual according to claim 1, wherein in the first stage, a small area of the face is extracted and prepared as dictionary image data for a face image of a normal person captured from a plurality of different directions. Extraction method.
との差分画像中から取り出すことを特徴とする請求項1
または請求項2記載の不審人物抽出方法。3. The second step is to extract a small area of the face in the suspicious person extraction target image from the difference image with the background image.
Alternatively, the suspicious person extraction method according to claim 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25001295A JPH0991432A (en) | 1995-09-28 | 1995-09-28 | Method for extracting doubtful person |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP25001295A JPH0991432A (en) | 1995-09-28 | 1995-09-28 | Method for extracting doubtful person |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0991432A true JPH0991432A (en) | 1997-04-04 |
Family
ID=17201538
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP25001295A Pending JPH0991432A (en) | 1995-09-28 | 1995-09-28 | Method for extracting doubtful person |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0991432A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004310397A (en) * | 2003-04-07 | 2004-11-04 | Toyota Central Res & Dev Lab Inc | Device for determining wearing of mask |
JP2006202049A (en) * | 2005-01-20 | 2006-08-03 | Omron Corp | Face recognition apparatus |
JP2011034581A (en) * | 2010-10-12 | 2011-02-17 | Panasonic Corp | Object detection device and learning device for the same |
JP2011039994A (en) * | 2009-08-18 | 2011-02-24 | Nec Soft Ltd | Component detector, component detection method, program, and recording medium |
JP2011096291A (en) * | 2011-02-18 | 2011-05-12 | Panasonic Corp | Feature extraction device, object detector, feature extraction method and object detection method |
US8233720B2 (en) | 2005-06-15 | 2012-07-31 | Panasonic Corporation | Object detecting apparatus and learning apparatus for the same |
WO2017043132A1 (en) * | 2015-09-08 | 2017-03-16 | 日本電気株式会社 | Facial recognition system, facial recognition method, display control device, display control method, and display control program |
-
1995
- 1995-09-28 JP JP25001295A patent/JPH0991432A/en active Pending
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004310397A (en) * | 2003-04-07 | 2004-11-04 | Toyota Central Res & Dev Lab Inc | Device for determining wearing of mask |
JP2006202049A (en) * | 2005-01-20 | 2006-08-03 | Omron Corp | Face recognition apparatus |
US8233720B2 (en) | 2005-06-15 | 2012-07-31 | Panasonic Corporation | Object detecting apparatus and learning apparatus for the same |
JP2011039994A (en) * | 2009-08-18 | 2011-02-24 | Nec Soft Ltd | Component detector, component detection method, program, and recording medium |
JP2011034581A (en) * | 2010-10-12 | 2011-02-17 | Panasonic Corp | Object detection device and learning device for the same |
JP2011096291A (en) * | 2011-02-18 | 2011-05-12 | Panasonic Corp | Feature extraction device, object detector, feature extraction method and object detection method |
WO2017043132A1 (en) * | 2015-09-08 | 2017-03-16 | 日本電気株式会社 | Facial recognition system, facial recognition method, display control device, display control method, and display control program |
JPWO2017043132A1 (en) * | 2015-09-08 | 2018-01-25 | 日本電気株式会社 | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
US10671837B2 (en) | 2015-09-08 | 2020-06-02 | Nec Corporation | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
US10885311B2 (en) | 2015-09-08 | 2021-01-05 | Nec Corporation | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
US10885312B2 (en) | 2015-09-08 | 2021-01-05 | Nec Corporation | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
US10970524B2 (en) | 2015-09-08 | 2021-04-06 | Nec Corporation | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
JP2021157817A (en) * | 2015-09-08 | 2021-10-07 | 日本電気株式会社 | Face recognition system, display control device, display control method, and display control program |
US11842566B2 (en) | 2015-09-08 | 2023-12-12 | Nec Corporation | Face recognition system, face recognition method, display control apparatus, display control method, and display control program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4156430B2 (en) | Face verification method and system using automatic database update method | |
US5450504A (en) | Method for finding a most likely matching of a target facial image in a data base of facial images | |
KR101507662B1 (en) | Semantic parsing of objects in video | |
US6661907B2 (en) | Face detection in digital images | |
US7369687B2 (en) | Method for extracting face position, program for causing computer to execute the method for extracting face position and apparatus for extracting face position | |
US7376270B2 (en) | Detecting human faces and detecting red eyes | |
US6895103B2 (en) | Method for automatically locating eyes in an image | |
KR101546137B1 (en) | Person recognizing device and method | |
KR100361497B1 (en) | Method of extraction of face from video image | |
EP1229493A2 (en) | Multi-mode digital image processing method for detecting eyes | |
JP2001216515A (en) | Method and device for detecting face of person | |
US7995807B2 (en) | Automatic trimming method, apparatus and program | |
JP2014182480A (en) | Person recognition device and method | |
US20220180534A1 (en) | Pedestrian tracking method, computing device, pedestrian tracking system and storage medium | |
JP2004511862A (en) | IDENTIFICATION SYSTEM AND METHOD USING IRIS AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING IDENTIFICATION PROGRAM FOR PERFORMING THE METHOD | |
RU2713876C1 (en) | Method and system for detecting alarm events when interacting with self-service device | |
CN108710841A (en) | A kind of face living body detection device and method based on MEMs infrared sensor arrays | |
CN110991301A (en) | Face recognition method | |
JPH0991432A (en) | Method for extracting doubtful person | |
KR100545559B1 (en) | Method for recognizing a face using Haar-like feature/LDA and apparatus thereof | |
JP3305551B2 (en) | Specific symmetric object judgment method | |
CN111694980A (en) | Robust family child learning state visual supervision method and device | |
JPH0883341A (en) | Method and device for extracting object area and object recognizing device | |
CN114743026A (en) | Target object orientation detection method, device, equipment and computer readable medium | |
JP2002208011A (en) | Image collation processing system and its method |