JPH09153135A - Method for judging specified symmetrical object - Google Patents
Method for judging specified symmetrical objectInfo
- Publication number
- JPH09153135A JPH09153135A JP7312212A JP31221295A JPH09153135A JP H09153135 A JPH09153135 A JP H09153135A JP 7312212 A JP7312212 A JP 7312212A JP 31221295 A JP31221295 A JP 31221295A JP H09153135 A JPH09153135 A JP H09153135A
- Authority
- JP
- Japan
- Prior art keywords
- image
- symmetric object
- specific symmetric
- area
- dictionary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Complex Calculations (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、監視カメラからの
画像情報を解析することで、例えば銀行のATM管理シ
ステムなどのセキュリティ分野において、不審人物等の
判定を行なうような場合に好適な特定対称物体判定方法
に関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a specific symmetry suitable for determining a suspicious person or the like in the security field such as an ATM management system of a bank by analyzing image information from a surveillance camera. The present invention relates to an object determination method.
【0002】[0002]
【従来の技術】この種の画像解析による従来の対称物体
判定方法は、基本的には、対称物体であるための拘束条
件をフィルター化し、これを用いた画像処理を行なうこ
とで対称物体を抽出している。2. Description of the Related Art A conventional symmetric object determination method based on this type of image analysis basically extracts a symmetric object by filtering a constraint condition for a symmetric object and performing image processing using this. doing.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上記従
来の画像解析による対称物体判定方法では、対称物体抽
出のためのフィルター設計が複雑であるという問題があ
った。また、不特定な対称物体を抽出することは可能で
あるが、特定の対称物体か否かを判定することは困難で
あった。However, the conventional symmetric object determination method by image analysis has a problem that the filter design for extracting the symmetric object is complicated. Further, although it is possible to extract an unspecified symmetrical object, it is difficult to determine whether or not the object is a specific symmetrical object.
【0004】本発明は、このような問題点を解決するた
めになされたものであり、その目的は、簡単なフィルタ
ー処理を用いて、特定の対称物体を容易に判定できる特
定対称物体判定方法を提供することにある。The present invention has been made to solve such a problem, and an object thereof is to provide a specific symmetric object determination method capable of easily determining a specific symmetric object by using a simple filtering process. To provide.
【0005】[0005]
【課題を解決するための手段】上記の目的を達成するた
め、本発明は、画像入力手段より取り込まれた画像か
ら、特定対称物体を抽出する方法であって、抽出したい
特定対称物体の代表的な画像を辞書用画像データとし、
これと画像入力手段より取り込まれた画像との相関値を
算出し、最も高い相関値を示した領域を特定対称物体判
定領域として抽出する第1の段階と、前記第1の段階で
抽出された特定対称物体判定領域をフーリエ変換して得
られた判定領域フーリエ変換データと、前記辞書用画像
データをフーリエ変換して得られる辞書用フーリエ変換
データとの各々の虚数成分における相関値を算出し、該
相関値に基づいて前記特定対称物体判定領域に特定対称
物体が含まれているかを判定する第2の段階と、を有す
ることを特徴とする。In order to achieve the above object, the present invention is a method for extracting a specific symmetric object from an image captured by an image input means, which is representative of the specific symmetric object to be extracted. Image as dictionary image data,
The first step of calculating the correlation value between this and the image captured by the image input means, and extracting the area showing the highest correlation value as the specific symmetric object determination area, and the first step. Determination region Fourier transform data obtained by Fourier transforming the specific symmetric object determination region, and calculate the correlation value in each imaginary component of the dictionary Fourier transform data obtained by Fourier transforming the dictionary image data, A second step of determining whether or not the specific symmetric object is included in the specific symmetric object determination region based on the correlation value.
【0006】上記の特定対称物体判定方法において、第
1の段階では、画像入力手段より取り込まれた画像とあ
らかじめ該画像入力手段から取り込んだ背景画像との差
分画像の座標軸でのヒストグラムの変化点から画像中の
領域を限定して特定対称物体判定領域を抽出するのが、
正確に特定対称物体を判定する上で好適である。In the above-mentioned specific symmetric object determination method, in the first step, from the change point of the histogram on the coordinate axis of the difference image between the image captured by the image input means and the background image captured in advance by the image input means, Extracting the specific symmetric object determination area by limiting the area in the image is
This is suitable for accurately determining the specific symmetrical object.
【0007】また、以上の特定対称物体判定方法におい
て、第1の段階では、差分画像画素が半分以上含まれる
領域から辞書用画像データとの相関を算出して特定対称
物体判定領域を抽出するのが、計算コストの低減を図る
上で好適である。Further, in the above-mentioned specific symmetric object determination method, in the first step, the specific symmetric object determination area is extracted by calculating the correlation with the dictionary image data from the area including half or more of the difference image pixels. However, it is suitable for reducing the calculation cost.
【0008】本発明では、まず、第1の段階において、
特定対称物体の代表的画像を辞書画像データとし、これ
と画像入力手段からの画像との相関を取ることで、特定
対称物体の候補となる領域を抽出する。次に、第2の段
階では、上記で抽出された特定対称物体の候補となる領
域をフーリエ変換し、代表的な特定対称物体の画像をフ
ーリエ変換したものと虚数成分について相関を調べるこ
とで、特定対称物体であるか否かを判定をする。このよ
うに辞書画像データを用いたテンプレートマッチングを
用いることで、特定の対称物体のみを抽出可能としてい
る。また、画像の非対称性を表すフーリエ変換データの
虚数成分を用い、その相関を調べることで特定対称物体
か否かを判定することにより、フーリエ変換以外の複雑
なフィルター処理の必要性をなくしている。以上の第1
の段階と第2の段階により、画像入力手段から得られた
画像を計算機等で自動的に解析して、特定対称物体が含
まれているか否かの判定を可能にしている。In the present invention, first, in the first stage,
A representative image of the specific symmetric object is used as dictionary image data, and by correlating this with the image from the image input means, a region that is a candidate for the specific symmetric object is extracted. Next, in the second step, the region that is a candidate for the specific symmetric object extracted above is Fourier-transformed, and the Fourier-transformed image of a typical specific symmetric object and the correlation with the imaginary component are examined. It is determined whether or not the object is a specific symmetrical object. By using the template matching using the dictionary image data in this way, only a specific symmetrical object can be extracted. In addition, by using the imaginary number component of the Fourier transform data representing the asymmetry of the image and checking the correlation to determine whether or not the object is a specific symmetric object, the need for complicated filter processing other than Fourier transform is eliminated. . The above first
By the step and the second step, the image obtained from the image input means is automatically analyzed by a computer or the like, and it is possible to determine whether or not the specific symmetrical object is included.
【0009】[0009]
【発明の実施の形態】以下、本発明の実施の形態を、図
面を用いて詳しく説明する。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.
【0010】ここでは、銀行のATMにおける不審者検
出方法を例にとって説明する。すなわち、特定対称物体
は不審者の顔である。なお、ここで言う不審者とは、サ
ングラスやメガネあるいはマスク等の道具を使ったり、
極端にうつむいたりすることで、顔の一部を隠している
か、あるいは、顔が画像入力手段である監視カメラ対し
て著しく正面を向いていない人物を指す。また、ここ
で、監視カメラはATMの操作パネルの近くに設定され
ているものとする。Here, a method of detecting a suspicious person in a bank ATM will be described as an example. That is, the specific symmetrical object is the face of the suspicious person. In addition, the suspicious person mentioned here uses tools such as sunglasses, glasses or masks,
It refers to a person who hides part of his / her face by being extremely depressed or whose face is not significantly facing the front with respect to the surveillance camera which is the image input means. Further, here, it is assumed that the surveillance camera is set near the operation panel of the ATM.
【0011】図1は本発明の実施の形態例を示す不審者
検出方法のフローチャートである。本不審者検出方法
は、〔1〕顔領域を抽出する段階、〔2〕抽出された顔
領域が正常な顔か否かを判定する(不審者判定)段階、
からなる。なお、ここで、正常な顔とは、監視カメラに
対して30°以内の傾きで撮影された、サングラスやメ
ガネ等をかけていないものを指す。FIG. 1 is a flow chart of a suspicious person detection method showing an embodiment of the present invention. This suspicious individual detection method includes: [1] extracting a face area; [2] determining whether the extracted face area is a normal face (suspicious person determination);
Consists of Here, the normal face refers to a face that is photographed with an inclination of 30 ° or less with respect to the surveillance camera and is not wearing sunglasses, glasses, or the like.
【0012】始めに、図1中の〔1〕に示す顔領域を抽
出する段階について説明する。図2はその顔領域の抽出
方法を説明する図である。First, the step of extracting the face area shown in [1] in FIG. 1 will be described. FIG. 2 is a diagram illustrating a method of extracting the face area.
【0013】まず、設定されている監視カメラで、予め
背景画像データを取り込んでおく。また、ある人物の正
常な顔画像を撮影し、各々の画像について、顔領域をm
face×nface個数のブロックに分割し、各々のブロック
の濃淡値の平均を代表値で表現する。そして、これを辞
書画像データとして顔領域探索用辞書データベースに格
納しておく。First, background image data is previously captured by the set monitoring camera. In addition, a normal face image of a person is taken, and the face area is m for each image.
It is divided into a number of face × n face blocks, and the average of the gray values of each block is represented by a representative value. Then, this is stored in the face area search dictionary database as dictionary image data.
【0014】次に、監視カメラからATMの使用者の顔
画像を計算機上に取り込み、この画像と予め用意してあ
る背景画像の画像差分を求める。そして、各画素ことに
差異のあるエリアには値100、差異のない部分には値
0を入れて2値化した背景差分画像情報として計算機上
に格納する。Next, the face image of the ATM user is captured from the surveillance camera on a computer, and the image difference between this image and the background image prepared in advance is calculated. Then, a value 100 is put in an area where there is a difference in each pixel, and a value 0 is put in a portion where there is no difference, and the result is stored as binarized background difference image information on the computer.
【0015】次に、背景差分画像情報をx軸、y軸各々
の軸へ投影した投影像を求める。ここで、x軸への投影
像のヒストグラム曲線については、2つの変曲点間の距
離XLを、そして、y軸への投影像のヒストグラム曲線
については、ヒストグラム曲線の立ち上がった地点から
最初に現れる変曲点までの距離YLを求める。これら2
つの値に基づき、照合領域のブロックサイズを、x方向
の大きさはXL/mface、y方向の大きさはYL/n
faceの前後で変化させる。さらに、この差分画像より探
索領域を限定する。例えば、x軸上ではヒストグラム曲
線における2つの変曲点間の範囲、y軸上ではヒストグ
ラム曲線の立ち上がった地点から最初に現れる変曲点ま
での範囲からなる領域を、探索領域として限定する。Next, a projected image is obtained by projecting the background difference image information on each of the x-axis and the y-axis. Here, for the histogram curve of the projected image on the x-axis, the distance XL between the two inflection points appears, and for the histogram curve of the projected image on the y-axis, it first appears from the rising point of the histogram curve. Find the distance YL to the inflection point. These two
Based on one value, the block size of the matching area is XL / m face in the x direction and YL / n in the y direction.
Change before and after face . Furthermore, the search area is limited from this difference image. For example, the range between two inflection points in the histogram curve on the x-axis and the range from the rising point of the histogram curve to the first inflection point on the y-axis are defined as search areas.
【0016】次に、辞書画像データを用いたテンプレー
トマッチングを行ない、顔領域を抽出する。まず、画像
中の探索領域において、照合領域も背景差分画像情報の
値100の画素が照合領域中に半分以上含まれるか否か
を判定することで、辞書画像データと照合するか否かを
決定する。このようにするのが、顔領域として抽出され
る可能性の低い無効な照合を避けて計算コストを削減す
る点で好適である。次いで、照合する場合は、mface×
nface個の各々のブロックの濃淡値の平均を代表値とし
てブロック画像データを作成し、このmface×nface個
のブロック画像データをベクトル表現と考え、辞書画像
データとの内積等で相関を算出し、それを類似尺度とし
て用いる。そして、この相関値が最も高い照合領域を顔
領域として抽出する。Next, template matching is performed using the dictionary image data to extract the face area. First, in the search area in the image, it is determined whether or not the matching area also includes more than half of the pixels having the value 100 of the background difference image information in the matching area to determine whether or not to match the dictionary image data. To do. This is preferable in that the calculation cost is reduced by avoiding invalid matching that is unlikely to be extracted as a face area. Then, when matching, m face ×
Block image data is created using the average of the gray values of each of the n face blocks as a representative value, and this m face × n face block image data is considered as a vector expression, and the correlation with the inner product with the dictionary image data is used. Calculate and use it as a similarity measure. Then, the matching area having the highest correlation value is extracted as the face area.
【0017】続いて、図1中の〔2〕に示す抽出された
顔領域が正常な顔か否かを判定する段階について説明す
る。図3は、その顔領域が正常な顔か否かの判定(不審
者判定)方法を説明する図である。Next, the step of determining whether the extracted face area shown in [2] in FIG. 1 is a normal face will be described. FIG. 3 is a diagram illustrating a method of determining whether or not the face area is a normal face (suspicious person determination).
【0018】まず、前段階で得られた顔領域にフーリエ
変換を施し、顔領域フーリエ変換データを作成する。First, a Fourier transform is applied to the face area obtained in the previous step to create face area Fourier transform data.
【0019】次に、予め用意されている正常な顔画像を
フーリエ変換して作成した辞書用フーリエ変換データ
と、上記で作成した顔領域フーリエ変換データとの虚数
成分に関する相関を算出する。Next, the correlation of the imaginary number component between the dictionary Fourier transform data created by Fourier transforming a normal face image prepared in advance and the face area Fourier transform data created above is calculated.
【0020】次に、算出された相関値が設定しきい値の
範囲を超える場合は不審者として判定する。Next, when the calculated correlation value exceeds the range of the set threshold value, it is judged as a suspicious person.
【0021】なお、以上の実施の形態例では、不審者判
定を例に説明したが、本発明はその例に限定されるもの
ではなく、特定対称物体の判定に適用できるものであ
る。In the above embodiment, the suspicious person determination is described as an example, but the present invention is not limited to this example and can be applied to determination of a specific symmetrical object.
【0022】[0022]
【発明の効果】以上の説明で明らかなように、本発明に
よれば、 (1)画像入力手段から得られた画像を計算機等で自動
的に解析して特定対称物体があるか否かを判定できる。As is apparent from the above description, according to the present invention, (1) an image obtained from the image input means is automatically analyzed by a computer or the like to determine whether or not there is a specific symmetrical object. You can judge.
【0023】(2)辞書画像データを用いたテンプレー
トマッチングを行なっているので、特定の対称物体のみ
に限定した抽出が可能である。(2) Since template matching is performed using dictionary image data, it is possible to perform extraction limited to a specific symmetrical object.
【0024】(3)特定対称物体か否かの判定の際に
は、フーリエ変換したデータのみを用いているので、複
雑なフィルターを用いる必要がない。(3) Since only Fourier-transformed data is used when determining whether the object is a specific symmetrical object, it is not necessary to use a complicated filter.
【0025】また、取り込んだ画像と背景画像との差分
画像から対称物体判定領域を限定してその抽出を行うよ
うにした場合には、特に、背景画像を含むことによる誤
判定を低減させて、より正確に特定対称物体を判定する
ことができる。Further, when the symmetrical object determination area is limited and extracted from the difference image between the captured image and the background image, erroneous determination due to inclusion of the background image is reduced, The specific symmetrical object can be determined more accurately.
【0026】さらに、差分画像画素が半分以上含まれる
領域から辞書用画像データとの相関を算出して特定対称
物体判定領域を抽出する場合には、特に、むだな辞書用
画像データとの照合を排除して計算コストの低減を図る
ことができる。Further, when the correlation with the dictionary image data is calculated from the area including more than half of the difference image pixels to extract the specific symmetric object determination area, the collation with the waste dictionary image data is particularly performed. It can be eliminated to reduce the calculation cost.
【図1】本発明による特定対称物体判定方法の一実施の
形態例を示す図であって、不審者検出システムに適用し
た場合における不審者検出方法の一例を示すフローチャ
ートである。FIG. 1 is a diagram showing an embodiment of a specific symmetric object determination method according to the present invention, and is a flowchart showing an example of a suspicious person detection method when applied to a suspicious person detection system.
【図2】上記実施の形態例における不審者検出方法のう
ちの顔領域抽出方法の一例を説明する図である。FIG. 2 is a diagram illustrating an example of a face area extraction method of the suspicious person detection method according to the above-described embodiment.
【図3】上記実施の形態例における不審者検出方法のう
ちの不審者判定方法の一例を説明する図である。FIG. 3 is a diagram illustrating an example of a suspicious person determination method of the suspicious person detection methods in the above-described embodiment.
Claims (3)
ら、特定対称物体を抽出する方法であって、 抽出したい特定対称物体の代表的な画像を辞書用画像デ
ータとし、これと画像入力手段より取り込まれた画像と
の相関値を算出し、最も高い相関値を示した領域を特定
対称物体判定領域として抽出する第1の段階と、 前記第1の段階で抽出された特定対称物体判定領域をフ
ーリエ変換して得られた判定領域フーリエ変換データ
と、前記辞書用画像データをフーリエ変換して得られる
辞書用フーリエ変換データとの各々の虚数成分における
相関値を算出し、該相関値に基づいて前記特定対称物体
判定領域に特定対称物体が含まれているかを判定する第
2の段階と、 を有することを特徴とする特定対称物体判定方法。1. A method for extracting a specific symmetric object from an image input by an image input means, wherein a representative image of the specific symmetric object to be extracted is used as dictionary image data, and this is input by the image input means. The correlation value with the extracted image and extracting the region showing the highest correlation value as the specific symmetric object determination region, and the specific symmetric object determination region extracted in the first stage Calculating the correlation value in each imaginary component of the determination region Fourier transform data obtained by conversion and the dictionary Fourier transform data obtained by performing Fourier transform of the dictionary image data, and calculating the correlation value based on the correlation value. A specific symmetric object determination method, comprising: a second step of determining whether or not a specific symmetric object determination area includes a specific symmetric object.
入力手段から取り込んだ背景画像との差分画像の座標軸
でのヒストグラムの変化点から画像中の領域を限定して
特定対称物体判定領域を抽出することを特徴とする請求
項1記載の特定対称物体判定方法。2. In the first step, the area in the image is limited from the change point of the histogram on the coordinate axis of the difference image between the image captured by the image input means and the background image captured in advance by the image input means. The specific symmetric object determination method according to claim 1, wherein the specific symmetric object determination region is extracted.
ータとの相関を算出して特定対称物体判定領域を抽出す
ることを特徴とする請求項1または請求項2記載の特定
対称物体判定方法。3. The specific symmetric object determination area is extracted in the first stage by calculating a correlation with dictionary image data from an area including half or more of difference image pixels. Item 2. The specific symmetric object determination method according to Item 2.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31221295A JP3305551B2 (en) | 1995-11-30 | 1995-11-30 | Specific symmetric object judgment method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31221295A JP3305551B2 (en) | 1995-11-30 | 1995-11-30 | Specific symmetric object judgment method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH09153135A true JPH09153135A (en) | 1997-06-10 |
JP3305551B2 JP3305551B2 (en) | 2002-07-22 |
Family
ID=18026549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31221295A Expired - Fee Related JP3305551B2 (en) | 1995-11-30 | 1995-11-30 | Specific symmetric object judgment method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3305551B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217803A (en) * | 2002-02-27 | 2008-09-18 | Nec Corp | Image recognition system and recognition method thereof, and program |
JP2009140513A (en) * | 2002-07-16 | 2009-06-25 | Nec Corp | Pattern characteristic extraction method and device for the same |
JP2010257451A (en) * | 2009-03-31 | 2010-11-11 | Sogo Keibi Hosho Co Ltd | Device, method and program for searching person |
US8027522B2 (en) | 2002-02-27 | 2011-09-27 | Nec Corporation | Image recognition system and recognition method thereof and program |
US8116571B2 (en) | 2002-07-16 | 2012-02-14 | Nec Corporation | Pattern feature extraction via fourier amplitudes of a block image |
JP2016133950A (en) * | 2015-01-19 | 2016-07-25 | 株式会社メガチップス | Feature image generation device, determination device and control program, and feature image generation method and determination method |
-
1995
- 1995-11-30 JP JP31221295A patent/JP3305551B2/en not_active Expired - Fee Related
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008217803A (en) * | 2002-02-27 | 2008-09-18 | Nec Corp | Image recognition system and recognition method thereof, and program |
US8027522B2 (en) | 2002-02-27 | 2011-09-27 | Nec Corporation | Image recognition system and recognition method thereof and program |
JP2009140513A (en) * | 2002-07-16 | 2009-06-25 | Nec Corp | Pattern characteristic extraction method and device for the same |
US8116571B2 (en) | 2002-07-16 | 2012-02-14 | Nec Corporation | Pattern feature extraction via fourier amplitudes of a block image |
JP2010257451A (en) * | 2009-03-31 | 2010-11-11 | Sogo Keibi Hosho Co Ltd | Device, method and program for searching person |
JP2016133950A (en) * | 2015-01-19 | 2016-07-25 | 株式会社メガチップス | Feature image generation device, determination device and control program, and feature image generation method and determination method |
Also Published As
Publication number | Publication date |
---|---|
JP3305551B2 (en) | 2002-07-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107423690B (en) | Face recognition method and device | |
Ahmed et al. | Vision based hand gesture recognition using dynamic time warping for Indian sign language | |
CN109145742B (en) | Pedestrian identification method and system | |
US7376270B2 (en) | Detecting human faces and detecting red eyes | |
JP2000207565A (en) | Method for screening input image | |
JP2002259994A (en) | Automatic image pattern detecting method and image processor | |
JP2001216515A (en) | Method and device for detecting face of person | |
CA2656425A1 (en) | Recognizing text in images | |
KR20130095727A (en) | Semantic parsing of objects in video | |
Shahar et al. | Face identity for face mask recognition system | |
CN117292338A (en) | Vehicle accident identification and analysis method based on video stream analysis | |
CN113485615B (en) | Method and system for manufacturing typical application intelligent image-text course based on computer vision | |
CN112800922B (en) | Face recognition method and device, electronic equipment and storage medium | |
JP3305551B2 (en) | Specific symmetric object judgment method | |
KR20080079798A (en) | Method of face detection and recognition | |
Chaki | An efficient two-stage Palmprint recognition using Frangi-filter and 2-component partition method | |
Hassan et al. | Facial image detection based on the Viola-Jones algorithm for gender recognition | |
JPH10222678A (en) | Device for detecting object and method therefor | |
CN111667419A (en) | Moving target ghost eliminating method and system based on Vibe algorithm | |
JPH0883341A (en) | Method and device for extracting object area and object recognizing device | |
Zhang et al. | Face occlusion detection using cascaded convolutional neural network | |
JPH0991432A (en) | Method for extracting doubtful person | |
JP2003346147A (en) | Object discriminating method, object discriminating device, object discriminating program, and recording medium having the object discriminating program recorded therein | |
Alkawaz et al. | An overview of advanced optical flow techniques for copy move video forgery detection | |
JP2019121187A (en) | Image processing apparatus, image processing method, and image processing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
LAPS | Cancellation because of no payment of annual fees |