JPH11283033A - Method for utilizing feature amount for image identification and recording medium for storing program therefor - Google Patents
Method for utilizing feature amount for image identification and recording medium for storing program thereforInfo
- Publication number
- JPH11283033A JPH11283033A JP10080878A JP8087898A JPH11283033A JP H11283033 A JPH11283033 A JP H11283033A JP 10080878 A JP10080878 A JP 10080878A JP 8087898 A JP8087898 A JP 8087898A JP H11283033 A JPH11283033 A JP H11283033A
- Authority
- JP
- Japan
- Prior art keywords
- image
- feature amount
- extracted
- information
- card
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、対象物を撮影した画像
情報をその対象物の特徴を保持しながらより少ない情報
に置き換えることにより、同一の対象物であるか、異な
る対象物であるかを判別可能にする画像識別のための特
徴量の利用方法に関し、特にICカードに印刷された顔
画像を読み取り特徴量に変換して、予め読み取り抽出さ
れ登録されているカードの所有者の顔画像の特徴量と比
較して同一の顔画像であることを同定する方法、および
その方法をプログラムに変換したものを格納した記録媒
体に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for determining whether an image is the same or different by replacing image information obtained by photographing the object with less information while retaining the characteristics of the object. More particularly, the present invention relates to a method of using a feature amount for image identification which makes it possible to distinguish a face image printed on an IC card into a read feature amount, and a face image of a card owner previously read and extracted and registered. The present invention relates to a method for identifying the same facial image as compared with the feature amount of the above, and a recording medium storing the method converted into a program.
【0002】[0002]
【従来の技術】画像情報を識別する技術は、画像に含ま
れる構成要素の位置、大きさ、形状等をパラメータとし
て抽出して特徴量として比較する方法と、画像の濃度分
布を特徴量として比較する方法とに分けることができ
る。複数の構成要素に分割して比較する場合には、判り
易く取り扱い易いが、パラメータの抽出には非常に複雑
な処理を必要としロパスト性も低い。一方、後者の方法
では、位置合わせ等の前処理により識別性能が左右さ
れ、大量の計算を必要とする。例えば、完全な一致を求
めるならば、画像上の1画素毎の位置と濃度情報により
識別を行うことができるが、明らかに非現実的である。
また、閾値による濃度スライスを行った結果の同一濃度
の画素数(=面積)により判定するということも行われ
ている。これらの方法によって非常に厳密な判定が可能
であるが、画像の情報量が増大すると、そのための計算
量は非常に大きなものとなってしまう。そのため計算量
の削減のために顔画像の一部をモザイクパターンに分割
し、ブロック毎に平均濃度値を代表値とさせて比較処理
を行うと言う方法も行われているが、位置ずれの吸収に
は効果があるが機械的な分割により重要な特徴を失なっ
てしまう場合が往々にして発生する。なお、従来技術の
例としては、『顔の両眼付近の部分画像を用いたゲート
管理のための個人識別実験』島田英之、磯部博文、塩野
充著、(電子情報通信学会誌D−2、Vol.1,J77-D-
11,NO.9,pp.1680-1690,1994年9月がある。2. Description of the Related Art Techniques for identifying image information include a method in which the position, size, shape, etc. of components included in an image are extracted as parameters and compared as feature amounts, and a method in which the image density distribution is compared as feature amounts. And how to do it. When divided into a plurality of components for comparison, it is easy to understand and handle, but extraction of parameters requires extremely complicated processing and low robustness. On the other hand, in the latter method, discrimination performance is affected by preprocessing such as alignment, and a large amount of calculation is required. For example, if a perfect match is to be obtained, the identification can be performed based on the position and density information for each pixel on the image, but this is obviously impractical.
In addition, determination is made based on the number of pixels (= area) having the same density as a result of performing density slicing using a threshold. Although very strict determinations can be made by these methods, when the amount of information of an image increases, the amount of calculation for the information becomes very large. Therefore, in order to reduce the amount of calculation, a method of dividing a part of the face image into a mosaic pattern and performing a comparison process using the average density value as a representative value for each block has been performed. Is effective but often loses important features due to mechanical division. Examples of the prior art include “Individual identification experiment for gate management using partial images near both eyes of the face” by Hideyuki Shimada, Hirofumi Isobe, Mitsuru Shiono, (IEICE D-2, Vol.1, J77-D-
11, NO. 9, pp. 1680-1690, September 1994.
【0003】[0003]
【発明が解決しようとする課題】写真画像等のイメージ
情報を基に物体の形状を判定するために、最も確実なも
のは、画像の持つ全ての情報を検証すればよい。しか
し、高解像度な画像が一般的に利用されるようになる
と、その判定に要する計算量、時間は非常に膨大なもの
となってしまう。そのために画像をモザイク状に分割
し、各モザイク平面の平均濃度値を代表値とする等して
情報量を圧縮する手法が報告されている。しかし、十分
な判定を行うために必要な情報を保存すると、圧縮率が
大きく取れないという問題がある。また、その判定の仕
組は、同一であるか異なっているかと言う2者択一的な
判定であって、中間的な結果を出すことは一般的に判定
を放棄するものでリジェクトという処理が行われ、判定
系からははねられてしまう。 そこで、本発明の目的
は、上述のような従来の課題を解決し、計算量に応じた
確率的な同定判定を可能とする画像識別のための特徴量
の利用方法、ならびにそのプログラムを格納する記録媒
体を提供することにある。In order to determine the shape of an object based on image information such as a photographic image, the most reliable method is to verify all information possessed by the image. However, when high-resolution images are generally used, the amount of calculation and the time required for the determination become extremely enormous. For this purpose, there has been reported a method of dividing an image into a mosaic pattern and compressing the amount of information by using an average density value of each mosaic plane as a representative value. However, if information necessary for making a sufficient determination is stored, there is a problem that a large compression ratio cannot be obtained. In addition, the mechanism of the determination is an alternative determination of whether they are the same or different, and giving an intermediate result generally abandons the determination, and a process called rejection is performed. I will be rejected from the judgment system. Therefore, an object of the present invention is to solve the above-described conventional problems and store a method of using a feature amount for image identification that enables stochastic identification determination according to the amount of calculation, and a program thereof. It is to provide a recording medium.
【0004】[0004]
【課題を解決するための手段】上記目的を達成するた
め、本発明による画像識別のための特徴量の利用方法で
は、画像情報を用いた同定処理における計算量や計算時
間を少なくするための特徴量を濃度値平均ではなく濃度
値の傾斜を表現する法線ベクトルの成す角度と決め、画
像情報に適応的な処理アルゴリズムを用いることにより
実現する。つまり、十分な判定材料となり得る情報量と
計算機の能力が与え得るならば、かなり高精度な同異判
定を行うことが可能であって、少ない情報量と劣悪な計
算能力しかないときには、確率的な判定を下すことが可
能であり、人間による最終判定を仰ぐことにより、同異
判定を行わせることができる。本発明による個人情報を
格納する携帯型記憶媒体は、例えば個人情報を書き込
み、読み出し可能なICカードやメモリカード等であ
り、カード上には、個人情報をコード化したディジタル
情報が格納される。また、カード表面には、個人を同定
するための顔画像が印刷されている。また、本発明の個
人情報を認証する認証システムは、多数の個人情報をデ
ータベース化し、格納するネットワーク上もしくはロー
カルにあるデータベースシステムと、ICカードもしく
はメモリカードから情報を読み出せるカードリーダと、
ICカードもしくはメモリカードの表面にある画像情報
を読み取るイメージスキャナと、画像データを保持し、
抽出された特徴量や演算に必要なデータを保持可能な記
憶媒体(例えば、半導体メモリ)と、画像データを記憶
媒体から読み出し書き込み、及びデータに対する演算ま
たは個人情報をデータベースシステムから検索読み出
し、記述されている特徴量と画像データから抽出された
特徴量との比較が可能な中央演算処理装置およびプログ
ラムを実行可能なオペレーティングシステムと、外部装
置と通信及びデータの送受信可能なインタフェース装置
とを具備する。In order to achieve the above object, a method of using a feature amount for image identification according to the present invention provides a feature for reducing a calculation amount and a calculation time in an identification process using image information. The amount is determined not by the average of the density values but by the angle formed by a normal vector expressing the gradient of the density value, and is realized by using a processing algorithm adaptive to image information. In other words, if the amount of information that can be a sufficient judgment material and the capability of the computer can be given, it is possible to make the same or different judgment with high accuracy, and if there is only a small amount of information and poor computational power, the probability It is possible to make an unusual determination, and to ask for a final determination by a human, the same or different determination can be made. The portable storage medium for storing personal information according to the present invention is, for example, an IC card or a memory card in which personal information can be written and read, and digital information in which the personal information is coded is stored on the card. A face image for identifying an individual is printed on the card surface. An authentication system for authenticating personal information according to the present invention includes a database system on a network or a local where a large number of personal information is stored in a database, and a card reader capable of reading information from an IC card or a memory card.
An image scanner that reads image information on the surface of an IC card or a memory card, and holds image data;
A storage medium (for example, a semiconductor memory) capable of holding the extracted feature amounts and data necessary for the operation, image data read from and written to the storage medium, and operation or personal information for the data retrieved and read from the database system. A central processing unit and an operating system capable of executing a program capable of comparing the characteristic amount and the characteristic amount extracted from the image data; and an interface device capable of communicating with external devices and transmitting and receiving data.
【0005】[0005]
【実施例】以下、本発明の実施例を、図面により詳細に
説明する。図1は、本発明による画像識別のための特徴
量の利用方法を適用する処理システムの概略構成図であ
る。個人情報をディジタルデータに変換し、格納したメ
モリチップもしくはICチップ4を搭載したカード10
には、カードの所有者の顔をディジタルカメラ等により
撮影された顔写真画像3が印刷されている。認証システ
ム11は、画像処理とデータ検索を行うPC(パーソナ
ルコンピュータ)等の計算装置1と個人情報及び顔画像
の特徴量を登録・記録してあるデータベースシステム2
が、ローカルのバスもしくはネットワークI/Fカード
等を介して接続されている。また、個人情報と顔画像の
読み取りを行うカードリーダー兼スキャナ(図示せず)
が適切なI/Fを介して接続されている。物品の購入時
や入退時のセキュリティチェック時等において、カード
持参者は認証システム11に付属するカードリーダー兼
スキャナにセットする。カードリーダ兼スキャナは、カ
ード上に記録されているコード化された個人情報の読み
出しと同時にカード表面に印刷されている顔画像のイメ
ージ読み取りを行う。コード情報とイメージ情報は、P
C1の内部メモリ(図示せず)に一旦記憶される。一
方、PC1は、コード情報に含まれるキー情報を基にデ
ータベースシステム2に登録されている情報を検索し、
該当する登録コード情報を受け取る。次に、登録コード
情報の中には、最初の登録時に撮影しておいた顔画像の
特徴量が含まれており、先に内部メモリに記憶保存して
おいたスキャナ読み取りにより得られたカード上の顔画
像の特徴量と比較し、そのずれ量を見ることにより、そ
の個人情報を記録しているカードが登録本人のものであ
るのか否かを判定する。Embodiments of the present invention will be described below in detail with reference to the drawings. FIG. 1 is a schematic configuration diagram of a processing system to which a method of using a feature amount for image identification according to the present invention is applied. A card 10 having a memory chip or an IC chip 4 in which personal information is converted into digital data and stored.
Is printed with a face photograph image 3 obtained by photographing the face of the card owner with a digital camera or the like. The authentication system 11 includes a computing device 1 such as a PC (personal computer) for performing image processing and data search, and a database system 2 in which personal information and feature amounts of face images are registered and recorded.
Are connected via a local bus or a network I / F card. In addition, a card reader / scanner (not shown) that reads personal information and a face image
Are connected via an appropriate I / F. The card holder sets the card reader / scanner attached to the authentication system 11 at the time of security check at the time of purchasing or entering / leaving an article. The card reader / scanner reads the coded personal information recorded on the card and simultaneously reads the face image printed on the card surface. Code information and image information are P
It is temporarily stored in an internal memory (not shown) of C1. On the other hand, the PC 1 searches for information registered in the database system 2 based on the key information included in the code information,
Receive the corresponding registration code information. Next, the registration code information contains the feature amount of the face image photographed at the time of the first registration, and is stored on the card previously obtained by reading the scanner stored in the internal memory. By comparing with the feature amount of the face image and seeing the shift amount, it is determined whether or not the card recording the personal information is that of the registered person.
【0006】(特徴量の抽出)特徴量の抽出は、以下に
述べる2段階を経て行われる。 (1)前処理 読み取った顔画像から基準点を決める。実施例では、カ
ード作成時に所有者は青い背景の前に正面向きで位置し
てもらう。照明は、ほぼ正面やや上方から当たるように
する。カラーディジタルカメラで撮影した画像または通
常の銀塩写真方式で撮影した写真画像をカラースキャナ
等で読み取った画像を使用する。先ず、適当な閾値処理
を行って背景を切り出す。具体的には、カラーで撮影し
ているので画像データの中のブループレーンデータに着
目し、先ずメディアンフィルタによる平滑化を施し、次
に濃度値ヒストグラムを作成する。濃度値ヒストグラム
から背景切り出しを行うための閾値x1とx2を下式
〔1〕から求める。ここでh〔i+1〕は濃度値iの画
素数を表わす。下式〔2〕の時、式〔1〕を満たすiの
最小値をx1、下式〔3〕の時、式〔1〕を満たすiの
最大値をx2とし、この部分に含まれる濃度値画素は背
景であるとみなしてカットする。 h〔i〕/m×100≧1 ・・・・・・・・・・・・〔1〕 m=h〔max〕+h〔max−1〕+・・+h〔i+1〕 ・・・・・・・・・・・・〔2〕 m=h〔max〕+h〔max+1〕+・・+h〔i−1〕 ・・・・・・・・・・・・〔3〕(Extraction of Feature Amount) The extraction of feature amount is performed through the following two steps. (1) Preprocessing A reference point is determined from the read face image. In an embodiment, at the time of card creation, the owner is asked to face front in front of a blue background. Lighting should be illuminated from slightly above the front. An image captured by a color digital camera or an image obtained by reading a photographic image captured by a normal silver halide photography method with a color scanner or the like is used. First, the background is cut out by performing appropriate threshold processing. More specifically, since the image is taken in color, attention is paid to blue plane data in the image data, first, smoothing is performed by a median filter, and then a density value histogram is created. The thresholds x1 and x2 for extracting the background from the density value histogram are obtained from the following equation [1]. Here, h [i + 1] represents the number of pixels of the density value i. In the following equation [2], the minimum value of i that satisfies the equation [1] is x1, and in the following equation [3], the maximum value of i that satisfies the equation [1] is x2. Pixels are cut assuming that they are backgrounds. h [i] / m × 100 ≧ 1 [1] m = h [max] + h [max−1] + ·· + h [i + 1] ... [2] m = h [max] + h [max + 1] + .. + h [i-1] [3]
【0007】図6は種々の処理を行った画像および背景
の図であり、図2(a)は図6の画像のヒストグラムの
例を示す図である。また、図7は肌色領域の処理の結果
の図であり、図2(b)は図7の画像のヒストグラムの
例を示す図である。図6(a)の閾値処理を行った結果
の画像に対するヒストグラムが、図2(a)に示す特性
図で示される。図2(a)のx1とx2の間は背景であ
るので、カットする。雑音成分を除いて最終的に得られ
た背景部分が、図6(e)である。次に、肌色の抽出を
行う。先の処理により抽出された背景外の領域について
グリーンプレーンのデータのヒストグラムを作成する。
ここで、予め高濃度領域と低濃度領域をカットしてお
く。背景領域を切り出した残りの画像領域で最も大きな
面積を占めている部分は肌色であるという前提のもと
に、前述の閾値処理と同様にして肌色領域を取り出す。
図7(c)は閾値処理を行った結果を示す図であり、図
2(b)がこれに対応するヒストグラムの例である。こ
の中で一定面積以上を占め、かつ重心が画像の中心に近
いものを顔領域とする。図7(d)が顔領域として抽出
された図である。さらに、輪郭線による影響を無くすた
めに輪郭線を含まない領域を取り出し、顔領域とする
(図7(e)参照)。FIG. 6 is a diagram of an image and a background subjected to various processes, and FIG. 2A is a diagram showing an example of a histogram of the image of FIG. FIG. 7 is a diagram showing a result of processing of the skin color region, and FIG. 2B is a diagram showing an example of a histogram of the image of FIG. A histogram for the image obtained by performing the threshold processing of FIG. 6A is shown by a characteristic diagram shown in FIG. Since the area between x1 and x2 in FIG. 2A is the background, it is cut. FIG. 6E shows the background portion finally obtained by removing the noise component. Next, skin color is extracted. A histogram of green plane data is created for an area outside the background extracted by the above processing.
Here, the high density area and the low density area are cut in advance. Under the assumption that the portion occupying the largest area in the remaining image region obtained by cutting out the background region is a skin color, a skin color region is extracted in the same manner as the above-described threshold processing.
FIG. 7C is a diagram showing a result of performing the threshold processing, and FIG. 2B is an example of a corresponding histogram. A face area occupying a certain area or more and having a center of gravity close to the center of the image is defined as a face area. FIG. 7D is a diagram extracted as a face area. Further, in order to eliminate the influence of the outline, an area that does not include the outline is extracted and set as a face area (see FIG. 7E).
【0008】次に、基準点を決定する。図8は基準点の
検出過程を示す図であり、図9は平面での近似例を示す
図である。先ず、抽出された顔領域を楕円図形に近似
し、その中に含まれる肌色領域でない部分にグリーンプ
レーンの濃度値を入れる(図8(c)参照)。この結果
から、人間の目に特徴的な条件を当てはめて、目領域の
重心を求め、その重心間の中点を基準点とする(図8
(d)参照)。ここでの人間の目に特徴的な条件とは、
状況により変えることができるが、ここでは、以下のよ
うな条件を使用して抽出している。 目と思われる領域は、顔領域の重心を通る垂線の両側
に存在する。 目と思われる領域は、顔領域の重心より上方にある。 目と思われる2つの領域の重心の水平位置及び面積は
ほぼ等しい。 目と思われる領域内における濃度値のばらつきは大き
い。 その他、複数検出された場合には、なるべく上方にある
組を採用したり、条件に適合する領域が検出できない場
合には、各検出された領域について、それぞれ上限下限
を設定し、その範囲内で該当する領域があるか否かを探
索するという条件を設定して、目領域の検出を行って基
準点を決定する。Next, a reference point is determined. FIG. 8 is a diagram showing a process of detecting a reference point, and FIG. 9 is a diagram showing an example of approximation on a plane. First, the extracted face area is approximated to an elliptical figure, and the density value of the green plane is inserted into a portion that is not a skin color area included therein (see FIG. 8C). From the result, the center of gravity of the eye region is obtained by applying a characteristic condition to the human eye, and the midpoint between the centers of gravity is set as a reference point (FIG. 8).
(D)). The conditions that are characteristic of the human eye here are:
Although it can be changed depending on the situation, here, the extraction is performed using the following conditions. Regions that appear to be eyes are on both sides of a perpendicular passing through the center of gravity of the face region. The region considered to be eyes is above the center of gravity of the face region. The horizontal position and area of the center of gravity of the two regions considered to be eyes are substantially equal. The variation of the density value in the region considered to be the eye is large. In addition, when multiple detections are made, the upper set is adopted as much as possible, or when an area that satisfies the conditions cannot be detected, upper and lower limits are set for each detected area. A condition for searching for a corresponding area is set, an eye area is detected, and a reference point is determined.
【0009】(2)法線ベクトル 図5は、法線ベクトルを示す図である。顔領域にブルー
プレーンの濃度値を入れ、顔領域を小区画に区割りす
る。例えば、顔領域中400×400画素の領域を採用
した場合、15×15画素程度の大きさの小区画に区割
りする。この場合、26×26=676個の小区画が得
られる。次に、各小区画毎に含まれる濃度値曲面を最小
二乗誤差で近似した平面を求める。得られた平面の向
き、つまり平面の法線ベクトルをその小区画に含まれる
濃度値曲線を表現する特徴量とする。各小区画の法線ベ
クトルは、顔領域のある特定領域の形状および色の変化
を示していることになる(図5参照)。この領域に含ま
れる濃度値情報に比較して約1%以下に集約することが
できている。(2) Normal Vector FIG. 5 is a diagram showing normal vectors. The density value of the blue plane is put in the face area, and the face area is divided into small sections. For example, when an area of 400 × 400 pixels in the face area is adopted, the face area is divided into small sections of about 15 × 15 pixels. In this case, 26 × 26 = 676 small sections are obtained. Next, a plane is obtained by approximating the density value curved surface included in each small section with a least square error. The obtained orientation of the plane, that is, the normal vector of the plane is set as a feature quantity expressing the density value curve included in the small section. The normal vector of each subsection indicates a change in the shape and color of a specific area of the face area (see FIG. 5). Compared to the density value information included in this area, it can be reduced to about 1% or less.
【0010】(特徴量の比較)図10は、平均余弦のヒ
ストグラムを示す特性図である。以上の手順により抽出
された法線ベクトルに対して、データベースに登録され
ている個人情報内には予めカードへ印刷された顔画像か
ら取り込まれた法線ベクトルデータが格納されている。
データベース上の法線ベクトルデータには、基準点に対
する位置情報も共に保存されている。最も単純な位置情
報としては、小区画と基準点との位置関係により法線ベ
クトルデータに番号が割り付ける方法がある。個人認証
のためにカードがカードリーダーに差し込まれると、カ
ードリーダーに組み込まれているスキャナによってカー
ド上の顔写真画像が読み込まれる。読み込まれた顔画像
データは、PC1により先に記述したような方法で特徴
量の抽出が行われる。抽出された特徴量である法線ベク
トルデータには、やはり画像上の基準点に対する位置情
報を持っているので、ここで予め決められた小区画の順
に番号が割り付けられる。先ず、カードリーダーにより
得られた個人情報から該当するデータが登録されている
か否かをデータベースシステムから検索する。この時の
検索方法、検索キー、検索情報等は、認証システム毎に
任意に設定されていてもよいので、ここでは省略する。
検索の結果、該当する情報がなければ、この時点で不正
使用かカードの破損等の理由ではねられる。該当する個
人情報があれば、登録されている顔画像の特徴量データ
を読み込む。この場合には、法線ベクトルデータとその
位置情報になる。次に、登録されている法線ベクトルデ
ータとカード上から読み取って抽出した法線ベクトルと
を位置情報に沿って順に比較する。この時の比較方法で
あるが、それぞれの基準点からの相対的な位置に対応す
る法線ベクトル同志のなす角を表わす余弦を計算する。
つまり、特徴量のずれを法線ベクトルの方向の違いで表
現することになる。このようにして、小区画の数だけ対
応する小区画平面の濃度値傾斜の違いを表わす法線ベク
トルの余弦データが得られる。結局、余弦データは、予
めカード作成時に撮影された登録されている顔写真画像
の顔領域の形状および色の変化と認証時にスキャナ等で
読み込まれたカード上に印刷された顔写真画像の顔領域
の形状および色の変化との違いを表わしている。全く同
一の画像、同一の条件であればそれぞれの法線ベクトル
の方向は一致するので、余弦データは1になる。画像が
異なれば異なるほど、余弦は小さくなる。画像間の対応
する位置の法線ベクトルの余弦を比較した数について、
平均をとった平均余弦で見たヒストグラムである(図1
0参照)。FIG. 10 is a characteristic diagram showing a histogram of the average cosine. With respect to the normal vector extracted by the above procedure, normal vector data taken from a face image printed on a card in advance is stored in the personal information registered in the database.
The normal vector data on the database also stores the position information for the reference point. As the simplest positional information, there is a method of assigning a number to the normal vector data according to the positional relationship between the small section and the reference point. When a card is inserted into a card reader for personal authentication, a face photograph image on the card is read by a scanner incorporated in the card reader. From the read face image data, the feature amount is extracted by the PC 1 by the method described above. The normal vector data, which is the extracted feature quantity, also has position information with respect to the reference point on the image, and thus the numbers are assigned in the order of predetermined small sections. First, the database system searches the personal information obtained by the card reader for whether or not the corresponding data is registered. At this time, the search method, the search key, the search information, and the like may be arbitrarily set for each authentication system, and thus are omitted here.
If there is no corresponding information as a result of the search, it is rejected at this point due to unauthorized use or card damage. If there is the corresponding personal information, the feature amount data of the registered face image is read. In this case, it becomes normal vector data and its position information. Next, the registered normal vector data and normal vectors read and extracted from the card are sequentially compared along the position information. As a comparison method at this time, a cosine representing an angle between normal vectors corresponding to a relative position from each reference point is calculated.
That is, the deviation of the feature amount is expressed by the difference in the direction of the normal vector. In this manner, the cosine data of the normal vector representing the difference in the density value inclination of the corresponding small section plane by the number of the small sections is obtained. In the end, the cosine data is a change in the shape and color of the face area of the registered face photograph image taken in advance at the time of card creation, and the face area of the face photograph image printed on the card read by a scanner or the like at the time of authentication. And changes in shape and color. If the images are exactly the same and the conditions are the same, the directions of the respective normal vectors match, so that the cosine data becomes 1. The different the images, the smaller the cosine. For numbers that compare the cosine of the normal vector at the corresponding position between the images,
FIG. 1 is a histogram obtained by taking the averaged cosine (FIG. 1)
0).
【0011】通常、平均余弦は、0〜1の間に存在す
る。このヒストグラムは、異なる人物を撮影した顔画像
の組を複数種類用意し、それぞれの顔画像間での平均余
弦を計算したものと同一人物を位置、アングル等を変え
て複数撮影した画像の組を同様に複数用意し、それぞれ
の顔画像間での平均余弦を計算したものである。このヒ
ストグラムで判るように、先ず異なる人物を撮影した画
像間の平均余弦は、必ず1より小さくなる。また、同一
人物を撮影した画像間の平均余弦も条件が異なるので、
やはり1よりも小さくなる。これらの分布からも適当な
閾値30を設定し分離することにより、登録されている
個人とは異なる人物を撮影したものであることや、同一
人物だが登録されている顔画像とは異なる顔写真である
と言うことが判定できる。さらに、厳密な位置合わせや
固定された画像情報、局所的な画像情報のみの利用と言
うことを行わないで判別できるので、ロバスト性の非常
に高い判定が可能となる。つまり、画像の一部が汚れて
いても、また読み取り系の違いや精度を気にすることも
なく、人物同定を行うことが可能である。Usually, the average cosine lies between 0 and 1. This histogram prepares a plurality of sets of face images obtained by shooting different people, and calculates a set of images obtained by changing the position, angle, etc. of the same person and calculating the average cosine between the face images. Similarly, a plurality is prepared, and the average cosine between the face images is calculated. As can be seen from this histogram, the average cosine between images of different persons first taken is always less than one. Also, the conditions for the average cosine between images of the same person are different, so
Again smaller than one. By setting and separating an appropriate threshold value 30 from these distributions, a person different from the registered individual can be photographed, or a face photograph of the same person but different from the registered face image can be obtained. It can be determined that there is. Further, since the determination can be made without using only the strict alignment, the fixed image information, and the use of only the local image information, it is possible to make a determination with extremely high robustness. That is, even if a part of the image is dirty, it is possible to identify a person without worrying about the difference or accuracy of the reading system.
【0012】切り出された領域内から取り出された特徴
量である法線ベクトルの取り出しと利用方法を最も単純
な形で説明したが、ここで更に有効な利用方法について
補足する。図3(a)は、対象とする画像1からある領
域の切り出しを行い(領域2)、その中から計算対象の
候補となる画像領域を選び、それを小区画の矩形ブロッ
クに分割した状態(領域3)を示す。領域3の選び方、
領域3の小区画の分割は何でもよいが、ここでは矩形で
説明する。図3(b)は、対象とする画像(領域1)か
らの別な切り出しを示す図である。 図4(a)および
図4(b)は、図3(a)に示した同じ領域3を表わし
ている。ここで、領域3は前述のように矩形で、その内
部は小区画に分割されている。塗りつぶされた小区画
は、特徴量の計算のために実際に使用されることを示
し、空白の小区画は特徴量の計算に寄与していないこと
を示す。同様にして、領域3から計算のために使用する
小区画の選び方は小区画総数をNとすると2のN乗−1
あるが、ここでは、2通りを例として説明する。特徴量
の計算式は次のように表現できる。図4(a)の場合の
特徴量をD1、図4(b)の場合の特徴量をD2とす
る。D1,D2は、図4(a)(b)で計算に使用する
小区画が異なるために、一般には異なる値を持つ。これ
により、同一の画像から異なる特徴量を設定することが
できるが、これを異なる検証者毎に割り当てる。例え
ば、特徴量D1を銀行、特徴量D2を郵便局における検
証のための特徴量として割り当てれば、被験者は1つの
画像情報を保持しながら、銀行と郵便局とは互いに知り
得ない独立の特徴量により検証を行うことが可能とな
る。同様にして、検証者は1つに固定しておき、検証を
行う毎に、D1,D2のいずれかを選択させることが可
能となる。これにより、毎回異なる検査方法を設定選択
することができる。D1とD2、および/またはそれら
を併用した結果は、計算量や検証精度に差異をもたらす
が、これは検証時に必要とする計算時間、検証精度に応
じた選択を行うことが可能となる。The method of extracting and using the normal vector, which is a feature quantity extracted from the cut-out area, has been described in the simplest form. Here, a more effective usage will be supplemented. FIG. 3A shows a state in which a certain region is cut out from the target image 1 (region 2), and an image region that is a candidate for calculation is selected from the region, and the image region is divided into small rectangular blocks ( Region 3) is shown. How to choose area 3,
Although the division of the small section of the area 3 may be anything, a rectangular section will be described here. FIG. 3B is a diagram showing another cutout from the target image (region 1). 4 (a) and 4 (b) show the same region 3 shown in FIG. 3 (a). Here, the region 3 is rectangular as described above, and the inside is divided into small sections. The filled small sections indicate that they are actually used for calculating the feature quantity, and the blank small sections indicate that they do not contribute to the calculation of the feature quantity. Similarly, the method of selecting small sections to be used for calculation from the area 3 is 2 N −1, where N is the total number of small sections.
However, two cases will be described here as examples. The calculation formula of the feature amount can be expressed as follows. The feature amount in the case of FIG. 4A is D1, and the feature amount in the case of FIG. 4B is D2. D1 and D2 generally have different values because the small sections used for calculation in FIGS. 4A and 4B are different. Thus, different feature amounts can be set from the same image, but are assigned to different verifiers. For example, if the feature value D1 is assigned as a bank and the feature value D2 is assigned as a feature value for verification at a post office, the subject holds one image information and the bank and the post office have independent features that the bank and the post office cannot know each other. Verification can be performed by the amount. Similarly, the verifier can be fixed at one, and can select either D1 or D2 every time verification is performed. Thus, a different inspection method can be set and selected each time. D1 and D2 and / or the result of using them in combination cause a difference in the amount of calculation and the verification accuracy. This makes it possible to make a selection according to the calculation time and verification accuracy required at the time of verification.
【0013】図4(a)は、図1における計算対象とな
る領域3の画像で、分割された小区画に対して左上から
A11A12・・・Aijと番号を付けて表わし、領域3全体
をIで表わす。ある領域3の小区画Ikは、 Ik={K11k,K12k・・Kijk} ・・・・・・・・・・・・・・〔4〕 図4(b)は、特徴量の計算に重み(Kij)をつけたも
ので、分割された小区画A11,A12,・・Aijの対応す
る部分の重みをK11,K12,・・Kijで示し、この組み
合わせの1つPkは、 Pk={K11k,K12k・・Kijk} ・・・・・・・・・・・・・・〔5〕 本発明による特徴量の計算式をFとすると、次のように
表現できる。 F(A11k*K11k,A12k*K12k,・・・Aijk*Kijk)・・・〔6〕 =F(Ik、Pk) ・・・・・・・・・・・・・・〔7〕 ここで、KijまたはKijkの値が0の場合は、特徴量の
計算のために対応している小区画画像Aijkが使用され
ないことを示し、1の値を持つ場合は、前記図4
(a)、図4(b)における塗りつぶされた小区画に該
当する。KijまたはKijkは1以上の値も取り得る。図
4(a)、図4(b)の特徴量は、計算対象である領域
3をIとすると、 図4(a) D1=I*P1 ・・・・・・・・・・・〔8〕 図4(b) D2=I*P2 ・・・・・・・・・・・FIG. 4A is an image of the area 3 to be calculated in FIG. 1, and the divided small sections are numbered A 11 A 12 ... The whole is represented by I. The small section Ik of a certain area 3 is as follows: Ik = {K 11 k, K 12 k · Kijk} (4) FIG. calculation which was weighted (Kij), divided subsection a 11, a 12, the weight of the corresponding portion of ·· Aij K 11, K 12, shown in · · Kij, one of the combinations Pk is: Pk = {K 11 k, K 12 k ·· Kijk} (5) Assuming that the calculation formula of the feature quantity according to the present invention is F, Can be expressed as F (A 11 k * K 11 k, A 12 k * K 12 k,... Aijk * Kijk) [6] = F (Ik, Pk) [7] Here, if the value of Kij or Kijk is 0, it indicates that the corresponding sub-partition image Aijk is not used for calculating the feature amount, and if it has a value of 1, FIG.
(A), and corresponds to the filled small section in FIG. 4 (b). Kij or Kijk can take one or more values. 4 (a) and 4 (b), assuming that the region 3 to be calculated is I, FIG. 4 (a) D1 = I * P1 [8] FIG. 4 (b) D2 = I * P2
〔9〕 P1,P2,・・Pkは、ディジタルフィルタの一種であ
る。上式〔8〕,[9] P 1 , P 2 ,... Pk are a kind of digital filter. The above equation [8],
〔9〕から明らかなように、同一画像
から特徴量の取り出し方P1,P2を変えることによっ
て異なる結果D1,D2を得るが、検出の精度や画像の
特徴に応じてPkを選ぶことが可能である。図4(b)
では、小区画の第1行の部分を全く使用していないが、
例えば、読取装置の特性によって小区画の第1行にノイ
ズが入り易い場合には、図4(a)より図4(b)の小
区画画像により特徴量を求める方が影響が少ない。こう
して、読取装置の能力、特性や色の濃淡や影の付き方等
の画像の特徴に適した画像領域を切り出すだけでなく、
切り出された領域の小区画の利用方法を適宜に選択して
より細かな、あるいはより最適な特徴量比較を行うこと
が可能となる。これを認証へ応用した例を説明する。認
証を行う検証者として郵便局を選ぶ。郵便局にはP1を
予め通知しておく。被験者は予めD1を算出して被験者
と特定するIDをタグにして関連付け、郵便局に登録し
ておく。ICカード等にD1に関連付けられたIDを格
納し、カード表面に対象となる画像Iを印刷しておく。
郵便局では、カード所有者が提示したICカード上の画
像Iを読み取り、P1を用いて特徴量D1′を計算する。
計算したD1′とICカードから所定の手続きを経て読
み出したIDから予め登録されたD1を探し出して比較
し、画像識別を行う。銀行にはP2を予め通知してお
き、D2を銀行に登録しておくことにより、同様の検証
が可能である。このようにして、互いに知り得ない特徴
量を元にして複数の検証者を設定することが可能であ
る。図4(e)は、小区画の別の実施例を示すものであ
る。このように、中抜きの円形を同心円と中心に向って
直線に区切った区画でもよい。As is clear from [9], different results D1 and D2 are obtained by changing the method P1 and P2 of extracting feature values from the same image, but Pk can be selected according to the accuracy of detection and the characteristics of the image. is there. FIG. 4 (b)
Does not use the first row part of the subdivision at all,
For example, when noise is likely to enter the first row of the small section due to the characteristics of the reading device, obtaining the feature amount from the small section image of FIG. In this way, not only is it possible to cut out an image area suitable for image characteristics such as the capability of the reading device, characteristics, color shading, shadowing, etc.
It is possible to perform a finer or more optimal feature amount comparison by appropriately selecting a use method of the small section of the cut-out region. An example in which this is applied to authentication will be described. Choose the post office as the verifier to authenticate. The post office in advance notify the P 1. Subjects associated with the ID for identifying the subject is calculated in advance D 1 to the tag, it is registered to the post office. Storing the ID associated with the D 1 to the IC card or the like, you print an image I to be on the card surface.
The post office reads the image I on the IC card presented by the card holder, and calculates the characteristic amount D 1 ′ using P 1 .
From the calculated D 1 ′ and the ID read out from the IC card through a predetermined procedure, a pre-registered D 1 is searched and compared, and image identification is performed. The bank advance notification of P 2, by registering the D 2 to the bank, it is possible similar validation. In this way, it is possible to set a plurality of verifiers based on the mutually unknown feature amounts. FIG. 4E shows another embodiment of the small section. In this way, a section obtained by dividing a hollow circle into a straight line toward a center and a concentric circle may be used.
【0014】図11は、本発明における認証システムの
処理フローチャートである。システムが起動すると、先
ず初期化が行われる。内部メモリや、周辺装置の初期化
や設定状態の読み込み、データベースシステムとの接続
等がある(S4−1)。初期化が終了すると、カードリ
ーダーへカード10が挿入されるのを待つ(S4−
2)。カードが挿入されると、カードに記録されている
個人情報を読み取る(S4−3)。次に、カードに印刷
されている顔画像をイメージスキャナで読み取る(S4
−4)。情報の読み取りが終了すると、次に個人情報を
基に個人情報の検索を行う(S4−5)。検索キーやデ
ータベースシステムに対する処理、検索方法等について
は、認証システムに応じて自由に選択してよい。検索し
た結果、該当者がなければ不正使用もしくはカードの破
損等とみなして、図13のリジェクト処理を行い、カー
ドを排出する。排出後は、再びS4−2に戻り、カード
が挿入されるのを待つ。該当者があれば、登録データか
ら個人情報及び本発明で使用する特徴量を読み込む(S
4−7)。次に、カード挿入時に読み込んだ顔画像デー
タから特徴値を抽出する。抽出された特徴量と登録され
ていた特徴量を比較し、ずれ量を検出する(S4−
9)。ずれ量が同一範囲とみなせる場合には、本人の顔
画像が印刷されたカード(人物同定)であるとみなして
認証システムの主処理を行う(S4−11)。主処理
は、クレジットカードとしての物品の販売やセキュリテ
ィシステムにおけるロックの解除等である。主処理が終
了するとカードは排出され、再びカード挿入待ちとな
る。FIG. 11 is a processing flowchart of the authentication system according to the present invention. When the system starts, initialization is first performed. There are initialization of internal memory and peripheral devices, reading of setting status, connection with a database system, and the like (S4-1). When the initialization is completed, it waits for the card 10 to be inserted into the card reader (S4-
2). When the card is inserted, the personal information recorded on the card is read (S4-3). Next, the face image printed on the card is read by the image scanner (S4).
-4). When the reading of the information is completed, the personal information is searched based on the personal information (S4-5). The search key, the processing for the database system, the search method, and the like may be freely selected according to the authentication system. As a result of the search, if there is no corresponding person, the card is regarded as unauthorized use or damage to the card, etc., and rejection processing shown in FIG. After the ejection, the process returns to S4-2 again and waits for the card to be inserted. If there is such a person, the personal information and the feature amount used in the present invention are read from the registration data (S
4-7). Next, feature values are extracted from the face image data read when the card is inserted. The extracted feature amount is compared with the registered feature amount to detect a shift amount (S4-
9). If the shift amounts can be regarded as being in the same range, the authentication system performs main processing by regarding the card as a card (person identification) on which the face image of the person is printed (S4-11). The main processing includes selling an article as a credit card, releasing a lock in a security system, and the like. When the main processing is completed, the card is ejected, and the card waits for insertion again.
【0015】図12は、カードを作成して登録するカー
ド作成システム側の処理を示すフローチャートである。
図12も、図11と同様にシステムが起動すると、先ず
初期化が行われる。内部メモリや、周辺装置の初期化や
設定状態の読み込み、データベースシステムとの接続等
がある(S5−1)。初期化が終了すると、登録処理の
要求待ちとなる(S5−2)。操作者により登録処理が
要求されると、個人情報の読み取り、または入力が行わ
れる(S5−3)。予め個人情報が記入された用紙等を
スキャナ等で読み、OCR処理を行ったり、または直接
操作者による情報入力が行われる。 次に、登録をした
い本人の顔画像を読み取るか、または入力する。ここで
も、ディジタルカメラ等による撮影を行って直接入力し
たり、通常の銀塩写真に撮影された写真画像をスキャナ
等で読み取ると言った処理を行う(S5−4)。顔画像
データを取り込んだならば、次に特徴量を抽出する。そ
して、個人情報の登録を行う。先に抽出された特徴量も
個人情報と関係付けられて共に登録されることになる。
次に、登録した個人情報を発行するカードに記憶させ、
その表面には顔画像を印刷する。ここまでの処理が、S
5−5〜8である。全ての処理が完了すると、カードを
発行する(S5−9)。FIG. 12 is a flowchart showing the processing on the card creation system side for creating and registering a card.
Also in FIG. 12, when the system is started up as in FIG. 11, initialization is first performed. There are initialization of the internal memory and peripheral devices, reading of the setting state, connection to the database system, and the like (S5-1). When the initialization is completed, a request for a registration process is awaited (S5-2). When registration processing is requested by the operator, reading or input of personal information is performed (S5-3). A paper or the like in which personal information is previously written is read by a scanner or the like, and OCR processing is performed, or information is directly input by an operator. Next, the face image of the person to be registered is read or input. Here, processing such as taking a picture with a digital camera or the like and directly inputting it, or reading a photographic image taken as a normal silver halide photograph with a scanner or the like is performed (S5-4). When the face image data is captured, the feature amount is extracted next. Then, personal information is registered. The feature amounts extracted earlier are also registered in association with the personal information.
Next, memorize the registered personal information on the issuing card,
A face image is printed on the surface. The processing so far is S
5-5-8. When all processes are completed, a card is issued (S5-9).
【0016】図14は、図11で述べたずれ量が同一範
囲とみなせなかった場合の処理フローチャートである。
認証システムでは、操作者に情報を示すディスプレイ装
置を必ず持っており、判定結果を表示するようになって
いる。勿論、視覚的な表示でなくても音等でもよい。こ
こでは、PCのディスプレイ装置上に判定結果として、
例えば『〇〇%の一致です。』のような表示を行ってカ
ードを排出する。これにより認証システムを操作する人
は、本人の顔画像ではない可能性もあることが判るの
で、顔画像と本人とを見比べて見るとか、何等かの別な
情報(例えば、運転免許証等)も利用して判定する等の
方法を採用することができる。FIG. 14 is a processing flowchart in the case where the shift amounts described in FIG. 11 cannot be regarded as being in the same range.
The authentication system always has a display device for presenting information to the operator, and displays a determination result. Of course, a sound or the like may be used instead of a visual display. Here, as the determination result on the display device of the PC,
For example, "〇〇% match. Is displayed and the card is ejected. As a result, it is known that the person who operates the authentication system may not be the person's face image, so that the face image and the person are compared and seen, or some other information (for example, a driver's license, etc.) For example, a method of making a determination by utilizing the information can also be adopted.
【0017】図15は、特徴量を抽出する処理のフロー
チャート、図16は、基準点の決定のための処理フロー
チャート、図17は、法線ベクトル値取得処理のフロー
チャート、図18は、特徴量と登録値とのずれ量の検出
処理のフローチャートである。先ず、前処理を行ってか
ら法線ベクトルの抽出を行う。前処理は、基準点の決定
である。先に説明したように、背景の切り出し、顔領域
の取り出しを行って基準点を決定する。一方、法線ベク
トルの抽出は、図17に示すような方法で行われる。顔
領域を小区画に区切り、区画毎の平面を決定し、傾き=
法線ベクトル値を取得する。次に、抽出された特徴量と
登録されていた特徴量とのずれの検出は、図18に示す
ような方法で行われる。対応する位置の法線ベクトルを
比較し、それぞれのずれ量=余弦を計算し、平均余弦を
求める。得られた平均余弦に対して閾値処理を行う。FIG. 15 is a flowchart of a process for extracting a feature, FIG. 16 is a flowchart of a process for determining a reference point, FIG. 17 is a flowchart of a process for obtaining a normal vector value, and FIG. It is a flowchart of the detection processing of the deviation | shift amount with a registration value. First, normal vectors are extracted after preprocessing is performed. The pre-processing is determination of a reference point. As described above, the reference point is determined by cutting out the background and extracting the face area. On the other hand, extraction of the normal vector is performed by a method as shown in FIG. The face area is divided into small sections, the plane for each section is determined, and the inclination =
Get the normal vector value. Next, detection of a deviation between the extracted feature amount and the registered feature amount is performed by a method as shown in FIG. The normal vectors at the corresponding positions are compared, and each shift amount = cosine is calculated, and the average cosine is obtained. Threshold processing is performed on the obtained average cosine.
【0018】図11〜図18に記載された各ステップを
プログラムに変換し、そのプログラムをCD−ROM等
の記録媒体に格納することにより、その記録媒体を搬送
した任意の場所において、本発明を実現することが可能
である。Each step described in FIGS. 11 to 18 is converted into a program, and the program is stored in a recording medium such as a CD-ROM. It is possible to realize.
【0019】各請求項の発明毎の効果としては、入力
された画像情報を演算処理し、画像の持つ物体形状およ
び色の変化に伴う濃度値傾斜を表現する特徴量に置き換
え、前記特徴量からのずれ量を画像識別に利用すること
により、画像を識別するためのデータ量を小さくするこ
とができ、適応的な処理を行うことが可能になる。 入力画像情報から取り出す特徴量は、画像上の1つ以
上の基準点からの相対的な位置情報を保持した濃度値空
間内における法線ベクトルであり、該特徴量からのずれ
量は、識別する画像間の対応する相対的位置の持つ法線
ベクトル間の成す角度であることにより、画像内の物体
の3次元形状特性を少ない情報に置き換えることがで
き、また法線ベクトル化により特徴量のデータ量の圧縮
を図ることができる。結果的に画像画の相違を少ない情
報で表現することが可能である。 入力画像情報からの特徴量の取り出しにおいて、予め
画像情報における複数の特徴的な形状を判別し、判別さ
れた複数の形状間の位置関係から基準点を決定し、該基
準点を基に位置決定された特徴量を取り出すことによ
り、直接画像の持つ特徴的な形状を基準点にするのでは
ないので、入力方式や状態等による影響を小さくするこ
とができる。また、画像間の位置ずれの影響が小さくな
る。 入力画像情報からの特徴量の取り出しにおいて、基準
点を利用して元画像の全てまたはその一部の画像を切り
出し、そこから取り出した特徴量のずれを利用して画像
識別の判定を行う際にサンプリングされた特徴量の全て
またはその一部を必要に応じて利用することにより、画
像の一部を利用することで、使用しない部分を他の用途
(例えば、電子透かし)に利用することが可能となる。
また、計算能力が高い場合には、非常に密度の高い読み
取りと特徴量の抽出を行って高精度な比較同定処理がで
き、劣悪な能力しかない場合や高速化が望まれる場合に
は、特徴量の抽出を粗く行って、元々持っている特徴量
の一部を使用しての比較が可能となる。As an effect of each claim of the present invention, the input image information is subjected to arithmetic processing, and is replaced with a feature amount expressing a density value gradient accompanying a change in the object shape and color of the image. The amount of data for identifying an image can be reduced by using the amount of deviation for image identification, and adaptive processing can be performed. The feature amount extracted from the input image information is a normal vector in a density value space holding relative position information from one or more reference points on the image, and the deviation amount from the feature amount is identified. The three-dimensional shape characteristic of the object in the image can be replaced with a small amount of information by the angle formed between the normal vectors of the corresponding relative positions between the images. The amount can be reduced. As a result, it is possible to express a difference between image images with a small amount of information. In extracting feature amounts from the input image information, a plurality of characteristic shapes in the image information are determined in advance, a reference point is determined from a positional relationship between the determined shapes, and a position determination is performed based on the reference points. By taking out the set feature amount, the characteristic shape of the image is not directly used as the reference point, so that the influence of the input method, the state, and the like can be reduced. In addition, the influence of positional displacement between images is reduced. In extracting feature amounts from input image information, when extracting all or a part of the original image using the reference point and performing image identification determination using deviation of the feature amount extracted therefrom By using all or a part of the sampled feature values as needed, by using a part of the image, the unused part can be used for other purposes (for example, digital watermarking). Becomes
In addition, when the computational power is high, very high-density reading and extraction of the feature amount can be performed to perform a high-precision comparative identification process. By roughly extracting the amount, comparison using a part of the characteristic amount originally possessed becomes possible.
【0020】入力画像情報からの特徴量の取り出しに
おいて、切り出された画像から特徴量を算出するための
領域を指定し、および/または特徴量計算方法を指定し
て特徴量を求め、画像識別に利用することにより、同一
画像を用いて、検証者または検証機会毎に異なる特徴量
を用いた比較を行うことが可能となる。計算方法におけ
るパラメータの入力において、前回の結果を反映させ
て、より精度の高い検証比較を行う、計算量の少ない特
徴量算出を行うことが可能となった。また、検出システ
ムにより読み取られた画像の精度が特定の領域だけ劣化
するような場合には、そのような領域で予め除外して特
徴量を計算することが可能であるため、計算時間の短縮
だけでなく、システム劣化に対する信頼性を確保するこ
とが可能となった。 入力画像が、人物の顔を撮影したものであり、取り出
された特徴量と予め取り出して保持しておいた特徴量と
のずれ量を計算し、予め特徴量を取り出した画像と同一
であるか否かを判別することにより、顔画像に応用する
ことで指紋等と比較して日常的な撮影されることが多
く、オープンな情報を利用することができる。視覚的に
区別が可能であり、今後、カード等に印刷する情報とし
て顔画像を利用することが多くなることが考えられ、有
効活用ができる。 入力画像が、人物の顔を撮影したものであり、特徴量
の取り出しにおいて利用する基準点を決定するための特
徴的な形状が人物の目であることにより、顔画像を撮影
した場合、最も特徴的な部分は目領域であるので、目領
域の情報が全くないと言うことはない。また、目自体を
基準点として用いるわけではないため、目形状の情報に
一部欠落があっても基準点の誤差は小さくすることがで
きる。In extracting the characteristic amount from the input image information, an area for calculating the characteristic amount from the clipped image is specified, and / or a characteristic amount calculation method is specified to obtain the characteristic amount, and the characteristic amount is obtained. By using the same image, comparison using different feature amounts for each verifier or each verification opportunity can be performed using the same image. When inputting parameters in the calculation method, it is possible to perform a feature amount calculation with a small amount of calculation for performing a more accurate verification comparison by reflecting the previous result. Further, when the accuracy of the image read by the detection system deteriorates only in a specific region, it is possible to calculate the feature amount by excluding in such a region in advance. Instead, it became possible to secure reliability against system degradation. Whether the input image is obtained by photographing a person's face, calculates a shift amount between the extracted feature amount and the previously extracted and held feature amount, and is the same as the image from which the feature amount is extracted in advance. By judging whether or not the image is applied to a face image, it is often taken on a daily basis as compared with a fingerprint or the like, and open information can be used. It can be visually distinguished, and it is considered that a face image will be frequently used as information to be printed on a card or the like in the future, and can be effectively used. When the input image is obtained by capturing a face of a person, and the characteristic shape for determining the reference point used in extracting the feature amount is the eyes of the person, the face image is most captured. Since the target portion is the eye region, there is no possibility that there is no information on the eye region. Further, since the eye itself is not used as the reference point, the error of the reference point can be reduced even if the information of the eye shape is partially missing.
【0021】次に、本発明の実施態様を示す。 (a)背景抽出や肌色領域の抽出には、記憶色の色度値
を利用する。 (b)同じく、ある領域が指定されると、その色を含む
近い色を背景や肌色とみなして抽出することもできる。 (c)法線ベクトルを求める濃度値は、B単独だけでな
く、R,G,B全てを利用してもよいし、またRやGを
利用してもよい。 (d)データベース上には、高解像度で取り込んだ法線
ベクトルデータを持っていても実際に比較するのは、そ
の一部でもよい。また、処理を行うPCの性能により対
応データを増やしたり、減らしたりすることにより、適
応的な処理が可能である。 (e)顔の大きさの正規化や不要成分(例えば、髪)を
消去することより精度よく、また個人の識別に利用する
ことができる。 (f)法線ベクトルの判定に使用しない画像領域はデー
タが変化しても影響しないので、別の情報を乗せておく
ことも可能である。 (g)閾値による判定をファジイ理論やニューロ等を応
用して判定することも可能である。 (h)非常に低いパフォーマンスのシステムでも確率的
な判定によって(例えば、本人の顔画像である確率は7
0%)、最終的には人間が判定するシステムにすること
ができ、柔軟な対応が可能になる。 (i)全体の平均余弦での比較ではなく、比較領域を限
定したり重み付けをしたり、顔であればほぼ対称形であ
るという前提から、顔の中心線から対称な位置にある法
線ベクトルのずれ量の差を見てみる等の方法も採用する
ことができる。Next, embodiments of the present invention will be described. (A) The chromaticity value of the memory color is used for background extraction and skin color region extraction. (B) Similarly, when a certain area is designated, a similar color including that color can be extracted as a background or skin color. (C) As a density value for obtaining a normal vector, not only B alone, but also all of R, G, and B may be used, or R and G may be used. (D) Even if the database has normal vector data captured at a high resolution, only a part of the data may be actually compared. Also, adaptive processing is possible by increasing or decreasing the corresponding data depending on the performance of the PC performing the processing. (E) Normalization of the face size and elimination of unnecessary components (for example, hair) can be utilized more accurately and for individual identification. (F) Since the image area not used for the determination of the normal vector has no influence even if the data changes, it is possible to carry other information. (G) The determination based on the threshold can be made by applying fuzzy logic, neurology, or the like. (H) Even with a system with very low performance, a probabilistic determination (for example, the probability that the face image of the subject is 7
0%), and finally, a system that can be determined by humans can be used, and a flexible response is possible. (I) The normal vector at a position symmetrical from the center line of the face, based on the assumption that the comparison area is limited or weighted, and that the face is almost symmetrical, rather than the comparison with the entire mean cosine. It is also possible to adopt a method of checking the difference between the deviation amounts.
【0022】[0022]
【発明の効果】以上のように、本発明によれば、入出者
管理やクレジットカードによる支払い等のセキュリティ
システムにおいて、登録者本人か否かの同定にカード上
に印刷された顔画像を用いて行うことができ、その際
に、画像を識別するためのデータ量を小さくすることが
できる。また、画像内の物体の3次元形状特性を少ない
情報に置き換えることができ、また画像の相違を少ない
情報で表現でき、また直接画像の持つ特徴的な形状を基
準点にしていないため、入力方式や状態等による影響を
小さくでき、かつ画像間の位置ずれの影響を小さくでき
る。さらに、画像の一部を利用することにより、使用し
ない部分を他の用途(電子透かし等)に利用することが
可能である。さらに、計算能力が高い場合には、非常に
密度の高い読み取りと特徴量の抽出を行って、高精度な
比較同定処理を行うことができる一方、劣悪な能力しか
ない場合や高速化が望まれる場合には、特徴量の抽出を
粗く行って、元々持っている特徴量の一部を使用して比
較を行うことができる。As described above, according to the present invention, in a security system such as entry / exit management or credit card payment, a face image printed on a card is used to identify whether or not the person is a registrant. In this case, the amount of data for identifying an image can be reduced. Also, since the three-dimensional shape characteristics of the object in the image can be replaced with a small amount of information, the difference between the images can be expressed with a small amount of information, and the characteristic shape of the image is not directly used as the reference point. And the effect of the state or the like can be reduced, and the influence of the positional deviation between images can be reduced. Furthermore, by using a part of the image, the part not used can be used for another purpose (such as a digital watermark). Furthermore, when the computational power is high, it is possible to perform highly accurate comparison and identification processing by performing very high-density reading and extracting feature amounts, while it is desired to have only inferior power or to increase the speed. In such a case, the feature amount can be roughly extracted, and the comparison can be performed using a part of the original feature amount.
【図1】本発明の一実施例を示す個人情報カードおよび
認証システムの概略図である。FIG. 1 is a schematic diagram of a personal information card and an authentication system showing one embodiment of the present invention.
【図2】Bプレーンのヒストグラムの例を示す図、およ
びGプレーンのヒストグラムの例を示す図である。FIG. 2 is a diagram illustrating an example of a histogram of a B plane, and a diagram illustrating an example of a histogram of a G plane.
【図3】対象とする画像からの別な切り出しの説明図で
ある。FIG. 3 is an explanatory diagram of another cutout from a target image.
【図4】計算対象とする画像領域の指定および小区画の
例を示す図である。FIG. 4 is a diagram showing an example of designation of an image area to be calculated and small sections.
【図5】本発明における法線ベクトルの説明図である。FIG. 5 is an explanatory diagram of a normal vector in the present invention.
【図6】本発明における画像の背景の抽出過程を示す図
である。FIG. 6 is a diagram showing a process of extracting a background of an image according to the present invention.
【図7】本発明における画像の肌色領域の抽出過程を示
す図である。FIG. 7 is a diagram illustrating a process of extracting a flesh-color area of an image according to the present invention.
【図8】本発明による画像の基準点の検出過程を示す図
である。FIG. 8 is a diagram illustrating a process of detecting a reference point of an image according to the present invention.
【図9】平面での近似例を示す図である。FIG. 9 is a diagram showing an example of approximation on a plane.
【図10】平均余弦のヒストグラムを示す特性図であ
る。FIG. 10 is a characteristic diagram showing a histogram of an average cosine.
【図11】本発明の一実施例を示す認証システムの処理
フローチャートである。FIG. 11 is a processing flowchart of the authentication system according to the embodiment of the present invention.
【図12】本発明の一実施例を示すカード作成システム
の処理フローチャートである。FIG. 12 is a processing flowchart of a card creation system according to an embodiment of the present invention.
【図13】本発明におけるリジェクト処理のフローチャ
ートである。FIG. 13 is a flowchart of a reject process according to the present invention.
【図14】図11におけるずれ量が同一範囲とみなせな
かった場合の処理フローチャートである。14 is a processing flowchart in a case where the shift amounts in FIG. 11 cannot be regarded as being in the same range.
【図15】本発明における特徴量の抽出処理のフローチ
ャートである。FIG. 15 is a flowchart of a feature amount extraction process according to the present invention.
【図16】本発明における前処理である基準点の決定処
理のフローチャートである。FIG. 16 is a flowchart of a reference point determination process which is a pre-process in the present invention.
【図17】本発明における法線ベクトルの抽出処理のフ
ローチャートである。FIG. 17 is a flowchart of normal vector extraction processing according to the present invention.
【図18】本発明における抽出された特徴量と登録され
た特徴量とのずれの検出処理のフローチャートである。FIG. 18 is a flowchart of a process for detecting a deviation between an extracted feature amount and a registered feature amount according to the present invention.
1…画像処理PC、2…データベース、3…顔写真、4
…特徴量、識別関数の情報を記憶したメモリ、10…個
人情報格納カード、11…認証システム。1 ... image processing PC, 2 ... database, 3 ... face photograph, 4
... Memory for storing information on feature amounts and identification functions, 10... Personal information storage card, 11... Authentication system.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 春日 正男 栃木県宇都宮市石井町2753番地 宇都宮大 学工学部情報工学科内 (72)発明者 吉川 博晴 東京都中央区勝どき3−12−1 フォアフ ロントタワー リコーシステム開発株式会 社内 (72)発明者 飯田 哲也 東京都中央区勝どき3−12−1 フォアフ ロントタワー リコーシステム開発株式会 社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Masao Kasuga 2753 Ishii-cho, Utsunomiya-shi, Tochigi Utsunomiya University Faculty of Engineering and Information Engineering (72) Inventor Hiroharu Yoshikawa (72) Inventor Tetsuya Iida 3-12-1 Kachidoki, Chuo-ku, Tokyo Forefront Tower Ricoh System Development Co., Ltd.
Claims (8)
表現する特徴量に置き換え、 前記特徴量からのずれ量を画像識別に利用することを特
徴とする画像識別のための特徴量の利用方法。1. An image processing apparatus according to claim 1, further comprising: performing arithmetic processing on input image information; replacing the image information with a feature amount expressing a density value gradient accompanying a change in an object shape and a color of the image; and using a shift amount from the feature amount for image identification. A method of using a feature amount for image identification characterized by the following.
は、画像上の1つ以上の基準点からの相対的な位置情報
を保持した濃度値空間内における法線ベクトルであり、 該特徴量からのずれ量は、識別する画像間の対応する相
対的位置の持つ法線ベクトル間の成す角度であることを
特徴とする請求項1に記載の画像識別のための特徴量の
利用方法。2. A feature value extracted from the input image information is a normal vector in a density value space holding relative position information from one or more reference points on the image. The method according to claim 1, wherein the shift amount is an angle between normal vectors of corresponding relative positions between the images to be identified.
しにおいて、予め画像情報における複数の特徴的な形状
を判別し、判別された複数の形状間の位置関係から基準
点を決定し、該基準点を基に位置決定された特徴量を取
り出すことを特徴とする請求項1に記載の画像識別のた
めの特徴量の利用方法。3. In extracting a feature amount from the input image information, a plurality of characteristic shapes in the image information are determined in advance, and a reference point is determined from a positional relationship between the plurality of determined shapes. 2. The method according to claim 1, wherein the feature amount determined based on the point is extracted.
しにおいて、基準点を利用して元画像の全てまたはその
一部の画像を切り出し、そこから取り出した特徴量のず
れを利用して画像識別の判定を行う際にサンプリングさ
れた特徴量の全てまたはその一部を必要に応じて利用す
ることを特徴とする請求項1から3までのうちのいずれ
か1つに記載の画像識別のための特徴量の利用方法。4. A feature amount is extracted from the input image information by cutting out all or a part of an original image using a reference point, and performing image identification using a shift of the feature amount extracted therefrom. The method according to any one of claims 1 to 3, wherein all or a part of the sampled feature amounts are used as necessary when the determination is made. How to use features.
しにおいて、切り出された画像から特徴量を算出するた
めの領域を指定し、および/または特徴量計算方法を指
定して特徴量を求め、画像識別に利用することを特徴と
する請求項1から4までのうちのいずれか1つに記載の
画像識別のための特徴量の利用方法。5. Extracting a feature amount from the input image information, designating a region for calculating a feature amount from the cut-out image and / or specifying a feature amount calculation method to obtain a feature amount; The method according to any one of claims 1 to 4, wherein the method is used for image identification.
のであり、取り出された特徴量と予め取り出して保持し
ておいた特徴量とのずれ量を計算し、予め特徴量を取り
出した画像と同一であるか否かを判別することを特徴と
する請求項1から5までのうちのいずれか1つに記載の
画像識別のための特徴量の利用方法。6. The input image is obtained by photographing a face of a person, and calculates a shift amount between a feature amount extracted and a feature amount extracted and held in advance, and the feature amount is extracted in advance. The method according to any one of claims 1 to 5, wherein it is determined whether the image is the same as the image.
のであり、特徴量の取り出しにおいて利用する基準点を
決定するための特徴的な形状が人物の目であることを特
徴とする請求項1から5までのうちのいずれか1つに記
載の画像識別のための特徴量の利用方法。7. The method according to claim 1, wherein the input image is obtained by photographing a face of a person, and a characteristic shape for determining a reference point used in extracting a feature amount is eyes of the person. Item 7. A method of using a feature amount for image identification according to any one of Items 1 to 5.
に記載された画像識別のための特徴量とその利用方法
を、プログラムに変換して該プログラムを格納すること
を特徴とする記録媒体。8. A recording method comprising: converting a feature amount for image identification and a method of using the feature amount according to any one of claims 1 to 7 into a program and storing the program. Medium.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08087898A JP4103056B2 (en) | 1998-03-27 | 1998-03-27 | Method of using feature quantity for image identification and recording medium storing the program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP08087898A JP4103056B2 (en) | 1998-03-27 | 1998-03-27 | Method of using feature quantity for image identification and recording medium storing the program |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11283033A true JPH11283033A (en) | 1999-10-15 |
JP4103056B2 JP4103056B2 (en) | 2008-06-18 |
Family
ID=13730609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP08087898A Expired - Fee Related JP4103056B2 (en) | 1998-03-27 | 1998-03-27 | Method of using feature quantity for image identification and recording medium storing the program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4103056B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002288671A (en) * | 2001-03-26 | 2002-10-04 | Secom Co Ltd | Personal authentication device |
JP2003022441A (en) * | 2001-07-06 | 2003-01-24 | Minolta Co Ltd | Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction. |
JP2005084980A (en) * | 2003-09-09 | 2005-03-31 | Fuji Photo Film Co Ltd | Data generation unit for card with face image, method and program |
JP2005122720A (en) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | Apparatus for selecting image of specific scene, program, and recording medium having program recorded thereon |
JP2008009617A (en) * | 2006-06-28 | 2008-01-17 | Glory Ltd | System, program, and method for individual biological information collation |
WO2008056777A1 (en) * | 2006-11-10 | 2008-05-15 | Konica Minolta Holdings, Inc. | Authentication system and authentication method |
WO2018092422A1 (en) * | 2016-11-15 | 2018-05-24 | Kddi株式会社 | Image processing device and image processing method |
-
1998
- 1998-03-27 JP JP08087898A patent/JP4103056B2/en not_active Expired - Fee Related
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002288671A (en) * | 2001-03-26 | 2002-10-04 | Secom Co Ltd | Personal authentication device |
JP4497740B2 (en) * | 2001-03-26 | 2010-07-07 | セコム株式会社 | Personal authentication device |
JP2003022441A (en) * | 2001-07-06 | 2003-01-24 | Minolta Co Ltd | Method and program for area extraction, computer- readable recording medium with recorded program for area extraction, and device for area extraction. |
JP2005084980A (en) * | 2003-09-09 | 2005-03-31 | Fuji Photo Film Co Ltd | Data generation unit for card with face image, method and program |
JP2005122720A (en) * | 2003-09-25 | 2005-05-12 | Fuji Photo Film Co Ltd | Apparatus for selecting image of specific scene, program, and recording medium having program recorded thereon |
JP2008009617A (en) * | 2006-06-28 | 2008-01-17 | Glory Ltd | System, program, and method for individual biological information collation |
WO2008056777A1 (en) * | 2006-11-10 | 2008-05-15 | Konica Minolta Holdings, Inc. | Authentication system and authentication method |
JPWO2008056777A1 (en) * | 2006-11-10 | 2010-02-25 | コニカミノルタホールディングス株式会社 | Authentication system and authentication method |
JP4780198B2 (en) * | 2006-11-10 | 2011-09-28 | コニカミノルタホールディングス株式会社 | Authentication system and authentication method |
WO2018092422A1 (en) * | 2016-11-15 | 2018-05-24 | Kddi株式会社 | Image processing device and image processing method |
US11264416B2 (en) | 2016-11-15 | 2022-03-01 | Kddi Corporation | Image processing apparatus and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP4103056B2 (en) | 2008-06-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102455633B1 (en) | Liveness test method and apparatus | |
US5815252A (en) | Biometric identification process and system utilizing multiple parameters scans for reduction of false negatives | |
US7983451B2 (en) | Recognition method using hand biometrics with anti-counterfeiting | |
JP4406547B2 (en) | ID card creation device, ID card, face authentication terminal device, face authentication device and system | |
US20190392196A1 (en) | Within document face verification | |
US20100329568A1 (en) | Networked Face Recognition System | |
AU2017200935B2 (en) | Method for securing and verifying a document | |
BR112017016942B1 (en) | SYSTEMS AND METHODS FOR PERFORMING USER AUTHENTICATION BASED ON FINGERPRINTS WITH THE USE OF IMAGE COLLECTIONS CAPTURED USING MOBILE DEVICES | |
JP6472184B2 (en) | Object identification device, object identification method, and program | |
JPH0991434A (en) | Human body collation device | |
KR101268718B1 (en) | Comparison apparatus | |
KR101252843B1 (en) | Method of Managing Image in a Mobile Communication Terminal | |
CN106778613A (en) | A kind of auth method and device based on the matching of face cut zone | |
JP3888676B2 (en) | Three-dimensional object recognition apparatus and method | |
JP6910236B2 (en) | Personal information registration system and personal information registration method | |
CN110415113A (en) | Finance data processing method, device, server and readable storage medium storing program for executing | |
KR100777922B1 (en) | System For Personal Authentication and Electronic Signature Using Image Recognition And Method Thereof | |
JP2005084980A (en) | Data generation unit for card with face image, method and program | |
WO2002009024A1 (en) | Identity systems | |
JPH07311850A (en) | Method and apparatus for discrimination | |
KR20000035050A (en) | Method for photographing and recognizing a face | |
JP4103056B2 (en) | Method of using feature quantity for image identification and recording medium storing the program | |
JP2006085289A (en) | Facial authentication system and facial authentication method | |
JP5773739B2 (en) | Verification device | |
JP2015162012A (en) | Face matching device, face matching method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050325 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070921 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071214 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080229 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080313 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110404 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R370 | Written measure of declining of transfer procedure |
Free format text: JAPANESE INTERMEDIATE CODE: R370 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120404 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130404 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |