JP2009244921A - Face image characteristic extraction method, its device and its program - Google Patents

Face image characteristic extraction method, its device and its program Download PDF

Info

Publication number
JP2009244921A
JP2009244921A JP2008087119A JP2008087119A JP2009244921A JP 2009244921 A JP2009244921 A JP 2009244921A JP 2008087119 A JP2008087119 A JP 2008087119A JP 2008087119 A JP2008087119 A JP 2008087119A JP 2009244921 A JP2009244921 A JP 2009244921A
Authority
JP
Japan
Prior art keywords
face image
image feature
region
area
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008087119A
Other languages
Japanese (ja)
Other versions
JP4725900B2 (en
Inventor
Takeshi Hoshino
健 星野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Infrontia Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Infrontia Corp filed Critical NEC Infrontia Corp
Priority to JP2008087119A priority Critical patent/JP4725900B2/en
Publication of JP2009244921A publication Critical patent/JP2009244921A/en
Application granted granted Critical
Publication of JP4725900B2 publication Critical patent/JP4725900B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To perform face image characteristic extraction for preventing erroneous recognition since featured values never appear as any large difference even when the direction of the face is different from that during registration. <P>SOLUTION: The positions of characteristic sections are extracted from the input face image. Position coordinates are assigned to the extracted characteristic sections, and the area of a first region where the characteristic sections are connected as vertexes is calculated. The area of a second region as a region where the characteristic sections are connected as vertexes, that is, a region different from the first region is calculated. The rate of the area of the first region to the area of the second region is calculated, and the value obtained by the pertinent calculation is obtained as face image featured values. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、カメラにより顔画像を入力し顔認識する装置における特徴量の抽出に関する。   The present invention relates to feature amount extraction in an apparatus that recognizes a face by inputting a face image with a camera.

監視システムや、情報処理装置の生体認証といった分野においては、顔画像の分析の精度を高める必要がある。   In the fields of monitoring systems and biometric authentication of information processing devices, it is necessary to improve the accuracy of facial image analysis.

この点に関連する発明として、例えば特許文献1に記載されている技術のように、取得される顔画像の特徴(目,鼻,唇の位置や形など)をそのまま特徴量とするという技術がある(例えば特許文献1参照。)。
特許文献1に記載の技術では、情報処理装置のイメージセンサの撮像情報が、肌色検知手段と生体認証手段に入力される。そして、肌色検知手段は撮像情報中の肌色の部位を検索して顔の輪郭を検知する。並行して生体認証手段は、撮像情報中の顔を構成する部品を検索し顔を検知し、検索結果を顔情報に照らし合わせて登録された顔かどうか判別し、顔認証を実現している。
特開2006−293732号公報
As an invention related to this point, for example, as in the technique described in Patent Document 1, there is a technique in which features of an acquired face image (such as the position and shape of eyes, nose, and lips) are directly used as feature amounts. Yes (see, for example, Patent Document 1).
In the technique described in Patent Document 1, imaging information of the image sensor of the information processing apparatus is input to the skin color detection unit and the biometric authentication unit. Then, the skin color detecting means searches the skin color part in the imaging information and detects the contour of the face. In parallel, the biometric authentication means searches for parts constituting the face in the imaging information, detects the face, determines whether the face is registered by comparing the search result with the face information, and realizes face authentication. .
JP 2006-293732 A

上述したように特許文献1に記載の技術では、取得される顔画像の特徴(目,鼻,唇の位置や形など)をそのまま特徴量としていた。   As described above, in the technique described in Patent Document 1, the features of the acquired face image (such as the positions and shapes of eyes, nose, and lips) are used as feature amounts.

しかし、この特許文献1に記載の技術には問題があった。すなわち目、鼻、唇の位置を特徴量として使用していたため、顔の向きが大きく変化すると、目、鼻、唇の位置(特徴量)が変化してしまい認識できない。または、誤認識してしまうという問題である。   However, there is a problem with the technique described in Patent Document 1. That is, since the positions of the eyes, nose, and lips are used as feature amounts, if the face direction changes greatly, the positions (feature amounts) of the eyes, nose, and lips change and cannot be recognized. Or it is the problem of misrecognizing.

そこで、本発明は顔の向きが登録時と異なっていたとしても、特徴量が、大きな差異となってあらわれず、誤った認識することを防ぐことが可能な顔画像特徴抽出方法、その装置及びそのプログラムを提供することを目的とする。   Therefore, the present invention provides a face image feature extraction method, an apparatus thereof, and a feature image that can prevent erroneous recognition even if the face orientation is different from that at the time of registration, and the feature amount does not appear as a large difference. The purpose is to provide the program.

本発明の第1の観点によれば、方法として顔画像特徴量を抽出する顔画像特徴抽出方法において、入力された顔画像から特徴となる部分の位置を抽出する位置抽出ステップと、前記位置抽出ステップにおいて抽出した特徴となる部分に位置座標を割り当て、前記特徴となる部分を頂点としてつなぎ合わせた第1の領域の面積を算出する第1の計算ステップと、前記特徴となる部分を頂点としてつなぎ合わせた領域であり更に前記第1の領域とは異なる領域である第2の領域の面積を算出する第2の計算ステップと、前記第1の領域の面積と、前記第2の領域の面積の比を算出し、当該算出により得られた値を顔画像特徴量とする顔画像特徴量算出ステップと、を備えることを特徴とする顔画像特徴抽出方法が提供される。   According to a first aspect of the present invention, in a face image feature extraction method for extracting a face image feature quantity as a method, a position extraction step of extracting a position of a characteristic part from an input face image, and the position extraction A first calculation step of assigning position coordinates to the feature parts extracted in the step, and calculating an area of a first region obtained by joining the feature parts as vertices; and connecting the feature parts as vertices; A second calculation step of calculating an area of a second region that is a combined region and a region different from the first region, an area of the first region, and an area of the second region There is provided a face image feature extraction method characterized by comprising a step of calculating a ratio, and a face image feature value calculating step using the value obtained by the calculation as a face image feature value.

本発明の第2の観点によれば、装置として顔画像特徴量を抽出する顔画像特徴抽出装置において、入力された顔画像から特徴となる部分の位置を抽出する位置抽出手段と、前記位置抽出手段において抽出した特徴となる部分に位置座標を割り当て、前記特徴となる部分を頂点としてつなぎ合わせた第1の領域の面積を算出する第1の計算手段と、前記特徴となる部分を頂点としてつなぎ合わせた領域であり更に前記第1の領域とは異なる領域である第2の領域の面積を算出する第2の計算手段と、前記第1の領域の面積と、前記第2の領域の面積の比を算出し、当該算出により得られた値を顔画像特徴量とする顔画像特徴量算出手段と、を備えることを特徴とする顔画像特徴抽出装置が提供される。   According to a second aspect of the present invention, in the face image feature extraction apparatus that extracts a face image feature amount as an apparatus, a position extraction unit that extracts a position of a characteristic part from an input face image, and the position extraction A first calculating means for assigning position coordinates to the feature parts extracted by the means and calculating the area of the first region obtained by joining the feature parts as vertices; and connecting the feature parts as vertices; A second calculating means for calculating an area of a second region that is a combined region and a region different from the first region, an area of the first region, and an area of the second region There is provided a face image feature extraction device comprising: a face image feature amount calculating means for calculating a ratio and using a value obtained by the calculation as a face image feature amount.

本発明の第3の観点によれば、プログラムとして顔画像特徴量を抽出する顔画像特徴抽出装置としてコンピュータを機能させるための顔画像特徴抽出プログラムにおいて、入力された顔画像から特徴となる部分の位置を抽出する位置抽出手段と、前記位置抽出手段において抽出した特徴となる部分に位置座標を割り当て、前記特徴となる部分を頂点としてつなぎ合わせた第1の領域の面積を算出する第1の計算手段と、前記特徴となる部分を頂点としてつなぎ合わせた領域であり更に前記第1の領域とは異なる領域である第2の領域の面積を算出する第2の計算手段と、前記第1の領域の面積と、前記第2の領域の面積の比を算出し、当該算出により得られた値を顔画像特徴量とする顔画像特徴量算出手段と、を備えることを特徴とする顔画像特徴抽出装置としてコンピュータを機能させるための顔画像特徴抽出プログラムが提供される。   According to a third aspect of the present invention, in a face image feature extraction program for causing a computer to function as a face image feature extraction device that extracts a face image feature quantity as a program, a feature portion from an input face image is obtained. A position extraction unit for extracting a position, and a first calculation for calculating an area of a first region obtained by allocating position coordinates to a feature portion extracted by the position extraction unit and connecting the feature portion as a vertex. Means, a second calculation means for calculating an area of a second region which is a region connected with the characteristic portions as apexes and is different from the first region, and the first region A face image feature amount calculating means for calculating a ratio of the area of the second area and the area of the second region, and using the value obtained by the calculation as a face image feature amount. Facial image feature extraction program for causing a computer to function as a feature extraction apparatus is provided.

本発明によれば、顔の異なる領域の比をとることから、顔の向きによる変化量を減らすことができ、顔の向きに寄らない顔特徴量を算出することを行うことが可能となる。   According to the present invention, since the ratio of different regions of the face is taken, the amount of change due to the orientation of the face can be reduced, and it is possible to calculate a facial feature amount that does not depend on the orientation of the face.

まず、本発明の概略を述べる。   First, the outline of the present invention will be described.

本発明では、課題を解決するために、カメラから取得した画像より、左右の目と左右の鼻孔で囲まれた領域の面積と、二つの鼻孔と唇両端に囲まれた領域の面積の比を特徴量として使用する。この様な処理を行うことによって、もし、顔の向きが登録時と異なっていたとしても、特徴量が二つの面積の比であり、大きな差異となってあらわれないため、誤って認識することを防ぐことが可能となる。   In the present invention, in order to solve the problem, from the image acquired from the camera, the ratio of the area of the region surrounded by the left and right eyes and the right and left nostrils and the area of the region surrounded by the two nostrils and both ends of the lips is calculated. Used as a feature value. By performing such processing, even if the orientation of the face is different from that at the time of registration, the feature amount is the ratio of the two areas and does not appear as a big difference. It becomes possible to prevent.

次に、本発明の実施形態について図面を用いて説明する。   Next, embodiments of the present invention will be described with reference to the drawings.

本発明の実施形態を図1のブロック図に示す。本発明の実施形態は、カメラ11、中央処理装置12、顔画像記憶装置13、目位置抽出装置14、鼻孔位置抽出装置15、唇端位置抽出装置16、顔上部面積記憶装置17及び顔下部面積記憶装置18を有する。   An embodiment of the present invention is shown in the block diagram of FIG. The embodiment of the present invention includes a camera 11, a central processing unit 12, a face image storage device 13, an eye position extraction device 14, a nostril position extraction device 15, a lip position extraction device 16, a face upper area storage device 17, and a lower face area. A storage device 18 is included.

中央処理装置12は、RAM(Random Access Memory)、ROM(Read Only Memory)及びCPUを有する。顔画像記憶装置13は、顔画像を格納する。目位置抽出装置14は、入力した顔画像から目の位置を抽出する。鼻孔位置抽出装置15は、鼻孔の位置を抽出する。唇端位置抽出装置16は、唇両端の位置を抽出する。顔上部面積記憶装置17は、両目と二つの鼻孔を頂点とする四角形領域の面積を格納しておく装置である。顔下部面積記憶装置18は、二つの鼻孔と唇両端点を頂点とする四角形領域の面積を格納しておく装置である。   The central processing unit 12 includes a RAM (Random Access Memory), a ROM (Read Only Memory), and a CPU. The face image storage device 13 stores a face image. The eye position extraction device 14 extracts the eye position from the input face image. The nostril position extraction device 15 extracts the position of the nostril. The lip end position extraction device 16 extracts the positions of both ends of the lips. The upper face area storage device 17 is a device for storing the area of a quadrangular region having both eyes and two nostrils as apexes. The lower face area storage device 18 is a device for storing the area of a quadrangular region having two nostrils and lip end points as apexes.

顔画像記憶装置13、顔上部面積記憶装置17及び顔下部面積記憶装置18は、全てRAM(Random Access Memory)やハードディスクといった情報記憶媒体を有する。そして、顔画像記憶装置13、顔上部面積記憶装置17及び顔下部面積記憶装置18は、中央処理装置12と接続されている。接続方法としては、例えば、LAN(Local Area Network)やRS232Cシリアル通信,バス信号線での接続等が挙げられる。   The face image storage device 13, the face upper area storage device 17, and the face lower area storage device 18 all have information storage media such as a RAM (Random Access Memory) and a hard disk. The face image storage device 13, the upper face area storage device 17 and the lower face area storage device 18 are connected to the central processing device 12. Examples of the connection method include LAN (Local Area Network), RS232C serial communication, connection with a bus signal line, and the like.

顔画像記憶装置13の情報記憶媒体の記憶容量は、カメラ11で得られる画像が格納できる容量とする。また、顔上部面積記憶装置17、顔下部面積記憶装置18の情報記憶媒体の記憶容量は、中央処理装置12で計算された面積値が格納できるだけの容量である。   The storage capacity of the information storage medium of the face image storage device 13 is a capacity that can store an image obtained by the camera 11. Further, the storage capacity of the information storage media of the upper face area storage device 17 and the lower face area storage device 18 is a capacity that can store the area value calculated by the central processing unit 12.

顔画像を装置へ入力するには、図2のようにカメラの前に立ち、画像取得開始スイッチ(図中では、フットスイッチを例として示す。)によって、カメラの画像取得を開始させる。   In order to input a face image to the apparatus, stand in front of the camera as shown in FIG. 2 and start image acquisition of the camera by an image acquisition start switch (a foot switch is shown as an example in the figure).

それにより、図3のような、顔画像が取得される。なお、画像取得開始スイッチ19は、図2に示したように、フットスイッチとしてもよいし、手の操作によるスイッチ、タイマーやセンサーによるスイッチ等の任意のスイッチであってよい。   Thereby, a face image as shown in FIG. 3 is acquired. The image acquisition start switch 19 may be a foot switch as shown in FIG. 2, or may be an arbitrary switch such as a switch by hand operation or a switch by a timer or a sensor.

[実施形態の動作の説明]
図1のブロック図と前処理について示すフローチャートである図4を参照し、実施形態の動作を説明する。
画像取得開始スイッチ19を押下すると(ステップS101)、カメラ11に顔画像取得開始が指示され、カメラ11の撮像素子から顔画像記憶装置13に顔画像データが送信される。そして、顔画像データは、顔画像記憶装置13に保存される(ステップS102)。
[Description of Operation of Embodiment]
The operation of the embodiment will be described with reference to the block diagram of FIG. 1 and FIG. 4 which is a flowchart showing preprocessing.
When the image acquisition start switch 19 is pressed (step S101), the camera 11 is instructed to start face image acquisition, and face image data is transmitted from the image sensor of the camera 11 to the face image storage device 13. The face image data is stored in the face image storage device 13 (step S102).

顔画像記憶装置13に取得された顔画像データに対して、目位置抽出装置14、鼻孔位置抽出装置15、唇端位置抽出装置16が、パターンマッチング法などの物体検出手法によって、それぞれ左の目中心座標(顔画像の左下を原点(0,0)とした座標(Ex1,Ey1))、右の目中心座標(顔画像の左下を原点(0,0)とした座標(Ex2,Ey2))を算出する(ステップS103)。   For the face image data acquired in the face image storage device 13, the eye position extraction device 14, the nostril position extraction device 15, and the lip end position extraction device 16 respectively use the object detection method such as the pattern matching method to detect the left eye. Center coordinates (coordinates (Ex1, Ey1) with the lower left corner of the face image as the origin (0, 0)), center coordinates of the right eye (coordinates (Ex2, Ey2) with the lower left corner of the face image as the origin (0, 0)) Is calculated (step S103).

また、左の鼻孔中心座標(顔画像の左下を原点(0,0)とした座標(Nx1,Ny1))、右の鼻孔中心座標(顔画像の左下を原点(0,0)とした座標(Nx2,Ny2))を算出する(ステップS104)。   Also, the left nostril center coordinates (coordinates (Nx1, Ny1) with the lower left corner of the face image as the origin (0,0)) and the right nostril center coordinates (coordinates with the lower left corner of the face image as the origin (0,0)) ( Nx2, Ny2)) is calculated (step S104).

また、左の唇端座標(顔画像の左下を原点(0,0)とした座標(Mx1,My1))、右の唇端座標(顔画像の左下を原点(0,0)とした座標(Mx2,My2))を算出する(ステップS105)。   Also, the left lip coordinate (coordinate (Mx1, My1) with the lower left of the face image as the origin (0,0)) and the right lip coordinate (coordinate with the lower left of the face image as the origin (0,0) ( Mx2, My2)) is calculated (step S105).

次に、前述の処理で得られた右目中心座標(Ex1,Ey1)、左目中心座標(Ex2,Ey2)、右鼻孔中心座標(Nx1,Ny1)、左鼻孔中心座標(Nx2,Ny2)の4点で囲まれる図5に示した領域A1(顔上部領域)を定義することができる。   Next, four points of right eye center coordinates (Ex1, Ey1), left eye center coordinates (Ex2, Ey2), right nostril center coordinates (Nx1, Ny1), and left nostril center coordinates (Nx2, Ny2) obtained by the above-described processing. The area A1 (upper face area) shown in FIG.

また、左右目中心点(Ex1,Ey1),(Ex2,Ey2)を通る直線L1と、左右鼻孔中心点(Nx1,Ny1),(Nx2,Ny2)を通る直線L2は、両目と両鼻孔の顔の位置関係から平行であると仮定し、以下に記載の数式1で(Ex1,Ey1),(Ex2,Ey2),(Nx1,Ny1),(Nx2,Ny2)の4点を頂点とする四角形の面積S1が算出できる(ステップS106)。   The straight line L1 passing through the left and right eye center points (Ex1, Ey1), (Ex2, Ey2) and the straight line L2 passing through the left and right nostril center points (Nx1, Ny1), (Nx2, Ny2) are the faces of both eyes and both nostrils. As shown in the following mathematical formula 1, a square shape having four points (Ex1, Ey1), (Ex2, Ey2), (Nx1, Ny1), (Nx2, Ny2) as vertices is assumed. The area S1 can be calculated (step S106).

これらの計算は、中央処理装置11が行い、計算結果を顔上部面積記憶装置17に保存する。   These calculations are performed by the central processing unit 11 and the calculation results are stored in the upper face area storage device 17.

Figure 2009244921
前述の処理で得られた右鼻孔中心座標(Nx1,Ny1)、左鼻孔中心座標(Nx2,Ny2)、右唇端座標(Mx1,My1)、左唇端座標(Mx2,My2)の4点で囲まれる図6に示した領域A2(顔下部領域)を定義することができる。また、顔上部領域のときと同様に、左右鼻孔中心点(Nx1,Ny1),(Nx2,Ny2)を通る直線L2と、左右唇端座標(Mx1,My1),(Mx2,My2)を通る直線L3は、左右鼻孔と左右唇端の顔の位置関係から平行であると仮定し、以下に記載の数式2で(Nx1,Ny1),(Nx2,Ny2),(Mx1,My1),(Mx2,My2)の4点を頂点とする四角形の面積S2が算出できる。この計算は、中央処理装置11が行い、計算結果を顔下部面積記憶装置18に保存する(ステップS107)。
Figure 2009244921
Four points of right nostril center coordinates (Nx1, Ny1), left nostril center coordinates (Nx2, Ny2), right lip end coordinates (Mx1, My1), and left lip end coordinates (Mx2, My2) obtained by the above-described processing. An area A2 (lower face area) shown in FIG. 6 can be defined. Similarly to the upper face region, a straight line L2 passing through the left and right nostril center points (Nx1, Ny1), (Nx2, Ny2) and a straight line passing through the left and right lip coordinates (Mx1, My1), (Mx2, My2) L3 is assumed to be parallel based on the positional relationship between the left and right nostrils and the left and right lip edges, and is expressed as (Nx1, Ny1), (Nx2, Ny2), (Mx1, My1), (Mx2, A square area S2 having apexes at four points of My2) can be calculated. This calculation is performed by the central processing unit 11, and the calculation result is stored in the lower face area storage device 18 (step S107).

Figure 2009244921
最後にCPU11は、上記で算出された顔上部面積S1と顔下部面積S2を顔上部面積記憶装置17と顔下部面積記憶装置18から取得し、以下に記載の数式3で、S1とS2の比Hを求め、顔認識のための特徴量として使用する(ステップS108)。顔の向きにより、顔上部面積と顔下部面積の変化は、同じような傾向で変化するため、顔の向きによるHの変化は、小さい。このことから、Hは、顔の向きに影響されにくい特徴量である。
Figure 2009244921
Finally, the CPU 11 obtains the upper face area S1 and the lower face area S2 calculated above from the upper face area storage device 17 and the lower face area storage device 18, and the ratio of S1 and S2 is expressed by the following Equation 3. H is obtained and used as a feature amount for face recognition (step S108). The change in the upper face area and the lower face area changes with the same tendency depending on the orientation of the face, so the change in H due to the orientation of the face is small. Therefore, H is a feature quantity that is not easily affected by the face orientation.

Figure 2009244921
[発明の他の実施形態]
本発明の他の実施形態について説明する。本発明では、左右の目と左右鼻孔、左右鼻孔と左右唇端の面積比を特徴量として算出したが、両眉毛位置と左右の目の位置で構成される四角形の面積を用いてもよい。一般的な人の顔の左右に存在する眉毛、目、耳、鼻、唇などの位置座標を用いて領域を決定し、それぞれの領域の面積比を計算することによって、顔特徴量とすることも可能である。
Figure 2009244921
[Other Embodiments of the Invention]
Another embodiment of the present invention will be described. In the present invention, the area ratio between the left and right eyes and the left and right nostrils, and the left and right nostrils and the left and right lips is calculated as the feature amount. However, a square area formed by the positions of both eyebrows and the left and right eyes may be used. Determine the area using the position coordinates of eyebrows, eyes, ears, nose, lips, etc. that exist on the left and right sides of a typical human face, and calculate the area ratio of each area to make it a facial feature value Is also possible.

なお、これら眉毛、目、耳、鼻、唇等は本発明でいう「特徴となる部分」に相当する。   These eyebrows, eyes, ears, nose, lips and the like correspond to “characteristic portions” in the present invention.

また、上述の実施形態では、2箇所の面積の比を特徴量として算出したが、3箇所以上の面積の比を特徴量として算出してもよい。   In the above-described embodiment, the ratio of the areas at two locations is calculated as the feature amount. However, the ratio of the areas at three or more locations may be calculated as the feature amount.

また、本発明では、座標原点をカメラから取得した顔画像の左下としたが、顔画像上の1点が指定できるならば、どこを原点としてもよい。   In the present invention, the coordinate origin is set to the lower left of the face image acquired from the camera, but any point may be used as long as one point on the face image can be designated.

以上説明した本発明の実施形態は、以下の効果を奏する。   The embodiment of the present invention described above has the following effects.

第1の効果は、顔の異なる領域の比をとることによって、顔の向きによる変化量を減らすことができ、顔の向きに寄らない顔特徴量を算出することができることである。   The first effect is that the amount of change due to the orientation of the face can be reduced by taking the ratio of the different areas of the face, and the facial feature amount that does not depend on the orientation of the face can be calculated.

第2の効果は、台形の面積を求めるだけであるため、少ない計算量で顔特徴量が得られることである。   The second effect is that the facial feature amount can be obtained with a small amount of calculation because only the area of the trapezoid is obtained.

なお、本発明の実施形態である顔画像特徴抽出装置は、ハードウェア、ソフトウェア又はこれらの組合せにより実現することができる。   Note that the face image feature extraction apparatus according to the embodiment of the present invention can be realized by hardware, software, or a combination thereof.

本発明の実施形態の基本的構成を表すブロック図である。It is a block diagram showing the basic composition of the embodiment of the present invention. 本発明の実施形態における顔画像の入力について示した図である。It is the figure shown about the input of the face image in embodiment of this invention. 本発明の実施形態において取得した顔画像について示した図である。It is the figure shown about the face image acquired in embodiment of this invention. 本発明の実施形態の動作について示した図である。It is the figure shown about operation | movement of embodiment of this invention. 顔上部領域A1について示した図である。It is the figure shown about face upper area | region A1. 顔下部領域A2について示した図である。It is the figure shown about the lower face area | region A2.

符号の説明Explanation of symbols

11 カメラ
12 中央処理装置
13 顔画像記憶装置
14 目位置抽出装置
15 鼻孔位置抽出装置
16 唇端位置抽出装置
17 顔上部面積記憶装置
18 顔下部面積記憶装置
DESCRIPTION OF SYMBOLS 11 Camera 12 Central processing unit 13 Face image storage device 14 Eye position extraction device 15 Nostril position extraction device 16 Lip position extraction device 17 Upper face area storage device 18 Lower face area storage device

Claims (15)

顔画像特徴量を抽出する顔画像特徴抽出方法において、
入力された顔画像から特徴となる部分の位置を抽出する位置抽出ステップと、
前記位置抽出ステップにおいて抽出した特徴となる部分に位置座標を割り当て、前記特徴となる部分を頂点としてつなぎ合わせた第1の領域の面積を算出する第1の計算ステップと、
前記特徴となる部分を頂点としてつなぎ合わせた領域であり更に前記第1の領域とは異なる領域である第2の領域の面積を算出する第2の計算ステップと、
前記第1の領域の面積と、前記第2の領域の面積の比を算出し、当該算出により得られた値を顔画像特徴量とする顔画像特徴量算出ステップと、
を備えることを特徴とする顔画像特徴抽出方法。
In the face image feature extraction method for extracting the face image feature amount,
A position extracting step for extracting the position of a characteristic part from the input face image;
A first calculation step of assigning position coordinates to the feature portion extracted in the position extraction step, and calculating an area of a first region obtained by connecting the feature portions as vertices;
A second calculation step of calculating an area of a second region which is a region connected with the characteristic parts as vertices and is different from the first region;
Calculating a ratio between the area of the first region and the area of the second region, and using the value obtained by the calculation as a face image feature amount;
A face image feature extraction method comprising:
請求項1に記載の顔画像特徴抽出方法において、
前記第1の領域の及び前記第2の領域のそれぞれが、4つの前記特徴となる部分を頂点とする四角形領域であることを特徴とする顔画像特徴抽出方法。
The face image feature extraction method according to claim 1,
The face image feature extraction method, wherein each of the first area and the second area is a quadrangular area having apexes of the four characteristic portions.
請求項1又は2に記載の顔画像特徴抽出方法において、
前記特徴となる部分が、顔の左右に対となって存在する部分であることを特徴とする顔画像特徴抽出方法。
In the face image feature extraction method according to claim 1 or 2,
2. The face image feature extraction method according to claim 1, wherein the feature portions are portions that exist in pairs on the left and right sides of the face.
請求項1から3の何れか1項に記載の顔画像特徴抽出方法において、
前記顔画像特徴量を用いて、入力された顔画像と登録されている顔画像の比較を行うことを特徴とする顔画像特徴抽出方法。
In the face image feature extraction method according to any one of claims 1 to 3,
A face image feature extraction method comprising comparing an input face image with a registered face image using the face image feature amount.
請求項1から4の何れか1項に記載の顔画像特徴抽出方法において、
前記第1の領域の頂点が右目の中心、左目の中心、右の鼻孔の中心及び左の鼻孔の中心であり、前記第2の領域の頂点が右の鼻孔の中心、左の鼻孔の中心、右唇端及び左唇端で
あることを特徴とする顔画像特徴抽出方法。
The face image feature extraction method according to any one of claims 1 to 4,
The vertex of the first region is the center of the right eye, the center of the left eye, the center of the right nostril and the center of the left nostril, the vertex of the second region is the center of the right nostril, the center of the left nostril, A face image feature extraction method, characterized by being the right lip end and the left lip end.
顔画像特徴量を抽出する顔画像特徴抽出装置において、
入力された顔画像から特徴となる部分の位置を抽出する位置抽出手段と、
前記位置抽出手段において抽出した特徴となる部分に位置座標を割り当て、前記特徴となる部分を頂点としてつなぎ合わせた第1の領域の面積を算出する第1の計算手段と、
前記特徴となる部分を頂点としてつなぎ合わせた領域であり更に前記第1の領域とは異なる領域である第2の領域の面積を算出する第2の計算手段と、
前記第1の領域の面積と、前記第2の領域の面積の比を算出し、当該算出により得られた値を顔画像特徴量とする顔画像特徴量算出手段と、
を備えることを特徴とする顔画像特徴抽出装置。
In the face image feature extraction device for extracting the face image feature amount,
Position extracting means for extracting the position of a characteristic part from the input face image;
First calculation means for assigning position coordinates to the feature portion extracted by the position extraction means, and calculating an area of a first region obtained by connecting the feature portions as vertices;
A second calculation means for calculating an area of a second region which is a region connected with the characteristic parts as vertices and is different from the first region;
A face image feature amount calculating means for calculating a ratio between the area of the first region and the area of the second region and using the value obtained by the calculation as a face image feature amount;
A face image feature extraction apparatus comprising:
請求項6に記載の顔画像特徴抽出装置において、
前記第1の領域の及び前記第2の領域のそれぞれが、4つの前記特徴となる部分を頂点とする四角形領域であることを特徴とする顔画像特徴抽出装置。
In the face image feature extraction device according to claim 6,
Each of the first area and the second area is a quadrilateral area having apexes of the four characteristic portions.
請求項6又は7に記載の顔画像特徴抽出装置において、
前記特徴となる部分が、顔の左右に対となって存在する部分であることを特徴とする顔画像特徴抽出装置。
In the face image feature extraction device according to claim 6 or 7,
The face image feature extraction apparatus, wherein the feature portions are portions that exist in pairs on the left and right sides of the face.
請求項6から8の何れか1項に記載の顔画像特徴抽出装置において、
前記顔画像特徴量を用いて、入力された顔画像と登録されている顔画像の比較を行うことを特徴とする顔画像特徴抽出装置。
In the face image feature extraction device according to any one of claims 6 to 8,
A face image feature extraction apparatus that compares an input face image with a registered face image by using the face image feature amount.
請求項6から9の何れか1項に記載の顔画像特徴抽出装置において、
前記第1の領域の頂点が右目の中心、左目の中心、右の鼻孔の中心及び左の鼻孔の中心であり、前記第2の領域の頂点が右の鼻孔の中心、左の鼻孔の中心、右唇端及び左唇端で
あることを特徴とする顔画像特徴抽出装置。
In the face image feature extraction device according to any one of claims 6 to 9,
The vertex of the first region is the center of the right eye, the center of the left eye, the center of the right nostril and the center of the left nostril, the vertex of the second region is the center of the right nostril, the center of the left nostril, A face image feature extraction device characterized by the right lip end and the left lip end.
顔画像特徴量を抽出する顔画像特徴抽出装置としてコンピュータを機能させるための顔画像特徴抽出プログラムにおいて、
入力された顔画像から特徴となる部分の位置を抽出する位置抽出手段と、
前記位置抽出手段において抽出した特徴となる部分に位置座標を割り当て、前記特徴となる部分を頂点としてつなぎ合わせた第1の領域の面積を算出する第1の計算手段と、
前記特徴となる部分を頂点としてつなぎ合わせた領域であり更に前記第1の領域とは異なる領域である第2の領域の面積を算出する第2の計算手段と、
前記第1の領域の面積と、前記第2の領域の面積の比を算出し、当該算出により得られた値を顔画像特徴量とする顔画像特徴量算出手段と、
を備えることを特徴とする顔画像特徴抽出装置としてコンピュータを機能させるための顔画像特徴抽出プログラム。
In a face image feature extraction program for causing a computer to function as a face image feature extraction device that extracts a face image feature amount,
Position extracting means for extracting the position of a characteristic part from the input face image;
First calculation means for assigning position coordinates to the feature portion extracted by the position extraction means, and calculating an area of a first region obtained by connecting the feature portions as vertices;
A second calculation means for calculating an area of a second region which is a region connected with the characteristic parts as vertices and is different from the first region;
A face image feature amount calculating means for calculating a ratio between the area of the first region and the area of the second region and using the value obtained by the calculation as a face image feature amount;
A face image feature extraction program for causing a computer to function as a face image feature extraction device.
請求項11に記載の顔画像特徴抽出プログラムにおいて、
前記第1の領域の及び前記第2の領域のそれぞれが、4つの前記特徴となる部分を頂点とする四角形領域であることを特徴とする顔画像特徴抽出プログラム。
In the face image feature extraction program according to claim 11,
A face image feature extraction program characterized in that each of the first region and the second region is a quadrangular region having apexes of the four characteristic portions.
請求項11又は12に記載の顔画像特徴抽出プログラムにおいて、
前記特徴となる部分が、顔の左右に対となって存在する部分であることを特徴とする顔画像特徴抽出プログラム。
In the face image feature extraction program according to claim 11 or 12,
A face image feature extraction program characterized in that the feature portions are portions that exist in pairs on the left and right sides of the face.
請求項11から13の何れか1項に記載の顔画像特徴抽出プログラムにおいて、
前記顔画像特徴量を用いて、入力された顔画像と登録されている顔画像の比較を行うことを特徴とする顔画像特徴抽出プログラム。
In the face image feature extraction program according to any one of claims 11 to 13,
A face image feature extraction program that compares an input face image with a registered face image by using the face image feature amount.
請求項11から14の何れか1項に記載の顔画像特徴抽出プログラムにおいて、
前記第1の領域の頂点が右目の中心、左目の中心、右の鼻孔の中心及び左の鼻孔の中心であり、前記第2の領域の頂点が右の鼻孔の中心、左の鼻孔の中心、右唇端及び左唇端で
あることを特徴とする顔画像特徴抽出プログラム。
In the face image feature extraction program according to any one of claims 11 to 14,
The vertex of the first region is the center of the right eye, the center of the left eye, the center of the right nostril and the center of the left nostril, the vertex of the second region is the center of the right nostril, the center of the left nostril, A face image feature extraction program characterized by a right lip end and a left lip end.
JP2008087119A 2008-03-28 2008-03-28 Facial image feature extraction method, apparatus and program thereof Active JP4725900B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008087119A JP4725900B2 (en) 2008-03-28 2008-03-28 Facial image feature extraction method, apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008087119A JP4725900B2 (en) 2008-03-28 2008-03-28 Facial image feature extraction method, apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP2009244921A true JP2009244921A (en) 2009-10-22
JP4725900B2 JP4725900B2 (en) 2011-07-13

Family

ID=41306774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008087119A Active JP4725900B2 (en) 2008-03-28 2008-03-28 Facial image feature extraction method, apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP4725900B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038551A (en) * 2018-09-05 2020-03-12 株式会社デンソー Face orientation detection device, face orientation detection method, and control program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01314385A (en) * 1988-06-14 1989-12-19 Nec Corp Method and device for detecting face image
JP2005018358A (en) * 2003-06-25 2005-01-20 Nec Soft Ltd Face image registration and extraction system, face image registration and extraction method and computer program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01314385A (en) * 1988-06-14 1989-12-19 Nec Corp Method and device for detecting face image
JP2005018358A (en) * 2003-06-25 2005-01-20 Nec Soft Ltd Face image registration and extraction system, face image registration and extraction method and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020038551A (en) * 2018-09-05 2020-03-12 株式会社デンソー Face orientation detection device, face orientation detection method, and control program

Also Published As

Publication number Publication date
JP4725900B2 (en) 2011-07-13

Similar Documents

Publication Publication Date Title
US9141873B2 (en) Apparatus for measuring three-dimensional position, method thereof, and program
CN107480613B (en) Face recognition method and device, mobile terminal and computer readable storage medium
CN105740778B (en) Improved three-dimensional human face in-vivo detection method and device
US20160117824A1 (en) Posture estimation method and robot
WO2018072483A1 (en) Image segmentation method, image segmentation system and storage medium, and device comprising same
CN106778453B (en) Method and device for detecting glasses wearing in face image
WO2015149712A1 (en) Pointing interaction method, device and system
JP5454737B2 (en) Wrinkle detection device, wrinkle detection method and program
JP2004187298A5 (en)
JP2006260397A (en) Eye opening degree estimating device
JP2014002462A (en) Video processing apparatus, video processing method, and program
KR101236475B1 (en) Apparatus for detecting face and method for estimating distance using the same
TW201605407A (en) Method, apparatus and computer program product for positioning pupil
CN107491744A (en) Human body personal identification method, device, mobile terminal and storage medium
JP2007233871A (en) Image processor, control method for computer, and program
CN102713975B (en) Image clearing system, image method for sorting and computer program
JP2020148625A (en) Image processing device, image processing method, and image processing program
KR101307984B1 (en) Method of robust main body parts estimation using descriptor and machine learning for pose recognition
JP2010113530A (en) Image recognition device and program
JP2015184054A (en) Identification device, method, and program
JP2017054304A (en) Identification apparatus and authentication system
US20150178927A1 (en) Method and system for determining a transformation associated with a capturing device
JP2007188407A (en) Image processing device and image processing program
JP5703068B2 (en) Face detection method, face detection device, and program
JP4725900B2 (en) Facial image feature extraction method, apparatus and program thereof

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100729

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20100729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110315

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110401

R150 Certificate of patent or registration of utility model

Ref document number: 4725900

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140422

Year of fee payment: 3

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350