JP5594015B2 - Image processing program and image processing apparatus - Google Patents

Image processing program and image processing apparatus Download PDF

Info

Publication number
JP5594015B2
JP5594015B2 JP2010210822A JP2010210822A JP5594015B2 JP 5594015 B2 JP5594015 B2 JP 5594015B2 JP 2010210822 A JP2010210822 A JP 2010210822A JP 2010210822 A JP2010210822 A JP 2010210822A JP 5594015 B2 JP5594015 B2 JP 5594015B2
Authority
JP
Japan
Prior art keywords
feature point
candidate
value
image
likelihood
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010210822A
Other languages
Japanese (ja)
Other versions
JP2012068719A (en
Inventor
珊珊 于
哲 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2010210822A priority Critical patent/JP5594015B2/en
Publication of JP2012068719A publication Critical patent/JP2012068719A/en
Application granted granted Critical
Publication of JP5594015B2 publication Critical patent/JP5594015B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本願の開示する技術は、画像処理プログラムおよび画像処理装置に関する。   The technology disclosed in the present application relates to an image processing program and an image processing apparatus.

従来、例えば、顔を撮影した画像内から、目や鼻、口などの顔を構成する部品である、いわゆる顔部品を画像の特徴点として検出する技術がある。   2. Description of the Related Art Conventionally, for example, there is a technique for detecting so-called facial parts, which are parts constituting a face such as eyes, nose, and mouth, from image images of faces as image feature points.

例えば、顔を撮影した画像内から顔部品の可能性がある複数の候補点を抽出し、抽出した複数の候補点の中から、顔部品の位置関係に基づいて顔部品の特徴点を検出する従来技術1がある。また、例えば、顔を撮影した画像内から顔部品の可能性がある複数の候補点を抽出し、抽出した複数の候補点を所定の条件でいくつかに絞込んだ後、絞り込んだ各候補点の中から、顔部品の位置関係に基づいて顔部品の特徴点を検出する従来技術2がある。   For example, a plurality of candidate points that may be facial parts are extracted from an image obtained by photographing a face, and feature points of the facial parts are detected from the extracted candidate points based on the positional relationship of the facial parts. There is Prior Art 1. In addition, for example, after extracting a plurality of candidate points that may be facial parts from an image of a face, the extracted candidate points are narrowed down to some under a predetermined condition, and then each candidate point that has been narrowed down Among them, there is a conventional technique 2 for detecting a feature point of a facial part based on the positional relationship of the facial part.

特開2008−3749号公報JP 2008-3749 A

福井和広 他、「形状抽出とパターン照合の組合せによる顔特徴点抽出」、電子情報通信学会論文誌、Vol.J−80−D−II、No.8、pp.2170−2177、1997年8月Kazuhiro Fukui et al., “Face feature point extraction by combination of shape extraction and pattern matching”, IEICE Transactions, Vol. J-80-D-II, no. 8, pp. 2170-2177, August 1997

しかしながら、上述した従来技術1や従来技術2は、顔を撮影した画像内から、顔部品の特徴点を誤って検出してしまう場合があるという問題がある。以下、顔を撮影した画像内から、顔部品として目の瞳孔および鼻の穴の特徴点を検出する場合を例に挙げ、上述した従来技術1や従来技術2の問題点について図20および図21を用いて説明する。図20および図21は、従来技術の問題点の説明に用いる図である。図20および図21に記述したP1は目の瞳孔に対応する特徴点の候補点を示し、図20および図21に記述したP2は鼻の穴に対応する特徴点の候補点を示す。   However, the above-described prior art 1 and prior art 2 have a problem that a feature point of a facial part may be erroneously detected from an image obtained by photographing a face. Hereinafter, the case of detecting the feature points of the pupil of the eye and the nostril as face parts from the image obtained by photographing the face will be described as an example, and the problems of the prior art 1 and the prior art 2 described above will be described with reference to FIGS. Will be described. 20 and 21 are diagrams used for explaining the problems of the prior art. P1 described in FIGS. 20 and 21 indicates a feature point candidate point corresponding to the pupil of the eye, and P2 described in FIGS. 20 and 21 indicates a feature point candidate point corresponding to the nostril.

上述した従来技術1は、まず、図20のA1に示すように、顔を撮影した画像内から瞳孔の可能性がある複数の候補点P1および鼻の穴の可能性がある複数の候補点P2を抽出する。続いて、従来技術1は、図20のA2に示すように、顔部品としての位置関係に基づいて、複数の候補点P1および複数の候補点P2について位置関係を評価する。そして、従来技術1は、図20のA3に示すように、顔を撮影した画像内から、瞳孔および鼻の穴の特徴点を最終的に検出する。このように、従来技術1は、顔部品の位置関係として尤もらしい候補点であれば、顔部品以外に対応する候補点であっても顔部品の特徴点として検出してしまう。このため、顔部品の特徴点を誤って検出してしまう場合がある。   In the prior art 1 described above, first, as shown by A1 in FIG. 20, a plurality of candidate points P1 that may be a pupil and a plurality of candidate points P2 that may be a nostril from an image obtained by photographing a face. To extract. Subsequently, as shown in A2 of FIG. 20, the related art 1 evaluates the positional relationship for the plurality of candidate points P1 and the plurality of candidate points P2 based on the positional relationship as the face part. And as shown in A3 of FIG. 20, the prior art 1 finally detects the feature point of a pupil and a nostril from the image which image | photographed the face. As described above, in the related art 1, if a candidate point is likely as the positional relationship of the facial part, even a candidate point corresponding to a part other than the facial part is detected as a feature point of the facial part. For this reason, the feature point of the face part may be detected erroneously.

また、上述した従来技術2は、まず、図21のB1に示すように、顔を撮影した画像内から、瞳孔の可能性がある複数の候補点P1および鼻の穴の可能性がある複数の候補点P2を抽出する。続いて、従来技術2は、図21のB2に示すように、顔の画像内から抽出した複数の候補点P1および複数の候補点P2を所定の条件に基づいて絞り込んだ後、顔部品としての位置関係に基づいて、複数の候補点P1および複数の候補点P2の位置関係について評価する。そして、従来技術2は、図21のB3に示すように、顔を撮影した画像内から、瞳孔および鼻の穴の特徴点を最終的に検出する。このように、従来技術2は、顔部品の候補点を絞り込んだ段階で、上述した図21のB2に示すように、顔部品に対応する候補点が欠落してしまう場合がある。このため、顔部品の特徴点を誤って検出してしまう場合がある。   In the related art 2 described above, first, as shown in B1 of FIG. 21, a plurality of candidate points P1 that may be pupils and a plurality of possibilities that are nostrils from the image obtained by photographing the face. Candidate point P2 is extracted. Subsequently, as shown in B2 of FIG. 21, the prior art 2 narrows down the plurality of candidate points P1 and the plurality of candidate points P2 extracted from the face image based on a predetermined condition, and then uses them as face parts. Based on the positional relationship, the positional relationship between the plurality of candidate points P1 and the plurality of candidate points P2 is evaluated. And as shown in B3 of FIG. 21, the prior art 2 finally detects the feature point of a pupil and a nostril from the image which image | photographed the face. As described above, in the prior art 2, when candidate points for facial parts are narrowed down, candidate points corresponding to facial parts may be lost as shown in B2 of FIG. 21 described above. For this reason, the feature point of the face part may be detected erroneously.

開示の技術は、上記に鑑みてなされたものであって、顔を撮影した画像内から、顔部品の特徴点を誤って検出してしまう可能性を低減させることが可能な画像処理プログラムおよび画像処理装置を提供することを目的とする。   The disclosed technology has been made in view of the above, and an image processing program and an image that can reduce the possibility of erroneously detecting a feature point of a facial part from an image obtained by photographing a face An object is to provide a processing apparatus.

本願の開示する画像処理プログラムは、一つの態様において、コンピュータに、顔を撮影した画像内に含まれる顔の特徴点の候補を複数抽出して、該複数抽出した顔の特徴点の候補が該特徴点である尤もらしさを示す尤度値を取得する処理を実行させる。さらに、コンピュータに、候補として抽出された特徴点間の距離を評価するための参照値と尤度値とに基づいて、複数抽出した顔の特徴点の候補間の距離を評価する処理を実行させる。さらに、コンピュータに、顔の特徴点の候補間の距離に関する評価の結果に応じて特徴点を検出する処理を実行させる。   In one aspect, an image processing program disclosed in the present application extracts, to a computer, a plurality of facial feature point candidates included in an image obtained by photographing a face, and the plurality of extracted facial feature point candidates are stored in the computer program. A process of acquiring a likelihood value indicating the likelihood that is a feature point is executed. Further, the computer is caused to execute a process of evaluating the distance between the plurality of extracted facial feature point candidates based on the reference value and the likelihood value for evaluating the distance between the feature points extracted as candidates. . Further, the computer is caused to execute a process of detecting the feature points according to the result of the evaluation relating to the distance between the facial feature point candidates.

本願の開示する技術の一つの態様によれば、顔を撮影した画像内から、顔部品の特徴点を誤って検出してしまう可能性を低減させることができる。   According to one aspect of the technology disclosed in the present application, it is possible to reduce a possibility that a feature point of a face part is erroneously detected from an image obtained by photographing a face.

図1は、実施例1に係る画像処理装置の構成を示す機能ブロック図である。FIG. 1 is a functional block diagram illustrating the configuration of the image processing apparatus according to the first embodiment. 図2は、実施例1に係る距離情報記憶部に記憶される情報の説明に用いる概念図である。FIG. 2 is a conceptual diagram used for explaining the information stored in the distance information storage unit according to the first embodiment. 図3は、実施例1に係る距離情報記憶部に記憶される情報の一例を示す図である。FIG. 3 is a diagram illustrating an example of information stored in the distance information storage unit according to the first embodiment. 図4は、実施例1に係る取得部の説明に用いる図である。FIG. 4 is a diagram used for explaining the acquisition unit according to the first embodiment. 図5は、実施例1に係る取得部の説明に用いる図である。FIG. 5 is a diagram used for explaining the acquisition unit according to the first embodiment. 図6は、実施例1に係る評価部の説明に用いる図である。FIG. 6 is a diagram used for explaining the evaluation unit according to the first embodiment. 図7は、実施例1に係る評価部の説明に用いる図である。FIG. 7 is a diagram used for explaining the evaluation unit according to the first embodiment. 図8は、実施例1に係る評価部の説明に用いる図である。FIG. 8 is a diagram used for explaining the evaluation unit according to the first embodiment. 図9は、実施例1に係る評価部の説明に用いる図である。FIG. 9 is a diagram used for explaining the evaluation unit according to the first embodiment. 図10は、実施例1に係る評価部の説明に用いる図である。FIG. 10 is a diagram used for explaining the evaluation unit according to the first embodiment. 図11は、実施例1に係る評価部の説明に用いる図である。FIG. 11 is a diagram used for explaining the evaluation unit according to the first embodiment. 図12は、実施例1に係る画像処理装置による処理の流れを示す図である。FIG. 12 is a diagram illustrating a process flow of the image processing apparatus according to the first embodiment. 図13は、実施例2に係る画像処理装置の構成を示す機能ブロック図である。FIG. 13 is a functional block diagram illustrating the configuration of the image processing apparatus according to the second embodiment. 図14は、実施例2に係る重要度記憶部に記憶される情報の一例を示す図である。FIG. 14 is a diagram illustrating an example of information stored in the importance storage unit according to the second embodiment. 図15は、実施例2に係る尤度調整部の説明に用いる図である。FIG. 15 is a diagram used for explaining the likelihood adjusting unit according to the second embodiment. 図16は、実施例2に係る画像処理装置による処理の流れを示す図である。FIG. 16 is a diagram illustrating the flow of processing by the image processing apparatus according to the second embodiment. 図17は、実施例2に係る尤度調整処理の流れを示す図である。FIG. 17 is a flowchart illustrating a likelihood adjustment process according to the second embodiment. 図18は、実施例3に係る尤度調整処理の流れを示す図である。FIG. 18 is a flowchart illustrating the likelihood adjustment process according to the third embodiment. 図19は、画像処理プログラムを実行する電子機器の一例を示す図である。FIG. 19 is a diagram illustrating an example of an electronic device that executes an image processing program. 図20は、従来技術の問題点の説明に用いる図である。FIG. 20 is a diagram used for explaining the problems of the prior art. 図21は、従来技術の問題点の説明に用いる図である。FIG. 21 is a diagram used for explaining the problems of the prior art.

以下に、図面を参照しつつ、本願の開示する画像処理プログラムおよび画像処理装置の一実施形態について詳細に説明する。本願の開示する画像処理プログラムおよび画像処理装置の一実施形態として後述する実施例により、本願が開示する技術が限定されるものではない。なお、以下の実施例では、画像中に人の顔が写っている画像のことを顔画像と呼び、顔に含まれる目や鼻を顔部品と呼ぶ。そして、以下の実施例では、顔画像から、例えば、顔画像内に映し出された目の瞳孔および鼻の穴の位置を特徴点として検出する場合の一実施形態について説明する。また、以下の実施例に開示する技術は、処理内容に矛盾を生じさせない範囲で適宜組み合わせることが可能である。   Hereinafter, embodiments of an image processing program and an image processing apparatus disclosed in the present application will be described in detail with reference to the drawings. The technology disclosed in the present application is not limited by the examples described later as an embodiment of the image processing program and the image processing apparatus disclosed in the present application. In the following embodiments, an image in which a human face is reflected in an image is called a face image, and eyes and nose included in the face are called facial parts. In the following examples, an embodiment will be described in which, for example, the positions of the pupils and nostrils of the eyes shown in the face image are detected as feature points from the face image. In addition, the techniques disclosed in the following embodiments can be appropriately combined within a range that does not cause a contradiction in processing contents.

[画像処理装置の構成(実施例1)]
図1は、実施例1に係る画像処理装置の構成を示す機能ブロック図である。なお、図1には、実施例1に係る画像処理装置の機能を説明する上で必要となる機能ブロックを図示する。図1に示すように、実施例1に係る画像処理装置200は、例えば、撮影装置100に接続される。
[Configuration of Image Processing Apparatus (Example 1)]
FIG. 1 is a functional block diagram illustrating the configuration of the image processing apparatus according to the first embodiment. FIG. 1 illustrates functional blocks necessary for explaining the functions of the image processing apparatus according to the first embodiment. As illustrated in FIG. 1, the image processing apparatus 200 according to the first embodiment is connected to, for example, a photographing apparatus 100.

撮影装置100は、例えば、単眼カメラやステレオカメラなどに該当する。撮影装置100は、例えば、顔画像を撮影して取得する。   The imaging device 100 corresponds to, for example, a monocular camera or a stereo camera. The imaging device 100 captures and acquires a face image, for example.

また、図2に示すように、画像処理装置200は、入力部210、記憶部220および制御部230を有する。   As illustrated in FIG. 2, the image processing apparatus 200 includes an input unit 210, a storage unit 220, and a control unit 230.

入力部210は、例えば、カメラインターフェースであり、撮影装置100により取得された顔画像を入力する。入力部210は、撮影装置100から入力した顔画像を画像記憶部221に格納する。   The input unit 210 is a camera interface, for example, and inputs a face image acquired by the photographing apparatus 100. The input unit 210 stores the face image input from the photographing apparatus 100 in the image storage unit 221.

記憶部220は、図1に示すように、画像記憶部221および距離情報記憶部222を有する。なお、記憶部220は、例えば、RAM(Random Access Memory)やフラッシュメモリ(flash memory)などの半導体メモリ素子である。   As illustrated in FIG. 1, the storage unit 220 includes an image storage unit 221 and a distance information storage unit 222. The storage unit 220 is a semiconductor memory element such as a RAM (Random Access Memory) or a flash memory.

画像記憶部221は、例えば、入力部210により入力された顔画像を記憶する。   For example, the image storage unit 221 stores the face image input by the input unit 210.

距離情報記憶部222は、所定の撮影条件で顔画像を撮影した場合に、顔画像内に顔部品の候補として映し出された候補特徴点間の距離を評価するための距離情報、言い換えれば、顔画像内に映し出される顔部品の正しい位置関係の情報を記憶する。以下、図2および図3を用いて、距離情報記憶部222に記憶される距離情報について説明する。図2は、実施例1に係る距離情報記憶部に記憶される情報の説明に用いる概念図である。図3は、実施例1に係る距離情報記憶部に記憶される情報の一例を示す図である。   The distance information storage unit 222 is a distance information for evaluating the distance between candidate feature points displayed as face part candidates in the face image when a face image is shot under a predetermined shooting condition, in other words, the face Information on the correct positional relationship of the facial parts projected in the image is stored. Hereinafter, distance information stored in the distance information storage unit 222 will be described with reference to FIGS. 2 and 3. FIG. 2 is a conceptual diagram used for explaining the information stored in the distance information storage unit according to the first embodiment. FIG. 3 is a diagram illustrating an example of information stored in the distance information storage unit according to the first embodiment.

図2のαは、顔画像内の目の瞳孔と鼻の穴との位置関係を示すモデルである。このモデルαは、図2に示すように、瞳孔のモデルであるE1およびE2、鼻の穴のモデルであるN1およびN2、瞳孔のモデルE1と鼻の穴のモデルN1とを接続するリンク、瞳孔のモデルE2と鼻の穴のモデルN2とを接続するリンクを含む。そして、上述した距離情報を概念的に説明すれば、瞳孔と鼻の穴を接続するリンクの長さ、つまり、図2に示すE1とN1との距離およびE2とN2との距離、言い換えれば、画像上の画素数に応じた距離に相当する。図2に示す例では、E1とN1との距離およびE2とN2との距離がそれぞれ「1.2」となっている。   Α in FIG. 2 is a model showing the positional relationship between the pupil of the eye and the nostril in the face image. As shown in FIG. 2, the model α is composed of pupil models E1 and E2, nostril models N1 and N2, pupil links E1 and nostril model N1, and a pupil. A link connecting the model E2 and the nostril model N2. If the distance information described above is conceptually described, the length of the link connecting the pupil and the nostril, that is, the distance between E1 and N1 and the distance between E2 and N2 shown in FIG. 2, in other words, This corresponds to a distance corresponding to the number of pixels on the image. In the example shown in FIG. 2, the distance between E1 and N1 and the distance between E2 and N2 are “1.2”, respectively.

そこで、距離情報記憶部222は、図3に示すように、上述したモデルαについて、瞳孔のモデルE1と鼻の穴のモデルN1との距離、および瞳孔のモデルE2と鼻の穴のモデルN2との距離である「1.2」を距離情報として記憶する。なお、距離情報記憶部222が記憶しているモデルαについての瞳孔と鼻の穴との距離「1.2」は、瞳孔間の距離、つまりE1とE2との距離を「1」として、E1とN1との距離およびE2とN2との距離を正規化した値である。距離情報記憶部222は、瞳孔と鼻の穴との距離を正規化して持たなくても良く、例えば、瞳孔と鼻の穴との距離として、例えば画素数をそのまま記憶しても良い。   Therefore, the distance information storage unit 222, as shown in FIG. 3, for the above-mentioned model α, the distance between the pupil model E1 and the nostril model N1, and the pupil model E2 and the nostril model N2 Is stored as distance information. It should be noted that the distance “1.2” between the pupil and the nostril for the model α stored in the distance information storage unit 222 is the distance between the pupils, that is, the distance between E1 and E2 is “1”. This is a value obtained by normalizing the distance between N2 and N1 and the distance between E2 and N2. The distance information storage unit 222 may not have the normalized distance between the pupil and the nostril. For example, the distance information storage unit 222 may store the number of pixels as the distance between the pupil and the nostril, for example.

また、実施例1は、顔画像内に映し出された目の瞳孔および鼻の穴の位置を特徴点として検出する場合の一実施形態を説明するものであるので、距離情報記憶部222は、瞳孔と鼻の穴との距離情報を記憶する。しかし、目の瞳孔および鼻の穴以外、顔部品、例えば、口(口角)や耳(耳の穴)なども検出対象とする場合には、検出対象とする顔部品間の距離情報をそれぞれ記憶することとなる。   In addition, since the first embodiment describes an embodiment in which the positions of the pupils and nostrils of the eyes displayed in the face image are detected as feature points, the distance information storage unit 222 includes the pupils. The distance information between the nostril and the nostril is stored. However, when face parts other than the pupils and nostrils of eyes, for example, mouth (mouth corners) and ears (ear holes) are also detected, distance information between the face parts to be detected is stored. Will be.

なお、距離情報記憶部222に記憶される距離情報は、例えば、学習用の複数の顔画像について瞳孔と鼻の穴との距離をそれぞれ算出し、算出した各距離に基づいて平均的な距離を導出することにより得ることができる。上述してきた距離情報は参照値の一例である。   The distance information stored in the distance information storage unit 222 calculates, for example, the distance between the pupil and the nostril for each of a plurality of learning face images, and calculates an average distance based on each calculated distance. It can be obtained by deriving. The distance information described above is an example of a reference value.

図1に戻り、制御部230は、顔検出部231と、取得部232と、評価部233と、検出部234とを有する。なお、制御部230は、例えば、電子回路や集積回路に該当する。電子回路としては、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)がある。また、集積回路としては、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などがある。   Returning to FIG. 1, the control unit 230 includes a face detection unit 231, an acquisition unit 232, an evaluation unit 233, and a detection unit 234. Note that the control unit 230 corresponds to, for example, an electronic circuit or an integrated circuit. Examples of the electronic circuit include a CPU (Central Processing Unit) and an MPU (Micro Processing Unit). Examples of integrated circuits include ASIC (Application Specific Integrated Circuit) and FPGA (Field Programmable Gate Array).

顔検出部231は、入力部210により画像が入力されると、入力された画像を画像記憶部221から取得し、取得した画像内から顔を検出する。例えば、顔検出部231は、エッジ抽出やパターンマッチング、フレーム間差分やニューラルネットワークなどの既存技術を用いて、画像から顔の検出を試みる。   When an image is input from the input unit 210, the face detection unit 231 acquires the input image from the image storage unit 221, and detects a face from the acquired image. For example, the face detection unit 231 attempts to detect a face from an image using existing techniques such as edge extraction, pattern matching, inter-frame difference, and a neural network.

取得部232は、顔検出部231により画像内から顔が検出された場合には、画像内に含まれる瞳孔や鼻の穴の候補を複数抽出して、複数抽出した瞳孔や鼻の穴の候補が瞳孔や鼻の穴である尤もらしさを示す尤度値を取得する。以下、図4および図5を用いて、取得部について説明する。図4および図5は、実施例1に係る取得部の説明に用いる図である。図4および図5に記述するE3およびE4は、画像から瞳孔の候補として抽出される候補特徴点を示す。図4および図5に記述するN3およびN4は、画像から鼻の穴の候補として抽出される候補特徴点を示す。   When the face detection unit 231 detects a face from the image, the acquisition unit 232 extracts a plurality of pupil and nostril candidates included in the image, and extracts a plurality of extracted pupil and nostril candidates. A likelihood value indicating the likelihood that is a pupil or nostril is acquired. Hereinafter, the acquisition unit will be described with reference to FIGS. 4 and 5. 4 and 5 are diagrams used for explaining the acquisition unit according to the first embodiment. E3 and E4 described in FIGS. 4 and 5 indicate candidate feature points extracted from the images as pupil candidates. N3 and N4 described in FIGS. 4 and 5 indicate candidate feature points extracted as nostril candidates from the image.

例えば、取得部232は、分離度フィルタを用いて、図4に示すE3およびE4のように、画像から瞳孔の候補である候補特徴点を複数抽出する。また、取得部232は、分離度フィルタを用いて、例えば、図4に示すN3およびN4のように、画像から鼻の穴の候補である候補特徴点を複数抽出する。なお、取得部232は、分離度フィルタを用いる方法とは異なる方法、例えば、パターンマッチングなどを用いて候補特徴点を抽出してもよい。そして、取得部232は、画像から瞳孔や鼻の穴の候補を抽出する際に得られる分離度フィルタの応答値を尤度値として取得する。   For example, the acquisition unit 232 uses a separability filter to extract a plurality of candidate feature points that are pupil candidates from the image, such as E3 and E4 illustrated in FIG. Also, the acquisition unit 232 extracts a plurality of candidate feature points that are nostril candidates from the image, for example, N3 and N4 illustrated in FIG. Note that the acquisition unit 232 may extract candidate feature points using a method different from the method using the separability filter, such as pattern matching. Then, the acquisition unit 232 acquires the response value of the separability filter obtained when extracting pupil and nose hole candidates from the image as a likelihood value.

そして、取得部232は、内部的に有するRAMなどの記憶部に、画像から取得した候補特徴点に関するデータを格納しておく。例えば、図5に示すように、取得部232は、顔部品の種類ごとに、候補特徴点の識別記号、候補特徴点の画像上の座標および尤度値を対応付けて記憶部に格納する。例えば、図5に示すように、取得部232は、顔部品の種類「瞳孔」について、候補特徴点の識別記号「E3」、候補特徴点の画像上の座標「(X1,Y1)」および尤度値「V1」を対応付けて記憶部に格納する。また、取得部232は、図5に示すように、顔部品の種類「瞳孔」について、候補特徴点の識別記号「E4」、候補特徴点の画像上の座標「(X2,Y2)」および尤度値「V2」を対応付けて記憶部に格納する。また、取得部232は、図5に示すように、顔部品の種類「鼻の穴」について、候補特徴点の識別記号「N3」、候補特徴点の画像上の座標「(X3,Y3)」および尤度値「V3」を対応付けて記憶部に格納する。また、取得部232は、図5に示すように、顔部品の種類「鼻の穴」について、候補特徴点の識別記号「N4」、候補特徴点の画像上の座標「(X4,Y4)」および尤度値「V4」を対応付けて記憶部に格納する。   And the acquisition part 232 stores the data regarding the candidate feature point acquired from the image in memory | storage parts, such as RAM which has internally. For example, as illustrated in FIG. 5, the acquisition unit 232 stores, in the storage unit, the identification mark of the candidate feature point, the coordinates on the image of the candidate feature point, and the likelihood value for each type of face part. For example, as illustrated in FIG. 5, the acquisition unit 232 determines the candidate feature point identification symbol “E3”, the candidate feature point coordinates “(X1, Y1)” and the likelihood for the face part type “pupil”. The degree value “V1” is associated and stored in the storage unit. Further, as illustrated in FIG. 5, the acquisition unit 232 identifies the candidate feature point identification symbol “E4”, the candidate feature point coordinates “(X2, Y2)” and the likelihood for the face part type “pupil”. The degree value “V2” is associated and stored in the storage unit. In addition, as illustrated in FIG. 5, the acquisition unit 232 identifies the candidate feature point identification symbol “N3” and the candidate feature point coordinates “(X3, Y3)” for the face part type “nose hole”. And likelihood value "V3" is matched and stored in a memory | storage part. In addition, as illustrated in FIG. 5, the acquisition unit 232 identifies the candidate feature point identification symbol “N4” and the candidate feature point coordinates “(X4, Y4)” for the face part type “nose hole”. And likelihood value "V4" is matched and stored in a memory | storage part.

図1に戻り、評価部233は、距離情報記憶部222に記憶されている距離情報と取得部232により取得された候補特徴点の尤度値とに基づいて、複数抽出した候補特徴点間の距離を評価する。以下、図6〜図11を用いて、評価部について説明する。図6〜図11は、実施例1に係る評価部の説明に用いる図である。   Returning to FIG. 1, the evaluation unit 233 determines whether the plurality of candidate feature points extracted based on the distance information stored in the distance information storage unit 222 and the likelihood value of the candidate feature points acquired by the acquisition unit 232. Evaluate the distance. Hereinafter, the evaluation unit will be described with reference to FIGS. 6 to 11 are diagrams used for explaining the evaluation unit according to the first embodiment.

図6に示すように、評価部233は、取得部232により複数抽出された候補特徴点の組合せを作成する。例えば、評価部233は、瞳孔の候補として抽出された候補特徴点2つと、鼻の穴の候補として抽出された候補特徴点2つからなる全ての組合せを作成する。なお、評価部233は、距離情報記憶部222に記憶されている距離情報が瞳孔間の距離を基準として正規化されている場合には、組合せを作成する段階で、瞳孔間の距離がこの距離情報と同等にならない組合せは作成しないようにすることができる。こうすれば、後段の処理負荷を軽減できる。   As illustrated in FIG. 6, the evaluation unit 233 creates a combination of candidate feature points extracted by the acquisition unit 232. For example, the evaluation unit 233 creates all combinations of two candidate feature points extracted as pupil candidates and two candidate feature points extracted as nostril candidates. When the distance information stored in the distance information storage unit 222 is normalized with respect to the distance between the pupils, the evaluation unit 233 determines that the distance between the pupils is the distance at the stage of creating the combination. Combinations that are not equivalent to information can be avoided. In this way, it is possible to reduce the subsequent processing load.

続いて、評価部233は、作成した候補特徴点の組合せの中から組合せを1つ取得し、取得した組合せの候補特徴点間の距離を算出する。例えば、評価部233は、候補特徴点の組合せの中から組合せを取得し、取得した瞳孔の候補特徴点と鼻の穴の候補特徴点間の距離をそれぞれ算出する。例えば、図7に示す例では、評価部233は、候補特徴点の組合せβを取得し、瞳孔の候補特徴点E3と鼻の穴の候補特徴点N3との距離「1.5」、瞳孔の候補特徴点E4と鼻の穴の候補特徴点N4との距離「1.0」をそれぞれ算出する。   Subsequently, the evaluation unit 233 acquires one combination from the created combinations of candidate feature points, and calculates a distance between the candidate feature points of the acquired combination. For example, the evaluation unit 233 acquires a combination from the combinations of candidate feature points, and calculates the distance between the acquired candidate feature point of the pupil and the candidate feature point of the nostril. For example, in the example illustrated in FIG. 7, the evaluation unit 233 obtains the combination β of candidate feature points, and determines the distance “1.5” between the candidate feature point E3 of the pupil and the candidate feature point N3 of the nostril, The distance “1.0” between the candidate feature point E4 and the nose hole candidate feature point N4 is calculated.

続いて、評価部233は、距離情報記憶部222に記憶されている距離情報と取得部232により取得された候補特徴点の尤度値とに基づいて、上述した組合せβの候補特徴点間の距離を評価する。まず、評価部233は、距離情報記憶部222から距離情報を取得し、取得部232から組合せβの各候補特徴点の尤度値を取得する。続いて、評価部233は、組合せβの各候補特徴点間の距離と距離情報とを照合して、組合せβの各候補特徴点間の距離と距離情報との差を算出する。例えば、図8に示すように、評価部233は、組合せβの各候補特徴点間の距離と距離情報と照合して、「E3-N3間」の距離と「E1-N1間」の距離の差「0.3」を算出する。また、図8に示すように、評価部233は、「E4-N4間」と「E1-N1間」の距離の差「0.2」を算出する。   Subsequently, the evaluation unit 233 determines between the candidate feature points of the combination β described above based on the distance information stored in the distance information storage unit 222 and the likelihood value of the candidate feature points acquired by the acquisition unit 232. Evaluate the distance. First, the evaluation unit 233 acquires the distance information from the distance information storage unit 222 and acquires the likelihood value of each candidate feature point of the combination β from the acquisition unit 232. Subsequently, the evaluation unit 233 collates the distance between the candidate feature points of the combination β and the distance information, and calculates the difference between the distance between the candidate feature points of the combination β and the distance information. For example, as illustrated in FIG. 8, the evaluation unit 233 compares the distance between the candidate feature points of the combination β and the distance information, and determines the distance between “E3 and N3” and the distance between “E1 and N1”. The difference “0.3” is calculated. Further, as illustrated in FIG. 8, the evaluation unit 233 calculates a difference “0.2” between the distances “between E4 and N4” and “between E1 and N1”.

続いて、評価部233は、組合せβの各候補特徴点の尤度値に応じて、組合せβの各候補特徴点間の距離と距離情報との差を調整する。例えば、評価部233は、組合せβの候補特徴点E3と候補特徴点N3の尤度値の和、および組合せβの候補特徴点E4と候補特徴点N4の尤度値の和をそれぞれ算出する。そして、評価部233は、尤度値の和に対応する係数Cを組合せβの各候補特徴点間の距離と距離情報との差に乗算することにより、各候補特徴点間の距離と距離情報との差を調整する。   Subsequently, the evaluation unit 233 adjusts the difference between the distance between the candidate feature points of the combination β and the distance information according to the likelihood value of each candidate feature point of the combination β. For example, the evaluation unit 233 calculates the sum of the likelihood values of the candidate feature point E3 and the candidate feature point N3 of the combination β, and the sum of the likelihood values of the candidate feature point E4 and the candidate feature point N4 of the combination β. Then, the evaluation unit 233 multiplies the difference between the distance between each candidate feature point of the combination β and the distance information by a coefficient C corresponding to the sum of the likelihood values, so that the distance between the candidate feature points and the distance information. Adjust the difference with.

この係数Cの値は、例えば、図9に示すように、尤度値の和が「0」のときに最大値(MAX)となり、尤度値の和が大きくなるに従って小さくなって、尤度値の和がある値以上で一定の最小値(MIN)となる。この係数Cは、尤度値が高い候補特徴点間の距離については、距離情報記憶部222に記憶されている距離情報との差が小さくなるように調整するものである。つまり、評価部233は、係数Cを用いることにより、顔部品として尤もらしい候補特徴点ほど、顔部品、つまり瞳孔と鼻の穴とが正しい位置関係を有する可能性が高いものとして評価する。   For example, as shown in FIG. 9, the value of the coefficient C becomes a maximum value (MAX) when the sum of likelihood values is “0”, and decreases as the sum of likelihood values increases. The sum of the values is a certain minimum value (MIN) above a certain value. This coefficient C adjusts the distance between candidate feature points having a high likelihood value so that the difference from the distance information stored in the distance information storage unit 222 is small. That is, by using the coefficient C, the evaluation unit 233 evaluates a candidate feature point that is likely to be a facial part as having a high possibility of having a correct positional relationship between the facial part, that is, the pupil and the nostril.

例えば、図10に示す例では、評価部233により、組合せβの各候補特徴点間の距離と距離情報との差を調整した結果、「E3-N3間」の距離と「E1-N1間」の距離の差は「0.1」、「E4-N4間」と「E1-N1間」の距離の差「0.3」となる。続いて、評価部233は各候補特徴点間の距離の差の和を算出する。この距離の差の和が小さいほど、例えば、画像内から抽出した瞳孔の候補点と鼻の穴の候補点の位置関係、例えば図8に示す組合せβが、瞳孔と鼻の穴の正しい位置関係、例えば図8に示すモデルαにより近いことを示す。   For example, in the example illustrated in FIG. 10, the evaluation unit 233 adjusts the difference between the distance between the candidate feature points of the combination β and the distance information, and as a result, the distance between “E3 and N3” and “between E1 and N1”. The distance difference of “0.1” is the distance difference “0.3” between “between E4 and N4” and “between E1 and N1”. Subsequently, the evaluation unit 233 calculates the sum of the distance differences between the candidate feature points. As the sum of the distance differences is smaller, for example, the positional relationship between the candidate point of the pupil extracted from the image and the candidate point of the nostril, for example, the combination β shown in FIG. For example, it shows that it is closer to the model α shown in FIG.

そして、評価部233は、内部的に有するRAMなどの記憶部に、組合せβについての処理結果を格納する。例えば、図11に示すように、評価部233は、候補特徴点の組合せごとに、組合せの識別記号、組合せに含まれる候補特徴点の識別記号、候補特徴点の画像上の座標および候補特徴点間の距離の差の和を対応付けて記憶部に格納する。例えば、図11に示すように、評価部233は、組合せの識別記号「β」に対応付けて、組合せに含まれる候補特徴点の識別記号「E3」と、候補特徴点の画像上の座標「(X1,Y1)」とを記憶部に格納する。同様に、評価部233は、図11に示すように、組合せの識別記号「β」に対応付けて、組合せに含まれる候補特徴点の識別記号「E4」と、候補特徴点の画像上の座標「(X2,Y2)」とを記憶部に格納する。同様に、図11に示すように、評価部233は、組合せの識別記号「β」に対応付けて、組合せに含まれる候補特徴点の識別記号「N3」と、候補特徴点の画像上の座標「(X3,Y3)」とを記憶部に格納する。同様に、図11に示すように、評価部233は、組合せの識別記号「β」に対応付けて、組合せに含まれる候補特徴点の識別記号「N4」と、候補特徴点の画像上の座標「(X4,Y4)」とを記憶部に格納する。また、図11に示すように、評価部233は、組合せの識別記号「β」に対応付けて、候補特徴点間の距離の差の和「0.4」を記憶部に格納する。   Then, the evaluation unit 233 stores the processing result for the combination β in a storage unit such as an internal RAM. For example, as illustrated in FIG. 11, for each combination of candidate feature points, the evaluation unit 233 determines the combination identification symbol, the identification symbol of the candidate feature point included in the combination, the coordinates of the candidate feature point on the image, and the candidate feature point. The sum of the difference in distance between them is associated and stored in the storage unit. For example, as illustrated in FIG. 11, the evaluation unit 233 associates the identification symbol “E3” of the candidate feature point included in the combination with the coordinate “β” on the image of the candidate feature point in association with the identification symbol “β” of the combination. (X1, Y1) "is stored in the storage unit. Similarly, as illustrated in FIG. 11, the evaluation unit 233 associates the identification symbol “E4” of the candidate feature point included in the combination with the identification symbol “β” of the combination and the coordinates on the image of the candidate feature point. “(X2, Y2)” is stored in the storage unit. Similarly, as shown in FIG. 11, the evaluation unit 233 associates the identification symbol “N3” of the candidate feature point included in the combination with the identification symbol “β” of the combination, and the coordinates of the candidate feature point on the image. “(X3, Y3)” is stored in the storage unit. Similarly, as illustrated in FIG. 11, the evaluation unit 233 associates the identification symbol “N4” of the candidate feature point included in the combination with the identification symbol “β” of the combination, and the coordinates of the candidate feature point on the image. “(X4, Y4)” is stored in the storage unit. Further, as illustrated in FIG. 11, the evaluation unit 233 stores the sum “0.4” of the distance difference between the candidate feature points in the storage unit in association with the combination identification symbol “β”.

評価部233は、作成した候補特徴点の組合せの全てについて、上述してきた処理を完了したかどうかを判定し、組合せの全てについて処理を完了していない場合には、残りの組合せの中から組合せを1つ取得し、上述してきた処理を実行する。このように、評価部233が、候補特徴点の組合せの全てについて上述してきた処理を実行し、例えば、図11に示すようなデータを作成することで、候補特徴点の組合せごとに候補特徴点間の距離の差の和および候補特徴点の座標が分かる。   The evaluation unit 233 determines whether or not the processing described above has been completed for all of the combinations of candidate feature points that have been created. If the processing has not been completed for all of the combinations, a combination is selected from the remaining combinations. Is acquired, and the above-described processing is executed. In this way, the evaluation unit 233 performs the above-described processing for all combinations of candidate feature points, and creates, for example, data as shown in FIG. 11, so that candidate feature points for each combination of candidate feature points. The sum of the distance differences between them and the coordinates of the candidate feature points are known.

図1に戻り、検出部234は、評価部233による候補特徴点の組合せについての評価結果に応じて、瞳孔や鼻の穴に対応する特徴点の位置を取得する。例えば、検出部234は、評価部233による評価結果を取得し、候補特徴点間の距離の差の和が最小であるレコードを特定する。そして、候補特徴点間の距離の差の和が最小であるレコードを特定すると、そのレコードの各候補特徴点の座標を取得する。   Returning to FIG. 1, the detection unit 234 acquires the position of the feature point corresponding to the pupil or nostril according to the evaluation result of the combination of the candidate feature points by the evaluation unit 233. For example, the detection unit 234 acquires an evaluation result by the evaluation unit 233, and specifies a record having a minimum sum of distance differences between candidate feature points. When a record having the smallest sum of distance differences between candidate feature points is specified, the coordinates of each candidate feature point of the record are acquired.

なお、図1に示す画像処理装置200が、例えば携帯電話などの携帯端末に実装された場合、検出部234により取得された特徴点の座標値は、例えば角膜反射法などを用いて、携帯電話のユーザの視線を検出する処理に利用される。また、図1に示す画像処理装置200が、例えば車両に搭載されたECU(Electronic Control Unit)などに実装された場合、検出部234により取得された特徴点の座標値は、例えば角膜反射法などを用いて車両の運転者の視線を検出する処理にも利用される。例えば、検出部234により取得された特徴点の座標値を用いて視線を検出する方法を説明すると、まず、検出部234により取得された瞳孔のX,Y座標を利用して瞳孔の中心位置を求める。続いて、求めた瞳孔の中心位置と角膜反射点とを追跡し、角膜の曲率中心と眼球の回転中心との違いに基づき視線を検出する。また、検出部234により取得された画像の特徴点の座標値は、顔画像に基づいて個人を認証する認証処理時に、処理対象領域を画像から切り出す場合に利用される。例えば、瞳孔と鼻の穴を含む処理対象領域を切り出す場合に利用できる。   When the image processing apparatus 200 shown in FIG. 1 is mounted on a mobile terminal such as a mobile phone, for example, the coordinate value of the feature point acquired by the detection unit 234 is, for example, a corneal reflection method. It is used for processing to detect the user's line of sight. Further, when the image processing apparatus 200 shown in FIG. 1 is mounted on, for example, an ECU (Electronic Control Unit) mounted on a vehicle, the coordinate value of the feature point acquired by the detection unit 234 is, for example, a corneal reflection method or the like Is also used for processing for detecting the line of sight of the driver of the vehicle. For example, a method for detecting the line of sight using the coordinate value of the feature point acquired by the detection unit 234 will be described. First, the pupil center position is determined using the X and Y coordinates of the pupil acquired by the detection unit 234. Ask. Subsequently, the obtained center position of the pupil and the corneal reflection point are tracked, and the line of sight is detected based on the difference between the center of curvature of the cornea and the center of rotation of the eyeball. Further, the coordinate values of the feature points of the image acquired by the detection unit 234 are used when a processing target region is cut out from the image during authentication processing for authenticating an individual based on a face image. For example, it can be used when a processing target region including a pupil and a nostril is cut out.

[画像処理装置による処理(実施例1)]
続いて、図12を用いて、実施例1に係る画像処理装置による処理の流れを説明する。図12は、実施例1に係る画像処理装置による処理の流れを示す図である。なお、図12に示す処理は、画像フレームが入力されるたびに実行される。
[Processing by Image Processing Apparatus (Example 1)]
Subsequently, the flow of processing performed by the image processing apparatus according to the first embodiment will be described with reference to FIG. FIG. 12 is a diagram illustrating a process flow of the image processing apparatus according to the first embodiment. The process shown in FIG. 12 is executed every time an image frame is input.

図12に示すように、例えば、制御部230により入力部210による画像の入力が検出されると(ステップS101,YES)、顔検出部231は、入力された画像を画像記憶部221から取得し、取得した画像内から顔を検出する(ステップ102)。なお、入力部210による画像の入力が検出されない場合(ステップS101,NO)、制御部230は、入力部210による画像の入力を繰り返し判定する。   As shown in FIG. 12, for example, when the controller 230 detects an input of an image by the input unit 210 (step S <b> 101, YES), the face detection unit 231 acquires the input image from the image storage unit 221. Then, a face is detected from the acquired image (step 102). In addition, when the input of the image by the input part 210 is not detected (step S101, NO), the control part 230 determines repeatedly the input of the image by the input part 210. FIG.

顔検出部231により画像から顔が検出されなかった場合には(ステップS102,NO)、制御部230は処理を終了し、次の画像の入力を待機する。顔検出部231により画像から顔が検出されると(ステップS102,YES)、取得部232は、画像内に含まれる瞳孔や鼻の穴の候補特徴点を複数抽出する(ステップS103)。なお、取得部232は、ステップS103において、例えば、画像から瞳孔や鼻の穴の候補を抽出する際に得られる分類度フィルタの応答値を尤度値として取得する。   If no face is detected from the image by the face detection unit 231 (step S102, NO), the control unit 230 ends the process and waits for the input of the next image. When the face is detected from the image by the face detection unit 231 (step S102, YES), the acquisition unit 232 extracts a plurality of candidate feature points for pupils and nostrils included in the image (step S103). In step S103, for example, the acquisition unit 232 acquires, as the likelihood value, the response value of the classification filter obtained when extracting candidates for pupils and nostrils from the image.

続いて、評価部233は、取得部232により複数抽出された候補特徴点の組合せを作成し(ステップS104)、作成した候補特徴点の組合せの中から組合せを1つ取得する(ステップS105)。続いて、評価部233は、ステップS105にて取得した組合せの候補特徴点間の距離を算出する(ステップS106)。続いて、評価部233は、距離情報記憶部222に記憶されている距離情報と取得部232により取得された候補特徴点の尤度値とに基づいて、ステップS105にて取得した組合せの候補特徴点間の距離を評価する(ステップS107)。つまり、ステップS107では、尤度値が高い候補特徴点間の距離と、距離情報記憶部222に記憶されている距離情報との差が小さくなるように調整する。そして、評価部233は、評価結果を格納し(ステップS108)、ステップS104にて作成した全組合せについて処理を完了したかどうかを判定する(ステップS109)。   Subsequently, the evaluation unit 233 creates a combination of candidate feature points extracted by the obtaining unit 232 (step S104), and acquires one combination from the created candidate feature point combinations (step S105). Subsequently, the evaluation unit 233 calculates the distance between the candidate feature points of the combination acquired in step S105 (step S106). Subsequently, the evaluation unit 233, based on the distance information stored in the distance information storage unit 222 and the likelihood value of the candidate feature point acquired by the acquisition unit 232, the candidate feature of the combination acquired in step S105. The distance between the points is evaluated (step S107). That is, in step S107, adjustment is performed so that the difference between the distance between candidate feature points having a high likelihood value and the distance information stored in the distance information storage unit 222 is small. And the evaluation part 233 stores an evaluation result (step S108), and determines whether the process was completed about all the combinations created in step S104 (step S109).

判定の結果、処理を完了していない場合には(ステップS109,NO)、評価部233は、上述したステップS105に戻り、ステップS105からステップS109までの処理を実行する。一方、評価部233により、処理が完了しているものと判定された場合には(ステップS109,YES)、検出部234は、評価部233による評価結果に基づいて画像の特徴点を検出する(ステップS110)。言い換えれば、検出部234は、候補特徴点間の距離の差の和が最小である候補特徴点の座標を取得する。   If the result of determination is that processing has not been completed (step S109, NO), the evaluation unit 233 returns to step S105 described above and executes processing from step S105 to step S109. On the other hand, when the evaluation unit 233 determines that the processing has been completed (step S109, YES), the detection unit 234 detects a feature point of the image based on the evaluation result by the evaluation unit 233 ( Step S110). In other words, the detection unit 234 acquires the coordinates of the candidate feature points with the smallest sum of the distance differences between the candidate feature points.

なお、図12に示す例では、ステップS102に示すように、画像から顔を検出する処理を実行したが、顔を撮影した画像のみが入力される場合には、ステップS102の処理を省略することもできる。   In the example illustrated in FIG. 12, the process of detecting a face from an image is performed as illustrated in step S102. However, when only an image obtained by capturing a face is input, the process of step S102 is omitted. You can also.

[実施例1による効果]
上述してきたように、実施例1に係る画像処理装置は、顔画像内に含まれる顔部品の候補特徴点を複数抽出し、顔部品である尤もらしさを示す尤度値を取得する。そして、実施例1に係る画像処理装置は、候補特徴点間の距離を評価するための距離情報と、候補特徴点の尤度値とに基づいて候補特徴点間の距離を評価する。そして、実施例1に係る画像処理装置は、候補特徴点間の距離に関する評価結果に応じて、顔画像に顔部品として含まれる特徴点を検出する。つまり、候補特徴点の尤度値に応じて候補特徴点間の距離を調整し、候補特徴点間の距離と距離情報記憶部222に記憶されている距離情報との差ができるだけ小さい候補特徴点ほど、顔部品の可能性が高い特徴点として検出する。このようなことから、実施例1によれば、顔を撮影した画像内から、顔部品の特徴点を誤って検出してしまう可能性を低減させることができる。
[Effects of Example 1]
As described above, the image processing apparatus according to the first embodiment extracts a plurality of facial feature candidate feature points included in a facial image, and acquires a likelihood value indicating the likelihood of being a facial component. Then, the image processing apparatus according to the first embodiment evaluates the distance between the candidate feature points based on the distance information for evaluating the distance between the candidate feature points and the likelihood value of the candidate feature points. Then, the image processing apparatus according to the first embodiment detects a feature point included as a face part in the face image according to the evaluation result regarding the distance between the candidate feature points. In other words, the distance between the candidate feature points is adjusted according to the likelihood value of the candidate feature points, and the candidate feature points where the difference between the distance between the candidate feature points and the distance information stored in the distance information storage unit 222 is as small as possible The feature point is detected as having a high possibility of a face part. For this reason, according to the first embodiment, it is possible to reduce the possibility that a feature point of a face part is erroneously detected from an image obtained by photographing a face.

上述した実施例1において、例えば、入力される画像の特性に応じた顔部品の種別ごとに重要度を予め設定し、この重要度を用いて候補特徴点の尤度値を調整してもよい。   In the first embodiment described above, for example, the importance may be set in advance for each type of facial part corresponding to the characteristics of the input image, and the likelihood value of the candidate feature point may be adjusted using this importance. .

[画像処理装置の構成(実施例2)]
図13は、実施例2に係る画像処理装置の構成を示す機能ブロック図である。実施例2に係る画像処理装置は、重要度記憶部223および尤度調整部235を有する点が実施例1とは異なる。
[Configuration of Image Processing Apparatus (Example 2)]
FIG. 13 is a functional block diagram illustrating the configuration of the image processing apparatus according to the second embodiment. The image processing apparatus according to the second embodiment is different from the first embodiment in that it includes an importance degree storage unit 223 and a likelihood adjustment unit 235.

重要度記憶部223は、入力される画像の特性に応じた顔部品の種別ごとに予め設定された重要度を記憶する。図14は、実施例2に係る重要度記憶部に記憶される情報の一例を示す図である。図14に示すように、重要度記憶部223は、顔部品の種別ごとに予め設定された重要度を記憶し、例えば、瞳孔に対応する重要度「1.5」および鼻の穴に対応する重要度「0.8」を記憶する。ここで、入力される画像の特性とは、例えば、顔に正対する方向から撮影したり、顔の下側から上側へ向けた方向で撮影したり、顔の上側から下側へ向けた方向で撮影したりなど、どのような撮影方向で撮影された画像であるかを意味する。例えば、顔に正対する方向から撮影した画像では、鼻の穴よりも瞳孔がより鮮明に撮影される可能性が高いので、鼻の穴よりも瞳孔の重要度を高く設定する。あるいは、顔の下側から上側へ向けた方向で撮影した画像では、瞳孔よりも鼻の穴がより鮮明に撮影される可能性が高いので、瞳孔よりも鼻の穴の重要度を高く設定する。   The importance level storage unit 223 stores the importance level set in advance for each type of face part corresponding to the characteristics of the input image. FIG. 14 is a diagram illustrating an example of information stored in the importance storage unit according to the second embodiment. As illustrated in FIG. 14, the importance storage unit 223 stores the importance set in advance for each type of facial part, and for example, corresponds to the importance “1.5” corresponding to the pupil and the nostril. The importance “0.8” is stored. Here, the characteristics of the input image include, for example, shooting from the direction facing the face, shooting from the lower side to the upper side of the face, and direction from the upper side to the lower side of the face. It means what kind of shooting direction, such as shooting, is taken. For example, in an image photographed from the direction facing the face, there is a high possibility that the pupil is photographed more clearly than the nostril. Therefore, the importance of the pupil is set higher than that of the nostril. Alternatively, in an image taken in the direction from the lower side to the upper side of the face, there is a high possibility that the nostril will be taken more clearly than the pupil, so the importance of the nostril is set higher than the pupil .

尤度調整部235は、重要度記憶部223に記憶されている重要度を用いて、取得部232により取得された候補特徴点の尤度値を調整する。図15は、実施例2に係る尤度調整部の説明に用いる図である。例えば、尤度調整部235は、図15に示すように、瞳孔の候補特徴点の尤度値に対して、重要度記憶部223に記憶されている重要度「1.5」を乗算することにより、瞳孔の候補特徴点の尤度値を調整する。また、尤度調整部235は、図15に示すように、鼻の穴の候補特徴点の尤度値に対して、重要度記憶部223に記憶されている重要度「0.8」を乗算することにより、鼻の穴の候補特徴点の尤度値を調整する。   The likelihood adjustment unit 235 adjusts the likelihood value of the candidate feature point acquired by the acquisition unit 232 using the importance stored in the importance storage unit 223. FIG. 15 is a diagram used for explaining the likelihood adjusting unit according to the second embodiment. For example, the likelihood adjustment unit 235 multiplies the likelihood value of the candidate feature point of the pupil by the importance “1.5” stored in the importance storage unit 223, as shown in FIG. Thus, the likelihood value of the candidate feature point of the pupil is adjusted. Further, the likelihood adjustment unit 235 multiplies the likelihood value of the candidate feature point of the nostril by the importance “0.8” stored in the importance storage unit 223, as shown in FIG. By doing so, the likelihood value of the candidate feature point of the nostril is adjusted.

[画像処理装置による処理(実施例2)]
続いて、図16および図17を用いて、実施例2に係る画像処理装置による処理の流れを説明する。図16は、実施例2に係る画像処理装置による処理の流れを示す図である。図17は、実施例2に係る尤度調整処理の流れを示す図である。
[Processing by Image Processing Device (Example 2)]
Subsequently, the flow of processing by the image processing apparatus according to the second embodiment will be described with reference to FIGS. 16 and 17. FIG. 16 is a diagram illustrating the flow of processing by the image processing apparatus according to the second embodiment. FIG. 17 is a flowchart illustrating a likelihood adjustment process according to the second embodiment.

まず、図16を用いて、実施例2に係る画像処理装置による処理の流れを説明する。図16に示すステップS204の処理が、実施例1に係る画像処理装置による処理、つまり、上述した図12に示す処理とは異なる。   First, the flow of processing by the image processing apparatus according to the second embodiment will be described with reference to FIG. The process of step S204 shown in FIG. 16 is different from the process by the image processing apparatus according to the first embodiment, that is, the process shown in FIG.

取得部232により瞳孔や鼻の穴の候補特徴点が複数抽出されると(ステップS203)、尤度調整部235は、重要度記憶部223に記憶されている重要度を用いて、候補特徴点の尤度値を調整する尤度調整処理を実行する(ステップS204)。以下、ステップS205〜ステップS211までの処理は、上述した図12に示すステップS104〜ステップS110までの処理と同様である。   When a plurality of candidate feature points for pupils and nostrils are extracted by the acquisition unit 232 (step S203), the likelihood adjustment unit 235 uses the importance stored in the importance storage unit 223 to select candidate feature points. A likelihood adjustment process for adjusting the likelihood value is executed (step S204). Hereinafter, the processing from step S205 to step S211 is the same as the processing from step S104 to step S110 shown in FIG. 12 described above.

つまり、評価部233は、候補特徴点の組合せを作成し(ステップS205)、組合せを1つ取得する(ステップS206)。続いて、評価部233は、ステップS206にて取得した組合せの候補特徴点間の距離を算出する(ステップS207)。続いて、評価部233は、距離情報記憶部222に記憶された距離情報と上述したステップS204により調整された尤度値とに基づいて、ステップS206にて取得した組合せの候補特徴点間の距離を評価する(ステップS208)。そして、評価部233は、評価結果を格納し(ステップS209)、ステップS205にて作成した全組合せについて処理を完了したかどうかを判定する(ステップS210)。判定の結果、処理を完了していない場合には(ステップS210,NO)、ステップS206に戻り、ステップS206からステップS210までの処理を実行する。一方、処理が完了しているものと判定された場合には(ステップS210,YES)、検出部234は、評価部233による評価結果に基づいて画像の特徴点を検出する(ステップS211)。   That is, the evaluation unit 233 creates a combination of candidate feature points (step S205) and acquires one combination (step S206). Subsequently, the evaluation unit 233 calculates the distance between the candidate feature points of the combination acquired in step S206 (step S207). Subsequently, the evaluation unit 233 determines the distance between the candidate feature points of the combination acquired in step S206 based on the distance information stored in the distance information storage unit 222 and the likelihood value adjusted in step S204 described above. Is evaluated (step S208). And the evaluation part 233 stores an evaluation result (step S209), and determines whether the process was completed about all the combinations created in step S205 (step S210). If the result of determination is that processing has not been completed (step S210, NO), processing returns from step S206 to processing from step S206 to step S210. On the other hand, when it is determined that the processing has been completed (step S210, YES), the detection unit 234 detects a feature point of the image based on the evaluation result by the evaluation unit 233 (step S211).

次に、図17を用いて、実施例2に係る尤度調整処理について説明する。図17に示すように、尤度調整部235は、重要度記憶部223から顔部品ごとの重要度を読み込む(ステップS301)。そして、尤度調整部235は、重要度記憶部223から読み込んだ重要度を用いて、取得部232により取得された各候補特徴点の尤度値をそれぞれ調整する(ステップS302)。   Next, the likelihood adjustment process according to the second embodiment will be described with reference to FIG. As shown in FIG. 17, the likelihood adjustment unit 235 reads the importance for each face part from the importance storage unit 223 (step S301). Then, the likelihood adjustment unit 235 adjusts the likelihood value of each candidate feature point acquired by the acquisition unit 232 using the importance read from the importance storage unit 223 (step S302).

[実施例2による効果]
上述してきたように、実施例2に係る画像処理装置は、顔部品の種別ごとに重要度を予め設定し、この重要度を用いて候補特徴点の尤度値を調整する。そして、実施例2に係る画像処理装置は、例えば、入力される画像が、どのような撮影方向で撮影された画像が入力されたものであるのかに応じて、この重要度を設定する。このようなことから、実施例2によれば、撮影方向の違いにより、画像内により鮮明に映し出される顔部品が異なる点を考慮しつつ候補特徴点の尤度値を調整できる。
[Effects of Example 2]
As described above, the image processing apparatus according to the second embodiment presets the importance for each type of face part, and adjusts the likelihood value of the candidate feature point using this importance. Then, the image processing apparatus according to the second embodiment sets the importance level according to, for example, in what shooting direction the image that has been input is input. For this reason, according to the second embodiment, the likelihood value of the candidate feature point can be adjusted while taking into consideration that the facial parts that are more clearly projected in the image differ depending on the shooting direction.

上述した実施例2では、例えば、入力される画像の特性に応じた顔部品の種別ごとに、候補特徴点の尤度値を調整するための重要度を予め設定する場合を説明した。これに限定されるのではなく、例えば、入力される画像内に含まれる顔部品の状態に応じて、この重要度を動的に調整してもよい。   In the above-described second embodiment, for example, a case has been described in which the importance for adjusting the likelihood value of the candidate feature point is set in advance for each type of face part corresponding to the characteristics of the input image. For example, the importance may be dynamically adjusted according to the state of the facial part included in the input image.

[画像処理装置の構成(実施例3)]
実施例3に係る画像処理装置は、実施例2に係る画像処理装置と基本的に同様の構成を有するが、以下に説明する尤度調整部235の処理機能が異なる。
[Configuration of Image Processing Apparatus (Example 3)]
The image processing apparatus according to the third embodiment has basically the same configuration as the image processing apparatus according to the second embodiment, but the processing function of the likelihood adjusting unit 235 described below is different.

尤度調整部235は、重要度記憶部223に記憶されている顔部品ごとの重要度を初期値として読み込む。続いて、尤度調整部235は、入力した画像から、瞳孔の候補特徴点を含む所定サイズの領域を切り出し、切り出した領域内に含まれる各画素の輝度値を取得する。   The likelihood adjustment unit 235 reads the importance for each face part stored in the importance storage unit 223 as an initial value. Subsequently, the likelihood adjustment unit 235 cuts out a region of a predetermined size including the candidate feature point of the pupil from the input image, and acquires the luminance value of each pixel included in the cut out region.

続いて、尤度調整部235は、取得した各画素の輝度値に基づいて、入力した画像が目を閉じた状態を撮影したものであるか否かを判定する。例えば、尤度調整部235は、輝度値のヒストグラムを作成し、肌色に対応する輝度値がピークの度数を有する場合には、目を閉じた状態であると判定する。   Subsequently, the likelihood adjustment unit 235 determines whether or not the input image is a photograph of a state where the eyes are closed based on the acquired luminance value of each pixel. For example, the likelihood adjustment unit 235 creates a histogram of luminance values, and determines that the eyes are closed when the luminance value corresponding to the skin color has a peak frequency.

尤度調整部235は、判定の結果、入力した画像が目を閉じた状態を撮影したものである場合には、瞳孔の重要度の初期値を低く変更し、この重要度を用いて瞳孔の候補特徴点の尤度値を調整する。一方、尤度調整部235は、判定の結果、入力した画像が目を閉じた状態を撮影したものではない、つまり目を開けた状態を撮影したものである場合には、瞳孔の重要度の初期値を高く変更し、この重要度を用いて瞳孔の候補特徴点の尤度値を調整する。なお、尤度調整部235は、入力した画像が目を開けた状態を撮影したものである場合、重要度記憶部223から初期値として読み込んだ重要度をそのまま用いて、瞳孔の候補特徴点の尤度値を調整してもよい。   As a result of the determination, the likelihood adjustment unit 235 changes the initial value of the importance of the pupil to a low value when the input image is a photographed state in which the eyes are closed. The likelihood value of the candidate feature point is adjusted. On the other hand, the likelihood adjustment unit 235 determines the importance of the pupil when the input image is not obtained by photographing the closed state of the eyes, that is, by photographing the opened state. The initial value is changed to a high value, and the likelihood value of the candidate feature point of the pupil is adjusted using this importance. When the input image is an image of an opened image, the likelihood adjustment unit 235 uses the importance read as the initial value from the importance storage unit 223 as it is, and uses the candidate feature points of the pupil as they are. The likelihood value may be adjusted.

なお、尤度調整部235は、入力した画像内の上瞼と下瞼との間隔の変化により、瞳孔の重要度を動的に調整してもよい。例えば、尤度調整部235は、時系列で入力される数フレームの各画像について、エッジをそれぞれ検出して目の輪郭を抽出する。そして、尤度調整部235は、現入力フレームの方が一つ前のフレームよりも上瞼と下瞼との間隔が狭くなっていれば重要度を低く調整する。なお、目を開けた状態にあるか否かを判定するための値や、上瞼と下瞼との間隔を示す値は特徴量の一例である。   The likelihood adjustment unit 235 may dynamically adjust the importance of the pupil by changing the interval between the upper eyelid and the lower eyelid in the input image. For example, the likelihood adjusting unit 235 detects the edges of each of several frames of images input in time series, and extracts the eye contour. Then, the likelihood adjustment unit 235 adjusts the importance level to be lower if the current input frame is narrower than the previous frame. Note that the value for determining whether or not the eyes are open and the value indicating the interval between the upper eyelid and the lower eyelid are examples of feature amounts.

[画像処理装置による処理(実施例3)]
続いて、図18を用いて、実施例3に係る尤度調整処理の流れを説明する。図18は、実施例3に係る尤度調整処理の流れを示す図である。図18に示すように、尤度調整部235は、重要度記憶部223に記憶されている顔部品ごとの重要度を初期値として読み込む(ステップS401)。続いて、尤度調整部235は、入力した画像から、瞳孔の候補特徴点を含む所定サイズの領域を切り出し、切り出した領域内に含まれる各画素の輝度値を取得する(ステップS402)。続いて、尤度調整部235は、取得した各画素の輝度値に基づいて、入力した画像が目を閉じた状態を撮影したものであるか否かを判定する(ステップS403)。
[Processing by Image Processing Device (Example 3)]
Subsequently, the flow of the likelihood adjustment process according to the third embodiment will be described with reference to FIG. FIG. 18 is a flowchart illustrating the likelihood adjustment process according to the third embodiment. As shown in FIG. 18, the likelihood adjusting unit 235 reads the importance for each face part stored in the importance storage unit 223 as an initial value (step S401). Subsequently, the likelihood adjustment unit 235 cuts out a region of a predetermined size including the candidate feature point of the pupil from the input image, and acquires the luminance value of each pixel included in the cut-out region (step S402). Subsequently, the likelihood adjusting unit 235 determines whether or not the input image is a photograph of a state where the eyes are closed based on the acquired luminance value of each pixel (step S403).

尤度調整部235は、入力した画像が目を閉じた状態を撮影したものと判定した場合には(ステップS403,YES)、次のように処理を行う。すなわち、尤度調整部235は、瞳孔の重要度の初期値を低く調整して、この重要度を用いて瞳孔の候補特徴点の尤度値を調整し(ステップS404)、処理を終了する。一方、尤度調整部235は、入力した画像が目を閉じた状態を撮影したものではないと判定した場合には(ステップS403,NO)、次のように処理を行う。すなわち、尤度調整部235は、瞳孔の重要度の初期値を高く調整して、この重要度を用いて瞳孔の候補特徴点の尤度値を調整し(ステップS405)、処理を終了する。   If the likelihood adjustment unit 235 determines that the input image is taken with the eyes closed (step S403, YES), the likelihood adjustment unit 235 performs the following process. That is, the likelihood adjustment unit 235 adjusts the initial value of the importance of the pupil to a low value, adjusts the likelihood value of the candidate feature point of the pupil using this importance (Step S404), and ends the process. On the other hand, when the likelihood adjustment unit 235 determines that the input image is not a photograph of a state where the eyes are closed (step S403, NO), the likelihood adjustment unit 235 performs the following process. That is, the likelihood adjustment unit 235 adjusts the initial value of the importance of the pupil to a high value, adjusts the likelihood value of the candidate feature point of the pupil using this importance (step S405), and ends the process.

[実施例3による効果]
上述してきたように、実施例3に係る画像処理装置は、入力される画像内に含まれる顔部品の状態に応じて、この重要度を動的に調整する。このようなことから、実施例3によれば、例えば、画像から瞳孔に対応する特徴点を検出しようとしても、目を閉じて上手く検出できない場合など、顔部品が上手く検出できない状況に応じて候補特徴点の尤度値を調整できる。
[Effects of Example 3]
As described above, the image processing apparatus according to the third embodiment dynamically adjusts the importance according to the state of the facial part included in the input image. For this reason, according to the third embodiment, for example, even if an attempt is made to detect a feature point corresponding to a pupil from an image, a candidate cannot be detected depending on a situation in which a facial part cannot be detected well, such as when the eyes are closed and cannot be detected well. The likelihood value of the feature point can be adjusted.

以下、本願の開示する画像処理プログラムおよび画像処理装置の他の実施形態を説明する。   Hereinafter, other embodiments of the image processing program and the image processing apparatus disclosed in the present application will be described.

(1)装置構成等
例えば、図1に示した画像処理装置200の機能ブロックの構成は概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。例えば、図1に示した顔検出部231と取得部232とを機能的または物理的に統合してもよい。同様に、図1に示した評価部233と検出部234とを機能的または物理的に統合してもよい。このように、画像処理装置200の機能ブロックの全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
(1) Device Configuration, etc. For example, the functional block configuration of the image processing apparatus 200 shown in FIG. 1 is conceptual, and does not necessarily need to be physically configured as illustrated. For example, the face detection unit 231 and the acquisition unit 232 illustrated in FIG. 1 may be integrated functionally or physically. Similarly, the evaluation unit 233 and the detection unit 234 illustrated in FIG. 1 may be functionally or physically integrated. As described above, all or a part of the functional blocks of the image processing apparatus 200 can be configured to be functionally or physically distributed / integrated in arbitrary units according to various loads or usage conditions.

(2)画像処理プログラム
また、上述の実施例1〜3にて説明した画像処理装置200により実行される各種の処理は、例えば、車両に搭載されるECU(Electronic Control Unit)に実装されたマイコンなどの電子機器で所定のプログラムを実行することによって実現することもできる。そこで、以下では、図19を用いて、実施例1〜3にて説明した画像処理装置200により実行される処理と同様の機能を実現する画像処理プログラムを実行する電子機器の一例を説明する。図19は、画像処理プログラムを実行する電子機器の一例を示す図である。
(2) Image processing program The various processes executed by the image processing apparatus 200 described in the first to third embodiments are, for example, a microcomputer mounted in an ECU (Electronic Control Unit) mounted on the vehicle. It can also be realized by executing a predetermined program on an electronic device such as the above. In the following, an example of an electronic device that executes an image processing program that realizes the same function as the processing executed by the image processing apparatus 200 described in the first to third embodiments will be described with reference to FIG. FIG. 19 is a diagram illustrating an example of an electronic device that executes an image processing program.

図19に示すように、画像処理装置200により実行される各種処理を実現する電子機器300は、各種演算処理を実行するCPU(Central Processing Unit)310を有する。また、図19に示すように、電子機器300は、カメラ画像を取得するためのカメラインターフェース320、ディスプレイとの間で各種データのやり取りを行うためのディスプレイインターフェース330を有する。また、図19に示すように、電子機器300は、ハードウェアアクセラレータとして機能するグラフィックエンジン340を有する。   As illustrated in FIG. 19, an electronic device 300 that implements various processes executed by the image processing apparatus 200 includes a CPU (Central Processing Unit) 310 that executes various arithmetic processes. As shown in FIG. 19, the electronic device 300 includes a camera interface 320 for acquiring a camera image and a display interface 330 for exchanging various data with the display. Further, as illustrated in FIG. 19, the electronic device 300 includes a graphic engine 340 that functions as a hardware accelerator.

また、図19に示すように、電子機器300は、CPU310により各種処理を実現するためのプログラムやデータ等を記憶するハードディスク装置350と、各種情報を一時記憶するRAM(Random Access Memory)などのメモリ360とを有する。そして、各装置310〜360は、バス370に接続される。   As shown in FIG. 19, the electronic device 300 includes a hard disk device 350 that stores programs and data for realizing various processes by the CPU 310, and a memory such as a RAM (Random Access Memory) that temporarily stores various information. 360. Each device 310 to 360 is connected to a bus 370.

なお、CPU310の代わりに、例えば、MPU(Micro Processing Unit)などの電子回路、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路を用いることもできる。また、メモリ360の代わりに、フラッシュメモリ(flash memory)などの半導体メモリ素子を用いることもできる。   Instead of the CPU 310, for example, an electronic circuit such as an MPU (Micro Processing Unit) or an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array) can be used. Further, instead of the memory 360, a semiconductor memory device such as a flash memory can be used.

ハードディスク装置350には、画像処理装置200の機能と同様の機能を発揮する画像処理プログラム351および画像処理用データ352が記憶されている。なお、この画像処理プログラム351を適宜分散させて、ネットワークを介して通信可能に接続された他のコンピュータの記憶部に記憶させておくこともできる。   The hard disk device 350 stores an image processing program 351 and image processing data 352 that exhibit functions similar to those of the image processing device 200. Note that the image processing program 351 can be appropriately distributed and stored in a storage unit of another computer that is communicably connected via a network.

そして、CPU310が、画像処理プログラム351をハードディスク装置350から読み出してメモリ360に展開することにより、図19に示すように、画像処理プログラム351は画像処理プロセス361として機能する。画像処理プロセス361は、ハードディスク装置350から読み出した画像処理用データ352等の各種データを適宜メモリ360上の自身に割当てられた領域に展開し、この展開した各種データに基づいて各種処理を実行する。   Then, the CPU 310 reads the image processing program 351 from the hard disk device 350 and develops it in the memory 360, whereby the image processing program 351 functions as an image processing process 361 as shown in FIG. The image processing process 361 expands various data such as the image processing data 352 read from the hard disk device 350 in an area allocated to itself on the memory 360 as appropriate, and executes various processes based on the expanded data. .

なお、画像処理プロセス361は、例えば、実施例1〜3で説明した画像処理装置200の制御部230にて実行される処理、例えば、図12,図16〜18に示す処理を含む。   Note that the image processing process 361 includes, for example, processing executed by the control unit 230 of the image processing apparatus 200 described in the first to third embodiments, for example, processing illustrated in FIGS. 12 and 16 to 18.

なお、画像処理プログラム351については、必ずしも最初からハードディスク装置350に記憶させておく必要はない。例えば、電子機器300が実装されたECUへ対応ドライブを接続可能なフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、電子機器300がこれらから各プログラムを読み出して実行するようにしてもよい。   Note that the image processing program 351 is not necessarily stored in the hard disk device 350 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card that can connect a corresponding drive to the ECU on which the electronic device 300 is mounted. Let me. The electronic device 300 may read out and execute each program from these.

さらには、公衆回線、インターネット、LAN、WANなどを介して、電子機器300が実装されたECUに接続される「他のコンピュータ(またはサーバ)」などに各プログラムを記憶させておく。そして、電子機器300がこれらから各プログラムを読み出して実行するようにしてもよい。   Further, each program is stored in “another computer (or server)” connected to the ECU on which the electronic device 300 is mounted via a public line, the Internet, a LAN, a WAN, or the like. The electronic device 300 may read out and execute each program from these.

以上の実施例を含む実施形態に関し、さらに以下の付記を開示する。   The following supplementary notes are further disclosed with respect to the embodiments including the above examples.

(付記1)コンピュータに、
顔を撮影した画像内に含まれる顔の特徴点の候補を複数抽出して、該複数抽出した顔の特徴点の候補それぞれにつき、該特徴点である尤もらしさを示す尤度値を取得し、
前記候補として複数抽出された特徴点間の距離を評価するための参照値とそれぞれの前記特徴点の候補に対応する前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価し、
前記距離を評価した結果に応じて、前記複数抽出した顔の特徴点の候補の中から前記特徴点を検出する
処理を実行させることを特徴とする画像処理プログラム。
(Supplementary note 1)
Extracting a plurality of facial feature point candidates included in the image of the face, and obtaining a likelihood value indicating the likelihood of the feature point for each of the extracted facial feature point candidates;
Based on the reference value for evaluating the distance between feature points extracted as a plurality of candidates and the likelihood value corresponding to each of the feature point candidates, between the feature point candidates of the plurality of extracted face points Evaluate the distance of
An image processing program for executing a process of detecting the feature points from the plurality of extracted facial feature point candidates according to a result of evaluating the distance.

(付記2)前記コンピュータに、
検出対象とする前記特徴点に応じた重要度を用いて前記尤度値を調整する処理をさらに実行させ、
前記参照値と前記調整された前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価することを特徴とする付記1に記載の画像処理プログラム。
(Supplementary note 2)
Further executing a process of adjusting the likelihood value using the importance according to the feature point to be detected;
The image processing program according to appendix 1, wherein a distance between the plurality of extracted facial feature point candidates is evaluated based on the reference value and the adjusted likelihood value.

(付記3)前記入力した画像から得られる特徴量に応じて前記重要度を変更する処理をさらに実行させることを特徴とする付記2に記載の画像処理プログラム。 (Additional remark 3) The image processing program of Additional remark 2 which further performs the process which changes the said importance according to the feature-value obtained from the said input image.

(付記4)前記特徴点を検出する処理は、前記特徴点の候補間の距離に関する評価の結果が最も高い特徴点を検出し、
前記コンピュータに、
検出した前記特徴点の前記画像上の位置を取得し、取得した前記位置を用いて前記画像に撮影されている顔の視線を検出する処理をさらに実行させることを特徴とする付記1に記載の画像処理プログラム。
(Additional remark 4) The process which detects the said feature point detects the feature point with the highest evaluation result regarding the distance between the said feature point candidates,
In the computer,
The processing according to claim 1, further comprising: executing a process of acquiring a position of the detected feature point on the image and detecting a line of sight of the face photographed in the image using the acquired position. Image processing program.

(付記5)顔を撮影した画像内に含まれる顔の特徴点の候補を複数抽出して、該複数抽出した顔の特徴点の候補それぞれにつき、該特徴点である尤もらしさを示す尤度値を取得する取得部と、
前記候補として複数抽出された特徴点間の距離を評価するための参照値とそれぞれの前記特徴点の候補に対応する前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価する評価部と、
前記距離を評価した結果に応じて、前記複数抽出した顔の特徴点の候補の中から前記特徴点を検出する検出部と
を有することを特徴とする画像処理装置。
(Supplementary Note 5) A plurality of facial feature point candidates included in an image obtained by photographing a face, and a likelihood value indicating the likelihood of the feature point for each of the extracted facial feature point candidates An acquisition unit for acquiring
Based on the reference value for evaluating the distance between feature points extracted as a plurality of candidates and the likelihood value corresponding to each of the feature point candidates, between the feature point candidates of the plurality of extracted face points An evaluation unit for evaluating the distance of
An image processing apparatus comprising: a detection unit configured to detect the feature points from the plurality of extracted facial feature point candidates according to the evaluation result of the distance.

(付記6)検出対象とする前記特徴点に応じた重要度を用いて前記尤度値を調整する尤度調整部をさらに有し、
前記参照値と前記調整された前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価することを特徴とする付記5に記載の画像処理装置。
(Additional remark 6) It further has a likelihood adjustment part which adjusts the said likelihood value using the importance according to the said feature point made into a detection target,
6. The image processing apparatus according to appendix 5, wherein a distance between the plurality of extracted facial feature point candidates is evaluated based on the reference value and the adjusted likelihood value.

(付記7)前記入力した画像から得られる特徴量に応じて前記重要度を変更する変更部をさらに有することを特徴とする付記6に記載の画像処理装置。 (Supplementary note 7) The image processing apparatus according to supplementary note 6, further comprising a changing unit that changes the degree of importance according to a feature amount obtained from the input image.

(付記8)前記検出部は、前記特徴点の候補間の距離に関する評価の結果が最も高い特徴点を検出し、
検出した前記特徴点の前記画像上の位置を取得し、取得した前記位置を用いて前記画像に撮影されている顔の視線を検出する視線検出部をさらに有することを特徴とする付記5に記載の画像処理装置。
(Additional remark 8) The said detection part detects the feature point with the highest evaluation result regarding the distance between the candidate of the said feature point,
The supplementary note 5 further comprising: a gaze detection unit that acquires a position of the detected feature point on the image and detects a gaze of the face photographed in the image using the acquired position. Image processing apparatus.

100 撮影装置
200 画像処理装置
210 入力部
220 記憶部
221 画像記憶部
222 距離情報記憶部
223 重要度記憶部
230 制御部
231 顔検出部
232 取得部
233 評価部
234 検出部
235 尤度調整部
300 電子機器
310 CPU
320 カメラインターフェース
330 ディスプレイインターフェース
340 グラフィックエンジン
350 ハードディスク装置
351 画像処理プログラム
352 画像処理用データ
360 メモリ
361 画像処理プロセス
DESCRIPTION OF SYMBOLS 100 Image capturing apparatus 200 Image processing apparatus 210 Input unit 220 Storage unit 221 Image storage unit 222 Distance information storage unit 223 Importance storage unit 230 Control unit 231 Face detection unit 232 Acquisition unit 233 Evaluation unit 234 Detection unit 235 Likelihood adjustment unit 300 Electronic Device 310 CPU
320 Camera Interface 330 Display Interface 340 Graphic Engine 350 Hard Disk Device 351 Image Processing Program 352 Image Processing Data 360 Memory 361 Image Processing Process

Claims (5)

コンピュータに、
顔を撮影した画像内に含まれる顔の特徴点の候補を顔部品グループごとに複数抽出して、該複数抽出した顔の特徴点の候補それぞれにつき、該特徴点である尤もらしさを示す尤度値を取得し、
各前記顔部品グループから1つずつ顔の特徴点の候補を取り出して組合せた候補の組合せの全てについて、顔部品の配置モデルにおける各顔部品間の距離と、前記候補の組合せにおける前記特徴点の候補である各顔部品間の距離との、対応する距離同士の差分をそれぞれ算出し、各前記特徴点の候補に対応する前記尤度値に基づいて各前記差分を調整した調整値を算出し、前記候補の組合せごとに前記調整値を合計し、
全ての前記候補の組合せのうち前記調整値の合計が最小である候補の組合せに含まれる特徴点の候補を前記特徴点として検出する
処理を実行させることを特徴とする画像処理プログラム。
On the computer,
A plurality of facial feature point candidates included in an image obtained by photographing a face are extracted for each face part group , and the likelihood indicating the likelihood of the feature point for each of the extracted facial feature point candidates. Get the value
For all of the candidate combinations obtained by extracting one facial feature point candidate from each of the facial part groups, the distance between the facial parts in the facial part placement model, and the feature point in the candidate combination. A difference between corresponding distances with a distance between each face part that is a candidate is calculated, and an adjustment value is calculated by adjusting each difference based on the likelihood value corresponding to each candidate for the feature point. , Summing the adjustment values for each candidate combination,
An image processing program for executing a process of detecting , as the feature point, a feature point candidate included in a candidate combination having the smallest adjustment value among all the candidate combinations .
前記コンピュータに、
検出対象とする前記特徴点に応じた重要度を用いて前記尤度値を調整する
処理をさらに実行させ、
前記顔部品の配置モデルにおける各顔部品間の距離と前記調整された前記尤度値とに基づいて各前記差分を調整した調整値を算出し、前記候補の組合せごとに前記調整値を合計する
ことを特徴とする請求項1に記載の画像処理プログラム。
In the computer,
And further executing a process of adjusting the likelihood value using importance corresponding to the feature point to be detected,
An adjustment value obtained by adjusting each difference is calculated based on the distance between each face component and the adjusted likelihood value in the face component arrangement model , and the adjustment values are summed for each of the candidate combinations. The image processing program according to claim 1, wherein:
前記画像内から得られる特徴量に応じて前記重要度を変更する
処理をさらに実行させることを特徴とする請求項2に記載の画像処理プログラム。
The image processing program according to claim 2, further comprising executing a process of changing the degree of importance according to a feature amount obtained from the image.
顔を撮影した画像内に含まれる顔の特徴点の候補を顔部品グループごとに複数抽出して、該複数抽出した顔の特徴点の候補それぞれにつき、該特徴点である尤もらしさを示す尤度値を取得する取得部と、
各前記顔部品グループから1つずつ顔の特徴点の候補を取り出して組合せた候補の組合せの全てについて、顔部品の配置モデルにおける各顔部品間の距離と、前記候補の組合せにおける前記特徴点の候補である各顔部品間の距離との、対応する距離同士の差分をそれぞれ算出し、各前記特徴点の候補に対応する前記尤度値に基づいて各前記差分を調整した調整値を算出し、前記候補の組合せごとに前記調整値を合計する評価部と、
全ての前記候補の組合せのうち前記調整値の合計が最小である候補の組合せに含まれる特徴点の候補を前記特徴点として検出する検出部と
を有することを特徴とする画像処理装置。
A plurality of facial feature point candidates included in an image obtained by photographing a face are extracted for each face part group , and the likelihood indicating the likelihood of the feature point for each of the extracted facial feature point candidates. An acquisition unit for acquiring a value;
For all of the candidate combinations obtained by extracting one facial feature point candidate from each of the facial part groups, the distance between the facial parts in the facial part placement model, and the feature point in the candidate combination. A difference between corresponding distances with a distance between each face part that is a candidate is calculated, and an adjustment value is calculated by adjusting each difference based on the likelihood value corresponding to each candidate for the feature point. , An evaluation unit that sums the adjustment values for each candidate combination ;
An image processing apparatus comprising: a detection unit that detects, as the feature points, feature point candidates included in a candidate combination having a minimum adjustment value among all the candidate combinations .
顔を撮影した画像内に含まれる顔部品である顔の特徴点の候補を複数抽出して、該複数抽出した顔の特徴点の候補それぞれにつき、該特徴点である尤もらしさを示す尤度値を取得する取得部と、A plurality of facial feature point candidates that are facial parts included in an image of a face taken, and a likelihood value indicating the likelihood of the feature point for each of the extracted facial feature point candidates An acquisition unit for acquiring
顔部品ごとの重要度を初期値として読み込み、前記画像から瞳孔の候補を含む所定サイズの領域を切り出し、前記領域内に含まれる各画素の輝度値を取得し、取得した各画素の輝度値のヒストグラムを作成し、前記領域に含まれる画素の輝度値のピークが肌色に対応する所定輝度値である場合に瞳孔の重要度を前記初期値から下げた値で瞳孔の候補に対応する前記尤度値を調整する調整部と、Import the importance of each facial part as an initial value, cut out a region of a predetermined size including pupil candidates from the image, acquire the luminance value of each pixel included in the region, and obtain the luminance value of each acquired pixel The likelihood corresponding to the pupil candidate by creating a histogram and reducing the importance of the pupil from the initial value when the peak of the luminance value of the pixel included in the region is a predetermined luminance value corresponding to the skin color An adjustment unit for adjusting the value;
前記候補として複数抽出された特徴点間の距離を評価するための参照値と、それぞれの前記特徴点の候補に対応する、前記調整部により調整された前記尤度値とに基づいて、前記複数抽出した顔の特徴点の候補間の距離を評価する評価部と、Based on the reference value for evaluating the distance between feature points extracted as a plurality of candidates and the likelihood value adjusted by the adjustment unit corresponding to each of the feature point candidates, An evaluation unit that evaluates the distance between the extracted facial feature point candidates;
前記距離を評価した結果に応じて、前記複数抽出した顔の特徴点の候補の中から前記特徴点を検出する検出部とA detection unit for detecting the feature points from the plurality of extracted facial feature point candidates according to the result of evaluating the distance;
を有することを特徴とする画像処理装置。An image processing apparatus comprising:
JP2010210822A 2010-09-21 2010-09-21 Image processing program and image processing apparatus Active JP5594015B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010210822A JP5594015B2 (en) 2010-09-21 2010-09-21 Image processing program and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010210822A JP5594015B2 (en) 2010-09-21 2010-09-21 Image processing program and image processing apparatus

Publications (2)

Publication Number Publication Date
JP2012068719A JP2012068719A (en) 2012-04-05
JP5594015B2 true JP5594015B2 (en) 2014-09-24

Family

ID=46165976

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010210822A Active JP5594015B2 (en) 2010-09-21 2010-09-21 Image processing program and image processing apparatus

Country Status (1)

Country Link
JP (1) JP5594015B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102603425B1 (en) * 2022-06-23 2023-11-20 주식회사 노타 Apparatus and method for determining the head pose of an image using a neural network model

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7204536B2 (en) * 2019-03-05 2023-01-16 株式会社Soken Range image generator
CN111709288B (en) * 2020-05-15 2022-03-01 北京百度网讯科技有限公司 Face key point detection method and device and electronic equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4774818B2 (en) * 2005-06-07 2011-09-14 トヨタ自動車株式会社 Image processing apparatus and image processing method
JP4735361B2 (en) * 2006-03-23 2011-07-27 日産自動車株式会社 Vehicle occupant face orientation detection device and vehicle occupant face orientation detection method
JP4888217B2 (en) * 2007-05-08 2012-02-29 オムロン株式会社 Person attribute estimation device
JP5092663B2 (en) * 2007-10-03 2012-12-05 日産自動車株式会社 Vehicle control device
JP2009211148A (en) * 2008-02-29 2009-09-17 Secom Co Ltd Face image processor

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102603425B1 (en) * 2022-06-23 2023-11-20 주식회사 노타 Apparatus and method for determining the head pose of an image using a neural network model

Also Published As

Publication number Publication date
JP2012068719A (en) 2012-04-05

Similar Documents

Publication Publication Date Title
JP6550094B2 (en) Authentication device and authentication method
US9922238B2 (en) Apparatuses, systems, and methods for confirming identity
JP6630999B2 (en) Image recognition device, image recognition method, and image recognition program
JP4664147B2 (en) Iris authentication device
KR101495430B1 (en) Quality metrics for biometric authentication
JP5010905B2 (en) Face recognition device
KR101356358B1 (en) Computer-implemented method and apparatus for biometric authentication based on images of an eye
KR102290392B1 (en) Method and apparatus for registering face, method and apparatus for recognizing face
JP2020074174A (en) System and method for performing fingerprint-based user authentication using images captured with mobile device
US8891819B2 (en) Line-of-sight detection apparatus and method thereof
US10423848B2 (en) Method, system, and computer-readable recording medium for long-distance person identification
JP2019079546A (en) Image, feature quality, image enhancement, and feature extraction for ocular-vascular and facial recognition, and fusion of ocular-vascular with facial and/or sub-facial information for biometric systems
KR20190001066A (en) Face verifying method and apparatus
CN108280418A (en) The deception recognition methods of face image and device
WO2010129074A1 (en) System and method for identifying a person with reference to a sclera image
JP2002056394A (en) Eye position detecting method and eye position detector
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
CN107844742B (en) Facial image glasses minimizing technology, device and storage medium
JP6956986B1 (en) Judgment method, judgment device, and judgment program
EP2639743A2 (en) Image processing device, image processing program, and image processing method
CN111353404A (en) Face recognition method, device and equipment
JP5648452B2 (en) Image processing program and image processing apparatus
JP5594015B2 (en) Image processing program and image processing apparatus
JP2008090452A (en) Detection device, method and program
EP4343689A1 (en) Body part authentication system and authentication method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130702

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140421

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140708

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140721

R150 Certificate of patent or registration of utility model

Ref document number: 5594015

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150