JP2006038689A - Nose detection apparatus - Google Patents

Nose detection apparatus Download PDF

Info

Publication number
JP2006038689A
JP2006038689A JP2004220269A JP2004220269A JP2006038689A JP 2006038689 A JP2006038689 A JP 2006038689A JP 2004220269 A JP2004220269 A JP 2004220269A JP 2004220269 A JP2004220269 A JP 2004220269A JP 2006038689 A JP2006038689 A JP 2006038689A
Authority
JP
Japan
Prior art keywords
nose
candidate
eye
image
resolution image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004220269A
Other languages
Japanese (ja)
Other versions
JP4543810B2 (en
Inventor
Haruo Matsuo
治夫 松尾
Masayuki Kaneda
雅之 金田
Kinya Iwamoto
欣也 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2004220269A priority Critical patent/JP4543810B2/en
Publication of JP2006038689A publication Critical patent/JP2006038689A/en
Application granted granted Critical
Publication of JP4543810B2 publication Critical patent/JP4543810B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a nose detection apparatus which improves accuracy in detecting a nose. <P>SOLUTION: The nose detection apparatus 1 photographs a face of a driver and performs edge detection for an image of the photographed face in longitudinal and lateral directions in the image. The nose detection apparatus 1 then detects a nose candidate from common points between detected edges in the longitudinal and lateral directions in the image and detects an eye candidate from edges in the lateral direction in the image. The nose detection apparatus 1 then combines the detected nose candidate and eye candidate, selects a combination which is valid as an eye-nose candidate from these combinations, and estimates the coordinates of the nose through statistical processing from the selected eye-nose candidate. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、鼻検出装置に関する。   The present invention relates to a nose detection device.

従来、運転者の顔を撮像して得られた顔画像から、運転者の居眠り、脇見又は漫然運転などを検出する装置が提案されている。これら装置では、主として顔画像から運転者の眼を検出及び追跡することで、居眠り、脇見又は漫然運転などを検出している。   2. Description of the Related Art Conventionally, there has been proposed an apparatus that detects a driver's doze, aside look, or abusive driving from a face image obtained by imaging a driver's face. In these devices, a driver's eyes are mainly detected and tracked from a face image, thereby detecting dozing, looking aside, or abusive driving.

また、眼の検出及び追跡にあたって、これら装置では、運転者の鼻、眉、口又は顔の輪郭などを検出し、これらと眼との相対位置関係から眼を精度良く検出することとしている。すなわち、眼を検出するだけでなく鼻等を検出することにより、両者の位置関係から正しく眼を検出することとしている。   Further, in detecting and tracking the eyes, these devices detect the driver's nose, eyebrows, mouth, or facial contours, etc., and detect the eyes accurately from the relative positional relationship between these and the eyes. That is, not only the eyes but also the nose is detected, so that the eyes are correctly detected from the positional relationship between them.

ここで、眼以外の顔部位を検出する装置としては、例えば、画像の濃淡値を変換した後、浮動2値化して鼻孔を浮き出させることで、鼻孔を検出するものが知られている(特許文献1参照)。また、肌色判定処理で抽出された候補点(顔領域内の黒くて丸い場所)それぞれに対して、顔領域中心から左右に分けて、両瞳の位置関係に対する幾何学配置条件を用いて候補点の組み合わせ(左右で1組)を絞り込み、鼻孔辞書、非鼻孔辞書と類似度計算を行い鼻孔を検出するものが知られている(特許文献2参照)。
特開平8−300978号公報 特開2001−67459号公報
Here, as a device for detecting a facial part other than the eye, for example, a device that detects a nostril by converting a gray value of an image and then floating and binarizing the nostril (patent) Reference 1). In addition, for each candidate point (black and round place in the face area) extracted by the skin color determination process, the candidate point is divided into the left and right from the center of the face area using the geometric arrangement condition for the positional relationship between both pupils. There is known a technique for detecting nostrils by narrowing down a combination of left and right (one set on the left and right) and calculating similarity with a nostril dictionary and a non-nasal nostril dictionary (see Patent Document 2).
JP-A-8-300978 JP 2001-67459 A

しかしながら、従来の鼻を検出する装置では、いずれも黒い丸としての鼻孔を検出することとしているため、片日が差し込むなど、光環境が安定していないと鼻孔が黒い丸として撮影されず、鼻の検出に支障を来してしまう。また、光環境が安定しているとしても、例えば運転者の正面下方に近赤外線照明が設置されている場合、近赤外線が鼻孔に差し込むため、鼻孔が黒い丸として撮影されず、鼻の検出に支障を来してしまう。このように、従来の鼻検出装置では、未だ鼻孔の検出精度に改善の余地があった。   However, all the conventional nose detection devices detect the nostrils as black circles, so if the lighting environment is not stable, such as when one day is plugged in, the nostrils will not be photographed as black circles and the nose It will interfere with the detection. Even if the light environment is stable, for example, if near-infrared illumination is installed below the front of the driver, the near-infrared light is inserted into the nostril, so the nostril is not photographed as a black circle, which is useful for detecting the nose. It will cause trouble. As described above, the conventional nose detection device still has room for improvement in the detection accuracy of the nostrils.

本発明はこのような従来の課題を解決するためになされたものであり、その目的とするところは、鼻の検出精度の向上を図ることが可能な鼻検出装置を提供することにある。   The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a nose detection device capable of improving the detection accuracy of the nose.

本発明の鼻検出装置は、撮影手段と、エッジ検出手段と、鼻候補検出手段と、眼候補検出手段と、眼鼻候補選択手段と、鼻座標推定手段とを備えている。そして、撮影手段は運転者の顔を撮影し、エッジ検出手段は、撮影手段により撮影された顔の画像について、画像縦方向及び横方向にエッジ検出する。また、鼻候補検出手段は、エッジ検出手段により検出された画像縦方向及び横方向のエッジの共通点から鼻の候補を検出し、眼候補検出手段は、エッジ検出手段により検出された画像横方向のエッジから眼の候補を検出する。そして、眼鼻候補選択手段は、鼻候補検出手段及び眼候補検出手段により検出された鼻及び眼の候補を組み合わせ、これら組み合わせから眼鼻の候補として成立するものを選択し、鼻座標推定手段は、眼鼻候補選択手段により選択された眼鼻の候補から、統計的処理によって鼻の座標を推定する。   The nose detection device of the present invention includes an imaging unit, an edge detection unit, a nose candidate detection unit, an eye candidate detection unit, an eye nose candidate selection unit, and a nose coordinate estimation unit. Then, the photographing means photographs the driver's face, and the edge detecting means detects the edge of the face image photographed by the photographing means in the vertical and horizontal directions. The nose candidate detecting means detects a nose candidate from the common point of the vertical and horizontal edges detected by the edge detecting means, and the eye candidate detecting means detects the horizontal direction of the image detected by the edge detecting means. Eye candidates are detected from the edges. The eye / nose candidate selecting means combines the nose and eye candidates detected by the nose candidate detecting means and the eye candidate detecting means, and selects what is established as an eye / nose candidate from these combinations. The nose coordinate estimating means The coordinates of the nose are estimated by statistical processing from the candidates for the eye and nose selected by the eye nose candidate selecting means.

本発明によれば、眼鼻として成立し得るものを眼鼻候補として選択することで、実際の鼻を含んだ眼鼻の候補の数を多くし、そのような眼鼻候補から統計的処理により鼻を検出するため、鼻孔のみを単独で検出する場合に比して精度の向上を図ることができる。従って、鼻の検出精度の向上を図ることができる。   According to the present invention, by selecting what can be established as an ocular nose as an ophthalmic nose candidate, the number of ophthalmic nose candidates including the actual nose is increased, and statistical processing is performed from such ophthalmic nose candidates. Since the nose is detected, the accuracy can be improved as compared with the case where only the nostril is detected alone. Therefore, it is possible to improve the detection accuracy of the nose.

以下、本発明の好適な実施形態を図面に基づいて説明する。なお、各図において、同一又は同様の要素には同一の符号を付して説明を省略する。また、以下においては、本実施形態に係る鼻検出装置を自動車に搭載した例を説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described with reference to the drawings. In the drawings, the same or similar elements are denoted by the same reference numerals, and description thereof is omitted. In the following, an example in which the nose detection device according to the present embodiment is mounted on an automobile will be described.

図1は本実施形態に係る鼻検出装置の構成図である。同図に示すように、鼻検出装置1は、カメラ(撮像手段)10と、画像取得部20と、鼻検出部30とを備えている。   FIG. 1 is a configuration diagram of a nose detection device according to the present embodiment. As shown in the figure, the nose detection device 1 includes a camera (imaging means) 10, an image acquisition unit 20, and a nose detection unit 30.

カメラ10は、運転者の顔を撮影するものである。このカメラ10は、CCD素子やCMOS素子にレンズを組み合わせた構造となっており、運転者の正面のやや下方に設置されている。また、カメラ10の画角は、20度〜40度程度となっており、運転者の顔を画角内に大きく捕らえることができることとなっている。さらに、このカメラ10は、運転者の頭部を含む映像を撮影すると、撮影により得られたビデオ信号Saを画像取得部20に送信する構成となっている。   The camera 10 photographs the driver's face. This camera 10 has a structure in which a lens is combined with a CCD element or a CMOS element, and is installed slightly below the front of the driver. The angle of view of the camera 10 is about 20 to 40 degrees, and the driver's face can be captured within the angle of view. Further, the camera 10 is configured to transmit a video signal Sa obtained by photographing to the image acquisition unit 20 when photographing an image including the driver's head.

画像取得部20は、カメラ10からのビデオ信号Saをディジタルの画像として記憶領域に格納するものである。具体的に画像取得部20は、ビデオ信号Saを、例えば横幅640画素、縦幅480画素、1画素あたり256階調の濃淡データを示すディジタルデータに変換して記憶領域に格納する。ここで、記憶領域に格納したディジタルデータを顔画像データと呼ぶ。また、画像取得部20は、顔画像データを鼻検出部30に送信する構成となっている。   The image acquisition unit 20 stores the video signal Sa from the camera 10 as a digital image in a storage area. Specifically, the image acquisition unit 20 converts the video signal Sa into, for example, digital data indicating grayscale data of 256 gradations per pixel with a horizontal width of 640 pixels and a vertical width of 480 pixels, and stores the digital data. Here, the digital data stored in the storage area is called face image data. The image acquisition unit 20 is configured to transmit face image data to the nose detection unit 30.

鼻検出部30は、画像取得部20からの顔画像データから、画像処理及び画像認識によって、顔画像中のどこに鼻(鼻孔)が存在しているかを検出し、鼻座標データとして出力するものである。   The nose detection unit 30 detects from the face image data from the image acquisition unit 20 where the nose (nasal passage) is present in the face image by image processing and image recognition, and outputs it as nose coordinate data. is there.

図2は、本実施形態における鼻検出装置1の他の例を示す構成図である。同図に示すように、鼻検出装置1は、上記のカメラ10、画像取得部20及び鼻検出部30に加え、さらに近赤外線照明40を備えていてもよい。この近赤外線照明40は、夜間やトンネル内など暗所走行の場合、西日の強い環境下で顔の一部に濃い影を生じる場合、木漏れ日の中やビル影への出入り等により光環境が短時間に変化する場合などにおいて、光環境改善のためのに用いられる。   FIG. 2 is a configuration diagram illustrating another example of the nose detection device 1 according to the present embodiment. As shown in the figure, the nose detection device 1 may further include a near-infrared illumination 40 in addition to the camera 10, the image acquisition unit 20, and the nose detection unit 30. This near-infrared illumination 40 is used in dark places such as at night or in tunnels. When a dark shadow is produced on a part of the face under the strong environment of the western sun, the light environment may be affected by the sunbeams or entering or leaving the building. This is used to improve the light environment when changing in a short time.

また、近赤外線照明40は、運転者の顔全体をまんべんなく照らせるように少なくとも1つ以上配置されている。具体的に図2に示す例において、近赤外線照明40は、カメラ10の両脇にそれぞれ1つずつ設置され、運転者の頭部全体を照らす構成となっている。   Further, at least one near infrared illumination 40 is arranged so that the entire face of the driver can be illuminated evenly. Specifically, in the example illustrated in FIG. 2, the near-infrared illumination 40 is installed on each side of the camera 10 to illuminate the entire driver's head.

次に、鼻検出部30の詳細構成を説明する。図3は、図1に示した鼻検出部30の詳細を示すデータフローダイアグラムである。同図に示すように、鼻検出部30は、前処理部(エッジ検出手段)31、鼻候補検出部(鼻候補検出手段)32、眼候補検出部(眼候補検出手段)33、眼鼻候補選択部(眼鼻候補選択手段)34、及び鼻座標推定部(鼻座標推定手段)35を備えている。   Next, a detailed configuration of the nose detection unit 30 will be described. FIG. 3 is a data flow diagram showing details of the nose detection unit 30 shown in FIG. As shown in the figure, the nose detection unit 30 includes a preprocessing unit (edge detection unit) 31, a nose candidate detection unit (nose candidate detection unit) 32, an eye candidate detection unit (eye candidate detection unit) 33, and an eye nose candidate. A selection unit (eye nose candidate selection unit) 34 and a nose coordinate estimation unit (nose coordinate estimation unit) 35 are provided.

前処理部31は、画像取得部20からの顔画像データを入力して、画像縦方向及び横方向にエッジ検出するものである。また、前処理部31は、予め顔画像データに対して設定された処理領域データを入力し、顔画像のうち処理領域内の画像についてエッジ検出するものである。そして、前処理部31は、検出した縦エッジ及び横エッジのデータを出力する構成となっている。   The pre-processing unit 31 receives face image data from the image acquisition unit 20 and detects edges in the image vertical direction and horizontal direction. The preprocessing unit 31 inputs processing area data set in advance for face image data, and performs edge detection on an image in the processing area of the face image. The preprocessing unit 31 is configured to output data of the detected vertical edge and horizontal edge.

鼻候補検出部32は、前処理部31により検出された縦エッジ及び横エッジのデータから鼻の候補(鼻孔の候補)を検出するものである。ここで、鼻の候補とは鼻であることを要するものではなく、鼻候補検出部32は鼻であると予測されるものを鼻候補として検出する。このため、鼻候補検出部32は、鼻の他に、例えば運転者が眼鏡を掛けている場合にあっては眼鏡の鼻当て部などを検出することとなる。そして、鼻候補検出部32は、検出した鼻候補のデータを出力する構成となっている。   The nose candidate detection unit 32 detects nose candidates (nostril candidates) from the data of the vertical edge and the horizontal edge detected by the preprocessing unit 31. Here, the nose candidate does not need to be a nose, and the nose candidate detection unit 32 detects what is predicted to be a nose as a nose candidate. For this reason, the nose candidate detecting unit 32 detects a nose pad portion of the glasses in addition to the nose, for example, when the driver is wearing glasses. And the nose candidate detection part 32 becomes a structure which outputs the data of the detected nose candidate.

眼候補検出部33は、前処理部31により検出された横エッジから眼の候補を検出するものである。ここで、眼の候補とは眼であることを要するものではなく、眼候補検出部33は、眼であると予測されるもの、例えば眼鏡のフレームや眉などを眼候補として検出することとなる。そして、眼候補検出部33は、検出した眼候補のデータを出力する構成となっている。   The eye candidate detection unit 33 detects eye candidates from the horizontal edges detected by the preprocessing unit 31. Here, the eye candidate does not need to be an eye, and the eye candidate detection unit 33 detects what is predicted to be an eye, for example, a frame of eyeglasses or an eyebrow as an eye candidate. . The eye candidate detection unit 33 is configured to output detected eye candidate data.

眼鼻候補選択部34は、鼻候補検出部32により検出された鼻候補のデータと、眼候補検出部33により検出された眼候補のデータとを入力して、これら候補を組み合わせ、組み合わせのうち眼鼻として成立し得るものを眼鼻の候補として選択するものである。すなわち、眼鼻候補選択部34は、鼻及び眼の候補から組み合わせを作成する第1処理と、組み合わせから眼鼻として成立するものを選択する第2処理とを実行する構成となっている。   The eye / nose candidate selection unit 34 inputs the data of the nose candidate detected by the nose candidate detection unit 32 and the data of the eye candidate detected by the eye candidate detection unit 33, and combines these candidates. A candidate that can be established as an eye-nose is selected as a candidate for the eye-nose. That is, the eye-nose candidate selection unit 34 is configured to execute a first process for creating a combination from the nose and eye candidates and a second process for selecting what is established as an ocular nose from the combination.

具体的に眼鼻候補選択部34は、第1処理として、例えば実際の鼻と眼とからなる組み合わせ、眼鏡フレーム上端と鼻とからなる組み合わせ、眉と眼鏡の鼻当て部とからなる組み合わせ、及び眼鏡フレーム下端と眼鏡の鼻当て部とからなる組み合わせなどを作成する。   Specifically, the eye-nose candidate selecting unit 34 performs, for example, a combination of an actual nose and an eye, a combination of an eyeglass frame upper end and a nose, a combination of an eyebrow and an eyeglass nose pad, Create a combination of the lower end of the spectacle frame and the nose pad of the spectacles.

また、眼鼻候補選択部34は、第2処理として、上記の組み合わせから、所定の条件をもとに、眼鼻の候補として成立するものを選択する。すなわち、眼鼻候補選択部34は、眼は鼻より上にあるなどの条件から眼鼻の候補となり得るものを選択する。これにより、上記の組み合わせのうち、眼と鼻との組み合わせ、眼鏡フレーム上端と鼻との組み合わせ、及び眉と眼鏡の鼻当て部との組み合わせが眼鼻の候補として選択されることとなる。一方、眼鏡フレーム下端と眼鏡の鼻当て部との組み合わせについては、上記条件に適合しないことから眼鼻候補として選択されないこととなる。   In addition, as a second process, the eye / nose candidate selection unit 34 selects a combination that is established as a candidate for the eye / nose from the above combination based on a predetermined condition. That is, the eye / nose candidate selection unit 34 selects a candidate that can be a candidate for the eye / nose based on the condition that the eye is above the nose. Thereby, among the above combinations, the combination of the eye and nose, the combination of the upper end of the spectacle frame and the nose, and the combination of the eyebrow and the nose pad of the spectacles are selected as candidates for the eye nose. On the other hand, the combination of the lower end of the spectacle frame and the nose pad part of the spectacles is not selected as an eye nose candidate because it does not meet the above conditions.

このように、眼鼻候補選択部34は、第2処理において実際の鼻を含まないものを眼鼻候補からできるだけ排除し(上記では眼鏡フレーム下端と眼鏡の鼻当て部との組み合わせを排除し)、実際の鼻を含んだ確率が高いと予測されるものを眼鼻候補として選択する。これにより、眼鼻候補選択部34は、複数の眼鼻候補を選択した場合に、実際の鼻を含んだ眼鼻候補の数が多くなるように処理することとなる。そして、眼鼻候補選択部34は、選択した眼鼻候補のデータを出力する構成となっている。   In this way, the eye / nose candidate selection unit 34 eliminates, as much as possible, the eye nose candidate that does not include the actual nose in the second process (in the above, the combination of the lower end of the spectacle frame and the nose pad part of the spectacles is excluded). A candidate that is predicted to have a high probability of including an actual nose is selected as an eye nose candidate. Thereby, the eye-nose candidate selection unit 34 performs processing so that the number of eye-nose candidates including the actual nose increases when a plurality of eye-nose candidates are selected. The eye / nose candidate selection unit 34 is configured to output data of the selected eye / nose candidate.

鼻座標推定部35は、眼鼻候補選択部34により選択した眼鼻の候補から、統計的処理によって鼻座標を推定するものである。ここで、統計的処理とは、眼鼻候補を数量的に把握し、その結果から鼻座標を推定する処理をいう。   The nose coordinate estimation unit 35 estimates the nose coordinates by statistical processing from the eye nose candidates selected by the eye nose candidate selection unit 34. Here, the statistical process refers to a process of quantitatively grasping the eye nose candidates and estimating the nose coordinates from the result.

具体的に統計的処理について説明する。例えば、眼と鼻との組み合わせ、眼鏡フレーム上端と鼻との組み合わせ、及び眉と眼鏡の鼻当て部との組み合わせが眼鼻候補として選択されているとする。この場合、統計的には眼鏡の鼻当て部に関して1つの眼鼻候補が存在し、鼻に関して2つの眼鼻候補が存在することとなる。よって、統計的処理により数が多い方を鼻として特定することなどにより、高確立に鼻を特定でき、鼻座標を推定することができる。特に、上記したように、眼は鼻より上にあるなどの条件から眼鼻候補を選択しているため(第2処理を経ているため)、眼鼻候補を選択した時点において、これら眼鼻候補は実際の鼻を含んだものの数が多くなっており、統計的処理により効果的に鼻を特定できることとなる。   The statistical process will be specifically described. For example, it is assumed that a combination of an eye and a nose, a combination of an upper end of a spectacle frame and a nose, and a combination of an eyebrow and a nose pad of a spectacle are selected as eye nose candidates. In this case, statistically, there is one ocular nose candidate for the nose pad of the glasses, and there are two ocular nose candidates for the nose. Therefore, the nose can be specified with high probability by specifying the larger number as the nose by statistical processing, and the nose coordinates can be estimated. In particular, as described above, since the eye-nose candidate is selected from the condition that the eye is above the nose (due to the second process), these eye-nose candidates are selected when the eye-nose candidate is selected. The number of things that include the actual nose has increased, and the nose can be identified effectively by statistical processing.

さらに、眼鼻候補は実際の鼻を含んだものの数が多くなりやすい傾向にあることから、統計的処理として平均化処理を行い、眼鼻候補の鼻部位の座標値を平均化して鼻座標を推定するようにしても、実際の鼻に近い値を得られやすいこととなる。   Furthermore, since the number of ophthalmic nose candidates that include actual noses tends to increase, an averaging process is performed as a statistical process, and the nose coordinates are averaged by averaging the coordinate values of the nose parts of the ocular nose candidates. Even if it is estimated, a value close to the actual nose can be easily obtained.

そして、鼻座標推定部35は、上記の如くにして得られた鼻座標を鼻座標データとして出力する構成となっている。また、鼻座標推定部35は、平均鼻データについても出力する構成となっている。ここで、平均鼻データとは、過去に推定された鼻座標の平均値データである。本実施形態では、後述するように現在の顔画像から鼻座標を推定するにあたり、平均鼻データを用いることで、一層好適に鼻座標を推定することとしている。   The nose coordinate estimation unit 35 is configured to output the nose coordinates obtained as described above as nose coordinate data. In addition, the nose coordinate estimation unit 35 is configured to output average nose data. Here, the average nose data is average value data of nose coordinates estimated in the past. In the present embodiment, as will be described later, when estimating the nose coordinates from the current face image, the nose coordinates are more preferably estimated by using the average nose data.

図4は、図3に示した前処理部31の詳細を示すデータフローダイヤグラムである。同図に示すように、前処理部31は、低解像度画像生成部(低解像度画像生成手段)31a、横エッジ検出部(横エッジ検出手段)31b、及び縦エッジ検出部(縦エッジ検出手段)31cを備えている。   FIG. 4 is a data flow diagram showing details of the preprocessing unit 31 shown in FIG. As shown in the figure, the preprocessing unit 31 includes a low resolution image generation unit (low resolution image generation unit) 31a, a horizontal edge detection unit (horizontal edge detection unit) 31b, and a vertical edge detection unit (vertical edge detection unit). 31c.

低解像度画像生成部31aは、低解像度画像を生成するものである。ここで、低解像度画像とは、カメラ10により撮影された顔画像の解像度を低下させたものである。また、低解像度画像生成部31aは、処理領域データを入力して、予め設定される顔画像の所定領域についてのみ低解像度画像を生成する構成となっている。そして、低解像度画像生成部31aは、生成した低解像度画像のデータを出力する構成となっている。   The low resolution image generation unit 31a generates a low resolution image. Here, the low resolution image is obtained by reducing the resolution of the face image taken by the camera 10. Further, the low resolution image generation unit 31a is configured to input the processing area data and generate a low resolution image only for a predetermined area of the face image set in advance. The low resolution image generation unit 31a is configured to output data of the generated low resolution image.

横エッジ検出部31bは、低解像度画像生成部31aにより生成された低解像度画像を対象に、画像縦方向にエッジ検出するものである。また、縦エッジ検出部31cは、低解像度画像生成部31aにより生成された低解像度画像を対象に、画像横方向にエッジ検出するものである。このように、これら検出部31b、31cが低解像度画像を対象にエッジ処理するため、処理速度の向上が図られている。また、これら検出部31b、31cは、それぞれ画像縦方向又は横方向にエッジ検出して得られた横エッジデータ又は縦エッジデータを出力する構成となっている。   The horizontal edge detector 31b detects an edge in the image vertical direction for the low resolution image generated by the low resolution image generator 31a. Further, the vertical edge detection unit 31c detects an edge in the horizontal direction of the image with respect to the low resolution image generated by the low resolution image generation unit 31a. As described above, since the detection units 31b and 31c perform edge processing on the low resolution image, the processing speed is improved. The detection units 31b and 31c are configured to output horizontal edge data or vertical edge data obtained by edge detection in the image vertical direction or horizontal direction, respectively.

図5は、図3に示した鼻候補検出部32の詳細を示すデータフローダイヤグラムである。同図に示すように、鼻候補検出部32は、共通点抽出部32aと、鼻候補選択部32bとを備えている。   FIG. 5 is a data flow diagram showing details of the nose candidate detection unit 32 shown in FIG. As shown in the figure, the nose candidate detection unit 32 includes a common point extraction unit 32a and a nose candidate selection unit 32b.

共通点抽出部32aは、縦エッジデータ及び横エッジデータを入力し、画像縦方向及び横方向のエッジの共通点を抽出するものである。また、鼻候補選択部32bは、共通点抽出部32aにより抽出された共通点を組み合わせ、鼻孔として成立し得るものを選択するものである。すなわち、鼻候補検出部32は、共通点抽出部32aにより画像縦方向及び横方向のエッジの共通点を抽出し、鼻候補選択部32bにより共通点を組み合わせ、組み合わせのうち鼻として成立し得るものを選択する構成となっている。   The common point extraction unit 32a inputs vertical edge data and horizontal edge data, and extracts common points of edges in the vertical and horizontal directions of the image. Moreover, the nose candidate selection part 32b combines the common points extracted by the common point extraction part 32a, and selects what can be established as a nostril. In other words, the nose candidate detection unit 32 can extract the common point of the image vertical and horizontal edges by the common point extraction unit 32a, combine the common points by the nose candidate selection unit 32b, and can be established as a nose among the combinations. Is selected.

ここで、鼻候補検出部32は、鼻孔の候補を検出するために、エッジの共通点を求めているが、これは、以下の理由による。すなわち、眼は横長の形状であるため、画像縦方向ラインにエッジ検出して横エッジデータを得るのみで検出可能である。ところが、鼻孔は通常丸として存在し、横に長いなどの特徴を有していない。このため、眼と同様に処理をしたのでは、鼻の候補を検出できなくなってしまう。そこで、鼻候補検出部32は、画像縦方向及び横方向の双方のエッジデータを入力し、共通点抽出部32aにより共通点を抽出することとしている。   Here, the nose candidate detection unit 32 obtains the common point of the edge in order to detect the nostril candidate. This is due to the following reason. That is, since the eye has a horizontally long shape, it can be detected simply by obtaining edge data in the image vertical direction line and obtaining horizontal edge data. However, the nostril usually exists as a circle and does not have features such as a long side. For this reason, if processing is performed in the same manner as for eyes, nose candidates cannot be detected. Therefore, the nose candidate detection unit 32 inputs both edge data in the vertical and horizontal directions of the image, and extracts common points by the common point extraction unit 32a.

また、鼻候補検出部32は、鼻孔の候補を検出するために、共通点の組み合わせのうち鼻として成立し得るものを鼻候補選択部32bにより選択しているが、これは以下の理由による。すなわち、一般的に鼻は2つの鼻孔が適度な距離で隣接している。このため、この条件などから鼻として成立し得るものを検出することで、鼻としてあり得ないものを除外することとしている。   In addition, the nose candidate detection unit 32 selects a combination of common points that can be established as a nose by the nose candidate selection unit 32b in order to detect nostril candidates, for the following reason. That is, generally, the nose has two nostrils adjacent to each other at an appropriate distance. For this reason, by detecting what can be established as a nose from this condition or the like, those which are not possible as noses are excluded.

以上が、本実施形態に係る鼻検出装置1の構成である。次に、本実施形態に係る鼻検出装置1の動作を説明する。まず、図1及び図2に示すように、本装置1では、カメラ10が運転者の顔を撮影し、ビデオ信号Saを画像取得部20に送信する。そして、画像取得部20は、ビデオ信号Saをディジタルの画像として記憶領域に格納する。次いで、画像取得部20は、顔画像データを鼻検出部30に送信する。   The above is the configuration of the nose detection device 1 according to the present embodiment. Next, operation | movement of the nose detection apparatus 1 which concerns on this embodiment is demonstrated. First, as shown in FIGS. 1 and 2, in the present apparatus 1, the camera 10 captures the driver's face and transmits a video signal Sa to the image acquisition unit 20. The image acquisition unit 20 stores the video signal Sa in the storage area as a digital image. Next, the image acquisition unit 20 transmits the face image data to the nose detection unit 30.

そして、図3及び図4に示すように、顔画像データは前処理部31の低解像度画像生成部31aに入力される。次いで、低解像度画像生成部31aは、顔画像データから低解像度画像を生成する。ここで、顔画像データは、横640×縦480画素(1画素あたり256階調)で一般的にVGAとよばれるサイズの高解像度の画像データであって、低解像度画像生成部31aは、この顔画像データから図6に示す低解像度画像を生成する。   Then, as shown in FIGS. 3 and 4, the face image data is input to the low resolution image generation unit 31 a of the preprocessing unit 31. Next, the low resolution image generation unit 31a generates a low resolution image from the face image data. Here, the face image data is high-resolution image data having a size of 640 × 480 pixels (256 gradations per pixel) and a size generally called VGA, and the low-resolution image generation unit 31 a A low resolution image shown in FIG. 6 is generated from the face image data.

図6は、低解像度画像の例を示す説明図であって、(a)は低解像度画像の一例を示し、(b)は低解像度画像の他の例を示している。まず、図6(a)に示す低解像度画像は、画素を間引くことによって生成するのではなく、該当する顔画像の画素について平均値を求め、この平均値を低解像度画像の画素の濃淡値とすることによって生成される。すなわち、低解像度画像生成部31aは、低解像度画像を生成するにあたり、低解像度画像のそれぞれの画素と対応する顔画像の複数の画素について濃淡値の平均を求め、この平均値を低解像度画像の画素の濃淡値とする。   FIG. 6 is an explanatory diagram showing an example of a low resolution image, where (a) shows an example of a low resolution image and (b) shows another example of a low resolution image. First, the low-resolution image shown in FIG. 6A is not generated by thinning out pixels, but an average value is obtained for the pixels of the corresponding face image, and this average value is used as the gray value of the pixels of the low-resolution image. Is generated by That is, when generating the low resolution image, the low resolution image generation unit 31a obtains an average of the gray values for a plurality of pixels of the face image corresponding to each pixel of the low resolution image, and calculates the average value of the low resolution image. The gray value of the pixel.

より具体的には、低解像度画像データの任意の座標(x,y)の濃淡値をd’とし、顔画像の任意座標の濃淡値をdとすると、
More specifically, if the density value of arbitrary coordinates (x, y) of the low resolution image data is d ′ and the density value of the arbitrary coordinates of the face image is d,

なる式により、低解像度画像の画素の濃淡値が求められる。このように、本実施形態における低解像度画像の1画素の濃淡値は、顔画像データの10×10画素の平均値となる。このように、低解像度画像を生成して、顔画像データを100分の1のデータ量に減らすことによって、後の画像処理での処理時間の短縮することができる。また、画素を間引くことによって低解像度画像を生成するのではなく、該当する顔画像の画素について平均値を求めることにより低解像度画像を生成するため、顔画像データを平滑化しノイズを除去することができる。 Thus, the gray value of the pixel of the low resolution image is obtained. Thus, the gray value of one pixel of the low resolution image in the present embodiment is an average value of 10 × 10 pixels of the face image data. Thus, by generating a low-resolution image and reducing the face image data to 1/100, the processing time in the subsequent image processing can be shortened. Also, instead of generating a low-resolution image by thinning out pixels, a low-resolution image is generated by obtaining an average value for the pixels of the corresponding face image, so that it is possible to smooth the face image data and remove noise. it can.

なお、上記では、処理速度の観点から、縦横とも10分の1の低解像度画像を生成したが、特にこれに限られるものではなく、低解像度画像を人間が見て顔と判別できないほどの低解像度でなければ、他の比率(例えば縦横8分の1等)の低解像度画像を生成するようにしてもよい。   In the above, from the viewpoint of processing speed, a low resolution image of 1/10 in both vertical and horizontal directions was generated. However, the present invention is not limited to this, and the low resolution image cannot be recognized as a face by human eyes. If the resolution is not set, low-resolution images with other ratios (for example, 1/8 vertical and horizontal) may be generated.

また、低解像度画像生成部31aは、処理領域データを入力する。このため、低解像度画像生成部31aは、図6(b)に示す如く、顔画像の所定領域についてのみ低解像度画像を生成してもよい。   In addition, the low resolution image generation unit 31a inputs processing area data. Therefore, the low resolution image generation unit 31a may generate a low resolution image only for a predetermined area of the face image as shown in FIG.

再度、図4を参照する。上記のように低解像度画像が生成されると、低解像度画像生成部31aは、低解像度画像のデータを出力する。そして、横エッジ検出部31bは低解像度画像を対象に画像縦方向にエッジ検出する。また、縦エッジ検出部31cは低解像度画像を対象に画像横方向にエッジ検出する。   Reference is again made to FIG. When a low-resolution image is generated as described above, the low-resolution image generation unit 31a outputs low-resolution image data. Then, the horizontal edge detection unit 31b detects an edge in the image vertical direction for a low resolution image. Further, the vertical edge detection unit 31c detects an edge in the horizontal direction of the image with respect to the low resolution image.

図7は、横エッジ検出部31b及び縦エッジ検出部31cの詳細動作を示す説明図であり、(a)は顔画像の例を示し、(b)は画像縦方向の画素列Yaの濃淡値(光量)を示し、(c)は画像横方向の画素列Xaの濃淡値(光量)を示している。なお、本実施形態では横エッジ検出部31b及び縦エッジ検出部31cは低解像度画像を対象にエッジ検出するが、便宜上、図7(a)には低解像度とされていない顔画像を示すものとする。   7A and 7B are explanatory diagrams showing detailed operations of the horizontal edge detection unit 31b and the vertical edge detection unit 31c. FIG. 7A shows an example of a face image, and FIG. 7B shows the grayscale value of the pixel column Ya in the image vertical direction. (Light quantity) is shown, and (c) shows the gray value (light quantity) of the pixel row Xa in the horizontal direction of the image. In this embodiment, the horizontal edge detection unit 31b and the vertical edge detection unit 31c detect edges for a low-resolution image. For convenience, FIG. 7A shows a face image that is not set to low resolution. To do.

まず、横エッジ検出部31bは、図7(a)に示すような画像を入力する。そして、横エッジ検出部31bは、画像の縦方向の各ラインについて画素の濃淡値を検出する。具体的に一例を挙げると、横エッジ検出部31bは、図7(a)に示す縦ラインYaに関しては、図7(b)に示すような濃淡値を検出する。   First, the horizontal edge detection unit 31b inputs an image as shown in FIG. Then, the horizontal edge detection unit 31b detects the gray value of the pixel for each line in the vertical direction of the image. As a specific example, the horizontal edge detection unit 31b detects a gray value as shown in FIG. 7B for the vertical line Ya shown in FIG.

このとき、横エッジ検出部31bは、隣接する画素の濃淡値の差分が減少から増加に転じる極小点(例えば図7(b)に示すp1〜p4などで画像上では黒から白に転じる点)を探索する。   At this time, the horizontal edge detecting unit 31b has a minimum point at which the difference between the gray values of adjacent pixels turns from decreasing to increasing (for example, points turning from black to white on the image at p1 to p4 shown in FIG. 7B). Explore.

次いで、横エッジ検出部31bは、極小点のうち濃淡値の変化量が設定値未満の点を削除する。また、横エッジ検出部31bは、極小点が8近傍で独立している場合には、その極小点を削除する。このように、横エッジ検出部31bは、濃淡値に殆ど変化が無い極小点や、1点のみとして検出されている極小点がノイズ等であるとして削除する。   Next, the horizontal edge detection unit 31b deletes the point where the change amount of the light and shade value is less than the set value from among the minimum points. Further, when the local minimum point is independent in the vicinity of 8, the horizontal edge detecting unit 31b deletes the local minimum point. As described above, the horizontal edge detection unit 31b deletes a local minimum point with almost no change in the gray value or a local minimum point detected as only one point as noise or the like.

ここで、上記した濃淡値の変化量について説明する。図8は、濃淡値の変化量についての説明図である。同図に示すように、濃淡値の変化量tは、以下の式(2)より求められる。
Here, the change amount of the above-described gray value will be described. FIG. 8 is an explanatory diagram of the change amount of the gray value. As shown in the figure, the variation t of the shade value is obtained from the following equation (2).

なお、aは極大値の座標であり、d(a)は極大値を示している。また、bは極小値の座標であり、d(b)は極小値を示している。また、極大値とは、極小値の逆の値であって、隣接する画素の濃淡値の差分が増加から減少に転じる点をいう。 Note that a is the coordinate of the maximum value, and d (a) indicates the maximum value. Further, b is the coordinate of the minimum value, and d (b) indicates the minimum value. The maximum value is a value opposite to the minimum value, and the difference between the gray values of adjacent pixels is changed from increasing to decreasing.

以上のように、横エッジ検出部31bは横エッジを検出することとなる。そして、横エッジ検出部31bは、図4に示すように、検出した横エッジのデータを出力する。   As described above, the horizontal edge detector 31b detects a horizontal edge. Then, as shown in FIG. 4, the horizontal edge detection unit 31 b outputs detected horizontal edge data.

また、縦エッジ検出部31cも同様に処理を行う。すなわち、縦エッジ検出部31cは図7(a)に示すような画像を入力すると、画像の横方向の各ラインについて画素の濃淡値を検出する。具体的に一例を挙げると、縦エッジ検出部31cは、図7(a)に示す横ラインXaに関して、図7(c)に示すような濃淡値を検出する。さらに、縦エッジ検出部31cは隣接する画素の濃淡値の差分が減少から増加に転じる極小点(例えば図7(c)に示すp5〜p7など)を探索する。   The vertical edge detection unit 31c performs the same process. That is, when an image as shown in FIG. 7A is input, the vertical edge detection unit 31c detects the gray value of the pixel for each line in the horizontal direction of the image. As a specific example, the vertical edge detection unit 31c detects a gray value as shown in FIG. 7C for the horizontal line Xa shown in FIG. Further, the vertical edge detection unit 31c searches for a minimum point (for example, p5 to p7 shown in FIG. 7C) at which the difference in the gray value of adjacent pixels starts from decreasing to increasing.

次いで、縦エッジ検出部31cは、極小点のうち濃淡値の変化量が設定値未満の点を削除する。これにより、縦エッジ検出部31cは縦エッジを検出することとなる。そして、縦エッジ検出部31cは、図4に示すように、検出した縦エッジのデータを出力する。   Next, the vertical edge detection unit 31c deletes a point where the change amount of the gray value is less than the set value from among the minimum points. As a result, the vertical edge detection unit 31c detects a vertical edge. Then, as shown in FIG. 4, the vertical edge detection unit 31c outputs the detected vertical edge data.

ここで、横エッジ検出部31b及び縦エッジ検出部31cに検出される極小点、及びエッジデータの具体的画像例を示す。図9は、横エッジ検出部31bに検出される極小点及びエッジデータの説明図であり、(a)は極小点を示し、(b)はエッジデータを示している。また、図10は、縦エッジ検出部31cに検出される極小点及びエッジデータの説明図であり、(a)は極小点を示し、(b)はエッジデータを示している。   Here, a specific image example of the minimum point detected by the horizontal edge detection unit 31b and the vertical edge detection unit 31c and edge data is shown. FIG. 9 is an explanatory diagram of the minimum point and edge data detected by the horizontal edge detection unit 31b. (A) shows the minimum point, and (b) shows the edge data. FIG. 10 is an explanatory diagram of the minimum point and edge data detected by the vertical edge detection unit 31c, where (a) indicates the minimum point and (b) indicates the edge data.

まず、図9(a)に示すように、横エッジ検出部31bは、画像の各縦ラインについて、黒から白に変化し、その後白から黒に変化する極小点をすべて抽出する。そして、横エッジ検出部31bは、これら極小点のうち、濃淡値の変化量が設定値未満のもの、及び8近傍に他の極小点がなく独立しているものを削除する。そして、横エッジ検出部31bは、図9(b)に示すような横エッジデータを検出する。   First, as shown in FIG. 9A, the horizontal edge detection unit 31b extracts all the minimum points that change from black to white and then change from white to black for each vertical line of the image. Then, the horizontal edge detection unit 31b deletes those local minimum points that have a change in the gray value that is less than the set value and those that do not have other local minimum points in the vicinity of 8 and are independent. Then, the horizontal edge detection unit 31b detects horizontal edge data as shown in FIG.

また、縦エッジ検出部31cについても同様にして図10(a)に示す極小点を抽出し、これら極小点のうち、濃淡値の変化量が設定値未満のものを削除する。そして、縦エッジ検出部31cは最終的に図10(b)に示す縦エッジデータを検出する。   Similarly, the minimum edge shown in FIG. 10A is also extracted for the vertical edge detection unit 31c, and among these minimum points, the change in the gray value is less than the set value is deleted. Then, the vertical edge detector 31c finally detects the vertical edge data shown in FIG.

図3及び図5を参照する。上記の如く検出された縦エッジデータ及び横エッジデータは、鼻候補検出部32の共通点抽出部32aに入力される。そして、共通点抽出部32aは、縦エッジと横エッジとが重複する共通点を抽出する。   Please refer to FIG. 3 and FIG. The vertical edge data and the horizontal edge data detected as described above are input to the common point extraction unit 32 a of the nose candidate detection unit 32. Then, the common point extraction unit 32a extracts a common point where the vertical edge and the horizontal edge overlap.

図11は、共通点抽出部32aにより抽出される共通点を示す説明図である。なお、同図において共通点は白の点として示されている。具体的に図9(b)及び図10(b)についての共通点のデータは図11のようになる。共通点抽出部32aは、このような共通点のデータを抽出して鼻候補選択部32bに送信することとなる。   FIG. 11 is an explanatory diagram showing common points extracted by the common point extraction unit 32a. In the figure, common points are shown as white dots. Specifically, the data of the common points for FIG. 9B and FIG. 10B is as shown in FIG. The common point extraction unit 32a extracts such common point data and transmits it to the nose candidate selection unit 32b.

再度、図5を参照する。鼻候補選択部32bは、共通点抽出部32aからの共通点のデータを入力し、これら共通点のデータを組み合わせ、組み合わせにより鼻孔として成立するものを鼻候補として選択する。具体的に説明すると、鼻候補選択部32bは、共通点データに対しラベリング処理、削除処理及び選択処理を施す。   Reference is again made to FIG. The nose candidate selection unit 32b inputs the data of the common points from the common point extraction unit 32a, combines the data of the common points, and selects a nose candidate that is established as a nostril by combination. More specifically, the nose candidate selection unit 32b performs a labeling process, a deletion process, and a selection process on the common point data.

すなわち、まず、鼻候補選択部32bは、共通点それぞれにラベルを付す。ここで、鼻候補選択部32bは、共通点及びその共通点と8近傍で隣接する共通点に同じラベルを付す(ラベリング処理)。   That is, first, the nose candidate selection unit 32b attaches a label to each common point. Here, the nose candidate selection unit 32b attaches the same label to the common point and the common point adjacent to the common point in the vicinity of 8 (labeling process).

そして、鼻候補選択部32bは、4画素よりも大きいラベルを削除する。すなわち、低解像度画像の1画素は顔画像において例えば100画素に相当するため、鼻候補選択部32bは、顔画像において40×40=1600画素よりも大きいラベルを削除することとなる(削除処理)。   And the nose candidate selection part 32b deletes a label larger than 4 pixels. That is, since one pixel of the low-resolution image corresponds to, for example, 100 pixels in the face image, the nose candidate selection unit 32b deletes a label larger than 40 × 40 = 1600 pixels in the face image (deletion process). .

次いで、鼻候補選択部32bは、横方向でペアになりうるラベルを残し他のラベルを削除する。具体的に鼻候補選択部32bは、画像横方向に距離が3画素以上6画素以下であって、画像縦方向の距離が0画素以上2画素以下のラベルをペアとして残して、他のラベルを削除する。そして、鼻候補検出部32の鼻候補選択部32bは、残ったペアを鼻候補のデータとして出力する(選択処理)。   Next, the nose candidate selection unit 32b leaves a label that can be paired in the horizontal direction and deletes other labels. Specifically, the nose candidate selection unit 32b leaves a label whose distance in the horizontal direction of the image is 3 pixels or more and 6 pixels or less and whose distance in the image vertical direction is 0 pixels or more and 2 pixels or less as a pair, and puts other labels on the labels. delete. And the nose candidate selection part 32b of the nose candidate detection part 32 outputs the remaining pair as data of a nose candidate (selection process).

以上のようにして得られた鼻候補のデータを図12に示す。図12は、鼻候補検出部32により検出された鼻候補を示す説明図である。同図に示す如く、鼻候補選択部32bは、画像横方向に3画素以上6画素以下であって、画像縦方向に0画素以上2画素以下に存在する共通点のペアのみを残し、このペアを鼻の候補として選択する。他方、上記条件に適合しない共通点については削除されている。   The nose candidate data obtained as described above is shown in FIG. FIG. 12 is an explanatory diagram showing the nose candidates detected by the nose candidate detection unit 32. As shown in the figure, the nose candidate selection unit 32b leaves only a pair of common points that are 3 pixels to 6 pixels in the horizontal direction of the image and 0 pixels to 2 pixels in the vertical direction of the image. As a nose candidate. On the other hand, common points that do not meet the above conditions have been deleted.

図3を参照する。鼻候補検出部32が鼻の候補を検出する一方で、眼候補検出部33は、眼の候補を検出する。この際、眼候補検出部33は、横エッジに対しラベリング処理、削除処理、分割処理及び選択処理を施す。すなわち、まず、眼候補検出部33は、横エッジそれぞれにラベルを付す(ラベリング処理)。   Please refer to FIG. While the nose candidate detection unit 32 detects nose candidates, the eye candidate detection unit 33 detects eye candidates. At this time, the eye candidate detection unit 33 performs labeling processing, deletion processing, division processing, and selection processing on the horizontal edge. That is, first, the eye candidate detection unit 33 labels each horizontal edge (labeling process).

そして、眼候補検出部33は、4画素よりも小さいラベルを削除する。すなわち、4画素未満のラベルについては、その大きさの関係上、眼である可能性が低い。このため、めこう補検出部33は4画素よりも小さいラベルを削除する(削除処理)。   Then, the eye candidate detection unit 33 deletes a label smaller than 4 pixels. That is, a label having less than 4 pixels is less likely to be an eye due to its size. For this reason, the complement detection unit 33 deletes labels smaller than 4 pixels (deletion process).

また、眼候補検出部33は、横に一定画素以上(例えば12画素以上)に長いラベルについて、ラベル内で濃淡値の変化量が最小値の点を削除することで分割していく。例えば、運転者の顔画像から横エッジを検出した場合、光環境によっては、左のこめかみから左眉及び右眉を通り右のこめかみまで、1つの長い横エッジとして検出されることがある。ここで、この長い横エッジは、左こめかみから左眉までの間において濃淡値の変化量が小さくなっている。また、同様に左眉及び右眉の間、及び右眉から右のこめかみの間についても濃淡値の変化量が小さくなっている。このため、横に長いラベルについては、ラベル内で濃淡値の変化量が最小値の点を削除して分割することで、眼の候補検出の精度の向上を図ることとなる(分割処理)。   Further, the eye candidate detection unit 33 divides a label that is horizontally longer than a certain pixel (for example, 12 pixels or more) by deleting a point having a minimum change amount of the gray value in the label. For example, when a horizontal edge is detected from a driver's face image, depending on the light environment, the left temple and the right temple may be detected as one long horizontal edge from the left temple. Here, the long horizontal edge has a small change in gray value between the left temple and the left eyebrow. Similarly, the amount of change in the gray value is small between the left eyebrow and the right eyebrow, and between the right eyebrow and the right temple. For this reason, for a horizontally long label, the accuracy of eye candidate detection is improved by dividing the label by deleting the point having the smallest change amount of the gray value (division processing).

次いで、眼候補検出部33は、横方向でペアになりうるラベルを残し他のラベルを削除する。すなわち、鼻候補選択部32bは、画像横方向に距離が9画素以上22画素以下であって、画像縦方向の距離が0画素以上5画素以下のラベルをペアとして残して、他のラベルを削除する。そして、眼候補検出部33は、残ったペアを眼候補のデータとして出力する(選択処理)。   Next, the eye candidate detection unit 33 deletes other labels while leaving a label that can be paired in the horizontal direction. In other words, the nose candidate selection unit 32b deletes other labels while leaving a label whose distance in the horizontal direction of the image is 9 to 22 pixels and whose distance in the vertical direction of the image is 0 to 5 pixels as a pair. To do. The eye candidate detection unit 33 then outputs the remaining pairs as eye candidate data (selection process).

以上のようにして得られた眼候補のデータを図13に示す。図13は、眼候補検出部33により検出された眼候補を示す説明図である。同図に示す如く、眼候補検出部33は、画像横方向に9画素以上22画素以下であって、画像縦方向に0画素以上5画素以下に存在する横エッジのペアのみを残し、このペアを眼の候補として検出する。他方、上記条件に適合しない横エッジについては削除されている。   FIG. 13 shows eye candidate data obtained as described above. FIG. 13 is an explanatory diagram showing eye candidates detected by the eye candidate detection unit 33. As shown in the figure, the eye candidate detection unit 33 leaves only a pair of horizontal edges that are 9 pixels or more and 22 pixels or less in the horizontal direction of the image and that are 0 pixels or more and 5 pixels or less in the vertical direction of the image. Are detected as eye candidates. On the other hand, lateral edges that do not meet the above conditions are deleted.

再度、図3を参照する。上記の如く出力された鼻候補データ及び眼候補データは眼鼻候補選択部34に入力される。そして、眼鼻候補選択部34は、鼻候補と眼候補とを組み合わせ、これらの組み合わせから眼鼻として成立するものを選択する。   FIG. 3 will be referred to again. The nose candidate data and eye candidate data output as described above are input to the eye nose candidate selection unit 34. Then, the eye / nose candidate selection unit 34 combines the nose candidate and the eye candidate, and selects what is established as the eye / nose from these combinations.

ここで、鼻の候補として、鼻及び眼鏡の鼻当て部が検出されているとする。また、眼の候補として、眼、眼鏡フレーム及び眉が検出されているとする。このとき、眼鼻候補選択部34は、鼻と、眼、眼鏡フレーム及び眉とをそれぞれ組み合わせて、3つの組み合わせを作成する。また、眼鼻候補選択部34は、眼鏡の鼻当て部についても同様に眼、眼鏡フレーム及び眉とをそれぞれ組み合わせて、3つの組み合わせを作成する。そして、眼鼻候補選択部34は、計6つの組み合わせを作成する。   Here, it is assumed that the nose and the nose pad of glasses are detected as nose candidates. Further, it is assumed that eyes, eyeglass frames, and eyebrows are detected as eye candidates. At this time, the eye / nose candidate selection unit 34 creates three combinations by combining the nose, the eye, the eyeglass frame, and the eyebrow. Similarly, the eye / nose candidate selection unit 34 also creates three combinations by combining the eye, the spectacle frame, and the eyebrow for the nose pad portion of the glasses. Then, the eye / nose candidate selection unit 34 creates a total of six combinations.

次いで、眼鼻候補選択部34は、眼の候補について両眼の中心座標と、鼻候補について両鼻孔の中心座標を求める。そして、眼鼻候補選択部34は、上記6つの組み合わせについて、i)両眼中心が両鼻孔間中心より画像上端側に存在すること、ii)両眼中心と両鼻孔間中心の距離が眼と鼻との距離の相場値内にあること(例えば3〜12画素内)、iii)両眼中心と両鼻孔中心を結ぶ線分と、両眼間を結ぶ線分のなす角が垂直に近いこと(例えば70度以上110度以下)、iv)両眼間を結ぶ線分が水平に近いこと(例えば水平線との為す角が±15度未満)、の4つを基準として、眼鼻として成立するかを判断する。例えば、眼鏡の鼻当て部(鼻候補)と、眼鏡フレーム下端部(眼候補)との組み合わせは、鼻候補の方が眼候補よりも画像上端側にあることから、上記条件i)に適合せず、眼鼻候補として選択されないこととなる。   Next, the eye-nose candidate selection unit 34 obtains the center coordinates of both eyes for the eye candidate and the center coordinates of both nostrils for the nose candidate. Then, for the above six combinations, the ocular nose candidate selection unit 34 i) the center of both eyes is present on the upper end side of the image from the center of both nostrils, ii) the distance between the center of both eyes and the center of both nostrils is It must be within the market value of the distance to the nose (for example, within 3 to 12 pixels), iii) The angle between the line connecting the center of both eyes and the center of both nostrils, and the line connecting between both eyes is almost perpendicular (For example, 70 degrees or more and 110 degrees or less), iv) It is established as an ocular nose based on four criteria that a line segment connecting both eyes is almost horizontal (for example, an angle with the horizontal line is less than ± 15 degrees). Determine whether. For example, the combination of the spectacle nose pad (nose candidate) and the spectacle frame lower end (eye candidate) conforms to the above condition i) because the nose candidate is closer to the upper end of the image than the eye candidate. Therefore, it is not selected as a candidate for nose.

そして、眼鼻候補選択部34は、上記条件すべてに適合するものを、眼鼻候補として選択する。図14は、眼鼻候補選択部34により選択された眼鼻候補を示す説明図である。なお、同図では、眼鼻候補を三角形で示している。同図に示すように、眼鼻候補選択部34は、上記条件i)〜iv)を満たすものを眼鼻候補として選択する。具体的には、両眼と鼻とからなる眼鼻候補の他に、眼鏡フレーム(下端)と鼻とからなる眼鼻候補、左眼、眼鏡の右フレーム(下端)及び鼻からなる眼鼻候補、及び両眉と鼻当て部からなる眼鼻候補の計4つが選択されている。   Then, the eye / nose candidate selection unit 34 selects a candidate that meets all the above conditions as a candidate for the nose. FIG. 14 is an explanatory diagram showing the eye-nose candidates selected by the eye-nose candidate selection unit 34. In the figure, the eye and nose candidates are indicated by triangles. As shown in the figure, the ocular nose candidate selection unit 34 selects an ophthalmic nose candidate that satisfies the above conditions i) to iv). Specifically, in addition to an eye nose candidate consisting of both eyes and nose, an eye nose candidate consisting of a spectacle frame (lower end) and a nose, a left eye, a right frame (lower end) of glasses, and an eye nose candidate consisting of a nose , And a total of four eye nose candidates comprising both eyebrows and a nose pad.

なお、上記では、説明の便宜上、鼻と眼、眼鏡フレーム及び眉とをそれぞれ組み合わせ、さらに、眼鏡の鼻当て部と眼、眼鏡フレーム及び眉とをそれぞれ組み合わせて、計6つの組み合わせを作成した。ところが、実際には、左眼、眼鏡の右フレーム(下端)及び鼻が組み合わせられたり、右眉、眼鏡の左フレーム(上端)及び鼻当て部が組み合わせられたりするため、上記では、左眼、眼鏡の右フレーム(下端)及び鼻からなる眼鼻候補が選択されている。   In the above description, for the convenience of explanation, a total of six combinations were created by combining the nose and eyes, the spectacle frame, and the eyebrow, and further combining the nose pad portion of the spectacles and the eye, the spectacle frame, and the eyebrow. However, in practice, the left eye, the right frame (lower end) of the glasses and the nose are combined, or the right eyebrow, the left frame (upper end) of the glasses and the nose pad are combined. An eye nose candidate consisting of the right frame (lower end) of the glasses and the nose is selected.

また、眼鼻候補選択部34は、条件i)〜iv)により、眼鼻候補として成立しないものを排除するため、眼鼻候補は実際の鼻を含んだものとなりやすくなる。そして、眼鼻候補選択部34は、以上のようにして得られた眼鼻候補のデータを、図3に示すように鼻座標推定部35に出力する。   In addition, the ocular nose candidate selection unit 34 excludes those that are not established as ophthalmic nose candidates according to the conditions i) to iv), and thus the ocular nose candidates are likely to include an actual nose. Then, the eye-nose candidate selection unit 34 outputs the data of the eye-nose candidate obtained as described above to the nose coordinate estimation unit 35 as shown in FIG.

次いで、鼻座標推定部35は、眼鼻候補選択部34により選択された眼鼻の候補から、統計的処理によって鼻の座標を推定する。   Next, the nose coordinate estimation unit 35 estimates the coordinates of the nose from the eye nose candidates selected by the eye nose candidate selection unit 34 by statistical processing.

ここで、鼻座標推定部35は、統計的処理として、度数分布を形成し、その度数から鼻を特定して座標を推定する処理を行う。図15は、鼻座標推定部35が統計的処理として度数分布を形成したときの説明図であり、(a)は度数分布を示し、(b)は画像例を示している。なお、図15(a)では白に近くなるほど度数が高くなるものとする。   Here, the nose coordinate estimation part 35 performs the process which forms a frequency distribution as a statistical process, specifies a nose from the frequency, and estimates a coordinate. FIGS. 15A and 15B are explanatory diagrams when the nose coordinate estimation unit 35 forms a frequency distribution as a statistical process. FIG. 15A shows the frequency distribution, and FIG. 15B shows an image example. In FIG. 15A, it is assumed that the frequency becomes higher as it becomes closer to white.

まず、鼻座標推定部35は、眼鼻候補選択部34により選択された眼鼻の候補を、鼻候補を基準に、図15(a)に示すような度数分布を形成する。例えば、図15(b)に示すように、実際の両眼と鼻との組み合わせ、眼鏡フレーム上端と鼻との組み合わせ、両眉と眼鏡の鼻当て部との組み合わせ、眼鏡の右フレーム下端と左眼と鼻との組み合わせの計4つが眼鼻の候補として選択されているとする。そうすると、鼻候補を基準にした度数分布は、眼鏡の鼻当て部について度数「1」となり、鼻について度数「3」となる。   First, the nose coordinate estimation unit 35 forms a frequency distribution as shown in FIG. 15A based on the nose candidates selected by the eye nose candidate selection unit 34. For example, as shown in FIG. 15B, the actual combination of both eyes and nose, the combination of the upper end of the spectacle frame and the nose, the combination of both eyebrows and the nose pad of the spectacles, the lower end of the right frame of the spectacles and the left Assume that a total of four combinations of eyes and nose are selected as candidates for the eyes and nose. Then, the frequency distribution based on the nose candidate is the frequency “1” for the nose pad portion of the glasses and the frequency “3” for the nose.

次に、鼻座標推定部35は、形成された度数分布のうち最も眼鼻候補の度数が高い鼻候補を鼻と特定して、座標を推定する。すなわち、鼻座標推定部35は、図15(a)に示す例によると、度数「3」、すなわち白色部分を鼻と特定する。   Next, the nose coordinate estimation unit 35 specifies the nose candidate having the highest frequency of the eye nose candidate among the formed frequency distribution as the nose, and estimates the coordinates. That is, according to the example shown in FIG. 15A, the nose coordinate estimation unit 35 specifies the frequency “3”, that is, the white portion as the nose.

ここで、上記した如く、眼鼻候補は、上記条件i)〜iv)に基づいて選択されることから、実際の鼻を含んだものとなりやすく、複数の眼鼻候補は、実際の鼻を含んだものの数が多くなっている。そして、そのような眼鼻候補から統計的処理により鼻を検出するため、鼻孔のみを単独で検出する場合に比して精度の向上を図ることができる。   Here, as described above, the ophthalmic nose candidate is selected based on the above conditions i) to iv), and therefore, the ophthalmic nose candidate is likely to include an actual nose. The number of things is increasing. And since a nose is detected by statistical processing from such an eye nose candidate, an improvement in precision can be aimed at compared with the case where only a nostril is detected independently.

また、眼鼻候補は実際の鼻を含んだものの数が多くなっているため、統計的処理として平均化処理をして鼻座標を推定するようにしても、実際の鼻に近い値を得られやすいこととなる。   In addition, since the number of ocular nose candidates includes the actual nose is large, a value close to the actual nose can be obtained even if the averaging process is performed as a statistical process to estimate the nose coordinates. It will be easy.

また、鼻座標推定部35は、過去の顔画像を利用して統計的処理により鼻座標を推定するようにしてもよい。すなわち、鼻座標推定部35は、過去の一定期間の顔画像から得られた眼鼻候補を、鼻座標を基準に度数分布を形成する。   Moreover, the nose coordinate estimation unit 35 may estimate the nose coordinates by statistical processing using the past face image. In other words, the nose coordinate estimation unit 35 forms a frequency distribution of the eye-nose candidates obtained from the face images of a certain period in the past with reference to the nose coordinates.

そして、鼻座標推定部35は、形成された度数分布のうち最も眼鼻候補の度数が高い鼻候補の位置を平均座標位置とする。次いで、鼻座標推定部35は、現在の顔画像において、その平均座標位置に最も近い鼻候補を鼻と特定して、座標を推定する。この場合であっても、過去の眼鼻候補を利用することから精度の高い鼻座標の推定が可能となる。   And the nose coordinate estimation part 35 makes the position of a nose candidate with the highest frequency of an eye nose candidate among the formed frequency distributions an average coordinate position. Next, the nose coordinate estimation unit 35 identifies the nose candidate closest to the average coordinate position as the nose in the current face image, and estimates the coordinates. Even in this case, it is possible to estimate the nose coordinates with high accuracy because the past nose candidates are used.

なお、鼻座標推定部35は、平均座標位置を平均鼻データとして他の要素に出力して記憶させておく。そして、鼻座標推定部35は次回の処理を行うにあたり、平均鼻データを読み出して処理を行うこととなる。   The nose coordinate estimation unit 35 outputs the average coordinate position as average nose data to other elements to be stored. And the nose coordinate estimation part 35 will read and process average nose data in performing the next process.

以上、鼻検出装置1の動作である。そして、このような動作が行われることにより、以下のような技術的効果が確認されている。図16は、鼻の検出率を示すグラフである。なお、同図において縦軸は検出率を示し、横軸は過去のフレーム数を示している。また、同図において、検出対象者を50人としている。   The operation of the nose detection device 1 has been described above. The following technical effects have been confirmed by performing such operations. FIG. 16 is a graph showing the detection rate of the nose. In the figure, the vertical axis indicates the detection rate, and the horizontal axis indicates the past number of frames. Further, in the figure, the number of detection target persons is 50.

まず、顔画像の撮影環境を、片日が差し込むなど、光環境が安定していない場合、又は近赤外線が鼻孔に差し込んで鼻孔が黒い丸として撮影されない場合等とした。この状況下において、最初に得られた顔画像から鼻を検出した場合、検出率は約90%となった。すなわち、50人中45人から正確に鼻座標を推定することができた。   First, the face image was taken when the lighting environment was not stable, such as when one day was inserted, or when the nostril was not photographed as a black circle because the near infrared ray was inserted into the nostril. Under this circumstance, when the nose was detected from the face image obtained first, the detection rate was about 90%. That is, the nose coordinates could be accurately estimated from 45 out of 50 people.

さらに、検出を繰り返し、過去の画像フレーム数が一定数に達すると、平均座標位置を利用した処理が可能となる。ここで、過去の画像フレーム数が60となった場合(約2秒)において、平均座標位置を求め、それに最も近い鼻候補を鼻と特定して座標を推定すると、検出率は約100%となった。すなわち、約2秒で鼻を確実に検出できるといえる。   Further, when detection is repeated and the number of past image frames reaches a certain number, processing using the average coordinate position becomes possible. Here, when the number of past image frames is 60 (about 2 seconds), the average coordinate position is obtained, and when the nearest nose candidate is identified as the nose and the coordinates are estimated, the detection rate is about 100%. became. That is, it can be said that the nose can be reliably detected in about 2 seconds.

他方、直接に鼻孔を検出して鼻座標を求める手法によると、片日が差し込むなどの撮影環境において、過去の画像が60フレームとなった場合における検出率は54%であった。   On the other hand, according to the method of directly detecting the nostril and obtaining the nose coordinates, in a shooting environment where one day is inserted, the detection rate when the past image is 60 frames was 54%.

以上より、本装置1では、眼鼻として成立し得るものを眼鼻候補として選択することで、実際の鼻を含んだ眼鼻の候補の数を多くし、そのような眼鼻候補から統計的処理により鼻を検出するため、鼻孔のみを単独で検出する場合に比して鼻の検出精度が向上することとなった。   As described above, the present apparatus 1 increases the number of ophthalmic nose candidates including the actual nose by selecting those that can be established as ophthalmic noses as statistical candidates. Since the nose is detected by processing, the detection accuracy of the nose is improved as compared with the case where only the nostril is detected alone.

このようにして、本実施形態に係る鼻検出装置1によれば、顔画像についてエッジを検出して、画像縦方向及び横方向のエッジの共通点から鼻の候補を検出している。ここで、鼻(鼻孔)は、通常黒い丸として存在するため、画像縦方向又は横方向のエッジのみならず、双方のエッジの共通点から検出することで、好適に検出される。また、この段階において検出されるのは鼻の候補であるため、鼻とそれ以外のもの(例えば例えば眼鏡の鼻当て部など)が検出されても良く、黒い丸と対象に検出して鼻以外を検出しても問題とはならない。   In this way, according to the nose detection device 1 according to the present embodiment, the edge is detected from the face image, and the nose candidate is detected from the common point of the edge in the vertical and horizontal directions of the image. Here, since the nose (nasal passage) usually exists as a black circle, it can be suitably detected by detecting not only from the edge in the vertical or horizontal direction of the image but also from the common point of both edges. Also, since nose candidates are detected at this stage, the nose and other objects (for example, the nose pad of glasses) may be detected. It does not matter if it is detected.

そして、画像横方向のエッジから眼の候補を検出している。ここで、眼は、一般的に横に長いものであるため、画像横方向のエッジから好適に検出される。また、この段階において検出されるのは眼の候補であるため、例えば眼鏡のフレーム部や眉なども検出されることがある。   Then, eye candidates are detected from edges in the horizontal direction of the image. Here, since the eyes are generally long in the horizontal direction, they are preferably detected from the edges in the horizontal direction of the image. In addition, since eye candidates are detected at this stage, for example, a frame part of eyeglasses or an eyebrow may be detected.

そして、検出された鼻及び眼の候補を組み合わせ、これら組み合わせから眼鼻の候補として成立するものを選択している。すなわち、組み合わせを作成し、その後選択するという処理を行っている。   Then, the detected nose and eye candidates are combined, and those that are established as candidates for the eye and nose are selected from these combinations. That is, a process of creating a combination and then selecting it is performed.

具体的には、まず、組み合わせとしては、例えば実際の鼻と眼とからなるものや、眼鏡フレーム上端と鼻とからなるもの、眉と眼鏡の鼻当て部とからなるもの、及び眼鏡フレーム下端と眼鏡の鼻当て部とからなるものなどが作成される。   Specifically, first, the combination includes, for example, an actual nose and eye, an eyeglass frame upper end and nose, an eyebrow and eyeglass nose pad, and an eyeglass frame lower end. A thing composed of a nose pad of glasses is created.

次いで、これらの組み合わせから、所定の条件をもとに、眼鼻の候補として成立するものを選択する。具体的には、例えば眼は鼻より上にあるなどの条件から眼鼻の候補となり得るものを選択することとなる。これにより、上記の組み合わせのうち、眼と鼻との組み合わせが眼鼻の候補として選択される。また、例えば眼鏡フレーム上端と鼻との組み合わせ、及び眉と眼鏡の鼻当て部との組み合わせが眼鼻の候補として選択される。ところが、眼鏡フレーム下端と眼鏡の鼻当て部との組み合わせは、上記条件に適合せず、眼鼻候補として選択されない。   Next, from those combinations, a candidate that is established as a candidate for the eye and nose is selected based on a predetermined condition. Specifically, for example, a candidate that can be a candidate for an eye and nose is selected based on the condition that the eye is above the nose. Thereby, the combination of eyes and nose among the above combinations is selected as a candidate for nose. Further, for example, a combination of the upper end of the spectacle frame and the nose and a combination of the eyebrows and the nose pad part of the spectacles are selected as candidates for the eye nose. However, the combination of the lower end of the spectacle frame and the nose pad part of the spectacles does not meet the above conditions and is not selected as an ophthalmic nose candidate.

このように、眼鼻候補は、眼と鼻との位置関係から好適に選択されることとなるため、実際の鼻を含んだものとなりやすい傾向にある。つまり、複数の眼鼻候補には、実際の鼻を含んだものの数が多くなることとなる。   In this way, the ocular nose candidate is preferably selected from the positional relationship between the eyes and the nose, and thus tends to include the actual nose. That is, the number of eye nose candidates includes an actual nose.

次いで、選択された眼鼻の候補から、統計的処理によって鼻の座標を推定する。ここで、上記より実際の眼と鼻との組み合わせの他に、眼鏡フレーム上端と鼻との組み合わせ、及び眉と眼鏡の鼻当て部との組み合わせの3つが眼鼻の候補として選択されているとする。そうすると、統計的には眼鏡の鼻当て部に関しては1つの組み合わせがあり、鼻に関しては2つの組み合わせがあることとなる。よって、統計的処理に数が多い方を鼻として特定することなどにより、高確立に鼻を特定でき、鼻座標を推定することができる。特に、上記の如く、眼鼻候補は、眼と鼻との位置関係から好適に選択されて、実際の鼻を含んだものの数が多くなるため、眼鼻候補から統計的処理によって鼻を検出することで、鼻の検出精度を高いものとすることができる。   The nose coordinates are then estimated by statistical processing from the selected ocular nose candidates. Here, in addition to the combination of the actual eye and nose, the combination of the upper end of the spectacle frame and the nose and the combination of the eyebrow and the nose pad of the spectacles are selected as candidates for the eye nose. To do. Then, statistically, there is one combination for the nose pad portion of the glasses and two combinations for the nose. Therefore, the nose can be specified with high probability by specifying the nose which has a larger number in the statistical processing, and the nose coordinates can be estimated. In particular, as described above, the eye-nose candidates are preferably selected from the positional relationship between the eyes and the nose, and the number including the actual nose increases, so the nose is detected from the eye-nose candidates by statistical processing. Thus, the detection accuracy of the nose can be increased.

また、眼鼻候補は鼻を含んだものの数が多くなるため、統計的処理として平均化処理をして鼻座標を推定するようにしても、実際の鼻に近い値を得られやすいこととなる。   In addition, since the number of eye nose candidates includes the nose, a value close to the actual nose can be easily obtained even if the averaging process is performed as a statistical process to estimate the nose coordinates. .

このように、眼鼻として成立し得るものを眼鼻候補として選択することで、実際の鼻を含んだ眼鼻の候補の数を多くし、そのような眼鼻候補から統計的処理により鼻を検出するため、鼻孔のみを単独で検出する場合に比して精度の向上を図ることができる。従って、鼻の検出精度の向上を図ることができる。   In this way, by selecting those that can be established as eye nose candidates, the number of eye nose candidates including the actual nose is increased, and the nose is extracted from such eye nose candidates by statistical processing. Therefore, the accuracy can be improved as compared with the case where only the nostril is detected alone. Therefore, it is possible to improve the detection accuracy of the nose.

また、撮影された顔画像の解像度を低下させた低解像度画像を生成し、その低解像度画像を対象にエッジ検出するため、処理速度を向上させることができる。   In addition, since a low-resolution image in which the resolution of the captured face image is reduced is generated and edge detection is performed on the low-resolution image, the processing speed can be improved.

また、撮影された顔の画像の解像度を低下させた低解像度画像を生成するにあたり、予め設定される顔画像の所定領域についてのみ低解像度画像を生成するため、鼻が存在し得ない領域を除いて所定領域を設定することにより、低解像度画像の生成速度を向上させることができ、さらには低解像度画像を利用する他の処理についても処理速度を向上させることができる。   In addition, when generating a low-resolution image in which the resolution of the captured face image is reduced, a low-resolution image is generated only for a predetermined area of the face image that is set in advance. By setting the predetermined area, the generation speed of the low resolution image can be improved, and further, the processing speed can be improved for other processes using the low resolution image.

また、撮影された顔の画像の解像度を低下させた低解像度画像を生成するにあたり、低解像度画像のそれぞれの画素と対応する顔画像の複数の画素について濃淡値の平均を求め、この平均値を低解像度画像の画素の濃淡値としている。このため、濃淡値の平均を求めて顔画像データからのノイズを除去(平滑化)することができ、画素を間引いた場合に比して、鼻の検出精度を向上させることができる。   Further, when generating a low-resolution image in which the resolution of the captured face image is reduced, an average gray value is obtained for a plurality of pixels of the face image corresponding to each pixel of the low-resolution image, and this average value is calculated. The gray value of the pixel of the low resolution image is used. For this reason, it is possible to obtain the average of the gray value and remove (smooth) the noise from the face image data, and to improve the detection accuracy of the nose as compared with the case where the pixels are thinned out.

また、低解像度画像の縦方向の各ラインについて隣接する画素の濃淡値の差分が減少から増加に転じる極小点を探索することにより、低解像度画像の横方向のエッジを検出している。さらには、低解像度画像の横方向の各ラインについて隣接する画素の濃淡値の差分が減少から増加に転じる極小点を探索することにより、低解像度画像の縦方向のエッジを検出している。このように、エッジ検出にあたり濃淡変化の極小点を探索するため、画像の濃淡変化が少なくなるような光環境下においても好適にエッジを検出することができる。   In addition, the horizontal edge of the low-resolution image is detected by searching for a minimum point where the difference in the gray value of adjacent pixels in each vertical line of the low-resolution image turns from decreasing to increasing. Further, the vertical edge of the low-resolution image is detected by searching for the minimum point where the difference in the gray value of the adjacent pixels in each horizontal line of the low-resolution image turns from decreasing to increasing. As described above, since the minimum point of the change in shading is searched for the edge detection, the edge can be suitably detected even in an optical environment in which the shading change of the image is reduced.

また、画像縦方向及び横方向のエッジとの共通点を組み合わせ、この組み合わせにより鼻孔として成立し得るものを鼻候補として検出している。このため、統計的処理を行うに先立って予め鼻としてあり得ないものを除去することができ、鼻の検出精度の向上を図ることができる。   Further, common points with the vertical and horizontal edges of the image are combined, and a combination that can be established as a nostril by this combination is detected as a nose candidate. For this reason, prior to performing statistical processing, it is possible to remove in advance what is not possible as a nose, and it is possible to improve the detection accuracy of the nose.

また、画像縦方向のエッジを組み合わせ、この組み合わせにより眼として成立し得るものを眼候補として検出している。このため、統計的処理を行うに先立って予め眼としてあり得ないものを除去することとなり、眼鼻候補を選択するにあたり不適切な眼候補の存在によって、眼鼻候補の選択精度の低下を招かないようにすることができる。   In addition, the vertical edges of the image are combined, and those that can be established as eyes by this combination are detected as eye candidates. For this reason, prior to performing statistical processing, items that cannot be used as eyes in advance are removed, and the presence of an inappropriate eye candidate in selecting an ophthalmic nose candidate causes a drop in the accuracy of selecting an ophthalmic nose candidate. Can be avoided.

また、統計的処理として、眼鼻の候補を、鼻候補を基準に度数分布を形成し、形成された度数分布のうち最も眼鼻候補の度数が高い鼻候補を鼻と特定して、座標を推定している。ここで、眼鼻の候補は実際の鼻を含んだものとなりやすい傾向にある。このため、度数分布を作成して度数が高い箇所を鼻と特定することで、実際の鼻を好適に特定することができる。   In addition, as statistical processing, a frequency distribution is formed with respect to the nose candidate based on the nose candidate, and the nose candidate with the highest frequency of the eye nose candidate is identified as the nose, and the coordinates are determined. Estimated. Here, the eye nose candidates tend to include the actual nose. For this reason, an actual nose can be suitably specified by creating a frequency distribution and specifying a high frequency location as a nose.

また、過去の一定期間の顔画像から得られた眼鼻候補を、鼻座標を基準に度数分布を形成し、形成された度数分布のうち最も眼鼻候補の度数が高い鼻候補の位置を平均座標位置としている。さらに、現在の顔画像において、その平均座標位置に最も近い鼻候補を鼻と特定して、座標を推定している。ここで、例えば運転者は運転中において基本的に前方を見ており、鼻の座標は安定している。このため、過去の一定の画像から度数分布を生成するということは、運転者の顔画像中の鼻の位置を学習することと同様であり、運転者によって異なるの鼻の位置を学習した上で、鼻を特定することとなる。従って、鼻の検出精度を向上させることができる。   In addition, the eye nose candidate obtained from the face image of a certain period in the past is formed a frequency distribution with reference to the nose coordinates, and the position of the nose candidate with the highest frequency of the eye nose candidate among the formed frequency distribution is averaged Coordinate position. Further, in the current face image, the nose candidate closest to the average coordinate position is identified as the nose, and the coordinates are estimated. Here, for example, the driver basically looks forward while driving, and the coordinates of the nose are stable. For this reason, generating a frequency distribution from a certain past image is the same as learning the position of the nose in the driver's face image. To identify the nose. Therefore, the detection accuracy of the nose can be improved.

以上、実施形態に基づき本発明を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で、変更を加えてもよい。例えば、上記実施形態では、鼻検出装置を自動車に搭載した例を説明したが、特にこれに限られず、車両以外の乗り物に搭載されてもよいし、乗り物以外の装置に利用されてもよい。   As described above, the present invention has been described based on the embodiment, but the present invention is not limited to the above embodiment, and may be modified without departing from the gist of the present invention. For example, in the above-described embodiment, an example in which the nose detection device is mounted on an automobile has been described. However, the present invention is not particularly limited thereto, and may be mounted on a vehicle other than a vehicle or may be used in a device other than a vehicle.

本実施形態に係る鼻検出装置の構成図である。It is a lineblock diagram of a nose detection device concerning this embodiment. 本実施形態における鼻検出装置1の他の例を示す構成図である。It is a block diagram which shows the other example of the nose detection apparatus 1 in this embodiment. 図1に示した鼻検出部の詳細を示すデータフローダイアグラムである。It is a data flow diagram which shows the detail of the nose detection part shown in FIG. 図3に示した前処理部の詳細を示すデータフローダイヤグラムである。It is a data flow diagram which shows the detail of the pre-processing part shown in FIG. 図3に示した鼻候補検出部の詳細を示すデータフローダイヤグラムである。It is a data flow diagram which shows the detail of the nose candidate detection part shown in FIG. 低解像度画像の例を示す説明図であって、(a)は低解像度画像の一例を示し、(b)は低解像度画像の他の例を示している。It is explanatory drawing which shows the example of a low resolution image, Comprising: (a) shows an example of a low resolution image, (b) has shown the other example of the low resolution image. 横エッジ検出部及び縦エッジ検出部の詳細動作を示す説明図であり、(a)は顔画像の例を示し、(b)は画像縦方向の画素列Yaの濃淡値(光量)を示し、(c)は画像横方向の画素列Xaの濃淡値(光量)を示している。It is explanatory drawing which shows detailed operation | movement of a horizontal edge detection part and a vertical edge detection part, (a) shows the example of a face image, (b) shows the light / dark value (light quantity) of the pixel row Ya of an image vertical direction, (C) shows the gray value (light quantity) of the pixel row Xa in the horizontal direction of the image. 濃淡値の変化量についての説明図である。It is explanatory drawing about the variation | change_quantity of a light / dark value. 横エッジ検出部に検出される極小点及びエッジデータの説明図であり、(a)は極小点を示し、(b)はエッジデータを示している。It is explanatory drawing of the minimum point detected by a horizontal edge detection part, and edge data, (a) shows a minimum point, (b) has shown edge data. 縦エッジ検出部に検出される極小点及びエッジデータの説明図であり、(a)は極小点を示し、(b)はエッジデータを示している。It is explanatory drawing of the minimum point detected by the vertical edge detection part, and edge data, (a) shows a minimum point, (b) has shown edge data. 共通点抽出部により抽出される共通点を示す説明図である。It is explanatory drawing which shows the common point extracted by the common point extraction part. 鼻候補検出部により検出された鼻候補を示す説明図である。It is explanatory drawing which shows the nose candidate detected by the nose candidate detection part. 眼候補検出部により検出された眼候補を示す説明図である。It is explanatory drawing which shows the eye candidate detected by the eye candidate detection part. 眼鼻候補選択部により選択された眼鼻候補を示す説明図である。It is explanatory drawing which shows the eye-nose candidate selected by the eye-nose candidate selection part. 鼻座標推定部が統計的処理として度数分布を形成したときの説明図であり、(a)は度数分布を示し、(b)は画像例を示している。It is explanatory drawing when a nose coordinate estimation part forms frequency distribution as statistical processing, (a) shows frequency distribution, (b) has shown the example of an image. 鼻の検出率を示すグラフである。It is a graph which shows the detection rate of a nose.

符号の説明Explanation of symbols

1…鼻検出装置
10…カメラ(撮影手段)
20…画像取得部
30…鼻検出部
31…前処理部(エッジ検出手段)
31a…低解像度画像生成部(低解像度画像生成手段)
31b…横エッジ検出部(横エッジ検出手段)
31c…縦エッジ検出部(縦エッジ検出手段)
32…鼻候補検出部(鼻候補検出手段)
32a…共通点抽出部
32b…鼻候補選択部
33…眼候補検出部(眼候補検出手段)
34…眼鼻候補選択部(眼鼻候補選択手段)
35…鼻座標推定部(鼻座標推定手段)
40…近赤外線照明
DESCRIPTION OF SYMBOLS 1 ... Nose detection apparatus 10 ... Camera (photographing means)
20 ... Image acquisition unit 30 ... Nose detection unit 31 ... Pre-processing unit (edge detection means)
31a: Low-resolution image generation unit (low-resolution image generation means)
31b ... Horizontal edge detection unit (horizontal edge detection means)
31c... Vertical edge detector (vertical edge detector)
32 ... Nose candidate detection unit (nasal candidate detection means)
32a ... Common point extraction unit 32b ... Nose candidate selection unit 33 ... Eye candidate detection unit (eye candidate detection means)
34 ... Eye-nose candidate selection unit (eye-nose candidate selection means)
35 ... Nose coordinate estimation unit (nasal coordinate estimation means)
40 ... Near-infrared illumination

Claims (10)

運転者の顔を撮影する撮影手段と、
前記撮影手段により撮影された顔の画像について、画像縦方向及び横方向にエッジ検出するエッジ検出手段と、
前記エッジ検出手段により検出された画像縦方向及び横方向のエッジの共通点から鼻の候補を検出する鼻候補検出手段と、
前記エッジ検出手段により検出された画像横方向のエッジから眼の候補を検出する眼候補検出手段と、
前記鼻候補検出手段及び前記眼候補検出手段により検出された鼻及び眼の候補を組み合わせ、これら組み合わせから眼鼻の候補として成立するものを選択する眼鼻候補選択手段と、
前記眼鼻候補選択手段により選択された眼鼻の候補から、統計的処理によって鼻の座標を推定する鼻座標推定手段と、
を備えることを特徴とする鼻検出装置。
Photographing means for photographing the driver's face;
Edge detection means for detecting edges in the vertical and horizontal directions of the face image taken by the photographing means;
Nose candidate detection means for detecting a nose candidate from a common point of the vertical and horizontal edges of the image detected by the edge detection means;
Eye candidate detection means for detecting eye candidates from edges in the horizontal direction of the image detected by the edge detection means;
A combination of nose and eye candidates detected by the nose candidate detection unit and the eye candidate detection unit, and an ophthalmic nose candidate selection unit that selects what is established as a candidate for an eye nose from these combinations;
Nose coordinate estimation means for estimating the coordinates of the nose by statistical processing from the candidates for the eye nose selected by the eye nose candidate selection means;
A nose detection device comprising:
前記撮影手段により撮影された顔画像の解像度を低下させた低解像度画像を生成する低解像度画像生成手段を更に備え、
前記エッジ検出手段は、前記低解像度画像生成手段により生成された低解像度画像を対象に、画像縦方向にエッジ検出する縦エッジ検出手段と、前記低解像度画像生成手段により生成された低解像度画像を対象に、画像横方向にエッジ検出する横エッジ検出手段と、を有する
ことを特徴とする請求項1に記載の鼻検出装置。
A low-resolution image generating unit that generates a low-resolution image with a reduced resolution of the face image captured by the imaging unit;
The edge detection means includes a vertical edge detection means for detecting an edge in the image vertical direction for the low resolution image generated by the low resolution image generation means, and a low resolution image generated by the low resolution image generation means. The nose detection device according to claim 1, further comprising: a horizontal edge detection unit configured to detect an edge in the horizontal direction of the image.
前記低解像度画像生成手段は、撮影された顔の画像の解像度を低下させた低解像度画像を生成するにあたり、予め設定される顔画像の所定領域についてのみ低解像度画像を生成することを特徴とする請求項2に記載の鼻検出装置。   The low-resolution image generation means generates a low-resolution image only for a predetermined area of a face image set in advance when generating a low-resolution image in which the resolution of the captured face image is reduced. The nose detection device according to claim 2. 前記低解像度画像生成手段は、撮影された顔の画像の解像度を低下させた低解像度画像を生成するにあたり、低解像度画像のそれぞれの画素と対応する顔画像の複数の画素について濃淡値の平均を求め、この平均値を低解像度画像の画素の濃淡値とすることを特徴とする請求項2に記載の鼻検出装置。   The low-resolution image generation means generates an average gray value for a plurality of pixels of the face image corresponding to each pixel of the low-resolution image when generating a low-resolution image in which the resolution of the captured face image is reduced. 3. The nose detection device according to claim 2, wherein the average value is obtained as a gray value of the pixels of the low resolution image. 前記横エッジ検出手段は、低解像度画像の縦方向の各ラインについて隣接する画素の濃淡値の差分が減少から増加に転じる極小点を探索することにより、低解像度画像の横方向のエッジを検出することを特徴とする請求項2〜請求項4のいずれか1項に記載の鼻検出装置。   The horizontal edge detecting means detects a horizontal edge of the low-resolution image by searching for a minimum point at which the difference between the gray values of adjacent pixels in each vertical line of the low-resolution image turns from decreasing to increasing. The nose detection apparatus according to any one of claims 2 to 4, wherein the nose detection apparatus is characterized. 前記縦エッジ検出手段は、低解像度画像の横方向の各ラインについて隣接する画素の濃淡値の差分が減少から増加に転じる極小点を探索することにより、低解像度画像の縦方向のエッジを検出することを特徴とする請求項2〜請求項5のいずれか1項に記載の鼻検出装置。   The vertical edge detection means detects a vertical edge of the low resolution image by searching for a minimum point where the difference between the gray values of adjacent pixels in each horizontal line of the low resolution image turns from decreasing to increasing. The nose detection apparatus according to any one of claims 2 to 5, wherein the nose detection apparatus is characterized. 前記鼻候補検出手段は、画像縦方向及び横方向のエッジとの共通点を組み合わせ、この組み合わせにより鼻孔として成立し得るものを鼻候補として検出することを特徴とする請求項1〜請求項6のいずれか1項に記載の鼻検出装置。   The said nose candidate detection means combines a common point with the edge of an image vertical direction and a horizontal direction, and detects what can be materialized as a nostril by this combination as a nose candidate. The nose detection apparatus of any one of Claims. 前記眼候補検出手段は、画像縦方向のエッジを組み合わせ、この組み合わせにより眼として成立し得るものを眼候補として検出することを特徴とする請求項1〜請求項7のいずれか1項に記載の鼻検出装置。   8. The eye candidate detection unit according to claim 1, wherein the eye candidate detection unit combines edges in the vertical direction of the image and detects an eye candidate that can be formed as an eye by this combination. 9. Nose detection device. 前記鼻座標推定手段は、前記統計的処理として、前記眼鼻候補選択手段により選択された眼鼻の候補を、鼻候補を基準に度数分布を形成し、形成された度数分布のうち最も眼鼻候補の度数が高い鼻候補を鼻と特定して、座標を推定することを特徴とする請求項1〜8のいずれか1項に記載の鼻検出装置。   The nose coordinate estimation means forms a frequency distribution based on the nose candidates as candidates for the eye nose selected by the eye nose candidate selection means as the statistical processing, and most of the formed nodal distribution The nose detection apparatus according to claim 1, wherein a nose candidate having a high candidate frequency is identified as a nose, and coordinates are estimated. 前記鼻座標推定手段は、過去の一定期間の顔画像から得られた眼鼻候補を、鼻座標を基準に度数分布を形成し、形成された度数分布のうち最も眼鼻候補の度数が高い鼻候補の位置を平均座標位置とし、現在の顔画像において、その平均座標位置に最も近い鼻候補を鼻と特定して、座標を推定することを特徴とする請求項1〜請求項8のいずれか1項に記載の鼻検出装置。   The nose coordinate estimation means forms a frequency distribution of eye nose candidates obtained from face images of a certain period in the past based on the nose coordinates, and the nose with the highest frequency of the eye nose candidate among the formed frequency distributions The candidate position is set as an average coordinate position, and in the current face image, the nose candidate closest to the average coordinate position is specified as the nose, and the coordinates are estimated. The nose detection device according to item 1.
JP2004220269A 2004-07-28 2004-07-28 Nose detection device Expired - Fee Related JP4543810B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004220269A JP4543810B2 (en) 2004-07-28 2004-07-28 Nose detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004220269A JP4543810B2 (en) 2004-07-28 2004-07-28 Nose detection device

Publications (2)

Publication Number Publication Date
JP2006038689A true JP2006038689A (en) 2006-02-09
JP4543810B2 JP4543810B2 (en) 2010-09-15

Family

ID=35903838

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004220269A Expired - Fee Related JP4543810B2 (en) 2004-07-28 2004-07-28 Nose detection device

Country Status (1)

Country Link
JP (1) JP4543810B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129901A (en) * 2006-11-22 2008-06-05 Aisin Seiki Co Ltd Glasses detection device, image processor, glasses detection method and computer program
JP2017054304A (en) * 2015-09-09 2017-03-16 株式会社東芝 Identification apparatus and authentication system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339476A (en) * 1999-05-28 2000-12-08 Oki Electric Ind Co Ltd Eye position and face position detection device
JP2002251617A (en) * 2001-02-22 2002-09-06 Toyota Central Res & Dev Lab Inc Device for detecting nose position
JP2004157778A (en) * 2002-11-06 2004-06-03 Advanced Telecommunication Research Institute International Nose position extraction method, program for operating it on computer, and nose position extraction device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000339476A (en) * 1999-05-28 2000-12-08 Oki Electric Ind Co Ltd Eye position and face position detection device
JP2002251617A (en) * 2001-02-22 2002-09-06 Toyota Central Res & Dev Lab Inc Device for detecting nose position
JP2004157778A (en) * 2002-11-06 2004-06-03 Advanced Telecommunication Research Institute International Nose position extraction method, program for operating it on computer, and nose position extraction device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008129901A (en) * 2006-11-22 2008-06-05 Aisin Seiki Co Ltd Glasses detection device, image processor, glasses detection method and computer program
JP2017054304A (en) * 2015-09-09 2017-03-16 株式会社東芝 Identification apparatus and authentication system
US9858471B2 (en) 2015-09-09 2018-01-02 Kabushiki Kaisha Toshiba Identification apparatus and authentication system

Also Published As

Publication number Publication date
JP4543810B2 (en) 2010-09-15

Similar Documents

Publication Publication Date Title
US10684681B2 (en) Neural network image processing apparatus
Feris et al. Detection and tracking of facial features in video sequences
EP2242253B1 (en) Electronic camera and image processing method
US8891819B2 (en) Line-of-sight detection apparatus and method thereof
JP4811259B2 (en) Gaze direction estimation apparatus and gaze direction estimation method
EP2930656B1 (en) Eye gaze detection apparatus, eye gaze detection program and eye gaze detection method
WO2017036160A1 (en) Glasses removal method for facial recognition
CN102473282B (en) External light glare assessment device, line of sight detection device and external light glare assessment method
US20120057748A1 (en) Apparatus which detects moving object from image and method thereof
JP2007265367A (en) Program, apparatus and method for detecting line of sight
JP2003150942A (en) Eye position tracing method
JP2007114029A (en) Face center position detector, face center position detection method, and program
JP2006065640A (en) Face part location detection device, method, and program
CN111291701A (en) Sight tracking method based on image gradient and ellipse fitting algorithm
KR100977259B1 (en) Method for a human searching and tracking using a multifulscale histogram of oriented gradient
KR101146417B1 (en) Apparatus and method for tracking salient human face in robot surveillance
JP4543810B2 (en) Nose detection device
JP2004192552A (en) Eye opening/closing determining apparatus
US9832371B2 (en) Imaging device and method for controlling imaging device
JP4696571B2 (en) Eye position detection device
KR20120049605A (en) Apparatus and method for detecting center of pupil
Stamou et al. A monocular system for automatic face detection and tracking
CN110073406A (en) Face detection means and its control method and program
JP4996943B2 (en) Facial feature point detection apparatus, facial feature point detection method, and program
Schmidt Feris et al. Detection and tracking of facial features in video sequences

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070625

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091001

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100608

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100621

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees