JP4912206B2 - Image processing method, image processing apparatus, image processing system, and computer program - Google Patents
Image processing method, image processing apparatus, image processing system, and computer program Download PDFInfo
- Publication number
- JP4912206B2 JP4912206B2 JP2007109751A JP2007109751A JP4912206B2 JP 4912206 B2 JP4912206 B2 JP 4912206B2 JP 2007109751 A JP2007109751 A JP 2007109751A JP 2007109751 A JP2007109751 A JP 2007109751A JP 4912206 B2 JP4912206 B2 JP 4912206B2
- Authority
- JP
- Japan
- Prior art keywords
- spectacle
- face
- image
- eye
- search area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本発明は、顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域内で眼の位置を検出する画像処理方法、該画像処理方法を実施する画像処理装置、該画像処理装置を備えた画像処理システム、及びコンピュータを前記画像処理装置として機能させるためのコンピュータプログラムに関する。 The present invention relates to an image processing method for setting a search region in which an eye is to be searched from an image including a face and glasses, and detecting the position of the eye in the search region, an image processing apparatus for executing the image processing method, and the image The present invention relates to an image processing system including a processing device and a computer program for causing a computer to function as the image processing device.
自動車等の車両の運転状態を監視する運転状態監視システムが提案されている。運転状態監視システムは、運転者の顔を撮像できる適宜箇所に設置された撮像装置及び画像処理装置等から構成されている。撮像装置は運転者の顔を撮像し、画像処理装置は撮像して得られた画像から運転者の眼を検出して運転者の居眠りを検知する(例えば、特許文献1)。運転状態監視システムを用いることにより、運転者の居眠り運転を検知することができ、居眠り運転を行っている運転者にアラームで注意勧告するシステムを構成することも可能である。 An operation state monitoring system that monitors the operation state of a vehicle such as an automobile has been proposed. The driving state monitoring system is configured by an imaging device, an image processing device, and the like installed at appropriate places where a driver's face can be imaged. The imaging device captures the driver's face, and the image processing device detects the driver's eyes from the captured image to detect the driver's sleep (for example, Patent Document 1). By using the driving state monitoring system, it is possible to detect a driver's drowsy driving, and it is also possible to configure a system that advises a driver who is driving a nap with an alarm.
眼を検出する装置としては、画像の垂直方向における輝度変化の局所的な高まりと、顔における眼、眉等の一般的配置から眼の位置を検出する居眠り状態検出装置が提案されている(例えば、特許文献1)。 As a device for detecting an eye, a dozing state detection device that detects a local increase in luminance change in the vertical direction of an image and a general position such as an eye and an eyebrow on a face has been proposed (for example, Patent Document 1).
ところが、特許文献1に係る居眠り検出装置は、輝度変化と眼の一般的配置から眼を検出する構成であるため、運転者が眼鏡をかけているような場合、検出対象に眼のみならず輝度変化が眼に近似した眼鏡のフレーム、眼鏡ブリッジ等も含まれてしまい、眼の位置検出が困難になる。
However, since the dozing detection device according to
上記問題点を考慮した画像処理システムが提案されている(例えば、特許文献2)。特許文献2に係る画像処理システムの撮像装置は、眼鏡蔓を撮像するために運転者の斜め前方に設置されており、運転者を斜めから撮像する。画像処理装置は、斜め方向から撮像された運転者の画像から眼鏡蔓を検出する。そして画像処理装置は、眼鏡蔓の蝶板側端部を基準として、所定方向へ所定距離離隔した所定領域を眼の探索領域として設定し、眼の位置を検出する。
しかしながら、眼鏡部品及び眼の位置関係は人によって異なり、顔の向きによっても変化するため、一意に決めた探索領域では眼を検出することができない場合があった。 However, the positional relationship between the spectacle parts and the eyes varies depending on the person and varies depending on the orientation of the face. Therefore, there are cases where the eyes cannot be detected in a uniquely determined search area.
本発明は斯かる事情に鑑みてなされたものであり、顔部位の幅、複数の顔部位間の幅又は顔領域の幅に応じて眼鏡部品に対する眼の相対距離が変化する傾向があるため、眼鏡部品に対する相対距離が前記幅の広/狭に応じて長/短となるように探索領域を設定することにより、運転者の個人差又は顔の向きに応じた探索領域を設定することができ、眼の位置を正確に検出することができる画像処理方法、該画像処理方法を実施する画像処理装置、該画像処理装置を備えた画像処理システム、コンピュータを前記画像処理装置として機能させるコンピュータプログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, because the relative distance of the eye to the spectacle component tends to change according to the width of the face part, the width between the plurality of face parts or the width of the face region, By setting the search area so that the relative distance to the spectacle parts becomes long / short according to the wide / narrow width, it is possible to set the search area according to the individual difference of the driver or the face direction. An image processing method capable of accurately detecting the position of an eye, an image processing device that implements the image processing method, an image processing system including the image processing device, and a computer program that causes a computer to function as the image processing device The purpose is to provide.
本発明の他の目的は、顔部位の幅、複数の顔部位間の幅又は顔領域の幅に応じた寸法を有する探索領域を選択するように構成することにより、運転者の個人差又は顔の向きに応じた探索領域を設定することができ、眼の位置を正確に検出することができる画像処理装置及び該画像処理装置を備えた画像処理システムを提供することにある。 Another object of the present invention is to select a search area having a size corresponding to the width of the face part, the width between a plurality of face parts, or the width of the face area, thereby allowing individual differences in the driver or the face. It is an object of the present invention to provide an image processing apparatus that can set a search area according to the orientation of the eye and accurately detect the position of the eye, and an image processing system including the image processing apparatus.
本発明の他の目的は、検出された眼鏡部品の領域を探索領域から除外するように構成することにより、眼鏡部品を眼と誤検出することを防止し、眼を正確に検出することができる画像処理装置及び該画像処理装置を備えた画像処理システムを提供することにある。 Another object of the present invention is to exclude the detected spectacle component region from the search region, thereby preventing erroneous detection of the spectacle component as an eye and accurately detecting the eye. An image processing apparatus and an image processing system including the image processing apparatus are provided.
本発明の他の目的は、過去の一の画像から検出された顔部位、眼鏡部品及び眼の位置を記憶する記憶手段を備え、一の画像における眼の位置と他の画像における探索領域の位置とが対応するように探索領域を設定するように構成することにより、運転者の個人差、顔の向きに応じて探索領域を適切に設定することができ、眼の位置を正確に検出することができる画像処理装置及び該画像処理装置を備えた画像処理システムを提供することにある。 Another object of the present invention includes storage means for storing the position of a face, spectacle parts, and eyes detected from one image in the past, and the position of the eye in one image and the position of the search region in another image. By configuring the search area so as to correspond to each other, it is possible to appropriately set the search area according to the individual difference of the driver and the orientation of the face, and to accurately detect the eye position And an image processing system including the image processing apparatus.
本発明の他の目的は、眼鏡ブリッジ、眼鏡フレーム又は眼鏡蔓を各部品の特徴に着眼して検出して上述の処理を実行することにより、運転者の個人差又は顔の向きに応じた探索領域を設定することができ、眼の位置を正確に検出することができる画像処理装置及び該画像処理装置を備えた画像処理システムを提供することにある。 Another object of the present invention is to search according to the individual difference of the driver or the face direction by detecting the spectacle bridge, spectacle frame or spectacle vine by focusing on the characteristics of each component and executing the above-described processing. An object of the present invention is to provide an image processing apparatus capable of setting a region and accurately detecting the position of an eye, and an image processing system including the image processing apparatus.
第1発明に係る画像処理方法は、顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出する画像処理方法において、画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、画像から眼鏡部品の位置を検出するステップと、検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップとを有することを特徴とする。 An image processing method according to a first aspect of the present invention is an image processing method for setting a search area where an eye is to be searched from an image including a face and glasses, and detecting the position of the eye from the search area. Detecting a part or face region to calculate a face part, a plurality of face parts or a width of the face area, detecting a position of the spectacle part from the image, and being separated from the detected spectacle part, And a step of setting a search area so that a relative distance to the spectacle component becomes long / short according to the wide / narrow width.
第2発明に係る画像処理装置は、顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出する画像処理装置において、画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出する領域幅算出手段と、画像から眼鏡部品の位置を検出する眼鏡部品検出手段と、検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定する設定手段とを備えることを特徴とする。 An image processing apparatus according to a second aspect of the present invention is an image processing apparatus for setting a search area where an eye is to be searched from an image including a face and glasses, and detecting the position of the eye from the search area. Region width calculating means for detecting a part or a face area to calculate a face part, between a plurality of face parts or the width of the face area, spectacle part detecting means for detecting the position of the spectacle part from the image, and the detected spectacle part And setting means for setting a search area so that a relative distance to the spectacle component becomes long / short according to the wide / narrow of the width.
第3発明に係る画像処理装置は、前記設定手段は、前記幅に応じた寸法を有する探索領域を設定するようにしてあることを特徴とする。 The image processing apparatus according to a third aspect is characterized in that the setting means sets a search area having a dimension corresponding to the width.
第4発明に係る画像処理装置は、探索領域中に眼鏡部品が含まれた場合、前記眼鏡部品検出手段にて検出された眼鏡部品の領域を探索領域から除外する手段を備えることを特徴とする。 According to a fourth aspect of the present invention, there is provided an image processing apparatus comprising: means for excluding a spectacle part area detected by the spectacle part detection means from the search area when the spectacle part is included in the search area. .
第5発明に係る画像処理装置は、時系列で画像を取得するように構成してあり、各画像から眼以外の顔部位を検出する顔部位検出手段と、一の画像から検出された顔部位、眼鏡部品及び眼の位置を記憶する記憶手段とを備え、前記設定手段は、他の画像から検出された顔部位及び眼鏡部品の位置、並びに前記記憶手段が記憶している顔部位、眼鏡部品及び眼の位置を比較して、一の画像における眼の位置と他の画像における探索領域の位置とが対応するように探索領域を設定する手段を備えることを特徴とする。 An image processing apparatus according to a fifth aspect of the present invention is configured to acquire images in time series, and includes a facial part detection unit that detects a facial part other than an eye from each image, and a facial part detected from one image. Storage means for storing eyeglass parts and eye positions, and the setting means includes the positions of face parts and eyeglass parts detected from other images, and the face parts and eyeglass parts stored in the storage means. And a means for comparing the positions of the eyes and setting the search area so that the position of the eye in one image corresponds to the position of the search area in another image.
第6発明に係る画像処理装置は、前記眼鏡部品は、眼鏡ブリッジ、眼鏡フレーム又は眼鏡蔓を含むことを特徴とする。
第7発明に係る画像処理装置は、顔の向きを検出する顔の向き検出手段を備え、前記眼鏡部品検出手段は、前記検出手段が横向きであることを検出した場合、眼鏡蔓を検出するように構成してあることを特徴とする。
An image processing apparatus according to a sixth aspect of the invention is characterized in that the spectacle component includes a spectacle bridge, a spectacle frame, or a spectacle vine.
According to a seventh aspect of the present invention, there is provided an image processing apparatus comprising a face direction detecting means for detecting a face direction, wherein the eyeglass component detecting means detects a spectacle vine when detecting that the detecting means is in a landscape orientation. It is comprised by these.
第8発明に係る画像処理システムは、第2発明乃至第6発明のいずれか一つに記載の画像処理装置と、車両の運転者を撮像する撮像装置とを備え、前記画像処理装置は、前記撮像装置が撮像して得た画像から眼の位置を検出するように構成してあることを特徴とする。 An image processing system according to an eighth invention includes the image processing device according to any one of the second to sixth inventions, and an imaging device that images a driver of the vehicle. The imaging device is configured to detect the position of the eye from an image obtained by imaging.
第9発明に係るコンピュータプログラムは、コンピュータに、第1発明に係るステップを実行させることを特徴とする。 A computer program according to a ninth invention causes a computer to execute the steps according to the first invention.
第1、2、8、9発明にあっては、眼鏡部品の位置を検出し、該眼鏡部品の位置を基準にして探索領域を設定する。眼鏡部品及び眼の位置関係は個人差、顔の向き等によって異なり、顔部位の幅、複数の顔部位間の幅又は顔領域の幅の広/狭に応じて眼鏡部品に対する眼の相対位置も長/短となる傾向がある。そこで、眼鏡部品に対する相対距離が前記幅の広/狭に応じて長/短となるように探索領域を設定することにより、眼を含む探索領域をより適切に設定することができ、眼の検出精度を向上させることができる。つまり、顔部位の幅、複数の顔部位間の幅又は顔領域の幅が広い場合、前記相対距離が長くなり、前記幅が狭い場合、前記相対距離が短くなるように探索領域を設定することにより、眼の検出精度を向上させることができる。 In the first, second, eighth , and ninth inventions, the position of the spectacle component is detected, and the search area is set based on the position of the spectacle component. The positional relationship between the eyeglass component and the eye varies depending on individual differences, face orientation, etc., and the relative position of the eye with respect to the eyeglass component also depends on the width of the face part, the width between the face parts, or the width of the face area. There is a tendency to be long / short. Therefore, by setting the search area so that the relative distance to the spectacle component becomes longer / shorter according to the wide / narrow width, the search area including the eyes can be set more appropriately, and eye detection can be performed. Accuracy can be improved. That is, the search area is set so that the relative distance becomes longer when the width of the face part, the width between the plurality of face parts or the width of the face area is wide, and the relative distance becomes shorter when the width is narrow. Thus, the eye detection accuracy can be improved.
第3及び第8発明にあっては、顔部位の幅、複数の顔部位間の幅又は顔領域の幅の長短に応じて眼の大きさも変化する傾向があるため、設定手段は前記幅に応じた寸法を有する探索領域を設定する。従って、眼を含む探索領域をより適切に設定することができ、眼の検出精度を向上させることができる。 In the third and eighth inventions, since the size of the eye tends to change according to the width of the face part, the width between the plurality of face parts, or the width of the face area, the setting means has the above width. A search area having a corresponding size is set. Therefore, the search area including the eyes can be set more appropriately, and the eye detection accuracy can be improved.
第4及び第8発明にあっては、探索領域に眼鏡部品が含まれた場合、例えば眼鏡ブリッジ、眼鏡フレームが含まれた場合、眼鏡部品が眼と誤検出される虞があるため、眼鏡部品検出手段が検出した眼鏡部品を探索領域から除外する。従って、眼の誤検出を防止することができ、眼の検出精度を向上させることができる。 In the fourth and eighth inventions, when a spectacle part is included in the search area, for example, when a spectacle bridge or spectacle frame is included, the spectacle part may be erroneously detected as an eye. The spectacle parts detected by the detecting means are excluded from the search area. Accordingly, erroneous eye detection can be prevented and eye detection accuracy can be improved.
第5及び第8発明にあっては、画像処理装置は時系列で画像データを取得し、顔部位検出手段、眼鏡部品検出手段等が各画像から顔部位、眼鏡部品、眼を検出する。そして、記憶手段は一の画像、つまり過去の画像から検出された顔部位、眼鏡部品、眼の位置を記憶する。そして、設定手段は、過去の位置の画像における顔部位、眼鏡部品、及び眼の位置関係と、他の画像、つまり現在の画像から検出された顔部位及び眼鏡部品とを比較し、一の画像における眼の位置と他の画像における探索領域の位置とが対応するような探索領域を設定する。
従って、運転者の姿勢、顔の向き等によらず、より正確に眼を含む探索領域を設定し、高精度に眼を検出することができる。
In the fifth and eighth inventions, the image processing apparatus acquires image data in time series, and the face part detection means, the spectacle part detection means, etc. detect the face part, spectacle parts, and eyes from each image. And a memory | storage means memorize | stores the position of the face part, spectacles components, and eyes which were detected from one image, ie, the past image. Then, the setting means compares the positional relationship between the face part, the spectacle part, and the eye in the image at the past position with another image, that is, the face part and the spectacle part detected from the current image. A search area is set such that the position of the eye at and the position of the search area in another image correspond to each other.
Therefore, it is possible to set the search area including the eyes more accurately and detect the eyes with high accuracy irrespective of the driver's posture, face orientation, and the like.
第6、第7及び第8発明にあっては、眼鏡部品として眼鏡ブリッジ、眼鏡フレーム又は眼鏡蔓を検出して、探索領域の設定及び眼の検出を行う。なお、眼鏡ブリッジ、眼鏡フレーム又は眼鏡蔓は、その特徴を抽出することにより、眼と区別して検出することができる。 In the sixth , seventh, and eighth inventions, a spectacle bridge, a spectacle frame, or a spectacle vine is detected as a spectacle component, and a search area is set and an eye is detected. Note that the spectacle bridge, the spectacle frame, or the spectacle vine can be detected separately from the eye by extracting the feature.
第1、第2、第8及び第9発明にあっては、眼鏡部品から離隔していて、該眼鏡部品に対する相対距離が顔部位の幅、複数の顔部位間の幅又は顔領域の幅に応じて長短するように探索領域を設定することにより、運転者の個人差又は顔の向きに応じた探索領域を設定することができ、眼の位置を正確に検出することができる。
特に、眼鏡部品を基準として所定領域における輝度平均値を算出する手段と、該所定領域における輝度分散値を算出する手段と、算出された輝度平均値及び輝度分散値に基づいて、サングラスの有無を判定する手段とを備え、サングラス無しと判定された場合、探索領域から眼の位置を検出するように構成した場合、眼を検出できない状態で位置検出を試みることにより生ずる誤検出を効果的に防止することができる。
In the first, second, eighth, and ninth inventions, the distance from the spectacle component is the distance between the spectacle component, the width of the face portion, the width between the face portions, or the width of the face region. Accordingly, by setting the search area so as to be longer and shorter, it is possible to set the search area according to the individual difference of the driver or the direction of the face, and to accurately detect the eye position.
In particular, a means for calculating a luminance average value in a predetermined area with reference to the spectacle part, a means for calculating a luminance dispersion value in the predetermined area, and the presence / absence of sunglasses based on the calculated luminance average value and the luminance dispersion value. If it is configured to detect the position of the eye from the search area when it is determined that there is no sunglasses, it effectively prevents false detection caused by trying to detect the position when the eye cannot be detected. can do.
第3及び第8発明によれば、顔部位の幅、複数の顔部位間の幅又は顔領域の幅に応じた寸法を有する探索領域を選択するように構成することにより、運転者の個人差又は顔の向きに応じた探索領域を設定することができ、眼の位置を正確に検出することができる。 According to the third and eighth aspects of the present invention, it is possible to select a search area having a size corresponding to the width of the face part, the width between the plurality of face parts, or the width of the face area, so that the individual difference of the driver Alternatively, a search area can be set according to the orientation of the face, and the eye position can be accurately detected.
第4及び第8発明によれば、眼と誤検出され易い眼鏡部品を探索領域から除外して眼を正確に検出することができる。 According to the fourth and eighth aspects of the invention, it is possible to accurately detect the eye by excluding eyeglass parts that are likely to be erroneously detected as eyes from the search area.
第5及び第8発明によれば、過去の画像について記憶した顔部位、眼鏡位置及び眼の位置と、現フレームの画像から検出された顔部位及び眼鏡部品の位置とを比較することによって眼を探索すべき探索領域を設定することにより、運転者の個人差、顔の向きに応じて探索領域を適切に設定することができ、眼の位置を正確に検出することができる。 According to the fifth and eighth aspects of the present invention, the face part, the spectacle position and the eye position stored for the past image are compared with the face part and spectacle component positions detected from the image of the current frame. By setting the search area to be searched, the search area can be appropriately set according to the individual difference of the driver and the orientation of the face, and the eye position can be accurately detected.
第6、第7及び第8発明によれば、眼鏡ブリッジ、眼鏡フレーム又は眼鏡蔓を検出して上述の処理を実行することにより、運転者の個人差又は顔の向きに応じた探索領域を設定することができ、眼の位置を正確に検出することができる。
なお、顔の向きを検出する顔の向き検出手段を備え、前記検出手段が横向きであることを検出した場合、眼鏡部品検出手段が眼鏡蔓を検出するように構成した場合、検出可能性を考慮して眼鏡蔓の位置を検出することができるため、無駄な検出処理を省いて眼鏡蔓及び眼の位置の誤検出を防止することができる。
また、眼鏡部品を検出するための閾値を記憶する手段と、眼鏡部品検出手段による眼鏡部品の検出率を算出する手段と、検出された眼鏡部品の算出率に応じて前記閾値を増減させる手段とを備えた場合、眼鏡部品の特徴に応じた適切な閾値を設定して眼鏡部品及び眼の検出精度を向上させることができる。
According to the sixth , seventh, and eighth inventions, the search area corresponding to the individual difference of the driver or the face direction is set by detecting the spectacle bridge, the spectacle frame, or the spectacle vine and executing the above-described processing. The position of the eye can be detected accurately.
In addition, it is provided with a face direction detecting means for detecting the face direction, and when detecting that the detecting means is in landscape orientation, the spectacle component detecting means is configured to detect the spectacle vine. Since the position of the eyeglass vine can be detected, it is possible to prevent erroneous detection of the position of the eyeglass vine and the eye by omitting useless detection processing.
Means for storing a threshold value for detecting the spectacle component; means for calculating a detection rate of the spectacle component by the spectacle component detection means; and means for increasing or decreasing the threshold according to the calculated calculation rate of the spectacle component. In this case, it is possible to improve the accuracy of detection of spectacle parts and eyes by setting an appropriate threshold according to the characteristics of the spectacle parts.
以下、本発明をその実施の形態を示す図面に基づいて詳述する。
図1は、本発明の実施の形態における画像処理システムの構成例を示すブロック図である。図中1は、車両に搭載された撮像装置であり、撮像装置1は、画像処理を行う画像処理装置2に通信網を介して接続されている。通信網は、例えば専用ケーブル等の通信線、又は有線若しくは無線の車内LAN(Local Area Network)によって構成されている。
Hereinafter, the present invention will be described in detail with reference to the drawings illustrating embodiments thereof.
FIG. 1 is a block diagram illustrating a configuration example of an image processing system according to an embodiment of the present invention. In FIG. 1,
撮像装置1は、車両内のハンドル、ダッシュボード等の運転者の前方に配設され、運転者の顔の横方向及び縦方向が画像の水平方向及び垂直方向になるように撮像することが可能な状態に調整されている。
撮像装置1は、装置全体を制御するMPU(Micro Processor Unit)11と、MPU11の制御に基づき実行される各種コンピュータプログラム及びデータを記録するROM(Read Only Memory)12と、ROM12に記録されたコンピュータプログラムの実行時に一時的に発生する各種データを記録するRAM(Random Access Memory)13と、CCD(Charge Coupled Device)等の撮像素子を用いて構成される撮像部14と、撮像部14の撮像により得られたアナログの画像データをデジタルデータに変換するA/D変換器15と、A/D変換器15によりデジタルに変換された画像データを一時的に記録するフレームメモリ16と、画像処理装置2との通信に用いられる通信インタフェース17とを備えている。
The
The
撮像装置1では、撮像部14が、連続的又は断続的に撮像処理を行い、撮像処理に基づいて例えば1秒当たり30枚の画像データ(画像フレーム)を生成してA/D変換器15へ出力する。A/D変換器15は、画像を構成する各画素を256階調(1Byte)等の階調にて示されるデジタルの画像データに変換し、フレームメモリ16に記録させる。フレームメモリ16に記録させた画像データは、所定のタイミングで通信インタフェース17から画像処理装置2へ出力される。
In the
画像を構成する各画素は、二次元に配列されており、画像データは、平面直角座標系、所謂XY座標系にて示される各画素の位置、及び階調値として示される各画素の輝度を示すデータ(輝度値)を含んでいる。画像の水平方向は、画像データのX軸方向に対応し、画像の垂直方向は、画像データのY軸方向に対応する。
なお、各画素に対し夫々XY座標系による座標を示すのでは無く、データ内に配列される順序により座標を示す様にしても良い。また、本実施の形態ではグレイスケイルの画像データに基づく画像処理を説明する。カラーの画像データを用いる場合、該画像データを構成する画素の輝度データについて同様の画像処理を実行すれば良い。
Each pixel constituting the image is two-dimensionally arranged, and the image data includes the position of each pixel indicated by a plane rectangular coordinate system, a so-called XY coordinate system, and the luminance of each pixel indicated as a gradation value. Data (luminance value) to be shown is included. The horizontal direction of the image corresponds to the X-axis direction of the image data, and the vertical direction of the image corresponds to the Y-axis direction of the image data.
The coordinates may be shown in the order in which they are arranged in the data, instead of showing the coordinates in the XY coordinate system for each pixel. In this embodiment, image processing based on grayscale image data will be described. When color image data is used, similar image processing may be executed on the luminance data of the pixels constituting the image data.
画像処理装置2はコンピュータを実装しており、装置全体を制御するCPU(Central Processing Unit)21と、本発明の実施の形態に係るコンピュータプログラム31並びに眼鏡部品及び眼を検出するための各種閾値、所定値等の各種情報を記録した記録媒体41、例えばCD−ROMから情報を読み取る補助記録部22と、補助記録部22により読み取った各種情報を記録するハードディスク(以下HDという)23と、HD23に記録されたコンピュータプログラム31の実行時に一時的に発生する各種データを記録するRAM24と、揮発性メモリにて構成されるフレームメモリ25と、撮像装置1との通信に用いられる通信インタフェース26とを備えている。
The
本発明のコンピュータプログラム31は、少なくともコンピュータに、顔及び眼鏡Gを含む画像から顔領域を検出して顔幅を算出する処理と、画像から眼鏡部品の位置を検出する処理と、検出された眼鏡部品から離隔していて、顔幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定する処理とを実行させるためのプログラムを含む。また、記録媒体41には、コンピュータプログラム31がコンピュータ読み取り可能に記録されている。
なお、コンピュータプログラム31は、言うまでもなく外部のコンピュータから有線又は無線の通信ネットワークを介して流通するものも含み、画像処理装置2が該通信ネットワークを介してコンピュータプログラム31を取得し、HD23に記録するようにしても良い。
The
Needless to say, the
そしてCPU21が、HD23から本発明のコンピュータプログラム31及びデータ等の各種情報を読み取り、RAM24に記録させてコンピュータプログラム31に含まれる各種処理手順を実行することで、コンピュータは、本実施の形態の画像処理装置2として動作する。
The
画像処理装置2は、撮像装置1から出力された画像データを通信インタフェース26にて受け付け、受け付けた画像データをフレームメモリ25に記録し、フレームメモリ25に記録した画像データを読み出して、様々な画像処理を行う。
The
次に本発明の実施の形態における画像処理システムにて用いられる各種装置の処理内容について説明する。 Next, processing contents of various devices used in the image processing system according to the embodiment of the present invention will be described.
図2は、顔及び眼鏡Gを含む画像から眼を検出するCPU21の処理手順を示すフローチャートである。まず、画像処理装置2のCPU21は、フレームメモリ25から画像データを時系列的に取得する(ステップS11)。そして、CPU21は、取得した画像データから運転者の顔領域を検出する(ステップS12)。また、CPU21は、眼以外の顔部位、例えば鼻穴を検出する(ステップS13)。
FIG. 2 is a flowchart showing a processing procedure of the
次いで、CPU21は、第1の眼鏡部品認識処理を実行する(ステップS14)。第1の眼鏡部品認識処理では、眼鏡ブリッジH、眼鏡上フレームI及び眼鏡蔓Jを検出する(図8参照)。そして、CPU21は、第2の眼鏡部品認識処理を実行する(ステップS15)。第2の眼鏡部品認識処理では、眼鏡下フレームK及び眼鏡上フレームIを検出し(図26、29参照)、あわせてサングラスであるか否かを判定する。眼鏡部品認識処理を終えた場合、CPU21は、認識結果を用いて眼鏡学習処理及び眼鏡判定処理を実行する(ステップS16)。眼鏡学習処理では、各眼鏡部品の取得率、眼鏡部品の位置を記憶する。なお、各眼鏡部品の取得率等は、顔の向きによって区分して記憶すると良い。また、各眼鏡部品の取得率に応じて、各眼鏡部品又は顔部位を検出するための各種閾値、所定値を変更するように構成すると良い。各眼鏡部品又は顔部位の形状、輝度変化等は眼鏡Gの種類、人によって異なるが、取得率を参照して最適な閾値を設定することで眼鏡部品又は顔部位の検出精度を向上させることができる。
例えば、眼鏡ブリッジHの取得率が95%であって、眼鏡上フレームIの取得率が60%のような場合、眼鏡Gが存在しており、眼鏡上フレームIを検出するための閾値が適切でないために眼鏡上フレームIが検出されていない可能性がある。このような場合、眼鏡上フレームIを検出するための閾値を、検出が容易になるように変更することによって、眼鏡上フレームIをより正確に検出することができるようになる。
逆に、眼鏡ブリッジHの取得率が0%であって、眼鏡上フレームIの取得率が15%のような場合、眼鏡Gが存在しておらず、眼鏡上フレームIを検出するための閾値が適切で無いために眼鏡上フレームIを誤検出している可能性がある。このような場合、眼鏡上フレームIを検出するための閾値を、誤検出が生じないように変更することによって、眼鏡上フレームIをより正確に検出することができるようになる。
眼鏡判定処理では、各眼鏡部品の取得率に基づいて総合的に眼鏡Gの有無を判定する。
Next, the
For example, when the acquisition rate of the spectacles bridge H is 95% and the acquisition rate of the spectacles frame I is 60%, the spectacles G are present and the threshold value for detecting the spectacles frame I is appropriate. Therefore, there is a possibility that the frame I on the glasses is not detected. In such a case, the spectacles frame I can be detected more accurately by changing the threshold value for detecting the spectacles frame I so as to facilitate detection.
Conversely, when the acquisition rate of the spectacles bridge H is 0% and the acquisition rate of the spectacles frame I is 15%, the spectacles G are not present and the threshold value for detecting the spectacles frame I is detected. Is not appropriate, there is a possibility that the frame I on the glasses is erroneously detected. In such a case, the spectacles frame I can be detected more accurately by changing the threshold value for detecting the spectacles frame I so that erroneous detection does not occur.
In the eyeglass determination process, the presence or absence of the eyeglasses G is comprehensively determined based on the acquisition rate of each eyeglass component.
次いで、CPU21は、サングラスの有無を判定する(ステップS17)。サングラスにより眼が隠蔽されている場合、眼を検出することはできず、サングラスレンズの上部又は下部を眼と誤認識する虞があるが、ステップS17の処理によって誤認識の問題を回避することができる。
Next, the
サングラス有りと判定した場合(ステップS17:YES)、CPU21は、眼の検出に係る処理を終える。サングラス無しと判定した場合(ステップS17:NO)、CPU21は、眼鏡部品の領域を除外した探索領域を設定し(ステップS18)、該探索領域から眼の位置を検出する(ステップS19)。そして、CPU21は眼の再検出処理を実行する(ステップS20)。眼の再検出処理では、検出された眼鏡部品の位置から所定方向に離隔した探索領域を設定する。特に、CPU21は、個人差、顔の向き等を考慮し、眼鏡部品に対する探索領域の相対距離が顔幅に応じて長短し、探索領域の寸法も大小するように探索領域を設定する。また、眼鏡部品、顔部位及び眼の位置に関する過去の認識結果を用いて探索領域を設定する。そして、設定された探索領域から眼を再検出する。
If it is determined that there is sunglasses (step S17: YES), the
最後に、CPU21は、ステップS19及びステップS20で検出された眼の位置の内、より信頼性が高い眼の位置を確定し、ステップS13で検出された顔部位と、ステップS14,15で検出された各眼鏡部品と、眼位置との位置関係をHD23に登録する(ステップS21)。なお、登録処理は他のタイミングで適宜実行するように構成しても良い。CPU21は、顔の向きが正面側により近い状態で顔部位、各眼鏡部品、及び眼位置を検出した場合、HD23に記録されている位置関係を更新する。顔の向きの検出方法は公知の技術であり、例えば水平方向で、顔領域に対する鼻の位置により判定する。また、眼の形状で判断するように構成しても良い。更に、出現頻度が高い位置関係を正面時の位置関係として記録するように構成しても良い。
Finally, the
以下、図2のフローチャートを用いて説明した処理内容を更に具体的に説明する。
図3は、顔領域の検出方法を概念的に示す説明図である。ステップS12においてCPU21は、画像の各Y座標について、水平方向に並ぶ各画素の輝度値を積算し、積算して得た輝度積算値と、所定の閾値とを比較することで垂直方向における顔領域R0の範囲を検出する。Fy1は、垂直方向における顔領域R0の上端のY座標を、Fy2は、垂直方向における顔領域R0の下端のY座標を示している。顔領域R0は、髪の領域及び背景領域と比較して明るく撮像されため、輝度積算値と閾値とを比較することによって顔領域R0を検出することができる。
Hereinafter, the processing content described using the flowchart of FIG. 2 will be described more specifically.
FIG. 3 is an explanatory diagram conceptually showing a face area detection method. In step S12, the
同様に、CPU21は、画像の各X座標について、垂直方向に並ぶ各画素の輝度値を積算し、積算して得た輝度積算値と、所定の閾値とを比較することで水平方向における顔領域R0の範囲を検出する。Fx1は、水平方向における顔領域R0の左端を、Fx2は、水平方向における顔領域R0の右端を示している。なお、「左」は、撮像装置1側から見た左、即ち図3の紙面における左側を意味し、「右」は図3の紙面における右側を意味している。従って、撮像されている運転者側から見ると左右が逆になる。
Similarly, the
図4は、鼻の位置検出方法を概念的に示す説明図である。図4中、実線で示す外側の矩形枠は画像全体を示しており、該矩形枠の内側であって鼻を囲む破線で描かれた矩形枠は鼻を検出するための検出処理範囲R1を示している。 FIG. 4 is an explanatory diagram conceptually showing a nose position detection method. In FIG. 4, an outer rectangular frame indicated by a solid line indicates the entire image, and a rectangular frame drawn by a broken line surrounding the nose inside the rectangular frame indicates a detection processing range R <b> 1 for detecting the nose. ing.
ステップS13においてCPU21は、鼻を検出するための検出処理領域R1を検出すべく、水平方向に並ぶ画素の輝度値を積算し、積算した結果から垂直方向の輝度積算値の変化を導出する。そして、CPU21は、導出された垂直方向における輝度積算値の変化から、極小値を示す複数のY座標位置を検出する。この処理によって、水平方向における輝度平均が低い眉、眼、鼻及び口をも含む複数の検出対象の候補が検出される。次いで、CPU21は検出された極小値を示すY座標において水平方向に並ぶ画素の輝度値の変化から、検出対象の候補の両端を検出し、水平方向における極小点を検出する。鼻の周辺部分においては、「×」印で示すように小鼻の両端と、鼻穴に相当する2つの極小点が検出される。CPU21は、顔幅Fw=Fx2−Fx1と、水平方向における小鼻両端の長さとの比、極小点の数等に基づいて、鼻周辺の検出処理範囲を特定する。次いで、CPU21は、水平方向に並ぶ画素の輝度値の変化から、極小点周辺を鼻穴の探索領域として選択し、黒領域抽出フィルタ等を用いて鼻穴の位置を検出する。
In step S13, the
次に、ステップS14に係る第1の眼鏡部品認識の処理内容を具体的に説明する。
図5は、第1の眼鏡部品認識に係るCPU21の処理手順を示すフローチャートである。まずCPU21は、眼鏡ブリッジHを検出し(ステップS31)、眼鏡上フレームIを検出する(ステップS32)。そして、CPU21は、左右の眼鏡部品の検出処理を終えたか否かを判定する(ステップS33)。左側又は右側の眼鏡部品の検出処理を終えていないと判定した場合(ステップS33:NO)、CPU21は、処理をステップS32に戻す。左右の眼鏡部品の検出処理を終えたと判定した場合(ステップS33:YES)、CPU21は、眼鏡蔓Jを検出し(ステップS34)、第1の眼鏡部品認識に係る処理手順を終える。次に、ステップS31〜34の処理内容を更に具体的に説明する。
Next, the processing contents of the first spectacle component recognition according to step S14 will be specifically described.
FIG. 5 is a flowchart showing a processing procedure of the
図6及び図7は、眼鏡ブリッジHの検出に係るCPU21の処理手順を示すフローチャートである。CPU21は、過去に検出された左右の眼位置を記憶しているか否かを判定する(ステップS51)。なお、左右は撮像装置1側から見た方向、つまり図3中右側を右、左側を左として説明する。左右の眼位置を記憶していると判定した場合(ステップS51:YES)、左右の眼位置に基づいて、眼鏡ブリッジHの検出処理範囲を算出する(ステップS52)。左右の眼位置を記憶していないと判定した場合(ステップS51:NO)、CPU21は、鼻位置に基づいて眼鏡ブリッジHの検出処理範囲を算出する(ステップS53)。
6 and 7 are flowcharts showing the processing procedure of the
図8は、眼鏡ブリッジHの検出処理範囲を概念的に示す説明図である。図8(a)は、左右の眼位置に基づいて算出された検出処理範囲R2を示している。ステップS52では、図8(a)に示すように、水平方向における左右の眼位置の中点を基準点P1とし、該基準点P1より垂直方向上側にN1画素、下側にN2画素、水平方向両側に夫々N3画素の広がりを有する領域を検出処理範囲R2として算出する。なお、N1,N2,N3は、顔幅Fwに対する固定比によって定められる。検出処理範囲R2を顔幅Fwに応じて広狭するように構成することにより、撮像装置1と運転者との距離に関わらず適切な検出処理領域R2を算出することができる。具体的には、運転者が撮像装置1に近い場合、検出処理範囲R2を広げ、運転者が撮像装置1から遠い場合、検出処理範囲R2を狭める。
FIG. 8 is an explanatory diagram conceptually showing the detection processing range of the eyeglass bridge H. FIG. 8A shows the detection processing range R2 calculated based on the left and right eye positions. In step S52, as shown in FIG. 8A, the midpoint of the left and right eye positions in the horizontal direction is set as a reference point P1, N1 pixels vertically above the reference point P1, N2 pixels below, and horizontally A region having a spread of N3 pixels on both sides is calculated as a detection processing range R2. N1, N2, and N3 are determined by a fixed ratio with respect to the face width Fw. By configuring the detection processing range R2 to be wider or narrower depending on the face width Fw, an appropriate detection processing region R2 can be calculated regardless of the distance between the
図8(b)は、鼻穴の位置に基づいて算出された検出処理範囲を示している。ステップS53では、図8(b)に示すように、水平方向における左右の鼻穴の中点P0から垂直方向上側へN4画素の位置を基準位置P1とし、上述と同様の方法で眼鏡ブリッジHの検出処理範囲R2を算出する。 FIG. 8B shows a detection processing range calculated based on the position of the nostril. In step S53, as shown in FIG. 8B, the position of the N4 pixel is set to the reference position P1 from the midpoint P0 of the left and right nostrils in the horizontal direction to the upper side in the vertical direction. A detection processing range R2 is calculated.
図9は、眼鏡ブリッジHの上位置及び下位置の検出方法を概念的に示す説明図である。図9(a)は、眼鏡部分の画像領域の一例を示している。
ステップS52又はステップS53の処理を終えた場合、CPU21は、眼鏡ブリッジHの上位置及び下位置を検出すべく、図9(b)に示すように検出処理範囲R2において水平方向に並んだ各画素の輝度値を積算する(ステップS54)。図9(b)のグラフの縦軸は、画像データにおけるY座標を、横軸は各X座標の水平ラインにおける輝度値を積算して得た輝度積算値を示している。輝度積算値は各Y座標における水平ラインの明るさを示している。眼鏡ブリッジHが存在している場合、図9(b)に示すように、垂直方向Yにおける眼鏡ブリッジH部分の輝度積算値が他の部分に比べて低く落ち込む。
FIG. 9 is an explanatory diagram conceptually showing a method for detecting the upper and lower positions of the eyeglass bridge H. FIG. 9A shows an example of the image area of the eyeglass part.
When the process of step S52 or step S53 is finished, the
次いで、CPU21は、図9(c)に示すように輝度積算値の上下差分値を算出する(ステップS55)。図9(c)に示すグラフの縦軸は、画像データにおけるY座標を、横軸は各Y座標における上下差分値を示している。上下差分値は、例えば下記の式1で算出する。
上下差分値=M1(y+所定画素)−M1(y)…式1
但し、yは、一の水平ラインにおけるY座標を示しており、M1(y)は該水平ラインにおける輝度積算値を示している。
Next, the
Vertical difference value = M1 (y + predetermined pixel) −M1 (y).
However, y represents the Y coordinate in one horizontal line, and M1 (y) represents the luminance integrated value in the horizontal line.
そして、CPU21は、上下差分値が最大のY座標を眼鏡ブリッジHの上位置として検出し(ステップS56)、上下差分値が最小のY座標を眼鏡ブリッジHの下位置として検出する(ステップS57)。
Then, the
図10は、眼鏡ブリッジHの左右位置候補の検出方法を概念的に示す説明図である。図10(a)は、図9(a)同様、眼鏡部分の画像領域の一例を示している。ステップS57の処理を終えた場合、CPU21は、眼鏡ブリッジHの左右位置候補を検出すべく図10(b)に示すように検出処理範囲R2において垂直方向に並んだ画素の輝度値を積算する(ステップS58)。図10(b)のグラフの横軸は、画像データにおけるX座標を、縦軸は各X座標の垂直方向における輝度値を積算した輝度積算値を示している。該輝度積算値は、該X座標における垂直ラインの明るさを示している。眼鏡ブリッジHが存在している場合、図10(b)に示すように、眼鏡ブリッジHと、眼鏡上フレームIとの接続部分の輝度積算値が他の部分に比べて低く落ち込む。
FIG. 10 is an explanatory diagram conceptually showing a method for detecting the left and right position candidates of the eyeglass bridge H. FIG. 10A shows an example of the image area of the eyeglass part, as in FIG. When the processing of step S57 is completed, the
次いで、CPU21は、図10(c)に示すように輝度積算値の左右差分値を算出する(ステップS59)。図10(c)に示すグラフの横軸は、画像データにおけるX座標を、縦軸は各X座標における左右差分値を示している。左右差分値は、例えば下記の式2によって算出する。
左右差分値=M2(x+所定画素)−M2(x)…式2
但し、xは、一の垂直ラインのX座標を示しており、M2(x)は該垂直ラインにおける画素位置xにおける輝度積算値を示している。
Next, the
Left-right difference value = M2 (x + predetermined pixel) −M2 (x)
However, x represents the X coordinate of one vertical line, and M2 (x) represents the luminance integrated value at the pixel position x in the vertical line.
そして、CPU21は、基準点P1より水平方向左側にある左右差分値が最大となるX座標を眼鏡ブリッジHの左位置候補として検出し(ステップS60)、基準点P1より水平方向右側にある左右差分値が最小となるX座標を眼鏡ブリッジHの右位置候補として検出する(ステップS61)。
Then, the
次いで、CPU21は、ステップS56、57、60,61の検出結果より、眼鏡ブリッジHの有無を判定する(ステップS62)。具体的には、眼鏡ブリッジHの上位置の上下差分値の絶対値と、下位置の上下差分値の絶対値との和が第1の所定閾値以上であり、眼鏡ブリッジHの右位置候補の左右差分値の絶対値と、左位置候補の左右差分値の絶対値との和が第2の所定閾値以上であり、更に眼鏡ブリッジH左位置候補と、右位置候補との距離が顔幅Fwに対して閾値範囲内に有る場合、眼鏡ブリッジH有りと判定する。つまり、眼鏡ブリッジHの上位置、下位置、左右位置候補が眼鏡ブリッジHとして不自然な位置関係に無いか否かを判定する。
Next, the
ステップS62で眼鏡ブリッジH有りと判定した場合(ステップS62:YES)、CPU21は、眼鏡ブリッジHの中点H3、左端点H1及び右端点H2の位置座標を記憶し(ステップS63)、眼鏡ブリッジHの検出に係る処理を終える。なお、第1の閾値及び第2の閾値は、眼鏡ブリッジHの検出結果の学習によって変化させても良い。眼鏡Gによっては眼鏡ブリッジHの検出し易さが異なるが、眼鏡ブリッジHの取得率に基づいて第1及び第2の閾値を増減させることにより、眼鏡Gの種類に応じた最適な閾値を得ることができ、正確に眼鏡ブリッジHを検出することができる。
When it is determined in step S62 that the glasses bridge H is present (step S62: YES), the
図11は、眼鏡ブリッジHの中点H3、左端点H1、及び右端点H2を示す模式図である。 FIG. 11 is a schematic diagram showing the middle point H3, the left end point H1, and the right end point H2 of the eyeglass bridge H.
眼鏡ブリッジHの中点H3のX座標は、水平方向における眼鏡ブリッジHの左位置候補と、右位置候補との中点の座標であり、Y座標は眼鏡ブリッジHの上位置の座標である。また、眼鏡ブリッジHの左端点H1のX座標は眼鏡ブリッジHの左位置候補の座標であり、Y座標は眼鏡ブリッジHの上位置の座標と下位置の座標との中点である。眼鏡ブリッジHの右端点H2のX座標は眼鏡ブリッジHの右位置候補の座標であり、Y座標は眼鏡ブリッジHの上位置の座標と下位置の座標との中点である。 The X coordinate of the middle point H3 of the eyeglass bridge H is the coordinate of the middle point between the left position candidate and the right position candidate of the eyeglass bridge H in the horizontal direction, and the Y coordinate is the coordinate of the upper position of the eyeglass bridge H. The X coordinate of the left end point H1 of the spectacle bridge H is the coordinate of the left position candidate of the spectacle bridge H, and the Y coordinate is the midpoint between the upper position coordinate and the lower position coordinate of the spectacle bridge H. The X coordinate of the right end point H2 of the eyeglass bridge H is the coordinate of the right position candidate of the eyeglass bridge H, and the Y coordinate is the midpoint between the upper position coordinate and the lower position coordinate of the eyeglass bridge H.
図12及び図13は、第1の眼鏡上フレーム検出に係るCPU21の処理手順を示すフローチャート、図14は、眼鏡上フレームIの左端点候補、及び右端点候補を概念的に示す説明図である。まず、CPU21は、眼鏡ブリッジHの中点H3、左右端点H1,H2及び顔領域R0の位置に基づいて、眼鏡上フレームIの左右端点候補I10,I20を算出する(ステップS71)。
FIGS. 12 and 13 are flowcharts showing the processing procedure of the
眼鏡上フレームIの右端点候補I20のX座標は、図14に示すように、眼鏡ブリッジHの左端点H1のX座標であり、Y座標は眼鏡ブリッジHの中点H3のY座標である。眼鏡上フレームIの左端点候補I10のX座標は、顔領域R0の左端点のX座標Fx1、Y座標は眼鏡ブリッジHの中点H3のY座標である。 As shown in FIG. 14, the X coordinate of the right end point candidate I20 of the spectacles upper frame I is the X coordinate of the left end point H1 of the spectacles bridge H, and the Y coordinate is the Y coordinate of the midpoint H3 of the spectacles bridge H. The X coordinate of the left end point candidate I10 of the spectacles upper frame I is the X coordinate Fx1 of the left end point of the face region R0, and the Y coordinate is the Y coordinate of the midpoint H3 of the spectacle bridge H.
次いで、CPU21は、眼鏡上フレームIの左端点候補I10及び右端点候補I20の位置座標を補正して得られる左端点I1及び右端点I2の位置座標を算出する(ステップS72)。
Next, the
次いで、CPU21は、眼鏡上フレームIの頂点を検出するための検出処理範囲を設定する(ステップS73)。
Next, the
図15は、眼鏡上フレームIの頂点I3を検出するための検出処理範囲R3を概念的に示す説明図である。図15に示すように、検出処理範囲R3は矩形領域であり、眼鏡上フレームIの左端点I1及び右端点I2を横方向両端とし、垂直方向上側及び下側へ適宜長の広がりを有する領域である。より具体的には、検出処理範囲R3の左上端R31のX座標は上フレームの左端点I1のX座標値であり、Y座標は左端点I1及び右端点I2の内、最も上側の点、つまり最も値が小さいY座標値から所定値N5を減算した座標値である。また、検出処理範囲R3の右下端R32のX座標は、眼鏡上フレームIの右端点I2のX座標であり、Y座標は左端点I1及び右端点I2の内、最も下側の点、つまり最も値が大きいY座標値に所定値N6加算した座標値である。なお、N5及びN6は、顔幅Fwに対する固定比である。 FIG. 15 is an explanatory diagram conceptually showing a detection processing range R3 for detecting the vertex I3 of the upper frame I. As shown in FIG. 15, the detection processing range R3 is a rectangular region, and is a region having the left end point I1 and the right end point I2 of the spectacles upper frame I as both ends in the horizontal direction and appropriately extending in the vertical direction above and below. is there. More specifically, the X coordinate of the upper left end R31 of the detection processing range R3 is the X coordinate value of the left end point I1 of the upper frame, and the Y coordinate is the uppermost point of the left end point I1 and the right end point I2, that is, This is a coordinate value obtained by subtracting the predetermined value N5 from the Y coordinate value having the smallest value. Further, the X coordinate of the lower right end R32 of the detection processing range R3 is the X coordinate of the right end point I2 of the upper spectacle frame I, and the Y coordinate is the lowest point of the left end point I1 and the right end point I2, that is, the most. This is a coordinate value obtained by adding a predetermined value N6 to the Y coordinate value having a large value. N5 and N6 are fixed ratios with respect to the face width Fw.
次いで、CPU21は、画像データ、例えば顔領域R0の画像データに所定の画像処理を実行して処理画像を作成する(ステップS74)。具体的には、画像データに対してラプラシアンフィルタを用いたフィルタ処理を実行し、フィルタ処理された画像を2値化する。2値化する際に使用する閾値は、処理範囲における閾値以上の輝度値を有する画素の数と、閾値未満の輝度値を有する画素の数との比が所定割合になるように設定する。そして、孤立点除去等のノイズ除去処理を実行する。ステップS74の処理によって、エッジが強い箇所が1、弱い箇所が0となる2値画像を得ることができる。
Next, the
次いで、CPU21は、眼鏡ブリッジHの有無を評価するための眼鏡ブリッジスコアを算出する(ステップS75)。
図16は、眼鏡ブリッジHの再評価処理方法を説明するための説明図である。CPU21は、ステップS74で処理された画像であって、眼鏡ブリッジHの左端点H1と右端点H2とを結ぶ直線から上下に所定幅N7を有する画像領域中における輝度値1の含有率を眼鏡ブリッジスコアとして算出する。含有率は、前記画像領域を構成する画素の数に対する、輝度値1を有する画素の割合である。
Next, the
FIG. 16 is an explanatory diagram for explaining a re-evaluation processing method for the eyeglass bridge H. The
次いで、CPU21は、眼鏡ブリッジスコアに基づいて眼鏡ブリッジHが有るか否かを判定する(ステップS76)。含有率が所定閾値以上であるか否かを判断することによって、眼鏡ブリッジHが存在するか否かを再評価する。眼鏡ブリッジHが存在していれば、眼鏡ブリッジH周辺にエッジ成分が存在し、ステップS74で処理された画像中に輝度値が1の画素として表出する。ステップS76の処理によって、上述の眼鏡ブリッジHの検出処理と、上述の再評価処理とによって、眼鏡ブリッジHの有無を正確に判定することができる。
なお、現画像データの眼鏡ブリッジスコアのみならず、過去の画像データの眼鏡ブリッジスコアも用いて眼鏡ブリッジHの有無を評価する。具体的には、現画像データの眼鏡ブリッジスコアが閾値以上であり、且つ第1所定数フレームの画像データの内、眼鏡ブリッジスコアが閾値以上である画像データの数が第2所定数以上である場合、眼鏡ブリッジH有りと判定する。
Next, the
The presence or absence of the eyeglass bridge H is evaluated using not only the eyeglass bridge score of the current image data but also the eyeglass bridge score of the past image data. Specifically, the eyeglass bridge score of the current image data is equal to or greater than a threshold value, and the number of image data having the eyeglass bridge score equal to or greater than the threshold value among the image data of the first predetermined number of frames is equal to or greater than the second predetermined number. In this case, it is determined that there is a glasses bridge H.
図17は、眼鏡上フレームIの頂点位置の探索方法を概念的に示す説明図である。ステップS76で眼鏡ブリッジH有りと判定した場合(ステップS76:YES)、検出処理範囲R3中を走査しながら眼鏡ブリッジHの頂点I3を評価するための頂点スコアを算出する(ステップS77)。具体的には、眼鏡上フレームIの左端I1及び右端I2と、頂点I3とを結ぶ線分上にある眼鏡上フレームIの輝度和を頂点スコアとして算出する。そして、CPU21は、頂点スコアが最大となる頂点I3の位置を特定し(ステップS78)、頂点スコアの最大値が所定の閾値以上であるか否かを判定する(ステップS79)。閾値以上であると判定した場合(ステップS79:YES)、CPU21は、眼鏡上フレームIの左端I1、右端I2及び頂点I3の位置座標を記憶し(ステップS80)、眼鏡上フレームIの検出に係る処理を終える。また、ステップS76で眼鏡ブリッジHが無いと判定した場合(ステップS76:NO)、頂点スコアの最大値が閾値未満であると判定された場合(ステップS79:NO)、CPU21は眼鏡上フレームIが検出されなかったとして処理を終える。
FIG. 17 is an explanatory diagram conceptually showing a method for searching for the vertex position of the frame I on the eyeglasses. If it is determined in step S76 that the eyeglass bridge H is present (step S76: YES), a vertex score for evaluating the vertex I3 of the eyeglass bridge H is calculated while scanning the detection processing range R3 (step S77). Specifically, the luminance sum of the glasses upper frame I on the line segment connecting the left end I1 and the right end I2 of the glasses upper frame I and the vertex I3 is calculated as a vertex score. Then, the
図18は、眼鏡蔓Jの検出に係るCPU21の処理手順を示すフローチャートである。CPU21は、眼鏡蔓Jを検出するための所定の検出処理条件を具備しているか否かを判定する(ステップS91)。眼鏡蔓Jを取得できる状況であるか否かを示す眼鏡蔓Jフラグが1であって、顔の向きが右向き又は左向きの場合、検出処理条件を具備していると判定する。眼鏡蔓Jフラグは、例えば、眼鏡学習処理において眼鏡ブリッジHの取得率が所定値以上である場合、1に設定され、取得率が所定値未満である場合、0に設定される。また、眼鏡ブリッジHの取得率が所定値以上であっても、眼鏡蔓Jの取得率が悪い場合、眼鏡蔓Jフラグを0に設定する。顔の向きに応じて眼鏡蔓J検出の要否を判定するように構成することにより、無駄な検出処理を省き、眼鏡蔓Jの検出精度を向上させることができる。
FIG. 18 is a flowchart showing a processing procedure of the
検出処理条件を具備していると判定した場合(ステップS91:YES)、CPU21は、眼鏡蔓Jの検出処理範囲R6を算出する(ステップS92)。
When it is determined that the detection processing condition is satisfied (step S91: YES), the
図19は、眼鏡蔓Jの検出処理範囲R6の算出方法を概念的に示す説明図である。まずCPU21は、図19(a)中、実線の矩形枠で示すような基準範囲R4を算出する。基準領域R4は顔領域R0の上半分である。つまり、基準領域R4の左右端及び上端は顔領域R0の左右端及び上端に一致し、基準領域R4の下端は顔領域R0の上下端の中間位置である。
次いで、CPU21は図19(b)中、実線の矩形枠で示すように、上下範囲を一定範囲に限定する。具体的には、CPU21は過去に検出された眼位置中点のY座標軸を中心にして上下に顔幅FwのN81%の広がりを有する範囲R5に限定する。なお、過去に検出された眼位置中点が無い場合、眼鏡ブリッジHの中点H1を基準にして上下範囲を設定すれば良い。
FIG. 19 is an explanatory diagram conceptually showing a method of calculating the spectacle vine J detection processing range R6. First, the
Next, the
そして、CPU21は図19(c)中、実線の矩形枠で示すように、水平方向の範囲を一定範囲に限定する。具体的にはCPU21は、図19(c)に示すように顔が左を向いている場合、範囲R5の右端から顔幅FwのN82%の幅を有する範囲を眼鏡蔓Jの検出処理範囲R6とする。顔が右を向いている場合は、範囲R5の左端から顔幅FwのN82%の幅を有する範囲を眼鏡蔓Jの検出処理範囲R6とする。
Then, the
ステップS92の処理を終えた場合、CPU21は、検出処理範囲R6における各X座標と、眼鏡蔓Jと推定される画素のY座標とを対応付けたY位置テーブルを算出する(ステップS93)。
When the processing in step S92 is completed, the
図20は、Y位置テーブルの算出方法を概念的に示す説明図である。まずCPU21は、検出処理範囲R6の左端においてY方向に並ぶ複数の画素から眼鏡蔓Jと推定される画素を特定し、該画素のY座標を記憶する。以下、CPU21は同様の処理を検出処理範囲R6の左端から右端までX方向へ順次走査し、各Y方向ラインに対して実行する。
より具体的には、図20に示すようにX座標がx1のY方向ラインで各画素について上下の輝度差及び素直方向の微分値を算出する。例えば、Y座標がy1の対象画素についてその上下、つまりY座標がy1+Δyの画素と、Y座標がy1−Δyの画素との輝度差、及び垂直方向における微分値を算出する。そして、前記輝度差が閾値以上であって、垂直方向における微分値が最大の対象画素を眼鏡蔓Jと推定される画素として特定し、該画素のX座標及びY座標(以下、Y位置という)をY位置テーブルに記憶する。Y位置テーブルは、連続する複数のX座標の値と、各X座標に対応するY位置とを対応付けた情報である。
FIG. 20 is an explanatory diagram conceptually showing a method of calculating the Y position table. First, the
More specifically, as shown in FIG. 20, the vertical luminance difference and the straight direction differential value are calculated for each pixel in the Y direction line whose X coordinate is x1. For example, with respect to the target pixel whose Y coordinate is y1, the luminance difference between the upper and lower sides, that is, the pixel whose Y coordinate is y1 + Δy and the pixel whose Y coordinate is y1−Δy, and the differential value in the vertical direction are calculated. Then, the target pixel having the luminance difference equal to or greater than the threshold value and the maximum differential value in the vertical direction is specified as the pixel estimated as the spectacle vine J, and the X coordinate and Y coordinate (hereinafter referred to as the Y position) of the pixel. Is stored in the Y position table. The Y position table is information in which a plurality of consecutive X coordinate values are associated with Y positions corresponding to the respective X coordinates.
なお、Y位置テーブルを算出する際、ノイズ除去処理を実行すると良い。
図21は、Y位置テーブルに係るノイズ除去方法を概念的に示す説明図である。3本の縦線は眼鏡蔓Jを抽出する処理ラインL1,L2,L3を示しており、CPU21は左側の処理ラインL1から右側の処理ラインL3へ順に眼鏡蔓Jの画素を抽出する。黒色四角印は各ラインL1,L2,L3で眼鏡蔓Jの位置として算出された画素を示しており、白抜き四角印はノイズ除去処理された後の画素を示している。具体的には、CPU21は、処理ラインL2におけるY位置と処理ラインL3におけるY位置との差が第1の所定値以上であって、処理ラインL1におけるY位置と処理ラインL1におけるY位置との差が第2の所定値未満である場合、処理ラインL2における眼鏡蔓画素のY座標を、図21に示すように処理ラインL1におけるY位置と処理ラインL3におけるY位置との中間値に補正する。
When calculating the Y position table, it is preferable to execute a noise removal process.
FIG. 21 is an explanatory diagram conceptually showing the noise removal method according to the Y position table. The three vertical lines indicate the processing lines L1, L2, and L3 for extracting the spectacle vine J, and the
図22は、眼鏡蔓Jの左端及び右端の検出方法を概念的に示す説明図である。CPU21は、ステップS93で作成したY位置テーブルを参照して、連続性を有する眼鏡蔓画素を特定し、最長となる連続線の左端点J1及び右端点J2の位置を算出する(ステップS94)。
具体的には、CPU21は、Y位置テーブルを参照して、隣り合うX座標におけるY位置の差が所定閾値以下の場合、連続性ありと判定する。概念的には、水平方向において隣り合う眼鏡蔓画素のY位置の差、例えばX座標がx1の眼鏡蔓画素と、X座標がx1+1の眼鏡蔓画素とのY座標の差が所定閾値以下の場合、各眼鏡蔓画素は連続性があると判定する。
FIG. 22 is an explanatory diagram conceptually showing a method for detecting the left end and the right end of the spectacle vine
Specifically, the
そして、CPU21は、連続性を有する眼鏡蔓画素の群が複数ある場合、連続する画素数が最大の眼鏡蔓画素群を特定し、該眼鏡蔓画素群において最小のX座標及び最大のX座標を眼鏡蔓Jの左端点候補及び右端点候補のX座標として記憶する。但し、左端点候補のX座標と、右端点候補のX座標との差が所定閾値以下の場合、つまり眼鏡蔓Jとしての長さが短すぎる場合、眼鏡蔓J無しと判断する。
眼鏡蔓J無しと判断されずに左端点候補及び右端点候補のX座標が算出された場合、CPU21は、Y位置テーブルを参照し、左端点候補及び右端点候補間のX座標及びY位置を用いて最小自乗法により眼鏡蔓Jの近似直線を算出する(ステップS95)。
そして、CPU21は、左端点候補のX座標から近似直線を用いて左端点候補のY座標を算出し、右端点候補のX座標から近似直線を用いて右端点候補のY座標を算出する(ステップS96)。
Then, when there are a plurality of spectacle vine pixel groups having continuity, the
When the X coordinate of the left end point candidate and the right end point candidate is calculated without determining that there is no spectacle vine J, the
Then, the
次いで、CPU21は、眼鏡蔓Jの候補を評価し、眼鏡蔓Jの左端点候補及び右端点候補が所定条件を満たした場合、眼鏡蔓Jの左端点J1及び右端点J2であると判断し、左右端点候補の座標を左端点J1及び右端点J2の座標として決定し、記憶する(ステップS97)。第1の所定条件は左端点候補及び右端点候補の水平角度が所定角度範囲内であること、第2の所定条件は、近似曲線の残差の平均が所定閾値以下であることである。つまり、眼鏡蔓Jが略直線状であって、水平方向に対す角度が眼鏡蔓Jとして自然な範囲内にあるか否かを判定する。
Next, the
次にステップS15に係る第2の眼鏡部品認識の処理内容を具体的に説明する。
図23は、第2の眼鏡部品認識に係るCPUの処理手順を示すフローチャートである。CPU21は、微分フィルタを用いて眼鏡下フレームKを検出し(ステップS111)、眼鏡上フレームIを検出する(ステップS112)。そして、輝度平均値及び輝度の分散値を算出してサングラスであるか否かを判定する(ステップS113)。
Next, the processing contents of the second spectacle component recognition according to step S15 will be specifically described.
FIG. 23 is a flowchart illustrating a processing procedure of the CPU according to the second spectacle component recognition. The
次いで、CPU21は左右のフレームについて検出処理を終えたか否かを判定する(ステップS114)。左右のフレームについて検出処理を終えていないと判定した場合(ステップS114:NO)、CPU21は処理をステップS111に戻す。左右のフレームについて検出処理を終えたと判定した場合(ステップS114:YES)、CPU21は、過去の画像データに対するサングラス判定の結果を利用してサングラスを装着しているか否かを判定する総合サングラス判定処理を実行し(ステップS115)、第2の眼鏡部品認識に係る処理を終える。
Next, the
図24は、第2の眼鏡下フレーム検出に係るCPUの処理手順を示すフローチャートである。CPU21は、眼鏡下フレームKを検出するための検出処理範囲R7を算出する(ステップS131)。
FIG. 24 is a flowchart illustrating the processing procedure of the CPU according to the second glasses lower frame detection. The
図25は、眼鏡下フレームKの検出処理範囲を概念的に示す説明図である。検出処理範囲R7の水平方向の範囲は、図25(a)に示すように、過去に検出された眼位置を中心として左右に顔幅FwのN9%の範囲である。つまり、検出処理範囲R7の左端のX座標は、眼位置のX座標をExとした場合、Ex−Fw×N9/100、検出処理範囲R7の右端のX座標は、Ex+Fw×N9/100である。
検出処理範囲R7の下端は鼻穴の中点P0から顔幅FwのN10%下側の位置である。つまり検出処理範囲R7の下端のY座標は、中点P0のY座標+Fw×N10/100である。検出処理範囲R7の上端は、眼位置EのY座標Eyである。
FIG. 25 is an explanatory diagram conceptually showing the detection processing range of the glasses lower frame K. As shown in FIG. As shown in FIG. 25A, the horizontal range of the detection processing range R7 is a range of N9% of the face width Fw to the left and right with the eye position detected in the past as the center. That is, the X coordinate of the left end of the detection processing range R7 is Ex−Fw × N9 / 100, and the X coordinate of the right end of the detection processing range R7 is Ex + Fw × N9 / 100, where X is the X coordinate of the eye position. .
The lower end of the detection processing range R7 is a position N10% below the face width Fw from the midpoint P0 of the nostril. That is, the Y coordinate of the lower end of the detection processing range R7 is the Y coordinate of the middle point P0 + Fw × N10 / 100. The upper end of the detection processing range R7 is the Y coordinate Ey of the eye position E.
検出処理範囲R7を算出した場合、CPU21は、検出処理範囲R7において微分フィルタを用いて微分フィルタ抽出処理を実行する(ステップS132)。図25(b)は、微分フィルタの係数の一例を示している。微分フィルタは、垂直方向において上方から下方へ輝度が高い画像領域、輝度が低い画像領域、輝度が高い画像領域へと変化する下フレーム部分を抽出するフィルタである。CPU21は、一のY方向ラインにおいて検出処理範囲R7の下方から上方へ順に微分フィルタ値を算出し、最初に所定閾値以上になった画素を検出する。微分フィルタ値は、対象画素を中心とした8近傍の8画素にそれぞれ微分フィルタの係数を乗算し、乗算して得た値を加算した数値である。
When the detection processing range R7 is calculated, the
なお、微分フィルタ処理中、対象画素より1画素上方の画素、例えば対象画素のY座標がy1である場合、Y座標がy1−1の画素の輝度が第1所定輝度以上である場合、外部光源からの光を眼鏡レンズが反射している部分であると判定し、その画素(以下、反射部分画素という)を検出する。第1所定輝度は、例えば255階調で240である。外部光源は、顔認識等の各種目的で運転者を照明するために車内に設置されているLED光源である。 In addition, during the differential filter process, when the pixel one pixel above the target pixel, for example, the Y coordinate of the target pixel is y1, the luminance of the pixel whose Y coordinate is y1-1 is equal to or higher than the first predetermined luminance, an external light source Is determined to be a portion where the spectacle lens is reflecting, and the pixel (hereinafter referred to as a reflection partial pixel) is detected. The first predetermined luminance is 240 with 255 gradations, for example. The external light source is an LED light source installed in the vehicle to illuminate the driver for various purposes such as face recognition.
また、微分フィルタ処理開始時の対象画素、つまり検出処理範囲R7の下側部分で対象画素より1画素上方又は1画素下方の画素の輝度が一方でも第2所定輝度以上である場合、顔全体が明るい傾向にあると判断し、第1所定輝度を上げる。例えば第2所定輝度は、256階調で210であり、第1所定輝度を240から250に上げる。上記処理によって、反射部分のより正確な検出が可能になる。 In addition, when the luminance of the target pixel at the start of the differential filter processing, that is, the luminance of the pixel one pixel above or below the target pixel in the lower portion of the detection processing range R7 is at least the second predetermined luminance, It is determined that the brightness tends to be bright, and the first predetermined luminance is increased. For example, the second predetermined luminance is 210 at 256 gradations, and the first predetermined luminance is increased from 240 to 250. The above processing enables more accurate detection of the reflection portion.
一のY方向ラインに対して上述の処理を終えた場合、CPU21は、検出処理領域R6において左側から右側へ他のY方向ラインに対しても同様の処理を順次実行する。なお、検出処理範囲R7の水平方向の幅に応じて、微分フィルタ処理の対象となるY方向ラインを間引き、最大n個の結果を算出する。nは、処理速度と、判定精度との兼ね合いで適宜設定すれば良い。
When the above-described processing is completed for one Y-direction line, the
図26は、眼鏡下フレームKの下位置を概念的に示す説明図である。
CPU21は、微分フィルタ抽出処理を終えた場合、眼鏡下フレームKの下位置を検出し(ステップS133)、眼鏡下フレーム検出に係る処理を終える。眼鏡下フレームKの下位置は、図26中、×印で示した箇所である。具体的には、ステップS132で複数の画素が検出されている場合、CPU21は、検出されたn個の画素中、各画素のY座標の中間値を下位置のY座標として記憶する。また、CPU21は、検出処理範囲R8の水平方向略中央部のX座標を、下位置のX座標として記憶する。
FIG. 26 is an explanatory diagram conceptually showing the lower position of the glasses lower frame K. FIG.
When the differential filter extraction processing is finished, the
ステップS132で検出された画素が1つも無い場合、反射部分画素が検出されたか否かを判定する。反射部分画素が検出されていると判定した場合、該反射部分画素のY座標を下位置のY座標として記憶する。なお、反射部分画素が複数ある場合は、最大のY座標を下位置のY座標として記憶する。
下フレームが無い眼鏡Gの場合、眼鏡下フレームKが検出されないが、反射部分が検出されている場合、反射部分に眼鏡Gが存在していると考えられるため、反射部分の最下端を下位置として記憶する。
CPU21は、ステップS132で検出された画素が1つも無く、反射部分画素が検出されてない場合、眼鏡下フレームKが無いと判定して、処理を終える。
If there is no pixel detected in step S132, it is determined whether or not a reflection partial pixel has been detected. When it is determined that the reflection partial pixel is detected, the Y coordinate of the reflection partial pixel is stored as the Y coordinate of the lower position. When there are a plurality of reflection partial pixels, the maximum Y coordinate is stored as the lower Y coordinate.
In the case of the glasses G without the lower frame, the glasses lower frame K is not detected, but when the reflection part is detected, it is considered that the glasses G are present in the reflection part. Remember as.
If there is no pixel detected in step S132 and no reflection partial pixel is detected, the
なお、n個検出した画素における微分フィルタ値の平均値を算出し、眼鏡下フレームスコアとして記憶する。眼鏡下フレームスコアにより、検出された下位置が眼鏡Gであるか眼であるかを判定することができる。CPU21は、眼鏡下フレームスコアが第1の閾値より大きい場合、眼鏡Gであると判定し、眼鏡下フレームスコアが第1の閾値より小さい第2の閾値未満の場合、眼であると判定する。
Note that an average value of the differential filter values in the n detected pixels is calculated and stored as a frame score under the glasses. Based on the lower spectacle frame score, it can be determined whether the detected lower position is the spectacle G or the eye. When the spectacles lower frame score is larger than the first threshold, the
図27は、第2の眼鏡上フレーム検出に係るCPUの処理手順を示すフローチャートである。CPU21は、眼鏡上フレームIを検出するための検出処理範囲R8を算出する(ステップS151)。
FIG. 27 is a flowchart illustrating a processing procedure of the CPU according to the second frame on eyeglasses detection. The
図28は、眼鏡上フレームIの検出処理範囲R8を概念的に示す説明図である。CPU21は、検出処理範囲R8の水平方向範囲は、図28(a)に示すように下フレームの検出処理範囲R8と同様である。検出処理範囲R8の下端は眼鏡下フレームKの下位置とする。検出処理範囲R8の上端は、眼鏡下フレームKの検出処理範囲R8の上端から更に顔幅Fwの所定数%上側の位置である。
FIG. 28 is an explanatory diagram conceptually showing the detection processing range R8 for the upper frame I. In the
検出処理範囲R8を算出した場合、CPU21は、検出処理範囲R8において微分フィルタを用いて微分フィルタ抽出処理を実行する(ステップS152)。図28(b)は、微分フィルタの係数の一例を示している。微分フィルタは、垂直方向において下方から上方へ輝度が高い画像領域から輝度が低い画像領域へ変化する眼鏡上フレームI部分を抽出するフィルタである。CPU21は、一のY方向ラインにおいて検出処理範囲R8の下方から上方へ順に微分フィルタ値を算出し、最初に所定閾値以上になった画素を検出する。微分フィルタ値は、対象画素を中心とした8近傍の8画素にそれぞれ微分フィルタの係数を乗算し、乗算して得た値を加算した数値である。
When the detection processing range R8 is calculated, the
一のY方向ラインに対して上述の処理を終えた場合、CPU21は、他のY方向ラインに対しても同様の処理を実行する。なお、検出処理範囲R8の水平方向の幅に応じて、微分フィルタ処理の対象となるY方向ラインを間引き、最大n個の結果を算出する。
図29は、眼鏡上フレームIの上位置を概念的に示す説明図である。
CPU21は、微分フィルタ抽出処理を終えた場合、眼鏡上フレームIの上位置を検出し(ステップS153)、眼鏡上フレーム検出に係る処理を終える。眼鏡上フレームIの上位置は、図29中、×印で示した箇所である。具体的には、ステップS152で複数の画素が検出されている場合、CPU21は、検出されたn個の画素中、各画素のY座標の中間値を上位置のY座標として記憶する。また、CPU21は、検出処理範囲R8の水平方向略中央部のX座標を、上位置のX座標として記憶する。
When the above-described processing is finished for one Y-direction line, the
FIG. 29 is an explanatory diagram conceptually showing the upper position of the spectacles upper frame I.
When finishing the differential filter extraction process, the
図30は、サングラスの判定に係るCPUの処理手順を示すフローチャート、図31は、サングラスの判定方法を概念的に示す説明図である。CPU21は、現フレームにおいてサングラスであるか否かの判定結果を示すサングラスフラグをオフにする(ステップS171)。そして、CPU21は、サングラス処理範囲内の輝度平均及び輝度の分散値を算出する(ステップS172)。サングラス処理範囲の上下は、眼鏡上フレームIの上位置I4及び下フレームの下位置K1であり、サングラス処理範囲の左右は眼鏡下フレームKの処理範囲と同様である。
FIG. 30 is a flowchart showing the processing procedure of the CPU related to the determination of sunglasses, and FIG. 31 is an explanatory diagram conceptually showing the determination method of sunglasses. CPU21 turns off the sunglasses flag which shows the determination result of whether it is sunglasses in the present flame | frame (step S171). Then, the
次いで、CPU21は、輝度平均値が閾値以下であるか否かを判定する(ステップS173)。輝度平均値が閾値以下であると判定した場合(ステップS173:YES)、CPU21は、輝度値の分散値が閾値以下であるか否かを判定する(ステップS174)。閾値以下であると判定した場合(ステップS174:YES)、CPU21は、サングラスフラグをオンにしてサングラスフラグの値を記憶する(ステップS175)。
Next, the
ステップS175の処理を終えた場合、輝度平均値が閾値より大きいと判定した場合(ステップS173:NO)、分散値が閾値より大きいと判定した場合(ステップS174:NO)、CPU21は、眼鏡Gの左右両側のサングラス判定を実行したか否かを判定する(ステップS176)。左右両側又はいずれか一方のサングラス判定を実行していないと判定した場合(ステップS176:NO)、CPU21は処理をステップS171に戻す。左右両側のサングラス判定を実行したと判定した場合、CPU21はサングラス判定に係る処理を終える。
When the process of step S175 is finished, when it is determined that the luminance average value is larger than the threshold value (step S173: NO), when it is determined that the variance value is larger than the threshold value (step S174: NO), the
図32は、サングラス総合判定に係るCPUの処理手順を示すフローチャートである。CPU21は、過去の所定数フレームのサングラスフラグを読み出す(ステップS191)。そして、CPU21は所定数フレーム中、閾値以上のフレーム数においてサングラスフラグがオンであるか否かを判定する(ステップS192)。閾値以上のフレームでオンであると判定した場合(ステップS192:YES)、サングラスの有無を総合的に判断した結果を示す総合サングラスフラグをオンにし(ステップS193)、サングラス総合判定に係る処理を終える。閾値未満のフレーム数でオンであると判定した場合(ステップS192:NO)、CPU21は、総合サングラスフラグをオフにし(ステップS194)、サングラス総合判定に係る処理を終える。
サングラスフラグが示す1フレームのみの結果では、瞬間的な輝度変化、手の進入等によってサングラスを誤認識する虞があるが、複数フレームでのサングラス判定結果を用いて総合的に判定することにより、上述のような誤認識を防止することができる。
FIG. 32 is a flowchart showing the processing procedure of the CPU according to the sunglasses comprehensive determination. CPU21 reads the sunglasses flag of the past predetermined number of frames (step S191). Then, the
In the result of only one frame indicated by the sunglasses flag, there is a possibility that the sunglasses may be erroneously recognized due to instantaneous luminance change, hand approach, etc., but by comprehensively determining using the sunglasses determination result in a plurality of frames, Such erroneous recognition can be prevented.
第2の眼鏡部品認識に係る処理を終えた場合、図2に示すようにCPU21は、眼鏡学習、眼鏡判定処理を実行する(ステップS16)。
具体的には、CPU21は、眼鏡蔓J、眼鏡上フレームI、眼鏡下フレームK、眼鏡ブリッジHの検出の成否、及び各眼鏡部品の位置を記録する。
また、CPU21は、過去の所定数フレームにおける各眼鏡部品の取得率、即ち検出の成功率を算出し、HD23に記録する。眼鏡部品の取得率は、各眼鏡部品毎に算出する。眼鏡Gによっては、眼鏡下フレームKが検出されないが、眼鏡ブリッジHは検出できるような場合が存在するからである。
そして、CPU21は、各眼鏡部品の取得率に基づいて眼鏡Gの有無を判定する。例えば、取得率が所定取得率以上の眼鏡部品が一つ以上ある場合、眼鏡G有りと判定する。また、顔が横向きの場合、眼鏡蔓Jの取得率を用いて眼鏡Gの有無を判定し、顔が正面向きの場合、眼鏡ブリッジの取得率を用いて眼鏡Gの有無を判定するように構成しても良い。
When the process related to the second spectacle component recognition is finished, as shown in FIG. 2, the
Specifically, the
In addition, the
And CPU21 determines the presence or absence of the spectacles G based on the acquisition rate of each spectacles part. For example, when there is one or more spectacle parts with an acquisition rate equal to or higher than a predetermined acquisition rate, it is determined that there is spectacle G. Further, when the face is sideways, the presence / absence of the glasses G is determined using the acquisition rate of the glasses vine J, and when the face is frontward, the presence / absence of the glasses G is determined using the acquisition rate of the glasses bridge. You may do it.
次に、図2に示すステップS18,19の処理内容を説明する。
CPU21は、ステップS16で眼鏡G有りと判定されている場合、眼鏡部品の領域を除外して探索領域を設定する。
Next, the processing content of steps S18 and S19 shown in FIG. 2 will be described.
If it is determined in step S16 that the glasses G are present, the
図33は、眼の探索領域から眼鏡部品の領域を除外した状態を概念的に示す説明図である。例えば、CPU21は、眼の探索領域として顔領域R0を設定するような場合、該探索領域から各眼鏡部品の領域を除外した画像領域を探索領域として設定する。眼鏡ブリッジHの領域は、例えば、眼鏡ブリッジHの左端点H1と右端点H2とを結ぶ直線から上下に所定幅を有する画像領域である。眼鏡上フレームIの領域は、眼鏡上フレームIの上位置I4を中心として上下に所定幅を有し、水平方向範囲は、検出処理領域R7と同様である。眼鏡下フレームKの領域は、眼鏡下フレームKの下位置を中心として上下に所定幅を有し、水平方向範囲は検出処理領域R7と同様である。眼鏡蔓Jの領域は、眼鏡蔓Jの左端点J1及び右端点J2を頂点とする矩形領域である。
なお、眼鏡上フレームIの領域を、第2の眼鏡部品認識処理によって検出した座標に基づいて算出しているが、第1の眼鏡部品認識処理によって検出した座標に基づいて算出するように構成しても良い。
FIG. 33 is an explanatory diagram conceptually showing a state in which the spectacle part region is excluded from the eye search region. For example, when the face region R0 is set as the eye search region, the
The region of the upper spectacle frame I is calculated based on the coordinates detected by the second spectacle component recognition process, but is configured to be calculated based on the coordinates detected by the first spectacle component recognition process. May be.
そして、CPU21は、眼鏡部品が除外された探索領域内でテンプレートマッチング等によって眼を検出する。また、垂直方向に輝度が高低変化する上瞼又は下瞼をエッジフィルタ処理によって検出することで眼を検出しても良い。
眼の探索領域から眼鏡部品の領域を除外することにより、眼鏡部品を眼の瞼と誤検出することを防止することができる。
And CPU21 detects eyes by template matching etc. in the search area | region where the spectacles component was excluded. Alternatively, the eye may be detected by detecting an upper eyelid or a lower eyelid whose brightness changes in the vertical direction by edge filter processing.
By excluding the spectacle part region from the eye search area, it is possible to prevent erroneous detection of the spectacle part as an eyelid.
次に、ステップS20の眼の再検出処理について説明する。
図34は、眼の再検出に係るCPUの処理手順を示すフローチャートである。まず、CPU21は、眼鏡蔓Jの位置を基準とした探索領域Sを設定し、眼の再検出処理を実行する(ステップS211)。眼鏡蔓Jに対する探索領域Sの相対距離は顔幅Fwに比例し、その探索領域Sの寸法も顔幅Fwに比例するように設定される。
Next, the eye re-detection process in step S20 will be described.
FIG. 34 is a flowchart illustrating the processing procedure of the CPU related to eye redetection. First, the
以下、ステップS211の処理内容を具体的に説明する。
図35は、眼鏡蔓Jの検出結果を用いた眼の再検出に係るCPUの処理手順を示すフローチャート、図36は、眼鏡蔓Jの位置を基準として設定された探索領域を概念的に示す説明図である。CPU21は、顔幅Fwを算出し(ステップS231)、顔幅Fwに基づいて眼推定領域の縦幅Shを算出する(ステップS232)。また、CPU21は、顔幅Fwに基づいて眼推定領域の横幅Swを算出する(ステップS233)。眼推定領域の横幅Sw及び縦幅Shは、顔幅Fwに比例する。
Hereinafter, the processing content of step S211 is demonstrated concretely.
FIG. 35 is a flowchart showing the processing procedure of the CPU related to eye re-detection using the detection result of the spectacle vine J, and FIG. 36 conceptually shows a search area set based on the position of the spectacle vine J. FIG. The
そして、CPU21は、眼鏡蔓Jの左端点J1より眼推定領域の横幅SwのW11%左側の位置を、探索領域Sの右端のX座標として設定する(ステップS234)。眼鏡蔓Jの左端点J1のX座標をJ1xとした場合、探索領域Sの右端のX座標は、J1x−Sw×W11/100で表される。
次いで、CPU21は、眼鏡蔓Jの左端点J1より眼推定領域の横幅SwのW12%左側の位置を、探索領域Sの左端のX座標として設定する(ステップS235)。探索領域Sの左端のX座標は、J1x−Sw×W12/100で表される。
Then, the
Next, the
次いで、CPU21は、眼鏡蔓Jの左端点J1より眼推定領域の縦幅ShのH11%下側の位置を、探索領域Sの上端のX座標として設定する(ステップS236)。眼鏡蔓Jの左端点J1のY座標をJ1yとした場合、探索領域Sの上端のY座標は、J1y+Sh×H11/100で表される。
次いで、CPU21は、眼鏡蔓Jの左端点J1より眼推定領域の縦幅ShのH12%下側の位置を探索領域Sの下端のY座標として設定する(ステップS237)。探索領域Sの下端のY座標は、J1y+Sh×H12/100で表される。
Next, the
Next, the
そして、CPU21は、図36に示すように設定された探索領域Sから眼を検出し(ステップS228)、眼鏡蔓Jの検出結果を用いた眼の再検出に係る処理を終える。
Then, the
図34に示すように眼鏡蔓Jに係る眼の再検出処理を終えた場合、眼鏡ブリッジHが検出されているとき、CPU21は、過去にHD23に記録した眼鏡部品、顔部位及び眼位置と、現フレームで検出された眼鏡ブリッジH、顔部位の位置関係とに基づいて探索領域を設定し、眼の再検出処理を実行する(ステップS212)。
When the eye re-detection process related to the spectacle vine J is completed as shown in FIG. 34, when the spectacle bridge H is detected, the
以下、ステップS212の処理内容を具体的に説明する。
図37は、眼鏡ブリッジHの検出結果を用いた眼の再検出に係るCPUのフローチャート、図38は、眼鏡ブリッジHの検出結果を用いて設定された探索領域を概念的に示す説明図である。
Hereinafter, the processing content of step S212 is demonstrated concretely.
FIG. 37 is a flowchart of the CPU related to eye re-detection using the detection result of the eyeglass bridge H, and FIG. 38 is an explanatory diagram conceptually showing a search area set using the detection result of the eyeglass bridge H. .
まず、CPU21は過去に登録、つまりHD23に記録された眼鏡ブリッジH、両眼、及び鼻穴の位置座標を読み出す(ステップS251)。
First, the
次いで、CPU21は、図38(a)に示すように登録されている眼鏡ブリッジH、両眼及び鼻穴の位置関係と、現フレームの画像データから検出された眼鏡ブリッジH及び鼻穴の位置関係とに基づいて、現フレームにおける眼の再検出位置Eの座標(Ex,Ey)を算出する(ステップS252)。顔の位置、向き等が変化している場合であっても、登録されている各部の位置関係と、現フレームにおける各部との間には一定の関係がある。そこで、CPU21は、登録されている各部の座標を現フレームにおける各部の座標に変換する変換式を算出する。CPU21は、算出された変換式と、登録されている両眼の位置とを用いて、現フレームにおける眼位置を再検出位置の座標として算出する。
Next, the
次いで、CPU21は、顔幅Fwを算出し(ステップS253)、顔幅Fwに基づいて眼推定領域の縦幅Shを算出する(ステップS254)。また、CPU21は、顔幅Fwに基づいて眼推定領域の横幅Swを算出する(ステップS255)。眼推定領域の横幅Sw及び縦幅Shは、顔幅Fwに比例する。
Next, the
次いで、CPU21は、図38(b)に示すように、CPU21は、再検出位置Eより眼推定領域の横幅SwのW13%右側の位置を、探索領域の右端のX座標として設定し(ステップS256)、W13%左側の位置を、探索領域の左端のX座標として設定する(ステップS257)。探索領域の右端のX座標は、Ex+Sw×W13/100で表され、左端のX座標は、J1x−Sw×W13/100で表される。
Next, as shown in FIG. 38B, the
次いで、CPU21は、再検出位置Eyより眼推定領域の縦幅ShのH13%上側の位置を、探索領域の上端のY座標として設定し(ステップS258)、H13%下側の位置を探索領域の下端のY座標として設定する(ステップS259)。探索領域の上端のY座標は、Ey−Sh×H13/100で表され、探索領域の下端のY座標は、Ey+Sh×H13/100で表される。
Next, the
そして、CPU21は、図38(b)に示すように設定された探索領域から眼を検出し(ステップS260)、眼鏡ブリッジHの検出結果を用いた眼の再検出に係る処理を終える。
Then, the
図34に示すように眼鏡ブリッジHに係る眼再検出の処理を終えた場合、眼鏡上フレームIが検出されているとき、CPU21は、眼鏡部品及び顔部位の学習結果と、現フレームで検出された眼鏡上フレームI、顔部位の位置関係とに基づいて探索領域を設定し、眼の再検出処理を実行する(ステップS213)。
As shown in FIG. 34, when the eye re-detection process related to the spectacle bridge H is completed, when the upper frame I is detected, the
図39は、眼鏡上フレームIの検出結果を用いて設定された探索領域を概念的に示す説明図である。処理内容は、眼鏡ブリッジHに係る眼の再検出処理と同様であり、眼鏡ブリッジHの位置の代わりに眼鏡上フレームIの位置を用いてステップS251〜259と同様の処理を実行する。 FIG. 39 is an explanatory diagram conceptually showing a search area set using the detection result of the frame I on the glasses. The processing content is the same as the eye redetection processing related to the eyeglass bridge H, and the same processing as steps S251 to S259 is executed using the position of the spectacles upper frame I instead of the position of the eyeglass bridge H.
まず、CPU21は過去に登録された眼鏡上フレームI、両眼、及び鼻穴の位置を読み出す。特にCPU21は、運転者が正面側を向いている場合の眼鏡ブリッジH、両眼及び鼻穴の位置を読み出す。
First, the
そして、図39(a)に示すように登録されている眼鏡上フレームI、両眼及び鼻穴の位置関係と、現フレームの画像データから検出された眼鏡上フレームI及び鼻穴の位置関係とに基づいて、現フレームにおける眼の再検出位置Eの座標(Ex,Ey)を算出する。 Then, as shown in FIG. 39 (a), the positional relationship between the registered glasses upper frame I, both eyes and nostrils, and the positional relationship between the glasses upper frame I and nostrils detected from the image data of the current frame. Based on the above, the coordinates (Ex, Ey) of the eye redetection position E in the current frame are calculated.
次いで、再検出位置を中心として左右にSw×W13、上下にSh×H13の広がりを有する領域を、探索領域として設定する。そして、CPU21は、設定された探索領域から眼を再検出する。
Next, an area having a width of Sw × W13 on the left and right and Sh × H13 on the top and bottom with respect to the redetection position is set as a search area. Then, the
眼鏡上フレームIに係る眼再検出の処理を終えた場合、図34に示すようにCPU21は、眼が再検出されたか否かを判定する(ステップS214)。眼が再検出されていないと判定した場合(ステップS214:NO)、CPU21は、眼再検出に係る処理を終える。眼が再検出されたと判定した場合(ステップS214:YES)、CPU21は、ステップS19,211,212,213でそれぞれ検出された眼の位置を評価して、眼位置としてより正しいと推定される方を選択し(ステップS215)、眼再検出に係る処理を終える。例えば、過去の学習結果、両眼の位置関係等から眼の位置の良否を判定する。
When the eye re-detection process related to the spectacles upper frame I is finished, as shown in FIG. 34, the
このように構成された実施の形態に係る画像処理方法、画像処理装置2、画像処理システム、コンピュータプログラム31、及び記録媒体41によれば、ステップS14,15でCPU21は、眼と誤検出され易い眼鏡部品を検出し、ステップS18、19で該眼鏡部品を除外した探索領域を設定して、探索領域から眼を検出する構成であるため、眼鏡部品を眼と誤検出することを効果的に防止し、眼を正確に検出することができる。
According to the image processing method, the
また、ステップS211〜213でCPU21は、眼鏡部品から離隔していて、該眼鏡部品に対する相対距離が顔幅の広/狭に応じて長/短となるように、また寸法も顔幅の広/狭に応じて大/小となるように探索領域を設定する構成であるため、運転者の個人差又は顔の向きに応じた探索領域を設定することができ、眼の位置を正確に検出することができる。
In steps S211 to S213, the
更に、ステップS212、213でCPU21は、過去にHD23に登録した顔部位、眼鏡G位置及び眼の位置と、現フレームの画像から検出された顔部位及び眼鏡部品の位置とを比較することによって、過去の一の画像における眼の位置と現時点の他の画像における探索領域の位置とが対応するように探索領域を設定して眼を検出する構成であるため、運転者の個人差、顔の向きを学習して探索領域を適切に設定することができ、眼の位置を正確に検出することができる。
Further, in steps S212 and 213, the
なお、実施の形態にあっては、該眼鏡部品に対する相対距離が顔幅の広/狭に応じて長/短となるように、また寸法も顔幅の広/狭に応じて大/小となるように探索領域を設定する構成であるが、眼、鼻等の顔部位の幅、複数の顔部位間の幅、例えば2つの眼の間の幅に応じて該眼鏡部品に対する相対距離が長/短し、寸法も前記幅に応じて大/小となるように探索領域を設定しても良い。このように構成した場合も、運転者の個人差又は顔の向きに応じた探索領域を設定することができ、眼の位置を正確に検出することができる。 In the embodiment, the relative distance with respect to the spectacle component is long / short according to the wide / narrow face width, and the size is large / small according to the wide / narrow face width. The search area is set so that the relative distance to the spectacle component is long depending on the width of a face part such as the eyes and nose, the width between a plurality of face parts, for example, the width between two eyes. The search area may be set so as to be shorter / shorter and the size to be larger / smaller depending on the width. Even in such a configuration, it is possible to set a search area corresponding to the individual difference of the driver or the face direction, and to accurately detect the position of the eyes.
(付記1)
顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出する画像処理方法において、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、
画像から眼鏡部品の位置を検出するステップと、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップと
を有することを特徴とする画像処理方法。
(Appendix 1)
In an image processing method for setting a search area where an eye should be searched from an image including a face and glasses, and detecting an eye position from the search area,
Detecting one or a plurality of face parts or face regions from an image and calculating a face part, between a plurality of face parts or a width of the face area;
Detecting the position of the spectacle part from the image;
And a step of setting a search area so as to be long / short relative to the spectacle component according to the wide / narrow width of the spectacle component. Method.
(付記2)
顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出する画像処理装置において、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出する領域幅算出手段と、
画像から眼鏡部品の位置を検出する眼鏡部品検出手段と、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定する設定手段と
を備えることを特徴とする画像処理装置。
(Appendix 2)
In an image processing apparatus for setting a search area where an eye is to be searched from an image including a face and glasses, and detecting the position of the eye from the search area,
Area width calculating means for detecting one or a plurality of face parts or face areas from an image and calculating a face part, between a plurality of face parts or a width of the face area;
Spectacle component detection means for detecting the position of the spectacle component from the image;
A setting means for setting a search area so as to be long / short relative to the spectacle part according to the width / narrowness of the spectacle part. Processing equipment.
(付記3)
前記設定手段は、前記幅が広い場合、眼鏡部品に対する相対距離が長くなるように探索領域を設定し、前記幅が狭い場合、眼鏡部品に対する相対距離が短くなるように探索領域を設定することを特徴とする付記2に記載の画像処理装置。
(Appendix 3)
The setting means sets the search area so that the relative distance to the spectacle part is long when the width is wide, and sets the search area so that the relative distance to the spectacle part is short when the width is narrow. The image processing apparatus according to
(付記4)
前記設定手段は、
前記幅に応じた寸法を有する探索領域を設定するようにしてある
ことを特徴とする付記2又は付記3に記載の画像処理装置。
(Appendix 4)
The setting means includes
The image processing apparatus according to
(付記5)
探索領域中に眼鏡部品が含まれた場合、前記眼鏡部品検出手段にて検出された眼鏡部品の領域を探索領域から除外する手段を備える
ことを特徴とする付記2又は付記3に記載の画像処理装置。
(Appendix 5)
The image processing according to
(付記6)
時系列で画像を取得するように構成してあり、
各画像から眼以外の顔部位を検出する顔部位検出手段と、
一の画像から検出された顔部位、眼鏡部品及び眼の位置を記憶する記憶手段と
を備え、
前記設定手段は、
他の画像から検出された顔部位及び眼鏡部品の位置、並びに前記記憶手段が記憶している顔部位、眼鏡部品及び眼の位置を比較して、一の画像における眼の位置と他の画像における探索領域の位置とが対応するように探索領域を設定する手段を備える
ことを特徴とする付記2乃至付記5のいずれか一つに記載の画像処理装置。
(Appendix 6)
It is configured to acquire images in time series,
Face part detection means for detecting a face part other than the eye from each image;
Storage means for storing the face part, spectacle parts and eye position detected from one image,
The setting means includes
The position of the face part and eyeglass parts detected from another image and the face part, eyeglass parts and eye position stored in the storage means are compared, and the eye position in one image and the other image are compared. The image processing apparatus according to any one of
(付記7)
前記眼鏡部品は、眼鏡ブリッジ、眼鏡フレーム又は眼鏡蔓を含む
ことを特徴とする付記2乃至付記6のいずれか一つに記載の画像処理装置。
(Appendix 7)
The image processing apparatus according to any one of
(付記8)
顔の向きを検出する顔の向き検出手段を備え、
前記眼鏡部品検出手段は、
前記検出手段が横向きであることを検出した場合、眼鏡蔓を検出するように構成してある
ことを特徴とする付記7に記載の画像処理装置。
(Appendix 8)
A face direction detecting means for detecting the face direction;
The spectacle component detection means includes
The image processing device according to appendix 7, wherein the image processing device is configured to detect a spectacle vine when it is detected that the detection means is in the horizontal direction.
(付記9)
眼鏡部品検出手段は、眼鏡ブリッジを検出する眼鏡ブリッジ検出手段を備え、
該眼鏡ブリッジ検出手段は、
第1方向に並ぶ画素の輝度値を積算した輝度積算値を算出し、該第1方向と異なる第2方向における積算値の変化に基づいて、第1方向における眼鏡ブリッジの位置を算出する手段と、
第2方向に並ぶ画素の輝度値を積算した輝度積算値を算出し、第1方向における輝度積算値の変化に基づいて、第2方向における眼鏡ブリッジの位置を算出する手段と
を備えることを特徴とする付記7又は付記8に記載の画像処理装置。
(Appendix 9)
The spectacle component detection means includes spectacle bridge detection means for detecting a spectacle bridge,
The eyeglass bridge detection means includes:
Means for calculating a luminance integrated value obtained by integrating the luminance values of the pixels arranged in the first direction, and calculating a position of the eyeglass bridge in the first direction based on a change in the integrated value in the second direction different from the first direction; ,
Means for calculating a luminance integrated value obtained by integrating the luminance values of the pixels arranged in the second direction, and calculating a position of the eyeglass bridge in the second direction based on a change in the luminance integrated value in the first direction. The image processing apparatus according to appendix 7 or appendix 8.
(付記10)
前記眼鏡部品検出手段は、眼鏡フレームを検出する眼鏡フレーム検出手段を備え、
該眼鏡フレーム検出手段は、
ラプラシアンフィルタにて眼鏡フレームのエッジを抽出する手段と、
抽出されたエッジと、検出された眼鏡ブリッジ及び顔領域の端部を含む近似直線又は近似曲線との相関を算出し、該相関に基づいて近似直線又は曲線を特定する手段と
を備えることを特徴とする付記7乃至付記9に記載の画像処理装置。
(Appendix 10)
The spectacle component detection means includes spectacle frame detection means for detecting spectacle frames,
The spectacle frame detection means includes:
Means for extracting the edge of the spectacle frame with a Laplacian filter;
A means for calculating a correlation between the extracted edge and an approximate straight line or approximate curve including the detected spectacles bridge and the end of the face region, and means for specifying the approximate straight line or the curve based on the correlation. The image processing apparatus according to appendix 7 to
(付記11)
眼鏡部品検出手段は、眼鏡フレームを検出する眼鏡フレーム検出手段を備え、
該眼鏡フレーム検出手段は、
所定方向に隣接して並ぶ画素の輝度差を算出する手段と、
算出された輝度差及び閾値を比較する比較手段と、
該比較手段の比較結果に基づいて眼鏡フレームの所定方向における位置を算出する手段と
を備えることを特徴とする付記7乃至付記9に記載の画像処理装置。
(Appendix 11)
The spectacle component detection means includes spectacle frame detection means for detecting spectacle frames,
The spectacle frame detection means includes:
Means for calculating a luminance difference between pixels arranged adjacent to each other in a predetermined direction;
A comparison means for comparing the calculated luminance difference and threshold;
The image processing apparatus according to any one of appendices 7 to 9, further comprising: a unit that calculates a position of the spectacle frame in a predetermined direction based on a comparison result of the comparison unit.
(付記12)
眼鏡部品検出手段は、眼鏡蔓を検出する眼鏡蔓検出手段を備え、
該眼鏡蔓検出手段は、
所定方向に隣接して並ぶ画素の輝度差を算出する手段と、
算出された輝度差の変化に基づいて眼鏡蔓の位置を算出する手段と
を備えることを特徴とする付記7乃至付記11に記載の画像処理装置。
(Appendix 12)
The spectacle component detection means includes spectacle vine detection means for detecting spectacle vines,
The spectacle vine detection means comprises:
Means for calculating a luminance difference between pixels arranged adjacent to each other in a predetermined direction;
The image processing apparatus according to appendix 7 to appendix 11, comprising means for calculating a position of the spectacle vine based on a change in the calculated luminance difference.
(付記13)
眼鏡部品を検出するための閾値を記憶する手段と、
前記眼鏡部品検出手段による眼鏡部品の検出率を算出する手段と、
検出された眼鏡部品の検出率に応じて前記閾値を増減させる手段と
を備えることを特徴とする付記2乃至付記12に記載の画像処理装置。
(Appendix 13)
Means for storing a threshold for detecting spectacle parts;
Means for calculating a detection rate of spectacle parts by the spectacle part detection means;
The image processing apparatus according to any one of
(付記14)
眼鏡部品を基準として所定領域における輝度平均値を算出する手段と、
該所定領域における輝度分散値を算出する手段と、
算出された輝度平均値及び輝度分散値に基づいて、サングラスの有無を判定する手段と
を備え、
サングラス無しと判定された場合、探索領域から眼の位置を検出するように構成してある
ことを特徴とする付記2乃至付記13に記載の画像処理装置。
(Appendix 14)
Means for calculating a luminance average value in a predetermined region with reference to the spectacle part;
Means for calculating a luminance dispersion value in the predetermined region;
Means for determining the presence or absence of sunglasses based on the calculated luminance average value and luminance variance value;
The image processing apparatus according to
(付記15)
付記2乃至付記14のいずれか一つに記載の画像処理装置と、
車両の運転者を撮像する撮像装置と
を備え、
前記画像処理装置は、
前記撮像装置が撮像して得た画像から眼の位置を検出するように構成してあることを特徴とする画像処理システム。
(Appendix 15)
The image processing apparatus according to any one of
An imaging device for imaging a vehicle driver,
The image processing apparatus includes:
An image processing system configured to detect an eye position from an image obtained by imaging by the imaging device.
(付記16)
コンピュータに、顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出させるコンピュータプログラムにおいて、
コンピュータに、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、
画像から眼鏡部品の位置を検出するステップと、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップと
を実行させることを特徴とするコンピュータプログラム。
(Appendix 16)
In a computer program for setting a search area to search for an eye from an image including a face and glasses on a computer and detecting the position of the eye from the search area,
On the computer,
Detecting one or a plurality of face parts or face regions from an image and calculating a face part, between a plurality of face parts or a width of the face area;
Detecting the position of the spectacle part from the image;
And a step of setting a search area so as to be long / short relative to the spectacle part according to the wide / narrow width of the spectacle part. program.
(付記17)
コンピュータに、顔及び眼鏡を含む画像から眼を探索すべき探索領域を設定し、該探索領域から眼の位置を検出させるコンピュータプログラムを記録したコンピュータ読み取り可能な記録媒体において、
コンピュータに、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、
画像から眼鏡部品の位置を検出するステップと、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップと
を実行させるコンピュータプログラムを記録したことを特徴とするコンピュータ読み取り可能な記録媒体。
(Appendix 17)
In a computer-readable recording medium in which a computer program for setting a search area to search for an eye from an image including a face and glasses on a computer and detecting the position of the eye from the search area is recorded.
On the computer,
Detecting one or a plurality of face parts or face regions from an image and calculating a face part, between a plurality of face parts or a width of the face area;
Detecting the position of the spectacle part from the image;
A computer program is recorded that is separated from the detected spectacle component and executes a step of setting a search area so that a relative distance to the spectacle component becomes long / short according to the width / narrowness of the width. A computer-readable recording medium characterized by the above.
1 撮像装置
2 画像処理装置
21 CPU
G 眼鏡
H 眼鏡ブリッジ
I 眼鏡上フレーム
J 眼鏡蔓
K 眼鏡下フレーム
DESCRIPTION OF
G Glasses H Glasses bridge I Glasses frame J Glasses vine K Glasses frame
Claims (9)
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、
画像から眼鏡部品の位置を検出するステップと、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップと
を有することを特徴とする画像処理方法。 In an image processing method for setting a search area where an eye should be searched from an image including a face and glasses, and detecting an eye position from the search area,
Detecting one or a plurality of face parts or face regions from an image and calculating a face part, between a plurality of face parts or a width of the face area;
Detecting the position of the spectacle part from the image;
And a step of setting a search area so as to be long / short relative to the spectacle component according to the wide / narrow width of the spectacle component. Method.
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出する領域幅算出手段と、
画像から眼鏡部品の位置を検出する眼鏡部品検出手段と、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定する設定手段と
を備えることを特徴とする画像処理装置。 In an image processing apparatus for setting a search area where an eye is to be searched from an image including a face and glasses, and detecting the position of the eye from the search area,
Area width calculating means for detecting one or a plurality of face parts or face areas from an image and calculating a face part, between a plurality of face parts or a width of the face area;
Spectacle component detection means for detecting the position of the spectacle component from the image;
A setting means for setting a search area so as to be long / short relative to the spectacle part according to the width / narrowness of the spectacle part. Processing equipment.
前記幅に応じた寸法を有する探索領域を設定するようにしてある
ことを特徴とする請求項2に記載の画像処理装置。 The setting means includes
The image processing apparatus according to claim 2, wherein a search area having a dimension corresponding to the width is set.
ことを特徴とする請求項2又は請求項3に記載の画像処理装置。 4. The apparatus according to claim 2, further comprising means for excluding a region of the spectacle part detected by the spectacle component detection unit from the search region when the spectacle component is included in the search region. 5. Image processing device.
各画像から眼以外の顔部位を検出する顔部位検出手段と、
一の画像から検出された顔部位、眼鏡部品及び眼の位置を記憶する記憶手段と
を備え、
前記設定手段は、
他の画像から検出された顔部位及び眼鏡部品の位置、並びに前記記憶手段が記憶している顔部位、眼鏡部品及び眼の位置を比較して、一の画像における眼の位置と他の画像における探索領域の位置とが対応するように探索領域を設定する手段を備える
ことを特徴とする請求項2乃至請求項4のいずれか一つに記載の画像処理装置。 It is configured to acquire images in time series,
Face part detection means for detecting a face part other than the eye from each image;
Storage means for storing the face part, spectacle parts and eye position detected from one image,
The setting means includes
The position of the face part and eyeglass parts detected from another image and the face part, eyeglass parts and eye position stored in the storage means are compared, and the eye position in one image and the other image are compared. The image processing apparatus according to any one of claims 2 to 4, further comprising means for setting the search area so that the position of the search area corresponds to the position.
ことを特徴とする請求項2乃至請求項5のいずれか一つに記載の画像処理装置。 The image processing device according to claim 2, wherein the spectacle component includes a spectacle bridge, a spectacle frame, or a spectacle vine.
前記眼鏡部品検出手段は、 The spectacle component detection means includes
前記検出手段が横向きであることを検出した場合、眼鏡蔓を検出するように構成してある When detecting that the detection means is in landscape orientation, it is configured to detect a spectacle vine.
ことを特徴とする請求項6に記載の画像処理装置。 The image processing apparatus according to claim 6.
車両の運転者を撮像する撮像装置と
を備え、
前記画像処理装置は、
前記撮像装置が撮像して得た画像から眼の位置を検出するように構成してあることを特徴とする画像処理システム。 An image processing apparatus according to any one of claims 2 to 7 ,
An imaging device for imaging a vehicle driver,
The image processing apparatus includes:
An image processing system configured to detect an eye position from an image obtained by imaging by the imaging device.
コンピュータに、
画像から一若しくは複数の顔部位又は顔領域を検出して顔部位、複数の顔部位間又は顔領域の幅を算出するステップと、
画像から眼鏡部品の位置を検出するステップと、
検出された眼鏡部品から離隔していて、前記幅の広/狭に応じて該眼鏡部品に対する相対距離が長/短になるように探索領域を設定するステップと
を実行させることを特徴とするコンピュータプログラム。 In a computer program for setting a search area to search for an eye from an image including a face and glasses on a computer and detecting the position of the eye from the search area,
On the computer,
Detecting one or a plurality of face parts or face regions from an image and calculating a face part, between a plurality of face parts or a width of the face area;
Detecting the position of the spectacle part from the image;
And a step of setting a search area so as to be long / short relative to the spectacle part according to the wide / narrow width of the spectacle part. program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007109751A JP4912206B2 (en) | 2007-04-18 | 2007-04-18 | Image processing method, image processing apparatus, image processing system, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007109751A JP4912206B2 (en) | 2007-04-18 | 2007-04-18 | Image processing method, image processing apparatus, image processing system, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008269182A JP2008269182A (en) | 2008-11-06 |
JP4912206B2 true JP4912206B2 (en) | 2012-04-11 |
Family
ID=40048614
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007109751A Active JP4912206B2 (en) | 2007-04-18 | 2007-04-18 | Image processing method, image processing apparatus, image processing system, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4912206B2 (en) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5359266B2 (en) * | 2008-12-26 | 2013-12-04 | 富士通株式会社 | Face recognition device, face recognition method, and face recognition program |
CN101477692B (en) | 2009-02-13 | 2012-08-22 | 阿里巴巴集团控股有限公司 | Method and apparatus for image characteristic extraction |
JP5293589B2 (en) * | 2009-12-21 | 2013-09-18 | トヨタ自動車株式会社 | Biological monitoring device |
JP2012181628A (en) * | 2011-02-28 | 2012-09-20 | Sogo Keibi Hosho Co Ltd | Face detection method, face detection device, and program |
JP6099943B2 (en) * | 2012-11-20 | 2017-03-22 | キヤノン株式会社 | Information processing apparatus, information processing method, and program |
WO2017130407A1 (en) * | 2016-01-29 | 2017-08-03 | パイオニア株式会社 | Information generation device, information generation method, information generation program, and recording medium |
US10621418B2 (en) * | 2016-02-18 | 2020-04-14 | Mitsubishi Electric Corporation | Passenger detection device, passenger detection system, and passenger detection method |
DE102016205307A1 (en) * | 2016-03-31 | 2017-10-05 | Robert Bosch Gmbh | Method and device for locating a head of a vehicle occupant |
JP6558387B2 (en) * | 2017-03-14 | 2019-08-14 | オムロン株式会社 | Image analysis apparatus, image analysis method, and image analysis program |
WO2019207721A1 (en) | 2018-04-26 | 2019-10-31 | 日本電気株式会社 | Information processing device, control method, and program |
JP7331910B2 (en) | 2018-04-26 | 2023-08-23 | 日本電気株式会社 | Information processing device, information processing method, and program |
KR102161908B1 (en) * | 2019-01-25 | 2020-10-05 | 주식회사 에프에스솔루션 | Driver status monitor method and apparatus |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3452685B2 (en) * | 1995-05-10 | 2003-09-29 | 三菱電機株式会社 | Face image processing device |
JP3926507B2 (en) * | 1999-05-28 | 2007-06-06 | 沖電気工業株式会社 | Eye position and face position detection device |
JP2005157648A (en) * | 2003-11-25 | 2005-06-16 | Toyota Motor Corp | Device for recognizing driver |
JP4696571B2 (en) * | 2005-01-27 | 2011-06-08 | 日産自動車株式会社 | Eye position detection device |
-
2007
- 2007-04-18 JP JP2007109751A patent/JP4912206B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2008269182A (en) | 2008-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4912206B2 (en) | Image processing method, image processing apparatus, image processing system, and computer program | |
JP4307496B2 (en) | Facial part detection device and program | |
JP4445454B2 (en) | Face center position detection device, face center position detection method, and program | |
JP4845698B2 (en) | Eye detection device, eye detection method, and program | |
US8498449B2 (en) | Eye detecting device, eye detecting method, and program | |
JP3926507B2 (en) | Eye position and face position detection device | |
JP4739870B2 (en) | Sunglasses detection device and face center position detection device | |
JP2005228042A (en) | Face identification device, face identification method, and face identification program | |
JPH0944685A (en) | Face image processor | |
JP2008226125A (en) | Eyelid detection apparatus, eyelid detection method and program therefor | |
US9762773B2 (en) | Image processing apparatus and method for increasing sharpness of images | |
JP2007272435A (en) | Face feature extraction device and face feature extraction method | |
CN112183502B (en) | Method for determining driving state of driver, computer storage medium, and electronic device | |
JP2005165984A (en) | Method, system and program for detecting vertex of human face | |
JP4989249B2 (en) | Eye detection device, dozing detection device, and method of eye detection device | |
JP2001043382A (en) | Eye tracking device | |
JP2009279186A (en) | Face detecting device and method | |
JP2003271932A (en) | Sight line direction detector | |
JP6098133B2 (en) | Face component extraction device, face component extraction method and program | |
JP4082203B2 (en) | Open / close eye determination device | |
US20060269128A1 (en) | Image correction method and apparatus | |
JP2004220080A (en) | Eye opening/closing determining device | |
WO2017159215A1 (en) | Information processing device and information processing method | |
JP4878273B2 (en) | Glasses detection device, image processing device, glasses detection method, and computer program | |
JP4996943B2 (en) | Facial feature point detection apparatus, facial feature point detection method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110629 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110719 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120117 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120117 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 Ref document number: 4912206 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150127 Year of fee payment: 3 |