JP5098982B2 - Face detection device - Google Patents

Face detection device Download PDF

Info

Publication number
JP5098982B2
JP5098982B2 JP2008312592A JP2008312592A JP5098982B2 JP 5098982 B2 JP5098982 B2 JP 5098982B2 JP 2008312592 A JP2008312592 A JP 2008312592A JP 2008312592 A JP2008312592 A JP 2008312592A JP 5098982 B2 JP5098982 B2 JP 5098982B2
Authority
JP
Japan
Prior art keywords
face
haar
feature
luminance
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008312592A
Other languages
Japanese (ja)
Other versions
JP2010134867A (en
Inventor
文男 菅谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2008312592A priority Critical patent/JP5098982B2/en
Publication of JP2010134867A publication Critical patent/JP2010134867A/en
Application granted granted Critical
Publication of JP5098982B2 publication Critical patent/JP5098982B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、顔部位検出装置に関する。   The present invention relates to a face part detection device.

車両のドライバを支援するために様々な装置が開発されており、例えば、脇見判定装置や衝突防止装置がある。脇見判定装置の場合、カメラによって撮像されたドライバの顔を含む撮像画像から顔を検出し、その顔画像から顔向きや視線方向を検出し、その顔向きや視線方向から脇見しているか否かを判定している。このような装置では、顔向きや視線を高精度に検出することが重要となる。顔向きの検出方法としては、例えば、顔の特定の部位(鼻など)を検出し、その部位の位置に基づいて顔の位置や角度を検出する。特許文献1に記載の装置では、顔画像から検出した顔の特徴点の位置(左右の鼻腔など)を用いて顔の向きを推定する。特に、この装置では、照明光源の方向や光源の強度の違いによって顔の明るさが異なるため、同一方向を向いた顔であっても輝度値が異なるので、顔画像から照明変動の影響を除去した画像(すなわち、顔における影の影響を排除した画像)を用いて顔の向きを推定する。
特開2004−94491号公報 特開2003−242491号公報 特開2002−24811号公報 特開2007−109229号公報
Various devices have been developed to assist the driver of the vehicle, for example, a side-view determination device and a collision prevention device. In the case of an aside look determination device, a face is detected from a captured image including a driver's face imaged by a camera, a face direction and a line-of-sight direction are detected from the face image, and whether or not a person is looking aside from the face direction or the line-of-sight direction Is judged. In such an apparatus, it is important to detect the face direction and the line of sight with high accuracy. As a method for detecting the face direction, for example, a specific part (such as a nose) of the face is detected, and the position and angle of the face are detected based on the position of the part. In the apparatus described in Patent Document 1, the face orientation is estimated using the positions of facial feature points (left and right nasal cavities) detected from the face image. In particular, with this device, the brightness of the face varies depending on the direction of the illumination light source and the intensity of the light source. The orientation of the face is estimated using the obtained image (that is, the image excluding the influence of the shadow on the face).
JP 2004-94491 A Japanese Patent Laid-Open No. 2003-242491 JP 2002-24811 A JP 2007-109229 A

しかし、屋外環境で移動する車両のドライバの場合、様々な方向から顔に光が当たる。そのため、光の当たる方向によって、鼻などによって影が変化する。その結果、鼻などの顔の部位を精度良く検出できず、顔の向きの推定精度も低下する。   However, in the case of a driver of a vehicle moving in an outdoor environment, light hits the face from various directions. For this reason, the shadow changes depending on the nose depending on the direction of light. As a result, face parts such as the nose cannot be detected with high accuracy, and the accuracy of face orientation estimation also decreases.

そこで、本発明は、顔に対して当たる光の方向に関係なく、画像から顔の部位を高精度に検出できる顔部位検出装置を提供することを課題とする。   Therefore, an object of the present invention is to provide a face part detection device that can detect a face part from an image with high accuracy regardless of the direction of light hitting the face.

本発明に係る顔部位検出装置は、haar−like特徴を用いて顔の部位を検出する顔部位検出装置であって、撮像手段で撮像された画像から顔を検出する顔検出手段と、顔検出手段で検出された顔の画像を複数に分け、当該分けた各領域における輝度情報を算出する輝度算出手段と、輝度算出手段でそれぞれ算出された各領域の輝度情報を比較し、輝度の低い領域側のhaar−like特徴の重みを大きくする又はhaar−like特徴の閾値を小さくする補正手段とを備え、輝度算出手段は、顔の画像を左右方向の中心線を基準として左右の領域に分けることを特徴とする。 A face part detection apparatus according to the present invention is a face part detection apparatus that detects a face part using a haar-like feature, and includes a face detection unit that detects a face from an image captured by an imaging unit, and a face detection The brightness detection means for calculating the brightness information in each of the divided areas is compared with the brightness information of each area calculated by the brightness calculation means, and the low brightness area Correction means for increasing the weight of the haar-like feature on the side or reducing the threshold value of the haar-like feature , and the luminance calculation means divides the face image into left and right regions with reference to the center line in the left-right direction. It is characterized by.

この顔部位検出装置では、撮像手段により撮像し、顔検出手段によりその撮像画像から顔を検出する。そして、顔部位検出装置では、輝度算出手段により顔画像を複数に分けた各領域の輝度情報(例えば、領域内の全画素の輝度の平均値、領域内の全画像の輝度の和)を算出する。顔画像において、顔の一方側に光が当たっている領域では輝度が高くなり、その他方側の光が当たっていない領域(特に、鼻などで影になっている箇所)では輝度が低くなる。そのため、他方側の領域において算出されるhaar−like特徴量は、相対的に、一方側の領域において算出されるhaar−like特徴量よりも小さくなる。そこで、顔部位検出装置では、補正手段により各領域の輝度情報を比較し、輝度の低い領域側においてhaar−like特徴量を算出する際に用いる重みを大きくするかあるいはhaar−like特徴量を判定するときの閾値を小さくする。そして、顔部位検出装置では、そのhaar−like特徴を用いて顔の部位を検出する。ここでのhaar−like特徴は、顔の部位を検出するためのものである。このように、顔部位検出装置では、顔画像における各領域の輝度情報に応じてhaar−like特徴の重み又は閾値を変えて顔の部位を検出することにより、顔に対して当たる光の方向に応じた影の影響を排除でき、顔に対して当たる光の方向に関係なく画像から顔の部位を高精度に検出できる。この高精度に検出された顔の部位を用いて、顔向きや視線なども高精度に推定することができる。   In this face part detection device, an image is picked up by an image pickup means, and a face is detected from the picked-up image by the face detection means. Then, in the face part detection device, the luminance information is calculated for each area obtained by dividing the face image by the luminance calculating means (for example, the average value of the luminance of all the pixels in the area and the sum of the luminances of all the images in the area). To do. In the face image, the luminance is high in a region where light is applied to one side of the face, and the luminance is low in a region where light is not applied to the other side (particularly, a shadowed area such as a nose). For this reason, the haar-like feature value calculated in the other side region is relatively smaller than the haar-like feature value calculated in the one side region. Therefore, in the face part detection device, the luminance information of each region is compared by the correction means, and the weight used when calculating the haar-like feature amount on the low-luminance region side is increased or the haar-like feature amount is determined. Reduce the threshold when The face part detection apparatus detects the face part using the haar-like feature. The haar-like feature here is for detecting a facial part. In this way, the face part detection device detects the face part by changing the weight or threshold value of the haar-like feature according to the luminance information of each area in the face image, thereby detecting the face part in the direction of light hitting the face. The influence of the corresponding shadow can be eliminated, and the part of the face can be detected from the image with high accuracy regardless of the direction of the light hitting the face. By using the face part detected with high accuracy, the face orientation, line of sight, and the like can be estimated with high accuracy.

顔に対して様々な方向から光が当たる場合、影の影響が最も表れるのは鼻に対する左右方向からの光による影である。そこで、顔部位検出装置では、輝度算出手段により顔画像を左右方向の中心線を基準として左右の領域に分け、左側領域と右側領域の輝度情報をそれぞれ算出する。そして、顔部位検出装置では、補正手段により左側領域と右側領域の輝度情報を比較し、左側領域と右側領域のうち輝度の低い領域側のhaar−like特徴の重みを大きくするかあるいはhaar−like特徴の閾値を小さくする。このように、顔部位検出装置では、顔画像における左側領域と右側領域の輝度情報に応じてhaar−like特徴の重み又は閾値を変えて顔の部位を検出することにより、顔において最も影の影響を受ける鼻付近に生じる影の影響を排除でき、画像から顔の部位を高精度に検出できる。   When light hits the face from various directions, the shadow is most affected by light from the left and right directions on the nose. Therefore, in the face part detection device, the luminance calculation unit divides the face image into left and right regions with reference to the center line in the left and right direction, and calculates luminance information of the left and right regions, respectively. In the face part detection device, the luminance information of the left region and the right region is compared by the correcting means, and the weight of the haar-like feature on the lower luminance side of the left region and the right region is increased or the haar-like feature is increased. Reduce the feature threshold. As described above, the face part detection device detects the face part by changing the weight or threshold value of the haar-like feature according to the luminance information of the left and right regions in the face image, thereby causing the most influence of the shadow on the face. The effect of shadows in the vicinity of the nose can be eliminated, and the facial part can be detected with high accuracy from the image.

本発明の上記顔部位検出装置では、補正手段で重みを大きくした一方側の領域で当該大きくした重みを用いてhaar−like特徴量を算出するとともに他方側の領域で重みを用いてhaar−like特徴量を算出し、左右の各領域で算出したhaar−like特徴量に基づいて鼻部位を検出する構成としてもよい。この顔部位検出装置では、顔の画像における左側領域と右側領域のうち輝度の低い領域側のhaar−like特徴の重みを大きくして鼻部位を検出することにより、画像から鼻部位を高精度に検出できる。   In the face part detection apparatus according to the present invention, the haar-like feature value is calculated using the increased weight in the one area where the weight is increased by the correcting means, and the haar-like is calculated using the weight in the other area. It is good also as a structure which calculates a feature-value and detects a nose part based on the haar-like feature-value calculated in each area | region on either side. In this face part detection device, the nose part is detected from the image with high accuracy by detecting the nose part by increasing the weight of the haar-like feature on the low brightness side of the left and right regions in the face image. It can be detected.

本発明の上記顔部位検出装置では、補正手段で閾値を小さくした一方側の領域で当該小さくした閾値を用いてhaar−like特徴量を判定するとともに他方側の領域で閾値を用いてhaar−like特徴量を判定し、左右の各領域での判定結果に基づいて鼻部位を検出する構成としてもよい。この顔部位検出装置では、顔の画像における左側領域と右側領域のうち輝度の低い領域側のhaar−like特徴の閾値を小さくして鼻部位を検出することにより、画像から鼻部位を高精度に検出できる。   In the face part detection device of the present invention, the haar-like feature amount is determined using the reduced threshold value in the one side area where the threshold value is reduced by the correction unit, and the haar-like is used using the threshold value in the other side area. It is good also as a structure which determines a feature-value and detects a nose part based on the determination result in each area | region on either side. In this face part detection device, the nose part is detected with high accuracy from the image by detecting the nose part by reducing the threshold value of the haar-like feature on the low brightness side of the left and right regions in the face image. It can be detected.

本発明は、顔画像における各領域の輝度情報に応じてhaar−like特徴の重み又は閾値を変えて顔の部位を検出することにより、顔に対して当たる光の方向に応じた影の影響を排除でき、顔に対して当たる光の方向に関係なく画像から顔の部位を高精度に検出できる。   The present invention detects the part of the face by changing the weight or threshold value of the haar-like feature according to the luminance information of each area in the face image, thereby reducing the influence of the shadow according to the direction of light hitting the face. Therefore, it is possible to detect the part of the face with high accuracy from the image regardless of the direction of light hitting the face.

以下、図面を参照して、本発明に係る顔部位検出装置の実施の形態を説明する。   Hereinafter, an embodiment of a face part detection device according to the present invention will be described with reference to the drawings.

本実施の形態では、本発明に係る顔部位検出装置を、車両に搭載され、ドライバの顔の向きを検出する顔向き検出装置に適用する。本実施の形態に係る顔向き検出装置は、haar−like特徴を用いて鼻(特に、鼻腔)を検出し、鼻の位置に基づいて顔の向きを検出する。そして、本実施の形態に係る顔向き検出装置は、ドライバの顔の向き情報を必要とする運転支援装置(例えば、脇見判定装置、衝突防止装置)に顔向き情報を提供する。   In the present embodiment, the face part detection device according to the present invention is applied to a face orientation detection device that is mounted on a vehicle and detects the orientation of a driver's face. The face orientation detection apparatus according to the present embodiment detects the nose (particularly the nasal cavity) using the haar-like feature, and detects the face orientation based on the position of the nose. Then, the face direction detection device according to the present embodiment provides the face direction information to a driving support device (for example, an aside look determination device or a collision prevention device) that requires the driver's face direction information.

なお、haar−like特徴は、画像における特徴量として照明条件の変動やノイズの影響を受け易い各画素の輝度値をそのまま用いるのではなく、隣接する複数の矩形領域の全画素の輝度の和の差を用いるものであり、その輝度和の差に重みを乗算した値をhaar−like特徴量とする。画像内のある領域のhaar−like特徴量が閾値以上の場合、その領域がhaar−like特徴のパターンを持つ領域であることを示す。haar−like特徴は、複数の矩形領域の組み合わせからなり、矩形領域としては検出対象に応じて様々な形状や大きさが設定される。図4には、haar−like特徴の一例を示しており、様々な大きさと形状の黒い矩形領域(輝度の低い領域)と白い矩形領域(輝度の低い領域)の組み合わせからなり、各haar−like特徴に対して重みと閾値がそれぞれ設定される。なお、本実施の形態に係る顔向き検出装置に備えられるhaar−like特徴は、人の顔がカメラに対して真正面を向いており、顔に一様に光が当たっている場合に撮像した撮像画像から生成されたものである。   The haar-like feature does not directly use the luminance value of each pixel that is easily affected by fluctuations in illumination conditions or noise as a feature amount in the image, but instead of using the luminance value of all pixels in a plurality of adjacent rectangular areas. A difference is used, and a value obtained by multiplying the difference in luminance sum by a weight is defined as a haar-like feature value. If the haar-like feature amount of a certain area in the image is equal to or greater than the threshold value, this indicates that the area has a haar-like feature pattern. The haar-like feature is composed of a combination of a plurality of rectangular areas, and various shapes and sizes are set as the rectangular areas depending on the detection target. FIG. 4 shows an example of haar-like features, which are composed of combinations of black rectangular areas (low luminance areas) and white rectangular areas (low luminance areas) of various sizes and shapes. A weight and a threshold are set for each feature. Note that the haar-like feature provided in the face direction detection device according to the present embodiment is an image picked up when a human face is facing directly in front of the camera and the face is uniformly illuminated. It is generated from an image.

図1を参照して、本実施の形態に係る顔向き検出装置1について説明する。図1は、本実施の形態に係る顔向き検出装置の構成図である。   With reference to FIG. 1, a face orientation detection apparatus 1 according to the present embodiment will be described. FIG. 1 is a configuration diagram of a face orientation detection apparatus according to the present embodiment.

顔向き検出装置1は、撮像画像から顔を検出し、顔画像から鼻腔検出用のhaar−like特徴にマッチングする領域を探索する。特に、顔向き検出装置1は、ドライバに対して当たる光の方向に関係なく鼻腔を高精度に検出するために、顔画像の左右の各領域の輝度差に応じてhaar-like特徴の重みを変える。顔向き検出装置1は、カメラ2、近赤外線投光器3及びECU[Electronic Control Unit]4を備えている。   The face orientation detection device 1 detects a face from a captured image, and searches the face image for a region that matches a haar-like feature for nasal cavity detection. In particular, the face orientation detection device 1 determines the weight of the haar-like feature according to the luminance difference between the left and right regions of the face image in order to detect the nasal cavity with high accuracy regardless of the direction of the light hitting the driver. Change. The face orientation detection device 1 includes a camera 2, a near-infrared projector 3, and an ECU [Electronic Control Unit] 4.

なお、本実施の形態では、カメラ2が特許請求の範囲に記載する撮像手段に相当し、ECU4における各処理が特許請求の範囲に記載する顔検出手段、輝度算出手段及び補正手段に相当する。   In the present embodiment, the camera 2 corresponds to an imaging unit described in the claims, and each process in the ECU 4 corresponds to a face detection unit, a luminance calculation unit, and a correction unit described in the claims.

カメラ2は、ドライバの顔周辺を撮像するためのカメラであり、可視光から近赤外光までの領域を検知可能なカメラである。カメラ2は、一般的なカメラ(例えば、モノクロ、30fps、NTSC方式)でよい。カメラ2は、ドライバの前方(ステアリングのコラム部分など)に設けられ、ドライバの顔周辺を撮像できる向きで配置される。カメラ2では、ドライバの顔周辺を撮像する毎に、各フレームの撮像画像を画像信号としてECU4に送信する。なお、カメラを近赤外光だけを検知可能な近赤外線カメラとしてもよい。   The camera 2 is a camera for imaging the periphery of the driver's face, and is a camera that can detect a region from visible light to near-infrared light. The camera 2 may be a general camera (for example, monochrome, 30 fps, NTSC system). The camera 2 is provided in front of the driver (such as a steering column), and is arranged in a direction that allows the periphery of the driver's face to be imaged. The camera 2 transmits the captured image of each frame to the ECU 4 as an image signal every time the periphery of the driver's face is imaged. The camera may be a near-infrared camera that can detect only near-infrared light.

近赤外線投光器3は、少なくも車室内が暗くなった場合(例えば、夜間)にドライバの顔周辺に近赤外線を当てるための投光器である。近赤外線投光器3は、ドライバの前方(ステアリングのコラム部分など)に設けられ、ドライバの顔周辺に近赤外線を当てる向きで配置される。近赤外線投光器3は、少なくも車室内が暗くなった場合にECU4によってONされる。なお、カメラが近赤外光だけを検知可能な近赤外線カメラの場合、近赤外線投光器は常時ONされる。   The near-infrared projector 3 is a projector for applying a near-infrared ray around the driver's face when the interior of the vehicle is at least dark (for example, at night). The near-infrared projector 3 is provided in front of the driver (such as a steering column) and is disposed in a direction in which near-infrared rays are applied to the periphery of the driver's face. The near-infrared projector 3 is turned on by the ECU 4 when the interior of the vehicle is at least dark. If the camera is a near-infrared camera that can detect only near-infrared light, the near-infrared projector is always turned on.

ECU4は、CPU[Central Processing Unit]、ROM[ReadOnly Memory]、RAM[Random Access Memory]などからなり、顔向き検出装置1を統括制御する電子制御ユニットである。ECU4では、一定時間毎に、カメラ2から画像信号を受信し、画像信号に基づいてドライバの顔の向きを推定する。   The ECU 4 is an electronic control unit that includes a CPU [Central Processing Unit], a ROM [Read Only Memory], a RAM [Random Access Memory], and the like, and performs overall control of the face orientation detection device 1. The ECU 4 receives an image signal from the camera 2 at regular intervals, and estimates the driver's face orientation based on the image signal.

ECU4では、カメラ2で撮像した画像(フレーム)を入力する毎に、その撮像画像からインテグラルイメージ(積分画像)を作成する。インテグラルイメージは、画像の左上端から右下端までの対角線上の画素が順次選択され、その選択された画素を右下頂点としかつ画像の左上端の画素を左上頂点とする矩形領域内の全画素の輝度の和を選択された画素の値としたものである。例えば、図2に示す例の場合、撮像画像PIの画素P1が選択された場合には画素P1を右下頂点とする領域A1内の全画素の輝度の和をインテグラルイメージIIの画素P1の値とし、撮像画像PIの画素P2が選択された場合には画素P2を右下頂点とする領域A2内の全画素の輝度の和をインテグラルイメージIIの画素P2の値とする。なお、インテグラルイメージは、顔画像についてのみ作成してもよい。   Every time an image (frame) captured by the camera 2 is input, the ECU 4 creates an integral image (integrated image) from the captured image. In the integral image, pixels on the diagonal line from the upper left corner to the lower right corner of the image are sequentially selected, and the selected pixel is the lower right vertex and the upper left pixel of the image is the upper left vertex. The sum of the luminances of the pixels is the value of the selected pixel. For example, in the example shown in FIG. 2, when the pixel P1 of the captured image PI is selected, the sum of the luminances of all the pixels in the area A1 having the pixel P1 as the lower right vertex is the pixel P1 of the integral image II. When the pixel P2 of the captured image PI is selected, the sum of the luminances of all the pixels in the area A2 having the pixel P2 as the lower right vertex is set as the value of the pixel P2 of the integral image II. The integral image may be created only for the face image.

このインテグラルイメージを用いることにより、画像の任意の矩形領域内の全画素の和を、インテグラルイメージにおいて対応する矩形領域の右下頂点の値−右上頂点の値−左下頂点の値+左上頂点の値で算出することができる。例えば、図3に示す例の場合、撮像画像PIの画素P3,P4,P5,P6を頂点とする領域A3の輝度の和は、インテグラルイメージIIの画素P6の値−画素P5の値−画素P4の値+画素P3の値で算出することができる。このように、インテグラルイメージを求めておくことにより、インテグラルイメージの4点の値を用いて、任意の矩形領域の全画素の輝度の和を簡単に求めることができる。   By using this integral image, the sum of all pixels in an arbitrary rectangular area of the image is obtained by calculating the value of the lower right vertex of the corresponding rectangular area in the integral image−the value of the upper right vertex−the value of the lower left vertex + the upper left vertex. It is possible to calculate with the value of For example, in the example shown in FIG. 3, the sum of the luminances of the area A3 having the vertices of the pixels P3, P4, P5, and P6 of the captured image PI is the value of the pixel P6 of the integral image II−the value of the pixel P5−pixel. It can be calculated by the value of P4 + the value of the pixel P3. Thus, by obtaining the integral image, the sum of the luminances of all the pixels in an arbitrary rectangular area can be easily obtained using the values of the four points of the integral image.

ECU4では、撮像画像から顔を検出し、撮像画像から顔を含む矩形領域(顔画像)を抽出する。この顔の検出方法としては、従来の方法を適用し、例えば、パターンマッチングを用いる。   The ECU 4 detects a face from the captured image, and extracts a rectangular area (face image) including the face from the captured image. As this face detection method, a conventional method is applied, for example, pattern matching is used.

ECU4では、顔画像の左右方向の中心線を基準として左側の領域の全画素の輝度の和と右側の領域の全画素の輝度の和を算出する。この各領域の輝度情報としては、輝度和以外の他の輝度情報でもよく、例えば、全画素の輝度の平均値でもよい。   The ECU 4 calculates the sum of the luminances of all the pixels in the left region and the sum of the luminances of all the pixels in the right region with reference to the center line in the horizontal direction of the face image. The luminance information of each region may be luminance information other than the luminance sum, for example, an average value of luminance of all pixels.

ECU4では、左側の領域の輝度和と右側の領域の輝度和との差を算出する。そして、ECU4では、その輝度和の差に基づいて左側の領域が明るいか、右側の領域が明るいか、あるいは、左側の領域と右側の領域で同程度の明るさかを判定する。ここでは、例えば、実験などで予め設定された閾値を用いて判定する。この閾値は、実験などによって予め設定される。   The ECU 4 calculates the difference between the luminance sum of the left region and the luminance sum of the right region. Then, the ECU 4 determines whether the left area is bright, the right area is bright, or the left area and the right area have the same brightness based on the difference in luminance sum. Here, for example, the determination is made using a threshold value set in advance by an experiment or the like. This threshold value is set in advance by an experiment or the like.

左側の領域と右側の領域で同程度の明るさと判定した場合(つまり、ドライバの顔に正面方向から光が当たっている場合あるいはドライバの顔に特定の方向から光が当たっていない場合(例えば、曇りの日、夜間))、ECU4では、鼻腔を検出するためのhaar−like特徴を用いて、顔画像からそのhaar−like特徴に対応する矩形領域を順次切り出す。ここでは、画像における上下方向及び左右方向に所定数の画素づつずらしながら矩形領域を切り出す。そして、ECU4では、切り出した矩形領域毎に、インテグラルイメージを利用し、予め設定されている重みを用いてhaar−like特徴量を算出する。   When it is determined that the left and right areas have the same brightness (that is, the driver's face is exposed to light from the front or the driver's face is not exposed to light from a specific direction (for example, In the cloudy day and night)), the ECU 4 sequentially cuts out rectangular regions corresponding to the haar-like feature from the face image using the haar-like feature for detecting the nasal cavity. Here, the rectangular area is cut out while shifting a predetermined number of pixels in the vertical and horizontal directions in the image. Then, the ECU 4 calculates a haar-like feature value using a pre-set weight using an integral image for each cut-out rectangular area.

図5には、ドライバの顔に一様に光が当たっている場合の鼻付近の画像の一例を示しており、図5(a)には向かって左側の鼻腔部分を検出するためのhaar−like特徴h1を示しており、図5(b)には向かって右側の鼻腔部分を検出するためのhaar−like特徴h2を示している。haar−like特徴h1は、左側の黒い矩形領域の輝度が低く、右側の白い矩形領域の輝度が高いという輝度パターンを有する領域を検出するためのものである。haar−like特徴h2は、左側の白い矩形領域の輝度が高く、右側の黒い矩形領域の輝度が低いという輝度パターンを有する領域を検出するためのものである。なお、鼻腔部分を検出するためのhaar−like特徴としては、この2つのhaar−like特徴h1,h2を合わせた左右に黒い矩形領域があり、その2つの黒い矩形領域の間に白い矩形領域がある3つの矩形領域からなるものでもよい。   FIG. 5 shows an example of an image in the vicinity of the nose when the driver's face is uniformly illuminated. FIG. 5 (a) shows a haar− for detecting the left nasal cavity portion. Like feature h1 is shown, and FIG. 5B shows a haar-like feature h2 for detecting the right nasal cavity portion. The haar-like feature h1 is for detecting a region having a luminance pattern in which the luminance of the left black rectangular region is low and the luminance of the right white rectangular region is high. The haar-like feature h2 is for detecting a region having a luminance pattern in which the luminance of the left white rectangular region is high and the luminance of the right black rectangular region is low. As a haar-like feature for detecting the nasal cavity portion, there are black rectangular regions on the left and right of the two haar-like features h1 and h2, and a white rectangular region is present between the two black rectangular regions. It may consist of three rectangular areas.

また、図6には、横軸を画像の左右方向の位置とし、縦軸を輝度値とし、図5に示す鼻腔周辺の輝度変化を示しており、一点鎖線SLが光が当たっている肌の輝度(輝度が高い)を示している。図6に示すように、ドライバの顔に一様に光が当たっている場合、左右両側の頬部分では輝度が高く、鼻の左右の外端付近で輝度が低く、左右の鼻腔の外縁で輝度が高く、左右の鼻腔で輝度が低く、左右の鼻腔の間で輝度が高くなっている。   In FIG. 6, the horizontal axis is the horizontal position of the image, the vertical axis is the luminance value, and the luminance change around the nasal cavity shown in FIG. 5 is shown. It shows the brightness (high brightness). As shown in FIG. 6, when the driver's face is uniformly illuminated, the luminance is high on the cheeks on both the left and right sides, the luminance is low near the left and right outer edges of the nose, and the luminance is on the outer edges of the left and right nasal cavities. Is high, the luminance is low in the right and left nasal cavities, and the luminance is high between the right and left nasal cavities.

また、図7には、横軸を画像の左右方向の位置とし、縦軸を輝度値とし、図5(a)のhaar−like特徴h1と図5(b)のhaar−like特徴h2が表現する輝度の変化を示している。図7に示すように、この2つのhaar−like特徴h1とhaar−like特徴h2によって、左右に輝度が低い部分があり、その間に輝度の高い部分がある輝度パターンを示す。この図7に示す輝度パターンと図6に示す左右の鼻腔で輝度が低く、その間で輝度が高くなる輝度パターンとは、同様の輝度パターンとなっている。   In FIG. 7, the horizontal axis represents the horizontal position of the image, the vertical axis represents the luminance value, and the haar-like feature h1 in FIG. 5A and the haar-like feature h2 in FIG. 5B are represented. Changes in brightness. As shown in FIG. 7, the two haar-like features h1 and haar-like features h2 indicate a luminance pattern in which there is a portion with low luminance on the left and right and a portion with high luminance between them. The luminance pattern shown in FIG. 7 and the luminance pattern in which the luminance is low in the left and right nasal cavities shown in FIG.

左側の領域が明るいと判定した場合(つまり、ドライバの顔に向かって左方向から(顔の右側に)光が当たっている場合)、ECU4では、鼻腔を検出するためのhaar−like特徴を用いて、顔画像からそのhaar−like特徴に対応する矩形領域を順次切り出す。顔画像の左側の領域(明るい側の領域)から矩形領域が切り出された場合、ECU4では、切り出した矩形領域毎に、インテグラルイメージを利用し、予め設定されている重みを用いてhaar−like特徴量を算出する。一方、顔画像の右側の領域(暗い側の領域)から矩形領域が切り出された場合、ECU4では、予め設定されている重みを所定量大きくする。そして、ECU4では、切り出した矩形領域毎に、インテグラルイメージを利用し、その大きくした重みを用いてhaar−like特徴量を算出する。   When it is determined that the left region is bright (that is, when light is shining from the left direction toward the driver's face (to the right side of the face)), the ECU 4 uses the haar-like feature for detecting the nasal cavity. Then, rectangular areas corresponding to the haar-like features are sequentially cut out from the face image. When a rectangular area is cut out from the left side area (bright side area) of the face image, the ECU 4 uses the integral image for each cut out rectangular area and uses a preset weight to use haar-like. The feature amount is calculated. On the other hand, when a rectangular area is cut out from the right area (dark area) of the face image, the ECU 4 increases the preset weight by a predetermined amount. Then, the ECU 4 uses the integral image for each cut-out rectangular area, and calculates the haar-like feature value using the increased weight.

右側の領域が明るいと判定した場合(つまり、ドライバの顔に向かって右方向から(顔の左側に)光が当たっている場合)、ECU4では、鼻腔を検出するためのhaar−like特徴を用いて、顔画像からそのhaar−like特徴に対応する矩形領域を順次切り出す。顔画像の右側の領域(明るい側の領域)から矩形領域が切り出された場合、ECU4では、切り出した矩形領域毎に、インテグラルイメージを利用し、予め設定されている重みを用いてhaar−like特徴量を算出する。一方、顔画像の左側の領域(暗い側の領域)から矩形領域が切り出された場合、ECU4では、予め設定されている重みを所定量大きくする。そして、ECU4では、切り出した矩形領域毎に、インテグラルイメージを利用し、その大きくした重みを用いてhaar−like特徴量を算出する。   When it is determined that the right region is bright (that is, when light strikes the driver's face from the right direction (to the left side of the face)), the ECU 4 uses the haar-like feature for detecting the nasal cavity. Then, rectangular areas corresponding to the haar-like features are sequentially cut out from the face image. When a rectangular area is cut out from the right side area (bright side area) of the face image, the ECU 4 uses an integral image for each cut out rectangular area and uses a preset weight to use haar-like. The feature amount is calculated. On the other hand, when a rectangular area is cut out from the left area (dark area) of the face image, the ECU 4 increases a preset weight by a predetermined amount. Then, the ECU 4 uses the integral image for each cut-out rectangular area, and calculates the haar-like feature value using the increased weight.

なお、重みを大きくする際の所定量は、一定量でもよいし、左側の領域の輝度和と右側の領域の輝度和の差が大きいほど大きくなる量としてもよい。この所定量は、実験などによって予め設定され、可変量とする場合にはマップなどが用意される。   The predetermined amount when increasing the weight may be a fixed amount, or may be an amount that increases as the difference between the luminance sum of the left region and the luminance sum of the right region increases. The predetermined amount is set in advance by experiments or the like, and a map or the like is prepared when the predetermined amount is variable.

図8には、ドライバの顔に向かって右方向から光が当たっている場合の鼻付近の画像の一例を示しており、右側の領域が全体に明るく、左側の領域が全体に暗い。また、図9には、横軸を画像の左右方向の位置とし、縦軸を輝度値とし、図8に示す鼻腔付近の輝度変化を示しており、一点鎖線SLが図6の一点鎖線SLと同一の輝度を示している。図9に示すように、ドライバの顔に向かって右方向から光が当たっている場合、全体の輝度の変化としては図6に示すような輝度の変化を示すが、右側の領域においては全体に輝度が高くなり、左側の頬部分が鼻の影となって輝度が低くなっている。そのため、左右の鼻腔の間に輝度の差が生じ、向かって左側の鼻腔の輝度と左右の鼻腔の間の部分の輝度との差が非常に大きくなっている。この輝度パターンは、図7に示す2つのhaar−like特徴h1,h2による輝度パターンとは異なっているので、haar−like特徴h1,h2をそのまま用いても検出できない。   FIG. 8 shows an example of an image in the vicinity of the nose when light is directed from the right direction toward the driver's face. The right area is bright overall and the left area is dark overall. In FIG. 9, the horizontal axis is the horizontal position of the image, the vertical axis is the luminance value, and the luminance change in the vicinity of the nasal cavity shown in FIG. 8 is shown. It shows the same brightness. As shown in FIG. 9, when light is shining on the driver's face from the right direction, the overall luminance change is as shown in FIG. The brightness is high, and the left cheek is a shadow of the nose and the brightness is low. Therefore, a difference in luminance occurs between the left and right nasal cavities, and the difference between the luminance of the left nasal cavity and the luminance of the portion between the left and right nasal cavities is very large. Since this luminance pattern is different from the luminance pattern by the two haar-like features h1 and h2 shown in FIG. 7, it cannot be detected even if the haar-like features h1 and h2 are used as they are.

図10には、横軸を画像の左右方向の位置とし、縦軸を輝度値とし、左側の領域において重み大きくしたhaar−like特徴h1と右側の領域において重みを変化させないhaar−like特徴h2が表現する輝度の変化を示している。図10に示すように、この重みを大きくしたhaar−like特徴h1と重みを変化させないhaar−like特徴h2によって、図7の輝度パターンよりも、左側の輝度が低い部分と左右の間の輝度の高い部分との輝度差が大きくなり、右側の輝度が低い部分の輝度が高くなった輝度パターンを示す。この図10に示す輝度パターンと図9に示す左右の鼻腔で輝度が低く、その間で輝度が高くなる輝度パターンとは、同様の輝度パターンとなっている。   In FIG. 10, the horizontal axis is the horizontal position of the image, the vertical axis is the luminance value, and the haar-like feature h1 in which the weight is increased in the left region and the haar-like feature h2 in which the weight is not changed in the right region. The change in luminance to be expressed is shown. As shown in FIG. 10, the haar-like feature h1 with the increased weight and the haar-like feature h2 with the weight not changed change the luminance between the left portion and the left portion of the luminance pattern lower than the luminance pattern of FIG. A luminance pattern in which the luminance difference from the high portion is large and the luminance of the low luminance portion on the right side is high is shown. The luminance pattern shown in FIG. 10 and the luminance pattern in which the luminance is low in the right and left nasal cavities shown in FIG.

ECU4では、切り出した矩形領域毎に、haar−like特徴量が閾値以上か否かを判定する。ある矩形領域のhaar−like特徴量が閾値以上と判定した場合、ECU4では、その矩形領域を鼻腔とする。   The ECU 4 determines whether or not the haar-like feature value is equal to or greater than a threshold value for each cut-out rectangular area. When it is determined that the haar-like feature amount of a certain rectangular area is equal to or greater than the threshold, the ECU 4 sets the rectangular area as the nasal cavity.

ECU4では、その検出した鼻腔(鼻)の位置から顔の向きを検出する。この検出方法としては、従来の方法を適用する。   The ECU 4 detects the orientation of the face from the detected position of the nasal cavity (nose). As this detection method, a conventional method is applied.

図1を参照して、顔向き検出装置1における動作について説明する。特に、ECU4における処理については図11のフローチャートに沿って説明する。図11は、図1のECUでの処理の流れを示すフローチャートである。   With reference to FIG. 1, the operation of the face orientation detection device 1 will be described. In particular, the processing in the ECU 4 will be described along the flowchart of FIG. FIG. 11 is a flowchart showing a flow of processing in the ECU of FIG.

近赤外線投光器3は、車室内が暗い場合、ドライバの顔周辺に対して近赤外線を照射する。カメラ2では、一定時間毎に、ドライバの顔周辺を撮像し、各フレームの画像信号をECU4に送信する。ECU4では、一定時間毎に、画像信号を受信し、各フレームの撮像画像を入力する(S1)。   When the vehicle interior is dark, the near-infrared projector 3 emits near-infrared rays around the driver's face. The camera 2 captures the image of the driver's face and the surrounding area at regular intervals, and transmits image signals of each frame to the ECU 4. The ECU 4 receives an image signal at regular intervals and inputs a captured image of each frame (S1).

撮像画像が入力される毎に、ECU4では、撮像画像からインテグラルイメージを作成する(S2)。また、ECU4では、撮像画像から顔を検出し、撮像画像から顔画像を抽出する(S3)。そして、ECU4では、顔画像の左側の領域と右側の領域の輝度和をそれぞれ算出し、その左右の領域の輝度差を算出する(S4)。   Every time a captured image is input, the ECU 4 creates an integral image from the captured image (S2). Further, the ECU 4 detects a face from the captured image and extracts a face image from the captured image (S3). Then, the ECU 4 calculates the luminance sum of the left area and the right area of the face image, and calculates the luminance difference between the left and right areas (S4).

ECU4では、左右の領域の輝度差に基づいて左右のどちらかの領域が明るいかを判定する(S5)。S5にて左側の領域が明るいと判定した場合、ECU4では、右側の領域でのhaar−like特徴の重みを大きくする(S6)。S5にて右側の領域が明るいと判定した場合、ECU4では、左側の領域でのhaar−like特徴の重みを大きくする(S7)。S5にて左側の領域と右側の領域で明るさが同程度と判定した場合、ECU4では、重みを変化させない。   The ECU 4 determines whether one of the left and right regions is bright based on the luminance difference between the left and right regions (S5). If it is determined in S5 that the left area is bright, the ECU 4 increases the weight of the haar-like feature in the right area (S6). If it is determined in S5 that the right area is bright, the ECU 4 increases the weight of the haar-like feature in the left area (S7). When it is determined in S5 that the brightness is the same in the left area and the right area, the ECU 4 does not change the weight.

ECU4では、顔画像からhaar−like特徴に対応する矩形領域を順次切り出し、重みを変えたhaar−like特徴又は重みを変えないhaar−like特徴に基づいて、切り出した矩形領域についてインテグラルイメージを使ってhaar−like特徴量を順次算出する(S8)。そして、ECU4では、各矩形領域についてのhaar−like特徴量が閾値以上か否かを判定し、その判定結果から鼻(特に、鼻腔)を検出する(S9)。さらに、ECU4では、検出した鼻に基づいて顔向きを検出する(S10)。そして、ECU4では、検出した顔向き情報を運転支援装置に提供する。   The ECU 4 sequentially cuts out rectangular areas corresponding to haar-like features from the face image, and uses an integral image for the cut-out rectangular areas based on haar-like features with changed weights or haar-like features without changing weights. Then, haar-like feature values are sequentially calculated (S8). Then, the ECU 4 determines whether or not the haar-like feature amount for each rectangular area is equal to or greater than a threshold value, and detects the nose (particularly the nasal cavity) from the determination result (S9). Further, the ECU 4 detects the face orientation based on the detected nose (S10). Then, the ECU 4 provides the detected face orientation information to the driving support device.

顔向き検出装置1によれば、ドライバの左右の一方向から光が当たっている場合(鼻などで影の影響を受ける場合)でも、光の当たっていない反対側の領域におけるhaar−like特徴の重みを大きくすることにより、光の方向に応じた影(特に、鼻の影)の影響を排除でき、顔に当たる光の方向に関係なく画像から鼻(特に、鼻腔)を高精度に検出できる。この高精度に検出された鼻を用いて、顔の向きを高精度に検出することができる。   According to the face direction detection device 1, even when light is shining from one side of the driver's left and right (when affected by shadows from the nose, etc.), the haar-like feature in the opposite area where no light is shining By increasing the weight, it is possible to eliminate the influence of the shadow (particularly the shadow of the nose) according to the direction of light, and to detect the nose (particularly the nasal cavity) from the image with high accuracy regardless of the direction of the light hitting the face. By using the nose detected with high accuracy, the orientation of the face can be detected with high accuracy.

また、顔向き検出装置1によれば、影の影響を排除するために、専用のカメラやDSPを必要とせず、ハードウェアのコストアップがない。また、顔向き検出装置1によれば、カメラ2で撮像されたフレーム毎に処理を行うので、顔や各部位の動きや光の変動に左右されず、高精度に鼻を検出することができる。また、顔向き検出装置1によれば、学習するためのアルゴリズムを用いないので、対応できる画像が学習データに依存することがない。   In addition, according to the face orientation detection device 1, a dedicated camera or DSP is not required to eliminate the influence of shadows, and there is no increase in hardware costs. Further, according to the face orientation detection device 1, processing is performed for each frame imaged by the camera 2, so that the nose can be detected with high accuracy regardless of the movement of the face and each part and the fluctuation of light. . Further, according to the face orientation detection device 1, since an algorithm for learning is not used, a corresponding image does not depend on learning data.

また、顔向き検出装置1によれば、haar−like特徴量を算出するためにインテグラルイメージを予め作成しておくことにより、haar−like特徴量を算出するための処理負荷を軽減でき、画像内での顔の大きさが大きい場合でも小さい場合と比べてフレーム毎の処理負荷に差がない(4点の画素の値で矩形領域の輝度和を算出できる)。   Further, according to the face orientation detection device 1, by creating an integral image in advance for calculating the haar-like feature value, the processing load for calculating the haar-like feature value can be reduced, and the image can be reduced. Even when the face size is large, there is no difference in the processing load for each frame compared to the case where the face size is small (the luminance sum of the rectangular area can be calculated from the values of the four pixels).

以上、本発明に係る実施の形態について説明したが、本発明は上記実施の形態に限定されることなく様々な形態で実施される。   As mentioned above, although embodiment which concerns on this invention was described, this invention is implemented in various forms, without being limited to the said embodiment.

例えば、本実施の形態では車両のドライバの顔向きを検出する顔向き検出装置に適用したが、顔の各部位に基づいて視線などを検出する装置に適用してもよいし、顔向きなどを利用する運転支援装置(例えば、脇見判定装置、衝突防止装置)に適用してもよいし、鼻などの顔の部位を検出する顔部位検出装置に適用してもよい。また、車両のドライバ以外でも、顔に対して当たる光の方向が変化する他の人(例えば、電車の運転手)に対しても適用してもよい。   For example, in the present embodiment, the present invention is applied to a face direction detecting device that detects the face direction of a driver of a vehicle, but may be applied to a device that detects a line of sight based on each part of the face. The present invention may be applied to a driving assistance device to be used (for example, an aside look determination device or a collision prevention device), or may be applied to a face part detection device that detects a face part such as a nose. In addition to the driver of the vehicle, the present invention may be applied to another person (for example, a train driver) whose direction of light hitting the face changes.

また、本実施の形態では顔の部位として鼻(特に、鼻腔)を検出したが、顔の他の部位(特に、影ができる部位)を検出してもよい。   In this embodiment, the nose (particularly the nasal cavity) is detected as the face part, but other parts (particularly, a part where shadows can be produced) may be detected.

また、本実施の形態では左右の領域において輝度差がある場合には暗い側のhaar−like特徴の重みを大きくする構成としたが、haar−like特徴量を判定する際の閾値を小さくしてもよい。   In this embodiment, the weight of the darker haar-like feature is increased when there is a luminance difference between the left and right regions. However, the threshold for determining the haar-like feature amount is decreased. Also good.

また、本実施の形態ではインテグラルイメージを作成し、インテグラルイメージを用いてhaar−like特徴量を算出する構成としたが、インテグラルイメージを作成しないでhaar−like特徴量を算出してもよい。   In this embodiment, the integral image is created and the haar-like feature value is calculated using the integral image. However, the haar-like feature value is calculated without creating the integral image. Good.

本実施の形態に係る顔向き検出装置の構成図である。It is a block diagram of the face direction detection apparatus which concerns on this Embodiment. インテグラルイメージの作成方法の説明図である。It is explanatory drawing of the creation method of an integral image. インテグラルイメージを用いた輝度和の算出方法の説明図である。It is explanatory drawing of the calculation method of the luminance sum using an integral image. haar−like特徴の一例である。It is an example of a haar-like feature. 顔に一様に光が当たっている場合の鼻付近の画像の一例であり、(a)が向かって左側の鼻腔を検出するためのhaar−like特徴も示した画像であり、(b)が向かって右側の鼻腔を検出するためのhaar−like特徴も示した画像である。It is an example of an image near the nose when the face is uniformly illuminated, (a) is an image that also shows a haar-like feature for detecting the nasal cavity on the left side, and (b) It is the image which also showed the haar-like feature for detecting the nasal cavity on the right side. 図5の鼻腔付近の輝度変化を示すグラフである。It is a graph which shows the luminance change of the nasal cavity vicinity of FIG. 図5(a)のhaar−like特徴と(b)のhaar−like特徴が表現する輝度の変化を示すグラフである。It is a graph which shows the change of the brightness | luminance which the haar-like feature of Fig.5 (a) and the haar-like feature of (b) express. 顔の向かって右側から光が当たっている場合の鼻付近の画像の一例である。It is an example of the image of the vicinity of the nose when the light hits from the right side toward the face. 図8の鼻腔付近の輝度変化を示すグラフである。It is a graph which shows the luminance change of the nasal cavity vicinity of FIG. 重みを大きくしたhaar−like特徴と重みを変化させないhaar−like特徴が表現する輝度の変化を示すグラフである。It is a graph which shows the change of the brightness | luminance which the haar-like feature which increased the weight, and the haar-like feature which does not change a weight represent. 図1のECUでの処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process in ECU of FIG.

符号の説明Explanation of symbols

1…顔向き検出装置、2…カメラ、3…近赤外線投光器、4…ECU   DESCRIPTION OF SYMBOLS 1 ... Face direction detection apparatus, 2 ... Camera, 3 ... Near-infrared projector, 4 ... ECU

Claims (3)

haar−like特徴を用いて顔の部位を検出する顔部位検出装置であって、
撮像手段で撮像された画像から顔を検出する顔検出手段と、
前記顔検出手段で検出された顔の画像を複数に分け、当該分けた各領域における輝度情報を算出する輝度算出手段と、
前記輝度算出手段でそれぞれ算出された各領域の輝度情報を比較し、輝度の低い領域側のhaar−like特徴の重みを大きくする又はhaar−like特徴の閾値を小さくする補正手段と
を備え
前記輝度算出手段は、顔の画像を左右方向の中心線を基準として左右の領域に分けることを特徴とする顔部位検出装置。
A face part detection device that detects a face part using a haar-like feature,
Face detection means for detecting a face from an image captured by the imaging means;
Luminance calculation means for dividing the face image detected by the face detection means into a plurality of areas and calculating luminance information in each divided area;
Compensating means for comparing the luminance information of each area calculated by the luminance calculating means, increasing the weight of the haar-like feature on the low luminance side, or reducing the threshold of the haar-like feature ,
The brightness calculation means divides a face image into left and right regions with a center line in the left and right direction as a reference .
前記補正手段で重みを大きくした一方側の領域で当該大きくした重みを用いてhaar−like特徴量を算出するとともに他方側の領域で重みを用いてhaar−like特徴量を算出し、左右の各領域で算出したhaar−like特徴量に基づいて鼻部位を検出することを特徴とする請求項1に記載する顔部位検出装置。 The haar-like feature quantity is calculated using the increased weight in the one side area where the weight is increased by the correction means, and the haar-like feature quantity is calculated using the weight in the other side area. The face part detection device according to claim 1 , wherein a nose part is detected based on a haar-like feature amount calculated in a region. 前記補正手段で閾値を小さくした一方側の領域で当該小さくした閾値を用いてhaar−like特徴量を判定するとともに他方側の領域で閾値を用いてhaar−like特徴量を判定し、左右の各領域での判定結果に基づいて鼻部位を検出することを特徴とする請求項1に記載する顔部位検出装置。 The haar-like feature quantity is determined using the reduced threshold value in the one side area where the threshold value is reduced by the correction means, and the haar-like feature quantity is determined using the threshold value in the other side area. The face part detection device according to claim 1 , wherein a nose part is detected based on a determination result in the region.
JP2008312592A 2008-12-08 2008-12-08 Face detection device Expired - Fee Related JP5098982B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008312592A JP5098982B2 (en) 2008-12-08 2008-12-08 Face detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008312592A JP5098982B2 (en) 2008-12-08 2008-12-08 Face detection device

Publications (2)

Publication Number Publication Date
JP2010134867A JP2010134867A (en) 2010-06-17
JP5098982B2 true JP5098982B2 (en) 2012-12-12

Family

ID=42346078

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008312592A Expired - Fee Related JP5098982B2 (en) 2008-12-08 2008-12-08 Face detection device

Country Status (1)

Country Link
JP (1) JP5098982B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102496275B (en) * 2011-11-25 2014-05-07 大连海创高科信息技术有限公司 Method for detecting overload of coach or not

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3414331B2 (en) * 1998-10-19 2003-06-09 株式会社豊田中央研究所 Eye position detector
JP2006268825A (en) * 2005-02-28 2006-10-05 Toshiba Corp Object detector, learning device, and object detection system, method, and program
CN100472556C (en) * 2005-10-09 2009-03-25 欧姆龙株式会社 Testing apparatus and method for special object

Also Published As

Publication number Publication date
JP2010134867A (en) 2010-06-17

Similar Documents

Publication Publication Date Title
JP4882571B2 (en) Vehicle monitoring device
US8289391B2 (en) Apparatus for vehicle surroundings monitoring
US7492962B2 (en) System or method for enhancing an image
JP5435307B2 (en) In-vehicle camera device
US20120002052A1 (en) Obstacle detection apparatus, obstacle detection system having same, and obstacle detection method
JP4775123B2 (en) Vehicle monitoring device
JP2008230296A (en) Vehicle drive supporting system
JP2013005234A5 (en)
JP4962304B2 (en) Pedestrian detection device
JP5927110B2 (en) Vehicle external recognition device
JP2009265722A (en) Face direction sensing device
WO2011000392A1 (en) Method and camera system for improving the contrast of a camera image
US20190259279A1 (en) Luminance control device, luminance control system, and luminance control method
JP5004923B2 (en) Vehicle driving support device
JP5098982B2 (en) Face detection device
JP5098981B2 (en) Face detection device
JP2010136207A (en) System for detecting and displaying pedestrian
JP2012103748A (en) Road section line recognition device
US9030560B2 (en) Apparatus for monitoring surroundings of a vehicle
JP4298699B2 (en) Vehicle periphery monitoring device
KR20180061695A (en) The side face recognition method and apparatus using a detection of vehicle wheels
JP2017200035A (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
JP5430213B2 (en) Vehicle periphery monitoring device
JP2007272421A (en) Device, method and program for detecting object
US20240015269A1 (en) Camera system, method for controlling the same, storage medium, and information processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110629

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120508

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120910

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151005

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees