WO2016111327A1 - 顔検出装置 - Google Patents

顔検出装置 Download PDF

Info

Publication number
WO2016111327A1
WO2016111327A1 PCT/JP2016/050337 JP2016050337W WO2016111327A1 WO 2016111327 A1 WO2016111327 A1 WO 2016111327A1 JP 2016050337 W JP2016050337 W JP 2016050337W WO 2016111327 A1 WO2016111327 A1 WO 2016111327A1
Authority
WO
WIPO (PCT)
Prior art keywords
face
detection device
detection light
light
driver
Prior art date
Application number
PCT/JP2016/050337
Other languages
English (en)
French (fr)
Inventor
竜弘 橋本
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2016111327A1 publication Critical patent/WO2016111327A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes

Definitions

  • the present invention relates to a face detection apparatus that detects a face.
  • Japanese Patent Application Laid-Open No. 2004-151561 discloses a technique for identifying the outline of a eyelid by performing edge detection on a face image and determining the degree of eye opening based on the distance between the upper and lower eyelids.
  • One embodiment provides a face detection device that accurately detects a wearing object such as glasses on the face of a subject.
  • the face detection apparatus includes an imaging unit that captures an image of a subject's face, a bright part having an intensity equal to or higher than a first threshold, and a dark part having an intensity less than a second threshold smaller than the first threshold. Irradiating the detection light from an irradiation direction that forms a predetermined angle with the optical axis of the imaging means so that a boundary between the bright part and the dark part in the detection light having And a wearing object detecting means for detecting a wearing object worn on the face of the subject based on the uneven shape of the boundary of the detection light in the face image captured by the imaging means.
  • FIG. 2A is a diagram for explaining the position of the imaging unit
  • FIG. 2B is a partially enlarged view of FIG.
  • 4A shows an example of detection light from the right irradiation unit
  • FIG. 4B shows an example of detection light from the left irradiation unit
  • FIG. 4C shows the right irradiation unit and the left irradiation unit.
  • the figure which shows an example of the detection light when it lights up simultaneously.
  • the flowchart which shows an example of alerting
  • FIG. 7A is a diagram illustrating an example of an irradiation mode of detection light
  • FIGS. 7B to 7F are diagrams illustrating an example of a concavo-convex shape of a boundary between a bright part and a dark part of the detection light
  • FIG. 8A is a diagram showing an example of detecting glasses based on the uneven shape of the boundary
  • FIG. 8B is a diagram showing an example of the glasses specific pattern in FIG. 8A.
  • FIG. 7A is a diagram illustrating an example of an irradiation mode of detection light
  • FIGS. 7B to 7F are diagrams illustrating an example of a concavo-convex shape of a boundary between a bright part and a dark part of the detection light
  • FIG. 8A is a diagram showing an example of detecting glasses based on the uneven shape of the boundary
  • FIG. 8B is a diagram
  • FIG. 10A is a diagram showing an example of irradiating the detection light so that the boundary line between the bright part and the dark part becomes a straight line extending in the left-right direction of the face, and the bright part and the dark part are repeated a plurality of times.
  • FIG. 10B is a diagram schematically showing an example of the spectacles specific pattern detected by the boundary between the bright part and the dark part in FIG.
  • FIG. 11A is a diagram showing the detection light irradiation mode when the boundary vertically cuts in the other embodiment (4B), and FIG. 11B shows the boundary in the left-right direction in the other embodiment (4B).
  • a driver monitor system 1 shown in FIG. 1 is mounted on a vehicle and includes an imaging unit 10, an audio output unit 20, and a control unit 30.
  • the imaging unit 10 captures the face of the driver Q, and is near the meter 5 below the meter hood (shade) 4 of the dashboard 3. Placed in.
  • the imaging unit 10 includes a camera 11, an illumination unit 12, and a visible light cut filter 13 (described later).
  • the camera 11 is a well-known infrared camera equipped with a CCD that can take an image with near-infrared light (that is, has a certain sensitivity to the near-infrared light).
  • the direction of the optical axis of the camera 11 is set so that the face of the driver Q can be imaged from diagonally below the front.
  • the illumination unit 12 irradiates the face of the driver Q with near infrared light as detection light in accordance with the light emission instruction signal from the control unit 30.
  • the illumination unit 12 includes a right irradiation unit 12a and a left irradiation unit 12b having the same configuration.
  • the right irradiation unit 12a and the left irradiation unit 12b include light sources 121a and 121b that are LEDs that irradiate near infrared rays, and light distribution lenses 122a and 122b that form an intensity distribution of detection light to the driver Q, respectively. .
  • the irradiation direction Pa of the detection light by the right irradiation unit 12a and the irradiation direction Pb of the detection light by the left irradiation unit 12b each have a predetermined angle with respect to the optical axis P0 of the camera 11, and the right irradiation unit 12a
  • near infrared rays are emitted from the left side
  • the left irradiation unit 12b emits near infrared rays from the right side when viewed from the driver Q.
  • the right irradiating unit 12a and the left irradiating unit 12b irradiate near-infrared light from the light sources 121a and 121b through the light distribution lenses 122a and 122b, as shown in FIGS. 4A and 4B.
  • striped light that alternately repeats the bright part and the dark part at the expected position where the face of the driver Q is expected during driving is emitted as detection light.
  • a portion irradiated with a predetermined intensity equal to or higher than the first threshold is referred to as a bright portion, and is irradiated with a predetermined intensity less than the second threshold smaller than the first threshold.
  • This part is called the dark part.
  • the detection light is irradiated so as to form a vertical stripe extending in the vertical direction of the face of the driver Q, which alternately repeats the bright part and the dark part.
  • the right illuminating unit 12a and the left illuminating unit 12b are arranged to emit light from the light sources 121a and 121b so that the detection light is irradiated to the entire face of the driver Q as shown in FIG.
  • the arrangement of the optical axes and the configuration of the light distribution lenses 122a and 122b are set. Note that the predicted position is set to an optimal position in the front-rear direction (vertical direction in FIG. 3) of the face of the driver Q by experiments or the like so that light is sufficiently applied to the face.
  • the visible light cut filter 13 is an optical filter arranged to cover the surfaces of the camera 11 and the illumination unit 12 as shown in FIG.
  • the visible light cut filter 13 transmits a lot of wavelengths in the near-infrared region, that is, the wavelength component of the light emitted from the illumination unit 12, and makes the illumination unit 12 difficult to see from the driver Q. Made of material that cuts as much as possible.
  • the voice output unit 20 includes a speaker (not shown), and performs voice notification to the driver Q according to a notification instruction signal from the control unit 30.
  • the control unit 30 includes a microcomputer having a CPU 31, a ROM 32, a RAM 33, and the like.
  • the ROM 32 records various programs and glasses patterns described later.
  • the CPU 31 executes processing for realizing the function as the driver monitor system 1 according to the program recorded in the ROM 32.
  • the control unit 30 executes a notification process for notifying the driver Q who is likely to fall asleep based on the face image of the driver Q captured by the camera 11.
  • the notification process shown in FIG. 5 is repeatedly executed while the ACC switch is on. This notification process is performed by the control unit 30 (CPU 31).
  • control unit 30 performs simultaneous lighting of the irradiation unit. Specifically, the control unit 30 outputs a light emission instruction signal to both the right irradiation unit 12a and the left irradiation unit 12b so that the detection light is irradiated onto the entire surface of the driver Q at the predicted position.
  • the control unit 30 images the face of the driver Q by the camera 11.
  • the control unit 30 performs right irradiation unit lighting. Specifically, the control unit 30 irradiates the face of the driver Q at the expected position with vertical stripes of detection light that alternately repeats bright and dark portions from the left as viewed from the driver Q.
  • the light emission instruction signal is output to the right irradiation unit 12a.
  • the width of the bright portion in the detection light is narrower than the width in the left-right direction of the lens portion of the glasses.
  • the control unit 30 images the face of the driver Q by the camera 11.
  • the control unit 30 turns on the left irradiation unit 12b.
  • the control unit 30 detects the vertical stripes on the face of the driver Q at the expected position from the right side when viewed from the driver Q, where the arrangement of the bright part and the dark part is different from that irradiated in S120.
  • a light emission instruction signal is output to the left irradiation unit 12b so that light is irradiated.
  • control unit 30 images the face of the driver Q by the camera 11.
  • control unit 30 executes a glasses presence / absence determination process that sets a detection flag when it is detected that the driver Q is wearing glasses.
  • the control unit 30 determines whether or not the driver Q is wearing glasses. Specifically, when the detection flag is set, the control unit 30 determines that the driver Q is wearing glasses. In the present embodiment, the control unit 30 ends the notification process when wearing glasses, and shifts the process to S150 when wearing glasses.
  • the control unit 30 determines whether or not the driver Q is in an eye-closed state based on the face image captured in S115. Specifically, the control unit 30 specifies the curvature radius of the eyelid curve by performing well-known edge detection in the face image, and determines that the eye is closed when the curvature radius is larger than a predetermined value. The control part 30 complete
  • control unit 30 outputs a notification instruction signal for performing notification by sound for preventing dozing to the sound output unit 20. And the control part 30 complete
  • the control unit 30 resets the detection flag.
  • the detection flag is a flag that is set when it is detected in the present glasses presence / absence determination process that the driver Q is wearing glasses on the face. In this step, the detection flag is initialized.
  • the control unit 30 acquires the image (right face image) captured in S125 of the notification process.
  • the control unit 30 performs edge detection in the image acquired in S220.
  • the control unit 30 determines whether or not a spectacle specific pattern to be described later is detected as a result of the edge detection performed in S230.
  • the control unit 30 shifts the process to S280 when the glasses specific pattern is detected, and shifts the process to S250 when the glasses specific pattern is not detected.
  • the control unit 30 acquires the image (left face image) captured in S135 of the notification process.
  • the control unit 30 performs edge detection in the image acquired in S250.
  • the control unit 30 determines whether or not the spectacles specific pattern is detected as a result of the edge detection performed in S260.
  • the control unit 30 shifts the process to S280 when the glasses specific pattern is detected, and ends the glasses presence / absence determination process when the glasses specific pattern is not detected.
  • the control unit 30 sets a detection flag and ends the spectacle presence / absence determination process.
  • the above-described glasses presence / absence determination processing will be specifically described in the case where vertical stripe-shaped detection light with a very narrow bright portion is irradiated from the right irradiation unit 12a as shown in FIG. .
  • the control unit 30 irradiates the face of the driver Q with a shape along the unevenness of the face of the driver Q in the right face image. Acquired as the uneven shape of the boundary line between the bright part and the dark part in the detected light.
  • the glasses are estimated to be the most protruding part from the face.
  • the driver Q when the driver Q is wearing glasses having a substantially rectangular glasses frame, when the detection light is irradiated so that the boundary between the bright part and the dark part is positioned on the lens part of the glasses, the driver As for the uneven shape of the boundary line between the bright part and the dark part in the detection light irradiated on the face of Q, the part corresponding to the upper and lower spectacle frames of the upper, lower, left and right sides protrudes larger than the other part of the face of the driver Q. It becomes a shape (see the arrow portions in FIGS. 7C, 7E, and 7F).
  • control unit 30 performs edge detection of the boundary between the dark part and the bright part showing such a concavo-convex shape in the right face image.
  • FIG. 7C and FIG. 8A show an example of the edge detection result of the boundary line L between the dark part and the bright part.
  • the control unit 30 determines whether or not the spectacles specific pattern is detected.
  • the spectacles specific pattern has a distance Pw between the convex portions S1 and S2, which are two convex portions, depending on the shape of the spectacle frame. It is formed in advance so as to correspond to the width H, and is recorded in the ROM 32. 8B is an example, and various spectacle specific patterns corresponding to various spectacle frame shapes may be recorded in the ROM 32.
  • the control unit 30 in the edge detection result in S230, is characterized by a portion that protrudes in a convex shape more than a predetermined height from the other portion and changes to a convex shape steeper than the other portion.
  • the part A based on the degree of coincidence between the shape around the characteristic part A in the edge detection result (number of characteristic parts A and intervals, etc.) and the shape of the glasses specific pattern (number of convex parts, intervals, etc.) When the degree of coincidence is high, it is determined that the driver Q is wearing glasses.
  • the shape corresponding to the unevenness of the face of the driver Q is a dark part of the detection light on the face of the driver Q. Acquired as the shape of the boundary with the bright part. It is presumed that the attachment to the face such as glasses is the most protruding part on the face of the driver Q. According to this, wearing glasses or the like worn on the face of the driver Q based on the uneven shape of the boundary between the bright part and dark part of the detection light on the face of the driver Q, particularly based on the shape of the convex part An object can be detected with high accuracy.
  • the illumination unit 12 irradiates detection light from a plurality of different irradiation directions Pa and Pb. According to this, by using detection light from a plurality of directions, it is possible to accurately detect an attachment on the face such as glasses.
  • the illumination unit 12 irradiates the detection light so that the boundary is a straight line extending in the vertical direction of the face of the driver Q. According to this, for example, it is possible to detect an attachment on a face such as glasses having a shape extending in the left-right direction of the face. In addition, it is possible to accurately detect an attachment on a face such as glasses having features in the vertical direction.
  • the illumination unit 12 irradiates the detection light so that the bright part and the dark part are alternately repeated.
  • the driver Q performs some movements such as checking left and right and rearward or operating the devices, so the position of the face of the driver Q is not always fixed. If the boundary between the bright part and the dark part in the detection light deviates from the position of the face of the driver Q, it is impossible to detect a wearing object such as glasses attached to the face. According to this irradiation, since there are a plurality of boundaries between the bright part and the dark part in the detection light, there is a probability that the wearing object such as the glasses worn by the driver Q can be detected using the boundary between the bright part and the dark part. Can be increased.
  • the width of the bright part may be narrower than the horizontal width of the glasses when the attachment to the face is glasses, for example. It may be narrower than the width in the direction. According to this, since the boundary between the bright part and the dark part in the detection light is easily located in the main body part of the glasses, it is possible to increase the probability that an attachment such as glasses can be detected.
  • the ROM 32 pre-records a shape based on the uneven shape (edge detection result) of the boundary between the bright part and the dark part of the detection light on the face image when the glasses are worn on the face as the spectacles specific pattern. is doing.
  • the control unit 30 detects glasses based on the comparison between the uneven shape (edge detection result) of the boundary between the bright part and dark part of the detection light on the face image of the driver Q and the shape of the spectacle specific pattern. To do. According to this, the presence or absence of glasses can be accurately detected.
  • the driver monitor system 1 corresponds to an example of a face detection device
  • the camera 11 corresponds to an example of an imaging unit
  • the illumination unit 12 corresponds to an example of an irradiation unit
  • the control unit 30 corresponds to an attached item.
  • the ROM 32 corresponds to an example of a detection unit
  • the ROM 32 corresponds to an example of a shape recording unit.
  • the uneven shape of the boundary between the bright and dark portions of the detection light on the driver Q's face image corresponds to an example of the subject's uneven shape
  • the shape of the spectacle specific pattern corresponds to an example of the uneven shape at the time of wearing. .
  • the detection light is irradiated so as to form a vertical stripe extending in the vertical direction of the face of the driver Q, where the bright part and the dark part are alternately repeated.
  • a detection light may be irradiated so that it may become horizontal stripe shape extended in the left-right direction of the face of the driver
  • the degree of coincidence is high based on the degree of coincidence with the spectacles specific pattern having a shape having four convex portions S3 to S6 as shown in FIG. It may be determined that the driver Q is wearing glasses.
  • the interval Pw between the convex portions S3 to S4 and the interval Pw between the convex portions S5 to S6 are intervals corresponding to the lateral width W of the lens portion of the spectacles.
  • the interval Pt in S5 is a length corresponding to the interval T between the lens portions of the glasses. According to this, it is possible to accurately detect an attachment on a face such as glasses having features in the left-right direction.
  • the irradiation mode of the detection light may not be a mode in which the bright part and the dark part are alternately repeated a plurality of times.
  • the detection light may be irradiated so that the boundary line L between the bright part and the dark part crosses the lens of the glasses worn by the driver Q in the vertical direction.
  • the detection light may be irradiated such that the boundary line L between the bright part and the dark part crosses the lens of the glasses in the left-right direction.
  • the determination of the closed eye state is not performed when the driver Q is wearing glasses, but the closed eye state is not detected when the driver Q is wearing glasses.
  • a determination may be performed.
  • the frame region F of the glasses including the characteristic part A is specified based on the edge detection result, and the region between the upper and lower frame regions F based on the frame region F
  • the wrinkle region M where the wrinkle is located it is possible to prevent erroneous detection of the frame as a wrinkle.
  • the audio output unit 20 that notifies the driver Q when the closed eye state is detected is provided.
  • the audio output unit 20 may be omitted.
  • the configuration may be such that the driver Q is notified using another output device, such as displaying a message on the meter unit when an eye-closed state is detected.
  • the LEDs are used as the light sources 121a and 121b.
  • a laser may be used as the light source.
  • the light distribution lenses 122a and 122b may not be provided.
  • the spectacles specific pattern has been described by taking spectacles having frames on the top, bottom, left, and right as an example, but the shape of the spectacles is not limited to this.
  • spectacles specific patterns corresponding to various spectacle shapes such as spectacles having a frame only on the top may be recorded in the ROM 32, and these may be used to determine whether the driver is wearing spectacles.
  • the functions of one constituent element in the above embodiment may be distributed as a plurality of constituent elements, or the functions of a plurality of constituent elements may be integrated into one constituent element. Further, at least a part of the configuration of the above embodiment may be replaced with a known configuration having the same function. Moreover, you may abbreviate
  • the present invention is realized in various forms such as the driver monitor system 1 and the control unit 30 described above, a program for causing the computer to function as the control unit 30, a medium on which the program is recorded, and a face detection method. can do.
  • One aspect of the present invention is a face detection device (1), which includes an imaging means (11), an irradiation means (12), and an attachment detection means (13).
  • the imaging means images the subject's face.
  • the irradiation means has a boundary between the bright part and the dark part in the detection light having a bright part having an intensity equal to or higher than a first threshold and a dark part having an intensity less than the second threshold and less than a second threshold.
  • the detection light is emitted from an irradiation direction that forms a predetermined angle with the optical axis of the imaging means so as to be positioned on the face of the subject.
  • the wearing object detecting unit detects the wearing object worn on the face of the subject based on the uneven shape of the boundary of the detection light in the face image captured by the imaging unit.
  • the boundary between the dark part and the bright part of the detection light in the captured image has a shape corresponding to the unevenness of the face of the subject.
  • the wearing object such as glasses is estimated to be the most protruding part from the face
  • the glasses worn on the face of the subject based on the uneven shape of the boundary between the dark part and the bright part of the detection light It is possible to detect a wearing object such as a high accuracy.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

 顔検出装置は、対象者の顔を撮像する撮像手段と、強度が第1の閾値以上である明部と前記第1の閾値よりも小さい第2の閾値未満の強度である暗部とを有する検出光における前記明部と前記暗部との境界が前記対象者の顔に位置するように、前記撮像手段の光軸と所定の角度をなす照射方向から、前記検出光を照射する照射手段と、前記撮像手段により撮像された顔画像における、前記検出光の前記境界の凹凸形状に基づいて、対象者の顔に装着された装着物を検出する装着物検出手段と、を備える。

Description

顔検出装置
 本発明は、顔の検出を行う顔検出装置に関する。
 従来、対象者の顔をカメラで撮像して得られた顔画像に基づいて、対象者の目の開き具合(開眼度)を検出する技術が知られている。特許文献1には、顔画像においてエッジ検出を行うことによって瞼の輪郭を特定し、上下瞼の間隔に基づいて開眼度を判定する技術が開示されている。
特開2011-229741号公報
 しかしながら、特許文献1に記載の従来技術では、例えばメガネ等の装着物を対象者が装着している場合には、メガネフレーム等の装着物の一部と瞼とのエッジ検出による検出形状が類似することが有り得る。すなわち、上述のメガネの例であれば、メガネフレームを瞼として検出し、開眼度を誤判定することが有り得る。このため、対象者の顔におけるメガネ等の装着物を精度よく検出する技術が望まれている。
 一実施形態は、対象者の顔におけるメガネ等の装着物を精度よく検出する顔検出装置を提供する。
 一実施形態の顔検出装置は、対象者の顔を撮像する撮像手段と、強度が第1の閾値以上である明部と前記第1の閾値よりも小さい第2の閾値未満の強度である暗部とを有する検出光における前記明部と前記暗部との境界が前記対象者の顔に位置するように、前記撮像手段の光軸と所定の角度をなす照射方向から、前記検出光を照射する照射手段と、前記撮像手段により撮像された顔画像における、前記検出光の前記境界の凹凸形状に基づいて、対象者の顔に装着された装着物を検出する装着物検出手段と、を備える。
ドライバモニタシステムの構成を示すブロック図。 図2(a)は撮像部の位置を説明する図、図2(b)は図2(a)の部分拡大図。 カメラの光軸の向きと、右照射部及び左照射部の照射方向とを示す図。 図4(a)は右照射部による検出光の一例を示す図、図4(b)は左照射部による検出光の一例を示す図、図4(c)は右照射部と左照射部とを同時に点灯させたときの検出光の一例を示す図。 報知処理の一例を示すフローチャート。 メガネ有無判定処理の一例を示すフローチャート。 図7(a)は検出光の照射態様の一例を示す図、図7(b)~(f)は検出光の明部と暗部との境界の凹凸形状の例を示す図。 図8(a)は境界の凹凸形状に基づいてメガネを検出する一例を示す図、図8(b)は図8(a)のときのメガネ特定パターンの一例を示す図。 従来技術においてメガネフレームを瞼として誤検出する一例を示す図。 図10(a)は明部と暗部との境界線が顔の左右方向に延びる直線となるように、且つ明部と暗部とを複数回繰り返すように、検出光を照射する一例を示す図、図10(b)は図10(a)における明部と暗部との境界によって検出されるメガネ特定パターンの一例を模式的に示す図。 図11(a)は他の実施形態(4B)において境界が上下方向に縦断する場合の検出光の照射態様を示す図、図11(b)は他の実施形態(4B)において境界が左右方向に横断する場合の検出光の照射態様を示す図。 運転者がメガネを装着している場合に閉眼状態の判定を実行する他の実施形態(4C)において、瞼領域の特定について説明する図。
 以下、実施形態について、図面を用いて説明する。
 [1.構成]
 図1に示すドライバモニタシステム1は、車両に搭載され、撮像部10と、音声出力部20と、制御部30とを備える。
 撮像部10は、図2(a)及び図2(b)に示すように、運転者Qの顔を撮像するものであり、ダッシュボード3のメータフード(日よけ)4下部のメータ5近傍に配置される。撮像部10は、カメラ11と、照明部12と、可視光カットフィルタ13(後述する)とを備える。
 カメラ11は、近赤外光により画像の撮像を行うことが可能な(即ち近赤外光に対して一定の感度を持つ)CCDを備える周知の赤外線カメラである。カメラ11は、運転者Qの顔を正面斜め下方より撮像が可能な様に光軸の向きが設定されている。
 照明部12は、制御部30からの発光指示信号に従って、近赤外線を検出光として運転者Qの顔に照射する。図3に示すように、照明部12は、同様の構成である右照射部12aと左照射部12bとを備える。右照射部12aと左照射部12bとは、それぞれ、近赤外線を照射するLEDである光源121a、121bと、運転者Qへの検出光の強度分布を形成する配光レンズ122a、122bとを備える。
 右照射部12aによる検出光の照射方向Pa及び左照射部12bによる検出光の照射方向Pbは、それぞれ、カメラ11の光軸P0に対して所定の角度を有しており、右照射部12aは運転者Qから見て左方より近赤外線を照射し、左照射部12bは運転者Qから見て右方より近赤外線を照射する。
 右照射部12a及び左照射部12bは、光源121a、121bからの近赤外光を配光レンズ122a、122bを介して照射することによって、図4(a)及び図4(b)に示すように、運転時に運転者Qの顔があると予想される予想位置において明部と暗部とを交互に繰り返す縞状の光を検出光として照射する。予想位置での検出光の強度分布において、第1の閾値以上の所定の強度で照射される部分を明部といい、第1の閾値よりも小さい第2の閾値未満の所定の強度で照射される部分を暗部という。本実施形態では特に、明部と暗部とを交互に繰り返す、運転者Qの顔の上下方向に延びる縦縞状となるように、検出光が照射される。
 また、右照射部12a及び左照射部12bは、同時に発光した場合に予想位置において図4(c)に示すように運転者Qの顔全体に検出光が照射されるように、光源121a、121bの光軸の配置や配光レンズ122a、122bの構成等が設定される。なお、予想位置は、顔に光が十分に当たるように、実験等によって、運転者Qの顔の前後方向(図3の上下方向)における最適な位置に設定される。
 可視光カットフィルタ13は、図3に示すように、カメラ11及び照明部12の表面を覆うように配置される光学フィルタである。可視光カットフィルタ13は、近赤外線領域の波長、すなわち照明部12から照射される光の波長成分の多くを透過させると共に、照明部12を運転者Qから見えにくくすることを目的として、可視光をできるだけカットする材料で作られている。
 図1に戻り説明を続ける。音声出力部20は、図示しないスピーカを備え、制御部30からの報知指示信号に従って、運転者Qへの音声による報知を行う。
 制御部30は、CPU31、ROM32、RAM33等を有するマイクロコンピュータを備える。ROM32は、各種プログラム及び後述するメガネパターンを記録している。CPU31は、ROM32に記録されたプログラムに従って、ドライバモニタシステム1としての機能を実現する為の処理を実行する。一例として、制御部30は、カメラ11により撮像された運転者Qの顔画像に基づき、居眠りのおそれのある運転者Qに対して報知を行う報知処理を実行する。
 [2.処理]
 次に、制御部30のCPU31が実行する報知処理について、図5のフローチャートを用いて説明する。
 [2-1.報知処理]
 図5に示す報知処理は、ACCスイッチがオンされている間、繰り返し実行される。なお、本報知処理は、制御部30(CPU31)により行われる。
 はじめに、S(ステップ)110では、制御部30は、照射部の同時点灯を行う。具体的には、制御部30は、予想位置における運転者Qの顔の全面に検出光が照射されるように、右照射部12a及び左照射部12bの両方へ発光指示信号を出力する。
 続くS115では、制御部30は、カメラ11によって運転者Qの顔を撮像する。
 次にS120では、制御部30は、右照射部点灯を行う。具体的には、制御部30は、予想位置における運転者Qの顔に、運転者Qから見て左方向から、明部と暗部とを交互に繰り返す縦縞状の検出光が照射されるように、右照射部12aへ発光指示信号を出力する。なお、本実施形態では、検出光における明部の幅はメガネのレンズ部の左右方向の幅よりも狭い幅となっている。
 続くS125では、制御部30は、カメラ11によって運転者Qの顔を撮像する。
 次にS130では、制御部30は、左照射部12bの点灯を行う。具体的には、制御部30は、予想位置における運転者Qの顔に、運転者Qから見て右方向から、S120で照射されたときとは明部及び暗部の配置が異なる縦縞状の検出光が照射されるように、左照射部12bへ発光指示信号を出力する。
 続くS135では、制御部30は、カメラ11によって運転者Qの顔を撮像する。
 次にS140では、制御部30は、運転者Qがメガネを装着していることを検出した場合に検出フラグをセットするメガネ有無判定処理を実行する。
 続くS145では、制御部30は、運転者Qがメガネを装着しているか否かを判断する。具体的には、検出フラグがセットされている場合に、制御部30は、運転者Qがメガネを装着していると判断する。本実施形態では、制御部30は、メガネを装着している場合に本報知処理を終了し、メガネを装着していない場合に処理をS150へ移行させる。
 運転者Qがメガネを装着していない場合に移行するS150では、制御部30は、S115にて撮像した顔画像に基づいて、運転者Qが閉眼状態であるか否かを判断する。具体的には、制御部30は、顔画像において周知のエッジ検出を行うことによって瞼のカーブの曲率半径を特定し、曲率半径が所定値より大きい場合に、閉眼状態であると判断する。制御部30は、閉眼状態でない場合に本報知処理を終了し、閉眼状態である場合に処理をS155へ移行させる。
 S155では、制御部30は、居眠りを防止するための音声による報知を行う報知指示信号を音声出力部20へ出力する。そして、制御部30は、本報知処理を終了する。
 つまり、報知処理では、運転者Qがメガネを装着している場合には、閉眼状態であるか否かの判断を中止する。
 [2-2.メガネ有無判定処理]
 次に、報知処理のS140で実行するメガネ有無判定処理について、図6に示すフローチャートを用いて説明する。
 S210では、制御部30は、検出フラグをリセットする。検出フラグは、本メガネ有無判定処理において、運転者Qが顔にメガネを装着していることが検出された場合にセットされるフラグである。本ステップでは、検出フラグの初期化を行う。
 次にS220では、制御部30は、報知処理のS125で撮像した画像(右顔画像)を取得する。
 続くS230では、制御部30は、S220で取得した画像においてエッジ検出を実行する。
 次にS240では、制御部30は、S230で実行したエッジ検出の結果、後述するメガネ特定パターンが検出されたか否かを判断する。ここで、制御部30は、メガネ特定パターンが検出された場合に処理をS280へ移行させ、メガネ特定パターンが検出されなかった場合、処理をS250へ移行させる。
 S250では、制御部30は、報知処理のS135で撮像した画像(左顔画像)を取得する。
 次にS260では、制御部30は、S250で取得した画像においてエッジ検出を実行する。
 続くS270では、制御部30は、S260で実行したエッジ検出の結果、メガネ特定パターンが検出されたか否かを判断する。ここで、制御部30は、メガネ特定パターンが検出された場合に処理をS280へ移行させ、メガネ特定パターンが検出されなかった場合に本メガネ有無判定処理を終了する。
 メガネ特定パターンが検出された場合に移行するS280では、制御部30は、検出フラグをセットし、本メガネ有無判定処理を終了する。
 次に、一例として図7(a)に示すように明部の幅がごく狭い縦縞状の検出光が右照射部12aから照射された場合について、上述したメガネ有無判定処理を具体的に説明する。
 S220では、図7(b)~図7(f)に示すように、制御部30は、右顔画像において、運転者Qの顔の凹凸に沿った形状を、運転者Qの顔に照射された検出光における明部と暗部との境界線の凹凸形状として取得する。ここで、運転者Qがメガネを装着している場合、メガネは顔から最も突出する部位であると推定される。すなわち、例えば略四角形状のメガネ枠を有するメガネを運転者Qが装着している場合、メガネのレンズ部に明部と暗部との境界が位置するように検出光が照射されると、運転者Qの顔に照射された検出光における明部と暗部との境界線の凹凸形状は、上下左右のうち上下のメガネ枠に対応する部位が運転者Qの顔の他の部位よりも大きく突出する形状となる(図7(c)、図7(e)、図7(f)の矢印部参照)。
 S230では、制御部30は、右顔画像において、このような凹凸形状を示す暗部と明部との境界のエッジ検出を実行する。図7(c)及び図8(a)に、暗部と明部との境界線Lのエッジ検出結果の一例を示す。
 S270では、制御部30は、メガネ特定パターンが検出されたか否かを判断する。メガネ特定パターンは、一例として図8(b)に示すように、メガネフレームの形状に応じて、2つの凸部である凸部S1と凸部S2との間隔Pwがメガネフレームのレンズ部の縦幅Hに対応するように予め形成されており、ROM32に記録されている。なお、図8(b)に示したメガネ特定パターンは一例であり、各種のメガネフレーム形状に対応した各種のメガネ特定パターンがROM32に記録されていてよい。S270では、制御部30は、S230のエッジ検出結果において、他の部位よりも所定高さ以上に凸状に突出しており、且つ他の部位よりも急峻に凸状に変化している部位を特徴部位Aとして、エッジ検出結果における特徴部位Aの周辺の形状(特徴部位Aの数、及び間隔等)とメガネ特定パターンの形状(凸部の数、及び間隔等)との一致度に基づいて、一致度が高い場合に運転者Qがメガネを装着していると判断する。
 [3.効果]
 以上詳述した実施形態によれば、以下の効果が得られる。
 [3A]撮像部10による撮像方向とは異なる方向から照明部12による検出光を照射することにより、運転者Qの顔の凹凸に応じた形状が、運転者Qの顔における検出光の暗部と明部との境界の形状として取得される。メガネ等の顔への装着物は運転者Qの顔において最も突出した部分であると推定される。これによれば、運転者Qの顔における検出光の明部と暗部との境界の凹凸形状に基づいて、特に凸部の形状に基づいて、運転者Qの顔に装着されたメガネ等の装着物を精度よく検出することができる。すなわち、運転者Qの顔における検出光の暗部と明部との凹凸形状において、他の部位よりも所定の高さ以上に突出した部分が存在すれば、その部分をメガネ等の装着物(又はメガネフレーム等の装着物の一部)であると特定することができる。また、これによれば、図9に示す従来例のようにメガネのフレームが瞼として誤検出されることを、防止することができる。
 [3B]照明部12は、異なる複数の照射方向Pa、Pbから検出光を照射する。これによれば、複数の方向からの検出光を用いることによって、メガネ等のような顔への装着物の検出を精度よく行うことができる。
 [3C]照明部12は、境界が運転者Qの顔の上下方向に延びる直線状となるように、検出光を照射する。これによれば、例えば顔の左右方向に延びる形状を有するメガネ等の顔への装着物の検出を行うことができる。また、上下方向に特徴を有するメガネ等の顔への装着物の検出を精度よく行うことができる。
 [3D]照明部12は、明部と暗部とが交互に繰り返されるように、検出光を照射する。運転操作中、運転者Qは左右や後方を確認したり機器類を操作したりというように何かしらの動きを行うため、運転者Qの顔の位置は常に固定されているわけではない。仮に、検出光における明部と暗部との境界が運転者Qの顔の位置から外れると、顔に装着されたメガネ等の装着物を検出することができない。この照射によれば、検出光において明部と暗部との境界が複数存在するため、明部と暗部との境界を用いて運転者Qに装着されているメガネ等の装着物を検出できる確率を高めることができる。
 [3E]明部と暗部とが交互に繰り返される場合、明部の幅は、例えば顔への装着物がメガネである場合、メガネの左右方向の幅よりも狭くてもよいし、メガネの上下方向の幅よりも狭くてもよい。これによれば、メガネの本体部分に検出光における明部と暗部との境界が位置しやすくなるため、メガネ等の装着物を検出できる確率を高めることができる。
 [3F]ROM32は、顔にメガネが装着されているときの顔画像上での検出光の明部と暗部との境界の凹凸形状(のエッジ検出結果)に基づく形状をメガネ特定パターンとして予め記録している。制御部30は、運転者Qの顔画像上での検出光の明部と暗部との境界の凹凸形状(のエッジ検出結果)と、メガネ特定パターンの形状との比較に基づいて、メガネを検出する。これによれば、メガネの有無を精度よく検出することができる。
 なお、上記実施形態では、ドライバモニタシステム1が顔検出装置の一例に相当し、カメラ11が撮像手段の一例に相当し、照明部12が照射手段の一例に相当し、制御部30が装着物検出手段の一例に相当し、ROM32が形状記録手段の一例に相当する。また、運転者Qの顔画像上での検出光の明部と暗部との境界の凹凸形状が対象者凹凸形状の一例に相当し、メガネ特定パターンの形状が装着時凹凸形状の一例に相当する。
 [4.他の実施形態]
 以上、本発明の実施形態について説明したが、本発明は、上記実施形態に限定されることなく、種々の形態を採り得ることは言うまでもない。
 [4A]上記実施形態では、明部と暗部とが交互に繰り返される、運転者Qの顔の上下方向に延びる縦縞状となるように検出光が照射されていたが、検出光の照射態様はこれに限るものではない。例えば、図10(a)に示すように、明部と暗部とが交互に繰り返される、運転者Qの顔の左右方向に延びる横縞状となるように、検出光が照射されてもよい。なお、明部の幅は、メガネのレンズ部の縦幅Hよりも狭いことが望ましい。この場合、メガネの左右対称性より、一例として図10(b)に示すような、4つの凸部S3~S6を有する形状のメガネ特定パターンとの一致度に基づいて、一致度が高い場合に運転者Qがメガネを装着していると判断してもよい。図10(b)に示すメガネ特定パターンでは、凸部S3~S4の間隔Pw及び凸部S5~S6の間隔Pwがメガネのレンズ部の横幅Wに対応する間隔となっており、凸部S4~S5の間隔Ptがメガネのレンズ部の間隔Tに対応する長さとなっている。これによれば、左右方向に特徴を有するメガネ等の顔への装着物の検出を精度よく行うことができる。
 [4B]検出光の照射態様は、明部と暗部とが交互に複数回繰り返される態様でなくてもよい。例えば、図11(a)に示すように、明部と暗部との境界線Lが運転者Qが装着するメガネのレンズを上下方向に横断するように検出光が照射されてもよいし、図11(b)に示すように、明部と暗部との境界線Lがメガネのレンズを左右方向に縦断するように検出光が照射されてもよい。
 [4C]上記実施形態のメガネ有無判定処理では運転者Qがメガネを装着している場合は閉眼状態の判定を実行しなかったが、運転者Qがメガネを装着している場合に閉眼状態の判定を実行してもよい。この場合、例えば図12に示すように、エッジ検出結果に基づいて特徴部位Aを含むメガネのフレーム領域Fを特定し、該フレーム領域Fに基づいて上側及び下側のフレーム領域Fの間の領域を瞼の位置する瞼領域Mとして特定することにより、フレームを瞼として誤検出することを防止することができる。
 [4D]上記実施形態では、閉眼状態が検出された場合に運転者Qへの報知を行う音声出力部20を備えていたが、音声出力部20を備えない構成であってもよい。例えば、閉眼状態が検出された場合にメータ部にメッセージを表示する等、他の出力装置を用いて運転者Qへの報知を行う構成であってもよい。
 [4E]上記実施形態では、LEDを光源121a、121bとして用いたが、これに代えてレーザを光源として用いてもよい。この場合、配光レンズ122a、122bを備えなくてよい。
 [4F]上記実施形態では、上下左右にフレームを有するメガネを一例としてメガネ特定パターンを説明したが、メガネの形状はこれに限るものではない。例えば上だけにフレームを有するメガネ等、各種メガネ形状に応じたメガネ特定パターンがROM32に記録されていてよく、これらを用いて運転者がメガネを装着しているか否かを判断してよい。
 [4G]上記実施形態における1つの構成要素が有する機能を複数の構成要素として分散させたり、複数の構成要素が有する機能を1つの構成要素に統合したりしてもよい。また、上記実施形態の構成の少なくとも一部を、同様の機能を有する公知の構成に置き換えてもよい。また、上記実施形態の構成の一部を、課題を解決できる限りにおいて省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加、置換等してもよい。
 [4H]本発明は、前述したドライバモニタシステム1、制御部30の他、当該制御部30としてコンピュータを機能させるためのプログラム、このプログラムを記録した媒体、顔検出方法など、種々の形態で実現することができる。
 本発明の一側面は、顔検出装置(1)であって、撮像手段(11)と、照射手段(12)と、装着物検出手段(13)と、を備える。前記撮像手段は、対象者の顔を撮像する。前記照射手段は、強度が第1の閾値以上である明部と第1の閾値よりも小さい第2の閾値未満の強度である暗部とを有する検出光における前記明部と前記暗部との境界が前記対象者の顔に位置するように、前記撮像手段の光軸と所定の角度をなす照射方向から、前記検出光を照射する。前記装着物検出手段は、前記撮像手段により撮像された顔画像における前記検出光の前記境界の凹凸形状に基づいて、前記対象者の顔に装着された装着物を検出する。
 このような構成では、撮像手段による撮像方向とは異なる方向から検出光を照射するため、撮像画像における検出光の暗部と明部との境界は対象者の顔の凹凸に応じた形状となる。ここで、例えばメガネ等の装着物は顔から最も突出した部分であると推定されるため、検出光の暗部と明部との境界の凹凸形状に基づいて、対象者の顔に装着されたメガネ等の装着物を、精度よく検出することができる。
 1…ドライバモニタシステム 10…撮像部 20…音声出力部 30…制御部 31…CPU。

Claims (9)

  1.  対象者の顔を撮像する撮像手段(11)と、
     強度が第1の閾値以上である明部と前記第1の閾値よりも小さい第2の閾値未満の強度である暗部とを有する検出光における前記明部と前記暗部との境界が前記対象者の顔に位置するように、前記撮像手段の光軸と所定の角度をなす照射方向から、前記検出光を照射する照射手段(12)と、
     前記撮像手段により撮像された顔画像における、前記検出光の前記境界の凹凸形状に基づいて、前記対象者の顔に装着された装着物を検出する装着物検出手段(30)と、
     を備える顔検出装置(1)。
  2.  請求項1に記載の顔検出装置であって、
     前記照射手段は、異なる複数の前記照射方向から前記検出光を照射する顔検出装置。
  3.  請求項1または請求項2に記載の顔検出装置であって、
     前記照射手段は、前記境界が前記対象者の顔の上下方向に延びる直線状となるように、前記検出光を照射する顔検出装置。
  4.  請求項1から請求項3のいずれか一項に記載の顔検出装置であって、
     前記照射手段は、前記境界が前記対象者の顔の左右方向に延びる直線状となるように、前記検出光を照射する顔検出装置。
  5.  請求項1から請求項4のいずれか一項に記載の顔検出装置であって、
     前記照射手段は、前記明部と前記暗部とが交互に繰り返されるように、前記検出光を照射する顔検出装置。
  6.  請求項5に記載の顔検出装置であって、
     前記明部の幅は、前記装着物の前記左右方向の幅よりも狭い顔検出装置。
  7.  請求項5に記載の顔検出装置であって、
     前記明部の幅は、前記装着物の前記上下方向の幅よりも狭い顔検出装置。
  8.  請求項1から請求項7のいずれか一項に記載の顔検出装置であって、
     前記顔に前記装着物が装着されているときの前記顔画像上での前記検出光の前記境界の凹凸形状を、装着時凹凸形状として予め記録する形状記録手段(132)を備え、
     前記装着物検出手段は、前記装着時凹凸形状と前記明部と前記暗部との境界の凹凸形状との比較に基づいて、前記装着物を検出する顔検出装置。
  9.  請求項1から請求項7のいずれか一項に記載の顔検出装置であって、
     前記装着物はメガネである顔検出装置。
PCT/JP2016/050337 2015-01-08 2016-01-07 顔検出装置 WO2016111327A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-002455 2015-01-08
JP2015002455A JP2016126719A (ja) 2015-01-08 2015-01-08 顔検出装置

Publications (1)

Publication Number Publication Date
WO2016111327A1 true WO2016111327A1 (ja) 2016-07-14

Family

ID=56356013

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/050337 WO2016111327A1 (ja) 2015-01-08 2016-01-07 顔検出装置

Country Status (2)

Country Link
JP (1) JP2016126719A (ja)
WO (1) WO2016111327A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018047433A1 (ja) * 2016-09-08 2019-06-24 ソニー株式会社 情報処理装置
EP4068199A3 (de) * 2021-03-31 2023-01-25 Bundesdruckerei GmbH Verfahren und vorrichtung zur erzeugung eines brillenlosen dreidimensionalen modells des kopfes einer bebrillten person

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107463875A (zh) * 2017-07-03 2017-12-12 金讯系统管理有限公司 一种判断人员身份的方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198193A (ja) * 2007-01-19 2008-08-28 Konica Minolta Holdings Inc 顔認証システム、方法及びプログラム
JP2008232776A (ja) * 2007-03-20 2008-10-02 Fujifilm Corp 3次元形状計測装置および方法並びにプログラム
JP2010129050A (ja) * 2008-12-01 2010-06-10 Calsonic Kansei Corp 顔向き検出装置
JP2013024608A (ja) * 2011-07-15 2013-02-04 Technodream 21 Co Ltd 3次元形状の取得装置、処理方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008198193A (ja) * 2007-01-19 2008-08-28 Konica Minolta Holdings Inc 顔認証システム、方法及びプログラム
JP2008232776A (ja) * 2007-03-20 2008-10-02 Fujifilm Corp 3次元形状計測装置および方法並びにプログラム
JP2010129050A (ja) * 2008-12-01 2010-06-10 Calsonic Kansei Corp 顔向き検出装置
JP2013024608A (ja) * 2011-07-15 2013-02-04 Technodream 21 Co Ltd 3次元形状の取得装置、処理方法およびプログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2018047433A1 (ja) * 2016-09-08 2019-06-24 ソニー株式会社 情報処理装置
JP7074343B2 (ja) 2016-09-08 2022-05-24 ソニーグループ株式会社 情報処理装置
EP4068199A3 (de) * 2021-03-31 2023-01-25 Bundesdruckerei GmbH Verfahren und vorrichtung zur erzeugung eines brillenlosen dreidimensionalen modells des kopfes einer bebrillten person

Also Published As

Publication number Publication date
JP2016126719A (ja) 2016-07-11

Similar Documents

Publication Publication Date Title
CA2959078C (en) Spectacles and method for determining the centre of the pupil center of both of the wearer's eyes
EP2543187B1 (en) Systems and methods for spatially controlled scene illumination
WO2016111327A1 (ja) 顔検出装置
US8208027B2 (en) Image shooting device and method for shooting image
US10441168B2 (en) Computer-implemented method for detecting a corneal vertex
JP6278106B2 (ja) 状態監視装置,及び光学部材
JP2011092290A5 (ja)
CN110546552A (zh) 用于确定居中参数以便调整眼镜的装置
JP6433383B2 (ja) 投光装置
JP2009219555A (ja) 眠気検知装置、運転支援装置、眠気検知方法
JP2017161491A (ja) 異常画像検出装置、異常画像検出装置を備えた画像処理システムおよび画像処理システムを搭載した車両
KR20150066739A (ko) 경고 메시지를 제공하는 차량 제어 시스템 및 그 방법
JP2016049259A (ja) 視線検出装置
JP4313717B2 (ja) 視線検出装置
KR102141638B1 (ko) 운전자 시선 방향 검출 장치
US10478063B2 (en) Measurement device and measurement method
JP6856017B2 (ja) 角膜反射位置検出装置、視線検出装置及び角膜反射位置検出方法
EP3362308A1 (en) Method for examining a perception of a visual warning notice by a vehicle user, driver assistance system and motor vehicle
JP6019684B2 (ja) 診断支援装置および診断支援方法
JP2013123180A (ja) モニタリング装置
JP5417272B2 (ja) 眼球撮像装置
JP5206190B2 (ja) ドライバー監視装置
JP4935762B2 (ja) 顔画像処理装置
JP2005296383A (ja) 視線検出装置
JP2982204B2 (ja) 車両運転者監視装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16735066

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16735066

Country of ref document: EP

Kind code of ref document: A1