JP2016115120A - Opened/closed eye determination device and opened/closed eye determination method - Google Patents

Opened/closed eye determination device and opened/closed eye determination method Download PDF

Info

Publication number
JP2016115120A
JP2016115120A JP2014252945A JP2014252945A JP2016115120A JP 2016115120 A JP2016115120 A JP 2016115120A JP 2014252945 A JP2014252945 A JP 2014252945A JP 2014252945 A JP2014252945 A JP 2014252945A JP 2016115120 A JP2016115120 A JP 2016115120A
Authority
JP
Japan
Prior art keywords
eye
state
shape
driver
shape parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014252945A
Other languages
Japanese (ja)
Inventor
晋 大須賀
Susumu Osuga
晋 大須賀
小島 真一
Shinichi Kojima
真一 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Aisin Corp
Original Assignee
Aisin Seiki Co Ltd
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin Seiki Co Ltd, Toyota Central R&D Labs Inc filed Critical Aisin Seiki Co Ltd
Priority to JP2014252945A priority Critical patent/JP2016115120A/en
Priority to CN201510919928.4A priority patent/CN105701445A/en
Priority to EP15199835.8A priority patent/EP3033999B1/en
Priority to US14/968,001 priority patent/US20160171321A1/en
Publication of JP2016115120A publication Critical patent/JP2016115120A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To further accurately make an opened/closed eye determination of a driver.SOLUTION: An opened/closed eye determination device comprises: a storage unit which stores a three-dimensional face model in which a three-dimensional face shape of a subject, positions of eyes of the subject and change information are registered, the change information having the state of shape change of eyes from an eye standard state to a narrow eye state of narrowing eyes due to a face expression change, and a shape parameter associated with each other; a check unit which checks a captured image of a driver captured by an imaging device from the three-dimensional face shape to identify the positions of eyes; a shape parameter determination unit which makes the shape parameter change and identifies a shape parameter corresponding to the state of eyes in the captured image; a degree-of-opened/closed eye calculation unit which calculates the degree of opened/closed eye indicating the eye opening state in the captured image; and an opened/closed eye determination unit which determines the opened/closed eye of the driver, even when the degree of opened/closed eye shows a closed eye state, on the basis of whether or not the identified shape parameter indicates the narrow eye state.SELECTED DRAWING: Figure 4

Description

本発明は、開眼判定装置および開眼判定方法に関する。   The present invention relates to an eye opening determination device and an eye opening determination method.

近年、撮像された静止画像または動画像に含まれる顔の位置および向き、ならびに目および口等の顔部品の状態を検出する顔検出技術の開発が進められている。例えば、車両においては、運転者の顔検出結果から開閉眼判定を行って、居眠り運転等を検知し、警報等の所定の処理を行うことができる。   In recent years, development of a face detection technique for detecting the position and orientation of a face included in a captured still image or moving image and the state of facial parts such as eyes and mouth has been promoted. For example, in a vehicle, it is possible to perform open / closed eye determination from the driver's face detection result, detect doze driving, etc., and perform predetermined processing such as warning.

従来から、居眠り運転等を検知するために、運転者の開閉眼の状態を検知する他、車両運動等の運転挙動から居眠り運転等の推定情報を用いる技術が知られている(例えば、特許文献1参照)。また、顔検出結果から得られる運転者の目の上下瞼間距離(開眼度)とまぶた形状の双方を利用して運転者の開閉眼状態を検知し、居眠り運転等を検知する技術も知られている(例えば、特許文献2参照)。   Conventionally, in order to detect a drowsy driving or the like, in addition to detecting the state of the driver's open / closed eyes, a technique using estimated information such as a nap driving from a driving behavior such as vehicle motion is known (for example, Patent Documents). 1). Also known is a technique for detecting the driver's open / closed eye state using both the distance between the upper and lower eyelids (opening degree) of the driver's eyes obtained from the face detection result and the shape of the eyelid, and detecting a drowsy driving or the like. (For example, refer to Patent Document 2).

特開2008−165348号公報JP 2008-165348 A 特開2004−192551号公報JP 2004-192551 A

しかしながら、従来技術では、運転者の開閉眼の状態を検知する際に外乱の影響が大きく開閉眼を正確に判定することが難しい。また、二次元画像上で開閉眼判定を行っているので、二次元画像上でのまぶたの形状は、顔とカメラ間の相対的な角度関係に従って、見え方が変化し、正確な開閉眼判定を行うことが困難である。   However, in the prior art, when detecting the state of the driver's open / closed eyes, the influence of disturbance is large and it is difficult to accurately determine the open / closed eyes. In addition, since the open / closed eye determination is performed on the two-dimensional image, the appearance of the eyelid shape on the two-dimensional image changes according to the relative angular relationship between the face and the camera, and the open / closed eye determination is accurate. Is difficult to do.

そこで、本発明の課題の一つは、より正確な運転者の開閉眼判定を行うことができる開眼判定装置および開眼判定方法を提供することである。   Accordingly, one of the objects of the present invention is to provide an eye opening determination device and an eye opening determination method that can perform more accurate determination of the opening / closing eyes of a driver.

本発明の開閉眼判定装置は、被験者の三次元顔形状と、前記被験者の目の位置と、前記目の標準の状態から前記顔の表情変化に伴い前記目を細くする細目の状態までの前記目の形状の変化の状態と形状パラメータとが対応付けられた変化情報と、が登録された三次元顔モデルを記憶する記憶部と、撮像装置で撮像された運転者の撮像画像を、前記三次元顔形状と照合して、前記目の位置を特定する照合部と、前記形状パラメータを変化させて、前記撮像画像における前記目の状態に対応する形状パラメータを特定する形状パラメータ判定部と、前記撮像画像における前記目の開眼状態を示す開眼度を算出する開眼度算出部と、前記開眼度が閉眼状態を示す場合においても、特定された前記形状パラメータが前記細目の状態を示すか否かに基づいて、前記運転者の開閉眼を判定する開閉眼判定部と、を備えた。上記構成により、誤判断を回避して、より正確に運転者の開閉眼を判断することができる。   The open / close eye determination device according to the present invention includes a three-dimensional face shape of a subject, a position of the eye of the subject, and a standard state of the eye from a standard state of the eye to a state of narrowing the eye with a change in facial expression of the face. A storage unit that stores a change information in which a state of change in eye shape and a shape parameter are associated, a registered three-dimensional face model, and a driver's captured image captured by the imaging device, A matching unit that identifies the position of the eye by collating with the original face shape, a shape parameter determining unit that identifies the shape parameter corresponding to the eye state in the captured image by changing the shape parameter, Whether or not the eye opening degree calculation unit that calculates the eye opening degree indicating the eye opening state in the captured image, and whether or not the specified shape parameter indicates the state of the fine eye even when the eye opening degree indicates the eye closing state Base Te, with a, and open-eye or closed-eye determination unit which determines the opening and closing the eyes of the driver. With the configuration described above, erroneous determination can be avoided and the driver's opening / closing eye can be determined more accurately.

また、本発明の開閉眼判定装置において、前記細目の状態は、笑顔の状態を含み、前記開閉眼判定部は、前記開眼度が閉眼状態を示す範囲内であるか否かを判断し、前記開眼度が閉眼状態を示す範囲内である場合に、特定された前記形状パラメータが笑顔を示す範囲内にあるか否かを判定し、前記形状パラメータが笑顔を示す範囲内である場合に、前記運転者は開眼状態であると判定する。上記構成により、誤判断を回避して、より正確に運転者の開眼を判断することができる。   Further, in the open / closed eye determination device according to the present invention, the detailed state includes a smile state, and the open / closed eye determination unit determines whether or not the eye opening degree is within a range indicating the closed eye state, When the eye opening degree is within a range indicating a closed eye state, it is determined whether or not the specified shape parameter is within a range indicating a smile, and when the shape parameter is within a range indicating a smile, The driver determines that the eye is open. With the above-described configuration, it is possible to avoid erroneous determination and determine the driver's eyes more accurately.

また、本発明の開閉眼判定装置において、前記開閉眼判定部は、前記開眼度が閉眼を示す範囲内である場合であって、特定された前記形状パラメータが笑顔を示す範囲外である場合には、前記運転者は閉眼状態であると判定する。上記構成により、誤判断を回避して、より正確に運転者の閉眼を判断することができる。   In the open / closed eye determination device of the present invention, the open / closed eye determination unit may be configured such that the degree of eye opening is within a range indicating a closed eye, and the specified shape parameter is outside a range indicating a smile. Determines that the driver is in an eye-closed state. With the above configuration, erroneous determination can be avoided and the driver's eyes can be determined more accurately.

また、本発明の開閉眼判定装置は、前記運転者が閉眼状態であると判定された場合には、前記運転者に警告を促す動作を行う処理部をさらに備えた。上記構成により、運転者の居眠り運転を防止することができる。   In addition, the open / closed eye determination device of the present invention further includes a processing unit that performs an operation of prompting the driver to warn when it is determined that the driver is in an eye-closed state. With the above configuration, the driver can be prevented from falling asleep.

また、本発明の開閉眼判定装置は、前記被験者の撮像画像に基づいて、前記三次元顔形状と前記目の位置とを含む三次元顔構造データと、前記目の形状の変化の状態と前記形状パラメータとが対応付けられた前記変化情報と、を求める計測部と、計測された前記三次元顔構造データと前記変化情報とを、前記三次元顔モデルとして前記記憶部に登録するモデル生成部と、をさらに備えた。上記構成により、誤判断を回避して、より正確に運転者の開閉眼を判断することができる。   Further, the open / closed eye determination device of the present invention is based on the captured image of the subject, the three-dimensional face structure data including the three-dimensional face shape and the eye position, the state of the eye shape change, and the A measurement unit that obtains the change information associated with a shape parameter; and a model generation unit that registers the measured three-dimensional face structure data and the change information in the storage unit as the three-dimensional face model. And further provided. With the configuration described above, erroneous determination can be avoided and the driver's opening / closing eye can be determined more accurately.

また、本発明の開閉眼判定方法は、開閉眼判定装置で実行される開眼判定方法であって、開閉眼判定装置で実行される開眼判定方法であって、前記開閉眼判定装置は、被験者の三次元顔形状と、被験者の目の位置と、前記目の標準の状態から前記顔の表情変化に伴い前記目を細くする細目の状態までの前記目の形状の変化の状態と形状パラメータとが対応付けられた変化情報とが登録された三次元顔モデルを記憶する記憶部、を備え、撮像装置で撮像された運転者の撮像画像を、前記三次元顔形状と照合して、前記目の位置を特定し、前記形状パラメータを変化させて、前記撮像画像における前記目の状態に対応する形状パラメータを特定し、前記撮像画像における前記目の開眼状態を示す開眼度を算出し、前記開眼度が閉眼状態を示す場合においても、特定された前記形状パラメータが前記細目の状態を示すか否かに基づいて、前記運転者の開閉眼を判定する。上記構成により、誤判断を回避して、より正確に運転者の開閉眼を判断することができる。   The opening / closing eye determination method of the present invention is an eye opening determination method executed by an opening / closing eye determination device, and is an eye opening determination method executed by an opening / closing eye determination device, wherein the opening / closing eye determination device The three-dimensional face shape, the eye position of the subject, the state of the eye shape change from the standard state of the eye to the state of narrowing the eye with the facial expression change, and the shape parameters A storage unit that stores a three-dimensional face model in which the associated change information is registered, and compares the captured image of the driver imaged by the imaging device with the three-dimensional face shape, Specifying a position, changing the shape parameter, specifying a shape parameter corresponding to the eye state in the captured image, calculating an eye opening degree indicating the eye opening state in the captured image, and calculating the eye opening degree Indicates a closed eye condition Oite also the shape parameters identified based on whether shows the state of the minutia, and determines the opening and closing the eyes of the driver. With the configuration described above, erroneous determination can be avoided and the driver's opening / closing eye can be determined more accurately.

図1は、本実施形態にかかる車両の車室の一部が透視された状態が示された斜視図である。FIG. 1 is a perspective view showing a state in which a part of a compartment of a vehicle according to the present embodiment is seen through. 図2は、本実施形態にかかる撮像装置の配置の一例を示す図である。FIG. 2 is a diagram illustrating an example of the arrangement of the imaging devices according to the present embodiment. 図3は、本実施形態にかかる開閉眼判定システムの一例を示すブロック図である。FIG. 3 is a block diagram illustrating an example of an open / closed eye determination system according to the present embodiment. 図4は、本実施形態のECUの機能的構成を示すブロック図である。FIG. 4 is a block diagram showing a functional configuration of the ECU of the present embodiment. 図5は、本実施形態の三次元顔モデルの一例を説明するための模式図である。FIG. 5 is a schematic diagram for explaining an example of the three-dimensional face model of the present embodiment. 図6は、本実施形態の三次元顔モデルに登録された変化情報の一例を示す模式図である。FIG. 6 is a schematic diagram illustrating an example of change information registered in the three-dimensional face model of the present embodiment. 図7は、本実施形態における三次元顔モデルの生成処理の手順の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a procedure for generating a three-dimensional face model in the present embodiment. 図8は、本実施形態にかかる開閉眼判定処理の手順の一例を示すフローチャートである。FIG. 8 is a flowchart illustrating an example of the procedure of the open / closed eye determination process according to the present embodiment. 図9は、本実施形態における三次元顔モデルにおける顔のモデルMについて作成されるテンプレートTを示す模式図である。FIG. 9 is a schematic diagram showing a template T created for the face model M in the three-dimensional face model in the present embodiment.

以下、本実施形態の開閉眼判定装置を車両1に搭載した例をあげて説明する。   Hereinafter, an example in which the open / closed eye determination device of the present embodiment is mounted on the vehicle 1 will be described.

本実施形態では、車両1は、例えば、内燃機関(エンジン、図示されず)を駆動源とする自動車(内燃機関自動車)であってもよいし、電動機(モータ、不図示)を駆動源とする自動車(電気自動車、燃料電池自動車等)であってもよいし、それらの双方を駆動源とする自動車(ハイブリッド自動車)であってもよい。また、車両1は、種々の変速装置を搭載することができるし、内燃機関や電動機を駆動するのに必要な種々の装置(システム、部品等)を搭載することができる。また、車両1における車輪3の駆動に関わる装置の方式や、数、レイアウト等は、種々に設定することができる。   In the present embodiment, the vehicle 1 may be, for example, an automobile (an internal combustion engine automobile) using an internal combustion engine (engine, not shown) as a drive source, or an electric motor (motor, not shown) as a drive source. The vehicle may be an automobile (electric vehicle, fuel cell vehicle, etc.), or an automobile (hybrid vehicle) using both of them as drive sources. The vehicle 1 can be mounted with various transmissions, and various devices (systems, components, etc.) necessary for driving the internal combustion engine and the electric motor. In addition, the method, number, layout, and the like of the device related to driving of the wheels 3 in the vehicle 1 can be variously set.

図1に示されるように、車両1の車体2は、運転者(不図示)が乗車する車室2aを構成している。車室2a内には、乗員としての運転者の座席2bに臨む状態で、操舵部4等が設けられている。本実施形態では、一例として、操舵部4は、ダッシュボード(インストルメントパネル)12から突出したステアリングホイールである。   As shown in FIG. 1, the vehicle body 2 of the vehicle 1 constitutes a passenger compartment 2a in which a driver (not shown) gets. A steering section 4 and the like are provided in the passenger compartment 2a so as to face the driver's seat 2b as a passenger. In the present embodiment, as an example, the steering unit 4 is a steering wheel that protrudes from a dashboard (instrument panel) 12.

また、図1に示されるように、本実施形態では、一例として、車両1は、四輪車(四輪自動車)であり、左右二つの前輪3Fと、左右二つの後輪3Rとを有する。さらに、本実施形態では、これら四つの車輪3は、いずれも操舵されうるように(転舵可能に)構成されている。   As shown in FIG. 1, in the present embodiment, as an example, the vehicle 1 is a four-wheeled vehicle (four-wheeled vehicle), and includes two left and right front wheels 3F and two right and left rear wheels 3R. Furthermore, in the present embodiment, these four wheels 3 are configured so that any of them can be steered (turnable).

また、車室2a内のダッシュボード12の車幅方向すなわち左右方向の中央部には、モニタ装置11が設けられている。モニタ装置11には、表示装置や音声出力装置が設けられている。表示装置は、例えば、LCD(Liquid Crystal Display)や、OELD(Organic Electroluminescent Display)等である。音声出力装置は、例えば、スピーカである。また、表示装置は、例えば、タッチパネル等、透明な操作入力部で覆われている。乗員は、操作入力部を介して表示装置の表示画面に表示される画像を視認することができる。また、乗員は、表示装置の表示画面に表示される画像に対応した位置において手指等で操作入力部を触れたり押したり動かしたりして操作することで、操作入力を実行することができる。   Further, a monitor device 11 is provided in the vehicle width direction of the dashboard 12 in the passenger compartment 2a, that is, in the center in the left-right direction. The monitor device 11 is provided with a display device and an audio output device. The display device is, for example, an LCD (Liquid Crystal Display), an OELD (Organic Electroluminescent Display), or the like. The audio output device is, for example, a speaker. The display device is covered with a transparent operation input unit such as a touch panel, for example. The occupant can visually recognize an image displayed on the display screen of the display device via the operation input unit. In addition, the occupant can execute an operation input by operating the operation input unit by touching, pushing, or moving the operation input unit with a finger or the like at a position corresponding to the image displayed on the display screen of the display device.

また、図2に示すように、ハンドルコラム202には、撮像装置201が設置されている。この撮像装置201は、例えば、CCD(Charge Coupled Device)カメラ等である。撮像装置201は、座席2bに着座する運転者302の顔が、視野中心に位置するように、視野角及び姿勢が調整されている。この撮像装置201は、運転者302の顔を順次撮影し、撮影により得た画像についての画像データを順次出力する。   As shown in FIG. 2, an imaging device 201 is installed in the handle column 202. The imaging device 201 is, for example, a CCD (Charge Coupled Device) camera or the like. In the imaging apparatus 201, the viewing angle and the posture are adjusted so that the face of the driver 302 sitting on the seat 2b is positioned at the center of the visual field. The imaging device 201 sequentially captures the face of the driver 302 and sequentially outputs image data regarding images obtained by the capturing.

次に、本実施形態にかかる車両1における開閉眼判定装置を有する開閉眼判定システムについて説明する。図3は、本実施形態にかかる開閉眼判定システム100の構成の一例を示すブロック図である。図3に例示されるように、開閉眼判定システム100では、ECU14や、モニタ装置11、操舵システム13、測距部16,17等の他、ブレーキシステム18、舵角センサ19、アクセルセンサ20、シフトセンサ21、車輪速センサ22等が、電気通信回線としての車内ネットワーク23を介して電気的に接続されている。車内ネットワーク23は、例えば、CAN(Controller Area Network)として構成されている。ECU14は、車内ネットワーク23を通じて制御信号を送ることで、操舵システム13、ブレーキシステム18等を制御することができる。また、ECU14は、車内ネットワーク23を介して、トルクセンサ13b、ブレーキセンサ18b、舵角センサ19、測距部16、測距部17、アクセルセンサ20、シフトセンサ21、車輪速センサ22等の検出結果や、操作入力部等の操作信号等を、受け取ることができる。ここで、ECU14は、開閉眼判定装置の一例である。   Next, an open / close eye determination system having the open / close eye determination device in the vehicle 1 according to the present embodiment will be described. FIG. 3 is a block diagram illustrating an example of the configuration of the open / closed eye determination system 100 according to the present embodiment. As illustrated in FIG. 3, in the open / close eye determination system 100, in addition to the ECU 14, the monitor device 11, the steering system 13, the distance measuring units 16 and 17, the brake system 18, the steering angle sensor 19, the accelerator sensor 20, A shift sensor 21, a wheel speed sensor 22, and the like are electrically connected via an in-vehicle network 23 as an electric communication line. The in-vehicle network 23 is configured, for example, as a CAN (Controller Area Network). The ECU 14 can control the steering system 13, the brake system 18, and the like by sending a control signal through the in-vehicle network 23. Further, the ECU 14 detects the torque sensor 13b, the brake sensor 18b, the rudder angle sensor 19, the distance measuring unit 16, the distance measuring unit 17, the accelerator sensor 20, the shift sensor 21, the wheel speed sensor 22, and the like via the in-vehicle network 23. Results, operation signals from the operation input unit, and the like can be received. Here, the ECU 14 is an example of an open / closed eye determination device.

ECU14は、例えば、CPU14a(Central Processing Unit)や、ROM14b(Read Only Memory)、RAM14c(Random Access Memory)、表示制御部14d、音声制御部14e、SSD14f(Solid State Drive、フラッシュメモリ)等を有している。CPU14aは、車両1全体の制御を行う。CPU14aは、ROM14b等の不揮発性の記憶装置にインストールされ、記憶されたプログラムを読み出し、当該プログラムにしたがって演算処理を実行できる。RAM14cは、CPU14aでの演算で用いられる各種のデータを一時的に記憶する。また、表示制御部14dは、ECU14での演算処理のうち、主として、撮像部15で得られた画像データを用いた画像処理や、表示装置で表示される画像データの合成等を実行する。また、音声制御部14eは、ECU14での演算処理のうち、主として、音声出力装置で出力される音声データの処理を実行する。また、SSD14fは、書き換え可能な不揮発性の記憶部であって、ECU14の電源がオフされた場合にあってもデータを記憶することができる。なお、CPU14aや、ROM14b、RAM14c等は、同一パッケージ内に集積されうる。また、ECU14は、CPU14aに替えて、DSP(Digital Signal Processor)等の他の論理演算プロセッサや論理回路等が用いられる構成であってもよい。また、SSD14fに替えてHDD(Hard Disk Drive)が設けられてもよいし、SSD14fやHDDは、ECU14とは別に設けられてもよい。   The ECU 14 includes, for example, a CPU 14a (Central Processing Unit), a ROM 14b (Read Only Memory), a RAM 14c (Random Access Memory), a display control unit 14d, an audio control unit 14e, an SSD 14f (Solid State Drive), a flash memory, and the like. ing. The CPU 14a controls the entire vehicle 1. The CPU 14a is installed in a non-volatile storage device such as the ROM 14b, can read the stored program, and can execute arithmetic processing according to the program. The RAM 14c temporarily stores various types of data used in computations by the CPU 14a. The display control unit 14d mainly executes image processing using the image data obtained by the imaging unit 15, synthesis of image data displayed on the display device, etc., among the arithmetic processing in the ECU 14. In addition, the voice control unit 14e mainly performs processing of voice data output from the voice output device among the calculation processes in the ECU 14. The SSD 14f is a rewritable nonvolatile storage unit that can store data even when the ECU 14 is powered off. The CPU 14a, the ROM 14b, the RAM 14c, and the like can be integrated in the same package. Further, the ECU 14 may have a configuration in which another logical operation processor such as a DSP (Digital Signal Processor), a logical circuit, or the like is used instead of the CPU 14a. Further, an HDD (Hard Disk Drive) may be provided instead of the SSD 14f, and the SSD 14f and the HDD may be provided separately from the ECU 14.

なお、上述した各種センサやアクチュエータの構成や、配置、電気的な接続形態等は、一例であって、種々に設定(変更)することができる。   The configuration, arrangement, electrical connection form, and the like of the various sensors and actuators described above are examples, and can be set (changed) in various ways.

図4は、本実施形態のECU14の機能的構成を示すブロック図である。図4に示されるように、ECU14は、入力部401と、顔データ計測部402と、モデル生成部403と、照合部404と、形状パラメータ判定部405と、開眼度算出部406と、開閉眼判定部407と、処理部408と、三次元顔モデル410とを主に備えている。図4に示される、三次元顔モデル410を除く各構成は、ECU14として構成されたCPU14aが、ROM14b内に格納されたプログラムを実行することで実現される。なお、これらの構成をハードウェアで実現するように構成しても良い。   FIG. 4 is a block diagram showing a functional configuration of the ECU 14 of the present embodiment. As shown in FIG. 4, the ECU 14 includes an input unit 401, a face data measurement unit 402, a model generation unit 403, a collation unit 404, a shape parameter determination unit 405, an eye opening degree calculation unit 406, and an open / closed eye A determination unit 407, a processing unit 408, and a three-dimensional face model 410 are mainly provided. Each configuration excluding the three-dimensional face model 410 shown in FIG. 4 is realized by the CPU 14a configured as the ECU 14 executing a program stored in the ROM 14b. Note that these configurations may be realized by hardware.

三次元顔モデル410は、SSD14f等の記憶媒体に保存されている。三次元顔モデル410は、統計的顔形状モデルであり、平均的な被験者の三次元顔形状と、被験者の目や口、鼻等の顔部品の位置と、被験者の目の形状の変化情報とが登録されている。三次元顔モデル410は、一例として、CLM(Constrained Local Model),AAM(Active Appearance Model),ASM(Active Shape Model)を用いることができるが、これらに限定されるものではない。   The three-dimensional face model 410 is stored in a storage medium such as the SSD 14f. The three-dimensional face model 410 is a statistical face shape model. The average three-dimensional face shape of the subject, the positions of the facial parts such as the subject's eyes, mouth, and nose, and the change information of the subject's eye shape, Is registered. As an example, the 3D face model 410 may use CLM (Constrained Local Model), AAM (Active Appearance Model), or ASM (Active Shape Model), but is not limited thereto.

本実施形態のECU14は、この三次元顔モデル410を用いて、運転者の顔をトラッキングしながら、運転者の顔の向きと運転者の目の位置を検出し、運転者の上下瞼間の距離である開眼度を求め、目の形状に対応した形状パラメータを特定し、開眼度と形状パラメータに基づいて、運転者が笑顔等の顔の表情変化に伴い前記目を細くする細目の状態であるか否か、開眼しているか否かを判定している。詳細について以下説明する。   The ECU 14 of the present embodiment uses the three-dimensional face model 410 to detect the direction of the driver's face and the position of the driver's eyes while tracking the driver's face. The eye opening degree, which is the distance, is determined, the shape parameter corresponding to the eye shape is specified, and the driver narrows the eye according to the facial expression change such as a smile based on the eye opening degree and the shape parameter. It is determined whether or not there is an eye open. Details will be described below.

図5は、本実施形態の三次元顔モデル410の一例を説明するための模式図である。図5では、例示的な顔のモデルMを示している。モデルMは、例えば100人の被験者から得られた顔形状から平均的な顔の立体的形状を示し、それぞれ所定の顔部品を表す複数の特徴点Pを含んでいる。特徴点Pは、任意の点を原点とした座標により表される。図5に示す例では、眉、目、鼻、口および輪郭を表す特徴点Pを示しているが、モデルMは図5に示したものとは異なる特徴点Pを含んでもよい。   FIG. 5 is a schematic diagram for explaining an example of the three-dimensional face model 410 of the present embodiment. In FIG. 5, an exemplary facial model M is shown. The model M shows a three-dimensional shape of an average face from face shapes obtained from 100 subjects, for example, and includes a plurality of feature points P each representing a predetermined face part. The feature point P is represented by coordinates with an arbitrary point as the origin. In the example shown in FIG. 5, feature points P representing the eyebrows, eyes, nose, mouth, and contour are shown, but the model M may include feature points P different from those shown in FIG. 5.

三次元顔モデル410には、さらに、変化情報が登録されている。変化情報は、運転者の顔の表情や動作の変化に伴う運転者の目の形状の段階的な変化と、段階ごとの形状パラメータとが対応付けられたデータである。具体的には、変化状態として、顔が無表情で正面を向いて目が開いている状態を標準の状態とし、この標準の状態から表情が変化して笑顔になるまでの目の形状の段階的な変化、標準の状態から目を閉じるまでの目の形状の段階的な変化、標準の状態から下を向く(下方視)までの目の形状の段階的な変化等の各状態が形状パラメータと対応付けられて三次元顔モデル410に登録されている。ここで、笑顔が顔の表情変化に伴って目が細くなる細目状態の一例である。   Further, change information is registered in the three-dimensional face model 410. The change information is data in which a step change in the shape of the driver's eyes associated with a change in the facial expression or movement of the driver is associated with a shape parameter for each step. Specifically, as a change state, the standard state is a state in which the face is faceless and the front faces and the eyes are open, and the stage of the shape of the eye from this standard state until the expression changes and smiles Shape parameters such as gradual changes, gradual changes in eye shape from normal to closed eyes, and gradual changes in eye shape from standard to downward (downward view) Are registered in the three-dimensional face model 410. Here, the smile is an example of a fine state in which the eyes become narrower as the facial expression changes.

図6は、本実施形態の三次元顔モデル410に登録された変化情報の一例を示す模式図である。図6に示す例では、標準の目の状態から目を閉じるまでの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ1と対応付けられている。また、標準の目の状態から笑顔になるまでの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ2と対応付けられている。さらに、標準の目の状態から下方視までの目の形状の段階的な変化が段階ごとに異なる値をとる形状パラメータ3と対応付けられている。それぞれの形状パラメータ1,2,3は、いずれも標準の目の状態から変化後の目の形状の状態に向かうに従って、値が段階的に小さくなる。   FIG. 6 is a schematic diagram illustrating an example of change information registered in the three-dimensional face model 410 of the present embodiment. In the example shown in FIG. 6, the stepwise change in the shape of the eye from the standard eye state to the closing of the eye is associated with the shape parameter 1 that takes a different value for each step. Further, the stepwise change in the shape of the eye from the standard eye state to the smile is associated with the shape parameter 2 that takes a different value for each step. Further, a stepwise change in the shape of the eye from the standard eye state to the downward view is associated with a shape parameter 3 having a different value for each step. Each of the shape parameters 1, 2, 3 decreases in a stepwise manner from the standard eye state toward the changed eye shape state.

但し、これに限定されるものではなく、変化後の状態に向かうに従って、値が大きくなるように形状パラメータを構成してもよい。または、変化の種類に応じて、値が大きくなったり小さくなったり等異なる変化となるように、形状パラメータを構成してもよい。   However, the present invention is not limited to this, and the shape parameter may be configured so that the value increases as the state changes. Alternatively, the shape parameter may be configured so as to change differently depending on the type of change, such as a value increasing or decreasing.

なお、変化情報として登録される目の形状の変化は、図6に示す例に限定されるものではなく、他に、標準の目の状態からあくびをしたときまでの目の形状の段階的な変化、標準の目の状態から目を凝らす状態までの目の形状の段階的な変化、標準の目の状態から目を見開いた状態までの目の形状の段階的な変化を、段階ごとに形状パラメータと対応付けて三次元顔モデル410に登録するように構成することができる。   The change in the shape of the eye registered as the change information is not limited to the example shown in FIG. 6. In addition, the eye shape is gradually changed from the standard eye state until yawning. Changes, step-by-step changes in eye shape from standard eye condition to eye-closed state, and step-by-step changes in eye shape from standard eye state to eye-open state It can be configured to be registered in the three-dimensional face model 410 in association with the parameter.

三次元顔モデル410の生成は、図4に示す、入力部401、顔データ計測部402、モデル生成部403により、以下のように行われる。図7は、本実施形態における三次元顔モデル410の生成処理の手順の一例を示すフローチャートである。   The generation of the three-dimensional face model 410 is performed as follows by the input unit 401, the face data measurement unit 402, and the model generation unit 403 shown in FIG. FIG. 7 is a flowchart illustrating an example of a procedure for generating the three-dimensional face model 410 according to this embodiment.

まず、管理者等は、3Dスキャナ等で例えば100人の被験者の顔を撮像する(S11)。また、S11では、上記多数の被験者のそれぞれに対し、標準の顔の状態から、笑顔や、目を閉じた状態、下向きの状態等の種々の変化の動作を行わせて、3Dスキャナ等で撮像する。なお、被験者の人数は100人に限定されるものではない。   First, the administrator or the like images the faces of, for example, 100 subjects with a 3D scanner or the like (S11). In S11, each of the large number of subjects is imaged by a 3D scanner or the like by performing various changing operations such as a standard face state, a smile, a closed eye state, and a downward state. To do. Note that the number of subjects is not limited to 100.

入力部401は、かかる撮像画像を入力する。そして、顔データ計測部402は、入力された撮像画像から、複数人の被験者の顔形状、目や口等の顔部品の特徴点を抽出して、平均的な顔形状、顔部品の位置等の三次元顔構造データを計測する(S12)。ここで、顔データ計測部402は、計測部の一例である。   The input unit 401 inputs such captured images. Then, the face data measurement unit 402 extracts facial features of a plurality of subjects, feature points of facial parts such as eyes and mouths from the input captured image, and calculates an average facial shape, position of facial parts, etc. Is measured (S12). Here, the face data measurement unit 402 is an example of a measurement unit.

さらに、S12では、顔データ計測部402は、S11で撮像した被験者の種々の変化の動作の撮像画像から、例えば、非特許文献「Active Appearance Model 探索による目領域構造の自動抽出 森山 剛 金出 武雄 Jeffrey F. Cohn 小沢 慎治『画像の認識・理解シンポジウム(MIRU2006)』」に示されるような三次元顔モデル作成の手順に従って、主成分分析等の統計的データ解析手法により、目の形状の段階的な変化の状態に対応する形状パラメータを抽出する。   Further, in S12, the face data measurement unit 402, for example, from the captured images of the various changes of the subject imaged in S11, for example, non-patent document “Automatic eye region structure search by Active Appearance Model search Takeshi Moriyama Takeo Kanade Jeffrey F. Cohn Shinji Ozawa “Symposium on Recognition and Understanding of Images (MIRU2006)” in accordance with the procedure for creating a three-dimensional face model, using a statistical data analysis method such as principal component analysis to step the shape of the eye Shape parameters corresponding to the state of various changes are extracted.

具体的には、撮像画像中の目の輪郭を構成する各点の座標を並べたベクトルをxで表すと、xは形状を表す。顔データ計測部402は、これを標準の目の状態から変化後の状態までの全ての撮像画像について平均し、平均形状xavを求める。顔データ計測部402は、標準の目の状態から変化後の状態までの各xのxavとの偏差を主成分分析して、固有ベクトルPsを求める。このとき、xは次の(1)式で表される。 Specifically, when a vector in which the coordinates of each point constituting the outline of the eye in the captured image are arranged is represented by x, x represents the shape. The face data measurement unit 402 averages all the captured images from the standard eye state to the changed state to obtain an average shape x av . The face data measurement unit 402 performs principal component analysis on the deviation of each x from x av from the standard eye state to the changed state to obtain an eigenvector P s . At this time, x is expressed by the following equation (1).

x=xav+Pss・・・(1)
ここで、bsは主成分得点ベクトルであり、これを形状パラメータと呼ぶ。すなわち、顔データ計測部402は、(1)式から形状パラメータbsを求める。
x = x av + P s b s (1)
Here, b s is a principal component score vector, which is called a shape parameter. That is, the face data measuring unit 402 obtains the shape parameter b s from the equation (1).

そして、顔データ計測部402は、目の形状の段階的な変化の状態と形状パラメータとを対応付けて図6に示したような変化情報を生成する。   Then, the face data measuring unit 402 generates change information as illustrated in FIG. 6 by associating the state of the step change of the eye shape with the shape parameter.

モデル生成部403は、計測された三次元顔構造データである平均的な顔形状、顔部品の位置、および上記変化情報を、三次元顔モデル410として生成する(S13)。これにより、平均的な顔のモデルが三次元顔モデル410に登録されて生成されることになる。   The model generation unit 403 generates an average face shape, which is measured 3D face structure data, the position of the face part, and the change information as the 3D face model 410 (S13). As a result, an average face model is registered and generated in the three-dimensional face model 410.

次に、本実施形態の開閉眼判定処理について説明する。図8は、本実施形態にかかる開閉眼判定処理の手順の一例を示すフローチャートである。まず、撮像装置201が運転者の顔を撮像する(S31)。撮像は一定時間間隔で周期的に行われる。撮像された運転者の撮像画像は、照合部404へ入力される。   Next, the opening / closing eye determination process of this embodiment will be described. FIG. 8 is a flowchart illustrating an example of the procedure of the open / closed eye determination process according to the present embodiment. First, the imaging device 201 images the driver's face (S31). Imaging is performed periodically at regular time intervals. The captured image of the driver is input to the verification unit 404.

照合部404は、運転者の二次元の撮像画像と、三次元顔モデル410を構成する三次元顔構造データに適合させる(S32)。すなわち、照合部404は、モデルフィッティングとモデルのトラッキングを行う。これにより、照合部404は、運転者の顔の向きを特定(推定)し、さらに、三次元顔モデル410上での目の位置の検索を行い特定(推定)する。   The matching unit 404 matches the two-dimensional captured image of the driver with the three-dimensional face structure data constituting the three-dimensional face model 410 (S32). That is, the matching unit 404 performs model fitting and model tracking. As a result, the matching unit 404 identifies (estimates) the direction of the driver's face, and further searches for and identifies (estimates) the eye position on the three-dimensional face model 410.

ここで、本実施形態において、モデルフィッティングは、統計的顔形状モデルである三次元顔モデル410に図7の手順で作成された平均的な顔のモデルを初期状態として用い、該モデルの特徴点Pを撮像画像の顔の各部分に位置させることによって、該顔に近似したモデルMを生成する。   Here, in the present embodiment, model fitting uses an average face model created by the procedure of FIG. 7 as an initial state for a three-dimensional face model 410 that is a statistical face shape model, and features of the model. By placing P at each part of the face of the captured image, a model M that approximates the face is generated.

また、本実施形態において、モデルのトラッキングでは、モデルフィッティングにおいてモデルMが生成された後に、S31で周期的に撮像される運転者の撮像画像中の顔に合うようにモデルMを継続的に適合させる。本実施形態では、テンプレートを用いることによってモデルのトラッキングを行っている。   In the present embodiment, in model tracking, after the model M is generated in model fitting, the model M is continuously adapted to match the face in the driver's captured image that is periodically imaged in S31. Let In this embodiment, the model is tracked by using a template.

図9は、本実施形態における三次元顔モデル410における顔のモデルMについて作成されるテンプレートTを示す模式図である。テンプレートTは、画像中のモデルMの特徴点Pを含む所定範囲の領域を有する。例えば、テンプレートTは、眉を表す特徴点Pを含む領域、目を表す特徴点Pを含む領域、鼻を表す特徴点Pを含む領域、口を表す特徴点Pを含む領域および輪郭を表す特徴点Pを含む領域を有する。テンプレートTの各領域は、1または2以上の特徴点Pと対応しており、該特徴点Pの座標と紐付けられている。すなわち、テンプレートTが有する領域の画像中の位置が決まれば、該領域に対応する特徴点Pの座標を算出することができる。   FIG. 9 is a schematic diagram showing a template T created for a face model M in the three-dimensional face model 410 in the present embodiment. The template T has a predetermined area including the feature point P of the model M in the image. For example, the template T includes a region including a feature point P representing an eyebrow, a region including a feature point P representing an eye, a region including a feature point P representing a nose, a region including a feature point P representing a mouth, and a feature representing a contour. A region including the point P is included. Each region of the template T corresponds to one or more feature points P and is associated with the coordinates of the feature points P. That is, if the position of the area of the template T in the image is determined, the coordinates of the feature point P corresponding to the area can be calculated.

本実施形態に係るモデルのトラッキングでは、テンプレートTが有する各領域の画像中の位置を決定し、該各領域の位置を用いてモデルMの該画像中の角度、位置および大きさを決定する。そして、モデルMに対してこれらの決定された角度、位置および大きさを適用することによって、モデルMを該画像に適合させることができる。テンプレートTが有する領域の位置および数は、モデルのトラッキングが可能である限り任意に選択され得る。   In the tracking of the model according to the present embodiment, the position of each area of the template T in the image is determined, and the angle, position, and size of the model M in the image are determined using the position of each area. Then, by applying these determined angles, positions and sizes to the model M, the model M can be adapted to the image. The position and number of regions of the template T can be arbitrarily selected as long as the model can be tracked.

図8に戻り、S32により適合された三次元顔モデルにより、目の位置が特定されるため、形状パラメータ判定部405は、三次元眼モデルを作成する。そして、形状パラメータ判定部405は、二次元の撮像画像を三次元眼モデルに適合させる(S33)。すなわち、形状パラメータ判定部405は、形状パラメータを変化させ、形状パラメータに対応する目の形状と撮像画像の目の形状とを照合する。形状パラメータ判定部405は、撮像画像中の目の形状に対応する形状パラメータを三次元顔モデル410から特定する。   Returning to FIG. 8, since the position of the eye is specified by the three-dimensional face model adapted in S32, the shape parameter determination unit 405 creates a three-dimensional eye model. Then, the shape parameter determination unit 405 adapts the two-dimensional captured image to the three-dimensional eye model (S33). That is, the shape parameter determination unit 405 changes the shape parameter, and collates the eye shape corresponding to the shape parameter with the eye shape of the captured image. The shape parameter determination unit 405 specifies a shape parameter corresponding to the shape of the eye in the captured image from the three-dimensional face model 410.

次に、開眼度算出部406は、撮像画像における運転者の開眼度を算出する(S34)。開眼度は、運転者の開眼の状態を示すものであり、本実施形態では、上下瞼間の距離である。開眼度算出部406による開眼度の算出手法としては、撮像画像の画素から算出する等の公知の手法を用いる。なお、本実施形態では、開眼度として上下瞼間の距離を用いているが、開眼の状態を示すものであれば、これに限定されるものではない。   Next, the eye opening degree calculation unit 406 calculates the eye opening degree of the driver in the captured image (S34). The degree of eye opening indicates the state of eye opening of the driver, and in the present embodiment, is the distance between the upper and lower eyelids. As a method for calculating the degree of eye opening by the eye opening degree calculation unit 406, a known method such as calculation from pixels of a captured image is used. In the present embodiment, the distance between the upper and lower eyelids is used as the eye opening degree, but the present invention is not limited to this as long as the eye opening state is indicated.

開閉眼判定部407は、S33で特定された形状パラメータと、S34で算出された開眼度とに基づいて、運転者が開眼の状態か閉眼の状態かを判定する。具体的には、以下の処理が行われる。   The open / close eye determination unit 407 determines whether the driver is in an open state or a closed eye state based on the shape parameter specified in S33 and the eye opening degree calculated in S34. Specifically, the following processing is performed.

開閉眼判定部407は、S34で算出された開眼度が、所定の閉閾値以下であるか否かを判断する(S35)。ここで、閉閾値は、目が閉じている状態を示す最大の上下瞼間距離である。従って、開眼度が閉閾値以下であることは、目が閉じている可能性があることを意味する。閉閾値は予め定められており、ROM14bやSSD14f等に記憶されている。   The open / close eye determination unit 407 determines whether or not the eye opening degree calculated in S34 is equal to or less than a predetermined closing threshold (S35). Here, the closing threshold is the maximum distance between the upper and lower eyelids that indicates a state in which the eyes are closed. Therefore, the eye opening degree being equal to or smaller than the closing threshold means that the eyes may be closed. The closing threshold is predetermined and stored in the ROM 14b, the SSD 14f, or the like.

開眼度が閉閾値より大きい場合には(S35:No)、開閉眼判定部407は、運転者の目は開眼の状態であると判断する(S38)。そして、処理は終了する。   When the degree of eye opening is larger than the closing threshold (S35: No), the open / close eye determination unit 407 determines that the driver's eyes are in an open state (S38). Then, the process ends.

一方、S35で、開眼度が閉閾値以下である場合には(S35:Yes)、開閉眼判定部407は、S33で特定された形状パラメータが所定の笑顔閾値以下であるか否かを判断する(S36)。ここで、笑顔閾値は、笑顔のときの目の形状の形状パラメータの最大値である。従って、形状パラメータが笑顔閾値以下の範囲である場合には、目の形状が笑顔のときの目の形状の範囲であることを意味する。笑顔閾値は予め定められており、ROM14bやSSD14f等に記憶されている。なお、笑顔閾値は、個人毎に定められるものであってもよい。また、状況に応じて笑顔閾値を変化させるように構成してもよい。   On the other hand, when the eye opening degree is equal to or smaller than the closing threshold value in S35 (S35: Yes), the open / closed eye determination unit 407 determines whether or not the shape parameter specified in S33 is equal to or smaller than the predetermined smile threshold value. (S36). Here, the smile threshold value is the maximum value of the shape parameter of the eye shape when smiling. Therefore, when the shape parameter is in the range equal to or smaller than the smile threshold, it means that the eye shape is the range of the eye shape when smiling. The smile threshold is determined in advance and stored in the ROM 14b, the SSD 14f, or the like. Note that the smile threshold value may be determined for each individual. Moreover, you may comprise so that a smile threshold value may be changed according to a condition.

なお、本実施形態では、形状パラメータが笑顔閾値以下の場合に目の形状が笑顔の範囲としているが、これは、図6を用いて上述したとおり、標準の目の形状が笑顔に近づくに従って、本実施形態の形状パラメータが小さくなるように設定されているからである。従って、形状パラメータの設定の仕方によっては、笑顔の範囲の境界となる笑顔閾値の定め方は異なってくる。   In the present embodiment, when the shape parameter is equal to or smaller than the smile threshold, the eye shape is set as the smile range, but as described above with reference to FIG. 6, as the standard eye shape approaches the smile, This is because the shape parameter of the present embodiment is set to be small. Therefore, depending on how the shape parameter is set, the method of determining the smile threshold value that becomes the boundary of the smile range differs.

S36で、形状パラメータが笑顔閾値以下の場合には(S36:Yes)、開閉眼判定部407は、運転者は笑顔であると判断する(S40)。すなわち、S35の判断で、開眼度は閉閾値以下で上下瞼間の距離は小さいが、形状パラメータは笑顔の範囲内にあるため、開閉眼判定部407は、運転者は笑顔のため上下瞼間の距離が小さくなっているのであり、開眼の状態であると判断するのである。これにより、より正確に運転者の笑顔および開眼状態を検出することができる。そして、処理は終了する。   If the shape parameter is equal to or smaller than the smile threshold value in S36 (S36: Yes), the open / close eye determination unit 407 determines that the driver is smiling (S40). That is, in the determination of S35, since the degree of eye opening is equal to or less than the closing threshold and the distance between the upper and lower eyelids is small, the shape parameter is within the range of smiles. This distance is small, and it is determined that the eye is open. Thereby, a driver's smile and an open eye state can be detected more correctly. Then, the process ends.

一方、S36で、形状パラメータが笑顔閾値より大きい場合には(S36:No)、開閉眼判定部407は、運転者は閉眼の状態であると判断する(S37)。すなわち、S35の判断で、開眼度は閉閾値以下で上下瞼間の距離は小さくなっており、形状パラメータも笑顔の範囲内ではないため、開閉眼判定部407は、運転者は目を閉じていると判断する。これにより、より正確に運転者の閉眼状態を検出することができる。この場合、運転者が居眠り運転をしている可能性が高いため、処理部408は、モニタ装置11の音声出力装置から警報を出力する(S39)。なお、本実施形態では、警報を出力しているが、運転者に警告を促して居眠りの状態から起こすような動作を行うものであれば、これに限定されるものではない。   On the other hand, when the shape parameter is larger than the smile threshold value in S36 (S36: No), the open / close eye determination unit 407 determines that the driver is in the closed state (S37). That is, in the determination of S35, since the degree of eye opening is equal to or less than the closing threshold, the distance between the upper and lower eyelids is small, and the shape parameter is not within the range of smile, the opening / closing eye determination unit 407 causes the driver to close his eyes. Judge that As a result, the driver's closed eye state can be detected more accurately. In this case, since there is a high possibility that the driver is taking a nap, the processing unit 408 outputs an alarm from the audio output device of the monitor device 11 (S39). In this embodiment, an alarm is output. However, the present invention is not limited to this as long as it performs an operation that urges the driver to wake up from a dozing state.

このように本実施形態では、三次元顔モデル410に、目の形状の変化に対応した形状パラメータを登録して、開眼度の他この形状パラメータを用いて運転者の開閉眼を判断しているので、顔と撮像装置201の相対位置や角度に依存しない笑顔等の推定(特定)が可能となる。このため、本実施形態によれば、誤判断を回避して、より正確に運転者の開閉眼を判断することができる。   As described above, in this embodiment, the shape parameter corresponding to the change in the shape of the eyes is registered in the three-dimensional face model 410, and the eyes of the driver are determined using this shape parameter in addition to the degree of eye opening. Therefore, it is possible to estimate (specify) a smile or the like that does not depend on the relative position or angle between the face and the imaging device 201. For this reason, according to the present embodiment, it is possible to avoid misjudgment and more accurately determine the eyes of the driver.

また、本実施形態では、運転者の顔の目の形状を、二次元の撮像画像だけでなく、三次元の顔モデルを用いて推定(特定)しているので、撮像装置201に対する垂直方向の相対的な顔の位置および顔の向きの影響を受けることが少ない。このため、本実施形態によれば、より正確に目の形状を推定することができ、これにより、より正確に運転者の開閉眼を判定することができる。   In the present embodiment, the shape of the eyes of the driver's face is estimated (specified) using not only a two-dimensional captured image but also a three-dimensional face model. Less affected by relative face position and face orientation. For this reason, according to the present embodiment, the shape of the eyes can be estimated more accurately, and thereby the driver's open / closed eyes can be determined more accurately.

また、本実施形態では、三次元顔モデルに撮像画像をフィッティングしているので、目の上下左右まぶたに対して同時にフィッティングすることになり、上下左右まぶたで独立に曲線を検出する従来技術に比べて、撮像画像中のノイズに対してロバストに笑顔の検出を行うことができる。   Further, in this embodiment, since the captured image is fitted to the three-dimensional face model, the fitting is performed simultaneously on the upper, lower, left, and right eyelids, compared to the conventional technique that detects the curve independently with the upper, lower, left, and right eyelids. Thus, a smile can be detected robustly against noise in the captured image.

また、本実施形態では、運転者が閉眼状態であると判定された場合には、処理部408は、運転者に警告を促す動作の一例として警報を、モニタ装置11の音声出力装置から出力させるので、運転者の居眠り運転を防止することができる。   In the present embodiment, when it is determined that the driver is in the closed eye state, the processing unit 408 outputs an alarm from the audio output device of the monitor device 11 as an example of an operation that prompts the driver to warn. Therefore, it is possible to prevent the driver from falling asleep.

本実施形態では、表情変化に伴い目が細くなる細目状態と例として笑顔をあげ、三次元顔モデル410に、標準の目の状態から笑顔に至るまでの目の形状の変化を形状パラメータとともに登録して、開閉眼判定において笑顔の判定を行っているが、表情変化に伴い目が細くなる細目状態として笑顔以外の判定を行うように、三次元顔モデル410、形状パラメータ判定部405、開閉眼判定部407等を構成してもよい。   In this embodiment, a smile is given as an example where the eyes become narrower as the facial expression changes and a smile is given as an example, and changes in the shape of the eye from the standard eye state to smile are registered in the 3D face model 410 together with the shape parameters. Then, the smile is determined in the open / closed eye determination, but the three-dimensional face model 410, the shape parameter determining unit 405, the open / closed eye are determined so as to perform a determination other than a smile as a fine state in which the eyes become narrower as the facial expression changes. The determination unit 407 and the like may be configured.

例えば、三次元顔モデル410に、さらに、標準の目の状態から、上記細目状態としてあくびをしたときまでの目の形状の段階的な変化を形状パラメータとともに登録し、あくびの判定を行うように三次元顔モデル410、形状パラメータ判定部405、開閉眼判定部407等を構成することができる。   For example, in the three-dimensional face model 410, the stepwise change in the shape of the eye from when the standard eye state is yawned as the fine eye state is registered together with the shape parameter, and the yawning is determined. A three-dimensional face model 410, a shape parameter determination unit 405, an open / close eye determination unit 407, and the like can be configured.

また、三次元顔モデル410に、さらに、標準の目の状態から上記細目状態として目を凝らす状態までの目の形状の段階的な変化を形状パラメータとともに登録し、まぶしくて目を細めたことを判定するように、三次元顔モデル410、形状パラメータ判定部405、開閉眼判定部407等を構成してもよい。   In addition, in the three-dimensional face model 410, a stepwise change in the shape of the eye from the standard eye state to the state where the eye is focused as the above-mentioned fine state is registered together with the shape parameter, and The three-dimensional face model 410, the shape parameter determination unit 405, the open / closed eye determination unit 407, and the like may be configured so as to determine.

また、形状パラメータを、上記非特許文献「Active Appearance Model 探索による目領域構造の自動抽出 森山 剛 金出 武雄 Jeffrey F. Cohn 小沢 慎治『画像の認識・理解シンポジウム(MIRU2006)』」や非特許文献「Costen, N., Cootes, T.F., Taylor, C.J.: Compensating for ensemble-specificity effects when building facial models. Image and Vision Computing 20, 673−682」に示されているように、個人内差と個人間差とに分類して登録されるように三次元顔モデル410を構成してもよい。   In addition, the shape parameters are extracted from the above-mentioned non-patent document “Automatic Extraction of Eye Region Structure by Active Appearance Model Search Takeshi Moriyama Takeo Kanade Jeffrey F. Cohn Shinji Ozawa“ Image Recognition and Understanding Symposium (MIRU2006) ”” and non-patent document “ Costen, N., Cootes, TF, Taylor, CJ: Compensating for ensemble-specificity effects when building facial models.Image and Vision Computing 20, 673−682 The three-dimensional face model 410 may be configured to be classified and registered.

また、本実施形態では、運転者の開閉眼判定を正確に行うために、笑顔の判定を行っているが、これに限定されるものではない。インタフェースとの対話等、人間的なやり取りにおいて、本実施形態の手法の笑顔検出を用いるように、三次元顔モデル410、形状パラメータ判定部405、開閉眼判定部407等を構成してもよい。   Further, in the present embodiment, smile determination is performed in order to accurately determine the driver's opening / closing eye, but the present invention is not limited to this. The three-dimensional face model 410, the shape parameter determination unit 405, the open / closed eye determination unit 407, and the like may be configured so that smile detection according to the method of the present embodiment is used in human interaction such as interaction with an interface.

本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   Although several embodiments of the present invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

1 車両
14 ECU
201 撮像装置
401 入力部
402 顔データ計測部
403 モデル生成部
404 照合部
405 形状パラメータ判定部
406 開眼度算出部
407 開閉眼判定部
408 処理部
410 三次元顔モデル
1 Vehicle 14 ECU
201 imaging device 401 input unit 402 face data measurement unit 403 model generation unit 404 collation unit 405 shape parameter determination unit 406 eye opening degree calculation unit 407 opening / closing eye determination unit 408 processing unit 410 three-dimensional face model

Claims (6)

被験者の三次元顔形状と、前記被験者の目の位置と、前記目の標準の状態から前記顔の表情変化に伴い前記目を細くする細目の状態までの前記目の形状の変化の状態と形状パラメータとが対応付けられた変化情報と、が登録された三次元顔モデルを記憶する記憶部と、
撮像装置で撮像された運転者の撮像画像を、前記三次元顔形状と照合して、前記目の位置を特定する照合部と、
前記形状パラメータを変化させて、前記撮像画像における前記目の状態に対応する形状パラメータを特定する形状パラメータ判定部と、
前記撮像画像における前記目の開眼状態を示す開眼度を算出する開眼度算出部と、
前記開眼度が閉眼状態を示す場合においても、特定された前記形状パラメータが前記細目の状態を示すか否かに基づいて、前記運転者の開閉眼を判定する開閉眼判定部と、
を備えた開閉眼判定装置。
The three-dimensional face shape of the subject, the eye position of the subject, and the state and shape of the eye shape change from the standard state of the eye to the state of narrowing the eye with the facial expression change Change information associated with the parameters, a storage unit that stores the registered three-dimensional face model,
A collation unit that collates a captured image of a driver imaged by an imaging device with the three-dimensional face shape and identifies the position of the eye;
A shape parameter determination unit that changes the shape parameter to identify a shape parameter corresponding to the eye state in the captured image;
An eye opening degree calculation unit for calculating an eye opening degree indicating the eye opening state of the eye in the captured image;
Even in the case where the degree of eye opening indicates a closed eye state, an opening / closing eye determination unit that determines whether the driver's opening / closing eye is based on whether the specified shape parameter indicates the detailed state,
An open / close eye determination device.
前記細目の状態は、笑顔の状態を含み、
前記開閉眼判定部は、前記開眼度が閉眼状態を示す範囲内であるか否かを判断し、前記開眼度が閉眼状態を示す範囲内である場合に、特定された前記形状パラメータが前記笑顔を示す範囲内にあるか否かを判定し、前記形状パラメータが前記笑顔を示す範囲内である場合に、前記運転者は開眼状態であると判定する、
請求項1に記載の開閉眼判定装置。
The detailed state includes a smiling state,
The open / close eye determination unit determines whether or not the eye opening degree is within a range indicating an eye-closed state. When the eye opening degree is within a range indicating an eye-closed state, the specified shape parameter is the smile It is determined whether or not the driver is in an open state when the shape parameter is in a range indicating the smile.
The open / close eye determination device according to claim 1.
前記開閉眼判定部は、前記開眼度が閉眼を示す範囲内である場合であって、特定された前記形状パラメータが前記笑顔を示す範囲外である場合には、前記運転者は閉眼状態であると判定する、
請求項2に記載の開閉眼判定装置。
The open / close eye determination unit is in a case where the degree of eye opening is within a range indicating closed eyes, and the driver is in an eye closed state when the specified shape parameter is outside the range indicating the smile. To determine,
The open / close eye determination device according to claim 2.
前記運転者が閉眼状態であると判定された場合には、前記運転者に警告を促す動作を行う処理部、
をさらに備えた請求項3に記載の開閉眼判定装置。
When it is determined that the driver is in an eye-closed state, a processing unit that performs an operation for prompting the driver to warn,
The open / close eye determination device according to claim 3, further comprising:
前記被験者の撮像画像に基づいて、前記三次元顔形状と前記目の位置とを含む三次元顔構造データと、前記目の形状の変化の状態と前記形状パラメータとが対応付けられた前記変化情報と、を求める計測部と、
計測された前記三次元顔構造データと前記変化情報とを、前記三次元顔モデルとして前記記憶部に登録するモデル生成部と、
をさらに備えた請求項1〜4のいずれか一つに記載の開閉眼判定装置。
The change information in which the three-dimensional face structure data including the three-dimensional face shape and the eye position, the change state of the eye shape, and the shape parameter are associated with each other based on the captured image of the subject. And a measurement unit for
A model generation unit that registers the measured three-dimensional face structure data and the change information in the storage unit as the three-dimensional face model;
The open / close eye determination device according to any one of claims 1 to 4, further comprising:
開閉眼判定装置で実行される開眼判定方法であって、
前記開閉眼判定装置は、被験者の三次元顔形状と、被験者の目の位置と、前記目の標準の状態から前記顔の表情変化に伴い前記目を細くする細目の状態までの前記目の形状の変化の状態と形状パラメータとが対応付けられた変化情報とが登録された三次元顔モデルを記憶する記憶部、を備え、
撮像装置で撮像された運転者の撮像画像を、前記三次元顔形状と照合して、前記目の位置を特定し、
前記形状パラメータを変化させて、前記撮像画像における前記目の状態に対応する形状パラメータを特定し、
前記撮像画像における前記目の開眼状態を示す開眼度を算出し、
前記開眼度が閉眼状態を示す場合においても、特定された前記形状パラメータが前記細目の状態を示すか否かに基づいて、前記運転者の開閉眼を判定する、
ことを含む開閉眼判定方法。
An eye opening determination method executed by an opening / closing eye determination device,
The open / close eye determination device includes: a three-dimensional face shape of a subject, a position of the subject's eyes, and a shape of the eye from a standard state of the eye to a fine state of narrowing the eye with a change in facial expression of the face A storage unit for storing a three-dimensional face model in which change information in which a state of change and a shape parameter are associated is registered,
A driver's captured image captured by the imaging device is compared with the three-dimensional face shape to identify the position of the eyes,
Change the shape parameter to identify the shape parameter corresponding to the eye state in the captured image,
Calculating an eye opening degree indicating the eye opening state in the captured image;
Even in the case where the degree of eye opening indicates a closed eye state, the eyes of the driver are determined based on whether or not the specified shape parameter indicates the state of the fine line,
Open / closed eye determination method.
JP2014252945A 2014-12-15 2014-12-15 Opened/closed eye determination device and opened/closed eye determination method Pending JP2016115120A (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014252945A JP2016115120A (en) 2014-12-15 2014-12-15 Opened/closed eye determination device and opened/closed eye determination method
CN201510919928.4A CN105701445A (en) 2014-12-15 2015-12-11 determination apparatus and determination method
EP15199835.8A EP3033999B1 (en) 2014-12-15 2015-12-14 Apparatus and method for determining the state of a driver
US14/968,001 US20160171321A1 (en) 2014-12-15 2015-12-14 Determination apparatus and determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014252945A JP2016115120A (en) 2014-12-15 2014-12-15 Opened/closed eye determination device and opened/closed eye determination method

Publications (1)

Publication Number Publication Date
JP2016115120A true JP2016115120A (en) 2016-06-23

Family

ID=56140048

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014252945A Pending JP2016115120A (en) 2014-12-15 2014-12-15 Opened/closed eye determination device and opened/closed eye determination method

Country Status (1)

Country Link
JP (1) JP2016115120A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020046770A (en) * 2018-09-14 2020-03-26 いすゞ自動車株式会社 Operation management system
WO2020059835A1 (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicular monitoring device
CN111126347A (en) * 2020-01-06 2020-05-08 腾讯科技(深圳)有限公司 Human eye state recognition method and device, terminal and readable storage medium
WO2020188788A1 (en) * 2019-03-20 2020-09-24 三菱電機株式会社 Wakefulness level estimation device, automated driving assistance device, and wakefulness level estimation method
JPWO2022269654A1 (en) * 2021-06-21 2022-12-29

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257575A (en) * 2007-04-06 2008-10-23 Fujitsu Ltd Sleeping state detecting method, sleeping state detector, sleeping state detecting system and computer program
JP2010142345A (en) * 2008-12-17 2010-07-01 Aisin Seiki Co Ltd Opened/closed eye recognizing apparatus and program
JP2010250419A (en) * 2009-04-13 2010-11-04 Seiko Epson Corp Image processing device for detecting eye condition
JP2011128966A (en) * 2009-12-18 2011-06-30 Denso Corp Face feature point detection device and sleepiness detection device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008257575A (en) * 2007-04-06 2008-10-23 Fujitsu Ltd Sleeping state detecting method, sleeping state detector, sleeping state detecting system and computer program
JP2010142345A (en) * 2008-12-17 2010-07-01 Aisin Seiki Co Ltd Opened/closed eye recognizing apparatus and program
JP2010250419A (en) * 2009-04-13 2010-11-04 Seiko Epson Corp Image processing device for detecting eye condition
JP2011128966A (en) * 2009-12-18 2011-06-30 Denso Corp Face feature point detection device and sleepiness detection device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020046770A (en) * 2018-09-14 2020-03-26 いすゞ自動車株式会社 Operation management system
JP7247499B2 (en) 2018-09-20 2023-03-29 いすゞ自動車株式会社 Vehicle monitoring device
WO2020059835A1 (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicular monitoring device
JP2020047086A (en) * 2018-09-20 2020-03-26 いすゞ自動車株式会社 Vehicle monitoring device
US11443534B2 (en) 2018-09-20 2022-09-13 Isuzu Motors Limited Vehicular monitoring device
WO2020188788A1 (en) * 2019-03-20 2020-09-24 三菱電機株式会社 Wakefulness level estimation device, automated driving assistance device, and wakefulness level estimation method
JPWO2020188788A1 (en) * 2019-03-20 2021-10-14 三菱電機株式会社 Arousal level estimation device, automatic driving support device and arousal level estimation method
JP7175381B2 (en) 2019-03-20 2022-11-18 三菱電機株式会社 Arousal level estimation device, automatic driving support device, and arousal level estimation method
CN111126347A (en) * 2020-01-06 2020-05-08 腾讯科技(深圳)有限公司 Human eye state recognition method and device, terminal and readable storage medium
CN111126347B (en) * 2020-01-06 2024-02-20 腾讯科技(深圳)有限公司 Human eye state identification method, device, terminal and readable storage medium
WO2022269654A1 (en) * 2021-06-21 2022-12-29 三菱電機株式会社 State determination device and state determination method
JPWO2022269654A1 (en) * 2021-06-21 2022-12-29
JP7374386B2 (en) 2021-06-21 2023-11-06 三菱電機株式会社 Condition determination device and condition determination method

Similar Documents

Publication Publication Date Title
EP3033999B1 (en) Apparatus and method for determining the state of a driver
CN112590794B (en) Method and device for determining an estimated value of the ability of a vehicle driver to take over vehicle control
JP2016115117A (en) Determination device and determination method
CN111741884B (en) Traffic distress and road rage detection method
CN107665330B (en) System, method and computer readable medium for detecting head pose in vehicle
CN110765807B (en) Driving behavior analysis and processing method, device, equipment and storage medium
US9928404B2 (en) Determination device, determination method, and non-transitory storage medium
JP2016115120A (en) Opened/closed eye determination device and opened/closed eye determination method
JP7290930B2 (en) Occupant modeling device, occupant modeling method and occupant modeling program
US9606623B2 (en) Gaze detecting apparatus and method
JP6479272B1 (en) Gaze direction calibration apparatus, gaze direction calibration method, and gaze direction calibration program
JP6572538B2 (en) Downward view determination device and downward view determination method
JP6459856B2 (en) Vehicle driving support device, vehicle driving support method, and program
WO2017217044A1 (en) Viewing direction estimation device
JP2016115119A (en) Eye opening/closing determination device and eye opening/closing determination method
Dongare et al. Eye gaze tracking and eyes off the road detection for traffic safety on raspberry Pi
JP2019175210A (en) Mouth shape detector
KR102486161B1 (en) Vehicle, Control Method of the vehicle and Image tracking apparatus
US20230326069A1 (en) Method and apparatus for determining a gaze direction of a user
JP7483160B2 (en) Occupant monitoring device and occupant monitoring method
JP7348005B2 (en) Image processing device, image processing method, and image processing program
JP2023061474A (en) Visual line detection device, visual line detection system, and visual line detection method
JP2023097182A (en) Driver behavior determination device, driver behavior determination method and driver behavior determination computer program
JP2021007717A (en) Occupant observation device, occupant observation method and program
TWI531494B (en) Method for adjusting rear-view mirror and electronic device using the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181019

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190709