JP6762794B2 - Eyelid opening / closing detection device and eyelid opening / closing detection method - Google Patents

Eyelid opening / closing detection device and eyelid opening / closing detection method Download PDF

Info

Publication number
JP6762794B2
JP6762794B2 JP2016149808A JP2016149808A JP6762794B2 JP 6762794 B2 JP6762794 B2 JP 6762794B2 JP 2016149808 A JP2016149808 A JP 2016149808A JP 2016149808 A JP2016149808 A JP 2016149808A JP 6762794 B2 JP6762794 B2 JP 6762794B2
Authority
JP
Japan
Prior art keywords
opening
closing
eyelid
eye
classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016149808A
Other languages
Japanese (ja)
Other versions
JP2018018400A (en
Inventor
増田 哲也
哲也 増田
賢司 古川
賢司 古川
橋本 真也
真也 橋本
卓靖 藤谷
卓靖 藤谷
康介 今井
康介 今井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alpine Electronics Inc
Toshiba Digital Solutions Corp
Original Assignee
Alpine Electronics Inc
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alpine Electronics Inc, Toshiba Digital Solutions Corp filed Critical Alpine Electronics Inc
Priority to JP2016149808A priority Critical patent/JP6762794B2/en
Publication of JP2018018400A publication Critical patent/JP2018018400A/en
Application granted granted Critical
Publication of JP6762794B2 publication Critical patent/JP6762794B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、瞼開閉検出装置および瞼開閉検出方法に関する。 An embodiment of the present invention relates to an eyelid opening / closing detection device and an eyelid opening / closing detection method.

最近、自動車などの車両には、車室内に運転者の顔を撮影するためのカメラ(以下、車室内用カメラという)を搭載したものが増えてきている。車室内用カメラの出力にもとづいて生成される運転者の顔の画像は、たとえば運転者の瞼の開閉を判定し居眠りを検出するために利用することができる。 Recently, an increasing number of vehicles such as automobiles are equipped with a camera (hereinafter referred to as an interior camera) for photographing the driver's face in the vehicle interior. The image of the driver's face generated based on the output of the vehicle interior camera can be used, for example, to determine the opening / closing of the driver's eyelids and detect doze.

運転者を被写体として撮像した画像から被写体の瞼の開閉を判定する方法として、たとえば眉毛と上瞼との距離、および上瞼と下瞼の距離を用いる方法がある。また、他の方法として、時系列的に連続して得た画像を用いて上瞼と下瞼を検出し、上瞼と下瞼の距離にもとづいて瞼の開閉を判定する方法もある。 As a method of determining the opening / closing of the eyelid of the subject from the image captured by the driver as the subject, for example, there is a method of using the distance between the eyebrows and the upper eyelid and the distance between the upper eyelid and the lower eyelid. Further, as another method, there is also a method of detecting the upper eyelid and the lower eyelid using images obtained continuously in time series and determining the opening / closing of the eyelid based on the distance between the upper eyelid and the lower eyelid.

しかし、眉毛を用いる方法では、被写体が眼鏡を着用している場合、眼鏡のフレームやその陰を眉毛と誤認してしまうことがある。また、時系列的に連続して得た画像を用いる方法では、所定のフレームレートで入力される画像を処理するため、高性能なプロセッサを用いる必要があり、安価なマイコン等を用いることが難しい。また、上瞼と下瞼との距離を用いる方法では、被写体が下を向いている場合や被写体のまつ毛が長い場合に、誤判定をしてしまうことがある。 However, in the method using eyebrows, when the subject wears spectacles, the frame of the spectacles and its shadow may be mistaken for eyebrows. In addition, in the method using images obtained continuously in time series, it is necessary to use a high-performance processor in order to process images input at a predetermined frame rate, and it is difficult to use an inexpensive microcomputer or the like. .. Further, in the method using the distance between the upper eyelid and the lower eyelid, an erroneous determination may be made when the subject is facing downward or when the eyelashes of the subject are long.

特開2008−220424号公報Japanese Unexamined Patent Publication No. 2008-220424 特開2008−113902号公報Japanese Unexamined Patent Publication No. 2008-11302

本発明は、上述した事情を考慮してなされたもので、時系列的に連続した画像を用いずとも高精度に被写体の瞼の開閉判定を行なうことができる瞼開閉検出装置および瞼開閉検出方法を提供することを目的とする。 The present invention has been made in consideration of the above-mentioned circumstances, and is an eyelid opening / closing detection device and an eyelid opening / closing detection method capable of determining the opening / closing of the eyelid of a subject with high accuracy without using continuous images in time series. The purpose is to provide.

本発明の一実施形態に係る瞼開閉検出装置は、上述した課題を解決するために、被写体の顔を撮像した撮像素子の出力にもとづいて生成された前記被写体の顔画像から、初期位置検出辞書を用いて目の領域を検出する初期検出部と、第1の開閉判定辞書を用いて、前記初期検出部により検出された目の領域に含まれた前記被写体の瞼の開閉の第1判定結果を出力する第1識別器と、前記第1の開閉判定辞書とは異なる入力画像を用いて作成された第2の開閉判定辞書を用いて、前記瞼の開閉の第2判定結果を出力する第2識別器と、前記第1識別器および前記第2識別器の判定結果を統合評価し、前記瞼の開閉の最終判定結果を出力する統合判定部と、を備えたものである。 The eyelid opening / closing detection device according to the embodiment of the present invention has an initial position detection dictionary from the face image of the subject generated based on the output of the image pickup element that images the face of the subject in order to solve the above-mentioned problems. The first determination result of opening and closing of the eyelid of the subject included in the eye area detected by the initial detection unit using the initial detection unit that detects the eye region using the first detection unit and the first opening / closing determination dictionary. The first discriminator that outputs the eyelid and the second open / close determination dictionary created by using an input image different from the first open / close determination dictionary are used to output the second determination result of opening / closing the eyelid. It is provided with two classifiers and an integrated determination unit that integrally evaluates the determination results of the first classifier and the second classifier and outputs the final determination result of opening and closing of the eyelids.

本発明の一実施形態に係る瞼開閉検出装置を含む車室内用カメラが設置された車両の一例を示す外観図。FIG. 6 is an external view showing an example of a vehicle in which a vehicle interior camera including an eyelid opening / closing detection device according to an embodiment of the present invention is installed. (a)は、車室内用カメラの一構成例を示す側面図、(b)は正面図。(A) is a side view showing an example of a configuration of a vehicle interior camera, and (b) is a front view. 本実施形態に係る瞼開閉検出装置のプロセッサによる実現機能例を示す概略的なブロック図。The schematic block diagram which shows the example of the function realized by the processor of the eyelid opening / closing detection device which concerns on this embodiment. 図3に示す瞼開閉検出装置のプロセッサにより、時系列的に連続した画像を用いずとも高精度に被写体の瞼の開閉判定を行なう際の手順を示すフローチャート。FIG. 3 is a flowchart showing a procedure for determining the opening / closing of the eyelid of a subject with high accuracy by using the processor of the eyelid opening / closing detection device shown in FIG. 3 without using continuous images in time series. 初期検出部が用いる初期位置検出辞書と、第2識別器が用いる開眼用位置検出辞書および閉眼用位置検出辞書について説明するための図。The figure for demonstrating the initial position detection dictionary used by the initial detection unit, the eye opening position detection dictionary and the eye closing position detection dictionary used by a second classifier. 統合判定部による最終判定方法について説明するための図。The figure for demonstrating the final judgment method by the integrated judgment part. 図4のステップS4で第1識別器により実行される瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャート。FIG. 6 is a subroutine flowchart showing an example of a detailed procedure of the eyelid opening / closing determination process executed by the first classifier in step S4 of FIG. CoHOG特徴量の求め方について説明するための図。The figure for demonstrating the method of obtaining the CoHOG feature quantity. 図4のステップS5で第2識別器により実行される瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャート。FIG. 6 is a subroutine flowchart showing an example of a detailed procedure of the eyelid opening / closing determination process executed by the second classifier in step S5 of FIG. 第2識別器の一構成例を示す機能ブロック図。The functional block diagram which shows one configuration example of the 2nd classifier. 第2識別器による特徴量算出処理を説明するための図。The figure for demonstrating the feature amount calculation process by the 2nd classifier. 第2識別器による仮開眼位置検出処理および仮閉眼位置検出処理を説明するための図。The figure for demonstrating the temporary eye opening position detection process and the temporary eye closing position detection process by a 2nd classifier. 図4のステップS6で補助判定部により実行されるエッジ強度を用いた瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャート。FIG. 6 is a subroutine flowchart showing an example of a detailed procedure of the eyelid opening / closing determination process using the edge strength executed by the auxiliary determination unit in step S6 of FIG. 補助判定部の一構成例を示す機能ブロック図。The functional block diagram which shows one configuration example of an auxiliary determination part. (a)はエッジ強度画像生成に用いられるカーネルの一例を示す説明図であり(b)はカーネルの他の例を示す説明図。(A) is an explanatory diagram showing an example of a kernel used for edge intensity image generation, and (b) is an explanatory diagram showing another example of the kernel. 図13のステップS604で組抽出部により実行される瞼候補点抽出処理およびそれらのペアリング処理の手順の一例を示すサブルーチンフローチャート。FIG. 6 is a subroutine flowchart showing an example of a procedure of eyelid candidate point extraction processing and their pairing processing executed by the group extraction unit in step S604 of FIG. 上瞼候補点および下瞼候補点が抽出される様子の一例を示す説明図。Explanatory drawing which shows an example of how the upper eyelid candidate point and the lower eyelid candidate point are extracted. 縦の1のライン上で抽出された上瞼候補点および下瞼候補点の一例を示す説明図。Explanatory drawing which shows an example of the upper eyelid candidate point and the lower eyelid candidate point extracted on one vertical line. 上瞼候補点および下瞼候補点のペアリング方法の一例を示す説明図。Explanatory drawing which shows an example of the pairing method of the upper eyelid candidate point and the lower eyelid candidate point. グルーピング結果の一例を示す説明図。Explanatory drawing which shows an example of a grouping result. (a)はグループの長さおよびグループの重心付近の幅の平均値を説明するための図であり、(b)は目頭側上瞼候補点の近似直線および目頭側の上下瞼の近似直線のなす角を説明するための図。(A) is a diagram for explaining the average value of the length of the group and the width near the center of gravity of the group, and (b) is the approximate straight line of the upper eyelid candidate point on the inner side of the eye and the approximate straight line of the upper and lower eyelids on the inner side of the eye. The figure for explaining the angle to make. 所定の特徴量を用いた開閉判定のルールの一例を示す説明図。Explanatory drawing which shows an example of the rule of opening / closing judgment using a predetermined feature amount. (a)は図22に示す第1のルールを説明するための図、(b)は図22に示す第3のルールを説明するための図、(c)は図22に示す第4のルールを説明するための図。(A) is a diagram for explaining the first rule shown in FIG. 22, (b) is a diagram for explaining the third rule shown in FIG. 22, and (c) is a diagram for explaining the third rule shown in FIG. 22. The figure for demonstrating.

本発明に係る瞼開閉検出装置および瞼開閉検出方法の実施の形態について、添付図面を参照して説明する。 An embodiment of the eyelid opening / closing detection device and the eyelid opening / closing detection method according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明の一実施形態に係る瞼開閉検出装置10を含む車室内用カメラ4が設置された車両1の一例を示す外観図である。図1にはカメラ光軸をz軸、水平軸をx軸とする場合の例を示した。なお、瞼開閉検出装置10は被写体の顔画像にもとづいて被写体の瞼開閉を検出できればよく、顔画像を取得可能であれば、カメラの一部として設けられずともよい。以下の説明では、瞼開閉検出装置10が車室内用カメラ4の一部として設けられる場合の例について示す。 FIG. 1 is an external view showing an example of a vehicle 1 in which a vehicle interior camera 4 including an eyelid opening / closing detection device 10 according to an embodiment of the present invention is installed. FIG. 1 shows an example in which the optical axis of the camera is the z-axis and the horizontal axis is the x-axis. The eyelid opening / closing detection device 10 may detect the opening / closing of the eyelids of the subject based on the face image of the subject, and may not be provided as a part of the camera as long as the face image can be acquired. In the following description, an example will be described in which the eyelid opening / closing detection device 10 is provided as a part of the vehicle interior camera 4.

この場合、図1に示すように、車室内用カメラ4は車両1の運転席に座った運転者Dの顔Fを撮影できる位置に設けられるとよい。図1には、車室内用カメラ4が車両1のステアリングコラムカバー2の上面に設けられる場合の例を示したが、ダッシュボード3の上面、インストルメンタルパネル内などに設けられてもよい。より好ましくは、車室内用カメラ4は、運転者Dの顔Fを正面から撮影できるよう、カメラ光軸が運転者Dの顔Fの正中線と交わるように設けられることが好ましく、たとえばハンドル(ステアリングホイール)の回転軸を通るyz平面上にカメラ光軸が位置するように設けられるとよい。 In this case, as shown in FIG. 1, the vehicle interior camera 4 may be provided at a position where the face F of the driver D sitting in the driver's seat of the vehicle 1 can be photographed. Although FIG. 1 shows an example in which the vehicle interior camera 4 is provided on the upper surface of the steering column cover 2 of the vehicle 1, it may be provided on the upper surface of the dashboard 3, the instrument panel, or the like. More preferably, the vehicle interior camera 4 is provided so that the optical axis of the camera intersects the midline of the driver D's face F so that the driver D's face F can be photographed from the front. It is preferable that the camera optical axis is located on the yz plane passing through the rotation axis of the steering wheel).

図2(a)は、車室内用カメラ4の一構成例を示す側面図であり、(b)は正面図である。車室内用カメラ4は、プロセッサを備えた瞼開閉検出装置10、光源11、レンズ12、フィルタ13、および撮像素子14を有する。 FIG. 2A is a side view showing a configuration example of the vehicle interior camera 4, and FIG. 2B is a front view. The vehicle interior camera 4 includes an eyelid opening / closing detection device 10 equipped with a processor, a light source 11, a lens 12, a filter 13, and an image sensor 14.

光源11は、たとえば複数設けられる。以下の説明では、光源11がたとえば880nmや940nmをピーク波長にもつ近赤外光を発光する近赤外光光源である場合の例について示す。なお、光源11として、近赤外光光源にかえて可視光光源や紫外光光源を使用してもよい。 A plurality of light sources 11 are provided, for example. In the following description, an example will be described in which the light source 11 is a near-infrared light source that emits near-infrared light having a peak wavelength of 880 nm or 940 nm, for example. As the light source 11, a visible light source or an ultraviolet light source may be used instead of the near-infrared light source.

レンズ12は、撮像素子14に集光し、運転者Dの顔Fの像を撮像素子14に結ぶために用いられる。フィルタ13は、光源11が発光する光を透過する。撮像素子14は、少なくとも光源11の発光波長を検出可能な感度を有し、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成される。撮像素子14は、瞼開閉検出装置10に制御されて、フィルタ13を介して被写体を撮像して被写体の顔画像の画像データを生成し、瞼開閉検出装置10に与える。 The lens 12 is used to focus on the image sensor 14 and connect the image of the driver D's face F to the image sensor 14. The filter 13 transmits the light emitted by the light source 11. The image sensor 14 has a sensitivity capable of detecting at least the emission wavelength of the light source 11, and is composed of a CCD (Charge Coupled Device) image sensor and a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The image sensor 14 is controlled by the eyelid opening / closing detection device 10 to take an image of the subject through the filter 13 to generate image data of the face image of the subject, and gives the image data to the eyelid opening / closing detection device 10.

なお、撮像素子14は、可視光域と近赤外域との両方の感度を有したものを使用してもよい。この場合、フィルタ13は、たとえば可視光を遮り近赤外光を透過させるための第1の位置と、可視光を遮らない第2の位置との2つの位置のいずれかで位置決め可能に構成されるとよい。瞼開閉の検出技術において、被写体のまばたきを誘発してしまうことから、被写体が眩しさを感じることは好ましくない。この点、近赤外光を利用することにより、夜間やトンネルなど顔Fの照度が不足する場合でも、被写体が眩しさを感じることなく鮮明な顔画像を取得することができる。 As the image sensor 14, an image sensor 14 having sensitivity in both the visible light region and the near infrared region may be used. In this case, the filter 13 is configured to be able to be positioned at either a first position for blocking visible light and transmitting near-infrared light and a second position for not blocking visible light, for example. It is good. In the eyelid opening / closing detection technique, it is not preferable that the subject feels dazzling because it induces blinking of the subject. In this regard, by using near-infrared light, a clear face image can be obtained without the subject feeling dazzling even when the illuminance of the face F is insufficient such as at night or in a tunnel.

続いて、瞼開閉検出装置10のプロセッサによる機能実現部の構成および動作について説明する。 Subsequently, the configuration and operation of the function realization unit by the processor of the eyelid opening / closing detection device 10 will be described.

図3は、本実施形態に係る瞼開閉検出装置10のプロセッサによる実現機能例を示す概略的なブロック図である。 FIG. 3 is a schematic block diagram showing an example of a function realized by the processor of the eyelid opening / closing detection device 10 according to the present embodiment.

瞼開閉検出装置10は、たとえばプロセッサおよびRAMならびにROMをはじめとする記憶媒体により構成される。瞼開閉検出装置10のプロセッサは、ROMをはじめとする記憶媒体に記憶された瞼開閉検出プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って、時系列的に連続した画像を用いずとも高精度に被写体の瞼の開閉判定を行なう処理を実行する。 The eyelid opening / closing detection device 10 is composed of, for example, a processor, RAM, and a storage medium such as a ROM. The processor of the eyelid opening / closing detection device 10 loads the eyelid opening / closing detection program stored in the storage medium such as the ROM and the data necessary for executing this program into the RAM, and continuously in chronological order according to this program. The process of determining the opening / closing of the eyelid of the subject with high accuracy is executed without using the image.

瞼開閉検出装置10のRAMは、プロセッサが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。瞼開閉検出装置10のROMをはじめとする記憶媒体は、たとえば車室内用カメラ4の起動プログラム、瞼開閉検出プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、プロセッサにより読み取り可能な記録回路を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は、ネットワークを介してまたは光ディスクなどの可搬型記憶媒体を介して更新されてもよい。 The RAM of the eyelid opening / closing detection device 10 provides a work area for temporarily storing programs and data executed by the processor. The storage medium such as the ROM of the eyelid opening / closing detection device 10 stores, for example, an activation program of the vehicle interior camera 4, an eyelid opening / closing detection program, and various data necessary for executing these programs. A storage medium such as a ROM has a configuration including a recording circuit that can be read by a processor, such as a magnetic or optical recording medium or a semiconductor memory, and is a part of programs and data in these storage media. Alternatively, all may be updated via a network or via a portable storage medium such as an optical disc.

なお、本実施形態において、「プロセッサ」という文言は、たとえば、専用または汎用のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、または、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(たとえば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、およびFPGA)等の回路を意味するものとする。プロセッサは、記憶媒体に保存されたプログラムを読み出して実行することにより、各種機能を実現する。 In the present embodiment, the term "processor" refers to, for example, a dedicated or general-purpose CPU (Central Processing Unit), GPU (Graphics Processing Unit), or application specific integrated circuit (ASIC). It is intended to mean a circuit such as a programmable logic device (for example, a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and an FPGA). The processor realizes various functions by reading and executing a program stored in a storage medium.

また、本実施形態では瞼開閉検出装置10の単一のプロセッサが各機能を実現する場合の例について示したが、複数の独立したプロセッサを組み合わせて瞼開閉検出装置10を構成し、各プロセッサが各機能を実現してもよい。また、プロセッサが複数設けられる場合、プログラムを記憶する記憶媒体はプロセッサごとに個別に設けられてもよいし、1つの記憶媒体が全てのプロセッサの機能に対応するプログラムを一括して記憶してもよい。 Further, in the present embodiment, an example in which a single processor of the eyelid opening / closing detection device 10 realizes each function has been shown, but a plurality of independent processors are combined to form the eyelid opening / closing detection device 10, and each processor Each function may be realized. When a plurality of processors are provided, storage media for storing programs may be provided individually for each processor, or one storage medium may collectively store programs corresponding to the functions of all processors. Good.

図3に示すように、瞼開閉検出装置10のプロセッサは、ROMをはじめとする記憶媒体に記憶された瞼開閉検出プログラムによって、少なくとも画像生成部21、初期検出部22、第1識別器23、第2識別器24、補助判定部25および統合判定部26として機能する。これらの各機能実現部21−26は、それぞれプログラムの形態で記憶媒体に記憶されている。 As shown in FIG. 3, the processor of the eyelid opening / closing detection device 10 has at least an image generation unit 21, an initial detection unit 22, and a first classifier 23 by means of an eyelid opening / closing detection program stored in a storage medium such as a ROM. It functions as a second classifier 24, an auxiliary determination unit 25, and an integrated determination unit 26. Each of these function realization units 21-26 is stored in a storage medium in the form of a program.

図4は、図3に示す瞼開閉検出装置10のプロセッサにより、時系列的に連続した画像を用いずとも高精度に被写体の瞼の開閉判定を行なう際の手順を示すフローチャートである。図4において、Sに数字を付した符号はフローチャートの各ステップを示す。 FIG. 4 is a flowchart showing a procedure for determining the opening / closing of the eyelid of a subject with high accuracy by the processor of the eyelid opening / closing detection device 10 shown in FIG. 3 without using continuous images in time series. In FIG. 4, reference numerals with numbers attached to S indicate each step of the flowchart.

撮像素子14は、画像生成部21に制御されて被写体を撮像し、被写体の顔画像の画像データを生成して画像生成部21に与える(ステップS1)。 The image sensor 14 is controlled by the image generation unit 21 to image the subject, generates image data of the face image of the subject, and gives the image data to the image generation unit 21 (step S1).

画像生成部21は、撮像素子14を制御し、撮像素子14が出力した画像データにもとづいて顔画像を生成する(ステップS2)。 The image generation unit 21 controls the image sensor 14 and generates a face image based on the image data output by the image sensor 14 (step S2).

初期検出部22は、被写体の顔画像から、たとえば輝度勾配方向共起ヒストグラム(CoHOG:Co-occurrence Histograms of Oriented Gradients)を用いた処理(以下、CoHOG処理という)を行なう識別器であり、初期位置検出辞書を用いて目の領域を検出する(ステップS3)。 The initial detection unit 22 is a classifier that performs processing (hereinafter referred to as CoHOG processing) using, for example, a Co-occurrence Histograms of Oriented Gradients (Co-HOG) from the face image of the subject, and is an initial position. The region of the eye is detected using the detection dictionary (step S3).

図5は、初期検出部22が用いる初期位置検出辞書と、第2識別器24が用いる開眼用位置検出辞書および閉眼用位置検出辞書について説明するための図である。 FIG. 5 is a diagram for explaining the initial position detection dictionary used by the initial detection unit 22, the eye opening position detection dictionary and the eye closing position detection dictionary used by the second classifier 24.

図5に示すように、初期位置検出辞書は、目の画像を正解(ポジティブデータ)、目の周辺部分を不正解(ネガティブデータ)として学習した辞書である。すなわち、初期位置検出辞書は、瞼が開いた画像も閉じた画像も、ともに正解として学習させた辞書である。一方、開眼用位置検出辞書および閉眼用位置検出辞書は、初期位置検出辞書よりも解像度の高い入力画像により作成される。また、開眼用位置検出辞書は、瞼が開いた画像のみを正解とし、目の周辺部分を不正解として学習させた辞書である。閉眼用位置検出辞書は、瞼が閉じた画像のみを正解とし、目の周辺部分を不正解として学習させた辞書である。 As shown in FIG. 5, the initial position detection dictionary is a dictionary in which the image of the eye is learned as a correct answer (positive data) and the peripheral portion of the eye is used as an incorrect answer (negative data). That is, the initial position detection dictionary is a dictionary in which both the image with the eyelids open and the image with the eyelids closed are learned as correct answers. On the other hand, the eye-opening position detection dictionary and the eye-closing position detection dictionary are created with input images having a higher resolution than the initial position detection dictionary. Further, the eye-opening position detection dictionary is a dictionary in which only the image in which the eyelids are opened is regarded as the correct answer, and the peripheral portion of the eye is learned as the incorrect answer. The eye-closing position detection dictionary is a dictionary in which only the image with the closed eyelids is regarded as the correct answer and the peripheral part of the eye is learned as the incorrect answer.

このため、初期位置検出辞書は、開眼用位置検出辞書および閉眼用位置検出辞書に比べ、位置ずれに強いが、精度には劣る。このため、初期位置検出辞書は、顔画像などの広い領域から目の領域を大まかに検出するのに適している。一方、開眼用位置検出辞書および閉眼用位置検出辞書は、位置ずれに弱い一方で、狭い領域から目の領域を高精度に検出するのに適している。したがって、本実施形態では、まず、初期検出部22により初期位置検出辞書を用いて顔画像から大まかに目の領域を検出させておく。そして、この検出された目の領域を包含する領域について、第2識別器24により開眼用位置検出辞書および閉眼用位置検出辞書を用いて高精度に目の領域を検出させる。 Therefore, the initial position detection dictionary is more resistant to misalignment than the eye-opening position detection dictionary and the eye-closing position detection dictionary, but is inferior in accuracy. Therefore, the initial position detection dictionary is suitable for roughly detecting the eye area from a wide area such as a face image. On the other hand, the eye-opening position detection dictionary and the eye-closing position detection dictionary are vulnerable to misalignment, but are suitable for detecting the eye region from a narrow region with high accuracy. Therefore, in the present embodiment, first, the initial detection unit 22 uses the initial position detection dictionary to roughly detect the eye region from the face image. Then, with respect to the region including the detected eye region, the eye region is detected with high accuracy by the second classifier 24 using the eye opening position detection dictionary and the eye closing position detection dictionary.

そこで、ステップS3において、初期検出部22は、画像全体を顔の辞書に合わせて正規化して顔を検出する。そして、初期検出部22は、検出した顔の領域を目の辞書サイズに応じて正規化し、初期位置検出辞書を用いて目の領域を検出する。 Therefore, in step S3, the initial detection unit 22 detects the face by normalizing the entire image according to the face dictionary. Then, the initial detection unit 22 normalizes the detected face area according to the dictionary size of the eyes, and detects the eye area using the initial position detection dictionary.

なお、本実施形態における辞書は全て、ポジティブとネガティブを逆に学習しても構わない。逆に学習した場合は、尤度にもとづく判定結果を反転させればよいだけである。 In addition, all the dictionaries in this embodiment may learn positive and negative in reverse. On the contrary, when learning is performed, it is only necessary to invert the judgment result based on the likelihood.

以上のステップS1−S3の手順により、顔画像から目の領域をおおまかに検出することができる。次に、検出した目の領域について、左目、右目のそれぞれについて瞼の開閉判定を行なう。 By the above steps S1-S3, the eye region can be roughly detected from the face image. Next, regarding the detected eye region, the opening / closing of the eyelids is determined for each of the left eye and the right eye.

第1識別器23は、第1の開閉判定辞書を用いて、初期検出部22により検出された目の領域について瞼の開閉の判定を行い、判定結果(以下、第1判定結果という)を出力する(ステップS4)。第1識別器23としては、正解と不正解を学習した識別器により構成することができ、たとえばCoHOG識別器により構成できる。 The first classifier 23 uses the first open / close determination dictionary to determine the opening / closing of the eyelids for the eye region detected by the initial detection unit 22, and outputs the determination result (hereinafter referred to as the first determination result). (Step S4). The first classifier 23 can be configured by a classifier that has learned correct and incorrect answers, and can be configured by, for example, a CoHOG classifier.

第2識別器24は、初期検出部22により検出された目の領域を包含する走査領域を切り出し、この走査領域から開眼用位置検出辞書および閉眼用位置検出辞書を用いて高精度に目の領域を検出する。そして、第2識別器24は、第1の開閉判定辞書とは異なる入力画像を用いて作成された第2の開閉判定辞書を用いて、高精度に検出した目の領域について瞼の開閉の判定を行い、判定結果(以下、第2判定結果という)を出力する(ステップS5)。第2識別器24としては、正解と不正解を学習した識別器により構成することができ、第1識別器23と同様にたとえばCoHOG識別器により構成できる。 The second classifier 24 cuts out a scanning area including the eye area detected by the initial detection unit 22, and uses the eye opening position detection dictionary and the eye closing position detection dictionary from this scanning area to obtain the eye area with high accuracy. Is detected. Then, the second classifier 24 uses a second open / close determination dictionary created by using an input image different from the first open / close determination dictionary to determine whether the eyelids are open / closed with respect to the eye region detected with high accuracy. Is performed, and the determination result (hereinafter referred to as the second determination result) is output (step S5). The second classifier 24 can be configured by a classifier that has learned correct and incorrect answers, and can be configured by, for example, a CoHOG classifier like the first classifier 23.

補助判定部25は、第1識別器23および第2識別器24のいずれとも異なる特徴量を用いて、初期検出部22により検出された目の領域について瞼の開閉の判定を行い、判定結果(以下、第3の判定結果という)を出力する(ステップS6)。 The auxiliary determination unit 25 determines whether or not the eyelids are open / closed in the eye region detected by the initial detection unit 22 using a feature amount different from that of both the first classifier 23 and the second classifier 24, and the determination result ( Hereinafter, the third determination result) is output (step S6).

補助判定部25が用いる特徴量としては、たとえばエッジ強度、円形分離度(フィルタ)、勾配方向などを用いることができる。以下の説明では、補助判定部25がエッジ強度を用いて瞼の開閉判定を行う場合の例について示す。 As the feature amount used by the auxiliary determination unit 25, for example, edge strength, circular separation (filter), gradient direction, and the like can be used. In the following description, an example will be described in which the auxiliary determination unit 25 determines whether to open or close the eyelid using the edge strength.

統合判定部26は、第1識別器23、第2識別器24および補助判定部25の判定結果を統合評価し、被写体の瞼の開閉の最終判定を行なう(ステップS7)。 The integrated determination unit 26 integrates and evaluates the determination results of the first classifier 23, the second classifier 24, and the auxiliary determination unit 25, and makes a final determination of opening and closing of the eyelids of the subject (step S7).

図6は、統合判定部26による最終判定方法について説明するための図である。 FIG. 6 is a diagram for explaining a final determination method by the integrated determination unit 26.

図6に示すように、統合判定部26は、たとえば第1識別器23、第2識別器24および補助判定部25の判定結果の多数決をとることで最終判定を行う。また、本例では出力される判定結果が3つであるため、1つでも「判定不能」が含まれている場合には、多数決を取ることができなくなる。そこで、統合判定部26は、精度の高い判定が期待できる順に、すなわち第2識別器24の第2判定結果、第1識別器23の第1判定結果、補助判定部25の第3判定結果の順に優先度付けする。そして、「判定不能」が含まれることにより多数決がとれない場合には、この優先度の順で最終判定を行う(図6参照)。 As shown in FIG. 6, the integrated determination unit 26 makes a final determination by, for example, taking a majority vote of the determination results of the first classifier 23, the second classifier 24, and the auxiliary determination unit 25. In addition, since there are three judgment results output in this example, if even one of them includes "undecidable", it becomes impossible to take a majority vote. Therefore, the integrated determination unit 26 determines in the order in which highly accurate determination can be expected, that is, the second determination result of the second classifier 24, the first determination result of the first classifier 23, and the third determination result of the auxiliary determination unit 25. Prioritize in order. Then, if a majority vote cannot be obtained due to the inclusion of "undecidable", the final judgment is made in the order of this priority (see FIG. 6).

両目ともに最終判定を行った場合は一連の手順は終了となる。一方、片方の目の最終判定が行われていない場合は、ステップS4に戻る。 When the final judgment is made for both eyes, the series of procedures is completed. On the other hand, if the final determination of one eye has not been made, the process returns to step S4.

以上の手順により、複数の識別器の瞼開閉判定結果を統合評価することができる。このため、時系列的に連続した画像を用いずとも、高精度に被写体の瞼の開閉判定を行なうことができる。 By the above procedure, the eyelid opening / closing determination results of a plurality of classifiers can be evaluated in an integrated manner. Therefore, it is possible to determine the opening / closing of the eyelids of the subject with high accuracy without using continuous images in time series.

次に、第1識別器23による瞼開閉判定処理について詳細に説明する。 Next, the eyelid opening / closing determination process by the first classifier 23 will be described in detail.

図7は、図4のステップS4で第1識別器23により実行される瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャートである。また、図8は、CoHOG特徴量の求め方について説明するための図である。 FIG. 7 is a subroutine flowchart showing an example of a detailed procedure of the eyelid opening / closing determination process executed by the first classifier 23 in step S4 of FIG. Further, FIG. 8 is a diagram for explaining how to obtain the CoHOG feature amount.

第1識別器23は、第2識別器24とは異なり、目の領域の再探索を行わず、初期検出部22により検出された目の領域をそのまま用いる。また、第1識別器23が瞼開閉判定に用いる第1の開閉判定辞書は、目の位置がずれても尤度が急激に変化したりしないように、同一の目の画像の位置をずらしたり拡大縮小したりして水増ししたデータを用いて作成されるため、位置ずれに強い。また、辞書をつくる時の輝度勾配閾値が低めに設定される。このため、入力画像に輝度の変化があれば、この変化も画像の特徴として第1の開閉判定辞書は学習している。このため、目の領域の画像について、輝度ヒストグラム平坦化などの輝度補正処理は不要である。 Unlike the second classifier 24, the first classifier 23 does not search for the eye area again, and uses the eye area detected by the initial detection unit 22 as it is. Further, the first open / close determination dictionary used by the first classifier 23 for the eyelid open / close determination may shift the position of the same eye image so that the likelihood does not change suddenly even if the eye position shifts. Since it is created using data that has been enlarged or reduced and inflated, it is resistant to misalignment. In addition, the brightness gradient threshold value when creating a dictionary is set low. Therefore, if there is a change in the brightness of the input image, this change is also learned by the first open / close determination dictionary as a feature of the image. Therefore, it is not necessary to perform a luminance correction process such as flattening the luminance histogram for the image in the eye region.

ステップS401において、第1識別器23は、初期検出部22により検出された目の領域をそのまま切り出して、第1の開閉判定辞書の学習した目の画像サイズに応じて改めて正規化する。これは、図4のステップS3とは正規化のサイズが異なるためである。 In step S401, the first classifier 23 cuts out the eye region detected by the initial detection unit 22 as it is, and normalizes it again according to the learned eye image size of the first open / close determination dictionary. This is because the size of the normalization is different from that of step S3 in FIG.

次に、ステップS402において、第1識別器23は正規化された画像から特徴量を求める。特徴量としては、たとえばCoHOG特徴量を用いることができる(図8参照)。 Next, in step S402, the first classifier 23 obtains the feature amount from the normalized image. As the feature amount, for example, CoHOG feature amount can be used (see FIG. 8).

次に、ステップS403において、第1識別器23は、求めた特徴量について、第1の開閉判定辞書とSVM(サポートベクターマシン)等で照合し、尤度(スコア)を算出する。 Next, in step S403, the first classifier 23 collates the obtained feature amount with the first open / close determination dictionary using an SVM (support vector machine) or the like, and calculates the likelihood (score).

たとえば、第1の開閉判定辞書が、閉じた瞼の画像データをポジティブ、開いた瞼の画像データをネガティブとして学習させた辞書である場合、尤度が第1の閾値以上の場合には(ステップS404のYES)、目が閉じていると判定する(ステップS405)。一方、尤度が第1の閾値より小さい場合には、目が開いていると判定する。このとき、図7に示すように、閾値付近で判定結果がバタつくことを避けるよう、尤度が第1の閾値より小さい場合には(ステップS404のNO)、さらに尤度が第2閾値以下であれば(ステップS406のYES)目が開いていると判定する一方(ステップS407)、尤度が第2閾値より大きい場合には(ステップS406のNO)、判定不能と判定するとよい(ステップS408)。 For example, when the first open / close judgment dictionary is a dictionary in which the image data of the closed eyelid is trained as positive and the image data of the open eyelid is trained as negative, when the likelihood is equal to or higher than the first threshold value (step). YES in S404), it is determined that the eyes are closed (step S405). On the other hand, when the likelihood is smaller than the first threshold value, it is determined that the eyes are open. At this time, as shown in FIG. 7, when the likelihood is smaller than the first threshold (NO in step S404) so as to avoid fluttering of the determination result near the threshold, the likelihood is further equal to or less than the second threshold. If (YES in step S406), it is determined that the eyes are open (step S407), while if the likelihood is greater than the second threshold value (NO in step S406), it is determined that the determination is impossible (step S408). ).

なお、第1識別器23は、目が検出されなかった場合も判定不能を出力する。ステップS401で正規化した際に画像がはみ出してしまう場合にも判定不能が出力される。 In addition, the first classifier 23 outputs the undecidable even when the eye is not detected. Even if the image protrudes when normalized in step S401, undetermination is output.

次に、第2識別器24による瞼開閉判定処理について詳細に説明する。 Next, the eyelid opening / closing determination process by the second classifier 24 will be described in detail.

図9は、図4のステップS5で第2識別器24により実行される瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャートである。また、図10は、第2識別器24の一構成例を示す機能ブロック図である。図10に示すように、第2識別器24は、輝度補正部241、特徴量算出部242、仮開眼位置識別器243、仮閉眼位置識別器244、第1開閉識別器245、第2開閉識別器246および開閉判定部247を有する。 FIG. 9 is a subroutine flowchart showing an example of a detailed procedure of the eyelid opening / closing determination process executed by the second classifier 24 in step S5 of FIG. Further, FIG. 10 is a functional block diagram showing a configuration example of the second classifier 24. As shown in FIG. 10, the second classifier 24 includes a brightness correction unit 241, a feature amount calculation unit 242, a temporary eye opening position classifier 243, a temporary eye closing position classifier 244, a first open / close classifier 245, and a second open / close identification device. It has a vessel 246 and an open / close determination unit 247.

ステップS501において、輝度補正部241は、初期検出部22により検出された目の領域に対して輝度ヒストグラムを平坦化する輝度補正処理を行う。輝度補正処理を行うことにより、環境光に対するロバスト性が高まる。 In step S501, the luminance correction unit 241 performs a luminance correction process for flattening the luminance histogram with respect to the eye region detected by the initial detection unit 22. By performing the brightness correction processing, the robustness against ambient light is enhanced.

図11は、第2識別器24による特徴量算出処理を説明するための図である。 FIG. 11 is a diagram for explaining the feature amount calculation process by the second classifier 24.

ステップS502において、特徴量算出部242は、初期検出部22により検出された目の領域を包含する走査領域を切り出し、第2識別器24の辞書サイズに応じてサイズを正規化する(図11の上側参照)。 In step S502, the feature amount calculation unit 242 cuts out a scanning area including the eye area detected by the initial detection unit 22, and normalizes the size according to the dictionary size of the second classifier 24 (FIG. 11). See top).

次に、ステップS503において、特徴量算出部242は、切り出した走査領域で走査枠をずらしながら走査し、各走査位置で特徴量を求める。特徴量は、たとえばCoHOG特徴量であれば、図8に示す方法と同様にして求められるが、走査位置の数だけ複数の特徴量が計算されることになる(図11の下側参照)。 Next, in step S503, the feature amount calculation unit 242 scans the cut out scanning area while shifting the scanning frame, and obtains the feature amount at each scanning position. For example, if the feature amount is CoHOG feature amount, it can be obtained in the same manner as the method shown in FIG. 8, but a plurality of feature amounts are calculated for the number of scanning positions (see the lower side of FIG. 11).

図12は、第2識別器24による仮開眼位置検出処理および仮閉眼位置検出処理を説明するための図である。 FIG. 12 is a diagram for explaining a temporary eye opening position detection process and a temporary eye closure position detection process by the second classifier 24.

ステップS504において、仮開眼位置識別器243は、各走査位置の特徴量を開眼用位置検出辞書と照合して各走査位置で尤度を求め、被写体の瞼が開いていたと仮定した場合の目の位置である仮開眼位置を検出する。 In step S504, the temporary eye-opening position classifier 243 collates the feature amount of each scanning position with the eye-opening position detection dictionary to obtain the likelihood at each scanning position, and assumes that the eyelids of the subject are open. The temporary eye opening position, which is the position, is detected.

次に、ステップS505において、仮閉眼位置識別器244は、各走査位置の特徴量を閉眼用位置検出辞書と照合して各走査位置で尤度を求め、被写体の瞼が閉じていたと仮定した場合の目の位置である仮閉眼位置を検出する。 Next, in step S505, the temporary closed eye position classifier 244 collates the feature amount of each scanning position with the eye closing position detection dictionary to obtain the likelihood at each scanning position, and assumes that the eyelids of the subject are closed. The temporary closed eye position, which is the position of the eye, is detected.

図5に示すように、開眼用位置検出辞書は、初期位置検出辞書に比べ、高精細な(高解像度な)、開いた目のデータセットを用いて作成され、瞼が開いていると仮定した場合の目の、より高精度な位置(仮開眼位置)を検出するために用いられる。同様に、閉眼用位置検出辞書は、初期位置検出辞書に比べ、高精細な(高解像度な)、閉じた目のデータセットを用いて作成され、瞼が閉じていると仮定した場合の目の、より高精度な位置(仮閉眼位置)を検出するために用いられる。 As shown in FIG. 5, the eye-opening position detection dictionary was created using a high-definition (high-resolution) open-eye dataset as compared to the initial position detection dictionary, and it was assumed that the eyelids were open. It is used to detect a more accurate position (temporary eye opening position) of the case eye. Similarly, the eye closure position detection dictionary is created using a higher definition (higher resolution), closed eye dataset than the initial position detection dictionary, assuming that the eyelids are closed. , Used to detect a more accurate position (temporary closed eye position).

また、仮開眼位置および仮閉眼位置の検出方法としては、たとえば特徴量と辞書とを照合した時の尤度が高い座標を採用する方法や、閾値以上の尤度の座標について尤度で重みづけ平均をとった座標を採用するといった方法を用いることができる。 Further, as a method of detecting the temporarily opened eye position and the temporarily closed eye position, for example, a method of adopting coordinates having a high likelihood when the feature amount and a dictionary are collated, or a method of weighting coordinates with a likelihood of a threshold value or more by a likelihood. A method such as adopting the averaged coordinates can be used.

以上のステップS501−505の手順により、仮開眼位置および仮閉眼位置を高精度に検出することができる。 By the above procedure of steps S501-505, the temporary eye opening position and the temporary eye closing position can be detected with high accuracy.

続いて、第1の開閉判定辞書とは異なる入力画像を用いて作成された第2の開閉判定辞書を用いて、瞼の開閉の第2判定結果を出力する処理を行う。第2の開閉判定辞書は、開眼用開閉判定辞書と、閉眼用開閉判定辞書とを含む。 Subsequently, a process of outputting the second determination result of opening / closing the eyelid is performed using the second opening / closing determination dictionary created by using the input image different from the first opening / closing determination dictionary. The second opening / closing determination dictionary includes an opening / closing determination dictionary for opening eyes and an opening / closing determination dictionary for closing eyes.

ステップS506において、第1開閉識別器245は、仮開眼位置で開眼用開閉判定辞書と照合し、開眼尤度を求める。また、ステップS507において、第2開閉識別器246は、仮閉眼位置で閉眼用開閉判定辞書と照合し、閉眼尤度を求める。 In step S506, the first open / close classifier 245 collates with the open / close determination dictionary for eye opening at the temporary eye opening position to obtain the eye opening likelihood. Further, in step S507, the second opening / closing classifier 246 collates with the opening / closing determination dictionary for closing the eyes at the temporary closing position to obtain the likelihood of closing the eyes.

次に、ステップS508において、開閉判定部247は、開眼尤度および閉眼尤度にもとづいて最終尤度を求める。そして、この最終尤度を用いて瞼の開閉判定を行う。たとえば図7と同様に開閉判定を行なう場合、最終尤度が第1の閾値以上の場合には(ステップS509のYES)、目が閉じていると判定する(ステップS510)。一方、最終尤度が第1の閾値より小さい場合には(ステップS509のNO)、さらに最終尤度が第2閾値以下であれば(ステップS511のYES)目が開いていると判定する一方(ステップS512)、最終尤度が第2閾値より大きい場合には(ステップS511のNO)、判定不能と判定するとよい(ステップS513)。 Next, in step S508, the open / close determination unit 247 obtains the final likelihood based on the eye-opening likelihood and the eye-closing likelihood. Then, the opening / closing of the eyelid is determined using this final likelihood. For example, when the opening / closing determination is performed as in FIG. 7, if the final likelihood is equal to or greater than the first threshold value (YES in step S509), it is determined that the eyes are closed (step S510). On the other hand, if the final likelihood is smaller than the first threshold value (NO in step S509), and if the final likelihood is equal to or less than the second threshold value (YES in step S511), it is determined that the eyes are open (NO). In step S512), if the final likelihood is greater than the second threshold value (NO in step S511), it may be determined that the determination is impossible (step S513).

なお、第2識別器24は、第1識別器23と同様に、目が検出されなかった場合や高精度な位置検出で閉じた目も開いた目も見つからなかった場合にも、判定不能を出力する。 As with the first classifier 23, the second classifier 24 makes a determination impossible even when no eyes are detected or when neither closed eyes nor open eyes are found by high-precision position detection. Output.

ここで、第1識別器23および第2識別器24の違いについて説明する。 Here, the difference between the first classifier 23 and the second classifier 24 will be described.

第1識別器23と第2識別器24は、どちらも瞼の開閉を検出する識別器であるが、第1識別器23と第2識別器24は違うデータセット(辞書作成に使う入力画像)を用いて作られている。 The first classifier 23 and the second classifier 24 are both classifiers that detect the opening and closing of the eyelids, but the first classifier 23 and the second classifier 24 are different data sets (input images used for creating a dictionary). It is made using.

第1識別器23は、第1の開閉判定辞書の作成に用いるデータセットとして、位置をずらしたり拡大縮小したりして水増ししたデータを用い、閉じた瞼のデータをポジティブ、開いた瞼のデータをネガティブとして学習させる。位置をずらして水増しすることで、辞書の入力データが多くなる。なお、ポジティブとネガティブは逆でも構わない。 The first classifier 23 uses inflated data by shifting or scaling the position as a data set used for creating the first open / close determination dictionary, and positively sets the closed eyelid data and opens the closed eyelid data. To be learned as negative. By shifting the position and padding, the input data of the dictionary increases. The positive and negative may be reversed.

一方、第2識別器24は、第2の開閉判定辞書の作成に用いるデータセットとして、位置をずらした水増しを行わないデータを用いる。図9−12を用いて説明したとおり、第2識別器24は、初期検出部22が検出した目の領域にもとづいて、より高精細な目の識別器である仮開眼位置識別器243および仮閉眼位置識別器244を用いて、再度目の位置(開いていると仮定した場合の仮開眼位置、閉じていると仮定した場合の仮閉眼位置)を検出することで位置精度を高める。そして、これらの位置のそれぞれで瞼開閉の識別器である第1開閉識別器245および第2開閉識別器246がそれぞれの開眼用開閉判定辞書および閉眼用開閉判定辞書を使って瞼開閉判定を行う。 On the other hand, the second classifier 24 uses data that is not inflated by shifting the position as a data set used for creating the second open / close determination dictionary. As described with reference to FIGS. 9-12, the second classifier 24 is a temporary eye opening position classifier 243 and a temporary eye classifier 243, which are higher-definition eye classifiers, based on the eye region detected by the initial detection unit 22. The position accuracy is improved by detecting the eye position (temporary eye opening position when it is assumed to be open, temporary eye closing position when it is assumed to be closed) again by using the eye closure position classifier 244. Then, at each of these positions, the first open / close classifier 245 and the second open / close classifier 246, which are eyelid open / close classifiers, perform eyelid open / close determination using their respective eye-opening / closing determination dictionaries and eye-closing / opening / closing determination dictionaries. ..

初期検出部22による目の領域の検出では、閉じた目と開いた目が混ざっている初期位置検出辞書を用いるため、位置検出精度が低くなってしまう。一方、第2識別器24を用いる方法では、目の位置の検出精度を高めることができるため、瞼開閉判定辞書との照合した時のスコアの信頼性が向上し、瞼開閉の判定結果の信頼性が向上する。 In the detection of the eye region by the initial detection unit 22, since the initial position detection dictionary in which the closed eyes and the open eyes are mixed is used, the position detection accuracy becomes low. On the other hand, in the method using the second classifier 24, the detection accuracy of the eye position can be improved, so that the reliability of the score when collated with the eyelid opening / closing judgment dictionary is improved, and the reliability of the eyelid opening / closing judgment result is improved. Improves sex.

また、統合判定部26は、使用するデータセットや識別の方法が互いに異なる複数の識別器による複数の判定結果を統合評価して多数決などにより最終的な瞼開閉判定を行うことができる。 In addition, the integrated determination unit 26 can perform an integrated evaluation of a plurality of determination results by a plurality of classifiers having different data sets and identification methods, and perform a final eyelid opening / closing determination by a majority vote or the like.

たとえば、第2識別器24は、少しでも位置がずれると急激に尤度が変化してしまう。また、目の位置を再探索するがゆえに、眼鏡のフレームを閉じた目として検出してしまうなど、局所的な紛らわしい画像に引きずられてしまう場合がありうる。一方、第1識別器23は、位置ずれに強くこの種の局所的な紛らわしい画像に引きずられる可能性が低い。 For example, the likelihood of the second classifier 24 changes abruptly if the position shifts even a little. In addition, since the eye position is re-searched, the frame of the spectacles may be detected as a closed eye, and the image may be dragged by a locally confusing image. On the other hand, the first classifier 23 is resistant to misalignment and is less likely to be dragged by this type of locally confusing image.

本実施形態に係る瞼開閉検出装置10によれば、図6に示すように、1の識別器が苦手とする場面において当該識別器がたとえ判定不能を出力したとしても、他の識別器によって補うことにより、最終的な瞼開閉判定を高精度に行なうことができる。 According to the eyelid opening / closing detection device 10 according to the present embodiment, as shown in FIG. 6, even if the classifier outputs undecidable in a situation where the classifier 1 is not good at it, it is supplemented by another classifier. As a result, the final eyelid opening / closing determination can be performed with high accuracy.

次に、補助判定部25によるエッジ強度を用いた瞼開閉判定処理について詳細に説明する。 Next, the eyelid opening / closing determination process using the edge strength by the auxiliary determination unit 25 will be described in detail.

図13は、図4のステップS6で補助判定部25により実行されるエッジ強度を用いた瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャートである。また、図14は、補助判定部25の一構成例を示す機能ブロック図である。図14に示すように、補助判定部25は、輝度補正部251、エッジ強度画像生成部252、組抽出部253、グループ化部254および開閉判定部255を有する。 FIG. 13 is a subroutine flowchart showing an example of a detailed procedure of the eyelid opening / closing determination process using the edge strength executed by the auxiliary determination unit 25 in step S6 of FIG. Further, FIG. 14 is a functional block diagram showing a configuration example of the auxiliary determination unit 25. As shown in FIG. 14, the auxiliary determination unit 25 includes a brightness correction unit 251, an edge intensity image generation unit 252, a group extraction unit 253, a grouping unit 254, and an open / close determination unit 255.

まず、ステップS601において、輝度補正部251は、初期検出部22により検出された目の領域の画像サイズや傾きを正規化する。 First, in step S601, the luminance correction unit 251 normalizes the image size and the inclination of the eye region detected by the initial detection unit 22.

次に、ステップS602において、輝度補正部251は、初期検出部22により検出された目の領域に対して輝度ヒストグラムを平坦化する輝度補正処理を行う。輝度補正処理を行うことにより、環境光に対するロバスト性が高まる。 Next, in step S602, the luminance correction unit 251 performs a luminance correction process for flattening the luminance histogram with respect to the eye region detected by the initial detection unit 22. By performing the brightness correction processing, the robustness against ambient light is enhanced.

図15(a)はエッジ強度画像生成に用いられるカーネルの一例を示す説明図であり(b)はカーネルの他の例を示す説明図である。 FIG. 15A is an explanatory diagram showing an example of a kernel used for edge intensity image generation, and FIG. 15B is an explanatory diagram showing another example of the kernel.

ステップS603において、エッジ強度画像生成部252は、たとえば図15(a)や(b)などに示すカーネルを畳み込むことによりエッジ強度画像を生成する。 In step S603, the edge intensity image generation unit 252 generates an edge intensity image by convolving the kernel shown in FIGS. 15A and 15B, for example.

次に、ステップS604において、組抽出部253は、上瞼候補点および下瞼候補点を抽出するとともに、これらの候補点から上下瞼候補点の組を抽出する。 Next, in step S604, the group extraction unit 253 extracts the upper eyelid candidate points and the lower eyelid candidate points, and extracts a set of upper and lower eyelid candidate points from these candidate points.

図16は、図13のステップS604で組抽出部253により実行される瞼候補点抽出処理およびそれらのペアリング処理の手順の一例を示すサブルーチンフローチャートである。この手順では、目の輝度値が目の周辺の肌の輝度値に比べて低い値となることを利用する。 FIG. 16 is a subroutine flowchart showing an example of the procedure of the eyelid candidate point extraction process and the pairing process of the eyelid candidate point extraction process executed by the set extraction unit 253 in step S604 of FIG. In this procedure, it is utilized that the brightness value of the eyes is lower than the brightness value of the skin around the eyes.

図17は、上瞼候補点および下瞼候補点が抽出される様子の一例を示す説明図である。 FIG. 17 is an explanatory diagram showing an example of how the upper eyelid candidate point and the lower eyelid candidate point are extracted.

ステップS6401において、組抽出部253は、エッジ強度画像を縦の各ラインについて上から下へ探索し始める。 In step S6401, the group extraction unit 253 starts searching the edge intensity image from top to bottom for each vertical line.

エッジ強度の極大値を示す位置があると(ステップS6402のYES)、組抽出部253は、この位置を上瞼候補点として抽出し、当該位置の座標とエッジ強度を登録する(ステップS6403)。エッジ強度の極大値を示す位置は、輝度値が明から暗に変化する位置であり、目の周辺の肌と目との境界位置である可能性が高いためである。また、エッジ強度の極小値を示す位置があると(ステップS6404のYES)、組抽出部253は、この位置を下瞼候補点として抽出し、当該位置の座標とエッジ強度を登録する(ステップS6405)。そして、現在探索中の縦のラインの最下部に到る(ステップS6406)。このとき、探索したラインに下瞼候補点がなかった場合は(ステップS6407のYES)、組抽出部253はエッジ強度の最小値を示す位置を下瞼候補点として抽出し、この位置の座標とエッジ強度とを登録する。 When there is a position showing the maximum value of the edge strength (YES in step S6402), the group extraction unit 253 extracts this position as an upper eyelid candidate point and registers the coordinates and edge strength of the position (step S6403). This is because the position showing the maximum value of the edge strength is the position where the brightness value changes from light to dark, and is likely to be the boundary position between the skin and the eye around the eye. If there is a position indicating the minimum value of the edge strength (YES in step S6404), the group extraction unit 253 extracts this position as a lower eyelid candidate point and registers the coordinates and edge strength of the position (step S6405). ). Then, it reaches the bottom of the vertical line currently being searched (step S6406). At this time, if there is no lower eyelid candidate point in the searched line (YES in step S6407), the group extraction unit 253 extracts the position showing the minimum value of the edge strength as the lower eyelid candidate point, and sets the coordinates of this position. Register the edge strength.

図18は、縦の1のライン上で抽出された上瞼候補点および下瞼候補点の一例を示す説明図である。図18に示すように、初期検出部22に検出された目の領域にたとえば眼鏡のフレームなど目以外のものが含まれていると、上瞼候補点および下瞼候補点が誤検出されてしまうこともある。 FIG. 18 is an explanatory diagram showing an example of upper eyelid candidate points and lower eyelid candidate points extracted on one vertical line. As shown in FIG. 18, if the area of the eyes detected by the initial detection unit 22 includes something other than the eyes, such as the frame of eyeglasses, the upper eyelid candidate point and the lower eyelid candidate point are erroneously detected. Sometimes.

次に、組抽出部253は、探索したラインで抽出した上瞼候補点および下瞼候補点のペアリングを試みる。 Next, the group extraction unit 253 attempts to pair the upper eyelid candidate points and the lower eyelid candidate points extracted from the searched line.

図19は、上瞼候補点および下瞼候補点のペアリング方法の一例を示す説明図である。組抽出部253は、探索したラインで抽出した上瞼候補点のそれぞれについて、上下方向下側で最も近い下瞼候補点をペア候補とする(ステップS6409、図19の上から下への矢印参照)。また、下瞼候補点のそれぞれについて、上下方向上側で最も近い上瞼候補点をペア候補とする(ステップS6410、図19の下から上への矢印参照)。 FIG. 19 is an explanatory diagram showing an example of a pairing method of the upper eyelid candidate point and the lower eyelid candidate point. The group extraction unit 253 sets the closest lower eyelid candidate point on the lower side in the vertical direction as a pair candidate for each of the upper eyelid candidate points extracted by the searched line (see the arrows from top to bottom in step S6409, FIG. 19). ). Further, for each of the lower eyelid candidate points, the closest upper eyelid candidate point on the upper side in the vertical direction is set as a pair candidate (see step S6410, arrow from bottom to top in FIG. 19).

そして、互いにペア候補であって各候補点における輝度値変化量の差が閾値以下であるペア候補どうしがあると(ステップS6411のYES)、このペア候補どうしを上瞼候補点と下瞼候補点との組としてペアリングする(ステップS6412)。各候補点における輝度値変化量の差が閾値以下であるとは、たとえば図17に示す例では、ΔAとΔBの差の絶対値が閾値以下であることをいう。このステップS6401からS6412までの手順を、全ての縦のラインで繰り返す(ステップS6413のNO、ステップS6414)。なお、図16には全てのラインを処理する場合の例を示すためステップS6414で1ライン右に行く場合の例を示したが、処理量の低減のため1ライン飛ばしや2ライン飛ばしで処理を行ってもよく、この場合はS6414で1ライン飛ばしや2ライン飛ばしで右に移動する。1ライン飛ばしや2ライン飛ばしの場合は、処理対象ラインの数が少なくなる。 Then, if there are pair candidates that are pair candidates and the difference in the amount of change in the brightness value at each candidate point is equal to or less than the threshold value (YES in step S6411), the pair candidates are regarded as the upper eyelid candidate point and the lower eyelid candidate point. Pair as a pair with (step S6412). The difference in the amount of change in the luminance value at each candidate point is not less than the threshold value, for example, in the example shown in FIG. 17, it means that the absolute value of the difference between ΔA and ΔB is not more than the threshold value. The procedure from step S6401 to S6412 is repeated on all vertical lines (NO in step S6413, step S6414). Note that FIG. 16 shows an example of going to the right by one line in step S6414 to show an example of processing all the lines, but in order to reduce the processing amount, the processing is performed by skipping one line or skipping two lines. You may go. In this case, skip one line or skip two lines in S6414 to move to the right. In the case of skipping one line or skipping two lines, the number of lines to be processed is reduced.

全ての処理対象ラインで瞼候補点抽出処理およびそれらのペアリング処理が行われると(ステップS6413のYES)、図13のステップS605に進み、グループ化部254は、抽出された瞼候補点のペアのそれぞれについて、グループ化部254は、上瞼候補点どうしの距離および下瞼候補点どうしの距離がともに閾値以内であるペア同士が同一のグループに属するようにグルーピングする。 When the eyelid candidate point extraction process and their pairing process are performed on all the processing target lines (YES in step S6413), the process proceeds to step S605 in FIG. 13, and the grouping unit 254 sets the extracted eyelid candidate points. For each of the above, the grouping unit 254 groups the pairs in which the distance between the upper eyelid candidate points and the distance between the lower eyelid candidate points are both within the threshold value so that they belong to the same group.

図20は、グルーピング結果の一例を示す説明図である。図20において、同一のグループに属する候補点は同一形状(円形、四角形、六角形)で示した。 FIG. 20 is an explanatory diagram showing an example of grouping results. In FIG. 20, candidate points belonging to the same group are shown with the same shape (circle, quadrangle, hexagon).

次に、ステップS606において、開閉判定部255は、グループのそれぞれについて、各グループが上下瞼を構成するペアが属するグループであるか否かの判定や瞼の開閉判定に用いられる所定の特徴量を求める。次に、ステップS607において、開閉判定部255は、グループごとに優先度の高いグループから瞼の開閉判定を行い、瞼の開閉判定ができ次第、図4のステップS7に進む。 Next, in step S606, the open / close determination unit 255 determines, for each group, whether or not each group belongs to a pair constituting the upper and lower eyelids, and a predetermined feature amount used for determining whether to open / close the eyelids. Ask. Next, in step S607, the open / close determination unit 255 determines the opening / closing of the eyelids from the group having the highest priority for each group, and proceeds to step S7 of FIG. 4 as soon as the opening / closing determination of the eyelids is made.

図21(a)はグループの長さおよびグループの重心付近の幅の平均値を説明するための図であり、(b)は目頭側上瞼候補点の近似直線および目頭側の上下瞼の近似直線のなす角を説明するための図である。 FIG. 21A is a diagram for explaining the average value of the length of the group and the width near the center of gravity of the group, and FIG. 21B is an approximation straight line of the upper eyelid candidate point on the inner side of the eye and an approximation of the upper and lower eyelids on the inner side of the eye. It is a figure for demonstrating the angle formed by a straight line.

また、図22は所定の特徴量を用いた開閉判定のルールの一例を示す説明図である。図23(a)は図22に示す第1のルールを説明するための図であり、(b)は図22に示す第3のルールを説明するための図であり、(c)は図22に示す第4のルールを説明するための図である。図22に示すルールは、グループを構成する組の数(グループの長さ)、グループの重心付近における幅の平均、およびグループの目頭近傍における複数の上瞼候補点を結ぶ近似直線の傾き、から選ばれた少なくとも2つの特徴量にもとづいて、被写体の瞼の開閉を判定するためのルールである。 Further, FIG. 22 is an explanatory diagram showing an example of a rule for opening / closing determination using a predetermined feature amount. 23 (a) is a diagram for explaining the first rule shown in FIG. 22, (b) is a diagram for explaining the third rule shown in FIG. 22, and (c) is a diagram for explaining the third rule shown in FIG. 22. It is a figure for demonstrating the 4th rule shown in. The rule shown in FIG. 22 is based on the number of pairs constituting the group (group length), the average width near the center of gravity of the group, and the slope of an approximate straight line connecting a plurality of upper eyelid candidate points near the inner corner of the eye of the group. This is a rule for determining the opening / closing of the eyelids of a subject based on at least two selected feature quantities.

開閉判定部255が求める所定の特徴量としては、たとえばグループの長さ、グループの重心付近の幅、グループの目頭側の上瞼の近似直線、目頭側の上下瞼の近似直線のなす角などが挙げられる。 The predetermined feature quantities obtained by the open / close determination unit 255 include, for example, the length of the group, the width near the center of gravity of the group, the approximate straight line of the upper eyelid on the inner side of the eye, and the angle formed by the approximate straight line of the upper and lower eyelids on the inner side of the eye. Can be mentioned.

グループの長さは、各グループが上下瞼を構成するペアが属するグループであるか否かの判定に用いることができる。グループの長さが所定の長さ以上であれば、単なる誤検出ではなく当該グループが上下瞼を構成するペアが属するグループである可能性が高まる。なお、グループの長さは、グループを構成するペアの数であってもよい。長さにかえてペアの数を用いる場合、グループの長さは長いものの構成するペアの密度が低く誤検出の可能性の高いグループを排除することができる。 The length of the group can be used to determine whether or not each group belongs to a pair that constitutes the upper and lower eyelids. If the length of the group is longer than a predetermined length, there is a high possibility that the group is not a mere false positive but a group to which the pair constituting the upper and lower eyelids belongs. The length of the group may be the number of pairs constituting the group. When the number of pairs is used instead of the length, it is possible to exclude a group having a long group length but a low density of constituent pairs and a high possibility of false detection.

また、グループの重心位置が画像中心から遠ざかるほど誤検出である可能性が高まり、画像中心に近づくほど、当該グループが上下瞼を構成するペアが属するグループである可能性が高まる。 Further, the farther the position of the center of gravity of the group is from the center of the image, the higher the possibility of false detection, and the closer the position of the center of gravity is to the center of the image, the higher the possibility that the group belongs to the pair constituting the upper and lower eyelids.

また、画像内におけるグループの重心付近(たとえば重心からグループ長さの2割〜4割ほどの横幅)にあるペアの幅(上下瞼候補点間距離)の平均値は、開閉判定に用いることができる。 In addition, the average value of the width of the pair (distance between the upper and lower eyelid candidate points) near the center of gravity of the group in the image (for example, the width of about 20% to 40% of the group length from the center of gravity) can be used for opening / closing determination. it can.

また、上下瞼を構成するペアが属するグループの目頭側の上瞼の近似直線は、閉眼している時はグループ中心に向かって下向きであるため、開閉判定に用いることができる。 Further, since the approximate straight line of the upper eyelid on the inner side of the eye of the group to which the pair constituting the upper and lower eyelids belongs is downward toward the center of the group when the eyes are closed, it can be used for opening / closing determination.

また、目頭側の上下瞼の近似直線のなす角は、瞼の開閉に応じて当然に変化するため、開閉判定に用いることができる。 Further, since the angle formed by the approximate straight line of the upper and lower eyelids on the inner side of the eye naturally changes according to the opening and closing of the eyelid, it can be used for the opening / closing determination.

これらのほか、開閉判定部255は所定の特徴量として、ペアの幅の最大値、平均値、分散、グループの重心位置などを求めてもよい。 In addition to these, the open / close determination unit 255 may obtain the maximum value, the average value, the dispersion, the position of the center of gravity of the group, and the like as a predetermined feature amount.

特徴量を計算した後、開閉判定部255は、グループの長さや重心位置により、グループが上下瞼を構成するペアが属するグループである可能性が高いグループに対し、高優先度を与えて優先度の高い順番にグループをソートする。このとき、グループの長さや重心位置に応じて、誤検出の可能性が高いグループをフィルタして排除してもよい。 After calculating the feature amount, the open / close determination unit 255 gives a high priority to the group to which the pair constituting the upper and lower eyelids is likely to belong, depending on the length of the group and the position of the center of gravity. Sort the groups in descending order of. At this time, the group with a high possibility of false detection may be filtered out according to the length of the group and the position of the center of gravity.

そして、ソートした順番で、たとえば図22に示した瞼開閉の判定ルールに合致するかを確認する。ルールに合致した時点で、その目についての判定処理は終了する。全てのグループがどのルールにも合致しない場合には、開閉判定部255は判定不能を出力する。 Then, in the sorted order, it is confirmed whether or not the eyelid opening / closing determination rule shown in FIG. 22, for example, is met. When the rule is met, the judgment process for the eye ends. If all the groups do not meet any of the rules, the open / close determination unit 255 outputs the inability to determine.

補助判定部25は、初期検出部22が検出した目の領域のエッジ強度画像を作成し、エッジ強度から上下瞼候補点のペアを複数抽出し、抽出したペアを位置関係に応じてグルーピングする。そして、グループの長さ、重心付近の幅、目頭側の上瞼の近似直線などの各グループの特徴量から、瞼開閉を判定する。このため、眼鏡のフレームやその陰が映り込む場合であっても、被写体が下を向いている場合や被写体のまつ毛が長い場合であっても、時系列的に連続した画像を用いずとも高精度に被写体の瞼の開閉判定を行なうことができる。また、補助判定部25による特徴量算出処理で処理負荷が係るものは、直線近似程度のものであり、瞼の輪郭を曲線フィッティングするような従来の技術に比べて非常に容易に瞼の開閉判定を行うことができる。 The auxiliary determination unit 25 creates an edge intensity image of the eye region detected by the initial detection unit 22, extracts a plurality of pairs of upper and lower eyelid candidate points from the edge intensity, and groups the extracted pairs according to the positional relationship. Then, the opening and closing of the eyelid is determined from the feature quantities of each group such as the length of the group, the width near the center of gravity, and the approximate straight line of the upper eyelid on the inner side of the eye. Therefore, even if the frame of the spectacles or its shadow is reflected, even if the subject is facing downward or the subject has long eyelashes, it is high without using continuous images in chronological order. It is possible to accurately determine the opening and closing of the eyelashes of the subject. Further, in the feature amount calculation process by the auxiliary determination unit 25, the processing load is about a straight line approximation, and it is much easier to determine the opening / closing of the eyelid as compared with the conventional technique of curve fitting the contour of the eyelid. It can be performed.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 Although some embodiments of the present invention have been described, these embodiments are presented as examples and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are also included in the scope of the invention described in the claims and the equivalent scope thereof.

4…車室内用カメラ
10…瞼開閉検出装置
14…撮像素子
21…画像生成部
22…初期検出部
252…エッジ強度画像生成部
253…組抽出部
254…グループ化部
255…開閉判定部
4 ... Vehicle interior camera 10 ... Eyelid opening / closing detection device 14 ... Image sensor 21 ... Image generation unit 22 ... Initial detection unit 252 ... Edge strength image generation unit 253 ... Group extraction unit 254 ... Grouping unit 255 ... Open / close determination unit

Claims (11)

被写体の顔を撮像した撮像素子の出力にもとづいて生成された前記被写体の顔画像から、初期位置検出辞書を用いて目の領域を検出する初期検出部と、
第1の開閉判定辞書を用いて、前記初期検出部により検出された目の領域に含まれた前記被写体の瞼の開閉の第1判定結果を出力する第1識別器と、
前記第1の開閉判定辞書とは異なる入力画像を用いて作成された第2の開閉判定辞書を用いて、前記瞼の開閉の第2判定結果を出力する第2識別器と、
前記第1識別器および前記第2識別器の判定結果を統合評価し、前記瞼の開閉の最終判定結果を出力する統合判定部と、
を備えた瞼開閉検出装置。
An initial detection unit that detects the eye area using an initial position detection dictionary from the face image of the subject generated based on the output of the image sensor that images the face of the subject.
Using the first open / close determination dictionary, a first classifier that outputs the first determination result of opening / closing of the eyelid of the subject included in the eye region detected by the initial detection unit, and
A second classifier that outputs a second determination result of opening / closing of the eyelid using a second opening / closing determination dictionary created by using an input image different from the first opening / closing determination dictionary.
An integrated determination unit that comprehensively evaluates the determination results of the first classifier and the second classifier and outputs the final determination result of opening and closing of the eyelids.
Eyelid opening / closing detection device equipped with.
前記第2識別器は、
前記初期検出部により検出された前記目の領域を包含する領域から、前記初期位置検出辞書よりも高精細な入力画像を用いて生成された位置検出辞書を用いて目の領域を再度検出するとともに、前記第2の開閉判定辞書を用いて、この再度検出した目の領域に含まれた前記瞼の開閉の前記第2判定結果を出力する、
請求項1記載の瞼開閉検出装置。
The second classifier is
From the region including the eye region detected by the initial detection unit, the eye region is detected again by using the position detection dictionary generated by using the input image having a higher definition than the initial position detection dictionary. , The second determination result of opening / closing of the eyelid included in the re-detected eye area is output by using the second opening / closing determination dictionary.
The eyelid opening / closing detection device according to claim 1.
前記第2識別器の前記位置検出辞書は、
前記被写体の瞼が開いていると仮定した場合の目の位置である仮開眼位置を検出するための開眼用位置検出辞書と、前記被写体の瞼が閉じていると仮定した場合の目の位置である仮閉眼位置を検出するための閉眼用位置検出辞書と、を含み、
前記第2識別器は、
前記初期検出部により検出された前記目の領域を包含する領域から、前記開眼用位置検出辞書を用いて前記仮開眼位置を検出するとともに前記閉眼用位置検出辞書を用いて前記仮閉眼位置を検出し、前記仮開眼位置および前記仮閉眼位置のそれぞれについて前記第2の開閉判定辞書を用いることにより前記第2判定結果を出力する、
請求項2記載の瞼開閉検出装置。
The position detection dictionary of the second classifier is
The eye opening position detection dictionary for detecting the temporary eye opening position, which is the position of the eyes when the eyelids of the subject are assumed to be open, and the eye positions when the eyelids of the subject are assumed to be closed. Includes an eye closure position detection dictionary for detecting a certain temporary eye closure position,
The second classifier is
From the region including the eye region detected by the initial detection unit, the temporary eye opening position is detected by using the eye opening position detection dictionary, and the temporary eye closing position is detected by using the eye closing position detection dictionary. Then, the second determination result is output by using the second opening / closing determination dictionary for each of the temporary eye opening position and the temporary eye closing position.
The eyelid opening / closing detection device according to claim 2.
前記第1識別器および前記第2識別器は、
それぞれ輝度勾配方向共起ヒストグラムを用いた識別器である、
請求項1ないし3のいずれか1項に記載の瞼開閉検出装置。
The first classifier and the second classifier are
Each is a classifier using a co-occurrence histogram in the luminance gradient direction.
The eyelid opening / closing detection device according to any one of claims 1 to 3.
前記初期検出部の前記初期位置検出辞書は、
開眼した目の画像および閉眼した目の画像を用いて生成された、
請求項1ないし4のいずれか1項に記載の瞼開閉検出装置。
The initial position detection dictionary of the initial detection unit is
Generated using images of eyes with open eyes and images of eyes with closed eyes,
The eyelid opening / closing detection device according to any one of claims 1 to 4.
前記第1識別器および前記第2識別器とは異なる特徴量を用いて、前記初期検出部により検出された目の領域に含まれた前記瞼の開閉の第3の判定結果を出力する補助判定部、
をさらに備えた請求項1ないし5のいずれか1項に記載の瞼開閉検出装置。
Auxiliary determination to output a third determination result of opening / closing of the eyelid included in the eye region detected by the initial detection unit using a feature amount different from that of the first classifier and the second classifier. Department,
The eyelid opening / closing detection device according to any one of claims 1 to 5, further comprising.
前記補助判定部は、
前記特徴量としてエッジ強度を用い、前記初期検出部により検出された目の領域からエッジ強度にもとづいて前記瞼の開閉を判定して前記第3の判定結果を生成する、
請求項6に記載の瞼開閉検出装置。
The auxiliary determination unit
Using the edge strength as the feature amount, the opening / closing of the eyelid is determined from the eye region detected by the initial detection unit based on the edge strength, and the third determination result is generated.
The eyelid opening / closing detection device according to claim 6.
前記統合判定部は、
前記第1識別器、前記第2識別器および前記補助判定部の判定結果の多数決で、前記瞼の開閉の最終判定を行なう、
請求項6または7に記載の瞼開閉検出装置。
The integrated determination unit
The final determination of opening and closing of the eyelid is performed by a majority vote of the determination results of the first classifier, the second classifier, and the auxiliary determination unit.
The eyelid opening / closing detection device according to claim 6 or 7.
前記撮像素子は、
近赤外光で照明された前記被写体の顔を撮像する、
請求項1ないし8のいずれか1項に記載の瞼開閉検出装置。
The image sensor is
Imaging the face of the subject illuminated by near-infrared light,
The eyelid opening / closing detection device according to any one of claims 1 to 8.
請求項1ないし9のいずれか1項に記載の瞼開閉検出装置と、
前記撮像素子と、
を備えた車室内用カメラ。
The eyelid opening / closing detection device according to any one of claims 1 to 9.
With the image sensor
In-vehicle camera equipped with.
被写体の顔を撮像した撮像素子の出力にもとづいて前記被写体の顔画像を生成するステップと、
前記顔画像から、初期位置検出辞書を用いて目の領域を検出するステップと、
第1の開閉判定辞書を用いて、前記目の領域に含まれた前記被写体の瞼の開閉の第1判定結果を出力するステップと、
前記第1の開閉判定辞書とは異なる入力画像を用いて作成された第2の開閉判定辞書を用いて、前記瞼の開閉の第2判定結果を出力するステップと、
前記第1判定結果および前記第2判定結果を統合評価し、前記瞼の開閉の最終判定結果を出力するステップと、
を有する瞼開閉検出方法。
A step of generating a face image of the subject based on the output of an image sensor that captures the face of the subject, and
A step of detecting an eye area from the face image using an initial position detection dictionary,
Using the first open / close determination dictionary, a step of outputting the first determination result of opening / closing the eyelids of the subject included in the eye area, and
A step of outputting a second determination result of opening / closing of the eyelid using a second opening / closing determination dictionary created by using an input image different from the first opening / closing determination dictionary.
A step of integrating and evaluating the first determination result and the second determination result and outputting the final determination result of opening and closing of the eyelid.
A method for detecting eyelid opening / closing.
JP2016149808A 2016-07-29 2016-07-29 Eyelid opening / closing detection device and eyelid opening / closing detection method Active JP6762794B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016149808A JP6762794B2 (en) 2016-07-29 2016-07-29 Eyelid opening / closing detection device and eyelid opening / closing detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016149808A JP6762794B2 (en) 2016-07-29 2016-07-29 Eyelid opening / closing detection device and eyelid opening / closing detection method

Publications (2)

Publication Number Publication Date
JP2018018400A JP2018018400A (en) 2018-02-01
JP6762794B2 true JP6762794B2 (en) 2020-09-30

Family

ID=61076238

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016149808A Active JP6762794B2 (en) 2016-07-29 2016-07-29 Eyelid opening / closing detection device and eyelid opening / closing detection method

Country Status (1)

Country Link
JP (1) JP6762794B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110909561A (en) * 2018-09-14 2020-03-24 虹软科技股份有限公司 Eye state detection system and operation method thereof
CN111626087A (en) * 2019-02-28 2020-09-04 北京市商汤科技开发有限公司 Neural network training and eye opening and closing state detection method, device and equipment

Also Published As

Publication number Publication date
JP2018018400A (en) 2018-02-01

Similar Documents

Publication Publication Date Title
US11699293B2 (en) Neural network image processing apparatus
US7689008B2 (en) System and method for detecting an eye
US9405982B2 (en) Driver gaze detection system
US9842266B2 (en) Method for detecting driver cell phone usage from side-view images
CN106965675B (en) A kind of lorry swarm intelligence safety work system
EP2881891B1 (en) Image processing device and image processing method
US20100054548A1 (en) Apparatus for detecting a pupil, program for the same, and method for detecting a pupil
US20120230553A1 (en) Apparatus and method for detecting eye state
KR101903127B1 (en) Gaze estimation method and apparatus
KR102021152B1 (en) Method for detecting pedestrians based on far infrared ray camera at night
TW201701820A (en) Method for detecting eyeball movement, program thereof, storage media for the program and device for detecting eyeball movement
CN106570447A (en) Face photo sunglass automatic removing method based on gray histogram matching
JP6762794B2 (en) Eyelid opening / closing detection device and eyelid opening / closing detection method
JP2010244156A (en) Image feature amount detection device and view line direction detection device using the same
CN110462625A (en) Face recognition device
JP6892231B2 (en) Eyelid opening / closing detection device and eyelid opening / closing detection method
KR20180100865A (en) Warning system and method based on analysis integrating internal and external situation in vehicle
US20140334694A1 (en) Method for determining eye location on a frontal face digital image to validate the frontal face and determine points of reference
US10963695B2 (en) Iris detection device, iris detection method, and recording medium onto which iris detection program is recorded
CN103942527A (en) Method for determining eye-off-the-road condition by using road classifier
Gudigar et al. Kernel based automatic traffic sign detection and recognition using svm
JP6340795B2 (en) Image processing apparatus, image processing system, image processing method, image processing program, and moving body control apparatus
JP6815121B2 (en) Eyelid opening / closing detection device and eyelid opening / closing detection method
EP3671541B1 (en) Classification of glints using an eye tracking system
Nguyen et al. Fast traffic sign detection under challenging conditions

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200820

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200909

R150 Certificate of patent or registration of utility model

Ref document number: 6762794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250