JP2018018399A - Eyelid opening/closing detector and eyelid opening/closing detection method - Google Patents

Eyelid opening/closing detector and eyelid opening/closing detection method Download PDF

Info

Publication number
JP2018018399A
JP2018018399A JP2016149807A JP2016149807A JP2018018399A JP 2018018399 A JP2018018399 A JP 2018018399A JP 2016149807 A JP2016149807 A JP 2016149807A JP 2016149807 A JP2016149807 A JP 2016149807A JP 2018018399 A JP2018018399 A JP 2018018399A
Authority
JP
Japan
Prior art keywords
group
opening
closing
eyelid candidate
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016149807A
Other languages
Japanese (ja)
Other versions
JP6815121B2 (en
Inventor
増田 哲也
Tetsuya Masuda
哲也 増田
賢司 古川
Kenji Furukawa
賢司 古川
卓靖 藤谷
Takayasu Fujitani
卓靖 藤谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Alpine Automotive Technology Inc
Original Assignee
Toshiba Alpine Automotive Technology Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Alpine Automotive Technology Inc filed Critical Toshiba Alpine Automotive Technology Inc
Priority to JP2016149807A priority Critical patent/JP6815121B2/en
Publication of JP2018018399A publication Critical patent/JP2018018399A/en
Application granted granted Critical
Publication of JP6815121B2 publication Critical patent/JP6815121B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an eyelid opening/closing detector capable of accurately determining opening/closing of eyelids of a subject without using sequential images in time series and an eyelid opening/closing detection method.SOLUTION: The eyelid opening/closing detector includes: an initial detection part for detecting an area of eyes from a face image of a subject generated on the basis of an output of an imaging device which has picked up the face of the subject; an edge intensity image generation part for generating an edge intensity image from the area of the eyes; a pair extraction part for extracting a plurality of pairs of an upper eyelid candidate point and a lower eyelid candidate point on the basis of the edge intensity image; a grouping part for grouping each of the plurality of pairs in such a manner that a pair adjacent to each other on right and left sides having a closer distance between each other belong to the same group; and an opening/closing determination part for determining opening/closing of the eyelids of the subject on the basis of a feature amount of the group.SELECTED DRAWING: Figure 3

Description

本発明の実施形態は、瞼開閉検出装置および瞼開閉検出方法に関する。   Embodiments described herein relate generally to a heel open / close detection device and a heel open / close detection method.

最近、自動車などの車両には、車室内に運転者の顔を撮影するためのカメラ(以下、車室内用カメラという)を搭載したものが増えてきている。車室内用カメラの出力にもとづいて生成される運転者の顔の画像は、たとえば運転者の瞼の開閉を判定し居眠りを検出するために利用することができる。   Recently, an increasing number of vehicles such as automobiles are equipped with a camera for photographing a driver's face in a vehicle interior (hereinafter referred to as a vehicle interior camera). The image of the driver's face generated based on the output of the vehicle interior camera can be used, for example, to determine whether the driver's bag is opened or closed and to detect dozing.

運転者を被写体として撮像した画像から被写体の瞼の開閉を判定する方法として、たとえば眉毛と上瞼との距離、および上瞼と下瞼の距離を用いる方法がある。また、他の方法として、時系列的に連続して得た画像を用いて上瞼と下瞼を検出し、上瞼と下瞼の距離にもとづいて瞼の開閉を判定する方法もある。   As a method for determining whether the eyelid of the subject is opened or closed from an image obtained by imaging the driver as a subject, for example, there is a method using the distance between the eyebrows and the upper eyelid, and the distance between the upper eyelid and the lower eyelid. As another method, there is a method of detecting upper eyelid and lower eyelid using images obtained continuously in time series and determining whether the eyelid is opened or closed based on the distance between the upper eyelid and the lower eyelid.

しかし、眉毛を用いる方法では、被写体が眼鏡を着用している場合、眼鏡のフレームやその陰を眉毛と誤認してしまうことがある。また、時系列的に連続して得た画像を用いる方法では、所定のフレームレートで入力される画像を処理するため、高性能なプロセッサを用いる必要があり、安価なマイコン等を用いることが難しい。また、上瞼と下瞼との距離を用いる方法では、被写体が下を向いている場合や被写体のまつ毛が長い場合に、誤判定をしてしまうことがある。   However, in the method using eyebrows, when the subject wears spectacles, the frame of the spectacles and the shade thereof may be mistaken for eyebrows. Further, in the method using images obtained continuously in time series, it is necessary to use a high-performance processor to process images input at a predetermined frame rate, and it is difficult to use an inexpensive microcomputer or the like. . In addition, in the method using the distance between the upper eyelid and the lower eyelid, an erroneous determination may be made when the subject is facing down or the subject's eyelashes are long.

特開2008−220424号公報JP 2008-220424 A 特開2008−113902号公報JP 2008-113902 A

本発明は、上述した事情を考慮してなされたもので、時系列的に連続した画像を用いずとも高精度に被写体の瞼の開閉判定を行なうことができる瞼開閉検出装置および瞼開閉検出方法を提供することを目的とする。   The present invention has been made in consideration of the above-described circumstances, and the eyelid opening / closing detection device and the eyelid opening / closing detection method capable of performing eyelid opening / closing determination with high accuracy without using time-series continuous images. The purpose is to provide.

本発明の一実施形態に係る瞼開閉検出装置は、上述した課題を解決するために、被写体の顔を撮像した撮像素子の出力にもとづいて生成された前記被写体の顔画像から目の領域を検出する初期検出部と、前記目の領域からエッジ強度画像を生成するエッジ強度画像生成部と、前記エッジ強度画像にもとづいて上瞼候補点と下瞼候補点との組を複数抽出する組抽出部と、前記複数の組のそれぞれを、左右に隣り合う組どうしの距離が近い組が同一のグループに属するようグルーピングするグループ化部と、前記グループの特徴量にもとづいて、前記被写体の瞼の開閉を判定する開閉判定部と、を備えたものである。   In order to solve the above-described problem, the eyelid open / close detection device according to an embodiment of the present invention detects an eye region from a face image of the subject generated based on an output of an imaging device that images the face of the subject. An initial detection unit that performs an edge intensity image generation unit that generates an edge intensity image from the eye region, and a group extraction unit that extracts a plurality of sets of upper eyelid candidate points and lower eyelid candidate points based on the edge intensity image A grouping unit for grouping each of the plurality of sets so that pairs whose adjacent distances between left and right adjacent groups belong to the same group, and opening / closing the eyelids of the subject based on the feature amount of the group An open / close determination unit for determining

本発明の一実施形態に係る瞼開閉検出装置を含む車室内用カメラが設置された車両の一例を示す外観図。1 is an external view showing an example of a vehicle in which a vehicle interior camera including a heel opening / closing detection device according to an embodiment of the present invention is installed. (a)は、車室内用カメラの一構成例を示す側面図、(b)は正面図。(A) is a side view which shows one structural example of the camera for vehicle interior, (b) is a front view. 本実施形態に係る瞼開閉検出装置のプロセッサによる実現機能例を示す概略的なブロック図。The schematic block diagram which shows the example of an implementation | achievement function by the processor of the eyelid opening / closing detection apparatus which concerns on this embodiment. 図3に示す瞼開閉検出装置のプロセッサにより、時系列的に連続した画像を用いずとも高精度に被写体の瞼の開閉判定を行なう際の手順を示すフローチャート。The flowchart which shows the procedure at the time of performing the opening / closing determination of a to-be-photographed object with high precision, without using the time series continuous image by the processor of the eyelid opening / closing detection apparatus shown in FIG. 初期検出部が用いる初期位置検出辞書と、第2識別器が用いる開眼用位置検出辞書および閉眼用位置検出辞書について説明するための図。The figure for demonstrating the initial position detection dictionary which an initial detection part uses, the position detection dictionary for eye opening used by a 2nd discriminator, and the position detection dictionary for closed eyes. 統合判定部による最終判定方法について説明するための図。The figure for demonstrating the final determination method by an integrated determination part. 図4のステップS4で第1識別器により実行される瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャート。FIG. 5 is a subroutine flowchart showing an example of a detailed procedure of eyelid open / close determination processing executed by the first discriminator in step S4 of FIG. 4. FIG. CoHOG特徴量の求め方について説明するための図。The figure for demonstrating how to obtain | require a CoHOG feature-value. 図4のステップS5で第2識別器により実行される瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャート。FIG. 5 is a subroutine flowchart showing an example of a detailed procedure of eyelid open / close determination processing executed by the second discriminator in step S5 of FIG. 4. FIG. 第2識別器の一構成例を示す機能ブロック図。The functional block diagram which shows one structural example of a 2nd discriminator. 第2識別器による特徴量算出処理を説明するための図。The figure for demonstrating the feature-value calculation process by a 2nd discriminator. 第2識別器による仮開眼位置検出処理および仮閉眼位置検出処理を説明するための図。The figure for demonstrating the temporary open eye position detection process and temporary closed eye position detection process by a 2nd discriminator. 図4のステップS6で補助判定部により実行されるエッジ強度を用いた瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャート。FIG. 5 is a subroutine flowchart illustrating an example of a detailed procedure of a heel open / close determination process using edge strength executed by an auxiliary determination unit in step S <b> 6 of FIG. 4. 補助判定部の一構成例を示す機能ブロック図。The functional block diagram which shows one structural example of an auxiliary | assistant determination part. (a)はエッジ強度画像生成に用いられるカーネルの一例を示す説明図であり(b)はカーネルの他の例を示す説明図。(A) is explanatory drawing which shows an example of the kernel used for edge intensity | strength image generation, (b) is explanatory drawing which shows the other example of a kernel. 図13のステップS604で組抽出部により実行される瞼候補点抽出処理およびそれらのペアリング処理の手順の一例を示すサブルーチンフローチャート。FIG. 14 is a subroutine flowchart showing an example of a candidate eyelid point extraction process and a pairing process executed by the pair extraction unit in step S604 of FIG. 上瞼候補点および下瞼候補点が抽出される様子の一例を示す説明図。Explanatory drawing which shows an example of a mode that an upper eyelid candidate point and a lower eyelid candidate point are extracted. 縦の1のライン上で抽出された上瞼候補点および下瞼候補点の一例を示す説明図。Explanatory drawing which shows an example of the upper eyelid candidate point and lower eyelid candidate point extracted on 1 vertical line. 上瞼候補点および下瞼候補点のペアリング方法の一例を示す説明図。Explanatory drawing which shows an example of the pairing method of an upper eyelid candidate point and a lower eyelid candidate point. グルーピング結果の一例を示す説明図。Explanatory drawing which shows an example of a grouping result. (a)はグループの長さおよびグループの重心付近の幅の平均値を説明するための図であり、(b)は目頭側上瞼候補点の近似直線および目頭側の上下瞼の近似直線のなす角を説明するための図。(A) is a figure for demonstrating the average value of the length of a group, and the width | variety vicinity of the center of gravity of a group, (b) is an approximate straight line of the upper eyelid candidate point on the eye side, and an approximate straight line of the upper and lower eyelids on the eye side. The figure for demonstrating the angle | corner made. 所定の特徴量を用いた開閉判定のルールの一例を示す説明図。Explanatory drawing which shows an example of the rule of the open / close determination using a predetermined feature-value. (a)は図22に示す第1のルールを説明するための図、(b)は図22に示す第3のルールを説明するための図、(c)は図22に示す第4のルールを説明するための図。(A) is a diagram for explaining the first rule shown in FIG. 22, (b) is a diagram for explaining the third rule shown in FIG. 22, and (c) is a fourth rule shown in FIG. The figure for demonstrating.

本発明に係る瞼開閉検出装置および瞼開閉検出方法の実施の形態について、添付図面を参照して説明する。   DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiments of a heel open / close detection device and a heel open / close detection method according to the present invention will be described with reference to the accompanying drawings.

図1は、本発明の一実施形態に係る瞼開閉検出装置10を含む車室内用カメラ4が設置された車両1の一例を示す外観図である。図1にはカメラ光軸をz軸、水平軸をx軸とする場合の例を示した。なお、瞼開閉検出装置10は被写体の顔画像にもとづいて被写体の瞼開閉を検出できればよく、顔画像を取得可能であれば、カメラの一部として設けられずともよい。以下の説明では、瞼開閉検出装置10が車室内用カメラ4の一部として設けられる場合の例について示す。   FIG. 1 is an external view showing an example of a vehicle 1 in which a vehicle interior camera 4 including a heel opening / closing detection device 10 according to an embodiment of the present invention is installed. FIG. 1 shows an example in which the camera optical axis is the z-axis and the horizontal axis is the x-axis. Note that the eyelid opening / closing detection device 10 only needs to detect the eyelid opening / closing of the subject based on the face image of the subject, and may not be provided as a part of the camera as long as the face image can be acquired. In the following description, an example in which the heel opening / closing detection device 10 is provided as a part of the vehicle interior camera 4 will be described.

この場合、図1に示すように、車室内用カメラ4は車両1の運転席に座った運転者Dの顔Fを撮影できる位置に設けられるとよい。図1には、車室内用カメラ4が車両1のステアリングコラムカバー2の上面に設けられる場合の例を示したが、ダッシュボード3の上面、インストルメンタルパネル内などに設けられてもよい。より好ましくは、車室内用カメラ4は、運転者Dの顔Fを正面から撮影できるよう、カメラ光軸が運転者Dの顔Fの正中線と交わるように設けられることが好ましく、たとえばハンドル(ステアリングホイール)の回転軸を通るyz平面上にカメラ光軸が位置するように設けられるとよい。   In this case, as shown in FIG. 1, the vehicle interior camera 4 may be provided at a position where the face F of the driver D sitting in the driver's seat of the vehicle 1 can be photographed. Although FIG. 1 shows an example in which the vehicle interior camera 4 is provided on the upper surface of the steering column cover 2 of the vehicle 1, the vehicle interior camera 4 may be provided on the upper surface of the dashboard 3 or in the instrument panel. More preferably, the vehicle interior camera 4 is preferably provided so that the camera optical axis intersects the midline of the driver F's face F so that the driver's D's face F can be photographed from the front. It is preferable that the camera optical axis is located on a yz plane passing through the rotation axis of the steering wheel.

図2(a)は、車室内用カメラ4の一構成例を示す側面図であり、(b)は正面図である。車室内用カメラ4は、プロセッサを備えた瞼開閉検出装置10、光源11、レンズ12、フィルタ13、および撮像素子14を有する。   FIG. 2A is a side view showing a configuration example of the vehicle interior camera 4, and FIG. 2B is a front view. The vehicle interior camera 4 includes a bag opening / closing detection device 10 including a processor, a light source 11, a lens 12, a filter 13, and an image sensor 14.

光源11は、たとえば複数設けられる。以下の説明では、光源11がたとえば880nmや940nmをピーク波長にもつ近赤外光を発光する近赤外光光源である場合の例について示す。なお、光源11として、近赤外光光源にかえて可視光光源や紫外光光源を使用してもよい。   For example, a plurality of light sources 11 are provided. In the following description, an example in which the light source 11 is a near infrared light source that emits near infrared light having a peak wavelength of, for example, 880 nm or 940 nm will be described. As the light source 11, a visible light source or an ultraviolet light source may be used instead of the near infrared light source.

レンズ12は、撮像素子14に集光し、運転者Dの顔Fの像を撮像素子14に結ぶために用いられる。フィルタ13は、光源11が発光する光を透過する。撮像素子14は、少なくとも光源11の発光波長を検出可能な感度を有し、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサにより構成される。撮像素子14は、瞼開閉検出装置10に制御されて、フィルタ13を介して被写体を撮像して被写体の顔画像の画像データを生成し、瞼開閉検出装置10に与える。   The lens 12 is focused on the image sensor 14 and used to connect the image of the face F of the driver D to the image sensor 14. The filter 13 transmits light emitted from the light source 11. The imaging element 14 has a sensitivity capable of detecting at least the emission wavelength of the light source 11, and is configured by a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The image sensor 14 is controlled by the eyelid opening / closing detection device 10 to image the subject via the filter 13 to generate image data of the face image of the subject, and supplies the image data to the eyelid opening / closing detection device 10.

なお、撮像素子14は、可視光域と近赤外域との両方の感度を有したものを使用してもよい。この場合、フィルタ13は、たとえば可視光を遮り近赤外光を透過させるための第1の位置と、可視光を遮らない第2の位置との2つの位置のいずれかで位置決め可能に構成されるとよい。瞼開閉の検出技術において、被写体のまばたきを誘発してしまうことから、被写体が眩しさを感じることは好ましくない。この点、近赤外光を利用することにより、夜間やトンネルなど顔Fの照度が不足する場合でも、被写体が眩しさを感じることなく鮮明な顔画像を取得することができる。   Note that the image sensor 14 may have a sensitivity in both the visible light region and the near infrared region. In this case, the filter 13 is configured to be positioned at one of two positions, for example, a first position for blocking visible light and transmitting near-infrared light, and a second position for blocking visible light. Good. In the eyelid opening / closing detection technique, it is not preferable that the subject feels dazzling because it induces blinking of the subject. In this regard, by using near-infrared light, a clear face image can be acquired without the subject feeling dazzling even when the illuminance of the face F is insufficient, such as at night or in a tunnel.

続いて、瞼開閉検出装置10のプロセッサによる機能実現部の構成および動作について説明する。   Next, the configuration and operation of the function realization unit by the processor of the eyelid opening / closing detection device 10 will be described.

図3は、本実施形態に係る瞼開閉検出装置10のプロセッサによる実現機能例を示す概略的なブロック図である。   FIG. 3 is a schematic block diagram showing an example of functions realized by the processor of the eyelid opening / closing detection device 10 according to the present embodiment.

瞼開閉検出装置10は、たとえばプロセッサおよびRAMならびにROMをはじめとする記憶媒体により構成される。瞼開閉検出装置10のプロセッサは、ROMをはじめとする記憶媒体に記憶された瞼開閉検出プログラムおよびこのプログラムの実行のために必要なデータをRAMへロードし、このプログラムに従って、時系列的に連続した画像を用いずとも高精度に被写体の瞼の開閉判定を行なう処理を実行する。   The bag open / close detection device 10 is constituted by a storage medium such as a processor, a RAM, and a ROM, for example. The processor of the eyelid opening / closing detection device 10 loads the eyelid opening / closing detection program stored in a storage medium such as a ROM and data necessary for executing the program into the RAM, and continues in time series according to the program. A process for performing eyelid opening / closing determination of the subject with high accuracy without using the obtained image is executed.

瞼開閉検出装置10のRAMは、プロセッサが実行するプログラムおよびデータを一時的に格納するワークエリアを提供する。瞼開閉検出装置10のROMをはじめとする記憶媒体は、たとえば車室内用カメラ4の起動プログラム、瞼開閉検出プログラムや、これらのプログラムを実行するために必要な各種データを記憶する。なお、ROMをはじめとする記憶媒体は、磁気的もしくは光学的記録媒体または半導体メモリなどの、プロセッサにより読み取り可能な記録回路を含んだ構成を有し、これら記憶媒体内のプログラムおよびデータの一部または全部は、ネットワークを介してまたは光ディスクなどの可搬型記憶媒体を介して更新されてもよい。   The RAM of the eyelid opening / closing detection device 10 provides a work area for temporarily storing programs and data executed by the processor. The storage medium including the ROM of the heel opening / closing detection device 10 stores, for example, a startup program for the vehicle interior camera 4, a heel opening / closing detection program, and various data necessary for executing these programs. Note that a storage medium such as a ROM has a configuration including a recording circuit readable by a processor, such as a magnetic or optical recording medium or a semiconductor memory, and a part of programs and data in the storage medium. Alternatively, the whole may be updated via a network or a portable storage medium such as an optical disk.

なお、本実施形態において、「プロセッサ」という文言は、たとえば、専用または汎用のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、または、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(たとえば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、およびFPGA)等の回路を意味するものとする。プロセッサは、記憶媒体に保存されたプログラムを読み出して実行することにより、各種機能を実現する。   In the present embodiment, the term “processor” means, for example, a dedicated or general-purpose CPU (Central Processing Unit), GPU (Graphics Processing Unit), or an application specific integrated circuit (ASIC). It shall mean a circuit such as a programmable logic device (for example, a simple programmable logic device (SPLD), a complex programmable logic device (CPLD), and an FPGA). The processor implements various functions by reading and executing a program stored in the storage medium.

また、本実施形態では瞼開閉検出装置10の単一のプロセッサが各機能を実現する場合の例について示したが、複数の独立したプロセッサを組み合わせて瞼開閉検出装置10を構成し、各プロセッサが各機能を実現してもよい。また、プロセッサが複数設けられる場合、プログラムを記憶する記憶媒体はプロセッサごとに個別に設けられてもよいし、1つの記憶媒体が全てのプロセッサの機能に対応するプログラムを一括して記憶してもよい。   In the present embodiment, an example in which a single processor of the eyelid opening / closing detection device 10 realizes each function has been described. However, the eyelid opening / closing detection device 10 is configured by combining a plurality of independent processors, and each processor Each function may be realized. Further, when a plurality of processors are provided, a storage medium for storing the program may be provided for each processor individually, or a single storage medium may store programs corresponding to the functions of all the processors in a lump. Good.

図3に示すように、瞼開閉検出装置10のプロセッサは、ROMをはじめとする記憶媒体に記憶された瞼開閉検出プログラムによって、少なくとも画像生成部21、初期検出部22、第1識別器23、第2識別器24、補助判定部25および統合判定部26として機能する。これらの各機能実現部21−26は、それぞれプログラムの形態で記憶媒体に記憶されている。   As shown in FIG. 3, the processor of the eyelid opening / closing detection device 10 uses at least an image generation unit 21, an initial detection unit 22, a first discriminator 23, according to an eyelid opening / closing detection program stored in a storage medium such as a ROM. It functions as the second discriminator 24, the auxiliary determination unit 25, and the integration determination unit 26. Each of these function realization units 21-26 is stored in a storage medium in the form of a program.

図4は、図3に示す瞼開閉検出装置10のプロセッサにより、時系列的に連続した画像を用いずとも高精度に被写体の瞼の開閉判定を行なう際の手順を示すフローチャートである。図4において、Sに数字を付した符号はフローチャートの各ステップを示す。   FIG. 4 is a flowchart showing a procedure when the eyelid opening / closing detection apparatus 10 shown in FIG. 3 performs the eyelid opening / closing determination of the subject with high accuracy without using time-series continuous images. In FIG. 4, reference numerals with numbers added to S indicate steps in the flowchart.

撮像素子14は、画像生成部21に制御されて被写体を撮像し、被写体の顔画像の画像データを生成して画像生成部21に与える(ステップS1)。   The image sensor 14 is controlled by the image generation unit 21 to image a subject, generates image data of a face image of the subject, and supplies the image data to the image generation unit 21 (step S1).

画像生成部21は、撮像素子14を制御し、撮像素子14が出力した画像データにもとづいて顔画像を生成する(ステップS2)。   The image generation unit 21 controls the image sensor 14 and generates a face image based on the image data output from the image sensor 14 (step S2).

初期検出部22は、被写体の顔画像から、たとえば輝度勾配方向共起ヒストグラム(CoHOG:Co-occurrence Histograms of Oriented Gradients)を用いた処理(以下、CoHOG処理という)を行なう識別器であり、初期位置検出辞書を用いて目の領域を検出する(ステップS3)。   The initial detection unit 22 is a discriminator that performs processing (hereinafter referred to as CoHOG processing) using, for example, a luminance gradient direction co-occurrence histogram (CoHOG: Co-occurrence Histograms of Oriented Gradients) from the face image of the subject. An eye region is detected using the detection dictionary (step S3).

図5は、初期検出部22が用いる初期位置検出辞書と、第2識別器24が用いる開眼用位置検出辞書および閉眼用位置検出辞書について説明するための図である。   FIG. 5 is a diagram for explaining an initial position detection dictionary used by the initial detection unit 22, and an eye opening position detection dictionary and an eye closing position detection dictionary used by the second discriminator 24.

図5に示すように、初期位置検出辞書は、目の画像を正解(ポジティブデータ)、目の周辺部分を不正解(ネガティブデータ)として学習した辞書である。すなわち、初期位置検出辞書は、瞼が開いた画像も閉じた画像も、ともに正解として学習させた辞書である。一方、開眼用位置検出辞書および閉眼用位置検出辞書は、初期位置検出辞書よりも解像度の高い入力画像により作成される。また、開眼用位置検出辞書は、瞼が開いた画像のみを正解とし、目の周辺部分を不正解として学習させた辞書である。閉眼用位置検出辞書は、瞼が閉じた画像のみを正解とし、目の周辺部分を不正解として学習させた辞書である。   As shown in FIG. 5, the initial position detection dictionary is a dictionary in which an eye image is learned as a correct answer (positive data) and a peripheral portion of the eye is learned as an incorrect answer (negative data). That is, the initial position detection dictionary is a dictionary in which both the image with the eyelids opened and the image with the eyes closed are learned as correct answers. On the other hand, the position detection dictionary for eye opening and the position detection dictionary for eye closing are created from input images with higher resolution than the initial position detection dictionary. Further, the position detection dictionary for eye opening is a dictionary in which only an image with an eyelid opened is learned as a correct answer and a peripheral part of the eye is learned as an incorrect answer. The closed eye position detection dictionary is a dictionary in which only an image with a closed eyelid is taken as a correct answer and a peripheral part of the eye is learned as an incorrect answer.

このため、初期位置検出辞書は、開眼用位置検出辞書および閉眼用位置検出辞書に比べ、位置ずれに強いが、精度には劣る。このため、初期位置検出辞書は、顔画像などの広い領域から目の領域を大まかに検出するのに適している。一方、開眼用位置検出辞書および閉眼用位置検出辞書は、位置ずれに弱い一方で、狭い領域から目の領域を高精度に検出するのに適している。したがって、本実施形態では、まず、初期検出部22により初期位置検出辞書を用いて顔画像から大まかに目の領域を検出させておく。そして、この検出された目の領域を包含する領域について、第2識別器24により開眼用位置検出辞書および閉眼用位置検出辞書を用いて高精度に目の領域を検出させる。   For this reason, the initial position detection dictionary is more resistant to misalignment but less accurate than the position detection dictionary for eye opening and the position detection dictionary for eye closing. For this reason, the initial position detection dictionary is suitable for roughly detecting the eye area from a wide area such as a face image. On the other hand, the eye-opening position detection dictionary and the eye-closing position detection dictionary are suitable for detecting an eye region from a narrow region with high accuracy while being vulnerable to positional deviation. Therefore, in this embodiment, first, the initial detection unit 22 detects an eye area roughly from the face image using the initial position detection dictionary. Then, for the region including the detected eye region, the second discriminator 24 causes the eye region to be detected with high accuracy using the eye opening position detection dictionary and the eye closing position detection dictionary.

そこで、ステップS3において、初期検出部22は、画像全体を顔の辞書に合わせて正規化して顔を検出する。そして、初期検出部22は、検出した顔の領域を目の辞書サイズに応じて正規化し、初期位置検出辞書を用いて目の領域を検出する。   Therefore, in step S3, the initial detection unit 22 detects the face by normalizing the entire image according to the face dictionary. Then, the initial detection unit 22 normalizes the detected face area according to the eye dictionary size, and detects the eye area using the initial position detection dictionary.

なお、本実施形態における辞書は全て、ポジティブとネガティブを逆に学習しても構わない。逆に学習した場合は、尤度にもとづく判定結果を反転させればよいだけである。   Note that all dictionaries in the present embodiment may learn positive and negative in reverse. Conversely, when learning is performed, it is only necessary to invert the determination result based on the likelihood.

以上のステップS1−S3の手順により、顔画像から目の領域をおおまかに検出することができる。次に、検出した目の領域について、左目、右目のそれぞれについて瞼の開閉判定を行なう。   The eye region can be roughly detected from the face image by the above steps S1 to S3. Next, with respect to the detected eye region, eyelid opening / closing determination is performed for each of the left eye and the right eye.

第1識別器23は、第1の開閉判定辞書を用いて、初期検出部22により検出された目の領域について瞼の開閉の判定を行い、判定結果(以下、第1判定結果という)を出力する(ステップS4)。第1識別器23としては、正解と不正解を学習した識別器により構成することができ、たとえばCoHOG識別器により構成できる。   The first discriminator 23 uses the first open / close determination dictionary to determine whether to open / close the eyelid for the eye area detected by the initial detection unit 22 and outputs a determination result (hereinafter referred to as a first determination result). (Step S4). The first classifier 23 can be configured by a classifier that has learned a correct answer and an incorrect answer, and can be configured by, for example, a CoHOG classifier.

第2識別器24は、初期検出部22により検出された目の領域を包含する走査領域を切り出し、この走査領域から開眼用位置検出辞書および閉眼用位置検出辞書を用いて高精度に目の領域を検出する。そして、第2識別器24は、第1の開閉判定辞書とは異なる入力画像を用いて作成された第2の開閉判定辞書を用いて、高精度に検出した目の領域について瞼の開閉の判定を行い、判定結果(以下、第2判定結果という)を出力する(ステップS5)。第2識別器24としては、正解と不正解を学習した識別器により構成することができ、第1識別器23と同様にたとえばCoHOG識別器により構成できる。   The second discriminator 24 cuts out a scanning region including the eye region detected by the initial detection unit 22, and uses the eye opening position detection dictionary and the eye closing position detection dictionary to accurately detect the eye region. Is detected. Then, the second discriminator 24 uses the second open / close determination dictionary created using an input image different from the first open / close determination dictionary to determine whether to open / close the eyelid with respect to the eye area detected with high accuracy. And a determination result (hereinafter referred to as a second determination result) is output (step S5). The second discriminator 24 can be configured by a discriminator that has learned a correct answer and an incorrect answer, and can be configured by, for example, a CoHOG discriminator as in the first discriminator 23.

補助判定部25は、第1識別器23および第2識別器24のいずれとも異なる特徴量を用いて、初期検出部22により検出された目の領域について瞼の開閉の判定を行い、判定結果(以下、第3の判定結果という)を出力する(ステップS6)。   The auxiliary determination unit 25 determines whether to open or close the eyelid for the eye area detected by the initial detection unit 22 using a feature amount different from that of each of the first discriminator 23 and the second discriminator 24. Hereinafter, the third determination result is output (step S6).

補助判定部25が用いる特徴量としては、たとえばエッジ強度、円形分離度(フィルタ)、勾配方向などを用いることができる。以下の説明では、補助判定部25がエッジ強度を用いて瞼の開閉判定を行う場合の例について示す。   As the feature amount used by the auxiliary determination unit 25, for example, edge strength, circular separation (filter), gradient direction, and the like can be used. In the following description, an example in which the auxiliary determination unit 25 performs the eyelid open / close determination using the edge strength will be described.

統合判定部26は、第1識別器23、第2識別器24および補助判定部25の判定結果を統合評価し、被写体の瞼の開閉の最終判定を行なう(ステップS7)。   The integrated determination unit 26 performs integrated evaluation of the determination results of the first discriminator 23, the second discriminator 24, and the auxiliary determination unit 25, and performs final determination of opening / closing of the eyelid of the subject (step S7).

図6は、統合判定部26による最終判定方法について説明するための図である。   FIG. 6 is a diagram for explaining a final determination method by the integrated determination unit 26.

図6に示すように、統合判定部26は、たとえば第1識別器23、第2識別器24および補助判定部25の判定結果の多数決をとることで最終判定を行う。また、本例では出力される判定結果が3つであるため、1つでも「判定不能」が含まれている場合には、多数決を取ることができなくなる。そこで、統合判定部26は、精度の高い判定が期待できる順に、すなわち第2識別器24の第2判定結果、第1識別器23の第1判定結果、補助判定部25の第3判定結果の順に優先度付けする。そして、「判定不能」が含まれることにより多数決がとれない場合には、この優先度の順で最終判定を行う(図6参照)。   As shown in FIG. 6, the integrated determination unit 26 performs final determination by taking a majority decision of the determination results of the first discriminator 23, the second discriminator 24, and the auxiliary determination unit 25, for example. In this example, since three determination results are output, it is not possible to take a majority vote if even one of them includes “determination impossible”. Therefore, the integrated determination unit 26 calculates the second determination result of the second discriminator 24, the first determination result of the first discriminator 23, and the third determination result of the auxiliary determination unit 25 in the order in which highly accurate determination can be expected. Prioritize in order. If a majority decision cannot be made due to the inclusion of “impossibility of determination”, final determination is performed in the order of priority (see FIG. 6).

両目ともに最終判定を行った場合は一連の手順は終了となる。一方、片方の目の最終判定が行われていない場合は、ステップS4に戻る。   If the final determination is made for both eyes, the series of procedures is completed. On the other hand, if the final determination of one eye has not been performed, the process returns to step S4.

以上の手順により、複数の識別器の瞼開閉判定結果を統合評価することができる。このため、時系列的に連続した画像を用いずとも、高精度に被写体の瞼の開閉判定を行なうことができる。   With the above procedure, it is possible to integrally evaluate the eyelid open / close determination results of a plurality of discriminators. For this reason, it is possible to determine the eyelid opening / closing of the subject with high accuracy without using time-series continuous images.

次に、第1識別器23による瞼開閉判定処理について詳細に説明する。   Next, the eyelid open / close determination process by the first discriminator 23 will be described in detail.

図7は、図4のステップS4で第1識別器23により実行される瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャートである。また、図8は、CoHOG特徴量の求め方について説明するための図である。   FIG. 7 is a subroutine flowchart showing an example of a detailed procedure of the eyelid open / close determination process executed by the first discriminator 23 in step S4 of FIG. FIG. 8 is a diagram for explaining how to obtain the CoHOG feature amount.

第1識別器23は、第2識別器24とは異なり、目の領域の再探索を行わず、初期検出部22により検出された目の領域をそのまま用いる。また、第1識別器23が瞼開閉判定に用いる第1の開閉判定辞書は、目の位置がずれても尤度が急激に変化したりしないように、同一の目の画像の位置をずらしたり拡大縮小したりして水増ししたデータを用いて作成されるため、位置ずれに強い。また、辞書をつくる時の輝度勾配閾値が低めに設定される。このため、入力画像に輝度の変化があれば、この変化も画像の特徴として第1の開閉判定辞書は学習している。このため、目の領域の画像について、輝度ヒストグラム平坦化などの輝度補正処理は不要である。   Unlike the second discriminator 24, the first discriminator 23 uses the eye region detected by the initial detection unit 22 as it is without re-searching the eye region. Further, the first open / close determination dictionary used by the first discriminator 23 for the eyelid open / close determination shifts the position of the same eye image so that the likelihood does not change suddenly even if the eye position shifts. Because it is created using data that has been scaled up or down, it is resistant to misalignment. In addition, the brightness gradient threshold when creating the dictionary is set to be low. Therefore, if there is a change in luminance in the input image, the first open / close determination dictionary learns this change as a feature of the image. For this reason, luminance correction processing such as luminance histogram flattening is unnecessary for the image of the eye region.

ステップS401において、第1識別器23は、初期検出部22により検出された目の領域をそのまま切り出して、第1の開閉判定辞書の学習した目の画像サイズに応じて改めて正規化する。これは、図4のステップS3とは正規化のサイズが異なるためである。   In step S401, the first discriminator 23 cuts out the eye area detected by the initial detection unit 22 as it is and normalizes it again according to the eye image size learned in the first open / close determination dictionary. This is because the normalization size is different from step S3 in FIG.

次に、ステップS402において、第1識別器23は正規化された画像から特徴量を求める。特徴量としては、たとえばCoHOG特徴量を用いることができる(図8参照)。   Next, in step S402, the first discriminator 23 obtains a feature amount from the normalized image. As the feature amount, for example, a CoHOG feature amount can be used (see FIG. 8).

次に、ステップS403において、第1識別器23は、求めた特徴量について、第1の開閉判定辞書とSVM(サポートベクターマシン)等で照合し、尤度(スコア)を算出する。   Next, in step S403, the first discriminator 23 collates the obtained feature quantity with the first open / close determination dictionary and SVM (support vector machine) or the like, and calculates a likelihood (score).

たとえば、第1の開閉判定辞書が、閉じた瞼の画像データをポジティブ、開いた瞼の画像データをネガティブとして学習させた辞書である場合、尤度が第1の閾値以上の場合には(ステップS404のYES)、目が閉じていると判定する(ステップS405)。一方、尤度が第1の閾値より小さい場合には、目が開いていると判定する。このとき、図7に示すように、閾値付近で判定結果がバタつくことを避けるよう、尤度が第1の閾値より小さい場合には(ステップS404のNO)、さらに尤度が第2閾値以下であれば(ステップS406のYES)目が開いていると判定する一方(ステップS407)、尤度が第2閾値より大きい場合には(ステップS406のNO)、判定不能と判定するとよい(ステップS408)。   For example, when the first open / close determination dictionary is a dictionary learned by using closed eyelid image data as positive and open eyelid image data as negative, if the likelihood is greater than or equal to the first threshold (step It is determined that the eyes are closed (YES in S404) (step S405). On the other hand, when the likelihood is smaller than the first threshold, it is determined that the eyes are open. At this time, as shown in FIG. 7, when the likelihood is smaller than the first threshold value (NO in step S <b> 404) so as to avoid the determination result fluttering near the threshold value, the likelihood is further equal to or smaller than the second threshold value. If so (YES in step S406), it is determined that the eyes are open (step S407), but if the likelihood is greater than the second threshold (NO in step S406), it may be determined that the determination is impossible (step S408). ).

なお、第1識別器23は、目が検出されなかった場合も判定不能を出力する。ステップS401で正規化した際に画像がはみ出してしまう場合にも判定不能が出力される。   Note that the first discriminator 23 also outputs a determination impossibility even when no eyes are detected. Inability to determine is also output when the image protrudes when normalized in step S401.

次に、第2識別器24による瞼開閉判定処理について詳細に説明する。   Next, the eyelid open / close determination process by the second discriminator 24 will be described in detail.

図9は、図4のステップS5で第2識別器24により実行される瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャートである。また、図10は、第2識別器24の一構成例を示す機能ブロック図である。図10に示すように、第2識別器24は、輝度補正部241、特徴量算出部242、仮開眼位置識別器243、仮閉眼位置識別器244、第1開閉識別器245、第2開閉識別器246および開閉判定部247を有する。   FIG. 9 is a subroutine flowchart showing an example of a detailed procedure of the eyelid opening / closing determination process executed by the second discriminator 24 in step S5 of FIG. FIG. 10 is a functional block diagram illustrating a configuration example of the second discriminator 24. As shown in FIG. 10, the second discriminator 24 includes a luminance correction unit 241, a feature amount calculation unit 242, a temporary open eye position discriminator 243, a temporary close eye position discriminator 244, a first open / close discriminator 245, and a second open / close discriminator. And an open / close determination unit 247.

ステップS501において、輝度補正部241は、初期検出部22により検出された目の領域に対して輝度ヒストグラムを平坦化する輝度補正処理を行う。輝度補正処理を行うことにより、環境光に対するロバスト性が高まる。   In step S <b> 501, the luminance correction unit 241 performs luminance correction processing for flattening the luminance histogram on the eye area detected by the initial detection unit 22. By performing the brightness correction process, the robustness with respect to the ambient light is increased.

図11は、第2識別器24による特徴量算出処理を説明するための図である。   FIG. 11 is a diagram for explaining the feature amount calculation processing by the second discriminator 24.

ステップS502において、特徴量算出部242は、初期検出部22により検出された目の領域を包含する走査領域を切り出し、第2識別器24の辞書サイズに応じてサイズを正規化する(図11の上側参照)。   In step S502, the feature amount calculation unit 242 cuts out a scanning region including the eye region detected by the initial detection unit 22, and normalizes the size according to the dictionary size of the second discriminator 24 (FIG. 11). See above).

次に、ステップS503において、特徴量算出部242は、切り出した走査領域で走査枠をずらしながら走査し、各走査位置で特徴量を求める。特徴量は、たとえばCoHOG特徴量であれば、図8に示す方法と同様にして求められるが、走査位置の数だけ複数の特徴量が計算されることになる(図11の下側参照)。   Next, in step S503, the feature amount calculation unit 242 performs scanning while shifting the scanning frame in the cut out scanning region, and obtains the feature amount at each scanning position. For example, if the feature amount is a CoHOG feature amount, it is obtained in the same manner as the method shown in FIG. 8, but a plurality of feature amounts are calculated by the number of scanning positions (see the lower side of FIG. 11).

図12は、第2識別器24による仮開眼位置検出処理および仮閉眼位置検出処理を説明するための図である。   FIG. 12 is a diagram for explaining the temporary open eye position detection process and the temporary closed eye position detection process by the second discriminator 24.

ステップS504において、仮開眼位置識別器243は、各走査位置の特徴量を開眼用位置検出辞書と照合して各走査位置で尤度を求め、被写体の瞼が開いていたと仮定した場合の目の位置である仮開眼位置を検出する。   In step S504, the provisional eye opening position discriminator 243 collates the feature value of each scanning position with the position detection dictionary for eye opening to obtain the likelihood at each scanning position, and the eye when it is assumed that the eyelid of the subject is open. A temporary open eye position that is a position is detected.

次に、ステップS505において、仮閉眼位置識別器244は、各走査位置の特徴量を閉眼用位置検出辞書と照合して各走査位置で尤度を求め、被写体の瞼が閉じていたと仮定した場合の目の位置である仮閉眼位置を検出する。   Next, in step S505, the temporary closed eye position discriminator 244 determines the likelihood at each scanning position by comparing the feature amount of each scanning position with the position detection dictionary for the closed eye, and assumes that the subject's eyelid is closed The temporary closed eye position which is the position of the eye is detected.

図5に示すように、開眼用位置検出辞書は、初期位置検出辞書に比べ、高精細な(高解像度な)、開いた目のデータセットを用いて作成され、瞼が開いていると仮定した場合の目の、より高精度な位置(仮開眼位置)を検出するために用いられる。同様に、閉眼用位置検出辞書は、初期位置検出辞書に比べ、高精細な(高解像度な)、閉じた目のデータセットを用いて作成され、瞼が閉じていると仮定した場合の目の、より高精度な位置(仮閉眼位置)を検出するために用いられる。   As shown in FIG. 5, it is assumed that the position detection dictionary for eye opening is created using a high-definition (high resolution), open-eye data set compared to the initial position detection dictionary, and the eyelids are open. This is used to detect a higher-precision position (temporary eye opening position) of the case eye. Similarly, the position detection dictionary for closed eyes is created using a high-definition (high-resolution) closed-eye data set compared to the initial position detection dictionary, and the eye is assumed to be closed. It is used to detect a position with higher accuracy (temporary closed eye position).

また、仮開眼位置および仮閉眼位置の検出方法としては、たとえば特徴量と辞書とを照合した時の尤度が高い座標を採用する方法や、閾値以上の尤度の座標について尤度で重みづけ平均をとった座標を採用するといった方法を用いることができる。   In addition, as a method of detecting the temporary open eye position and the temporary closed eye position, for example, a method that employs coordinates having a high likelihood when a feature amount is matched with a dictionary, or a weight having a likelihood equal to or greater than a threshold is weighted with the likelihood. A method of adopting averaged coordinates can be used.

以上のステップS501−505の手順により、仮開眼位置および仮閉眼位置を高精度に検出することができる。   Through the procedure of steps S501 to 505 described above, the temporarily opened eye position and the temporarily closed eye position can be detected with high accuracy.

続いて、第1の開閉判定辞書とは異なる入力画像を用いて作成された第2の開閉判定辞書を用いて、瞼の開閉の第2判定結果を出力する処理を行う。第2の開閉判定辞書は、開眼用開閉判定辞書と、閉眼用開閉判定辞書とを含む。   Subsequently, using a second opening / closing determination dictionary created using an input image different from the first opening / closing determination dictionary, processing for outputting a second determination result of opening / closing of the bag is performed. The second opening / closing determination dictionary includes an eye opening / closing determination dictionary and an eye opening / closing determination dictionary.

ステップS506において、第1開閉識別器245は、仮開眼位置で開眼用開閉判定辞書と照合し、開眼尤度を求める。また、ステップS507において、第2開閉識別器246は、仮閉眼位置で閉眼用開閉判定辞書と照合し、閉眼尤度を求める。   In step S506, the first opening / closing discriminator 245 collates with the opening / closing determination dictionary for opening eyes at the temporary opening position to obtain the eye opening likelihood. In step S507, the second open / close discriminator 246 checks the closed eye open / close determination dictionary at the temporary closed eye position to obtain the closed eye likelihood.

次に、ステップS508において、開閉判定部247は、開眼尤度および閉眼尤度にもとづいて最終尤度を求める。そして、この最終尤度を用いて瞼の開閉判定を行う。たとえば図7と同様に開閉判定を行なう場合、最終尤度が第1の閾値以上の場合には(ステップS509のYES)、目が閉じていると判定する(ステップS510)。一方、最終尤度が第1の閾値より小さい場合には(ステップS509のNO)、さらに最終尤度が第2閾値以下であれば(ステップS511のYES)目が開いていると判定する一方(ステップS512)、最終尤度が第2閾値より大きい場合には(ステップS511のNO)、判定不能と判定するとよい(ステップS513)。   Next, in step S508, the open / close determination unit 247 obtains a final likelihood based on the open eye likelihood and the closed eye likelihood. The final likelihood is used to determine whether to open or close the eyelid. For example, when performing open / close determination as in FIG. 7, if the final likelihood is equal to or greater than the first threshold (YES in step S509), it is determined that the eyes are closed (step S510). On the other hand, if the final likelihood is smaller than the first threshold (NO in step S509), and if the final likelihood is equal to or smaller than the second threshold (YES in step S511), it is determined that the eye is open ( In step S512), if the final likelihood is larger than the second threshold (NO in step S511), it may be determined that the determination is impossible (step S513).

なお、第2識別器24は、第1識別器23と同様に、目が検出されなかった場合や高精度な位置検出で閉じた目も開いた目も見つからなかった場合にも、判定不能を出力する。   Similar to the first discriminator 23, the second discriminator 24 makes the determination impossible even when eyes are not detected or when closed eyes or open eyes are not detected by high-precision position detection. Output.

ここで、第1識別器23および第2識別器24の違いについて説明する。   Here, the difference between the first discriminator 23 and the second discriminator 24 will be described.

第1識別器23と第2識別器24は、どちらも瞼の開閉を検出する識別器であるが、第1識別器23と第2識別器24は違うデータセット(辞書作成に使う入力画像)を用いて作られている。   The first discriminator 23 and the second discriminator 24 are both discriminators that detect the opening and closing of the bag, but the first discriminator 23 and the second discriminator 24 are different data sets (input images used for creating a dictionary). It is made using.

第1識別器23は、第1の開閉判定辞書の作成に用いるデータセットとして、位置をずらしたり拡大縮小したりして水増ししたデータを用い、閉じた瞼のデータをポジティブ、開いた瞼のデータをネガティブとして学習させる。位置をずらして水増しすることで、辞書の入力データが多くなる。なお、ポジティブとネガティブは逆でも構わない。   The first discriminator 23 uses, as a data set used to create the first open / close determination dictionary, data that is padded by shifting the position or expanding / reducing the data, and closed heel data is positive and open heel data. To learn as a negative. By shifting the position and padding, the dictionary input data increases. Positive and negative may be reversed.

一方、第2識別器24は、第2の開閉判定辞書の作成に用いるデータセットとして、位置をずらした水増しを行わないデータを用いる。図9−12を用いて説明したとおり、第2識別器24は、初期検出部22が検出した目の領域にもとづいて、より高精細な目の識別器である仮開眼位置識別器243および仮閉眼位置識別器244を用いて、再度目の位置(開いていると仮定した場合の仮開眼位置、閉じていると仮定した場合の仮閉眼位置)を検出することで位置精度を高める。そして、これらの位置のそれぞれで瞼開閉の識別器である第1開閉識別器245および第2開閉識別器246がそれぞれの開眼用開閉判定辞書および閉眼用開閉判定辞書を使って瞼開閉判定を行う。   On the other hand, the second discriminator 24 uses, as a data set used for creating the second open / close determination dictionary, data that is not subjected to padding with a shifted position. As described with reference to FIGS. 9-12, the second discriminator 24 is based on the eye area detected by the initial detection unit 22, and the provisional eye opening position discriminator 243 and the provisional eye position discriminator 243, which are higher-definition eye discriminators. By using the closed eye position identifier 244, the position accuracy is improved by detecting the eye position again (a temporary open position when it is assumed to be open, and a temporary closed position when it is assumed to be closed). At each of these positions, the first open / close discriminator 245 and the second open / close discriminator 246, which are discriminators for eyelid opening / closing, perform eyelid opening / closing determination using the eye opening / closing determination dictionary and eye opening / closing determination dictionary, respectively. .

初期検出部22による目の領域の検出では、閉じた目と開いた目が混ざっている初期位置検出辞書を用いるため、位置検出精度が低くなってしまう。一方、第2識別器24を用いる方法では、目の位置の検出精度を高めることができるため、瞼開閉判定辞書との照合した時のスコアの信頼性が向上し、瞼開閉の判定結果の信頼性が向上する。   The detection of the eye area by the initial detection unit 22 uses an initial position detection dictionary in which closed eyes and open eyes are mixed, so that the position detection accuracy is lowered. On the other hand, in the method using the second discriminator 24, the detection accuracy of the eye position can be increased, so the reliability of the score when collated with the eyelid opening / closing determination dictionary is improved, and the reliability of the eyelid opening / closing determination result is reliable. Improves.

また、統合判定部26は、使用するデータセットや識別の方法が互いに異なる複数の識別器による複数の判定結果を統合評価して多数決などにより最終的な瞼開閉判定を行うことができる。   Further, the integrated determination unit 26 can perform integrated evaluation of a plurality of determination results by a plurality of discriminators having different data sets and identification methods to be used, and perform final eyelid open / close determination by majority vote or the like.

たとえば、第2識別器24は、少しでも位置がずれると急激に尤度が変化してしまう。また、目の位置を再探索するがゆえに、眼鏡のフレームを閉じため目として検出してしまうなど、局所的な紛らわしい画像に引きずられてしまう場合がありうる。一方、第1識別器23は、位置ずれに強くこの種の局所的な紛らわしい画像に引きずられる可能性が低い。   For example, the likelihood of the second discriminator 24 changes abruptly when the position is slightly shifted. Further, since the eye position is searched again, the eyeglass frame may be dragged to a locally confusing image, such as detecting the eye as a closed eyeglass frame. On the other hand, the first discriminator 23 is highly resistant to misalignment and is unlikely to be dragged by this type of local misleading image.

本実施形態に係る瞼開閉検出装置10によれば、図6に示すように、1の識別器が苦手とする場面において当該識別器がたとえ判定不能を出力したとしても、他の識別器によって補うことにより、最終的な瞼開閉判定を高精度に行なうことができる。   According to the eyelid opening / closing detection device 10 according to the present embodiment, as shown in FIG. 6, even if the classifier outputs an indeterminate judgment in a scene in which one classifier is not good, it is compensated by another classifier. As a result, the final eyelid opening / closing determination can be performed with high accuracy.

次に、補助判定部25によるエッジ強度を用いた瞼開閉判定処理について詳細に説明する。   Next, the eyelid opening / closing determination process using the edge strength by the auxiliary determination unit 25 will be described in detail.

図13は、図4のステップS6で補助判定部25により実行されるエッジ強度を用いた瞼開閉判定処理の詳細な手順の一例を示すサブルーチンフローチャートである。また、図14は、補助判定部25の一構成例を示す機能ブロック図である。図14に示すように、補助判定部25は、輝度補正部251、エッジ強度画像生成部252、組抽出部253、グループ化部254および開閉判定部255を有する。   FIG. 13 is a subroutine flowchart illustrating an example of a detailed procedure of the eyelid opening / closing determination process using the edge strength executed by the auxiliary determination unit 25 in step S6 of FIG. FIG. 14 is a functional block diagram illustrating a configuration example of the auxiliary determination unit 25. As illustrated in FIG. 14, the auxiliary determination unit 25 includes a luminance correction unit 251, an edge intensity image generation unit 252, a set extraction unit 253, a grouping unit 254, and an open / close determination unit 255.

まず、ステップS601において、輝度補正部251は、初期検出部22により検出された目の領域の画像サイズや傾きを正規化する。   First, in step S <b> 601, the luminance correction unit 251 normalizes the image size and inclination of the eye area detected by the initial detection unit 22.

次に、ステップS602において、輝度補正部251は、初期検出部22により検出された目の領域に対して輝度ヒストグラムを平坦化する輝度補正処理を行う。輝度補正処理を行うことにより、環境光に対するロバスト性が高まる。   Next, in step S <b> 602, the luminance correction unit 251 performs luminance correction processing for flattening the luminance histogram on the eye area detected by the initial detection unit 22. By performing the brightness correction process, the robustness with respect to the ambient light is increased.

図15(a)はエッジ強度画像生成に用いられるカーネルの一例を示す説明図であり(b)はカーネルの他の例を示す説明図である。   FIG. 15A is an explanatory diagram illustrating an example of a kernel used for generating an edge intensity image, and FIG. 15B is an explanatory diagram illustrating another example of the kernel.

ステップS603において、エッジ強度画像生成部252は、たとえば図15(a)や(b)などに示すカーネルを畳み込むことによりエッジ強度画像を生成する。   In step S603, the edge intensity image generation unit 252 generates an edge intensity image by convolving the kernel shown in FIGS. 15A and 15B, for example.

次に、ステップS604において、組抽出部253は、上瞼候補点および下瞼候補点を抽出するとともに、これらの候補点から上下瞼候補点の組を抽出する。   Next, in step S604, the set extraction unit 253 extracts the upper eyelid candidate point and the lower eyelid candidate point, and extracts a set of upper and lower eyelid candidate points from these candidate points.

図16は、図13のステップS604で組抽出部253により実行される瞼候補点抽出処理およびそれらのペアリング処理の手順の一例を示すサブルーチンフローチャートである。この手順では、目の輝度値が目の周辺の肌の輝度値に比べて低い値となることを利用する。   FIG. 16 is a sub-routine flowchart showing an example of the eyelid candidate point extraction process and the pairing process performed by the pair extraction unit 253 in step S604 of FIG. This procedure uses the fact that the luminance value of the eye is lower than the luminance value of the skin around the eye.

図17は、上瞼候補点および下瞼候補点が抽出される様子の一例を示す説明図である。   FIG. 17 is an explanatory diagram showing an example of how the upper eyelid candidate point and the lower eyelid candidate point are extracted.

ステップS6401において、組抽出部253は、エッジ強度画像を縦の各ラインについて上から下へ探索し始める。   In step S6401, the set extraction unit 253 starts searching the edge intensity image from top to bottom for each vertical line.

エッジ強度の極大値を示す位置があると(ステップS6402のYES)、組抽出部253は、この位置を上瞼候補点として抽出し、当該位置の座標とエッジ強度を登録する(ステップS6403)。エッジ強度の極大値を示す位置は、輝度値が明から暗に変化する位置であり、目の周辺の肌と目との境界位置である可能性が高いためである。また、エッジ強度の極小値を示す位置があると(ステップS6404のYES)、組抽出部253は、この位置を下瞼候補点として抽出し、当該位置の座標とエッジ強度を登録する(ステップS6405)。そして、現在探索中の縦のラインの最下部に到る(ステップS6406)。このとき、探索したラインに下瞼候補点がなかった場合は(ステップS6407のYES)、組抽出部253はエッジ強度の最小値を示す位置を下瞼候補点として抽出し、この位置の座標とエッジ強度とを登録する。   If there is a position indicating the maximum value of the edge strength (YES in step S6402), the set extraction unit 253 extracts this position as an upper eyelid candidate point, and registers the coordinates of the position and the edge strength (step S6403). This is because the position showing the maximum value of the edge intensity is a position where the luminance value changes from light to dark, and is likely to be a boundary position between the skin around the eyes and the eyes. If there is a position indicating the minimum value of the edge strength (YES in step S6404), the set extraction unit 253 extracts this position as a lower eyelid candidate point and registers the coordinates and edge strength of the position (step S6405). ). Then, it reaches the bottom of the vertical line currently being searched (step S6406). At this time, if there is no lower eyelid candidate point in the searched line (YES in step S6407), the set extraction unit 253 extracts the position indicating the minimum value of the edge strength as the lower eyelid candidate point, and the coordinates of this position and Register edge strength.

図18は、縦の1のライン上で抽出された上瞼候補点および下瞼候補点の一例を示す説明図である。図18に示すように、初期検出部22に検出された目の領域にたとえば眼鏡のフレームなど目以外のものが含まれていると、上瞼候補点および下瞼候補点が誤検出されてしまうこともある。   FIG. 18 is an explanatory diagram showing an example of the upper eyelid candidate point and the lower eyelid candidate point extracted on one vertical line. As shown in FIG. 18, if the eye area detected by the initial detection unit 22 includes something other than eyes such as a frame of glasses, the upper eyelid candidate point and the lower eyelid candidate point are erroneously detected. Sometimes.

次に、組抽出部253は、探索したラインで抽出した上瞼候補点および下瞼候補点のペアリングを試みる。   Next, the pair extraction unit 253 attempts to pair the upper eyelid candidate point and the lower eyelid candidate point extracted with the searched line.

図19は、上瞼候補点および下瞼候補点のペアリング方法の一例を示す説明図である。組抽出部253は、探索したラインで抽出した上瞼候補点のそれぞれについて、上下方向下側で最も近い下瞼候補点をペア候補とする(ステップS6409、図19の上から下への矢印参照)。また、下瞼候補点のそれぞれについて、上下方向上側で最も近い上瞼候補点をペア候補とする(ステップS6410、図19の下から上への矢印参照)。   FIG. 19 is an explanatory diagram illustrating an example of a pairing method of the upper eyelid candidate point and the lower eyelid candidate point. The pair extraction unit 253 sets, for each of the upper eyelid candidate points extracted from the searched line, the closest lower eyelid candidate point on the lower side in the vertical direction as a pair candidate (step S6409, see arrow from top to bottom in FIG. 19) ). For each lower eyelid candidate point, the closest upper eyelid candidate point on the upper side in the vertical direction is set as a pair candidate (see the arrow from the bottom to the top in FIG. 19).

そして、互いにペア候補であって各候補点における輝度値変化量の差が閾値以下であるペア候補どうしがあると(ステップS6411のYES)、このペア候補どうしを上瞼候補点と下瞼候補点との組としてペアリングする(ステップS6412)。各候補点における輝度値変化量の差が閾値以下であるとは、たとえば図17に示す例では、ΔAとΔBの差の絶対値が閾値以下であることをいう。このステップS6401からS6412までの手順を、全ての縦のラインで繰り返す(ステップS6413のNO、ステップS6414)。なお、図16には全てのラインを処理する場合の例を示すためステップS6414で1ライン右に行く場合の例を示したが、処理量の低減のため1ライン飛ばしや2ライン飛ばしで処理を行ってもよく、この場合はS6414で1ライン飛ばしや2ライン飛ばしで右に移動する。1ライン飛ばしや2ライン飛ばしの場合は、処理対象ラインの数が少なくなる。   If there is a pair candidate that is a pair candidate and the difference in the luminance value variation at each candidate point is equal to or less than the threshold (YES in step S6411), the pair candidate is identified as an upper candidate point and a lower candidate point. Pairing as a pair (step S6412). For example, in the example illustrated in FIG. 17, the difference in luminance value change amount between the candidate points means that the absolute value of the difference between ΔA and ΔB is less than or equal to the threshold. The procedure from step S6401 to S6412 is repeated for all vertical lines (NO in step S6413, step S6414). Note that FIG. 16 shows an example in which all lines are processed, and an example in which the line goes to the right in step S6414 is shown. However, in order to reduce the processing amount, processing is performed by skipping one line or skipping two lines. In this case, in S6414, one line is skipped or two lines are skipped to move right. In the case of skipping one line or skipping two lines, the number of processing target lines is reduced.

全ての処理対象ラインで瞼候補点抽出処理およびそれらのペアリング処理が行われると(ステップS6413のYES)、図13のステップS605に進み、グループ化部254は、抽出された瞼候補点のペアのそれぞれについて、グループ化部254は、上瞼候補点どうしの距離および下瞼候補点どうしの距離がともに閾値以内であるペア同士が同一のグループに属するようにグルーピングする。   When the eyelid candidate point extraction processing and the pairing processing are performed on all the processing target lines (YES in step S6413), the process proceeds to step S605 in FIG. 13, and the grouping unit 254 extracts the pair of the eyelid candidate points extracted. The grouping unit 254 performs grouping so that pairs in which the distance between the upper eyelid candidate points and the distance between the lower eyelid candidate points are both within the threshold value belong to the same group.

図20は、グルーピング結果の一例を示す説明図である。図20において、同一のグループに属する候補点は同一形状(円形、四角形、六角形)で示した。   FIG. 20 is an explanatory diagram illustrating an example of a grouping result. In FIG. 20, candidate points belonging to the same group are indicated by the same shape (circular, square, hexagonal).

次に、ステップS606において、開閉判定部255は、グループのそれぞれについて、各グループが上下瞼を構成するペアが属するグループであるか否かの判定や瞼の開閉判定に用いられる所定の特徴量を求める。次に、ステップS607において、開閉判定部255は、グループごとに優先度の高いグループから瞼の開閉判定を行い、瞼の開閉判定ができ次第、図4のステップS7に進む。   Next, in step S606, the open / close determination unit 255 determines, for each of the groups, a predetermined feature amount used for determining whether each group is a group to which a pair that constitutes the upper and lower eyelids belongs and for determining whether the eyelids are open / closed. Ask. Next, in step S607, the open / close determining unit 255 determines whether to open / close the bag from the group having a high priority for each group, and proceeds to step S7 in FIG.

図21(a)はグループの長さおよびグループの重心付近の幅の平均値を説明するための図であり、(b)は目頭側上瞼候補点の近似直線および目頭側の上下瞼の近似直線のなす角を説明するための図である。   FIG. 21A is a diagram for explaining the average value of the length of the group and the width near the center of gravity of the group, and FIG. 21B is an approximation of the approximate straight line of the upper eyelid candidate point and the approximate upper and lower eyelids of the eye side. It is a figure for demonstrating the angle | corner which a straight line makes.

また、図22は所定の特徴量を用いた開閉判定のルールの一例を示す説明図である。図23(a)は図22に示す第1のルールを説明するための図であり、(b)は図22に示す第3のルールを説明するための図であり、(c)は図22に示す第4のルールを説明するための図である。図22に示すルールは、グループを構成する組の数(グループの長さ)、グループの重心付近における幅の平均、およびグループの目頭近傍における複数の上瞼候補点を結ぶ近似直線の傾き、から選ばれた少なくとも2つの特徴量にもとづいて、被写体の瞼の開閉を判定するためのルールである。   FIG. 22 is an explanatory diagram showing an example of an open / close determination rule using a predetermined feature amount. FIG. 23 (a) is a diagram for explaining the first rule shown in FIG. 22, (b) is a diagram for explaining the third rule shown in FIG. 22, and (c) is a diagram for explaining FIG. It is a figure for demonstrating the 4th rule shown to. The rule shown in FIG. 22 is based on the number of pairs constituting the group (group length), the average width in the vicinity of the center of gravity of the group, and the slope of the approximate straight line connecting a plurality of upper eyelid candidate points in the vicinity of the group's eye. This is a rule for determining the opening / closing of the eyelid of the subject based on at least two selected feature values.

開閉判定部255が求める所定の特徴量としては、たとえばグループの長さ、グループの重心付近の幅、グループの目頭側の上瞼の近似直線、目頭側の上下瞼の近似直線のなす角などが挙げられる。   Examples of the predetermined feature amount calculated by the open / close determination unit 255 include the length of the group, the width near the center of gravity of the group, the approximate straight line of the upper eyelid of the group, the angle formed by the approximate straight line of the upper and lower eyelids of the eye side, and the like. Can be mentioned.

グループの長さは、各グループが上下瞼を構成するペアが属するグループであるか否かの判定に用いることができる。グループの長さが所定の長さ以上であれば、単なる誤検出ではなく当該グループが上下瞼を構成するペアが属するグループである可能性が高まる。なお、グループの長さは、グループを構成するペアの数であってもよい。長さにかえてペアの数を用いる場合、グループの長さは長いものの構成するペアの密度が低く誤検出の可能性の高いグループを排除することができる。   The length of the group can be used to determine whether or not each group is a group to which a pair constituting upper and lower sides belongs. If the length of the group is equal to or longer than a predetermined length, the possibility that the group is a group to which the pair that constitutes the upper and lower eyelids belongs rather than a mere erroneous detection. Note that the length of the group may be the number of pairs constituting the group. When the number of pairs is used instead of the length, it is possible to eliminate a group having a long group length but having a low density of pairs and a high possibility of erroneous detection.

また、グループの重心位置が画像中心から遠ざかるほど誤検出である可能性が高まり、画像中心に近づくほど、当該グループが上下瞼を構成するペアが属するグループである可能性が高まる。   In addition, the possibility of erroneous detection increases as the position of the center of gravity of the group is further away from the center of the image, and the closer to the center of the image, the higher the possibility that the group is a group to which a pair constituting the upper and lower eyelids belongs.

また、画像内におけるグループの重心付近(たとえば重心からグループ長さの2割〜4割ほどの横幅)にあるペアの幅(上下瞼候補点間距離)の平均値は、開閉判定に用いることができる。   The average value of the pair widths (distance between upper and lower eyelid candidate points) in the vicinity of the center of gravity of the group in the image (for example, the lateral width of about 20% to 40% of the group length from the center of gravity) can be used for open / close determination. it can.

また、上下瞼を構成するペアが属するグループの目頭側の上瞼の近似直線は、閉眼している時はグループ中心に向かって下向きであるため、開閉判定に用いることができる。   Moreover, the approximate straight line of the upper eyelid of the group to which the pair constituting the upper and lower eyelids belongs is downward toward the center of the group when the eyes are closed, and therefore can be used for open / close determination.

また、目頭側の上下瞼の近似直線のなす角は、瞼の開閉に応じて当然に変化するため、開閉判定に用いることができる。   Further, the angle formed by the approximate straight line of the upper and lower eyelids changes naturally according to the opening and closing of the eyelids, so that it can be used for opening / closing determination.

これらのほか、開閉判定部255は所定の特徴量として、ペアの幅の最大値、平均値、分散、グループの重心位置などを求めてもよい。   In addition to these, the open / close determination unit 255 may obtain the maximum value, average value, variance, group centroid position, and the like of the pair width as the predetermined feature amount.

特徴量を計算した後、開閉判定部255は、グループの長さや重心位置により、グループが上下瞼を構成するペアが属するグループである可能性が高いグループに対し、高優先度を与えて優先度の高い順番にグループをソートする。このとき、グループの長さや重心位置に応じて、誤検出の可能性が高いグループをフィルタして排除してもよい。   After calculating the feature amount, the open / close determination unit 255 gives a high priority to the group that is highly likely to be a group to which the pair that constitutes the upper and lower eyelids belongs, based on the group length and the center of gravity position. Sort groups in descending order. At this time, according to the length of the group and the position of the center of gravity, a group with a high possibility of erroneous detection may be filtered out.

そして、ソートした順番で、たとえば図22に示した瞼開閉の判定ルールに合致するかを確認する。ルールに合致した時点で、その目についての判定処理は終了する。全てのグループがどのルールにも合致しない場合には、開閉判定部255は判定不能を出力する。   Then, in the sorted order, for example, it is confirmed whether or not it matches the determination rule of the eyelid opening / closing shown in FIG. When the rule is met, the determination process for that eye ends. When all the groups do not match any rule, the open / close determination unit 255 outputs a determination impossible.

補助判定部25は、初期検出部22が検出した目の領域のエッジ強度画像を作成し、エッジ強度から上下瞼候補点のペアを複数抽出し、抽出したペアを位置関係に応じてグルーピングする。そして、グループの長さ、重心付近の幅、目頭側の上瞼の近似直線などの各グループの特徴量から、瞼開閉を判定する。このため、眼鏡のフレームやその陰が映り込む場合であっても、被写体が下を向いている場合や被写体のまつ毛が長い場合であっても、時系列的に連続した画像を用いずとも高精度に被写体の瞼の開閉判定を行なうことができる。また、補助判定部25による特徴量算出処理で処理負荷が係るものは、直線近似程度のものであり、瞼の輪郭を曲線フィッティングするような従来の技術に比べて非常に容易に瞼の開閉判定を行うことができる。   The auxiliary determination unit 25 creates an edge strength image of the eye region detected by the initial detection unit 22, extracts a plurality of pairs of upper and lower eyelid candidate points from the edge strength, and groups the extracted pairs according to the positional relationship. Then, the eyelid opening / closing is determined from the group features such as the length of the group, the width near the center of gravity, and the approximate straight line of the upper eyelid. For this reason, even if the frame of the eyeglasses or its shadow is reflected, the subject is facing down, or the subject's eyelashes are long, it is not necessary to use a continuous image in time series. It is possible to accurately determine whether the subject's eyelid is opened or closed. In addition, the processing load involved in the feature amount calculation processing by the auxiliary determination unit 25 is about linear approximation, and it is very easy to determine the opening / closing of the eyelids compared to the conventional technique in which the contour of the eyelids is curve-fitted. It can be performed.

なお、本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。   In addition, although some embodiment of this invention was described, these embodiment is shown as an example and is not intending limiting the range of invention. These novel embodiments can be implemented in various other forms, and various omissions, replacements, and changes can be made without departing from the scope of the invention. These embodiments and modifications thereof are included in the scope and gist of the invention, and are included in the invention described in the claims and the equivalents thereof.

4…車室内用カメラ
10…瞼開閉検出装置
14…撮像素子
21…画像生成部
22…初期検出部
252…エッジ強度画像生成部
253…組抽出部
254…グループ化部
255…開閉判定部
DESCRIPTION OF SYMBOLS 4 ... Vehicle interior camera 10 ... Open / close detection device 14 ... Image sensor 21 ... Image generation unit 22 ... Initial detection unit 252 ... Edge intensity image generation unit 253 ... Set extraction unit 254 ... Grouping unit 255 ... Open / close determination unit

Claims (11)

被写体の顔を撮像した撮像素子の出力にもとづいて生成された前記被写体の顔画像から目の領域を検出する初期検出部と、
前記目の領域からエッジ強度画像を生成するエッジ強度画像生成部と、
前記エッジ強度画像にもとづいて上瞼候補点と下瞼候補点との組を複数抽出する組抽出部と、
前記複数の組のそれぞれを、左右に隣り合う組どうしの距離が近い組が同一のグループに属するようグルーピングするグループ化部と、
前記グループの特徴量にもとづいて、前記被写体の瞼の開閉を判定する開閉判定部と、
を備えた瞼開閉検出装置。
An initial detection unit for detecting an eye region from the face image of the subject generated based on an output of an image sensor that images the face of the subject;
An edge strength image generation unit for generating an edge strength image from the eye region;
A set extraction unit for extracting a plurality of sets of upper eyelid candidate points and lower eyelid candidate points based on the edge intensity image;
A grouping unit that groups each of the plurality of sets such that a set in which a distance between adjacent sets on the left and right is close belongs to the same group;
An open / close determination unit that determines open / close of the eyelid of the subject based on the feature amount of the group;
A hull open / close detection device comprising:
前記グループの特徴量は、
前記グループを構成する前記組の数、前記グループの重心付近における前記グループを構成する上瞼候補点と下瞼候補点との距離の平均、および前記グループの目頭近傍における複数の上瞼候補点を結ぶ近似直線の傾きの少なくとも1つを含む、
請求項1記載の瞼開閉検出装置。
The feature amount of the group is
The number of the groups constituting the group, the average distance between the upper eyelid candidate points and the lower eyelid candidate points constituting the group in the vicinity of the center of gravity of the group, and a plurality of upper eyelid candidate points in the vicinity of the head of the group Including at least one of the slopes of the approximate straight lines to be joined,
The wrinkle opening / closing detection device according to claim 1.
前記組抽出部は、
前記エッジ強度画像を上から下に向かって探索して、明から暗に輝度値が変化する位置を上瞼候補点、暗から明に輝度値が変化する位置を下瞼候補点として抽出することを、前記エッジ強度画像の縦の複数のラインで行なう、
請求項1または2に記載の瞼開閉検出装置。
The set extraction unit
The edge intensity image is searched from top to bottom, and a position where the luminance value changes from light to dark is extracted as an upper eyelid candidate point, and a position where the luminance value changes from dark to light is extracted as a lower eyelid candidate point. A plurality of vertical lines of the edge intensity image.
The wrinkle opening / closing detection apparatus according to claim 1 or 2.
前記組抽出部は、
上瞼候補点のそれぞれについて、上下方向下側で最も近い下瞼候補点を組候補とするとともに、下瞼候補点のそれぞれについて、上下方向上側で最も近い上瞼候補点を組候補とし、さらに、互いに組候補であって各候補点における輝度値変化量の差が閾値以下である組候補どうしを上瞼候補点と下瞼候補点との前記組として抽出する、
請求項3記載の瞼開閉検出装置。
The set extraction unit
For each of the upper eyelid candidate points, the closest lower eyelid candidate point on the lower side in the vertical direction is set as a pair candidate, and for each of the lower eyelid candidate points, the closest upper eyelid candidate point on the upper side in the vertical direction is set as a set candidate. A pair of candidates that are mutually paired candidates and whose difference in luminance value variation at each candidate point is equal to or less than a threshold value are extracted as the pair of the upper eyelid candidate point and the lower eyelid candidate point
The wrinkle opening / closing detection device according to claim 3.
前記グループ化部は、
前記複数の組のそれぞれを、上瞼候補点どうしの距離および下瞼候補点どうしの距離がともに閾値以内である組どうしが同一のグループに属するようグルーピングする、
請求項1ないし4のいずれか1項に記載の瞼開閉検出装置。
The grouping unit
Each of the plurality of sets is grouped so that the distances between the upper eyelid candidate points and the distance between the lower eyelid candidate points are both within a threshold value belong to the same group,
The scissor opening / closing detection apparatus of any one of Claims 1 thru | or 4.
前記グループ化部は、
前記複数の組のそれぞれを複数のグループにグルーピングし、
前記開閉判定部は、
前記複数のグループのそれぞれを、グループを構成する前記組の数および前記グループの重心の画像内の位置の少なくとも一方にもとづいて優先度付けし、優先度の高いグループから順に前記被写体の瞼の開閉を判定していき、開または閉の判定結果が出ると判定を終了する一方、判定不能であると次の優先度のグループで開閉を判定することを繰り返す、
請求項1ないし5のいずれか1項に記載の瞼開閉検出装置。
The grouping unit
Grouping each of the plurality of sets into a plurality of groups;
The opening / closing determination unit
Prioritizing each of the plurality of groups based on at least one of the number of the groups constituting the group and the position in the image of the center of gravity of the group, and opening / closing the subject's eyelids in order from the highest priority group When the determination result of opening or closing comes out, the determination is ended, and when the determination is impossible, the opening / closing determination is repeated in the next priority group.
The scissor opening / closing detection apparatus of any one of Claims 1 thru | or 5.
前記開閉判定部は、
(a)前記グループを構成する前記組の数が閾値以上であり、かつ前記グループの重心付近における前記グループを構成する上瞼候補点と下瞼候補点との距離の平均が第1幅閾値より狭く、かつ前記グループの目頭近傍における複数の上瞼候補点を結ぶ近似直線が前記目頭から当該グループの中心に向かって水平から所定角度以内または下向きである場合、または、(b)前記グループを構成する前記組の数が閾値以上であり、かつ前記グループの重心付近における前記グループを構成する上瞼候補点と下瞼候補点との距離の平均が前記第1幅閾値より広い第3幅閾値より狭く、かつ前記グループの目頭近傍における複数の上瞼候補点を結ぶ近似直線が前記目頭から当該グループの中心に向かって下向きである場合、前記被写体の瞼が閉じていると判定する、
請求項6記載の瞼開閉検出装置。
The opening / closing determination unit
(A) The average of the distances between the upper eyelid candidate points and the lower eyelid candidate points constituting the group in the vicinity of the center of gravity of the group is greater than a first width threshold value when the number of the groups constituting the group is equal to or greater than a threshold value. When the approximate straight line that is narrow and connects a plurality of upper eyelid candidate points in the vicinity of the group's eye is within a predetermined angle or downward from the horizontal toward the center of the group from the eye, or (b) constitutes the group The average of the distance between the upper eyelid candidate point and the lower eyelid candidate point constituting the group in the vicinity of the center of gravity of the group is equal to or greater than a threshold value, and the third width threshold value is wider than the first width threshold value. When the approximate straight line connecting the plurality of upper eyelid candidate points in the vicinity of the group's eye is narrow and downward from the eye toward the center of the group, the eyelid of the subject is closed. That the judges,
The heel opening / closing detection device according to claim 6.
前記開閉判定部は、
(a)前記グループを構成する前記組の数が閾値以上であり、かつ前記グループの重心付近における前記グループを構成する上瞼候補点と下瞼候補点との距離の平均が第2幅閾値より広い場合、または、(b)前記グループを構成する前記組の数が閾値以上であり、かつ前記グループの重心付近における前記グループを構成する上瞼候補点と下瞼候補点との距離の平均が前記第2幅閾値より狭い第4幅閾値より広く、かつ前記グループの目頭近傍における複数の上瞼候補点を結ぶ近似直線と複数の下瞼候補点を結ぶ近似直線とのなす角が閾値以上である場合、前記被写体の瞼が開いていると判定する、
請求項6または7に記載の瞼開閉検出装置。
The opening / closing determination unit
(A) The number of sets constituting the group is equal to or greater than a threshold, and the average distance between the upper eyelid candidate points and the lower eyelid candidate points constituting the group near the center of gravity of the group is greater than the second width threshold value. If it is wide, or (b) the average number of distances between the upper eyelid candidate point and the lower eyelid candidate point constituting the group in the vicinity of the center of gravity of the group is equal to or greater than a threshold value. An angle formed between an approximate straight line connecting a plurality of upper eyelid candidate points and an approximate straight line connecting a plurality of lower eyelid candidate points in the vicinity of the head of the group which is narrower than the fourth width threshold is smaller than the threshold. If there is, it is determined that the eyelid of the subject is open.
The heel opening / closing detection device according to claim 6 or 7.
前記撮像素子は、
近赤外光で照明された前記被写体の顔を撮像する、
請求項1ないし8のいずれか1項に記載の瞼開閉検出装置。
The image sensor is
Image the face of the subject illuminated with near infrared light;
The scissor opening / closing detection apparatus of any one of Claims 1 thru | or 8.
請求項1ないし9のいずれか1項に記載の瞼開閉検出装置と、
前記撮像素子と、
を備えた車室内用カメラ。
A wrinkle opening / closing detection device according to any one of claims 1 to 9,
The imaging element;
Car interior camera equipped with.
被写体の顔を撮像した撮像素子の出力にもとづいて前記被写体の顔画像を生成するステップと、
前記顔画像から目の領域を検出するステップと、
前記目の領域からエッジ強度画像を生成するステップと、
前記エッジ強度画像にもとづいて上瞼候補点と下瞼候補点との組を複数抽出するステップと、
前記複数の組のそれぞれを、左右に隣り合う組どうしの距離が近い組が同一のグループに属するようグルーピングするステップと、
前記グループの特徴量にもとづいて、前記被写体の瞼の開閉を判定するステップと、
を有する瞼開閉検出方法。
Generating a face image of the subject based on an output of an imaging device that images the face of the subject;
Detecting an eye region from the face image;
Generating an edge intensity image from the eye region;
Extracting a plurality of sets of upper eyelid candidate points and lower eyelid candidate points based on the edge intensity image;
Grouping each of the plurality of sets such that pairs in which the distance between adjacent sets on the left and right are close to each other belong to the same group;
Determining whether to open or close the eyelid of the subject based on the feature amount of the group;
A wrinkle opening / closing detection method comprising:
JP2016149807A 2016-07-29 2016-07-29 Eyelid opening / closing detection device and eyelid opening / closing detection method Active JP6815121B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016149807A JP6815121B2 (en) 2016-07-29 2016-07-29 Eyelid opening / closing detection device and eyelid opening / closing detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016149807A JP6815121B2 (en) 2016-07-29 2016-07-29 Eyelid opening / closing detection device and eyelid opening / closing detection method

Publications (2)

Publication Number Publication Date
JP2018018399A true JP2018018399A (en) 2018-02-01
JP6815121B2 JP6815121B2 (en) 2021-01-20

Family

ID=61081726

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016149807A Active JP6815121B2 (en) 2016-07-29 2016-07-29 Eyelid opening / closing detection device and eyelid opening / closing detection method

Country Status (1)

Country Link
JP (1) JP6815121B2 (en)

Also Published As

Publication number Publication date
JP6815121B2 (en) 2021-01-20

Similar Documents

Publication Publication Date Title
US11314324B2 (en) Neural network image processing apparatus
US9405982B2 (en) Driver gaze detection system
US8649583B2 (en) Pupil detection device and pupil detection method
US9626553B2 (en) Object identification apparatus and object identification method
CN106965675B (en) A kind of lorry swarm intelligence safety work system
CN102812416A (en) Instruction input device, instruction input method, program, recording medium and integrated circuit
KR101903127B1 (en) Gaze estimation method and apparatus
EP3545818B1 (en) Sight line direction estimation device, sight line direction estimation method, and sight line direction estimation program
CN106570447A (en) Face photo sunglass automatic removing method based on gray histogram matching
TW201701820A (en) Method for detecting eyeball movement, program thereof, storage media for the program and device for detecting eyeball movement
US20210357656A1 (en) Systems and methods for object recognition
US8971592B2 (en) Method for determining eye location on a frontal face digital image to validate the frontal face and determine points of reference
JPWO2013008304A1 (en) 瞼 Detection device
JP2010244156A (en) Image feature amount detection device and view line direction detection device using the same
JP6762794B2 (en) Eyelid opening / closing detection device and eyelid opening / closing detection method
JP6892231B2 (en) Eyelid opening / closing detection device and eyelid opening / closing detection method
CN103942527B (en) Classified using the Eyes off road of glasses grader
US10963695B2 (en) Iris detection device, iris detection method, and recording medium onto which iris detection program is recorded
JP6340795B2 (en) Image processing apparatus, image processing system, image processing method, image processing program, and moving body control apparatus
WO2017212967A1 (en) Comparison device and comparison method
CN112101186A (en) Device and method for identifying a vehicle driver and use thereof
JP5092663B2 (en) Vehicle control device
JP2018018399A (en) Eyelid opening/closing detector and eyelid opening/closing detection method
JP5804638B2 (en) Object discrimination method
Wei et al. Occluded pedestrian detection based on depth vision significance in biomimetic binocular

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20180312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200820

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201222

R150 Certificate of patent or registration of utility model

Ref document number: 6815121

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250