JP2010217955A - Detection device, evaluation device and method, and program - Google Patents

Detection device, evaluation device and method, and program Download PDF

Info

Publication number
JP2010217955A
JP2010217955A JP2009060623A JP2009060623A JP2010217955A JP 2010217955 A JP2010217955 A JP 2010217955A JP 2009060623 A JP2009060623 A JP 2009060623A JP 2009060623 A JP2009060623 A JP 2009060623A JP 2010217955 A JP2010217955 A JP 2010217955A
Authority
JP
Japan
Prior art keywords
detection
face
reliability
detection result
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009060623A
Other languages
Japanese (ja)
Inventor
Takuya Okamoto
卓也 岡本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2009060623A priority Critical patent/JP2010217955A/en
Publication of JP2010217955A publication Critical patent/JP2010217955A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To more properly use a detection result of a state of an eye of a person. <P>SOLUTION: A face detection part 31 detects at least one of size, a shape, and a position of at least a part of a face of the person by use of an image captured by an imaging device 11. An eye state detection part 33 detects at least one of opening/closing and a shape of the eye of the person, and a view line direction by use of the image captured by the imaging device 11. A reliability evaluation part 22 evaluates reliability of the detection result by the eye state detection part 33 based on a change of a detection result by the face detection part 31. The detection device can be applied to a device detecting the state of the eye of a driver, for example. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、検出装置、評価装置および方法、並びに、プログラムに関し、特に、人の目の状態を検出する場合に用いて好適な検出装置、評価装置および方法、並びに、プログラムに関する。   The present invention relates to a detection device, an evaluation device and method, and a program, and more particularly, to a detection device, an evaluation device and method, and a program that are suitable for detecting the state of a human eye.

従来、運転者の脇見や居眠りを検出するために運転者の視線や目の開閉状態を検出する装置や技術が多数提案されている。   Conventionally, many devices and techniques for detecting the driver's line of sight and the open / closed state of the eyes have been proposed in order to detect the driver's looking aside or falling asleep.

ところで、運転者の視線や目の開閉状態を正確に検出するためには、その前に、運転者の顔の位置、目の各部位の位置、顔の向きなどを正確に検出する必要がある。しかし、従来の装置や技術のほとんどが、それらが正しく検出できることを前提にして構築されている(例えば、特許文献1参照)。   By the way, in order to accurately detect the driver's line of sight and eye open / closed state, it is necessary to accurately detect the position of the driver's face, the position of each part of the eye, the orientation of the face, and the like. . However, most conventional devices and technologies are constructed on the assumption that they can be detected correctly (see, for example, Patent Document 1).

しかし、実際には、運転者の顔の位置、目の各部位の位置、顔の向きなどが正しく検出されず、視線や目の開閉状態の検出結果が不安定になる状態が発生する。そして、運転者の視線や目の開閉状態の検出結果が不安定になると、後段の装置において、誤作動が発生したり、運転者の脇見や居眠りなどの誤検出が発生してしまう恐れがある。   However, actually, the position of the driver's face, the position of each part of the eye, the orientation of the face, and the like are not correctly detected, and the detection result of the line of sight and the open / closed state of the eyes may become unstable. And if the detection result of the driver's line of sight or eye open / closed state becomes unstable, there is a risk that a malfunction will occur in the subsequent device, or a false detection such as a driver's side look or doze will occur. .

そこで、従来、目を検出した領域が画像内の所定の領域内でない状態、検出した両目の間隔が所定の範囲内でない状態、または、検出した両目の瞳の上下方向の位置のズレが所定の範囲内でない状態が所定の時間継続した場合、ブザーをオンし、目認識が不可能な状態や誤検出したことを運転者に警報することが提案されている(例えば、特許文献2参照)。   Therefore, conventionally, the state where the eye is detected is not within a predetermined region in the image, the state where the distance between the detected eyes is not within the predetermined range, or the displacement of the detected vertical position of the eyes of both eyes is predetermined. When a state that is not within the range continues for a predetermined time, it has been proposed to turn on the buzzer and warn the driver that the eye cannot be recognized or that an error has been detected (see, for example, Patent Document 2).

特開2006−109980号公報JP 2006-109980 A 特開平6−344801号公報JP-A-6-344801

しかしながら、特許文献2に記載の発明では、判定に用いる画像内の領域や値の範囲が固定されているため、顔の作り、体格、運転姿勢などの個人差に柔軟に対応することは難しい。その結果、目認識が不可能な状態や誤検出したことを見過ごしてしまい、後段の装置において誤作動や誤検出が発生してしまう恐れがある。   However, in the invention described in Patent Document 2, since the region and value range in the image used for determination are fixed, it is difficult to flexibly cope with individual differences such as face creation, physique, and driving posture. As a result, it is possible to overlook a state in which eye recognition is impossible or a false detection, and a malfunction or a false detection may occur in a subsequent device.

本発明は、このような状況に鑑みてなされたものであり、より適切に人の目の状態の検出結果を利用できるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to more appropriately use the detection result of the human eye state.

本発明の第1の側面の検出装置は、撮像装置により撮像された画像を用いて人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、画像を用いて人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段と、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性を評価する信頼性評価手段とを含む。   A detection device according to a first aspect of the present invention includes a face detection unit that detects at least one of the size, shape, and position of at least a part of a human face using an image captured by an imaging device; The eye state detecting means for detecting at least one of the opening / closing and shape of the human eye and the line-of-sight direction, and the change in the first detection result by the face detecting means And a reliability evaluation means for evaluating the reliability of the two detection results.

本発明の第1の側面の検出装置においては、撮像装置により撮像された画像を用いて人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つが検出され、画像を用いて人の目の開閉および形状、並びに、視線方向のうち少なくとも1つが検出され、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性が評価される。   In the detection device according to the first aspect of the present invention, at least one of the size, shape, and position of at least a part of a person's face is detected using an image captured by the imaging device, and the person is detected using the image. At least one of the eye opening / closing and shape and the line-of-sight direction is detected, and the reliability of the second detection result by the eye state detection means is evaluated based on the change in the first detection result by the face detection means. The

従って、人の目の状態の検出結果の信頼性を正確に評価することができる。その結果、例えば、信頼性の高い検出結果のみを利用することが可能になり、より適切に人の目の状態の検出結果を利用することができる。   Therefore, the reliability of the detection result of the human eye state can be accurately evaluated. As a result, for example, it becomes possible to use only the detection result with high reliability, and the detection result of the human eye state can be used more appropriately.

この顔検出手段、目状態検出手段、信頼性評価手段は、例えば、CPU(Central Processing Unit)により構成される。   The face detection means, eye state detection means, and reliability evaluation means are constituted by, for example, a CPU (Central Processing Unit).

この信頼性評価手段には、第1の検出結果と第1の検出結果の平均値との差に基づいて、第2の検出結果の信頼性を評価させることができる。   The reliability evaluation unit can evaluate the reliability of the second detection result based on the difference between the first detection result and the average value of the first detection result.

これにより、人の目の状態の検出結果の信頼性をより正確に評価することができる。   Thereby, the reliability of the detection result of the human eye state can be more accurately evaluated.

この検出装置には、人の顔の向きを検出する顔向き検出手段をさらに設け、この信頼性評価手段には、顔向き検出手段により検出された人の顔の向きの変化が所定の範囲内である状態が所定の期間連続したときの第1の検出結果の平均値を求め、第1の検出結果と求めた第1の検出結果の平均値との差に基づいて、第2の検出結果の信頼性を評価させることができる。   The detection apparatus further includes a face direction detection unit that detects the direction of the human face, and the reliability evaluation unit includes a change in the human face direction detected by the face direction detection unit within a predetermined range. The average value of the first detection results when the state is continuous for a predetermined period is obtained, and the second detection result is based on the difference between the first detection result and the obtained average value of the first detection results. Can be evaluated.

これにより、個人差や人の状態などの違いに柔軟に対応して、人の目の状態の検出結果の信頼性を評価することができる。   Thereby, the reliability of the detection result of the human eye state can be evaluated in a flexible manner corresponding to individual differences and human state differences.

この検出装置には、第2の検出結果、および、第2の検出結果の信頼性を示す情報を出力する出力手段をさらに設けることができる。   The detection device may further include an output unit that outputs the second detection result and information indicating the reliability of the second detection result.

これにより、人の目の状態の検出結果を利用する後段の装置において、その信頼性に基づいて、より適切に検出結果を利用することができる。   Thereby, in the latter apparatus using the detection result of the human eye state, the detection result can be used more appropriately based on the reliability.

この出力手段は、例えば、CPU(Central Processing Unit)により構成される。   This output means is constituted by, for example, a CPU (Central Processing Unit).

第1の検出結果が複数の項目からなる場合、この信頼性評価手段には、第1の検出結果の項目毎に第2の検出結果の信頼性を評価させ、項目毎の第2の検出結果の信頼性の評価結果に基づいて、最終的な第2の検出結果の信頼性を評価させ、この出力手段には、項目毎の第2の検出結果の信頼性の評価結果をさらに出力させることができる。   When the first detection result includes a plurality of items, the reliability evaluation unit evaluates the reliability of the second detection result for each item of the first detection result, and the second detection result for each item. The reliability of the final second detection result is evaluated on the basis of the reliability evaluation result, and the output means further outputs the reliability evaluation result of the second detection result for each item. Can do.

これにより、人の目の状態の検出結果を利用する後段の装置において、検出結果の信頼性の評価の基となる原因を知ることができる。   Thereby, it is possible to know the cause that is the basis for evaluating the reliability of the detection result in the subsequent apparatus that uses the detection result of the human eye state.

この検出装置には、第2の検出結果の信頼性が所定の閾値以上である場合、第2の検出結果を出力し、第2の検出結果の信頼性が所定の閾値未満である場合、第2の検出結果を出力しない出力手段をさらに設けることができる。   The detection device outputs the second detection result when the reliability of the second detection result is equal to or higher than a predetermined threshold value, and outputs the second detection result when the reliability of the second detection result is lower than the predetermined threshold value. An output means that does not output the detection result of 2 can be further provided.

これにより、人の目の状態の検出結果を利用する後段の装置において、確実に信頼性の高い検出結果のみを利用することが可能になる。   This makes it possible to reliably use only the detection result with high reliability in the subsequent apparatus that uses the detection result of the human eye state.

この出力手段は、例えば、CPU(Central Processing Unit)により構成される。   This output means is constituted by, for example, a CPU (Central Processing Unit).

この顔検出手段には、人の目を除く人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出させることができる。   The face detection means can detect at least one of the size, shape and position of at least a part of the human face excluding the human eyes.

これにより、人の目を除く人の顔の部分に基づいて、人の目の状態の検出結果の信頼性を評価することができる。   Thereby, the reliability of the detection result of the human eye state can be evaluated based on the face portion of the person excluding the human eye.

この顔検出手段には、人の顔全体の大きさ、形状および位置のうち少なくとも1つを検出させることができる。   The face detection means can detect at least one of the size, shape and position of the entire human face.

これにより、人の顔全体の大きさ、形状および位置のうち少なくとも1つに基づいて、人の目の状態の検出結果の信頼性を評価することができる。   Thereby, the reliability of the detection result of the human eye state can be evaluated based on at least one of the size, shape, and position of the entire human face.

本発明の第2の側面の評価装置は、撮像装置により撮像された画像を用いて人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、画像を用いて人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段とを備える検出装置の検出結果の信頼性を評価する評価装置において、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性を評価する信頼性評価手段を含む。   An evaluation device according to a second aspect of the present invention includes a face detection unit that detects at least one of the size, shape, and position of at least a part of a human face using an image captured by an imaging device, and an image In the evaluation apparatus for evaluating the reliability of the detection result of the detection device comprising: eye state detection means for detecting at least one of the eye opening / closing and shape and the eye gaze direction using And reliability evaluation means for evaluating the reliability of the second detection result by the eye state detection means based on the change in the detection result of 1.

本発明の第2の側面の評価装置においては、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性が評価される。   In the evaluation apparatus according to the second aspect of the present invention, the reliability of the second detection result by the eye state detection unit is evaluated based on the change in the first detection result by the face detection unit.

従って、人の目の状態の検出結果の信頼性を正確に評価することができる。その結果、例えば、信頼性の高い検出結果のみを利用することが可能になり、より適切に人の目の状態の検出結果を利用することができる。   Therefore, the reliability of the detection result of the human eye state can be accurately evaluated. As a result, for example, it becomes possible to use only the detection result with high reliability, and the detection result of the human eye state can be used more appropriately.

この顔検出手段、目状態検出手段、信頼性評価手段は、例えば、CPU(Central Processing Unit)により構成される。   The face detection means, eye state detection means, and reliability evaluation means are constituted by, for example, a CPU (Central Processing Unit).

この信頼性評価手段には、第1の検出結果と第1の検出結果の平均値との差に基づいて、第2の検出結果の信頼性を評価させることができる。   The reliability evaluation unit can evaluate the reliability of the second detection result based on the difference between the first detection result and the average value of the first detection result.

これにより、人の目の状態の検出結果の信頼性をより正確に評価することができる。   Thereby, the reliability of the detection result of the human eye state can be more accurately evaluated.

この検出装置には、人の顔の向きを検出する顔向き検出手段をさらに設け、この信頼性評価手段には、顔向き検出手段により検出された人の顔の向きの変化が所定の範囲内である状態が所定の期間連続したときの第1の検出結果の平均値を求め、第1の検出結果と求めた第1の検出結果の平均値との差に基づいて、第2の検出結果の信頼性を評価させることができる。   The detection apparatus further includes a face direction detection unit that detects the direction of the human face, and the reliability evaluation unit includes a change in the human face direction detected by the face direction detection unit within a predetermined range. The average value of the first detection results when the state is continuous for a predetermined period is obtained, and the second detection result is based on the difference between the first detection result and the obtained average value of the first detection results. Can be evaluated.

これにより、個人差や人の状態などの違いに柔軟に対応して、人の目の状態の検出結果の信頼性を評価することができる。   Thereby, the reliability of the detection result of the human eye state can be evaluated in a flexible manner corresponding to individual differences and human state differences.

本発明の第2の側面の評価方法は、撮像装置により撮像された画像を用いて人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、画像を用いて人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段とを備える検出装置の検出結果の信頼性を評価する評価装置が、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性を評価するステップを含む。   An evaluation method according to a second aspect of the present invention includes a face detection unit that detects at least one of the size, shape, and position of at least a part of a human face using an image captured by an imaging device, and an image An evaluation device that evaluates the reliability of a detection result of a detection device that includes an eye state detection unit that detects at least one of the opening / closing and shape of a human eye and the line-of-sight direction using a face detection unit. And a step of evaluating the reliability of the second detection result by the eye state detection means based on the change in the detection result of 1.

本発明の第2の側面のプログラムは、撮像装置により撮像された画像を用いて人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、画像を用いて人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段とを備える検出装置の検出結果の信頼性を評価するコンピュータに、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性を評価するステップを含む処理を実行させる。   A program according to a second aspect of the present invention includes a face detection unit that detects at least one of the size, shape, and position of at least a part of a human face using an image captured by an imaging device; A computer that evaluates the reliability of the detection result of the detection device including the eye state detection unit that detects at least one of the opening / closing and shape of the human eye and the line-of-sight direction is used. Based on the change in the detection result, a process including a step of evaluating the reliability of the second detection result by the eye state detection unit is executed.

従って、人の目の状態の検出結果の信頼性を正確に評価することができる。その結果、例えば、信頼性の高い検出結果のみを利用することが可能になり、より適切に人の目の状態の検出結果を利用することができる。   Therefore, the reliability of the detection result of the human eye state can be accurately evaluated. As a result, for example, it becomes possible to use only the detection result with high reliability, and the detection result of the human eye state can be used more appropriately.

この検出装置、顔検出手段、目状態検出手段は、例えば、CPU(Central Processing Unit)により構成される。   The detection device, face detection means, and eye state detection means are constituted by, for example, a CPU (Central Processing Unit).

本発明の第1の側面または第2の側面によれば、人の目の状態の検出結果の信頼性を正確に評価することができる。また、本発明の第1の側面または第2の側面によれば、より適切に人の目の状態の検出結果を利用することができる。   According to the first aspect or the second aspect of the present invention, the reliability of the detection result of the human eye state can be accurately evaluated. Moreover, according to the 1st side surface or 2nd side surface of this invention, the detection result of a human eye state can be utilized more appropriately.

本発明を適用した目状態検出システムの一実施の形態を示すブロック図である。It is a block diagram which shows one Embodiment of the eye state detection system to which this invention is applied. 顔検出部により検出される項目の具体例について説明するための図である。It is a figure for demonstrating the specific example of the item detected by a face detection part. 信頼性評価部の処理の概要について説明するための図である。It is a figure for demonstrating the outline | summary of the process of a reliability evaluation part. 目状態検出処理について説明するためのフローチャートである。It is a flowchart for demonstrating an eye state detection process. 信頼性評価処理の詳細について説明するためのフローチャートである。It is a flowchart for demonstrating the detail of a reliability evaluation process. 信頼性評価処理の詳細について説明するためのフローチャートである。It is a flowchart for demonstrating the detail of a reliability evaluation process. 信頼性評価部の状態遷移図である。It is a state transition diagram of a reliability evaluation part. 顔検出結果評価処理の詳細について説明するためのフローチャートである。It is a flowchart for demonstrating the detail of a face detection result evaluation process. コンピュータの構成例を示す図である。It is a figure which shows the structural example of a computer.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明を適用した目状態検出システムの一実施の形態を示すブロック図である。図1の目状態検出システム1は、例えば、車両に設けられ、車両を運転する運転者の目の状態を検出し、検出結果に応じた処理を行うシステムである。目状態検出システム1は、撮像装置11、検出装置12、および、アプリケーション装置13を含むように構成される。また、検出装置12は、検出部21、信頼性評価部22、および、出力制御部23を含むように構成される。検出部21は、顔検出部31、顔状態検出部32、および、目状態検出部33を含むように構成される。   FIG. 1 is a block diagram showing an embodiment of an eye state detection system to which the present invention is applied. The eye state detection system 1 in FIG. 1 is a system that is provided in a vehicle, for example, and detects the state of the eyes of a driver who drives the vehicle, and performs processing according to the detection result. The eye state detection system 1 is configured to include an imaging device 11, a detection device 12, and an application device 13. The detection device 12 is configured to include a detection unit 21, a reliability evaluation unit 22, and an output control unit 23. The detection unit 21 is configured to include a face detection unit 31, a face state detection unit 32, and an eye state detection unit 33.

なお、以下、目状態検出システム1が車両に設けられている場合の例について説明する。また、以下、目状態検出システム1が設けられている車両を、自車と称する。   Hereinafter, an example in which the eye state detection system 1 is provided in a vehicle will be described. Hereinafter, a vehicle provided with the eye state detection system 1 is referred to as a host vehicle.

撮像装置11は、自車を運転する運転者の顔を撮像し、その結果得られた画像(以下、顔画像と称する)を顔検出部31に供給する。   The imaging device 11 images the face of the driver who drives the vehicle, and supplies an image (hereinafter referred to as a face image) obtained as a result to the face detection unit 31.

なお、撮像装置11は、運転者の体格および姿勢などの違いに関わらず、運転席に座っている運転者の顔を確実に撮像することができる位置に設置されることが望ましい。例えば、撮像装置11は、ステアリングコラム上に設置され、正面から運転者を撮像したり、自車内のセンタミラー(ルームミラー)の根元付近(センタミラーが自車に取り付けられているあたり)に設置され、前方左斜め上方向から運転者を撮像する。   Note that the imaging device 11 is desirably installed at a position where the face of the driver sitting in the driver's seat can be reliably imaged regardless of differences in the driver's physique and posture. For example, the imaging device 11 is installed on a steering column and images a driver from the front, or installed near the base of a center mirror (room mirror) in the own vehicle (where the center mirror is attached to the own vehicle). The driver is imaged from the upper left diagonal direction.

検出装置12は、顔画像に基づいて、運転者の目の状態を検出する。また、検出装置12は、運転者の目の状態の検出結果の信頼性を評価する。検出装置12は、運転者の目の状態の検出結果、および、その信頼性を示す情報をアプリケーション装置13に供給する。   The detection device 12 detects the eye state of the driver based on the face image. The detection device 12 evaluates the reliability of the detection result of the driver's eye state. The detection device 12 supplies the detection result of the driver's eye state and information indicating the reliability to the application device 13.

より具体的には、検出装置12の検出部21の顔検出部31は、顔画像に写っている運転者の顔を検出する。そして、顔検出部31は、顔画像、および、運転者の顔の検出結果を示す情報を顔状態検出部32に供給する。また、顔検出部31は、運転者の顔の検出結果を示す情報を信頼性評価部22に供給する。   More specifically, the face detection unit 31 of the detection unit 21 of the detection device 12 detects the driver's face in the face image. Then, the face detection unit 31 supplies the face state detection unit 32 with information indicating the face image and the detection result of the driver's face. Further, the face detection unit 31 supplies information indicating the detection result of the driver's face to the reliability evaluation unit 22.

なお、以下、図2に示されるように、顔検出部31が、顔画像の各フレームにおいて、顔画像における運転者の顔のX軸方向の位置XおよびY軸方向の位置Y、および、顔のサイズSを検出する場合の例について説明する。   Hereinafter, as illustrated in FIG. 2, the face detection unit 31 performs a position X in the X-axis direction and a position Y in the Y-axis direction of the driver's face in the face image and a face in each frame of the face image. An example in the case where the size S is detected will be described.

顔状態検出部32は、顔画像、および、顔検出部31による運転者の顔の検出結果に基づいて、運転者の顔の状態を検出する。顔状態検出部32は、顔画像、運転者の顔の検出結果、および、運転者の顔の状態の検出結果を示す情報を目状態検出部33に供給する。また、顔状態検出部32は、運転者の顔の状態の検出結果を示す情報を信頼性評価部22に供給する。   The face state detection unit 32 detects the state of the driver's face based on the face image and the detection result of the driver's face by the face detection unit 31. The face state detection unit 32 supplies information indicating the face image, the detection result of the driver's face, and the detection result of the driver's face state to the eye state detection unit 33. Further, the face state detection unit 32 supplies information indicating the detection result of the driver's face state to the reliability evaluation unit 22.

なお、以下、顔状態検出部32が、運転者の顔の状態として、運転者の顔の向きを検出する場合の例について説明する。   Hereinafter, an example in which the face state detection unit 32 detects the driver's face orientation as the driver's face state will be described.

目状態検出部33は、顔画像、顔検出部31による運転者の顔の検出結果、および、顔状態検出部32による運転者の顔の状態の検出結果に基づいて、運転者の目の状態を検出する。目状態検出部33は、運転者の目の状態の検出結果を示す情報を出力制御部23に供給する。   The eye state detection unit 33 is based on the face image, the detection result of the driver's face by the face detection unit 31, and the detection result of the driver's face state by the face state detection unit 32. Is detected. The eye state detection unit 33 supplies information indicating the detection result of the driver's eye state to the output control unit 23.

なお、以下、目状態検出部33が、運転者の目の状態として、運転者の視線方向および目の開閉状態を検出する場合の例について説明する。   Hereinafter, an example in which the eye state detection unit 33 detects the driver's eye direction and the eye open / close state as the driver's eye state will be described.

信頼性評価部22は、顔検出部31による運転者の顔の検出結果、および、顔状態検出部32による運転者の顔の状態の検出結果に基づいて、目状態検出部33による運転者の目の状態の検出結果の信頼性を評価する。   Based on the detection result of the driver's face by the face detection unit 31 and the detection result of the driver's face state by the face state detection unit 32, the reliability evaluation unit 22 performs the driver's face detection by the eye state detection unit 33. Evaluate the reliability of eye state detection results.

詳細については後述するが、信頼性評価部22は、例えば、図3に示されるように、顔検出部31による運転者の顔の位置Xおよび位置Y、並びに、サイズSを時系列で監視する。そして、顔検出部31は、図中点線で囲まれる部分のように、顔位置X、顔位置Yおよび顔サイズSのうち少なくとも1つが不連続な変化をしたときに、目状態検出部33による検出結果の信頼性が低いと評価する。信頼性評価部22は、運転者の目の状態の検出結果の信頼性を示す信頼性情報を出力制御部23に供給する。   As will be described in detail later, the reliability evaluation unit 22 monitors the driver's face position X and position Y and size S by the face detection unit 31 in time series, as shown in FIG. 3, for example. . Then, when at least one of the face position X, the face position Y, and the face size S changes discontinuously as in the part surrounded by the dotted line in the figure, the face detection unit 31 uses the eye state detection unit 33. Evaluate that the reliability of the detection result is low. The reliability evaluation unit 22 supplies the output control unit 23 with reliability information indicating the reliability of the detection result of the driver's eye state.

出力制御部23は、運転者の目の状態の検出結果、および、その信頼性を示す情報のアプリケーション装置13への出力を制御する。   The output control unit 23 controls the detection result of the driver's eye state and the output of the information indicating the reliability to the application device 13.

アプリケーション装置13は、運転者の目の状態の検出結果を利用する装置である。例えば、アプリケーション装置13は、運転者の目の状態の検出結果に基づいて、運転者の脇見や居眠りを検出し、運転者に注意を促すための警告を行う。   The application device 13 is a device that uses the detection result of the driver's eye state. For example, the application device 13 detects a driver's look-aside or doze based on the detection result of the driver's eye state, and issues a warning to alert the driver.

次に、図4乃至図8を参照して、目状態検出システム1の処理の詳細について説明する。   Next, the details of the processing of the eye state detection system 1 will be described with reference to FIGS.

まず、図4のフローチャートを参照して、目状態検出システム1により実行される目状態検出処理について説明する。なお、この処理は、例えば、自車のアクセサリ(ACC)の電源がオンされたとき開始され、アクセサリの電源がオフされたとき終了する。   First, the eye state detection process executed by the eye state detection system 1 will be described with reference to the flowchart of FIG. This process is started, for example, when the power supply of the accessory (ACC) of the own vehicle is turned on, and is ended when the power supply of the accessory is turned off.

ステップS1において、目状態検出システム1は、顔画像を取得する。具体的には、撮像装置11は、自車の運転者の顔を撮像し、その結果得られた顔画像を顔検出部31に入力する。   In step S1, the eye state detection system 1 acquires a face image. Specifically, the imaging device 11 images the face of the driver of the own vehicle, and inputs a face image obtained as a result to the face detection unit 31.

ステップS2において、顔検出部31は、顔の検出を行う。具体的には、顔検出部31は、所定の手法を用いて、顔画像に写っている運転者の顔のサイズおよび位置を検出する。そして、顔検出部31は、顔画像、並びに、運転者の顔のサイズおよび位置の検出結果を示す情報を顔状態検出部32に供給する。また、顔検出部31は、運転者の顔のサイズおよび位置の検出結果を示す情報を信頼性評価部22に供給する。   In step S2, the face detection unit 31 detects a face. Specifically, the face detection unit 31 detects the size and position of the driver's face in the face image using a predetermined method. Then, the face detection unit 31 supplies the face image and information indicating the detection result of the size and position of the driver's face to the face state detection unit 32. The face detection unit 31 supplies information indicating the detection result of the size and position of the driver's face to the reliability evaluation unit 22.

さらに、顔検出部31は、検出した運転者の顔のサイズおよび位置を示すデータを、図示せぬリングバッファに格納する。これにより、運転者の顔のサイズおよび位置の検出結果が、所定の期間保存されるとともに、古いデータが新しいデータにより上書きされていく。   Furthermore, the face detection unit 31 stores data indicating the size and position of the detected driver's face in a ring buffer (not shown). As a result, the detection result of the size and position of the driver's face is stored for a predetermined period, and old data is overwritten with new data.

なお、顔検出部31が顔のサイズおよび位置を検出する手法は、特定の手法に限定されるものではなく、任意の手法を採用することが可能である。   Note that the method by which the face detection unit 31 detects the size and position of the face is not limited to a specific method, and any method can be adopted.

ステップS3において、顔状態検出部32は、顔の状態の検出を行う。具体的には、顔状態検出部32は、所定の手法を用いて、顔画像、並びに、運転者の顔のサイズおよび位置の検出結果に基づいて、運転者の顔の向きを検出する。運転者の顔の向きは、例えば、自車の正面方向を基準とする運転者の顔の角度により表され、左方向が負の値、右方向が正の値により表される。なお、以下、顔状態検出部32により検出された運転者の顔の向きの角度をαとする。そして、顔状態検出部32は、顔画像、運転者の顔のサイズおよび位置の検出結果、並びに、運転者の顔の向きの検出結果を示す情報を目状態検出部33に供給する。また、顔状態検出部32は、運転者の顔の向きの検出結果を示す情報を信頼性評価部22に供給する。   In step S3, the face state detection unit 32 detects the face state. Specifically, the face state detection unit 32 detects the orientation of the driver's face based on the face image and the detection result of the size and position of the driver's face using a predetermined method. The direction of the driver's face is represented, for example, by the angle of the driver's face relative to the front direction of the host vehicle, with the left direction being a negative value and the right direction being a positive value. Hereinafter, the angle of the driver's face direction detected by the face state detection unit 32 is α. Then, the face state detection unit 32 supplies information indicating the face image, the detection result of the size and position of the driver's face, and the detection result of the direction of the driver's face to the eye state detection unit 33. Further, the face state detection unit 32 supplies information indicating the detection result of the driver's face direction to the reliability evaluation unit 22.

さらに、顔状態検出部32は、検出した運転者の顔の向きを示すデータを、図示せぬリングバッファに格納する。これにより、運転者の顔の向きの検出結果が、所定の期間保存されるとともに、古いデータが新しいデータにより上書きされていく。   Further, the face state detection unit 32 stores data indicating the detected driver's face orientation in a ring buffer (not shown). As a result, the detection result of the driver's face orientation is stored for a predetermined period, and old data is overwritten with new data.

なお、顔状態検出部32が顔の向きを検出する手法は、特定の手法に限定されるものではなく、任意の手法を採用することが可能である。   Note that the method by which the face state detection unit 32 detects the orientation of the face is not limited to a specific method, and any method can be adopted.

ステップS4において、目状態検出部33は、目の状態の検出を行う。具体的には、顔状態検出部32は、所定の手法を用いて、顔画像、運転者の顔のサイズおよび位置の検出結果、並びに、運転者の顔の向きの検出結果に基づいて、運転者の視線の向きおよび目の開閉状態を検出する。目状態検出部33は、運転者の視線の向きおよび目の開閉状態の検出結果を示す目状態検出情報を出力制御部23に供給する。   In step S4, the eye state detection unit 33 detects the eye state. Specifically, the face state detection unit 32 uses a predetermined method to drive based on the face image, the detection result of the driver's face size and position, and the detection result of the driver's face direction. The direction of the eyes of the person and the open / closed state of the eyes are detected. The eye state detection unit 33 supplies eye state detection information indicating the direction of the driver's line of sight and the detection result of the eye open / closed state to the output control unit 23.

なお、目状態検出部33が視線の向きおよび目の開閉状態を検出する手法は、特定の手法に限定されるものではなく、任意の手法を採用することが可能である。また、目状態検出部33が、顔検出部31による運転者の顔のサイズおよび位置の検出結果、および、顔状態検出部32による運転者の顔の向きの検出結果を用いずに、運転者の視線の向きおよび目の開閉状態を検出するようにしてもよい。   Note that the method by which the eye state detection unit 33 detects the direction of the line of sight and the open / closed state of the eyes is not limited to a specific method, and any method can be employed. Further, the eye state detection unit 33 does not use the detection result of the driver's face size and position by the face detection unit 31 and the detection result of the driver's face direction by the face state detection unit 32, and the driver The direction of the line of sight and the open / closed state of the eyes may be detected.

ステップS5において、信頼性評価部22は、信頼性評価処理を実行する。ここで、図5および図6のフローチャートを参照して、信頼性評価処理の詳細について説明する。   In step S5, the reliability evaluation unit 22 performs a reliability evaluation process. Here, details of the reliability evaluation processing will be described with reference to the flowcharts of FIGS. 5 and 6.

ステップS51において、信頼性評価部22は、現在の状態が初期設定中であるか否かを判定する。   In step S51, the reliability evaluation unit 22 determines whether or not the current state is being initialized.

ここで、図7に示されるように、信頼性評価部22の状態は、初期設定中、判定中、および、様子見判定中の3つの状態に遷移する。なお、目状態検出処理の開始時には、信頼性評価部22の状態は初期設定中に設定される。   Here, as shown in FIG. 7, the state of the reliability evaluation unit 22 transitions to three states during initial setting, during determination, and during state-of-appearance determination. At the start of the eye state detection process, the state of the reliability evaluation unit 22 is set during initial setting.

ステップS51において、現在の状態が初期設定中であると判定された場合、処理はステップS52に進む。   If it is determined in step S51 that the current state is being initialized, the process proceeds to step S52.

ステップS52において、信頼性評価部22は、−th_α<α(運転者の顔向きの角度)<th_αであるか否かを判定する。−th_α<α<th_αであると判定された場合、すなわち、運転者の左右方向の顔の向きが所定の範囲内である場合、処理はステップS53に進む。   In step S52, the reliability evaluation unit 22 determines whether -th_α <α (the angle of the driver's face) <th_α. If it is determined that −th_α <α <th_α, that is, if the driver's left and right face orientation is within a predetermined range, the process proceeds to step S53.

なお、th_αは所定の閾値であり、例えば、15度とされる。   Note that th_α is a predetermined threshold value, for example, 15 degrees.

ステップS53において、信頼性評価部22は、図示せぬリングバッファに格納されているデータに基づいて、顔の向きが安定した状態がNaフレームの間連続したか否かを判定する。顔の向きが安定した状態、すなわち、−th_α<α<th_αである状態がNaフレーム(例えば、20フレーム)の間連続したと判定された場合、処理はステップS54に進む。   In step S <b> 53, the reliability evaluation unit 22 determines whether the state where the face orientation is stable continues for Na frames based on data stored in a ring buffer (not shown). When it is determined that the face orientation is stable, that is, the state where -th_α <α <th_α is continued for Na frames (for example, 20 frames), the process proceeds to step S54.

なお、Naは、運転者の顔の向きの安定性を判断するための期間を定めるフレーム数であり、例えば、ユーザにより設定される。   Na is the number of frames that determines the period for determining the stability of the driver's face orientation, and is set by the user, for example.

ステップS54において、信頼性評価部22は、Nbフレームの間の顔のサイズ、位置の加重平均を求める。具体的には、信頼性評価部22は、最新のNbフレーム(例えば、10フレーム)の運転者の顔のサイズおよび位置のデータを、図示せぬリングバッファから読み出し、その加重平均を求める。   In step S54, the reliability evaluation unit 22 obtains a weighted average of the size and position of the face during the Nb frame. Specifically, the reliability evaluation unit 22 reads the driver's face size and position data of the latest Nb frame (for example, 10 frames) from a ring buffer (not shown), and obtains a weighted average thereof.

なお、Nbは、顔のサイズおよび位置の加重平均の算出期間を定めるフレーム数であり、例えば、ユーザにより設定される。また、Nb≦Naとされ、運転者の顔の向きが安定した状態における顔のサイズおよび位置の加重平均が求められる。   Nb is the number of frames that determines the calculation period of the weighted average of the face size and position, and is set by the user, for example. Further, a weighted average of the face size and position in a state where Nb ≦ Na is satisfied and the driver's face orientation is stable is obtained.

ステップS55において、信頼性評価部22は、信頼性評価部22の状態を判定中に変更する。その後、信頼性評価処理は終了する。   In step S55, the reliability evaluation unit 22 changes the state of the reliability evaluation unit 22 during determination. Thereafter, the reliability evaluation process ends.

一方、ステップS53において、顔の向きが安定した状態が、まだNaフレームの間連続していないと判定された場合、ステップS54およびS55の処理はスキップされ、信頼性評価処理は終了する。   On the other hand, if it is determined in step S53 that the face orientation is not stable during the Na frame, the processes in steps S54 and S55 are skipped, and the reliability evaluation process ends.

一方、ステップS52において、−th_α<α<th_αでないと判定された場合、すなわち、運転者の左右方向の顔の向きが所定の範囲を超えている場合、処理はステップS56に進む。   On the other hand, if it is determined in step S52 that −th_α <α <th_α is not satisfied, that is, if the driver's left and right face orientation exceeds the predetermined range, the process proceeds to step S56.

ステップS56において、信頼性評価部22は、顔のサイズ、位置の平均値をリセットする。すなわち、信頼性評価部22は、顔のサイズ、位置の平均値を0に設定する。その後、信頼性評価処理は終了する。   In step S56, the reliability evaluation unit 22 resets the average value of the face size and position. That is, the reliability evaluation unit 22 sets the average value of the face size and position to 0. Thereafter, the reliability evaluation process ends.

一方、ステップS51において、現在の状態が初期設定中でないと判定された場合、処理はステップS57に進む。   On the other hand, if it is determined in step S51 that the current state is not being initialized, the process proceeds to step S57.

ステップS57において、信頼性評価部22は、現在の状態が判定中であるか否かを判定する。現在の状態が判定中であると判定された場合、処理はステップS58に進む。   In step S57, the reliability evaluation unit 22 determines whether the current state is being determined. If it is determined that the current state is being determined, the process proceeds to step S58.

ステップS58において、信頼性評価部22は、顔検出結果評価処理を実行する。ここで、図8のフローチャートを参照して、顔検出結果評価処理の詳細について説明する。   In step S58, the reliability evaluation unit 22 performs a face detection result evaluation process. Here, details of the face detection result evaluation process will be described with reference to the flowchart of FIG.

ステップS101において、信頼性評価部22は、|顔のサイズの平均値−検出値|≦th_sであるか否かを判定する。ここで、th_sは所定の閾値である。すなわち、信頼性評価部22は、今回検出された運転者の顔のサイズSが、その平均値から所定の範囲内であるか否かを判定する。|顔のサイズの平均値−検出値|≦th_sであると判定された場合、処理はステップS102に進む。   In step S101, the reliability evaluation unit 22 determines whether or not | the average value of the face size−the detected value | ≦ th_s. Here, th_s is a predetermined threshold value. That is, the reliability evaluation unit 22 determines whether or not the driver's face size S detected this time is within a predetermined range from the average value. If it is determined that | average value of face size−detected value | ≦ th_s, the process proceeds to step S102.

ステップS102において、信頼性評価部22は、信頼性評価フラグ(サイズ)の値を1に設定する。その後、処理はステップS104に進む。   In step S102, the reliability evaluation unit 22 sets the value of the reliability evaluation flag (size) to 1. Thereafter, the process proceeds to step S104.

一方、ステップS101において、|顔のサイズSの平均値−検出値|>th_sであると判定された場合、処理はステップS103に進む。   On the other hand, if it is determined in step S101 that | average value of face size S−detected value |> th_s, the process proceeds to step S103.

ステップS103において、信頼性評価部22は、信頼性評価フラグ(サイズ)の値を0に設定する。その後、処理はステップS104に進む。   In step S103, the reliability evaluation unit 22 sets the value of the reliability evaluation flag (size) to 0. Thereafter, the process proceeds to step S104.

ステップS104において、信頼性評価部22は、|顔の位置Xの平均値−検出値|≦th_xであるか否かを判定する。ここで、th_xは所定の閾値である。すなわち、信頼性評価部22は、今回検出された運転者の顔のX軸方向の位置が、その平均値から所定の範囲内であるか否かを判定する。|顔の位置Xの平均値−検出値|≦th_xであると判定された場合、処理はステップS105に進む。   In step S104, the reliability evaluation unit 22 determines whether or not | average value of face position X−detected value | ≦ th_x. Here, th_x is a predetermined threshold value. That is, the reliability evaluation unit 22 determines whether or not the position of the driver's face detected this time in the X-axis direction is within a predetermined range from the average value. If it is determined that | average value of face position X−detected value | ≦ th_x, the process proceeds to step S105.

ステップS105において、信頼性評価部22は、信頼性評価フラグ(位置X)の値を1に設定する。その後、処理はステップS107に進む。   In step S105, the reliability evaluation unit 22 sets the value of the reliability evaluation flag (position X) to 1. Thereafter, the process proceeds to step S107.

一方、ステップS104において、|顔の位置Xの平均値−検出値|>th_xであると判定された場合、処理はステップS106に進む。   On the other hand, if it is determined in step S104 that | average value of face position X−detected value |> th_x, the process proceeds to step S106.

ステップS106において、信頼性評価部22は、信頼性評価フラグ(位置X)の値を0に設定する。その後、処理はステップS107に進む。   In step S106, the reliability evaluation unit 22 sets the value of the reliability evaluation flag (position X) to 0. Thereafter, the process proceeds to step S107.

ステップS107において、信頼性評価部22は、|顔の位置Yの平均値−検出値|≦th_yであるか否かを判定する。ここで、th_yは所定の閾値である。すなわち、信頼性評価部22は、運転者の顔のY軸方向の位置が、その平均値から所定の範囲内であるか否かを判定する。|顔の位置Yの平均値−検出値|≦th_yであると判定された場合、処理はステップS108に進む。   In step S107, the reliability evaluation unit 22 determines whether or not | average value of face position Y−detected value | ≦ th_y. Here, th_y is a predetermined threshold value. That is, the reliability evaluation unit 22 determines whether or not the position of the driver's face in the Y-axis direction is within a predetermined range from the average value. If it is determined that | the average value of the face position Y−the detected value | ≦ th_y, the process proceeds to step S108.

ステップS108において、信頼性評価部22は、信頼性評価フラグ(位置Y)の値を1に設定する。その後、処理はステップS110に進む。   In step S108, the reliability evaluation unit 22 sets the value of the reliability evaluation flag (position Y) to 1. Thereafter, the process proceeds to step S110.

一方、ステップS107において、|顔の位置Yの平均値−検出値|>th_yであると判定された場合、処理はステップS109に進む。   On the other hand, if it is determined in step S107 that | average value of face position Y−detected value |> th_y, the process proceeds to step S109.

ステップS109において、信頼性評価部22は、信頼性評価フラグ(位置Y)の値を0に設定する。その後、処理はステップS110に進む。   In step S109, the reliability evaluation unit 22 sets the value of the reliability evaluation flag (position Y) to 0. Thereafter, the process proceeds to step S110.

ステップS110において、信頼性評価部22は、信頼性評価フラグ(サイズ)=1であるか否かを判定する。信頼性評価フラグ(サイズ)=1であると判定された場合、処理はステップS111に進む。   In step S110, the reliability evaluation unit 22 determines whether or not the reliability evaluation flag (size) = 1. If it is determined that the reliability evaluation flag (size) = 1, the process proceeds to step S111.

ステップS111において、信頼性評価部22は、信頼性原因フラグ(サイズ)の値を1に設定する。その後、処理はステップS113に進む。   In step S111, the reliability evaluation unit 22 sets the value of the reliability cause flag (size) to 1. Thereafter, the process proceeds to step S113.

一方、ステップS110において、信頼性評価フラグ(サイズ)=1でないと判定された場合、処理はステップS112に進む。   On the other hand, if it is determined in step S110 that the reliability evaluation flag (size) is not 1, the process proceeds to step S112.

ステップS112において、信頼性評価部22は、信頼性原因フラグ(サイズ)の値を0に設定する。その後、処理はステップS113に進む。   In step S112, the reliability evaluation unit 22 sets the value of the reliability cause flag (size) to 0. Thereafter, the process proceeds to step S113.

ステップS113において、信頼性評価部22は、信頼性評価フラグ(位置X)=1であるか否かを判定する。信頼性評価フラグ(位置X)=1であると判定された場合、処理はステップS114に進む。   In step S113, the reliability evaluation unit 22 determines whether or not the reliability evaluation flag (position X) = 1. If it is determined that the reliability evaluation flag (position X) = 1, the process proceeds to step S114.

ステップS114において、信頼性評価部22は、信頼性原因フラグ(位置X)の値を1に設定する。その後、処理はステップS116に進む。   In step S114, the reliability evaluation unit 22 sets the value of the reliability cause flag (position X) to 1. Thereafter, the process proceeds to step S116.

一方、ステップS113において、信頼性評価フラグ(位置X)=1でないと判定された場合、処理はステップS115に進む。   On the other hand, if it is determined in step S113 that the reliability evaluation flag (position X) is not 1, the process proceeds to step S115.

ステップS115において、信頼性評価部22は、信頼性原因フラグ(位置X)の値を0に設定する。その後、処理はステップS116に進む。   In step S115, the reliability evaluation unit 22 sets the value of the reliability cause flag (position X) to 0. Thereafter, the process proceeds to step S116.

ステップS116において、信頼性評価部22は、信頼性評価フラグ(位置Y)=1であるか否かを判定する。信頼性評価フラグ(位置Y)=1であると判定された場合、処理はステップS117に進む。   In step S116, the reliability evaluation unit 22 determines whether or not the reliability evaluation flag (position Y) = 1. If it is determined that the reliability evaluation flag (position Y) = 1, the process proceeds to step S117.

ステップS117において、信頼性評価部22は、信頼性原因フラグ(位置Y)の値を1に設定する。その後、処理はステップS119に進む。   In step S117, the reliability evaluation unit 22 sets the value of the reliability cause flag (position Y) to 1. Thereafter, the process proceeds to step S119.

一方、ステップS116において、信頼性評価フラグ(位置Y)=1でないと判定された場合、処理はステップS118に進む。   On the other hand, if it is determined in step S116 that the reliability evaluation flag (position Y) is not 1, the process proceeds to step S118.

ステップS118において、信頼性評価部22は、信頼性原因フラグ(位置Y)の値を0に設定する。その後、処理はステップS119に進む。   In step S118, the reliability evaluation unit 22 sets the value of the reliability cause flag (position Y) to 0. Thereafter, the process proceeds to step S119.

ステップS119において、信頼性評価部22は、顔矩形信頼度を求める。ここで、顔矩形信頼度は、顔画像から検出された運転者の顔の領域を表す矩形の信頼性を表す値である。信頼性評価部22は、信頼性原因判定フラグ(サイズ)、信頼性原因判定フラグ(位置X)、および、信頼性原因判定フラグ(位置Y)の論理積(AND)を、顔矩形信頼度として求める。すなわち、顔矩形信頼度は、顔画像から検出された運転者の顔のサイズおよび位置に基づいて評価される。そして、顔矩形信頼度が1である場合、顔検出部31により運転者の顔が正確に検出された可能性が高く、運転者の視線方向および目の開閉状態の検出結果の信頼性も高いと推定される。一方、顔矩形信頼度が0である場合、顔検出部31により運転者の顔が正確に検出された可能性が低く、運転者の視線方向および目の開閉状態の検出結果の信頼性も低いと推定される。その後、顔検出結果評価処理は終了する。   In step S119, the reliability evaluation unit 22 obtains the face rectangle reliability. Here, the face rectangle reliability is a value representing the reliability of a rectangle representing the area of the driver's face detected from the face image. The reliability evaluation unit 22 uses the logical product (AND) of the reliability cause determination flag (size), the reliability cause determination flag (position X), and the reliability cause determination flag (position Y) as the face rectangle reliability. Ask. That is, the face rectangle reliability is evaluated based on the size and position of the driver's face detected from the face image. When the face rectangle reliability is 1, the possibility that the driver's face is accurately detected by the face detection unit 31 is high, and the reliability of the detection result of the driver's line-of-sight direction and eye open / closed state is also high. It is estimated to be. On the other hand, when the face rectangle reliability is 0, the possibility that the driver's face is accurately detected by the face detection unit 31 is low, and the reliability of the detection result of the driver's line-of-sight direction and eye open / closed state is also low. It is estimated to be. Thereafter, the face detection result evaluation process ends.

このように、顔検出結果評価処理により、顔検出部31により検出された運転者の顔のサイズ、位置Xおよび位置Yの項目毎に、視線方向および目の開閉状態の検出結果の信頼性が評価され、それらの評価結果に基づいて、最終的な検出結果の信頼性を示す顔矩形信頼度が求められる。   Thus, the reliability of the detection result of the line-of-sight direction and the open / closed state of the eyes for each item of the face size, position X and position Y of the driver detected by the face detection unit 31 by the face detection result evaluation process is The face rectangle reliability indicating the reliability of the final detection result is obtained based on the evaluation result.

図6に戻り、ステップS59において、信頼性評価部22は、評価結果を出力する。すなわち、信頼性評価部22は、顔矩形信頼度、信頼性原因判定フラグ(サイズ)、信頼性原因判定フラグ(位置X)、および、信頼性原因判定フラグ(位置Y)の値を含む情報を、目状態検出部33による運転者の視線方向および目の開閉状態の信頼性を示す信頼性情報として、出力制御部23に出力する。なお、信頼性評価部22は、自身の状態が初期設定中である場合、まだ初期設定中であり信頼性を評価できないことを示す情報を信頼性情報に設定し、出力する。   Returning to FIG. 6, in step S <b> 59, the reliability evaluation unit 22 outputs an evaluation result. That is, the reliability evaluation unit 22 obtains information including the values of the face rectangle reliability, the reliability cause determination flag (size), the reliability cause determination flag (position X), and the reliability cause determination flag (position Y). The eye state detection unit 33 outputs the information to the output control unit 23 as reliability information indicating the reliability of the driver's line-of-sight direction and the eye opening / closing state. In addition, when the state of itself is in the initial setting, the reliability evaluation unit 22 sets information indicating that the initial setting is still in progress and the reliability cannot be evaluated, and outputs the reliability information.

ステップS60において、信頼性評価部22は、顔矩形信頼度に基づいて、顔の検出が成功しているか否かを判定する。信頼性評価部22は、顔矩形信頼度の値が1である場合、顔の検出が成功していると判定し、処理はステップS63に進む。   In step S60, the reliability evaluation unit 22 determines whether face detection is successful based on the face rectangle reliability. If the value of the face rectangle reliability is 1, the reliability evaluation unit 22 determines that face detection is successful, and the process proceeds to step S63.

ステップS61において、信頼性評価部22は、顔のサイズ、位置の平均値を更新する。具体的には、例えば、信頼性評価部22は、顔の検出が成功したフレームのうち最新のNxフレーム(例えば、10フレーム)の運転者の顔のサイズおよび位置のデータを、図示せぬリングバッファから読み出し、その加重平均を求める。そして、信頼性評価部22は、顔検出評価処理に用いる平均値を、求めた平均値に更新する。その後、信頼性評価処理は終了する。   In step S61, the reliability evaluation unit 22 updates the average value of the face size and position. Specifically, for example, the reliability evaluation unit 22 uses a ring (not shown) of the driver's face size and position data of the latest Nx frame (for example, 10 frames) out of frames in which face detection has succeeded. Read from the buffer and find its weighted average. And the reliability evaluation part 22 updates the average value used for a face detection evaluation process to the calculated | required average value. Thereafter, the reliability evaluation process ends.

一方、ステップS60において、信頼性評価部22は、顔矩形信頼度の値が0である場合、顔の検出が失敗していると判定し、処理はステップS62に進む。   On the other hand, in step S60, if the value of the face rectangle reliability is 0, the reliability evaluation unit 22 determines that face detection has failed, and the process proceeds to step S62.

ステップS62において、信頼性評価部22は、Nyフレーム連続して顔の検出に失敗したか否かを判定する。Nyフレーム(例えば、10フレーム)連続して顔の検出に失敗したと判定された場合、処理はステップS63に進む。   In step S62, the reliability evaluation unit 22 determines whether face detection has failed for Ny frames in succession. If it is determined that face detection has failed continuously for Ny frames (for example, 10 frames), the process proceeds to step S63.

なお、Nyは、信頼性評価部22の状態を判定中から様子見判定中に遷移させるか否かを判断する期間を定めるフレーム数であり、例えば、ユーザにより設定される。   Ny is the number of frames that defines a period for determining whether or not to change the state of the reliability evaluation unit 22 from during determination to during appearance determination, and is set by the user, for example.

ステップS63において、信頼性評価部22は、状態を様子見判定中に変更する。その後、信頼性評価処理は終了する。   In step S <b> 63, the reliability evaluation unit 22 changes the state during the appearance determination. Thereafter, the reliability evaluation process ends.

一方、ステップS62において、まだNyフレーム(例えば、10フレーム)連続して顔の検出に失敗していないと判定された場合、ステップS63の処理はスキップされ、信頼性評価処理は終了する。   On the other hand, if it is determined in step S62 that face detection has not yet failed in Ny frames (for example, 10 frames), the process in step S63 is skipped, and the reliability evaluation process ends.

一方、ステップS57において、現在の状態が判定中でない、すなわち、現在の状態が様子見判定中であると判定された場合、処理はステップS64に進む。   On the other hand, when it is determined in step S57 that the current state is not being determined, that is, the current state is being determined to be in a state of watching, the process proceeds to step S64.

ステップS64において、ステップS58の処理と同様に、顔検出結果評価処理が実行される。   In step S64, the face detection result evaluation process is executed in the same manner as in step S58.

ステップS65において、ステップS59の処理と同様に、信頼性評価部22から出力制御部23に、目状態検出部33による運転者の視線方向および目の開閉状態の信頼性を示す信頼性情報が出力される。ただし、信頼性評価部22は、現在の状態が様子見判定中であるので、顔矩形信頼度の値を0に補正して出力する。   In step S65, as in the process of step S59, reliability information indicating the reliability of the driver's line-of-sight direction and eye open / closed state by the eye state detection unit 33 is output from the reliability evaluation unit 22 to the output control unit 23. Is done. However, the reliability evaluation unit 22 corrects the value of the face rectangle reliability to 0 and outputs the current state because the current state is being determined.

ステップS66において、ステップS60の処理と同様に、顔の検出が成功しているか否かが判定され、顔の検出が成功していると判定された場合、処理はステップS67に進む。   In step S66, as in the process of step S60, it is determined whether face detection is successful. If it is determined that face detection is successful, the process proceeds to step S67.

ステップS67において、信頼性評価部22は、Njフレーム連続して顔の検出に成功したか否かを判定する。Njフレーム(例えば、10フレーム)連続して顔の検出に成功したと判定された場合、処理はステップS68に進む。   In step S67, the reliability evaluation unit 22 determines whether face detection has succeeded in Nj frames continuously. If it is determined that face detection has succeeded continuously for Nj frames (for example, 10 frames), the process proceeds to step S68.

なお、Njは、信頼性評価部22の状態を様子見判定中から判定中に遷移させるか否かを判断する期間を定めるフレーム数であり、例えば、ユーザにより設定される。   Nj is the number of frames that determines a period for determining whether or not to change the state of the reliability evaluation unit 22 from during the state determination to during the determination, and is set by the user, for example.

ステップS68において、信頼性評価部22は、信頼性評価部22の状態を判定中に変更する。その後、信頼性評価処理は終了する。   In step S68, the reliability evaluation unit 22 changes the state of the reliability evaluation unit 22 during determination. Thereafter, the reliability evaluation process ends.

一方、ステップS67において、まだNjフレーム連続して顔の検出に成功していないと判定された場合、ステップS68の処理はスキップされ、信頼性評価処理は終了する。   On the other hand, if it is determined in step S67 that face detection has not yet succeeded in Nj frames, the process in step S68 is skipped, and the reliability evaluation process ends.

一方、ステップS66において、顔の検出が失敗していると判定された場合、処理はステップS69に進む。   On the other hand, if it is determined in step S66 that face detection has failed, the process proceeds to step S69.

ステップS69において、信頼性評価部22は、Niフレーム連続して顔の検出に失敗したか否かを判定する。Niフレーム(例えば、10フレーム)連続して顔の検出に失敗したと判定された場合、処理はステップS70に進む。   In step S69, the reliability evaluation unit 22 determines whether face detection has failed for Ni frames in succession. If it is determined that face detection has failed continuously for Ni frames (for example, 10 frames), the process proceeds to step S70.

なお、Niは、信頼性評価部22の状態を様子見判定中から初期設定中に遷移させるか否かを判断する期間を定めるフレーム数であり、例えば、ユーザにより設定される。   Note that Ni is the number of frames that defines a period for determining whether or not to change the state of the reliability evaluation unit 22 from the state determination to the initial setting, and is set by the user, for example.

ステップS70において、信頼性評価部22は、信頼性評価部22の状態を初期設定中に変更する。その後、信頼性評価処理は終了する。   In step S <b> 70, the reliability evaluation unit 22 changes the state of the reliability evaluation unit 22 during initial setting. Thereafter, the reliability evaluation process ends.

一方、ステップS69において、まだNiフレーム連続して顔の検出に失敗していないと判定された場合、ステップS70の処理はスキップされ、信頼性評価処理は終了する。   On the other hand, if it is determined in step S69 that the face detection has not yet failed for Ni frames, the process in step S70 is skipped, and the reliability evaluation process ends.

図4に戻り、ステップS6において、出力制御部23は、検出結果を出力する。すなわち、出力制御部23は、目状態検出部33から取得した目状態検出情報、および、信頼性評価部22から取得した信頼性情報を、アプリケーション装置13に出力する。   Returning to FIG. 4, in step S <b> 6, the output control unit 23 outputs the detection result. That is, the output control unit 23 outputs the eye state detection information acquired from the eye state detection unit 33 and the reliability information acquired from the reliability evaluation unit 22 to the application device 13.

なお、このとき、顔矩形信頼度の値が1である場合のみ、目状態検出情報を出力し、顔矩形信頼度の値が0の場合、目状態検出情報を出力しないようにしてもよい。また、目状態検出情報を出力しない場合に、あわせて信頼性情報を出力しないようにしてもよいし、信頼性情報のみ出力するようにしてもよい。   At this time, the eye state detection information may be output only when the face rectangle reliability value is 1, and the eye state detection information may not be output when the face rectangle reliability value is 0. Further, when the eye state detection information is not output, the reliability information may not be output, or only the reliability information may be output.

ステップS7において、アプリケーション装置13は、検出結果を利用する。例えば、アプリケーション装置13は、運転者の視線の向きの検出結果に基づいて、運転者の脇見の検出を行ったり、運転者の目の開閉状態の検出結果に基づいて、運転者の居眠りの検出を行ったりする。そして、アプリケーション装置13は、運転者が脇見または居眠りをしていると判定した場合、ディスプレイに画像を表示したり、警告音や警告メッセージを出力したり、LED(Light Emitting Diode)などの照明を点灯または点滅させたり、ステアリングホイールや運転席を振動させたりするなどの方法で、運転者への警告を行う。   In step S7, the application device 13 uses the detection result. For example, the application device 13 detects the driver's look-aside based on the detection result of the driver's line of sight, or detects the driver's doze based on the detection result of the open / closed state of the driver's eyes. Or do. When the application device 13 determines that the driver is looking aside or asleep, the application device 13 displays an image on the display, outputs a warning sound or a warning message, or lights such as an LED (Light Emitting Diode). Warning is given to the driver by lighting or flashing, or by vibrating the steering wheel or driver's seat.

また、アプリケーション装置13は、信頼性情報に含まれる顔矩形信頼度の値が0である間は、運転者の脇見および居眠りの検出処理を停止する。そして、アプリケーション装置13は、例えば、信頼性情報に含まれる信頼性原因判定フラグ(サイズ)、信頼性原因判定フラグ(位置X)、および、信頼性原因判定フラグ(位置Y)に基づいて、運転者の脇見および居眠りの検出処理を停止している原因を、画像、音声、光などにより運転者に通知する。   Further, the application device 13 stops the driver's aside and dozing detection processing while the value of the face rectangle reliability included in the reliability information is zero. The application device 13 operates based on, for example, the reliability cause determination flag (size), the reliability cause determination flag (position X), and the reliability cause determination flag (position Y) included in the reliability information. The driver is notified of the cause of stoppage of the driver's aside and dozing detection by an image, sound, light, or the like.

その後、処理はステップS1に戻り、ステップS1乃至S7の処理が繰り返し実行される。   Thereafter, the process returns to step S1, and the processes of steps S1 to S7 are repeatedly executed.

以上のようにして、運転者の個人差や状態の違いに柔軟に対応して、運転者の視線方向のおよび目の開閉状態の検出結果の信頼性を正確に評価することができる。その結果、アプリケーション装置13において、より適切に運転者の視線方向のおよび目の開閉状態の検出結果を利用することができる。すなわち、例えば、アプリケーション装置13において、信頼性の低い不適切な検出結果が使用され、誤検出や誤動作の発生することを防止することができる。また、信頼性が低下した原因まで分かるので、例えば、アプリケーション装置13において、その情報を利用して、運転者に原因を通知したり、その原因を取り除くための処理を行ったりすることが可能になる。   As described above, the reliability of the detection result of the driver's line-of-sight direction and the open / closed state of the eyes can be accurately evaluated in a flexible manner corresponding to the individual differences and the state differences of the drivers. As a result, the application device 13 can more appropriately use the detection result of the driver's line-of-sight direction and the eye open / closed state. That is, for example, in the application device 13, an inappropriate detection result with low reliability is used, and it is possible to prevent erroneous detection or malfunction. Further, since the cause of the decrease in reliability can be known, for example, the application device 13 can use the information to notify the driver of the cause or perform processing for removing the cause. Become.

なお、以上の説明では、運転者の顔全体のサイズおよび位置に基づいて信頼性を評価する例を示したが、運転者の顔の少なくとも一部の大きさ、形状および位置の少なくとも一つの検出結果に基づいて、信頼性を評価するようにしてもよい。例えば、運転者の目以外のパーツ(例えば、口、鼻、眉毛など)の位置が、その平均値より大きく外れた場合、信頼性が低いと評価したり、鼻や耳など形状の変化が少ない顔のパーツの大きさまたは形状が、その平均値より大きく外れた場合、信頼性が低いと評価するようにすることが考えられる。また、複数の顔のパーツの検出結果を組み合わせたり、顔全体と顔のパーツの検出結果を組み合わせたりして、信頼性を評価するようにしてもよい。   In the above description, an example in which reliability is evaluated based on the size and position of the entire driver's face has been shown. However, at least one of the size, shape, and position of the driver's face is detected. You may make it evaluate reliability based on a result. For example, if the position of parts other than the driver's eyes (for example, mouth, nose, eyebrows, etc.) deviates more than the average value, it is evaluated that the reliability is low, or the change in the shape of the nose, ears, etc. is small If the size or shape of the facial part deviates more than the average value, it can be considered that the reliability is low. Further, the reliability may be evaluated by combining the detection results of a plurality of face parts, or by combining the detection results of the entire face and the face parts.

また、以上の説明では、信頼性の値を0と1の2値で表す例を示したが、3種類以上の値で表したり、連続値で表したりするようにしてもよい。   In the above description, an example is shown in which the reliability value is represented by binary values of 0 and 1. However, the reliability value may be represented by three or more types of values or may be represented by continuous values.

さらに、以上の説明では、目の開閉の状態および視線方向を検出する例を示したが、本発明は、その他の目の状態、例えば、目の形状、目の色、瞳孔の大きさ、サングラスなどにより目が隠れているか否かなどの検出を行う場合にも適用することが可能である。   Further, in the above description, an example of detecting the open / closed state of the eyes and the line-of-sight direction has been shown. However, the present invention is not limited to other eye states, for example, eye shape, eye color, pupil size, sunglasses The present invention can also be applied to the case where it is detected whether or not the eyes are hidden.

また、以上の説明では、運転者の目の状態の検出結果の信頼性を評価する例を示したが、本発明は、特に運転者に限定されず、その他の人の目の状態を検出する場合にも利用することが可能である。   Moreover, although the example which evaluates the reliability of the detection result of a driver | operator's eye state was shown in the above description, this invention is not limited to a driver | operator in particular, The other person's eye state is detected. It can also be used in some cases.

上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.

図9は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。   FIG. 9 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.

コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。   In a computer, a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, and a RAM (Random Access Memory) 303 are connected to each other by a bus 304.

バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307、ハードディスクや不揮発性のメモリなどよりなる記憶部308、ネットワークインタフェースなどよりなる通信部309、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア311を駆動するドライブ310が接続されている。   An input / output interface 305 is further connected to the bus 304. The input / output interface 305 includes an input unit 306 including a keyboard, a mouse, and a microphone, an output unit 307 including a display and a speaker, a storage unit 308 including a hard disk and a non-volatile memory, and a communication unit 309 including a network interface. A drive 310 that drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory is connected.

以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。   In the computer configured as described above, the CPU 301 loads the program stored in the storage unit 308 to the RAM 303 via the input / output interface 305 and the bus 304 and executes the program, for example. Is performed.

コンピュータ(CPU301)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア311に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。   The program executed by the computer (CPU 301) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. It is recorded on a removable medium 311 which is a package medium composed of a memory or the like, or provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital satellite broadcasting.

そして、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。   The program can be installed in the storage unit 308 via the input / output interface 305 by attaching the removable medium 311 to the drive 310. Further, the program can be received by the communication unit 309 via a wired or wireless transmission medium and installed in the storage unit 308. In addition, the program can be installed in advance in the ROM 302 or the storage unit 308.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。   Further, in the present specification, the term “system” means an overall apparatus composed of a plurality of apparatuses and means.

さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.

1 目状態検出システム
11 撮像装置
12 検出装置
13 アプリケーション装置
21 検出部
22 信頼性評価部
23 出力制御部
31 顔検出部
32 顔状態検出部
33 目状態検出部
DESCRIPTION OF SYMBOLS 1 Eye state detection system 11 Imaging device 12 Detection device 13 Application apparatus 21 Detection part 22 Reliability evaluation part 23 Output control part 31 Face detection part 32 Face state detection part 33 Eye state detection part

Claims (13)

撮像装置により撮像された画像を用いて前記人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、
前記画像を用いて前記人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段と、
前記顔検出手段による第1の検出結果の変化に基づいて、前記目状態検出手段による第2の検出結果の信頼性を評価する信頼性評価手段と
を含む検出装置。
Face detection means for detecting at least one of the size, shape, and position of at least a part of the human face using an image captured by an imaging device;
Eye state detecting means for detecting at least one of the opening and closing and shape of the human eye and the line-of-sight direction using the image;
And a reliability evaluation unit that evaluates the reliability of the second detection result by the eye state detection unit based on a change in the first detection result by the face detection unit.
前記信頼性評価手段は、前記第1の検出結果と前記第1の検出結果の平均値との差に基づいて、前記第2の検出結果の信頼性を評価する
請求項1に記載の検出装置。
The detection apparatus according to claim 1, wherein the reliability evaluation unit evaluates reliability of the second detection result based on a difference between the first detection result and an average value of the first detection result. .
前記人の顔の向きを検出する顔向き検出手段を
さらに含み、
前記信頼性評価手段は、前記顔向き検出手段により検出された前記人の顔の向きの変化が所定の範囲内である状態が所定の期間連続したときの前記第1の検出結果の平均値を求め、前記第1の検出結果と求めた前記第1の検出結果の平均値との差に基づいて、前記第2の検出結果の信頼性を評価する
請求項2に記載の検出装置。
Further comprising face orientation detection means for detecting the orientation of the person's face,
The reliability evaluation unit calculates an average value of the first detection results when a state in which the change in the face direction of the person detected by the face direction detection unit is within a predetermined range continues for a predetermined period. The detection device according to claim 2, wherein the reliability of the second detection result is evaluated based on a difference between the obtained first detection result and the average value of the obtained first detection results.
前記第2の検出結果、および、前記第2の検出結果の信頼性を示す情報を出力する出力手段を
さらに含む請求項1に記載の検出装置。
The detection apparatus according to claim 1, further comprising output means for outputting the second detection result and information indicating reliability of the second detection result.
前記第1の検出結果が複数の項目からなる場合、
前記信頼性評価手段は、前記第1の検出結果の項目毎に前記第2の検出結果の信頼性を評価し、前記項目毎の前記第2の検出結果の信頼性の評価結果に基づいて、最終的な前記第2の検出結果の信頼性を評価し、
前記出力手段は、前記項目毎の前記第2の検出結果の信頼性の評価結果をさらに出力する
さらに含む請求項4に記載の検出装置。
When the first detection result is composed of a plurality of items,
The reliability evaluation means evaluates the reliability of the second detection result for each item of the first detection result, and based on the evaluation result of the reliability of the second detection result for each item, Evaluating the reliability of the final second detection result;
The detection device according to claim 4, wherein the output unit further outputs a reliability evaluation result of the second detection result for each item.
前記第2の検出結果の信頼性が所定の閾値以上である場合、前記第2の検出結果を出力し、前記第2の検出結果の信頼性が前記所定の閾値未満である場合、前記第2の検出結果を出力しない出力手段を
さらに含む請求項1に記載の検出装置。
When the reliability of the second detection result is greater than or equal to a predetermined threshold, the second detection result is output, and when the reliability of the second detection result is less than the predetermined threshold, the second The detection apparatus according to claim 1, further comprising an output unit that does not output the detection result.
前記顔検出手段は、前記人の目を除く前記人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する
請求項1に記載の検出装置。
The detection device according to claim 1, wherein the face detection unit detects at least one of a size, a shape, and a position of at least a part of the human face excluding the human eye.
前記顔検出手段は、前記人の顔全体の大きさ、形状および位置のうち少なくとも1つを検出する
請求項1に記載の検出装置。
The detection device according to claim 1, wherein the face detection unit detects at least one of a size, a shape, and a position of the entire face of the person.
撮像装置により撮像された画像を用いて前記人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、前記画像を用いて前記人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段とを備える検出装置の検出結果の信頼性を評価する評価装置において、
前記顔検出手段による第1の検出結果の変化に基づいて、前記目状態検出手段による第2の検出結果の信頼性を評価する信頼性評価手段を
含む評価装置。
Face detection means for detecting at least one of the size, shape and position of at least a part of the person's face using an image picked up by an image pickup device; and opening and closing of the person's eyes using the image; In the evaluation apparatus for evaluating the reliability of the detection result of the detection apparatus including the shape and the eye state detection means for detecting at least one of the line-of-sight directions,
An evaluation apparatus comprising: a reliability evaluation unit that evaluates the reliability of the second detection result by the eye state detection unit based on a change in the first detection result by the face detection unit.
前記信頼性評価手段は、前記第1の検出結果と前記第1の検出結果の平均値との差に基づいて、前記第2の検出結果の信頼性を評価する
請求項9に記載の評価装置。
The evaluation apparatus according to claim 9, wherein the reliability evaluation unit evaluates reliability of the second detection result based on a difference between the first detection result and an average value of the first detection result. .
前記検出装置は、前記人の顔の向きを検出する顔向き検出手段をさらに備え、
前記信頼性評価手段は、前記顔向き検出手段により検出された前記人の顔の向きの変化が所定の範囲内である状態が所定の期間連続したときの前記第1の検出結果の平均値を求め、前記第1の検出結果と求めた前記第1の検出結果の平均値との差に基づいて、前記第2の検出結果の信頼性を評価する
請求項10に記載の評価装置。
The detection device further includes a face orientation detection unit that detects a face orientation of the person,
The reliability evaluation unit calculates an average value of the first detection results when a state in which the change in the face direction of the person detected by the face direction detection unit is within a predetermined range continues for a predetermined period. The evaluation apparatus according to claim 10, wherein the reliability of the second detection result is evaluated based on the difference between the first detection result and the average value of the calculated first detection result.
撮像装置により撮像された画像を用いて前記人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、前記画像を用いて前記人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段とを備える検出装置の検出結果の信頼性を評価する評価装置が、
前記顔検出手段による第1の検出結果の変化に基づいて、前記目状態検出手段による第2の検出結果の信頼性を評価する
ステップを含む評価方法。
Face detection means for detecting at least one of the size, shape and position of at least a part of the person's face using an image picked up by an image pickup device; and opening and closing of the person's eyes using the image; An evaluation device that evaluates the reliability of the detection result of the detection device including a shape and an eye state detection unit that detects at least one of the line-of-sight directions,
An evaluation method comprising a step of evaluating the reliability of the second detection result by the eye state detection means based on a change in the first detection result by the face detection means.
撮像装置により撮像された画像を用いて前記人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、前記画像を用いて前記人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段とを備える検出装置の検出結果の信頼性を評価するコンピュータに、
前記顔検出手段による第1の検出結果の変化に基づいて、前記目状態検出手段による第2の検出結果の信頼性を評価する
ステップを含む処理を実行させるプログラム。
Face detection means for detecting at least one of the size, shape and position of at least a part of the person's face using an image picked up by an image pickup device; and opening and closing of the person's eyes using the image A computer that evaluates the reliability of the detection result of the detection device including the shape and the eye state detection unit that detects at least one of the line-of-sight directions,
A program for executing a process including a step of evaluating the reliability of the second detection result by the eye state detection means based on a change in the first detection result by the face detection means.
JP2009060623A 2009-03-13 2009-03-13 Detection device, evaluation device and method, and program Pending JP2010217955A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009060623A JP2010217955A (en) 2009-03-13 2009-03-13 Detection device, evaluation device and method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009060623A JP2010217955A (en) 2009-03-13 2009-03-13 Detection device, evaluation device and method, and program

Publications (1)

Publication Number Publication Date
JP2010217955A true JP2010217955A (en) 2010-09-30

Family

ID=42976789

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009060623A Pending JP2010217955A (en) 2009-03-13 2009-03-13 Detection device, evaluation device and method, and program

Country Status (1)

Country Link
JP (1) JP2010217955A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008929A (en) * 2018-07-03 2020-01-16 富士ゼロックス株式会社 Height calculation system, information processing apparatus, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147119A (en) * 1995-11-28 1997-06-06 Toshiba Corp Gazing direction of person detection system
JPH09293132A (en) * 1996-04-24 1997-11-11 Nec Corp Device for detecting number of sheets
JP2005182303A (en) * 2003-12-17 2005-07-07 Mitsubishi Electric Corp Traffic lane recognition image processor
JP2006252138A (en) * 2005-03-10 2006-09-21 Omron Corp Apparatus for photographing driver and apparatus for monitoring driver
JP2007241937A (en) * 2006-03-13 2007-09-20 Nissan Motor Co Ltd Awaking degree estimation device
JP2008194146A (en) * 2007-02-09 2008-08-28 Toshiba Corp Visual line detecting apparatus and its method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09147119A (en) * 1995-11-28 1997-06-06 Toshiba Corp Gazing direction of person detection system
JPH09293132A (en) * 1996-04-24 1997-11-11 Nec Corp Device for detecting number of sheets
JP2005182303A (en) * 2003-12-17 2005-07-07 Mitsubishi Electric Corp Traffic lane recognition image processor
JP2006252138A (en) * 2005-03-10 2006-09-21 Omron Corp Apparatus for photographing driver and apparatus for monitoring driver
JP2007241937A (en) * 2006-03-13 2007-09-20 Nissan Motor Co Ltd Awaking degree estimation device
JP2008194146A (en) * 2007-02-09 2008-08-28 Toshiba Corp Visual line detecting apparatus and its method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020008929A (en) * 2018-07-03 2020-01-16 富士ゼロックス株式会社 Height calculation system, information processing apparatus, and program

Similar Documents

Publication Publication Date Title
JP5177011B2 (en) Eye opening degree identification device
JP4915413B2 (en) Detection apparatus and method, and program
JP5109922B2 (en) Driver monitoring device and program for driver monitoring device
CN104573623B (en) Face detection device and method
JP6273823B2 (en) State estimation device and state estimation program
US9105172B2 (en) Drowsiness-estimating device and drowsiness-estimating method
JP6187817B2 (en) Face detection apparatus, method and program
JP7118136B2 (en) PASSENGER STATE DETERMINATION DEVICE, WARNING OUTPUT CONTROL DEVICE AND PASSENGER STATE DETERMINATION METHOD
JP6573193B2 (en) Determination device, determination method, and determination program
JP5304944B2 (en) Image processing apparatus and drowsiness determination apparatus
JP7369184B2 (en) Driver attention state estimation
JP6969493B2 (en) Video output device, video output method, and computer program
CN105095885A (en) Human eyes state detection method and human eyes state detection device
US20130257620A1 (en) Device and method for detecting driver&#39;s attention through interactive voice questioning
US11430231B2 (en) Emotion estimation device and emotion estimation method
KR20160062521A (en) System and method for preventing neck disc
JP2007236488A (en) Vigilance degree estimating device, system, and method
JP2010217955A (en) Detection device, evaluation device and method, and program
Čolić et al. Design and implementation of a driver drowsiness detection system: A practical approach
JP2021129700A (en) Reference value determination device and reference value determination method
JP5050794B2 (en) Sleepiness detection device, sleepiness detection method
WO2022113275A1 (en) Sleep detection device and sleep detection system
JP7019394B2 (en) Visual target detection device, visual target detection method, and program
JP7375691B2 (en) Drowsiness symptom notification system
JP2019079285A (en) Safe driving promotion system and safe driving promotion method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120113

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121025

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121218

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130509