JP2010217955A - Detection device, evaluation device and method, and program - Google Patents
Detection device, evaluation device and method, and program Download PDFInfo
- Publication number
- JP2010217955A JP2010217955A JP2009060623A JP2009060623A JP2010217955A JP 2010217955 A JP2010217955 A JP 2010217955A JP 2009060623 A JP2009060623 A JP 2009060623A JP 2009060623 A JP2009060623 A JP 2009060623A JP 2010217955 A JP2010217955 A JP 2010217955A
- Authority
- JP
- Japan
- Prior art keywords
- detection
- face
- reliability
- detection result
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、検出装置、評価装置および方法、並びに、プログラムに関し、特に、人の目の状態を検出する場合に用いて好適な検出装置、評価装置および方法、並びに、プログラムに関する。 The present invention relates to a detection device, an evaluation device and method, and a program, and more particularly, to a detection device, an evaluation device and method, and a program that are suitable for detecting the state of a human eye.
従来、運転者の脇見や居眠りを検出するために運転者の視線や目の開閉状態を検出する装置や技術が多数提案されている。 Conventionally, many devices and techniques for detecting the driver's line of sight and the open / closed state of the eyes have been proposed in order to detect the driver's looking aside or falling asleep.
ところで、運転者の視線や目の開閉状態を正確に検出するためには、その前に、運転者の顔の位置、目の各部位の位置、顔の向きなどを正確に検出する必要がある。しかし、従来の装置や技術のほとんどが、それらが正しく検出できることを前提にして構築されている(例えば、特許文献1参照)。 By the way, in order to accurately detect the driver's line of sight and eye open / closed state, it is necessary to accurately detect the position of the driver's face, the position of each part of the eye, the orientation of the face, and the like. . However, most conventional devices and technologies are constructed on the assumption that they can be detected correctly (see, for example, Patent Document 1).
しかし、実際には、運転者の顔の位置、目の各部位の位置、顔の向きなどが正しく検出されず、視線や目の開閉状態の検出結果が不安定になる状態が発生する。そして、運転者の視線や目の開閉状態の検出結果が不安定になると、後段の装置において、誤作動が発生したり、運転者の脇見や居眠りなどの誤検出が発生してしまう恐れがある。 However, actually, the position of the driver's face, the position of each part of the eye, the orientation of the face, and the like are not correctly detected, and the detection result of the line of sight and the open / closed state of the eyes may become unstable. And if the detection result of the driver's line of sight or eye open / closed state becomes unstable, there is a risk that a malfunction will occur in the subsequent device, or a false detection such as a driver's side look or doze will occur. .
そこで、従来、目を検出した領域が画像内の所定の領域内でない状態、検出した両目の間隔が所定の範囲内でない状態、または、検出した両目の瞳の上下方向の位置のズレが所定の範囲内でない状態が所定の時間継続した場合、ブザーをオンし、目認識が不可能な状態や誤検出したことを運転者に警報することが提案されている(例えば、特許文献2参照)。 Therefore, conventionally, the state where the eye is detected is not within a predetermined region in the image, the state where the distance between the detected eyes is not within the predetermined range, or the displacement of the detected vertical position of the eyes of both eyes is predetermined. When a state that is not within the range continues for a predetermined time, it has been proposed to turn on the buzzer and warn the driver that the eye cannot be recognized or that an error has been detected (see, for example, Patent Document 2).
しかしながら、特許文献2に記載の発明では、判定に用いる画像内の領域や値の範囲が固定されているため、顔の作り、体格、運転姿勢などの個人差に柔軟に対応することは難しい。その結果、目認識が不可能な状態や誤検出したことを見過ごしてしまい、後段の装置において誤作動や誤検出が発生してしまう恐れがある。
However, in the invention described in
本発明は、このような状況に鑑みてなされたものであり、より適切に人の目の状態の検出結果を利用できるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to more appropriately use the detection result of the human eye state.
本発明の第1の側面の検出装置は、撮像装置により撮像された画像を用いて人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、画像を用いて人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段と、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性を評価する信頼性評価手段とを含む。 A detection device according to a first aspect of the present invention includes a face detection unit that detects at least one of the size, shape, and position of at least a part of a human face using an image captured by an imaging device; The eye state detecting means for detecting at least one of the opening / closing and shape of the human eye and the line-of-sight direction, and the change in the first detection result by the face detecting means And a reliability evaluation means for evaluating the reliability of the two detection results.
本発明の第1の側面の検出装置においては、撮像装置により撮像された画像を用いて人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つが検出され、画像を用いて人の目の開閉および形状、並びに、視線方向のうち少なくとも1つが検出され、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性が評価される。 In the detection device according to the first aspect of the present invention, at least one of the size, shape, and position of at least a part of a person's face is detected using an image captured by the imaging device, and the person is detected using the image. At least one of the eye opening / closing and shape and the line-of-sight direction is detected, and the reliability of the second detection result by the eye state detection means is evaluated based on the change in the first detection result by the face detection means. The
従って、人の目の状態の検出結果の信頼性を正確に評価することができる。その結果、例えば、信頼性の高い検出結果のみを利用することが可能になり、より適切に人の目の状態の検出結果を利用することができる。 Therefore, the reliability of the detection result of the human eye state can be accurately evaluated. As a result, for example, it becomes possible to use only the detection result with high reliability, and the detection result of the human eye state can be used more appropriately.
この顔検出手段、目状態検出手段、信頼性評価手段は、例えば、CPU(Central Processing Unit)により構成される。 The face detection means, eye state detection means, and reliability evaluation means are constituted by, for example, a CPU (Central Processing Unit).
この信頼性評価手段には、第1の検出結果と第1の検出結果の平均値との差に基づいて、第2の検出結果の信頼性を評価させることができる。 The reliability evaluation unit can evaluate the reliability of the second detection result based on the difference between the first detection result and the average value of the first detection result.
これにより、人の目の状態の検出結果の信頼性をより正確に評価することができる。 Thereby, the reliability of the detection result of the human eye state can be more accurately evaluated.
この検出装置には、人の顔の向きを検出する顔向き検出手段をさらに設け、この信頼性評価手段には、顔向き検出手段により検出された人の顔の向きの変化が所定の範囲内である状態が所定の期間連続したときの第1の検出結果の平均値を求め、第1の検出結果と求めた第1の検出結果の平均値との差に基づいて、第2の検出結果の信頼性を評価させることができる。 The detection apparatus further includes a face direction detection unit that detects the direction of the human face, and the reliability evaluation unit includes a change in the human face direction detected by the face direction detection unit within a predetermined range. The average value of the first detection results when the state is continuous for a predetermined period is obtained, and the second detection result is based on the difference between the first detection result and the obtained average value of the first detection results. Can be evaluated.
これにより、個人差や人の状態などの違いに柔軟に対応して、人の目の状態の検出結果の信頼性を評価することができる。 Thereby, the reliability of the detection result of the human eye state can be evaluated in a flexible manner corresponding to individual differences and human state differences.
この検出装置には、第2の検出結果、および、第2の検出結果の信頼性を示す情報を出力する出力手段をさらに設けることができる。 The detection device may further include an output unit that outputs the second detection result and information indicating the reliability of the second detection result.
これにより、人の目の状態の検出結果を利用する後段の装置において、その信頼性に基づいて、より適切に検出結果を利用することができる。 Thereby, in the latter apparatus using the detection result of the human eye state, the detection result can be used more appropriately based on the reliability.
この出力手段は、例えば、CPU(Central Processing Unit)により構成される。 This output means is constituted by, for example, a CPU (Central Processing Unit).
第1の検出結果が複数の項目からなる場合、この信頼性評価手段には、第1の検出結果の項目毎に第2の検出結果の信頼性を評価させ、項目毎の第2の検出結果の信頼性の評価結果に基づいて、最終的な第2の検出結果の信頼性を評価させ、この出力手段には、項目毎の第2の検出結果の信頼性の評価結果をさらに出力させることができる。 When the first detection result includes a plurality of items, the reliability evaluation unit evaluates the reliability of the second detection result for each item of the first detection result, and the second detection result for each item. The reliability of the final second detection result is evaluated on the basis of the reliability evaluation result, and the output means further outputs the reliability evaluation result of the second detection result for each item. Can do.
これにより、人の目の状態の検出結果を利用する後段の装置において、検出結果の信頼性の評価の基となる原因を知ることができる。 Thereby, it is possible to know the cause that is the basis for evaluating the reliability of the detection result in the subsequent apparatus that uses the detection result of the human eye state.
この検出装置には、第2の検出結果の信頼性が所定の閾値以上である場合、第2の検出結果を出力し、第2の検出結果の信頼性が所定の閾値未満である場合、第2の検出結果を出力しない出力手段をさらに設けることができる。 The detection device outputs the second detection result when the reliability of the second detection result is equal to or higher than a predetermined threshold value, and outputs the second detection result when the reliability of the second detection result is lower than the predetermined threshold value. An output means that does not output the detection result of 2 can be further provided.
これにより、人の目の状態の検出結果を利用する後段の装置において、確実に信頼性の高い検出結果のみを利用することが可能になる。 This makes it possible to reliably use only the detection result with high reliability in the subsequent apparatus that uses the detection result of the human eye state.
この出力手段は、例えば、CPU(Central Processing Unit)により構成される。 This output means is constituted by, for example, a CPU (Central Processing Unit).
この顔検出手段には、人の目を除く人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出させることができる。 The face detection means can detect at least one of the size, shape and position of at least a part of the human face excluding the human eyes.
これにより、人の目を除く人の顔の部分に基づいて、人の目の状態の検出結果の信頼性を評価することができる。 Thereby, the reliability of the detection result of the human eye state can be evaluated based on the face portion of the person excluding the human eye.
この顔検出手段には、人の顔全体の大きさ、形状および位置のうち少なくとも1つを検出させることができる。 The face detection means can detect at least one of the size, shape and position of the entire human face.
これにより、人の顔全体の大きさ、形状および位置のうち少なくとも1つに基づいて、人の目の状態の検出結果の信頼性を評価することができる。 Thereby, the reliability of the detection result of the human eye state can be evaluated based on at least one of the size, shape, and position of the entire human face.
本発明の第2の側面の評価装置は、撮像装置により撮像された画像を用いて人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、画像を用いて人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段とを備える検出装置の検出結果の信頼性を評価する評価装置において、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性を評価する信頼性評価手段を含む。 An evaluation device according to a second aspect of the present invention includes a face detection unit that detects at least one of the size, shape, and position of at least a part of a human face using an image captured by an imaging device, and an image In the evaluation apparatus for evaluating the reliability of the detection result of the detection device comprising: eye state detection means for detecting at least one of the eye opening / closing and shape and the eye gaze direction using And reliability evaluation means for evaluating the reliability of the second detection result by the eye state detection means based on the change in the detection result of 1.
本発明の第2の側面の評価装置においては、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性が評価される。 In the evaluation apparatus according to the second aspect of the present invention, the reliability of the second detection result by the eye state detection unit is evaluated based on the change in the first detection result by the face detection unit.
従って、人の目の状態の検出結果の信頼性を正確に評価することができる。その結果、例えば、信頼性の高い検出結果のみを利用することが可能になり、より適切に人の目の状態の検出結果を利用することができる。 Therefore, the reliability of the detection result of the human eye state can be accurately evaluated. As a result, for example, it becomes possible to use only the detection result with high reliability, and the detection result of the human eye state can be used more appropriately.
この顔検出手段、目状態検出手段、信頼性評価手段は、例えば、CPU(Central Processing Unit)により構成される。 The face detection means, eye state detection means, and reliability evaluation means are constituted by, for example, a CPU (Central Processing Unit).
この信頼性評価手段には、第1の検出結果と第1の検出結果の平均値との差に基づいて、第2の検出結果の信頼性を評価させることができる。 The reliability evaluation unit can evaluate the reliability of the second detection result based on the difference between the first detection result and the average value of the first detection result.
これにより、人の目の状態の検出結果の信頼性をより正確に評価することができる。 Thereby, the reliability of the detection result of the human eye state can be more accurately evaluated.
この検出装置には、人の顔の向きを検出する顔向き検出手段をさらに設け、この信頼性評価手段には、顔向き検出手段により検出された人の顔の向きの変化が所定の範囲内である状態が所定の期間連続したときの第1の検出結果の平均値を求め、第1の検出結果と求めた第1の検出結果の平均値との差に基づいて、第2の検出結果の信頼性を評価させることができる。 The detection apparatus further includes a face direction detection unit that detects the direction of the human face, and the reliability evaluation unit includes a change in the human face direction detected by the face direction detection unit within a predetermined range. The average value of the first detection results when the state is continuous for a predetermined period is obtained, and the second detection result is based on the difference between the first detection result and the obtained average value of the first detection results. Can be evaluated.
これにより、個人差や人の状態などの違いに柔軟に対応して、人の目の状態の検出結果の信頼性を評価することができる。 Thereby, the reliability of the detection result of the human eye state can be evaluated in a flexible manner corresponding to individual differences and human state differences.
本発明の第2の側面の評価方法は、撮像装置により撮像された画像を用いて人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、画像を用いて人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段とを備える検出装置の検出結果の信頼性を評価する評価装置が、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性を評価するステップを含む。 An evaluation method according to a second aspect of the present invention includes a face detection unit that detects at least one of the size, shape, and position of at least a part of a human face using an image captured by an imaging device, and an image An evaluation device that evaluates the reliability of a detection result of a detection device that includes an eye state detection unit that detects at least one of the opening / closing and shape of a human eye and the line-of-sight direction using a face detection unit. And a step of evaluating the reliability of the second detection result by the eye state detection means based on the change in the detection result of 1.
本発明の第2の側面のプログラムは、撮像装置により撮像された画像を用いて人の顔の少なくとも一部の大きさ、形状および位置のうち少なくとも1つを検出する顔検出手段と、画像を用いて人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段とを備える検出装置の検出結果の信頼性を評価するコンピュータに、顔検出手段による第1の検出結果の変化に基づいて、目状態検出手段による第2の検出結果の信頼性を評価するステップを含む処理を実行させる。 A program according to a second aspect of the present invention includes a face detection unit that detects at least one of the size, shape, and position of at least a part of a human face using an image captured by an imaging device; A computer that evaluates the reliability of the detection result of the detection device including the eye state detection unit that detects at least one of the opening / closing and shape of the human eye and the line-of-sight direction is used. Based on the change in the detection result, a process including a step of evaluating the reliability of the second detection result by the eye state detection unit is executed.
従って、人の目の状態の検出結果の信頼性を正確に評価することができる。その結果、例えば、信頼性の高い検出結果のみを利用することが可能になり、より適切に人の目の状態の検出結果を利用することができる。 Therefore, the reliability of the detection result of the human eye state can be accurately evaluated. As a result, for example, it becomes possible to use only the detection result with high reliability, and the detection result of the human eye state can be used more appropriately.
この検出装置、顔検出手段、目状態検出手段は、例えば、CPU(Central Processing Unit)により構成される。 The detection device, face detection means, and eye state detection means are constituted by, for example, a CPU (Central Processing Unit).
本発明の第1の側面または第2の側面によれば、人の目の状態の検出結果の信頼性を正確に評価することができる。また、本発明の第1の側面または第2の側面によれば、より適切に人の目の状態の検出結果を利用することができる。 According to the first aspect or the second aspect of the present invention, the reliability of the detection result of the human eye state can be accurately evaluated. Moreover, according to the 1st side surface or 2nd side surface of this invention, the detection result of a human eye state can be utilized more appropriately.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明を適用した目状態検出システムの一実施の形態を示すブロック図である。図1の目状態検出システム1は、例えば、車両に設けられ、車両を運転する運転者の目の状態を検出し、検出結果に応じた処理を行うシステムである。目状態検出システム1は、撮像装置11、検出装置12、および、アプリケーション装置13を含むように構成される。また、検出装置12は、検出部21、信頼性評価部22、および、出力制御部23を含むように構成される。検出部21は、顔検出部31、顔状態検出部32、および、目状態検出部33を含むように構成される。
FIG. 1 is a block diagram showing an embodiment of an eye state detection system to which the present invention is applied. The eye
なお、以下、目状態検出システム1が車両に設けられている場合の例について説明する。また、以下、目状態検出システム1が設けられている車両を、自車と称する。
Hereinafter, an example in which the eye
撮像装置11は、自車を運転する運転者の顔を撮像し、その結果得られた画像(以下、顔画像と称する)を顔検出部31に供給する。
The imaging device 11 images the face of the driver who drives the vehicle, and supplies an image (hereinafter referred to as a face image) obtained as a result to the
なお、撮像装置11は、運転者の体格および姿勢などの違いに関わらず、運転席に座っている運転者の顔を確実に撮像することができる位置に設置されることが望ましい。例えば、撮像装置11は、ステアリングコラム上に設置され、正面から運転者を撮像したり、自車内のセンタミラー(ルームミラー)の根元付近(センタミラーが自車に取り付けられているあたり)に設置され、前方左斜め上方向から運転者を撮像する。 Note that the imaging device 11 is desirably installed at a position where the face of the driver sitting in the driver's seat can be reliably imaged regardless of differences in the driver's physique and posture. For example, the imaging device 11 is installed on a steering column and images a driver from the front, or installed near the base of a center mirror (room mirror) in the own vehicle (where the center mirror is attached to the own vehicle). The driver is imaged from the upper left diagonal direction.
検出装置12は、顔画像に基づいて、運転者の目の状態を検出する。また、検出装置12は、運転者の目の状態の検出結果の信頼性を評価する。検出装置12は、運転者の目の状態の検出結果、および、その信頼性を示す情報をアプリケーション装置13に供給する。
The
より具体的には、検出装置12の検出部21の顔検出部31は、顔画像に写っている運転者の顔を検出する。そして、顔検出部31は、顔画像、および、運転者の顔の検出結果を示す情報を顔状態検出部32に供給する。また、顔検出部31は、運転者の顔の検出結果を示す情報を信頼性評価部22に供給する。
More specifically, the
なお、以下、図2に示されるように、顔検出部31が、顔画像の各フレームにおいて、顔画像における運転者の顔のX軸方向の位置XおよびY軸方向の位置Y、および、顔のサイズSを検出する場合の例について説明する。
Hereinafter, as illustrated in FIG. 2, the
顔状態検出部32は、顔画像、および、顔検出部31による運転者の顔の検出結果に基づいて、運転者の顔の状態を検出する。顔状態検出部32は、顔画像、運転者の顔の検出結果、および、運転者の顔の状態の検出結果を示す情報を目状態検出部33に供給する。また、顔状態検出部32は、運転者の顔の状態の検出結果を示す情報を信頼性評価部22に供給する。
The face
なお、以下、顔状態検出部32が、運転者の顔の状態として、運転者の顔の向きを検出する場合の例について説明する。
Hereinafter, an example in which the face
目状態検出部33は、顔画像、顔検出部31による運転者の顔の検出結果、および、顔状態検出部32による運転者の顔の状態の検出結果に基づいて、運転者の目の状態を検出する。目状態検出部33は、運転者の目の状態の検出結果を示す情報を出力制御部23に供給する。
The eye
なお、以下、目状態検出部33が、運転者の目の状態として、運転者の視線方向および目の開閉状態を検出する場合の例について説明する。
Hereinafter, an example in which the eye
信頼性評価部22は、顔検出部31による運転者の顔の検出結果、および、顔状態検出部32による運転者の顔の状態の検出結果に基づいて、目状態検出部33による運転者の目の状態の検出結果の信頼性を評価する。
Based on the detection result of the driver's face by the
詳細については後述するが、信頼性評価部22は、例えば、図3に示されるように、顔検出部31による運転者の顔の位置Xおよび位置Y、並びに、サイズSを時系列で監視する。そして、顔検出部31は、図中点線で囲まれる部分のように、顔位置X、顔位置Yおよび顔サイズSのうち少なくとも1つが不連続な変化をしたときに、目状態検出部33による検出結果の信頼性が低いと評価する。信頼性評価部22は、運転者の目の状態の検出結果の信頼性を示す信頼性情報を出力制御部23に供給する。
As will be described in detail later, the
出力制御部23は、運転者の目の状態の検出結果、および、その信頼性を示す情報のアプリケーション装置13への出力を制御する。
The
アプリケーション装置13は、運転者の目の状態の検出結果を利用する装置である。例えば、アプリケーション装置13は、運転者の目の状態の検出結果に基づいて、運転者の脇見や居眠りを検出し、運転者に注意を促すための警告を行う。
The
次に、図4乃至図8を参照して、目状態検出システム1の処理の詳細について説明する。
Next, the details of the processing of the eye
まず、図4のフローチャートを参照して、目状態検出システム1により実行される目状態検出処理について説明する。なお、この処理は、例えば、自車のアクセサリ(ACC)の電源がオンされたとき開始され、アクセサリの電源がオフされたとき終了する。
First, the eye state detection process executed by the eye
ステップS1において、目状態検出システム1は、顔画像を取得する。具体的には、撮像装置11は、自車の運転者の顔を撮像し、その結果得られた顔画像を顔検出部31に入力する。
In step S1, the eye
ステップS2において、顔検出部31は、顔の検出を行う。具体的には、顔検出部31は、所定の手法を用いて、顔画像に写っている運転者の顔のサイズおよび位置を検出する。そして、顔検出部31は、顔画像、並びに、運転者の顔のサイズおよび位置の検出結果を示す情報を顔状態検出部32に供給する。また、顔検出部31は、運転者の顔のサイズおよび位置の検出結果を示す情報を信頼性評価部22に供給する。
In step S2, the
さらに、顔検出部31は、検出した運転者の顔のサイズおよび位置を示すデータを、図示せぬリングバッファに格納する。これにより、運転者の顔のサイズおよび位置の検出結果が、所定の期間保存されるとともに、古いデータが新しいデータにより上書きされていく。
Furthermore, the
なお、顔検出部31が顔のサイズおよび位置を検出する手法は、特定の手法に限定されるものではなく、任意の手法を採用することが可能である。
Note that the method by which the
ステップS3において、顔状態検出部32は、顔の状態の検出を行う。具体的には、顔状態検出部32は、所定の手法を用いて、顔画像、並びに、運転者の顔のサイズおよび位置の検出結果に基づいて、運転者の顔の向きを検出する。運転者の顔の向きは、例えば、自車の正面方向を基準とする運転者の顔の角度により表され、左方向が負の値、右方向が正の値により表される。なお、以下、顔状態検出部32により検出された運転者の顔の向きの角度をαとする。そして、顔状態検出部32は、顔画像、運転者の顔のサイズおよび位置の検出結果、並びに、運転者の顔の向きの検出結果を示す情報を目状態検出部33に供給する。また、顔状態検出部32は、運転者の顔の向きの検出結果を示す情報を信頼性評価部22に供給する。
In step S3, the face
さらに、顔状態検出部32は、検出した運転者の顔の向きを示すデータを、図示せぬリングバッファに格納する。これにより、運転者の顔の向きの検出結果が、所定の期間保存されるとともに、古いデータが新しいデータにより上書きされていく。
Further, the face
なお、顔状態検出部32が顔の向きを検出する手法は、特定の手法に限定されるものではなく、任意の手法を採用することが可能である。
Note that the method by which the face
ステップS4において、目状態検出部33は、目の状態の検出を行う。具体的には、顔状態検出部32は、所定の手法を用いて、顔画像、運転者の顔のサイズおよび位置の検出結果、並びに、運転者の顔の向きの検出結果に基づいて、運転者の視線の向きおよび目の開閉状態を検出する。目状態検出部33は、運転者の視線の向きおよび目の開閉状態の検出結果を示す目状態検出情報を出力制御部23に供給する。
In step S4, the eye
なお、目状態検出部33が視線の向きおよび目の開閉状態を検出する手法は、特定の手法に限定されるものではなく、任意の手法を採用することが可能である。また、目状態検出部33が、顔検出部31による運転者の顔のサイズおよび位置の検出結果、および、顔状態検出部32による運転者の顔の向きの検出結果を用いずに、運転者の視線の向きおよび目の開閉状態を検出するようにしてもよい。
Note that the method by which the eye
ステップS5において、信頼性評価部22は、信頼性評価処理を実行する。ここで、図5および図6のフローチャートを参照して、信頼性評価処理の詳細について説明する。
In step S5, the
ステップS51において、信頼性評価部22は、現在の状態が初期設定中であるか否かを判定する。
In step S51, the
ここで、図7に示されるように、信頼性評価部22の状態は、初期設定中、判定中、および、様子見判定中の3つの状態に遷移する。なお、目状態検出処理の開始時には、信頼性評価部22の状態は初期設定中に設定される。
Here, as shown in FIG. 7, the state of the
ステップS51において、現在の状態が初期設定中であると判定された場合、処理はステップS52に進む。 If it is determined in step S51 that the current state is being initialized, the process proceeds to step S52.
ステップS52において、信頼性評価部22は、−th_α<α(運転者の顔向きの角度)<th_αであるか否かを判定する。−th_α<α<th_αであると判定された場合、すなわち、運転者の左右方向の顔の向きが所定の範囲内である場合、処理はステップS53に進む。
In step S52, the
なお、th_αは所定の閾値であり、例えば、15度とされる。 Note that th_α is a predetermined threshold value, for example, 15 degrees.
ステップS53において、信頼性評価部22は、図示せぬリングバッファに格納されているデータに基づいて、顔の向きが安定した状態がNaフレームの間連続したか否かを判定する。顔の向きが安定した状態、すなわち、−th_α<α<th_αである状態がNaフレーム(例えば、20フレーム)の間連続したと判定された場合、処理はステップS54に進む。
In step S <b> 53, the
なお、Naは、運転者の顔の向きの安定性を判断するための期間を定めるフレーム数であり、例えば、ユーザにより設定される。 Na is the number of frames that determines the period for determining the stability of the driver's face orientation, and is set by the user, for example.
ステップS54において、信頼性評価部22は、Nbフレームの間の顔のサイズ、位置の加重平均を求める。具体的には、信頼性評価部22は、最新のNbフレーム(例えば、10フレーム)の運転者の顔のサイズおよび位置のデータを、図示せぬリングバッファから読み出し、その加重平均を求める。
In step S54, the
なお、Nbは、顔のサイズおよび位置の加重平均の算出期間を定めるフレーム数であり、例えば、ユーザにより設定される。また、Nb≦Naとされ、運転者の顔の向きが安定した状態における顔のサイズおよび位置の加重平均が求められる。 Nb is the number of frames that determines the calculation period of the weighted average of the face size and position, and is set by the user, for example. Further, a weighted average of the face size and position in a state where Nb ≦ Na is satisfied and the driver's face orientation is stable is obtained.
ステップS55において、信頼性評価部22は、信頼性評価部22の状態を判定中に変更する。その後、信頼性評価処理は終了する。
In step S55, the
一方、ステップS53において、顔の向きが安定した状態が、まだNaフレームの間連続していないと判定された場合、ステップS54およびS55の処理はスキップされ、信頼性評価処理は終了する。 On the other hand, if it is determined in step S53 that the face orientation is not stable during the Na frame, the processes in steps S54 and S55 are skipped, and the reliability evaluation process ends.
一方、ステップS52において、−th_α<α<th_αでないと判定された場合、すなわち、運転者の左右方向の顔の向きが所定の範囲を超えている場合、処理はステップS56に進む。 On the other hand, if it is determined in step S52 that −th_α <α <th_α is not satisfied, that is, if the driver's left and right face orientation exceeds the predetermined range, the process proceeds to step S56.
ステップS56において、信頼性評価部22は、顔のサイズ、位置の平均値をリセットする。すなわち、信頼性評価部22は、顔のサイズ、位置の平均値を0に設定する。その後、信頼性評価処理は終了する。
In step S56, the
一方、ステップS51において、現在の状態が初期設定中でないと判定された場合、処理はステップS57に進む。 On the other hand, if it is determined in step S51 that the current state is not being initialized, the process proceeds to step S57.
ステップS57において、信頼性評価部22は、現在の状態が判定中であるか否かを判定する。現在の状態が判定中であると判定された場合、処理はステップS58に進む。
In step S57, the
ステップS58において、信頼性評価部22は、顔検出結果評価処理を実行する。ここで、図8のフローチャートを参照して、顔検出結果評価処理の詳細について説明する。
In step S58, the
ステップS101において、信頼性評価部22は、|顔のサイズの平均値−検出値|≦th_sであるか否かを判定する。ここで、th_sは所定の閾値である。すなわち、信頼性評価部22は、今回検出された運転者の顔のサイズSが、その平均値から所定の範囲内であるか否かを判定する。|顔のサイズの平均値−検出値|≦th_sであると判定された場合、処理はステップS102に進む。
In step S101, the
ステップS102において、信頼性評価部22は、信頼性評価フラグ(サイズ)の値を1に設定する。その後、処理はステップS104に進む。
In step S102, the
一方、ステップS101において、|顔のサイズSの平均値−検出値|>th_sであると判定された場合、処理はステップS103に進む。 On the other hand, if it is determined in step S101 that | average value of face size S−detected value |> th_s, the process proceeds to step S103.
ステップS103において、信頼性評価部22は、信頼性評価フラグ(サイズ)の値を0に設定する。その後、処理はステップS104に進む。
In step S103, the
ステップS104において、信頼性評価部22は、|顔の位置Xの平均値−検出値|≦th_xであるか否かを判定する。ここで、th_xは所定の閾値である。すなわち、信頼性評価部22は、今回検出された運転者の顔のX軸方向の位置が、その平均値から所定の範囲内であるか否かを判定する。|顔の位置Xの平均値−検出値|≦th_xであると判定された場合、処理はステップS105に進む。
In step S104, the
ステップS105において、信頼性評価部22は、信頼性評価フラグ(位置X)の値を1に設定する。その後、処理はステップS107に進む。
In step S105, the
一方、ステップS104において、|顔の位置Xの平均値−検出値|>th_xであると判定された場合、処理はステップS106に進む。 On the other hand, if it is determined in step S104 that | average value of face position X−detected value |> th_x, the process proceeds to step S106.
ステップS106において、信頼性評価部22は、信頼性評価フラグ(位置X)の値を0に設定する。その後、処理はステップS107に進む。
In step S106, the
ステップS107において、信頼性評価部22は、|顔の位置Yの平均値−検出値|≦th_yであるか否かを判定する。ここで、th_yは所定の閾値である。すなわち、信頼性評価部22は、運転者の顔のY軸方向の位置が、その平均値から所定の範囲内であるか否かを判定する。|顔の位置Yの平均値−検出値|≦th_yであると判定された場合、処理はステップS108に進む。
In step S107, the
ステップS108において、信頼性評価部22は、信頼性評価フラグ(位置Y)の値を1に設定する。その後、処理はステップS110に進む。
In step S108, the
一方、ステップS107において、|顔の位置Yの平均値−検出値|>th_yであると判定された場合、処理はステップS109に進む。 On the other hand, if it is determined in step S107 that | average value of face position Y−detected value |> th_y, the process proceeds to step S109.
ステップS109において、信頼性評価部22は、信頼性評価フラグ(位置Y)の値を0に設定する。その後、処理はステップS110に進む。
In step S109, the
ステップS110において、信頼性評価部22は、信頼性評価フラグ(サイズ)=1であるか否かを判定する。信頼性評価フラグ(サイズ)=1であると判定された場合、処理はステップS111に進む。
In step S110, the
ステップS111において、信頼性評価部22は、信頼性原因フラグ(サイズ)の値を1に設定する。その後、処理はステップS113に進む。
In step S111, the
一方、ステップS110において、信頼性評価フラグ(サイズ)=1でないと判定された場合、処理はステップS112に進む。 On the other hand, if it is determined in step S110 that the reliability evaluation flag (size) is not 1, the process proceeds to step S112.
ステップS112において、信頼性評価部22は、信頼性原因フラグ(サイズ)の値を0に設定する。その後、処理はステップS113に進む。
In step S112, the
ステップS113において、信頼性評価部22は、信頼性評価フラグ(位置X)=1であるか否かを判定する。信頼性評価フラグ(位置X)=1であると判定された場合、処理はステップS114に進む。
In step S113, the
ステップS114において、信頼性評価部22は、信頼性原因フラグ(位置X)の値を1に設定する。その後、処理はステップS116に進む。
In step S114, the
一方、ステップS113において、信頼性評価フラグ(位置X)=1でないと判定された場合、処理はステップS115に進む。 On the other hand, if it is determined in step S113 that the reliability evaluation flag (position X) is not 1, the process proceeds to step S115.
ステップS115において、信頼性評価部22は、信頼性原因フラグ(位置X)の値を0に設定する。その後、処理はステップS116に進む。
In step S115, the
ステップS116において、信頼性評価部22は、信頼性評価フラグ(位置Y)=1であるか否かを判定する。信頼性評価フラグ(位置Y)=1であると判定された場合、処理はステップS117に進む。
In step S116, the
ステップS117において、信頼性評価部22は、信頼性原因フラグ(位置Y)の値を1に設定する。その後、処理はステップS119に進む。
In step S117, the
一方、ステップS116において、信頼性評価フラグ(位置Y)=1でないと判定された場合、処理はステップS118に進む。 On the other hand, if it is determined in step S116 that the reliability evaluation flag (position Y) is not 1, the process proceeds to step S118.
ステップS118において、信頼性評価部22は、信頼性原因フラグ(位置Y)の値を0に設定する。その後、処理はステップS119に進む。
In step S118, the
ステップS119において、信頼性評価部22は、顔矩形信頼度を求める。ここで、顔矩形信頼度は、顔画像から検出された運転者の顔の領域を表す矩形の信頼性を表す値である。信頼性評価部22は、信頼性原因判定フラグ(サイズ)、信頼性原因判定フラグ(位置X)、および、信頼性原因判定フラグ(位置Y)の論理積(AND)を、顔矩形信頼度として求める。すなわち、顔矩形信頼度は、顔画像から検出された運転者の顔のサイズおよび位置に基づいて評価される。そして、顔矩形信頼度が1である場合、顔検出部31により運転者の顔が正確に検出された可能性が高く、運転者の視線方向および目の開閉状態の検出結果の信頼性も高いと推定される。一方、顔矩形信頼度が0である場合、顔検出部31により運転者の顔が正確に検出された可能性が低く、運転者の視線方向および目の開閉状態の検出結果の信頼性も低いと推定される。その後、顔検出結果評価処理は終了する。
In step S119, the
このように、顔検出結果評価処理により、顔検出部31により検出された運転者の顔のサイズ、位置Xおよび位置Yの項目毎に、視線方向および目の開閉状態の検出結果の信頼性が評価され、それらの評価結果に基づいて、最終的な検出結果の信頼性を示す顔矩形信頼度が求められる。
Thus, the reliability of the detection result of the line-of-sight direction and the open / closed state of the eyes for each item of the face size, position X and position Y of the driver detected by the
図6に戻り、ステップS59において、信頼性評価部22は、評価結果を出力する。すなわち、信頼性評価部22は、顔矩形信頼度、信頼性原因判定フラグ(サイズ)、信頼性原因判定フラグ(位置X)、および、信頼性原因判定フラグ(位置Y)の値を含む情報を、目状態検出部33による運転者の視線方向および目の開閉状態の信頼性を示す信頼性情報として、出力制御部23に出力する。なお、信頼性評価部22は、自身の状態が初期設定中である場合、まだ初期設定中であり信頼性を評価できないことを示す情報を信頼性情報に設定し、出力する。
Returning to FIG. 6, in step S <b> 59, the
ステップS60において、信頼性評価部22は、顔矩形信頼度に基づいて、顔の検出が成功しているか否かを判定する。信頼性評価部22は、顔矩形信頼度の値が1である場合、顔の検出が成功していると判定し、処理はステップS63に進む。
In step S60, the
ステップS61において、信頼性評価部22は、顔のサイズ、位置の平均値を更新する。具体的には、例えば、信頼性評価部22は、顔の検出が成功したフレームのうち最新のNxフレーム(例えば、10フレーム)の運転者の顔のサイズおよび位置のデータを、図示せぬリングバッファから読み出し、その加重平均を求める。そして、信頼性評価部22は、顔検出評価処理に用いる平均値を、求めた平均値に更新する。その後、信頼性評価処理は終了する。
In step S61, the
一方、ステップS60において、信頼性評価部22は、顔矩形信頼度の値が0である場合、顔の検出が失敗していると判定し、処理はステップS62に進む。
On the other hand, in step S60, if the value of the face rectangle reliability is 0, the
ステップS62において、信頼性評価部22は、Nyフレーム連続して顔の検出に失敗したか否かを判定する。Nyフレーム(例えば、10フレーム)連続して顔の検出に失敗したと判定された場合、処理はステップS63に進む。
In step S62, the
なお、Nyは、信頼性評価部22の状態を判定中から様子見判定中に遷移させるか否かを判断する期間を定めるフレーム数であり、例えば、ユーザにより設定される。
Ny is the number of frames that defines a period for determining whether or not to change the state of the
ステップS63において、信頼性評価部22は、状態を様子見判定中に変更する。その後、信頼性評価処理は終了する。
In step S <b> 63, the
一方、ステップS62において、まだNyフレーム(例えば、10フレーム)連続して顔の検出に失敗していないと判定された場合、ステップS63の処理はスキップされ、信頼性評価処理は終了する。 On the other hand, if it is determined in step S62 that face detection has not yet failed in Ny frames (for example, 10 frames), the process in step S63 is skipped, and the reliability evaluation process ends.
一方、ステップS57において、現在の状態が判定中でない、すなわち、現在の状態が様子見判定中であると判定された場合、処理はステップS64に進む。 On the other hand, when it is determined in step S57 that the current state is not being determined, that is, the current state is being determined to be in a state of watching, the process proceeds to step S64.
ステップS64において、ステップS58の処理と同様に、顔検出結果評価処理が実行される。 In step S64, the face detection result evaluation process is executed in the same manner as in step S58.
ステップS65において、ステップS59の処理と同様に、信頼性評価部22から出力制御部23に、目状態検出部33による運転者の視線方向および目の開閉状態の信頼性を示す信頼性情報が出力される。ただし、信頼性評価部22は、現在の状態が様子見判定中であるので、顔矩形信頼度の値を0に補正して出力する。
In step S65, as in the process of step S59, reliability information indicating the reliability of the driver's line-of-sight direction and eye open / closed state by the eye
ステップS66において、ステップS60の処理と同様に、顔の検出が成功しているか否かが判定され、顔の検出が成功していると判定された場合、処理はステップS67に進む。 In step S66, as in the process of step S60, it is determined whether face detection is successful. If it is determined that face detection is successful, the process proceeds to step S67.
ステップS67において、信頼性評価部22は、Njフレーム連続して顔の検出に成功したか否かを判定する。Njフレーム(例えば、10フレーム)連続して顔の検出に成功したと判定された場合、処理はステップS68に進む。
In step S67, the
なお、Njは、信頼性評価部22の状態を様子見判定中から判定中に遷移させるか否かを判断する期間を定めるフレーム数であり、例えば、ユーザにより設定される。
Nj is the number of frames that determines a period for determining whether or not to change the state of the
ステップS68において、信頼性評価部22は、信頼性評価部22の状態を判定中に変更する。その後、信頼性評価処理は終了する。
In step S68, the
一方、ステップS67において、まだNjフレーム連続して顔の検出に成功していないと判定された場合、ステップS68の処理はスキップされ、信頼性評価処理は終了する。 On the other hand, if it is determined in step S67 that face detection has not yet succeeded in Nj frames, the process in step S68 is skipped, and the reliability evaluation process ends.
一方、ステップS66において、顔の検出が失敗していると判定された場合、処理はステップS69に進む。 On the other hand, if it is determined in step S66 that face detection has failed, the process proceeds to step S69.
ステップS69において、信頼性評価部22は、Niフレーム連続して顔の検出に失敗したか否かを判定する。Niフレーム(例えば、10フレーム)連続して顔の検出に失敗したと判定された場合、処理はステップS70に進む。
In step S69, the
なお、Niは、信頼性評価部22の状態を様子見判定中から初期設定中に遷移させるか否かを判断する期間を定めるフレーム数であり、例えば、ユーザにより設定される。
Note that Ni is the number of frames that defines a period for determining whether or not to change the state of the
ステップS70において、信頼性評価部22は、信頼性評価部22の状態を初期設定中に変更する。その後、信頼性評価処理は終了する。
In step S <b> 70, the
一方、ステップS69において、まだNiフレーム連続して顔の検出に失敗していないと判定された場合、ステップS70の処理はスキップされ、信頼性評価処理は終了する。 On the other hand, if it is determined in step S69 that the face detection has not yet failed for Ni frames, the process in step S70 is skipped, and the reliability evaluation process ends.
図4に戻り、ステップS6において、出力制御部23は、検出結果を出力する。すなわち、出力制御部23は、目状態検出部33から取得した目状態検出情報、および、信頼性評価部22から取得した信頼性情報を、アプリケーション装置13に出力する。
Returning to FIG. 4, in step S <b> 6, the
なお、このとき、顔矩形信頼度の値が1である場合のみ、目状態検出情報を出力し、顔矩形信頼度の値が0の場合、目状態検出情報を出力しないようにしてもよい。また、目状態検出情報を出力しない場合に、あわせて信頼性情報を出力しないようにしてもよいし、信頼性情報のみ出力するようにしてもよい。 At this time, the eye state detection information may be output only when the face rectangle reliability value is 1, and the eye state detection information may not be output when the face rectangle reliability value is 0. Further, when the eye state detection information is not output, the reliability information may not be output, or only the reliability information may be output.
ステップS7において、アプリケーション装置13は、検出結果を利用する。例えば、アプリケーション装置13は、運転者の視線の向きの検出結果に基づいて、運転者の脇見の検出を行ったり、運転者の目の開閉状態の検出結果に基づいて、運転者の居眠りの検出を行ったりする。そして、アプリケーション装置13は、運転者が脇見または居眠りをしていると判定した場合、ディスプレイに画像を表示したり、警告音や警告メッセージを出力したり、LED(Light Emitting Diode)などの照明を点灯または点滅させたり、ステアリングホイールや運転席を振動させたりするなどの方法で、運転者への警告を行う。
In step S7, the
また、アプリケーション装置13は、信頼性情報に含まれる顔矩形信頼度の値が0である間は、運転者の脇見および居眠りの検出処理を停止する。そして、アプリケーション装置13は、例えば、信頼性情報に含まれる信頼性原因判定フラグ(サイズ)、信頼性原因判定フラグ(位置X)、および、信頼性原因判定フラグ(位置Y)に基づいて、運転者の脇見および居眠りの検出処理を停止している原因を、画像、音声、光などにより運転者に通知する。
Further, the
その後、処理はステップS1に戻り、ステップS1乃至S7の処理が繰り返し実行される。 Thereafter, the process returns to step S1, and the processes of steps S1 to S7 are repeatedly executed.
以上のようにして、運転者の個人差や状態の違いに柔軟に対応して、運転者の視線方向のおよび目の開閉状態の検出結果の信頼性を正確に評価することができる。その結果、アプリケーション装置13において、より適切に運転者の視線方向のおよび目の開閉状態の検出結果を利用することができる。すなわち、例えば、アプリケーション装置13において、信頼性の低い不適切な検出結果が使用され、誤検出や誤動作の発生することを防止することができる。また、信頼性が低下した原因まで分かるので、例えば、アプリケーション装置13において、その情報を利用して、運転者に原因を通知したり、その原因を取り除くための処理を行ったりすることが可能になる。
As described above, the reliability of the detection result of the driver's line-of-sight direction and the open / closed state of the eyes can be accurately evaluated in a flexible manner corresponding to the individual differences and the state differences of the drivers. As a result, the
なお、以上の説明では、運転者の顔全体のサイズおよび位置に基づいて信頼性を評価する例を示したが、運転者の顔の少なくとも一部の大きさ、形状および位置の少なくとも一つの検出結果に基づいて、信頼性を評価するようにしてもよい。例えば、運転者の目以外のパーツ(例えば、口、鼻、眉毛など)の位置が、その平均値より大きく外れた場合、信頼性が低いと評価したり、鼻や耳など形状の変化が少ない顔のパーツの大きさまたは形状が、その平均値より大きく外れた場合、信頼性が低いと評価するようにすることが考えられる。また、複数の顔のパーツの検出結果を組み合わせたり、顔全体と顔のパーツの検出結果を組み合わせたりして、信頼性を評価するようにしてもよい。 In the above description, an example in which reliability is evaluated based on the size and position of the entire driver's face has been shown. However, at least one of the size, shape, and position of the driver's face is detected. You may make it evaluate reliability based on a result. For example, if the position of parts other than the driver's eyes (for example, mouth, nose, eyebrows, etc.) deviates more than the average value, it is evaluated that the reliability is low, or the change in the shape of the nose, ears, etc. is small If the size or shape of the facial part deviates more than the average value, it can be considered that the reliability is low. Further, the reliability may be evaluated by combining the detection results of a plurality of face parts, or by combining the detection results of the entire face and the face parts.
また、以上の説明では、信頼性の値を0と1の2値で表す例を示したが、3種類以上の値で表したり、連続値で表したりするようにしてもよい。 In the above description, an example is shown in which the reliability value is represented by binary values of 0 and 1. However, the reliability value may be represented by three or more types of values or may be represented by continuous values.
さらに、以上の説明では、目の開閉の状態および視線方向を検出する例を示したが、本発明は、その他の目の状態、例えば、目の形状、目の色、瞳孔の大きさ、サングラスなどにより目が隠れているか否かなどの検出を行う場合にも適用することが可能である。 Further, in the above description, an example of detecting the open / closed state of the eyes and the line-of-sight direction has been shown. However, the present invention is not limited to other eye states, for example, eye shape, eye color, pupil size, sunglasses The present invention can also be applied to the case where it is detected whether or not the eyes are hidden.
また、以上の説明では、運転者の目の状態の検出結果の信頼性を評価する例を示したが、本発明は、特に運転者に限定されず、その他の人の目の状態を検出する場合にも利用することが可能である。 Moreover, although the example which evaluates the reliability of the detection result of a driver | operator's eye state was shown in the above description, this invention is not limited to a driver | operator in particular, The other person's eye state is detected. It can also be used in some cases.
上述した一連の処理は、ハードウエアにより実行することもできるし、ソフトウエアにより実行することもできる。一連の処理をソフトウエアにより実行する場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図9は、上述した一連の処理をプログラムにより実行するコンピュータのハードウエアの構成例を示すブロック図である。 FIG. 9 is a block diagram illustrating a hardware configuration example of a computer that executes the above-described series of processing by a program.
コンピュータにおいて、CPU(Central Processing Unit)301,ROM(Read Only Memory)302,RAM(Random Access Memory)303は、バス304により相互に接続されている。
In a computer, a CPU (Central Processing Unit) 301, a ROM (Read Only Memory) 302, and a RAM (Random Access Memory) 303 are connected to each other by a
バス304には、さらに、入出力インタフェース305が接続されている。入出力インタフェース305には、キーボード、マウス、マイクロホンなどよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307、ハードディスクや不揮発性のメモリなどよりなる記憶部308、ネットワークインタフェースなどよりなる通信部309、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア311を駆動するドライブ310が接続されている。
An input /
以上のように構成されるコンピュータでは、CPU301が、例えば、記憶部308に記憶されているプログラムを、入出力インタフェース305及びバス304を介して、RAM303にロードして実行することにより、上述した一連の処理が行われる。
In the computer configured as described above, the
コンピュータ(CPU301)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア311に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
The program executed by the computer (CPU 301) is, for example, a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a magneto-optical disk, or a semiconductor. It is recorded on a
そして、プログラムは、リムーバブルメディア311をドライブ310に装着することにより、入出力インタフェース305を介して、記憶部308にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部309で受信し、記憶部308にインストールすることができる。その他、プログラムは、ROM302や記憶部308に、あらかじめインストールしておくことができる。
The program can be installed in the
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。 The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.
また、本明細書において、システムの用語は、複数の装置、手段などより構成される全体的な装置を意味するものとする。 Further, in the present specification, the term “system” means an overall apparatus composed of a plurality of apparatuses and means.
さらに、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 Furthermore, the embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present invention.
1 目状態検出システム
11 撮像装置
12 検出装置
13 アプリケーション装置
21 検出部
22 信頼性評価部
23 出力制御部
31 顔検出部
32 顔状態検出部
33 目状態検出部
DESCRIPTION OF
Claims (13)
前記画像を用いて前記人の目の開閉および形状、並びに、視線方向のうち少なくとも1つを検出する目状態検出手段と、
前記顔検出手段による第1の検出結果の変化に基づいて、前記目状態検出手段による第2の検出結果の信頼性を評価する信頼性評価手段と
を含む検出装置。 Face detection means for detecting at least one of the size, shape, and position of at least a part of the human face using an image captured by an imaging device;
Eye state detecting means for detecting at least one of the opening and closing and shape of the human eye and the line-of-sight direction using the image;
And a reliability evaluation unit that evaluates the reliability of the second detection result by the eye state detection unit based on a change in the first detection result by the face detection unit.
請求項1に記載の検出装置。 The detection apparatus according to claim 1, wherein the reliability evaluation unit evaluates reliability of the second detection result based on a difference between the first detection result and an average value of the first detection result. .
さらに含み、
前記信頼性評価手段は、前記顔向き検出手段により検出された前記人の顔の向きの変化が所定の範囲内である状態が所定の期間連続したときの前記第1の検出結果の平均値を求め、前記第1の検出結果と求めた前記第1の検出結果の平均値との差に基づいて、前記第2の検出結果の信頼性を評価する
請求項2に記載の検出装置。 Further comprising face orientation detection means for detecting the orientation of the person's face,
The reliability evaluation unit calculates an average value of the first detection results when a state in which the change in the face direction of the person detected by the face direction detection unit is within a predetermined range continues for a predetermined period. The detection device according to claim 2, wherein the reliability of the second detection result is evaluated based on a difference between the obtained first detection result and the average value of the obtained first detection results.
さらに含む請求項1に記載の検出装置。 The detection apparatus according to claim 1, further comprising output means for outputting the second detection result and information indicating reliability of the second detection result.
前記信頼性評価手段は、前記第1の検出結果の項目毎に前記第2の検出結果の信頼性を評価し、前記項目毎の前記第2の検出結果の信頼性の評価結果に基づいて、最終的な前記第2の検出結果の信頼性を評価し、
前記出力手段は、前記項目毎の前記第2の検出結果の信頼性の評価結果をさらに出力する
さらに含む請求項4に記載の検出装置。 When the first detection result is composed of a plurality of items,
The reliability evaluation means evaluates the reliability of the second detection result for each item of the first detection result, and based on the evaluation result of the reliability of the second detection result for each item, Evaluating the reliability of the final second detection result;
The detection device according to claim 4, wherein the output unit further outputs a reliability evaluation result of the second detection result for each item.
さらに含む請求項1に記載の検出装置。 When the reliability of the second detection result is greater than or equal to a predetermined threshold, the second detection result is output, and when the reliability of the second detection result is less than the predetermined threshold, the second The detection apparatus according to claim 1, further comprising an output unit that does not output the detection result.
請求項1に記載の検出装置。 The detection device according to claim 1, wherein the face detection unit detects at least one of a size, a shape, and a position of at least a part of the human face excluding the human eye.
請求項1に記載の検出装置。 The detection device according to claim 1, wherein the face detection unit detects at least one of a size, a shape, and a position of the entire face of the person.
前記顔検出手段による第1の検出結果の変化に基づいて、前記目状態検出手段による第2の検出結果の信頼性を評価する信頼性評価手段を
含む評価装置。 Face detection means for detecting at least one of the size, shape and position of at least a part of the person's face using an image picked up by an image pickup device; and opening and closing of the person's eyes using the image; In the evaluation apparatus for evaluating the reliability of the detection result of the detection apparatus including the shape and the eye state detection means for detecting at least one of the line-of-sight directions,
An evaluation apparatus comprising: a reliability evaluation unit that evaluates the reliability of the second detection result by the eye state detection unit based on a change in the first detection result by the face detection unit.
請求項9に記載の評価装置。 The evaluation apparatus according to claim 9, wherein the reliability evaluation unit evaluates reliability of the second detection result based on a difference between the first detection result and an average value of the first detection result. .
前記信頼性評価手段は、前記顔向き検出手段により検出された前記人の顔の向きの変化が所定の範囲内である状態が所定の期間連続したときの前記第1の検出結果の平均値を求め、前記第1の検出結果と求めた前記第1の検出結果の平均値との差に基づいて、前記第2の検出結果の信頼性を評価する
請求項10に記載の評価装置。 The detection device further includes a face orientation detection unit that detects a face orientation of the person,
The reliability evaluation unit calculates an average value of the first detection results when a state in which the change in the face direction of the person detected by the face direction detection unit is within a predetermined range continues for a predetermined period. The evaluation apparatus according to claim 10, wherein the reliability of the second detection result is evaluated based on the difference between the first detection result and the average value of the calculated first detection result.
前記顔検出手段による第1の検出結果の変化に基づいて、前記目状態検出手段による第2の検出結果の信頼性を評価する
ステップを含む評価方法。 Face detection means for detecting at least one of the size, shape and position of at least a part of the person's face using an image picked up by an image pickup device; and opening and closing of the person's eyes using the image; An evaluation device that evaluates the reliability of the detection result of the detection device including a shape and an eye state detection unit that detects at least one of the line-of-sight directions,
An evaluation method comprising a step of evaluating the reliability of the second detection result by the eye state detection means based on a change in the first detection result by the face detection means.
前記顔検出手段による第1の検出結果の変化に基づいて、前記目状態検出手段による第2の検出結果の信頼性を評価する
ステップを含む処理を実行させるプログラム。 Face detection means for detecting at least one of the size, shape and position of at least a part of the person's face using an image picked up by an image pickup device; and opening and closing of the person's eyes using the image A computer that evaluates the reliability of the detection result of the detection device including the shape and the eye state detection unit that detects at least one of the line-of-sight directions,
A program for executing a process including a step of evaluating the reliability of the second detection result by the eye state detection means based on a change in the first detection result by the face detection means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009060623A JP2010217955A (en) | 2009-03-13 | 2009-03-13 | Detection device, evaluation device and method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009060623A JP2010217955A (en) | 2009-03-13 | 2009-03-13 | Detection device, evaluation device and method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010217955A true JP2010217955A (en) | 2010-09-30 |
Family
ID=42976789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009060623A Pending JP2010217955A (en) | 2009-03-13 | 2009-03-13 | Detection device, evaluation device and method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010217955A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020008929A (en) * | 2018-07-03 | 2020-01-16 | 富士ゼロックス株式会社 | Height calculation system, information processing apparatus, and program |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09147119A (en) * | 1995-11-28 | 1997-06-06 | Toshiba Corp | Gazing direction of person detection system |
JPH09293132A (en) * | 1996-04-24 | 1997-11-11 | Nec Corp | Device for detecting number of sheets |
JP2005182303A (en) * | 2003-12-17 | 2005-07-07 | Mitsubishi Electric Corp | Traffic lane recognition image processor |
JP2006252138A (en) * | 2005-03-10 | 2006-09-21 | Omron Corp | Apparatus for photographing driver and apparatus for monitoring driver |
JP2007241937A (en) * | 2006-03-13 | 2007-09-20 | Nissan Motor Co Ltd | Awaking degree estimation device |
JP2008194146A (en) * | 2007-02-09 | 2008-08-28 | Toshiba Corp | Visual line detecting apparatus and its method |
-
2009
- 2009-03-13 JP JP2009060623A patent/JP2010217955A/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09147119A (en) * | 1995-11-28 | 1997-06-06 | Toshiba Corp | Gazing direction of person detection system |
JPH09293132A (en) * | 1996-04-24 | 1997-11-11 | Nec Corp | Device for detecting number of sheets |
JP2005182303A (en) * | 2003-12-17 | 2005-07-07 | Mitsubishi Electric Corp | Traffic lane recognition image processor |
JP2006252138A (en) * | 2005-03-10 | 2006-09-21 | Omron Corp | Apparatus for photographing driver and apparatus for monitoring driver |
JP2007241937A (en) * | 2006-03-13 | 2007-09-20 | Nissan Motor Co Ltd | Awaking degree estimation device |
JP2008194146A (en) * | 2007-02-09 | 2008-08-28 | Toshiba Corp | Visual line detecting apparatus and its method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020008929A (en) * | 2018-07-03 | 2020-01-16 | 富士ゼロックス株式会社 | Height calculation system, information processing apparatus, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5177011B2 (en) | Eye opening degree identification device | |
JP4915413B2 (en) | Detection apparatus and method, and program | |
JP5109922B2 (en) | Driver monitoring device and program for driver monitoring device | |
CN104573623B (en) | Face detection device and method | |
JP6273823B2 (en) | State estimation device and state estimation program | |
US9105172B2 (en) | Drowsiness-estimating device and drowsiness-estimating method | |
JP6187817B2 (en) | Face detection apparatus, method and program | |
JP7118136B2 (en) | PASSENGER STATE DETERMINATION DEVICE, WARNING OUTPUT CONTROL DEVICE AND PASSENGER STATE DETERMINATION METHOD | |
JP6573193B2 (en) | Determination device, determination method, and determination program | |
JP5304944B2 (en) | Image processing apparatus and drowsiness determination apparatus | |
JP7369184B2 (en) | Driver attention state estimation | |
JP6969493B2 (en) | Video output device, video output method, and computer program | |
CN105095885A (en) | Human eyes state detection method and human eyes state detection device | |
US20130257620A1 (en) | Device and method for detecting driver's attention through interactive voice questioning | |
US11430231B2 (en) | Emotion estimation device and emotion estimation method | |
KR20160062521A (en) | System and method for preventing neck disc | |
JP2007236488A (en) | Vigilance degree estimating device, system, and method | |
JP2010217955A (en) | Detection device, evaluation device and method, and program | |
Čolić et al. | Design and implementation of a driver drowsiness detection system: A practical approach | |
JP2021129700A (en) | Reference value determination device and reference value determination method | |
JP5050794B2 (en) | Sleepiness detection device, sleepiness detection method | |
WO2022113275A1 (en) | Sleep detection device and sleep detection system | |
JP7019394B2 (en) | Visual target detection device, visual target detection method, and program | |
JP7375691B2 (en) | Drowsiness symptom notification system | |
JP2019079285A (en) | Safe driving promotion system and safe driving promotion method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121018 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121025 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121218 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130509 |