JP7019394B2 - Visual target detection device, visual target detection method, and program - Google Patents

Visual target detection device, visual target detection method, and program Download PDF

Info

Publication number
JP7019394B2
JP7019394B2 JP2017228599A JP2017228599A JP7019394B2 JP 7019394 B2 JP7019394 B2 JP 7019394B2 JP 2017228599 A JP2017228599 A JP 2017228599A JP 2017228599 A JP2017228599 A JP 2017228599A JP 7019394 B2 JP7019394 B2 JP 7019394B2
Authority
JP
Japan
Prior art keywords
sight
line
driver
visual
visual object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017228599A
Other languages
Japanese (ja)
Other versions
JP2019101520A (en
Inventor
伸洋 水野
顕 吉澤
哲洋 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Denso IT Laboratory Inc
Original Assignee
Denso Corp
Denso IT Laboratory Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Denso IT Laboratory Inc filed Critical Denso Corp
Priority to JP2017228599A priority Critical patent/JP7019394B2/en
Publication of JP2019101520A publication Critical patent/JP2019101520A/en
Application granted granted Critical
Publication of JP7019394B2 publication Critical patent/JP7019394B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、運転者が視認した対象を検知する技術に関する。 The present invention relates to a technique for detecting an object visually recognized by a driver.

例えば、自動車の運転中に車線変更を行うとき等に、運転者が安全確認を行ったか判定する技術や、脇見運転を検知して警報を行う技術が知られている。特許文献1は、運転者の脇見状態の詳細に応じて適切な警報を行う脇見警報装置を開示している。この脇見警報装置は、運転者の注視又は脇見が視線方向のみに拠る状態か、顔向き方向に拠る状態かを判定し、顔向き状態に拠る場合には、脇見と判定するための時間を視線のみに拠る場合よりも長く設定する。 For example, there are known techniques for determining whether a driver has confirmed safety when changing lanes while driving a vehicle, and techniques for detecting inattentive driving and issuing an alarm. Patent Document 1 discloses an inattentive alarm device that gives an appropriate alarm according to the details of the inattentive state of the driver. This inattentive alarm device determines whether the driver's gaze or inattentiveness depends only on the line-of-sight direction or the face-facing direction. Set longer than when relying solely on.

特開2011-164712号公報Japanese Unexamined Patent Publication No. 2011-164712

上記した特許文献1に見られるように、運転者による視認状態を検知する方法として、カメラで撮影した画像から検知した運転者の顔向き、視線を用いることが知られていた。視線を用いて視認状態を検知する方法は、運転者が見ている方向を検知する精度は高いが、1台のカメラで視線を検知できる範囲が狭い。逆に、顔向きを用いて視認状態を検知する方法は、検知できる範囲が広いが、視認状態を検知する精度は低い。例えば、運転者がスピードメーターやバックミラーを見るときには、ほとんど顔を動かさず、目だけ動かすことが、これまでの発明者らの研究から分かった。また、同一の対象物を見る際にも、顔向きをどれだけ変化させるかは、個々人によって、あるいは状況によって差がある。 As seen in Patent Document 1 described above, it has been known to use the driver's face orientation and line of sight detected from an image taken by a camera as a method of detecting a visual state by the driver. The method of detecting the visual recognition state using the line of sight has high accuracy in detecting the direction in which the driver is looking, but the range in which the line of sight can be detected by one camera is narrow. On the contrary, the method of detecting the visual recognition state using the face orientation has a wide detection range, but the accuracy of detecting the visual recognition state is low. For example, research by the inventors so far has shown that when a driver looks at a speedometer or rear-view mirror, he hardly moves his face, only his eyes. Also, when looking at the same object, how much the face orientation changes depends on the individual or the situation.

本発明は、上記背景に鑑み、運転者が視認している対象を適切に検知できる視認対象検知装置を提供することを目的とする。 In view of the above background, an object of the present invention is to provide a visual object detection device capable of appropriately detecting an object visually recognized by a driver.

本発明の視認対象検知装置は、運転者を撮影するカメラと、前記カメラにて撮影した画像から運転者の顔向きを検知する顔向き検知部と、前記カメラにて撮影した画像から運転者の視線を検知する視線検知部と、視線または顔向きから運転者が視認している視認対象を推定する視認対象推定部と、前記視認対象推定部にて推定した視認対象を示す情報を出力する出力部とを備え、前記視認対象推定部は、前記視線検知部にて検知した視線の検知精度が所定の閾値以上の場合には、前記視線検知部にて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向き検知部にて検知した顔向きに基づいて視認対象の推定を行う。 The visual object detection device of the present invention includes a camera that captures the driver, a face orientation detection unit that detects the driver's face orientation from an image captured by the camera, and a driver's face orientation detection device from an image captured by the camera. An output that outputs information indicating a visual target estimated by the visual target estimation unit, a visual target estimation unit that estimates the visual target that the driver is visually recognizing from the line of sight or the face direction, and a line-of-sight detection unit that detects the line of sight. When the detection accuracy of the line of sight detected by the line-of-sight detection unit is equal to or higher than a predetermined threshold value, the visual-view target estimation unit estimates the visual target based on the line of sight detected by the line-of-sight detection unit. If the detection accuracy of the line of sight is smaller than a predetermined threshold value, the visual target is estimated based on the face orientation detected by the face orientation detecting unit.

この構成により、運転者の視線の検知精度が高いときには視線にて視認対象の推定を行い、視線の検知精度が低いときには、運転者の顔向きにて視認対象の推定を行うので、推定精度の高さと検出できる範囲の広さの両立を図れる。 With this configuration, when the detection accuracy of the driver's line of sight is high, the visual target is estimated by the line of sight, and when the detection accuracy of the line of sight is low, the visual target is estimated by the face of the driver. It is possible to achieve both height and a wide detectable range.

本発明の視認対象検知装置において、前記視認対象推定部は、顔向きと視線と視認対象とをノードとし、顔向きと視認対象、視線と視認対象の関係が確率伝搬で表現されたネットワークのモデルを記憶部から読み出し、顔向きから視認対象を推定する場合には、視線のノードにはエビデンスを入力せず、顔向きのノードに検知された顔向きのデータを入力し、視線から視認対象を推定する場合には、顔向きのノードにはエビデンスを入力せず、視線のノードに検知された視線のデータを入力することにより注視対象を推定してもよい。この構成により、適切に視認対象の推定を行なえる。 In the visual object detection device of the present invention, the visual object estimation unit is a network model in which the face direction, the line of sight, and the visual object are nodes, and the relationship between the face direction and the visual object, and the line of sight and the visual object is expressed by probabilistic propagation. When estimating the visual target from the face orientation by reading from the storage unit, the evidence is not input to the line-of-sight node, but the detected facial orientation data is input to the face-facing node, and the visual target is displayed from the line-of-sight. In the case of estimation, the gaze target may be estimated by inputting the detected line-of-sight data into the line-of-sight node without inputting evidence into the face-facing node. With this configuration, the visual target can be estimated appropriately.

本発明の視認対象検知装置において、前記視認対象推定部は、前記視線の検知精度が所定の閾値より小さい場合には、顔向きと視線に基づいて視認対象の推定を行ってもよい。この構成により、視線と顔向きの両方のデータを用いることで、視認対象の推定を精度良く行える。 In the visual object detection device of the present invention, the visual object estimation unit may estimate the visual object based on the face orientation and the line of sight when the detection accuracy of the line of sight is smaller than a predetermined threshold value. With this configuration, it is possible to accurately estimate the visual target by using both the line-of-sight and face orientation data.

本発明の別の態様の視認対象検知装置は、運転者を撮影するカメラと、前記カメラにて撮影した画像から運転者の顔向きを検知する顔向き検知部と、前記カメラにて撮影した画像から運転者の視線を検知する視線検知部と、顔向きから運転者の視線を推定する視線推定部と、視線から運転者が視認している視認対象を推定する視認対象推定部と、前記視認対象推定部にて推定した視認対象を示す情報を出力する出力部とを備え、前記視認対象推定部は、前記視線検知部にて検知した視線の検知精度が所定の閾値以上の場合には、前記視認対象推定部が前記視線検知部にて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向き検知部にて検知した顔向きから視線を推定し、前記視線推定部にて推定した視線に基づいて視認対象の推定を行う。 The visual object detection device of another aspect of the present invention includes a camera that captures the driver, a face orientation detecting unit that detects the face orientation of the driver from the image captured by the camera, and an image captured by the camera. A line-of-sight detection unit that detects the driver's line of sight from the camera, a line-of-sight estimation unit that estimates the driver's line of sight from the face direction, a view target estimation unit that estimates the visual target that the driver is viewing from the line of sight, and the above-mentioned visual recognition. The visual target estimation unit includes an output unit that outputs information indicating a visual target estimated by the target estimation unit, and the visual target estimation unit is provided with a line-of-sight detection accuracy detected by the line-of-sight detection unit when the detection accuracy is equal to or higher than a predetermined threshold value. The visual target estimation unit estimates the visual target based on the line of sight detected by the line-of-sight detection unit, and if the line-of-sight detection accuracy is smaller than a predetermined threshold, the face detected by the face orientation detection unit. The line of sight is estimated from the direction, and the visual object is estimated based on the line of sight estimated by the line-of-sight estimation unit.

この構成により、運転者の視線の検知精度が高いときには視線にて視認対象の推定を行い、視線の検知精度が低いときには、運転者の顔向きから推定した視線を用いて視認対象の推定を行うので、推定精度の高さと検出できる範囲の広さの両立を図れる。 With this configuration, when the detection accuracy of the driver's line of sight is high, the visual target is estimated by the line of sight, and when the detection accuracy of the line of sight is low, the visual target is estimated using the line of sight estimated from the driver's face direction. Therefore, it is possible to achieve both high estimation accuracy and wide detectable range.

本発明の視認対象検知装置において、前記視認対象推定部は、顔向きと視線と視認対象とをノードとし、顔向きと視線、視線と視認対象の関係が確率伝搬で表現されたネットワークのモデルを記憶部から読み出し、顔向きから視認対象を推定する場合には、顔向きのノードに検知された顔向きのデータを入力し、視線から視認対象を推定する場合には、顔向きのノードにはエビデンスを入力せず、視線のノードに検知された視線のデータを入力することにより注視対象を推定してもよい。この構成により、適切に視認対象の推定を行なえる。 In the visual object detection device of the present invention, the visual object estimation unit uses a face direction, a line of sight, and a visual object as nodes, and represents a network model in which the relationship between the face direction and the line of sight and the line of sight and the visual object is expressed by probabilistic propagation. When reading from the storage unit and estimating the visual target from the face orientation, the detected face orientation data is input to the face orientation node, and when estimating the visibility target from the line of sight, the face orientation node is used. The gaze target may be estimated by inputting the detected line-of-sight data to the line-of-sight node without inputting the evidence. With this configuration, the visual target can be estimated appropriately.

本発明の視認対象検知装置において、前記視認対象推定部は、前記視線の検知精度が所定の閾値より小さい場合に、前記顔向き検知部にて検知した顔向きから推定した視線と、前記視線検知部にて検知した視線に、前記視線検知部による視線の検知精度に基づく重みづけをして運転者の視線を推定し、推定された視線を用いて視認対象を推定してもよい。この構成により、顔向きの検知結果と視線の検知結果に基づいて適切に視線を推定し、ひいては視認対象を精度良く推定できる。 In the visual object detection device of the present invention, the visual object estimation unit has a line of sight estimated from the face orientation detected by the face orientation detection unit and the line of sight detection when the detection accuracy of the line of sight is smaller than a predetermined threshold value. The line of sight detected by the unit may be weighted based on the detection accuracy of the line of sight by the line-of-sight detection unit to estimate the line of sight of the driver, and the line of sight may be estimated using the estimated line of sight. With this configuration, the line of sight can be appropriately estimated based on the detection result of the face orientation and the detection result of the line of sight, and by extension, the visual target can be estimated accurately.

本発明の視認対象検知装置において、前記カメラは、運転者を正面から撮影する単一のカメラであってもよい。所定の範囲においてしか視線を精度良く検知できない単一のカメラの場合でも、本発明の構成により、適切に視認対象の推定を行なえる。 In the visual object detection device of the present invention, the camera may be a single camera that captures the driver from the front. Even in the case of a single camera that can accurately detect the line of sight only within a predetermined range, the configuration of the present invention can appropriately estimate the visual target.

本発明の視認対象検知方法は、視認対象検知装置によって運転者が視認している視認対象を検知する方法であって、前記視認対象検知装置が、カメラにて運転者を撮影するステップと、前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の顔向きを検知するステップと、前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の視線を検知するステップと、前記視認対象検知装置が、視線または顔向きから運転者が視認している視認対象を推定するステップと、前記視認対象検知装置が、前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップとを備え、前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視認対象の推定を行う。 The visual target detection method of the present invention is a method of detecting a visual target visually recognized by the driver by the visual target detection device, the step of the visual target detection device taking a picture of the driver with a camera, and the above-mentioned. A step in which the visual object detection device detects the driver's face orientation from an image taken by the camera, and a step in which the visual object detection device detects the driver's line of sight from an image taken by the camera. Information indicating a visual target estimated by the visual target detection device in a step of estimating a visual target visually recognized by the driver from the line of sight or the face direction, and a step of estimating the visual target by the visual target detection device. The step of estimating the visual object is detected by the step of detecting the line of sight when the detection accuracy of the line of sight detected in the step of detecting the line of sight is equal to or higher than a predetermined threshold value. The visual target is estimated based on the line of sight, and when the detection accuracy of the line of sight is smaller than a predetermined threshold value, the visual target is estimated based on the face orientation detected in the step of detecting the face orientation.

本発明の別の態様の視認対象検知方法は、視認対象検知装置によって運転者が視認している視認対象を検知する方法であって、前記視認対象検知装置が、カメラにて運転者を撮影するステップと、前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の顔向きを検知するステップと、前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の視線を検知するステップと、前記視認対象検知装置が、顔向きから運転者の視線を推定するステップと、前記視認対象検知装置が、視線から運転者が視認している視認対象を推定するステップと、前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップとを備え、前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視線の推定を行い、推定された視線に基づいて視認対象の推定を行う。 Another aspect of the present invention is a method of detecting a visual object visually recognized by a driver by a visual object detecting device, wherein the visual object detecting device photographs the driver with a camera. A step, a step in which the visual object detection device detects the driver's face orientation from an image taken by the camera, and a step in which the visual object detection device detects the driver's line of sight from an image taken by the camera. Steps, a step in which the visual object detection device estimates the driver's line of sight from the face direction, a step in which the visual object detection device estimates the visual object visually recognized by the driver from the line of sight, and the visual recognition. The step of estimating the visual target includes a step of outputting information indicating the visual target estimated in the step of estimating the target, and in the step of estimating the visual target, the detection accuracy of the line of sight detected in the step of detecting the line of sight is equal to or higher than a predetermined threshold value. In the case of, the visual target is estimated based on the line of sight detected in the step of detecting the line of sight, and when the detection accuracy of the line of sight is smaller than a predetermined threshold value, in the step of detecting the face orientation. The line of sight is estimated based on the detected face orientation, and the visual target is estimated based on the estimated line of sight.

本発明のプログラムは、運転者が視認している視認対象を検知するためのプログラムであって、コンピュータに、カメラにて撮影した運転者の画像データを入力するステップと、前記画像データに基づいて運転者の顔向きを検知するステップと、前記画像データに基づいて運転者の視線を検知するステップと、視線または顔向きから運転者が視認している視認対象を推定するステップと、前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップとを実行させ、前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視認対象の推定を行う。 The program of the present invention is a program for detecting a visual object visually recognized by the driver, based on a step of inputting image data of the driver taken by a camera into a computer and the image data. A step of detecting the driver's face orientation, a step of detecting the driver's line of sight based on the image data, a step of estimating a visual object visually recognized by the driver from the line of sight or the face direction, and the visual object. In the step of estimating the visual target, the step of outputting the information indicating the estimated visual target is executed in the step of estimating the visual target, and the detection accuracy of the line of sight detected in the step of detecting the line of sight is equal to or higher than a predetermined threshold. In the case of, the visual object is estimated based on the line of sight detected in the step of detecting the line of sight, and when the detection accuracy of the line of sight is smaller than a predetermined threshold value, in the step of detecting the face orientation. The visual target is estimated based on the detected face orientation.

本発明のプログラムは、運転者が視認している視認対象を検知するためのプログラムであって、コンピュータに、カメラにて撮影された運転者の画像データを入力するステップと、前記画像データに基づいて運転者の顔向きを検知するステップと、前記画像データに基づいて運転者の視線を検知するステップと、顔向きから運転者の視線を推定するステップと、視線から運転者が視認している視認対象を推定するステップと、前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップとを備え、前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視線の推定を行い、推定された視線に基づいて視認対象の推定を行う。 The program of the present invention is a program for detecting a visual object visually recognized by the driver, and is based on a step of inputting image data of the driver taken by a camera into a computer and the image data. The step of detecting the driver's face orientation, the step of detecting the driver's line of sight based on the image data, the step of estimating the driver's line of sight from the face direction, and the step of visually recognizing the driver from the line of sight. It includes a step of estimating a visual target and a step of outputting information indicating the visual target estimated in the step of estimating the visual target, and the step of estimating the visual target is detected by the step of detecting the line of sight. When the detection accuracy of the line of sight is equal to or higher than a predetermined threshold, the visual target is estimated based on the line of sight detected in the step of detecting the line of sight, and when the detection accuracy of the line of sight is smaller than the predetermined threshold. , The line of sight is estimated based on the face direction detected in the step of detecting the face direction, and the visual object is estimated based on the estimated line of sight.

本発明によれば、運転者が視認している視認対象を推定する推定精度の高さと視認物を検知できる範囲の広さの両立を図ることができる。 According to the present invention, it is possible to achieve both high estimation accuracy for estimating a visual object visually recognized by the driver and a wide range in which a visible object can be detected.

第1の実施の形態の視認対象検知装置の構成を示す図である。It is a figure which shows the structure of the visual object detection device of 1st Embodiment. 車内において視認される対象物の例を示す図である。It is a figure which shows the example of the object which is visually recognized in a car. 視認対象推定部の構成を示す図である。It is a figure which shows the structure of the visual inspection target estimation part. 第1の実施の形態の視認対象検知装置の動作を示す図である。It is a figure which shows the operation of the visual object detection device of 1st Embodiment. 第2の実施の形態の視認対象検知装置の構成を示す図である。It is a figure which shows the structure of the visual object detection device of 2nd Embodiment. 視認対象推定部の構成を示す図である。It is a figure which shows the structure of the visual inspection target estimation part. 第2の実施の形態の視認対象検知装置の動作を示す図である。It is a figure which shows the operation of the visual object detection device of 2nd Embodiment.

以下、本発明の実施の形態の視認対象検知装置について図面を参照して説明する。
(第1の実施の形態)
図1は、第1の実施の形態の視認対象検知装置1の構成を示す図である。視認対象検知装置1は、自動車の運転者が視認している対象物(視認対象)を検知する装置である。視認対象検知装置1にて、視認対象を検知することにより、運転者が脇見をしていないかどうか、例えば、車線変更や右左折をするときに運転者が適切な安全行動をとったかどうかを判断することができる。
Hereinafter, the visual object detection device according to the embodiment of the present invention will be described with reference to the drawings.
(First Embodiment)
FIG. 1 is a diagram showing a configuration of a visual object detection device 1 according to the first embodiment. The visual object detection device 1 is a device that detects an object (visual object) visually recognized by the driver of the automobile. By detecting the visual object with the visual object detection device 1, it is determined whether the driver is looking aside, for example, whether the driver has taken appropriate safety actions when changing lanes or turning left or right. You can judge.

第1の実施の形態の視認対象検知装置1は、カメラ10と、顔向き検知部11と、視線検知部12と、視認対象推定部13と、出力部14とを備えている。 The visual object detection device 1 of the first embodiment includes a camera 10, a face orientation detection unit 11, a line-of-sight detection unit 12, a visual target estimation unit 13, and an output unit 14.

カメラ10は近赤外線カメラであり、車室内が暗くなっても安定して運転者を撮影することができる。カメラ10は、運転者を正面から撮影する位置、例えば、メーターバイザーの下に搭載される。株式会社デンソーが開発した「ドライバーステータスモニタ」のカメラ10を用いることとしてもよい。 The camera 10 is a near-infrared camera, and can stably photograph the driver even when the vehicle interior is dark. The camera 10 is mounted at a position where the driver is photographed from the front, for example, under the meter visor. The camera 10 of the "driver status monitor" developed by Denso Corporation may be used.

顔向き検知部11は、カメラ10にて撮影した運転者の顔画像に基づいて、運転者の顔向きを検知する機能を有する。視線検知部12は、カメラ10にて撮影した運転者の目の画像から運転者の視線を検知する機能を有する。視線検知部12は、運転者の黒目の向いている方向を検知することで運転者の顔に対する視線の方向に、運転者の顔の向きを加味して、運転者の視線がどの方向を向いているかを検知する。視線検知部12は、運転者の視線を検知する際に、その検知精度を計測し、その確信度を表す値(品質値)を求める。ここで、検知精度は、例えば、検知された視線の方向の正しさを確率で示す値である。ドライバ自身の瞬きや閉眼やカメラと目の位置関係の結果、眼球の白と黒い部分の映り具合から、視線方向の検知の正確性を判定する精度である。 The face orientation detection unit 11 has a function of detecting the driver's face orientation based on the driver's face image taken by the camera 10. The line-of-sight detection unit 12 has a function of detecting the driver's line of sight from the image of the driver's eyes taken by the camera 10. The line-of-sight detection unit 12 detects the direction in which the driver's black eyes are facing, and adds the direction of the driver's face to the direction of the line of sight with respect to the driver's face. Detect if it is. When the line-of-sight detection unit 12 detects the line of sight of the driver, the line-of-sight detection unit 12 measures the detection accuracy and obtains a value (quality value) indicating the degree of certainty. Here, the detection accuracy is, for example, a value that indicates the correctness of the detected direction of the line of sight with a probability. It is the accuracy to judge the accuracy of the detection of the line-of-sight direction from the appearance of the white and black parts of the eyeball as a result of the driver's own blinking, eye closure, and the positional relationship between the camera and the eyes.

視認対象推定部13は、運転者の顔向きおよび視線に基づいて、運転者が視認している対象物を推定する機能を有する。視認対象推定部13は、SVMモデル記憶部15に記憶された視認対象を推定するためのSVMモデルを読み出し、このSVMモデルに顔向きデータ、視線データを適用することで、視認対象の推定を行う。 The visual object estimation unit 13 has a function of estimating an object visually recognized by the driver based on the driver's face orientation and line of sight. The visual target estimation unit 13 reads out the SVM model for estimating the visual target stored in the SVM model storage unit 15, and applies the face orientation data and the line-of-sight data to the SVM model to estimate the visual target. ..

図2は、車内において視認される対象物の例を示す図である。車内における視認対象の例としては、図2では、ウィンドウシールドディスプレイ、スピードメーター、カーナビゲーション、バックミラー、右ミラー、左ミラー、右側方、左側方を示している。図2に示しているのは一例であり、視認対象検知装置1で視認可能な視認対象はこれらに限られることはない。 FIG. 2 is a diagram showing an example of an object visually recognized in the vehicle. As an example of the visual object in the vehicle, FIG. 2 shows a window shield display, a speedometer, a car navigation system, a rear-view mirror, a right mirror, a left mirror, a right side, and a left side. FIG. 2 shows an example, and the visual object that can be visually recognized by the visual object detection device 1 is not limited to these.

なお、図2において、正面の方向にある、ウィンドウシールドディスプレイ、スピードメーター、カーナビゲーション、右ミラーは、視線によって検知できる範囲にある対象物である。そして、この視線による検知範囲を含む全視認対象が顔向きによる検知範囲である。つまり、顔向きを用いた検知範囲の方が、視線を用いた検知範囲よりも広い。 In FIG. 2, the window shield display, the speedometer, the car navigation system, and the right mirror, which are in the front direction, are objects within a range that can be detected by the line of sight. Then, the entire visual object including the detection range by the line of sight is the detection range by the face orientation. That is, the detection range using the face orientation is wider than the detection range using the line of sight.

図3は、視認対象推定部13の構成を示す図である。視認対象推定部13は、ノイズフィルタ20と、評価部21と、決定部22とを有している。ノイズフィルタ20は、顔向き検知部11から入力される顔向きのデータ、または、視線検知部12から入力される視線データに含まれるノイズを除去する機能を有する。評価部21は、多クラスのSVMモデルを用いた処理によって、入力された顔向きデータ又は視線データからそれぞれの視認対象を見ている可能性を表すスコアを評価する。なお、SVMのモデルは、SVMモデル記憶部15から読み出したSVMモデルを用いる。視線から視認対象を推定したい場合には、視線を用いて学習したSVMモデルを読み出し、顔向きから視認対象を推定したい場合には、顔向きを用いて学習したSVMモデルを用いる。視線と顔向きの両方に基づいて視認対象を推定したい場合には、視線と顔向きの両方を用いて学習したSVMモデルを用いる。決定部22は、評価部21にて求めた各視認対象のスコアに基づいて、最大のスコアを有する視認対象を決定し、視認対象データを出力する。 FIG. 3 is a diagram showing the configuration of the visual inspection target estimation unit 13. The visual recognition target estimation unit 13 has a noise filter 20, an evaluation unit 21, and a determination unit 22. The noise filter 20 has a function of removing noise included in the face orientation data input from the face orientation detection unit 11 or the line-of-sight data input from the line-of-sight detection unit 12. The evaluation unit 21 evaluates a score indicating the possibility of seeing each visual object from the input face orientation data or line-of-sight data by processing using a multi-class SVM model. As the SVM model, the SVM model read from the SVM model storage unit 15 is used. When it is desired to estimate the visual object from the line of sight, the SVM model learned using the line of sight is read out, and when it is desired to estimate the visual object from the face direction, the SVM model learned using the face direction is used. When it is desired to estimate the visual object based on both the line of sight and the face direction, an SVM model learned using both the line of sight and the face direction is used. The determination unit 22 determines the visual target having the maximum score based on the score of each visual target obtained by the evaluation unit 21, and outputs the visual target data.

出力部14は、視認対象推定部13にて推定された視認対象データを、脇見判定装置等の運転支援装置に対して出力する。 The output unit 14 outputs the visibility target data estimated by the visibility target estimation unit 13 to a driving support device such as an inattentive determination device.

以上、本実施の形態の視認対象検知装置1の構成について説明したが、上記した視認対象検知装置1のハードウェアの例は、CPU、RAM、ROM、ハードディスク、ディスプレイ、キーボード、マウス、通信インターフェース等を備えたコンピュータである。上記した顔向き検知部11、視線検知部12、視認対象推定部13の各機能を実現するモジュールを有するプログラムをRAMまたはROMに格納しておき、CPUによって当該プログラムを実行することによって、上記した視認対象検知装置1の機能が実現される。このようなプログラムも本発明の範囲に含まれる。また、出力部14の一例は、通信インターフェースである。 Although the configuration of the visual target detection device 1 of the present embodiment has been described above, examples of the hardware of the visual target detection device 1 described above include a CPU, RAM, ROM, hard disk, display, keyboard, mouse, communication interface, and the like. It is a computer equipped with. The above-mentioned program is stored in a RAM or ROM having a module that realizes each function of the face-facing detection unit 11, the line-of-sight detection unit 12, and the visual-view target estimation unit 13, and the program is executed by the CPU. The function of the visual object detection device 1 is realized. Such programs are also included in the scope of the present invention. An example of the output unit 14 is a communication interface.

図4は、第1の実施の形態の視認対象検知装置1の動作を示す図である。第1の実施の形態の視認対象検知装置1は、カメラ10によってドライバを撮影する(S10)。続いて、視認対象検知装置1は、撮影で得られた画像に基づいて、顔向き検知部11にてドライバの顔向きを検知すると共に(S11)、視線検知部12にてドライバの視線を検知する(S12)。視線検知部12は、ドライバの視線を検知する際に、その検知精度の品質値を求める。 FIG. 4 is a diagram showing the operation of the visual object detection device 1 according to the first embodiment. The visual object detection device 1 of the first embodiment takes a picture of the driver by the camera 10 (S10). Subsequently, the visual object detection device 1 detects the driver's face orientation by the face orientation detection unit 11 based on the image obtained by shooting (S11), and also detects the driver's line of sight by the line-of-sight detection unit 12. (S12). When the line-of-sight detection unit 12 detects the line of sight of the driver, the line-of-sight detection unit 12 obtains a quality value of the detection accuracy.

視認対象検知装置1は、視線検知部12における視線検知の品質値に基づいて、視線の検知精度が閾値以上であるか否かを判定する(S13)。視線の検知精度が閾値以上である場合には(S13でYES)、視線検知部12にて検知した視線から視認対象を推定する(S15)。視認対象推定部13は、SVMモデル記憶部15から視線を用いて学習したSVMモデルを読み出し、検知した視線データをSVMモデルに入力することで、視認対象を推定する。 The visual recognition target detection device 1 determines whether or not the line-of-sight detection accuracy is equal to or higher than the threshold value based on the quality value of the line-of-sight detection in the line-of-sight detection unit 12 (S13). When the line-of-sight detection accuracy is equal to or higher than the threshold value (YES in S13), the visual target is estimated from the line-of-sight detected by the line-of-sight detection unit 12 (S15). The visual target estimation unit 13 reads the SVM model learned by using the line of sight from the SVM model storage unit 15, and inputs the detected line-of-sight data into the SVM model to estimate the visual target.

視線の検知精度が閾値以上でない場合には(S13でNO)、顔向き検知部11にて検知した顔向きから視認対象を推定する(S14)。視認対象推定部13は、SVMモデル記憶部15から顔向きを用いて学習したモデルを読み出し、検知した顔向きデータをモデルに入力することで、視認対象を推定する。視認対象検知装置1は、視認対象推定部13にて推定した視認対象のデータを他の装置に出力する(S16)。 When the line-of-sight detection accuracy is not equal to or higher than the threshold value (NO in S13), the visual object is estimated from the face orientation detected by the face orientation detecting unit 11 (S14). The visual target estimation unit 13 estimates the visual target by reading the model learned using the face orientation from the SVM model storage unit 15 and inputting the detected face orientation data into the model. The visual object detection device 1 outputs the data of the visual object estimated by the visual object estimation unit 13 to another device (S16).

以上、第1の実施の形態の視認対象検知装置1の構成及び動作について説明した。第1の実施の形態の視認対象検知装置1は、視線検知部12による視線の検知精度によって視線による視認対象推定を行うか、顔向きによる視認対象推定を行うかを選択するので、検知精度の高さと検知範囲の広さを両立することができる。 The configuration and operation of the visual object detection device 1 according to the first embodiment have been described above. Since the visual target detection device 1 of the first embodiment selects whether to estimate the visual target by the line of sight based on the detection accuracy of the line of sight by the line-of-sight detection unit 12, or to estimate the visual target by the face orientation, the detection accuracy is high. Both height and wide detection range can be achieved.

上記した実施の形態の視認対象検知装置1は、視線の検知精度が閾値以上ではない場合には、検知した顔向きデータを用いて、視認対象を推定する構成について説明したが、視線の検知精度が閾値以上ではない場合には、検知した顔向きデータと共に視線データをSVMモデルに適用して、視認対象を推定する構成を採用してもよい。 The visual target detection device 1 of the above-described embodiment has described a configuration in which the visual target is estimated using the detected face orientation data when the line-of-sight detection accuracy is not equal to or higher than the threshold value. If is not equal to or greater than the threshold value, a configuration may be adopted in which the line-of-sight data is applied to the SVM model together with the detected face orientation data to estimate the visual target.

(第2の実施の形態)
図5は、第2の実施の形態の視認対象検知装置2の構成を示す図である。第2の実施の形態の視認対象検知装置2の基本的な構成は、第1の実施の形態の視認対象検知装置1と同じであるが、視認対象推定部13による視認対象の処理が異なる。視認対象推定部13は、ベイジアンモデル記憶部16に記憶されているベイジアンネットワークモデルを読み出し、読み出したモデルに顔向きデータおよび視線データを適用することによって視認対象を推定する。
(Second embodiment)
FIG. 5 is a diagram showing the configuration of the visual object detection device 2 according to the second embodiment. The basic configuration of the visual object detection device 2 of the second embodiment is the same as that of the visual object detection device 1 of the first embodiment, but the processing of the visual object by the visual object estimation unit 13 is different. The visual recognition target estimation unit 13 reads out the Bayesian network model stored in the Bayesian model storage unit 16 and estimates the visual recognition target by applying the face orientation data and the line-of-sight data to the read-out model.

図6は、視認対象推定部13の構成を示す図である。視認対象推定部13は、確率分布化部30と、ベイジアンネット推定部31とを有している。確率分布化部30は、顔向き検知部11から入力される顔向きのデータ、または、視線検知部12から入力される視線データを確率分布化する機能を有する。ベイジアンネット推定部31は、ベイジアンモデル記憶部16から読み出したベイジアンネットワークモデルに対して、確率分布化された顔向きデータ、視線データを適用して視認対象の確率を推定する。図6に示すベイジアンネットワークモデルは、顔向きのノード、視線のノード、視認対象のノードが順に接続されたモデルである。 FIG. 6 is a diagram showing the configuration of the visual inspection target estimation unit 13. The visual object estimation unit 13 has a probability distribution unit 30 and a Bayesian net estimation unit 31. The probability distribution unit 30 has a function of probabilistically distributing the face orientation data input from the face orientation detection unit 11 or the line-of-sight data input from the line-of-sight detection unit 12. The Bayesian net estimation unit 31 applies probability-distributed face-facing data and line-of-sight data to the Bayesian network model read from the Bayesian model storage unit 16 to estimate the probability of a visual target. The Bayesian network model shown in FIG. 6 is a model in which a face-facing node, a line-of-sight node, and a node to be visually recognized are connected in order.

視認対象推定部13は、視線検知部12での視線の検知精度によって、ベイジアンネット推定部31に適用するデータを変える。具体的には、視線の検知精度が所定の閾値以上の場合には、顔向きのノードにはエビデンスを入力せず、視線のノードに、検知された視線データの確率分布を入力する。これにより、視認対象推定部13は、視線データに基づいて視認対象を推定することができる。 The visual recognition target estimation unit 13 changes the data applied to the Bayesian network estimation unit 31 depending on the accuracy of the line-of-sight detection by the line-of-sight detection unit 12. Specifically, when the line-of-sight detection accuracy is equal to or higher than a predetermined threshold value, no evidence is input to the face-facing node, and the probability distribution of the detected line-of-sight data is input to the line-of-sight node. As a result, the visual target estimation unit 13 can estimate the visual target based on the line-of-sight data.

視線の検知精度が所定の閾値以上ではない場合には、顔向きのノードに、検知された顔向きデータの確率分布を入力し、視線データのノードにはエビデンスを入力しない。顔向きノードの確率分布から視線ノードの確率分布が計算され、視線ノードの確率分布に基づいて視認対象を推定することができる。これにより、一つのベイジアンネットモデルによって、視線の検知精度が高い場合と低い場合の両方の場合について、視認対象を推定できる。 If the line-of-sight detection accuracy is not greater than or equal to a predetermined threshold, the probability distribution of the detected face-facing data is input to the face-facing node, and no evidence is input to the line-of-sight data node. The probability distribution of the line-of-sight node is calculated from the probability distribution of the face-facing node, and the visual target can be estimated based on the probability distribution of the line-of-sight node. As a result, one Bayesian network model can estimate the visual target in both the case where the line-of-sight detection accuracy is high and the case where the line-of-sight detection accuracy is low.

図7は、第2の実施の形態の視認対象検知装置2の動作を示す図である。第2の実施の形態の視認対象検知装置2は、カメラ10によってドライバを撮影する(S20)。続いて、視認対象検知装置2は、撮影で得られた画像に基づいて、顔向き検知部11にてドライバの顔向きを検知すると共に(S21)、視線検知部12にてドライバの視線を検知する(S22)。視線検知部12は、ドライバの視線を検知する際に、その検知精度の品質値を求める。 FIG. 7 is a diagram showing the operation of the visual object detection device 2 according to the second embodiment. The visual object detection device 2 of the second embodiment takes a picture of the driver by the camera 10 (S20). Subsequently, the visual object detection device 2 detects the driver's face orientation by the face orientation detection unit 11 based on the image obtained by shooting (S21), and also detects the driver's line of sight by the line-of-sight detection unit 12. (S22). When the line-of-sight detection unit 12 detects the line of sight of the driver, the line-of-sight detection unit 12 obtains a quality value of the detection accuracy.

視認対象検知装置2は、視線検知部12における視線検知の品質値に基づいて、視線の検知精度が閾値以上であるか否かを判定する(S23)。視線の検知精度が閾値以上である場合には(S23でYES)、視認対象推定部13は、ベイジアンネット推定部31の視線データのノードに、検知した視線データの確率分布を入力し、視認対象を推定する(S25)。 The visual recognition target detection device 2 determines whether or not the line-of-sight detection accuracy is equal to or higher than the threshold value based on the quality value of the line-of-sight detection in the line-of-sight detection unit 12 (S23). When the line-of-sight detection accuracy is equal to or higher than the threshold value (YES in S23), the visual target estimation unit 13 inputs the probability distribution of the detected line-of-sight data to the Bayesian network estimation unit 31's line-of-sight data node, and the visual target is to be visually recognized. Is estimated (S25).

視線の検知精度が閾値以上でない場合には(S23でNO)、顔向き検知部11にて検知した顔向きデータの確率分布を、ベイジアンネット推定部31の顔向きデータのノードに入力する。顔向きデータの確率分布から視線データの確率分布を求め(S24)、視線データの確率分布から視認対象を推定する(S25)。視認対象検知装置2は、視認対象推定部13にて推定した視認対象のデータを他の装置に出力する(S26)。 When the line-of-sight detection accuracy is not equal to or higher than the threshold value (NO in S23), the probability distribution of the face orientation data detected by the face orientation detection unit 11 is input to the face orientation data node of the Bayesian net estimation unit 31. The probability distribution of the line-of-sight data is obtained from the probability distribution of the face-facing data (S24), and the visual object is estimated from the probability distribution of the line-of-sight data (S25). The visual object detection device 2 outputs the data of the visual object estimated by the visual object estimation unit 13 to another device (S26).

以上、第2の実施の形態の視認対象検知装置2の構成及び動作について説明した。第2の実施の形態の視認対象検知装置2は、視線検知部12による視線の検知精度によって視線による視認対象推定を行うか、顔向きから推定した視線を基づいて視認対象推定を行うので、検知精度の高さと検知範囲の広さを両立することができる。 The configuration and operation of the visual object detection device 2 according to the second embodiment have been described above. The visual target detection device 2 of the second embodiment either estimates the visual target by the line of sight based on the detection accuracy of the line of sight by the line-of-sight detection unit 12, or estimates the visual target based on the line of sight estimated from the face direction. It is possible to achieve both high accuracy and a wide detection range.

なお、第2の実施の形態では、視線の検知精度が閾値以上でない場合に(S23でNO)、顔向きデータから推定した視線に基づいて視認対象を推定したが(S24~S25)、顔向きデータから推定した視線に加えて、視線検知部12にて求めた視線のデータも使って、ドライバの視線を推定し、推定した視線に基づいて視認対象を求めてもよい。この場合、顔向きから推定した視線と視線検知部12にて検知した視線とを組み合わせる方法として、視線検知部12による視線の検知精度を用いて重み付けを行う構成が考えられる。例えば、視線検知部12による視線の検知結果が右に30度、検知精度が10%であり、顔向きデータから推定した視線が右に40度であったとする。この場合、30×0.1+40×(1-0.1)=3+36=39度というように、視線方向を推定してもよい。
この構成により、顔向きの検知結果と視線の検知結果に基づいて適切に視線を推定し、ひいては視認対象を精度良く推定できる。
In the second embodiment, when the line-of-sight detection accuracy is not equal to or higher than the threshold value (NO in S23), the visual target is estimated based on the line-of-sight estimated from the face orientation data (S24 to S25), but the face orientation. In addition to the line of sight estimated from the data, the line of sight data obtained by the line of sight detection unit 12 may be used to estimate the line of sight of the driver, and the visual target may be obtained based on the estimated line of sight. In this case, as a method of combining the line of sight estimated from the face orientation and the line of sight detected by the line of sight detection unit 12, a configuration in which weighting is performed using the detection accuracy of the line of sight by the line of sight detection unit 12 can be considered. For example, it is assumed that the line-of-sight detection result by the line-of-sight detection unit 12 is 30 degrees to the right, the detection accuracy is 10%, and the line-of-sight estimated from the face orientation data is 40 degrees to the right. In this case, the line-of-sight direction may be estimated as 30 × 0.1 + 40 × (1-0.1) = 3 + 36 = 39 degrees.
With this configuration, the line of sight can be appropriately estimated based on the detection result of the face orientation and the detection result of the line of sight, and by extension, the visual target can be estimated accurately.

以上、本発明の視認対象検知装置について、実施の形態を例として詳細に説明したが、本発明の視認対象検知装置は、上記した実施の形態に限定されるものではない。上記説明では、視認対象推定部13として、第1の実施の形態でSVMモデルを用い、第2の実施の形態でベイジアンネットワークモデルを用いる例を挙げたが、第1の実施の形態の視認対象検知装置1でベイジアンネットワークモデルを用いてもよいし、第2の実施の形態の視認対象検知装置2でSVMモデルを用いてもよい。 Although the visual object detection device of the present invention has been described in detail by taking an embodiment as an example, the visual object detection device of the present invention is not limited to the above-described embodiment. In the above description, as the visual target estimation unit 13, an example in which the SVM model is used in the first embodiment and the Bayesian network model is used in the second embodiment is given, but the visual target in the first embodiment is used. The Bayesian network model may be used in the detection device 1, or the SVM model may be used in the visual target detection device 2 of the second embodiment.

また、第2の実施の形態で用いたベイジアンネットワークモデルに代えて、ガウシアンネットワークやマルコフチェーン、隠れマルコフモデル等のノード間の関係が確率伝搬で表現されたネットワークモデルを用いてもよい。 Further, instead of the Bayesian network model used in the second embodiment, a network model in which the relationship between nodes such as a Gaussian network, a Markov chain, and a hidden Markov model is expressed by belief propagation may be used.

1、2 視認対象検知装置
10 カメラ
11 顔向き検知部
12 視線検知部
13 視認対象推定部
14 出力部
15 SVMモデル記憶部
16 ベイジアンモデル記憶部
20 ノイズフィルタ
21 評価部
22 決定部
30 確率分布化部
31 ベイジアンネット推定部
1, 2 Visual target detection device 10 Camera 11 Face orientation detection unit 12 Line-of-sight detection unit 13 Visual target estimation unit 14 Output unit 15 SVM model storage unit 16 Bayesian model storage unit 20 Noise filter 21 Evaluation unit 22 Determining unit 30 Probability distribution unit 31 Bayesian Net Estimator

Claims (4)

運転者を撮影するカメラと、
前記カメラにて撮影した画像から運転者の顔向きを検知する顔向き検知部と、
前記カメラにて撮影した画像から運転者の視線を検知する視線検知部と、
顔向きから運転者の視線を推定する視線推定部と、
視線から運転者が視認している視認対象を推定する視認対象推定部と、
前記視認対象推定部にて推定した視認対象を示す情報を出力する出力部と、
を備え、
前記視認対象推定部は、前記視線検知部にて検知した視線の検知精度が所定の閾値以上の場合には、前記視認対象推定部が前記視線検知部にて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向き検知部にて検知した顔向きから視線を推定し、推定した視線と前記視線検知部にて検知した視線とに、前記視線の検知精度に基づく重みづけをして運転者の視線を推定し、推定された視線を用いて視認対象を推定する、視認対象検知装置。
A camera that shoots the driver,
A face orientation detection unit that detects the driver's face orientation from the image taken by the camera, and
A line-of-sight detection unit that detects the driver's line of sight from the image taken by the camera, and
A line-of-sight estimation unit that estimates the driver's line of sight from the face orientation,
A visual object estimation unit that estimates the visual object that the driver is visually recognizing from the line of sight,
An output unit that outputs information indicating the visual target estimated by the visual target estimation unit, and an output unit that outputs information indicating the visual target.
Equipped with
When the detection accuracy of the line of sight detected by the line-of-sight detection unit is equal to or higher than a predetermined threshold value, the visual-view target estimation unit is a visual target based on the line of sight detected by the line-of-sight detection unit. When the estimation is performed and the detection accuracy of the line of sight is smaller than a predetermined threshold value, the line of sight is estimated from the face direction detected by the face orientation detection unit , and the estimated line of sight and the line of sight detected by the line of sight detection unit are used. In addition, a visual object detection device that estimates the driver's line of sight by weighting based on the detection accuracy of the line of sight, and estimates the visual target using the estimated line of sight .
前記カメラは、運転者を正面から撮影する単一のカメラである請求項1記載の視認対象検知装置。 The visual object detection device according to claim 1 , wherein the camera is a single camera that photographs the driver from the front. 視認対象検知装置によって運転者が視認している視認対象を検知する方法であって、
前記視認対象検知装置が、カメラにて運転者を撮影するステップと、
前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の顔向きを検知するステップと、
前記視認対象検知装置が、前記カメラにて撮影した画像から運転者の視線を検知するステップと、
前記視認対象検知装置が、顔向きから運転者の視線を推定するステップと、
前記視認対象検知装置が、視線から運転者が視認している視認対象を推定するステップと、
前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップと、
を備え、
前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視線の推定を行い、推定した視線と前記視線を検知するステップにて検知した視線とに、前記視線の検知精度に基づく重みづけをして運転者の視線を推定し、推定された視線を用いて視認対象を推定する、
視認対象検知方法。
It is a method of detecting a visual object that the driver is visually recognizing by a visual object detection device.
The step in which the visual object detection device captures the driver with a camera,
A step in which the visual object detection device detects the driver's face orientation from an image taken by the camera, and
A step in which the visual object detection device detects the driver's line of sight from an image taken by the camera.
The step in which the visual object detection device estimates the driver's line of sight from the face direction,
The step in which the visual object detection device estimates the visual object visually recognized by the driver from the line of sight, and
A step of outputting information indicating the estimated visual object in the step of estimating the visual object, and a step of outputting the information indicating the visual object.
Equipped with
In the step of estimating the visual target, when the detection accuracy of the line of sight detected in the step of detecting the line of sight is equal to or higher than a predetermined threshold value, the visual target is based on the line of sight detected in the step of detecting the line of sight. When the estimation is performed and the detection accuracy of the line of sight is smaller than a predetermined threshold value, the line of sight is estimated based on the face direction detected in the step of detecting the face direction, and the estimated line of sight and the line of sight are detected. The line of sight detected in the step is weighted based on the detection accuracy of the line of sight to estimate the line of sight of the driver, and the line of sight is estimated using the estimated line of sight.
Visual target detection method.
運転者が視認している視認対象を検知するためのプログラムであって、コンピュータに、
カメラにて撮影された運転者の画像データを入力するステップと、
前記画像データに基づいて運転者の顔向きを検知するステップと、
前記画像データに基づいて運転者の視線を検知するステップと、
顔向きから運転者の視線を推定するステップと、
視線から運転者が視認している視認対象を推定するステップと、
前記視認対象を推定するステップにて推定した視認対象を示す情報を出力するステップと、
を実行させ、
前記視認対象を推定するステップは、前記視線を検知するステップにて検知した視線の検知精度が所定の閾値以上の場合には、前記視線を検知するステップにて検知した視線に基づいて視認対象の推定を行い、前記視線の検知精度が所定の閾値より小さい場合には、前記顔向きを検知するステップにて検知した顔向きに基づいて視線の推定を行い、推定した視線と前記視線を検知するステップにて検知した視線とに、前記視線の検知精度に基づく重みづけをして運転者の視線を推定し、推定された視線を用いて視認対象を推定する、
プログラム。
It is a program for detecting the visual object that the driver is visually recognizing, and it is a program for the computer.
Steps to input the driver's image data taken by the camera,
A step of detecting the driver's face orientation based on the image data,
A step of detecting the driver's line of sight based on the image data,
The step of estimating the driver's line of sight from the face orientation,
The step of estimating the visual object that the driver is visually recognizing from the line of sight,
A step of outputting information indicating the estimated visual object in the step of estimating the visual object, and a step of outputting the information indicating the visual object.
To execute,
In the step of estimating the visual target, when the detection accuracy of the line of sight detected in the step of detecting the line of sight is equal to or higher than a predetermined threshold value, the visual target is based on the line of sight detected in the step of detecting the line of sight. When the estimation is performed and the detection accuracy of the line of sight is smaller than a predetermined threshold value, the line of sight is estimated based on the face direction detected in the step of detecting the face direction, and the estimated line of sight and the line of sight are detected. The line of sight detected in the step is weighted based on the detection accuracy of the line of sight to estimate the line of sight of the driver, and the line of sight is estimated using the estimated line of sight.
program.
JP2017228599A 2017-11-29 2017-11-29 Visual target detection device, visual target detection method, and program Active JP7019394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017228599A JP7019394B2 (en) 2017-11-29 2017-11-29 Visual target detection device, visual target detection method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017228599A JP7019394B2 (en) 2017-11-29 2017-11-29 Visual target detection device, visual target detection method, and program

Publications (2)

Publication Number Publication Date
JP2019101520A JP2019101520A (en) 2019-06-24
JP7019394B2 true JP7019394B2 (en) 2022-02-15

Family

ID=66973654

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017228599A Active JP7019394B2 (en) 2017-11-29 2017-11-29 Visual target detection device, visual target detection method, and program

Country Status (1)

Country Link
JP (1) JP7019394B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021166791A1 (en) * 2020-02-21 2021-08-26 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007105792A1 (en) 2006-03-15 2007-09-20 Omron Corporation Monitor and monitoring method, controller and control method, and program
JP2008146356A (en) 2006-12-11 2008-06-26 Nissan Motor Co Ltd Visual line direction predicting device and visual line direction predicting method
JP2015102498A (en) 2013-11-27 2015-06-04 株式会社デンソー Visible area estimation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007105792A1 (en) 2006-03-15 2007-09-20 Omron Corporation Monitor and monitoring method, controller and control method, and program
JP2008146356A (en) 2006-12-11 2008-06-26 Nissan Motor Co Ltd Visual line direction predicting device and visual line direction predicting method
JP2015102498A (en) 2013-11-27 2015-06-04 株式会社デンソー Visible area estimation device

Also Published As

Publication number Publication date
JP2019101520A (en) 2019-06-24

Similar Documents

Publication Publication Date Title
EP3488382B1 (en) Method and system for monitoring the status of the driver of a vehicle
EP3033999B1 (en) Apparatus and method for determining the state of a driver
WO2017208529A1 (en) Driver state estimation device, driver state estimation system, driver state estimation method, driver state estimation program, subject state estimation device, subject state estimation method, subject state estimation program, and recording medium
CN104573623B (en) Face detection device and method
US20160221502A1 (en) Cognitive displays
JP2016103249A (en) Driving support device and driving support method
EP3113073A1 (en) Determination device, determination method, and non-transitory storage medium
JP6669019B2 (en) VEHICLE DISPLAY CONTROL DEVICE, VEHICLE DISPLAY SYSTEM, VEHICLE DISPLAY CONTROL METHOD, AND PROGRAM
JP2016057839A (en) Facial direction detection device and warning system for vehicle
EP4009287A1 (en) Devices and methods for monitoring drivers of vehicles
US11455810B2 (en) Driver attention state estimation
KR101986734B1 (en) Driver assistance apparatus in vehicle and method for guidance a safety driving thereof
JP6213435B2 (en) Over-attention state determination device and over-attention state determination program
JPWO2019198179A1 (en) Passenger status determination device, warning output control device and passenger status determination method
US20240096116A1 (en) Devices and methods for detecting drowsiness of drivers of vehicles
WO2017173480A1 (en) Method and system of distinguishing between a glance event and an eye closure event
JP5498183B2 (en) Behavior detection device
JP7019394B2 (en) Visual target detection device, visual target detection method, and program
US20220301185A1 (en) Information processing apparatus, information processing method, and storage medium for estimating movement amount of moving object
WO2023108364A1 (en) Method and apparatus for detecting driver state, and storage medium
US20220284718A1 (en) Driving analysis device and driving analysis method
CN113361441B (en) Sight line area estimation method and system based on head posture and space attention
JP6649063B2 (en) Vehicle rear display device and display control device
WO2022113275A1 (en) Sleep detection device and sleep detection system
KR20160056189A (en) Apparatus and method for detecting pedestrian and alert

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210226

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210916

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220125

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220202

R150 Certificate of patent or registration of utility model

Ref document number: 7019394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150