JP2011128799A - Device and method for estimating driver state - Google Patents

Device and method for estimating driver state Download PDF

Info

Publication number
JP2011128799A
JP2011128799A JP2009285539A JP2009285539A JP2011128799A JP 2011128799 A JP2011128799 A JP 2011128799A JP 2009285539 A JP2009285539 A JP 2009285539A JP 2009285539 A JP2009285539 A JP 2009285539A JP 2011128799 A JP2011128799 A JP 2011128799A
Authority
JP
Japan
Prior art keywords
driver
unit
state estimation
visual stimulus
driver state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009285539A
Other languages
Japanese (ja)
Inventor
Yuki Waki
有紀 脇
Hiroyuki Kuboya
寛行 久保谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009285539A priority Critical patent/JP2011128799A/en
Publication of JP2011128799A publication Critical patent/JP2011128799A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To estimate a state of a driver after concretely specifying an occurrence factor of a temporal change of an effective visual field angle of the driver. <P>SOLUTION: A stop state of an own vehicle is determined, and visual stimulation is displayed on a display part, when it is determined that the own vehicle is in the stop state. When the displayed visual stimulation is visually recognized by the driver, an effective visual field angle of the driver is derived and stored. Since the effective visual field angle of the driver is derived each time when the own vehicle is determined that it is in the stop state, the state of the driver is estimated according to a prescribed condition wherein a relation between a relative change amount of the effective visual field angle and the driver state is given. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、運転者が注意すべき対象を認知できる状態であるか否かを判定することにより、運転者の状態を推定する運転者状態推定装置及び運転者状態推定方法に関する。   The present invention relates to a driver state estimating apparatus and a driver state estimating method for estimating a driver's state by determining whether or not the driver can recognize an object to be noted.

自動車の運転者(driver)が自動車の運転中に取得する情報量のうち約90%の情報は、当該自動車の運転者の視覚能力に基づいて取得されることが一般に知られている。そのため、運転者の状態が、運転者が注意すべき対象を認知できない可能性がある状態である場合には、視覚能力に起因する運転者の状態を把握して、適切な運転支援を行うことが重要である。   It is generally known that about 90% of the amount of information that a driver of a vehicle acquires while driving the vehicle is acquired based on the visual ability of the driver of the vehicle. Therefore, if the driver's state is a state where the driver may not be able to recognize the object to be noted, grasp the driver's state due to visual ability and provide appropriate driving assistance is important.

運転者の状態を把握するものとして、特許文献1に開示された運転者状態判定装置がある。特許文献1の運転者状態判定装置は、予め定められた周辺視野領域内の任意の位置に運転者に対して視覚的な刺激を与え、その任意の位置を移動させた場合の運転者の視線方向、視線停留時間及び視線軌跡に基づいて、当該運転者の状態を判定する。また、特許文献1における運転者状態判定装置において、運転者の視線方向を検出する具体例は特許文献2に開示されている。   As a device for grasping the state of the driver, there is a driver state determination device disclosed in Patent Document 1. The driver state determination device disclosed in Patent Document 1 gives a visual stimulus to a driver at an arbitrary position in a predetermined peripheral visual field region, and the driver's line of sight when the arbitrary position is moved. The state of the driver is determined based on the direction, the line-of-sight stop time, and the line-of-sight trajectory. In addition, a specific example of detecting the driver's line-of-sight direction in the driver state determination device in Patent Document 1 is disclosed in Patent Document 2.

ところで、人間の視野は、中心視野と周辺視野とに分けることができる。中心視野とは、視線方向を中心に半径約1°の範囲である。また、中心視野の中心方向を中心視野方向という。中心視野では、ものの形状、文字の形状、及び、もの又は文字の色を細かく見分けることができる。一方、周辺視野とは、中心視野から外れた左右約180°且つ上下約130°の範囲である。周辺視野では、もの又は文字の形状は明確に認識されないが、時間的に変化する視覚的な刺激、例えば明滅する光点又は運動物体は検知されると言われている。   By the way, the human visual field can be divided into a central visual field and a peripheral visual field. The central visual field is a range having a radius of about 1 ° centering on the line-of-sight direction. The central direction of the central visual field is called the central visual field direction. In the central field of view, the shape of the object, the shape of the character, and the color of the object or character can be distinguished finely. On the other hand, the peripheral visual field is a range of about 180 ° in the left and right directions and about 130 ° in the vertical direction deviating from the central visual field. In the peripheral field of view, the shape of a thing or character is not clearly recognized, but it is said that a visual stimulus that changes over time, such as a blinking light spot or a moving object, is detected.

運転者の中心視野方向を中心とした、運転者が視覚刺激を認識することが可能な範囲を、運転者の有効視野という。有効視野は、運転者の内的要因および外的要因に応じて変化する。運転者の内的要因とは、加齢に伴う視覚能力の低下、心理状態、及び疲労等の運転者の特性である。運転者の外的要因とは、運転者が中心視野により認知する視覚情報の複雑さ、又は周辺視野領域の視覚情報量等の走行環境などである。   The range in which the driver can recognize the visual stimulus centering on the driver's central visual field direction is called the driver's effective visual field. The effective visual field changes depending on the driver's internal and external factors. The driver's internal factors are driver characteristics such as deterioration of visual ability, psychological state, and fatigue associated with aging. The external factors of the driver include the complexity of visual information that the driver recognizes from the central visual field or the driving environment such as the visual information amount in the peripheral visual field region.

有効視野が外的要因により狭くなる具体例としては、高速道路の走行中においては視覚情報の変化が大きい、すなわち視覚が捉える景色の変化が大きいため、中心視野における運転者の認知負担が増し、周辺視野領域に表示された視覚刺激に気付かない場合がある。   As a specific example where the effective field of view narrows due to external factors, the change in visual information during highway driving is large, that is, the change in scenery captured by the vision is large, increasing the driver's cognitive burden in the central field of view, The visual stimulus displayed in the peripheral visual field may not be noticed.

特開2006−158740号公報JP 2006-158740 A 特開2003−80969号公報JP 2003-80969 A

しかし、特許文献1に開示された運転者状態判定装置は、ある時点における有効視野の範囲が所定範囲より広いか狭いかを判定するのみである。有効視野は、運転者、又は運転者の運転状況等により変動する。このため、有効視野が所定範囲より狭いと判定された場合でも、有効視野が小さくなった具体的な要因が特定されず、適切な運転支援を行うことは困難であった。   However, the driver state determination device disclosed in Patent Document 1 only determines whether the range of the effective visual field at a certain point is wider or narrower than the predetermined range. The effective visual field varies depending on the driver or the driving situation of the driver. For this reason, even when it is determined that the effective visual field is narrower than the predetermined range, the specific factor that the effective visual field is reduced is not specified, and it is difficult to perform appropriate driving support.

例えば、有効視野が所定範囲よりも狭いと判定された場合において、実際には、走行環境等の外的要因に応じて有効視野が狭い場合、若しくは、運転者の疲労等の内的要因に応じて有効視野が狭い場合とがあるが、有効視野が狭い原因は異なる。従って、特許文献1に開示された運転者状態判定装置によっては、有効視野が狭くなる原因が具体的に特定されず、運転支援が同一になるという課題がある。   For example, when it is determined that the effective visual field is narrower than a predetermined range, the effective visual field is actually narrow according to external factors such as the driving environment, or according to internal factors such as driver fatigue. The effective field of view may be narrow, but the cause of the narrow effective field of view is different. Therefore, depending on the driver state determination device disclosed in Patent Literature 1, there is a problem that the cause of the narrowing of the effective visual field is not specifically specified, and driving assistance becomes the same.

本発明は、上述した従来の課題を解決するものであって、運転者の有効視野が時間的に変化する原因を具体的に特定した上で、運転者の状態を推定する運転者状態推定装置及び運転者状態推定方法を提供することを目的とする。   The present invention solves the above-described conventional problems, and specifically identifies the cause of a change in the driver's effective visual field over time, and then estimates the driver's state. It is another object of the present invention to provide a driver state estimation method.

本発明の運転者状態推定装置は、表示領域を備えた車両の運転者の状態を推定する運転者状態推定装置であって、撮像系を有し、前記撮像系を用いて前記運転者の画像データを取得する画像データ取得部と、前記車両の速度情報に基づいて、前記車両の速度が所定値以下であるか否かを判定する停車状態判定部と、前記車両の速度が前記所定値以下であると判定された場合に、前記表示領域に第1の視覚刺激を表示させて、前記運転者の画像データに基づいて、前記第1の視覚刺激が前記運転者に視認されたか否かを判定する視覚刺激制御部と、前記第1の視覚刺激が前記運転者に視認されたと判定された場合に、前記第1の視覚刺激が前記表示領域に表示された位置に基づいて、前記運転者の正面方向と視線方向とがなす角度である第1の有効視野角度を導出する有効視野角度導出部と、前記第1の有効視野角度を記憶する記憶部と、前記第1の有効視野角度と、前記第1の有効視野角度が記憶された時点より以前に、前記記憶部が記憶した第2の有効視野角度との差分に基づいて、前記運転者の状態を推定する運転者状態推定部と、を備える。   A driver state estimation device according to the present invention is a driver state estimation device that estimates a state of a driver of a vehicle having a display area, has an imaging system, and uses the imaging system to image the driver. An image data acquisition unit that acquires data, a stop state determination unit that determines whether the speed of the vehicle is equal to or lower than a predetermined value based on the speed information of the vehicle, and a speed of the vehicle that is equal to or lower than the predetermined value If it is determined that the first visual stimulus is displayed on the display area, whether or not the first visual stimulus is visually recognized by the driver based on the image data of the driver is determined. The visual stimulus control unit for determining, and when it is determined that the first visual stimulus is visually recognized by the driver, the driver is based on the position where the first visual stimulus is displayed in the display area. Is the angle formed by the front direction and the line-of-sight direction. An effective viewing angle deriving unit for deriving an effective viewing angle, a storage unit for storing the first effective viewing angle, the first effective viewing angle, and a point before the first effective viewing angle is stored. And a driver state estimating unit that estimates the state of the driver based on a difference from the second effective viewing angle stored in the storage unit.

また、本発明の運転者状態推定方法は、表示領域を備えた車両の運転者の状態を推定する運転者状態推定方法であって、撮像系を有し、前記撮像系を用いて前記運転者の画像データを取得し、前記車両の速度情報に基づいて、前記車両の速度が所定値以下であるか否かを判定し、前記車両の速度が前記所定値以下であると判定された場合に、前記表示領域に第1の視覚刺激を表示させて、前記運転者の画像データに基づいて、前記第1の視覚刺激が前記運転者に視認されたか否かを判定し、前記第1の視覚刺激が前記運転者に視認されたと判定された場合に、前記第1の視覚刺激が前記表示領域に表示された位置に基づいて、前記運転者の正面方向と視線方向とがなす角度である第1の有効視野角度を導出し、前記第1の有効視野角度を記憶し、前記第1の有効視野角度と、前記第1の有効視野角度が記憶された時点より以前に、前記記憶部が記憶した第2の有効視野角度との差分に基づいて、前記運転者の状態を推定する。   The driver state estimation method of the present invention is a driver state estimation method for estimating the state of a driver of a vehicle having a display area, the driver state estimation method having an imaging system, and the driver using the imaging system. And determining whether the vehicle speed is equal to or lower than a predetermined value based on the vehicle speed information, and determining that the vehicle speed is equal to or lower than the predetermined value. The first visual stimulus is displayed in the display area, and it is determined whether or not the first visual stimulus is visually recognized by the driver based on the image data of the driver, and the first visual stimulus is determined. When it is determined that a stimulus is visually recognized by the driver, the first visual stimulus is an angle formed by the front direction of the driver and the line-of-sight direction based on the position displayed in the display area. Deriving one effective viewing angle and storing the first effective viewing angle The state of the driver based on the difference between the first effective viewing angle and the second effective viewing angle stored in the storage unit before the time when the first effective viewing angle is stored. Is estimated.

本発明の運転者状態推定装置及び運転者状態推定方法によれば、運転者の有効視野角度が時間的に変化する原因を具体的に特定した上で、運転者の状態を推定することができる。   According to the driver state estimation device and the driver state estimation method of the present invention, it is possible to estimate the driver's state after specifically specifying the cause of the temporal change in the driver's effective viewing angle. .

第1の実施形態に係る運転者状態推定装置を含む運転者状態推定システムの構成を示すシステム構成図The system block diagram which shows the structure of the driver state estimation system containing the driver state estimation apparatus which concerns on 1st Embodiment. 第1の実施形態に係る運転者状態推定装置を示すブロック図The block diagram which shows the driver state estimation apparatus which concerns on 1st Embodiment. 第1の実施形態に係る運転者状態推定装置の動作を説明するフローチャートThe flowchart explaining operation | movement of the driver state estimation apparatus which concerns on 1st Embodiment. 視覚刺激表示距離又は視覚刺激表示角度に基づく視覚刺激の表示に関する説明図Explanatory drawing regarding display of visual stimulus based on visual stimulus display distance or visual stimulus display angle 第1の実施形態に係る運転者状態推定装置の視覚刺激制御部の動作の詳細を説明するフローチャートThe flowchart explaining the detail of operation | movement of the visual stimulus control part of the driver | operator state estimation apparatus which concerns on 1st Embodiment. 運転者状態を推定するための対比表の一例を示した図The figure which showed an example of the comparison table for estimating a driver's condition 第1の実施形態に係る運転者状態推定装置の運転者状態推定部の動作の詳細を説明するフローチャートThe flowchart explaining the detail of operation | movement of the driver state estimation part of the driver state estimation apparatus which concerns on 1st Embodiment. 第2の実施形態に係る運転者状態推定装置を含む運転者状態推定システムの構成を示すシステム構成図The system block diagram which shows the structure of the driver state estimation system containing the driver state estimation apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る運転者状態推定装置を示すブロック図The block diagram which shows the driver state estimation apparatus which concerns on 2nd Embodiment. 第2の実施形態に係る運転者状態推定装置の動作を説明するフローチャートThe flowchart explaining operation | movement of the driver state estimation apparatus which concerns on 2nd Embodiment. 第3の実施形態に係る運転者状態推定装置を含む運転者状態推定システムの構成を示すシステム構成図The system block diagram which shows the structure of the driver state estimation system containing the driver state estimation apparatus which concerns on 3rd Embodiment. 第3の実施形態に係る運転者状態推定装置を示すブロック図The block diagram which shows the driver state estimation apparatus which concerns on 3rd Embodiment. 第4の実施形態に係る運転者状態推定装置を含む運転者状態推定システムの構成を示すシステム構成図The system block diagram which shows the structure of the driver state estimation system containing the driver state estimation apparatus which concerns on 4th Embodiment. 第4の実施形態に係る運転者状態推定装置を示すブロック図The block diagram which shows the driver state estimation apparatus which concerns on 4th Embodiment. 推定閾値と前景画像の空間周波数との関係の一例を示す図The figure which shows an example of the relationship between an estimation threshold value and the spatial frequency of a foreground image 第5の実施形態に係る運転者状態推定装置を含む運転者状態推定システムの構成を示すシステム構成図The system block diagram which shows the structure of the driver state estimation system containing the driver state estimation apparatus which concerns on 5th Embodiment. 第6の実施形態に係る運転者状態推定装置を含む運転者状態推定システムの構成を示すシステム構成図The system block diagram which shows the structure of the driver state estimation system containing the driver state estimation apparatus which concerns on 6th Embodiment. 第7の実施形態に係る運転者状態推定装置を含む運転者状態推定システムの構成を示すシステム構成図The system block diagram which shows the structure of the driver state estimation system containing the driver state estimation apparatus which concerns on 7th Embodiment. 第8の実施形態に係る運転者状態推定装置を含む運転者状態推定システムの構成を示すシステム構成図The system block diagram which shows the structure of the driver state estimation system containing the driver state estimation apparatus which concerns on 8th Embodiment. 第9の実施形態に係る運転者状態推定装置を含む運転者状態推定システムの構成を示すシステム構成図The system block diagram which shows the structure of the driver state estimation system containing the driver state estimation apparatus which concerns on 9th Embodiment.

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は、第1の実施形態に係る運転者状態推定装置100aを含む運転者状態推定システム1aの構成を示す。図1に示すように、運転者状態推定システム1aは、運転者状態推定装置100a、速度情報出力部210、表示部230、及び運転支援部240を有する。運転者状態推定装置100aは、停車状態判定部101a、画像データ取得部220、視覚刺激制御部102a、有効視野角度導出部103a、記憶部104a、及び運転者状態推定部105aを有する。以下、運転者状態推定システム1aは自動車等の車両に搭載されるものとして説明する。なお、当該車両を「自車両」、当該自車両の運転者を「運転者」と記載する。
(First embodiment)
FIG. 1 shows a configuration of a driver state estimation system 1a including a driver state estimation device 100a according to the first embodiment. As shown in FIG. 1, the driver state estimation system 1a includes a driver state estimation device 100a, a speed information output unit 210, a display unit 230, and a driving support unit 240. The driver state estimation device 100a includes a stop state determination unit 101a, an image data acquisition unit 220, a visual stimulus control unit 102a, an effective visual field angle derivation unit 103a, a storage unit 104a, and a driver state estimation unit 105a. Hereinafter, the driver state estimation system 1a will be described as being mounted on a vehicle such as an automobile. The vehicle is referred to as “own vehicle”, and the driver of the vehicle is referred to as “driver”.

速度情報出力部210は、自車両の速度に関する速度情報を、運転者状態推定装置100aに出力する。具体的には、速度情報出力部210は、変速機が有するトルクコンバータのタービン回転数や変速機の自車両軸の回転数等を、変速機から取得し、速度情報として運転者状態推定装置100aに出力する。または、速度情報出力部210は、自車両の速度を、車両に備えられた速度センサから取得し、速度情報として運転者状態推定装置100aに出力する。   The speed information output unit 210 outputs speed information related to the speed of the host vehicle to the driver state estimation device 100a. Specifically, the speed information output unit 210 acquires the turbine rotation speed of a torque converter included in the transmission, the rotation speed of the vehicle shaft of the transmission, and the like from the transmission, and the driver state estimation device 100a as speed information. Output to. Or the speed information output part 210 acquires the speed of the own vehicle from the speed sensor with which the vehicle was equipped, and outputs it to the driver state estimation apparatus 100a as speed information.

表示部230は、例えば、自車両のフロントウィンドウの全部または一部のエリアである。表示部230には、運転者状態推定装置100aからの作用により、視覚的な刺激(以下、視覚刺激)が表示される。視覚刺激は、例えば、表示部230に表示される明滅する光点、単に表示され一定時間経過後に消える光点、シンボルマークなど、視覚で捉えられる情報である。なお、表示部230は、表示面、表示領域と称してもよい。   The display unit 230 is, for example, the whole or part of the front window of the host vehicle. On the display unit 230, a visual stimulus (hereinafter referred to as a visual stimulus) is displayed by an action from the driver state estimating device 100a. The visual stimulus is information captured visually, such as a blinking light spot displayed on the display unit 230, a light spot that is simply displayed and disappears after a lapse of a certain time, and a symbol mark. The display unit 230 may be referred to as a display surface or a display area.

また、表示部230は、自車両のフロントウィンドウの全部又は一部に視覚刺激を表示するヘッドアップディスプレイ(HUD:Head−Up Display)でもよい。また、表示部230は、運転者が装着したヘッドマウントディスプレイ(HMD:Head−Mounted Display)でもよい。   The display unit 230 may be a head-up display (HUD) that displays visual stimuli on all or part of the front window of the host vehicle. The display unit 230 may be a head-mounted display (HMD) worn by the driver.

運転者状態推定装置100aは、取得された速度情報に基づき、自車両が停車状態か否かを判定する。すなわち、運転者状態推定装置100aは、自車両の走行状態について判定を行う。運転者状態推定装置100aは、停車状態であると判定した場合には、運転者の有効視野角度を算出する。運転者状態推定装置100aは、算出された有効視野角度と、過去の時点において算出された有効視野角度との比較により運転者の状態変化を推定し、運転者の状態変化の推定結果を示す推定結果情報を、運転支援部240に出力する。運転者状態推定装置100aの内部構成の詳細は、後述する。   The driver state estimation device 100a determines whether or not the host vehicle is stopped based on the acquired speed information. That is, the driver state estimation device 100a determines the traveling state of the host vehicle. If the driver state estimation device 100a determines that the vehicle is in a stopped state, the driver state estimation device 100a calculates the effective viewing angle of the driver. The driver state estimation device 100a estimates the driver's state change by comparing the calculated effective visual field angle with the effective visual field angle calculated at the past time point, and indicates the estimation result of the driver's state change. The result information is output to the driving support unit 240. Details of the internal configuration of the driver state estimation device 100a will be described later.

運転支援部240は、推定結果情報に基づいて、運転者の運転動作を支援する。例えば、運転支援部240は、推定結果情報が「疲労状態」を示す場合、当該運転者に対して休憩を促す通知を行う。当該通知は、通知内容が表示部230に文字として表示されても、通知内容が音声で出力されてもよい。   The driving support unit 240 supports the driving operation of the driver based on the estimation result information. For example, when the estimation result information indicates “fatigue state”, the driving support unit 240 notifies the driver of a break. The notification content may be displayed as characters on the display unit 230 or the notification content may be output by voice.

また、例えば、運転支援部240は、推定結果情報が「疲労状態」又は「注意散漫状態」を示す場合、運転者に対する運転支援のレベルを上げる制御を行う。当該制御は、注意喚起をしたり、ブレーキ補助を行ったりする制御である。   For example, when the estimation result information indicates “fatigue state” or “attentiveness state”, the driving support unit 240 performs control to increase the level of driving support for the driver. This control is a control for alerting or providing brake assistance.

注意喚起に関する運転支援の具体例を示す。例えば、自車両と通行人や先行車両との距離が所定の基準値以下であると判定されたことに応じて、運転者に対して注意喚起を示す情報を報知するように、運転支援部240が予め設定されている場合において、推定結果情報が「疲労状態」又は「注意散漫状態」を示す場合には、運転支援部240は、当該所定の基準値を高く再設定する。   Specific examples of driving assistance related to alerting are shown. For example, in response to determining that the distance between the host vehicle and the passerby or the preceding vehicle is equal to or less than a predetermined reference value, the driving support unit 240 is notified so as to notify the driver of information indicating an alert. When the estimation result information indicates “fatigue state” or “attentiveness state”, the driving support unit 240 resets the predetermined reference value higher.

ブレーキ補助に関する運転支援の具体例を示す。例えば、自車両と通行人や先行車両との距離が所定の基準値以下であると判定されたことに応じて、自動的にブレーキ補助を行うように、運転支援部240が予め設定されている場合において、推定結果情報が「疲労状態」又は「注意散漫状態」を示す場合には、運転支援部240は、当該所定の基準値を高く再設定する。   A specific example of driving assistance related to brake assistance will be shown. For example, the driving support unit 240 is set in advance so as to automatically assist the brake when it is determined that the distance between the host vehicle and the passerby or the preceding vehicle is equal to or less than a predetermined reference value. In such a case, when the estimation result information indicates “fatigue state” or “attentiveness state”, the driving support unit 240 resets the predetermined reference value higher.

(運転者状態推定装置100aの内部構成)
図2は、運転者状態推定装置100aの構成図を示す。運転者状態推定装置100aは、停車状態判定部101a、画像データ取得部220、視覚刺激制御部102a、有効視野角度導出部103a、記憶部104a、及び運転者状態推定部105aを有する。図3は、運転者状態推定装置100aの動作を説明するフローチャートを示す。以下、図2及び図3を参照して、第1の実施形態における運転者状態推定装置および方法について説明する。
(Internal configuration of driver state estimation device 100a)
FIG. 2 shows a configuration diagram of the driver state estimation device 100a. The driver state estimation device 100a includes a stop state determination unit 101a, an image data acquisition unit 220, a visual stimulus control unit 102a, an effective visual field angle derivation unit 103a, a storage unit 104a, and a driver state estimation unit 105a. FIG. 3 shows a flowchart for explaining the operation of the driver state estimating apparatus 100a. Hereinafter, with reference to FIG.2 and FIG.3, the driver state estimation apparatus and method in 1st Embodiment are demonstrated.

停車状態判定部101aは、速度情報出力部210から出力された速度情報を取得する。停車状態判定部101aは、速度情報に基づいて、自車両が停車状態であるか否かを判定する(S101)。   The stop state determination unit 101a acquires the speed information output from the speed information output unit 210. The stop state determination unit 101a determines whether the host vehicle is in a stop state based on the speed information (S101).

停車状態とは、自車両が完全に停車している場合、または所定の速度以下である場合をいう(実施の形態2以降において同じ)。すなわち、停車状態判定部101aは、自車両の速度が所定の速度以下であるかを判定する。当該所定の速度は、任意に設定可能であり、例えば時速5kmである。   The stop state refers to a case where the host vehicle is completely stopped, or a case where the vehicle is below a predetermined speed (the same applies to the second and subsequent embodiments). That is, the stop state determination unit 101a determines whether the speed of the host vehicle is equal to or lower than a predetermined speed. The predetermined speed can be arbitrarily set, and is, for example, 5 km / h.

停車状態判定部101aは、自車両が停車状態であると判定した場合には、停車状態である旨を示す制御情報を視覚刺激制御部102aに出力する(S101のYes)。停車状態判定部101aは、自車両が停車状態ではないと判定した場合には、自車両が停車状態と判定されるまで待機する(S101のNo)。   When it is determined that the host vehicle is in a stopped state, the stop state determining unit 101a outputs control information indicating that the host vehicle is in a stopped state to the visual stimulus control unit 102a (Yes in S101). When it is determined that the host vehicle is not in the stopped state, the stop state determining unit 101a waits until it is determined that the host vehicle is in the stopped state (No in S101).

画像データ取得部220は、撮像系を有し、撮像系を用いて運転者の画像(以下、運転者画像)を撮像し、運転者画像データを視覚刺激制御部102aに出力する。撮像系は、例えばカメラである。   The image data acquisition unit 220 has an imaging system, captures an image of the driver (hereinafter, driver image) using the imaging system, and outputs the driver image data to the visual stimulus control unit 102a. The imaging system is, for example, a camera.

画像データ取得部220は、運転者画像を所定時間ごとに撮像し、撮像された複数の運転者画像は、画像データ取得部220が有するメモリに、運転者画像データとして記憶される。ここで、撮像する所定時間の単位は、fps(Frame Per Second)で表現される。なお、メモリに記憶される運転者画像データのうち、撮像時から所定の時間が経過した運転者画像データは、自動的に消去されてもよい。なお、撮像された複数の運転者画像は、撮像時刻が付加された運転者画像データとしてメモリに記憶されるのが望ましい。   The image data acquisition unit 220 captures a driver image every predetermined time, and the plurality of captured driver images are stored as driver image data in a memory included in the image data acquisition unit 220. Here, the unit of the predetermined time for imaging is expressed by fps (Frame Per Second). Note that, among the driver image data stored in the memory, the driver image data for which a predetermined time has elapsed from the time of imaging may be automatically deleted. It is desirable that the plurality of captured driver images be stored in the memory as driver image data to which the imaging time is added.

なお、画像データ取得部220は、自車両内に設置されても、自車両外に設置されてもよい。また、画像データ取得部220がメモリを有し、撮像された複数の運転者画像は、画像データ取得部220が有するメモリに運転者画像データとして記憶されるとしたが、その限りではない。すなわち、メモリは画像データ取得部220とは別に設けられ、例えば、運転者状態推定装置100aに含まれてもよい。以下では、画像データ取得部220がメモリを有するとして説明する。   Note that the image data acquisition unit 220 may be installed inside the host vehicle or outside the host vehicle. In addition, the image data acquisition unit 220 includes a memory, and a plurality of captured driver images are stored as driver image data in the memory included in the image data acquisition unit 220. However, the present invention is not limited thereto. That is, the memory is provided separately from the image data acquisition unit 220 and may be included in the driver state estimation device 100a, for example. In the following description, it is assumed that the image data acquisition unit 220 has a memory.

視覚刺激制御部102aは、停車状態である旨を示す制御情報を停車状態判定部101aから取得したことに応じて、運転者画像データを画像データ取得部220から取得する。視覚刺激制御部102aは、取得された運転者画像データに基づいて、運転者の視線方向およびアイポイントを導出する。視覚刺激制御部102aは、表示部230において、視線方向およびアイポイントに基づいて定まる基準を特定し、当該基準に対して視野外側方向から視野内側方向に向けて視覚刺激を表示させる制御を行う(S102)。   The visual stimulus control unit 102a acquires driver image data from the image data acquisition unit 220 in response to acquiring control information indicating that the vehicle is in a stopped state from the stop state determination unit 101a. The visual stimulus control unit 102a derives the driver's line-of-sight direction and eye point based on the acquired driver image data. The visual stimulus control unit 102a specifies a reference determined based on the line-of-sight direction and the eyepoint in the display unit 230, and performs control for displaying the visual stimulus from the outer visual field direction to the inner visual field direction with respect to the reference ( S102).

視覚刺激制御部102aが画像データ取得部220から取得する運転者画像データは、画像データ取得部220に記憶された運転者画像データのうち、最新に記憶された運転者画像データであることが望ましい。   The driver image data acquired by the visual stimulus control unit 102a from the image data acquisition unit 220 is preferably the latest stored driver image data among the driver image data stored in the image data acquisition unit 220. .

なお、視覚刺激制御部102aが取得する運転者画像データは、単数でもよく、また複数でもよい。複数の場合は、視覚刺激制御部102aは、最新に記憶された運転者画像データ、および直近に記憶された複数の運転者画像データを取得する。以下の説明においては、単数であるとして説明する。   The driver image data acquired by the visual stimulus control unit 102a may be singular or plural. In a plurality of cases, the visual stimulus control unit 102a acquires the latest stored driver image data and the most recently stored driver image data. In the following description, it is assumed that the number is single.

なお、視覚刺激制御部102aは、運転者画像データから、運転者の瞳孔中心点および角膜反射中心点を検出し、瞳孔中心点と角膜反射中心点との位置関係に基づいて、運転者の視線方向を導出する。   The visual stimulus control unit 102a detects the driver's pupil center point and corneal reflection center point from the driver image data, and based on the positional relationship between the pupil center point and the corneal reflection center point, the driver's line of sight Deriving the direction.

なお、アイポイントは、運転者の左目と右目との中心点をいう。視覚刺激制御部102aは、運転者画像データから、運転者の瞳孔位置とカメラとの距離を検出し、検出された運転者の瞳孔位置とカメラとの距離に基づいて、アイポイントを導出する。   The eye point refers to the center point between the left eye and the right eye of the driver. The visual stimulus control unit 102a detects the distance between the driver's pupil position and the camera from the driver image data, and derives an eye point based on the detected distance between the driver's pupil position and the camera.

図4は、運転者400が自車両の前方方向を向いた場合における2次元の投影面を示す。図4において、運転者400は上面図的に示されており、フロントウィンドウ310は、図1に示す表示部230の構成要素の全部または一部である。   FIG. 4 shows a two-dimensional projection plane when the driver 400 faces the front direction of the host vehicle. In FIG. 4, the driver 400 is shown in a top view, and the front window 310 is all or part of the components of the display unit 230 shown in FIG.

図4に示すように、運転者400のアイポイント401を中心点として、視線方向410を基準とした角度θの方向と、フロントウィンドウ310との交点位置に、視覚刺激は表示される。 As shown in FIG. 4, the visual stimulus is displayed at the intersection point between the front window 310 and the direction of the angle θ k with the eye point 401 of the driver 400 as the center point and the line-of-sight direction 410 as a reference.

ここで、θを視覚刺激表示角度と定義する。パラメータLは、視線方向410と視覚刺激との水平方向における距離であり、視覚刺激表示距離と定義する。パラメータkは、0≦k≦nを満たす整数であり、パラメータnは正の整数である。 Here, θ k is defined as the visual stimulus display angle. The parameter L k is the horizontal distance between the line-of-sight direction 410 and the visual stimulus, and is defined as the visual stimulus display distance. The parameter k is an integer that satisfies 0 ≦ k ≦ n, and the parameter n is a positive integer.

また、運転者400の視線方向410は、アイポイント401と運転者400の注視点とを結ぶ直線方向である。視線方向は正面として説明する。中心視野位置320は、視線方向410と、フロントウィンドウ310との交点位置である。視野外側方向は、中心視野位置320から離れたエリアを見る方向を、視野内側方向は、中心視野位置320付近のエリアを見る方向をいう。   In addition, the line-of-sight direction 410 of the driver 400 is a linear direction that connects the eye point 401 and the gaze point of the driver 400. The line-of-sight direction is described as the front. The central visual field position 320 is an intersection position between the line-of-sight direction 410 and the front window 310. The visual field outward direction refers to a direction in which an area away from the central visual field position 320 is viewed, and the visual field inner direction refers to a direction in which an area near the central visual field position 320 is viewed.

図5は、視覚刺激制御部102aにおける、視覚刺激の制御方法を説明するフローチャートを示す。以下、図2、図4及び図5を参照して、視覚刺激制御部102aが視覚刺激を表示部230に表示させる制御方法を説明する。   FIG. 5 is a flowchart illustrating a visual stimulus control method in the visual stimulus control unit 102a. Hereinafter, a control method in which the visual stimulus control unit 102a displays the visual stimulus on the display unit 230 will be described with reference to FIGS.

図2において、視覚刺激制御部102aは、アイポイント401を中心点として視線方向410を基準とする、視覚刺激表示角度の初期値θを設定し(S102a)、初期値θを視覚刺激表示方向の角度として設定する(S102b)。視覚刺激制御部102aは、設定された視覚刺激表示方向と、フロントウィンドウ310との交点位置である視覚刺激表示位置を特定し(S102c)、視覚刺激表示位置に視覚刺激を表示させる(S102d)。 In FIG. 2, the visual stimulus control unit 102a sets an initial value θ 0 of the visual stimulus display angle with the eye point 401 as the center point and the line-of-sight direction 410 as a reference (S102a), and displays the initial value θ 0 as the visual stimulus display. The angle is set as the direction angle (S102b). The visual stimulus control unit 102a identifies the visual stimulus display position that is the intersection position of the set visual stimulus display direction and the front window 310 (S102c), and displays the visual stimulus at the visual stimulus display position (S102d).

視覚刺激制御部102aは、角度θの視覚刺激表示位置に視覚刺激を表示させることにより、表示終了条件が満たされるか否かを判定する(S102e)。表示終了条件が満たされる場合とは、表示された視覚刺激が、運転者により視認された場合、または予め設定された視覚刺激表示角度に表示された場合をいう。 Visual stimulation control unit 102a, by displaying the visual stimulus on the visual stimulus display position of the angle theta 0, determines whether or not the display end condition is satisfied (S102e). The case where the display end condition is satisfied refers to a case where the displayed visual stimulus is visually recognized by the driver or displayed at a preset visual stimulus display angle.

角度θの視覚刺激表示位置に表示された視覚刺激が、運転者により視認されたか否かを判定する方法について、以下に説明する。 A method for determining whether or not the visual stimulus displayed at the visual stimulus display position at the angle θ 0 has been visually recognized by the driver will be described below.

視覚刺激制御部102aは、視覚刺激表示位置に視覚刺激が表示されたことに応じて、画像データ取得部220から運転者画像データを取得する。ここで、視覚刺激制御部102aが、視覚刺激が表示部230に表示されたことに応じて画像データ取得部220から取得する運転者画像データは、画像データ取得部220に記憶された運転者画像データのうち、最新に記憶された運転者画像データであることが望ましい。   The visual stimulus control unit 102a acquires driver image data from the image data acquisition unit 220 in response to the display of the visual stimulus at the visual stimulus display position. Here, the driver image data acquired from the image data acquisition unit 220 in response to the visual stimulus being displayed on the display unit 230 by the visual stimulus control unit 102 a is the driver image stored in the image data acquisition unit 220. Of the data, the driver image data stored most recently is desirable.

なお、視覚刺激制御部102aが、視覚刺激が表示部230に表示されたことに応じて取得する運転者画像データは、単数でもよく、また複数でもよい。複数の場合は、視覚刺激制御部102aは、最新に記憶された運転者画像データ、および直近に記憶された複数の運転者画像データを取得する。以下の説明においては、単数であるとして説明する。   Note that the driver image data acquired by the visual stimulus control unit 102a when the visual stimulus is displayed on the display unit 230 may be singular or plural. In a plurality of cases, the visual stimulus control unit 102a acquires the latest stored driver image data and the most recently stored driver image data. In the following description, it is assumed that the number is single.

視覚刺激制御部102aは、画像データ取得部220から取得した運転者画像データに基づいて運転者の視線方向を導出し、視覚刺激が表示された後における運転者の視線方向の角度と、視覚刺激表示角度とが同一、またはほぼ同一か否かを判定する。具体的には、当該視線方向の角度と、視覚刺激表示角度との差分が、予め設定された所定値以下であるか否かにより判定され、所定値以下である場合は、運転者は視覚刺激を視認したと判定され、所定値以上である場合は、運転者は視覚刺激を視認していないと判定される。   The visual stimulus control unit 102a derives the driver's line-of-sight direction based on the driver image data acquired from the image data acquisition unit 220, the angle of the driver's line-of-sight direction after the visual stimulus is displayed, and the visual stimulus It is determined whether the display angle is the same or substantially the same. Specifically, it is determined whether or not the difference between the angle of the line-of-sight direction and the visual stimulus display angle is equal to or less than a predetermined value set in advance. If it is determined that the driver has visually recognized and is equal to or greater than the predetermined value, it is determined that the driver has not visually recognized the visual stimulus.

運転者400が視覚刺激を視認したと判定された場合は、表示終了条件を満たし、視覚刺激制御部102aは、視覚刺激の表示を終了する(S102e:Yes)。一方、運転者400が視覚刺激を視認していないと判定された場合は表示終了条件を満たさず(S102e:No)、視覚刺激制御部102aは、視覚刺激に対応する視覚刺激表示角度θを所定量小さくした角度θk+1に変更する(S102f)。 When it is determined that the driver 400 has visually recognized the visual stimulus, the display end condition is satisfied, and the visual stimulus control unit 102a ends the display of the visual stimulus (S102e: Yes). On the other hand, when it is determined that the driver 400 does not visually recognize the visual stimulus, the display end condition is not satisfied (S102e: No), and the visual stimulus control unit 102a sets the visual stimulus display angle θ k corresponding to the visual stimulus. The angle θ k + 1 is changed by a predetermined amount (S102f).

視覚刺激制御部102aは、所定時間経過後、視覚刺激表示角度θk+1に基づいて、視覚刺激表示方向の角度として再設定する(S102g)。視覚刺激制御部102aは、再設定された視覚刺激表示角度θk+1の方向と、フロントウィンドウ310との交点位置である視覚刺激表示位置340を特定し(S102c)、特定された視覚刺激表示位置340に視覚刺激を表示するように制御する。 The visual stimulus control unit 102a resets the visual stimulus display direction angle as the angle of the visual stimulus display direction based on the visual stimulus display angle θ k + 1 after a predetermined time has elapsed (S102g). The visual stimulus control unit 102a specifies the visual stimulus display position 340 that is the intersection point between the reset direction of the visual stimulus display angle θ k + 1 and the front window 310 (S102c), and the specified visual stimulus display position 340 is determined. To control the display of visual stimuli.

なお、視覚刺激の表示は、視覚刺激表示角度の初期値θの方向と、フロントウィンドウ310との交点位置から、予め設定された視覚刺激表示角度θの方向と、フロントウィンドウ310との交点位置350まで繰り返される。視覚刺激表示角度θは、運転者400の視野として十分に認識可能と認められる角度である。 Note that the display of the visual stimulus is based on the intersection of the direction of the initial value θ 0 of the visual stimulus display angle and the intersection of the front window 310 with the direction of the preset visual stimulus display angle θ n and the front window 310. Repeat until position 350. The visual stimulus display angle θ n is an angle that is recognized as sufficiently recognizable as the visual field of the driver 400.

なお、係る場合、図5に示す表示終了条件を判定する場合において、予め設定された視覚刺激表示角度θに、視覚刺激が表示されたと判定された場合には、視覚刺激の表示を終了する。 In this case, in the case where the display end condition shown in FIG. 5 is determined, if it is determined that the visual stimulus is displayed at the preset visual stimulus display angle θ n , the display of the visual stimulus is ended. .

視覚刺激制御部102aは、視覚刺激が運転者に視認されたと判定した場合、運転者の視線方向角度α(m:正の整数)を、有効視野角度導出部103aに出力する。αは、θ≦α≦θの条件を満たす。なお、添え字mは、時間的経過を示し、αはαm−1以降に取得された運転者の視線方向角度であり、αm−1はαm−2以降に取得された運転者の視線方向角度である。また、パラメータαは、運転開始時に導出された運転者の有効視野角度である。なお、運転者の視線方向角度は、視覚刺激表示角度であってもよいし、運転者画像データから導出された運転者の視線方向の角度でもよい。 When it is determined that the visual stimulus is visually recognized by the driver, the visual stimulus control unit 102a outputs the driver's line-of-sight angle α m (m: positive integer) to the effective viewing angle derivation unit 103a. α m satisfies the condition of θ n ≦ α m ≦ θ 0 . The subscript m indicates the time course, α m is the driver's gaze direction angle acquired after α m−1 , and α m−1 is the driver acquired after α m−2. Is the viewing direction angle. The parameter α 0 is an effective viewing angle of the driver derived at the start of driving. Note that the driver's line-of-sight direction angle may be a visual stimulus display angle or an angle of the driver's line-of-sight direction derived from the driver image data.

視覚刺激制御部102aは、表示部230の視覚刺激表示角度θに視覚刺激が表示され、且つ運転者に視覚刺激が視認されなかったと判定された場合、運転者は視覚刺激を視認しなかったことを示す情報を有効視野角度導出部103aに出力する。 When it is determined that the visual stimulus is displayed at the visual stimulus display angle θ n of the display unit 230 and the driver does not recognize the visual stimulus, the driver does not visually recognize the visual stimulus. Is output to the effective viewing angle deriving unit 103a.

有効視野角度導出部103aは、視覚刺激制御部102aから出力された視線方向角度αを取得する。有効視野導出部103aは、取得された視線方向角度αを運転者の有効視野角度として導出する(S103)。 The effective visual field angle deriving unit 103a acquires the line-of-sight direction angle α m output from the visual stimulus control unit 102a. The effective visual field deriving unit 103a derives the acquired gaze direction angle α m as the driver's effective visual angle (S103).

有効視野角度導出部103aは、導出された有効視野角度αに基づいて有効視野角度関連情報50を生成し、記憶部104aに出力する。記憶部104aは、有効視野角度関連情報50を記憶する。一方、有効視野角度導出部103aは、運転者の有効視野角度αに関する情報を運転者状態推定部105aに出力する。 The effective viewing angle deriving unit 103a generates effective viewing angle related information 50 based on the derived effective viewing angle α m and outputs the information to the storage unit 104a. The storage unit 104a stores the effective viewing angle related information 50. On the other hand, the effective viewing angle deriving unit 103a outputs information related to the driver's effective viewing angle α m to the driver state estimating unit 105a.

有効視野角度関連情報50に関して説明する。有効視野角度関連情報50は、有効視野角度導出部103aにおいて導出された、運転者の有効視野角度α、当該有効視野角度αが導出された導出日、導出時刻、導出場所、天候情報、運転者情報、運転開始時刻及び当該運転開始時刻からの経過時間等を含む。 The effective viewing angle related information 50 will be described. The effective viewing angle related information 50 is derived by the effective viewing angle deriving unit 103a, the driver's effective viewing angle α m , the derived date from which the effective viewing angle α m is derived, the derived time, the derived location, the weather information, It includes driver information, operation start time, elapsed time from the operation start time, and the like.

具体的には、導出日及び導出時刻は、有効視野角度導出部103aが運転者状態推定装置100a内に不図示のタイマー部から取得した時刻情報で特定される。導出場所及び天候情報は、運転者状態推定装置100a内に不図示のナビゲーション装置等から出力された情報により特定される。運転者情報は、例えば、記憶部104aに予め記憶されているものとする。運転開始時刻は、自車両のエンジンが始動されたとき、一日の最初に自車両のエンジンが始動されたとき、又は運転者により所定のスイッチ等で入力されたときのいずれかのときに、不図示のタイマー部から出力された時刻情報により特定される。運転開始時刻からの経過時間は、上記した導出時刻と運転開始時刻との差分により特定される。   Specifically, the derivation date and the derivation time are specified by time information acquired from the timer unit (not shown) in the driver state estimation device 100a by the effective viewing angle derivation unit 103a. The derivation location and weather information are specified by information output from a navigation device (not shown) in the driver state estimation device 100a. For example, the driver information is stored in advance in the storage unit 104a. The driving start time is either when the engine of the host vehicle is started, when the engine of the host vehicle is started at the beginning of the day, or when input by a driver with a predetermined switch or the like. It is specified by time information output from a timer unit (not shown). The elapsed time from the operation start time is specified by the difference between the above-described derivation time and the operation start time.

運転者状態推定部105aは、有効視野角度導出部103aから出力された運転者の有効視野角度α、及び記憶部104aが記憶している過去の有効視野角度関連情報50を取得する。運転者状態推定部105aは、有効視野角度導出部103aから出力された有効視野角度αと、当該過去の有効視野角度関連情報50に含まれる1つ以上の有効視野角度α(m−p)とを比較する。パラメータpは、0≦p≦mを満たす整数である。 The driver state estimation unit 105a acquires the driver's effective viewing angle α m output from the effective viewing angle derivation unit 103a and the past effective viewing angle related information 50 stored in the storage unit 104a. The driver state estimating unit 105a outputs the effective visual field angle α m output from the effective visual field angle deriving unit 103a and one or more effective visual field angles α (m−p) included in the past effective visual field angle related information 50. And compare. The parameter p is an integer that satisfies 0 ≦ p ≦ m.

運転者状態推定部105aは、有効視野角度α(m−p)に対する有効視野角度αの変化量、変化方向、又は変化速度の少なくともいずれか一つに基づいて、運転者の状態を推定する(S105)。運転者状態推定部105aは、この推定された運転者状態推定結果情報を運転支援部240に出力し(S106)、運転者状態推定装置100aの動作は終了する。 The driver state estimation unit 105a estimates the state of the driver based on at least one of a change amount, a change direction, and a change speed of the effective viewing angle α m with respect to the effective viewing angle α (m−p) . (S105). The driver state estimation unit 105a outputs the estimated driver state estimation result information to the driving support unit 240 (S106), and the operation of the driver state estimation device 100a ends.

運転者状態推定部105aが運転者の状態を推定する方法について説明する。図6は、有効視野角度α(m−p)に対する有効視野角度αの変化に基づいて、運転者の状態を推定するための対比情報の一例を示す。なお、対比情報は、運転者状態推定部105aが予め記憶していてもよい。また、記憶部104aが予め記憶しておき、運転者状態推定部105aが記憶部104aから取得してもよい。 A method by which the driver state estimating unit 105a estimates the driver's state will be described. FIG. 6 shows an example of contrast information for estimating the driver's state based on the change in the effective viewing angle α m with respect to the effective viewing angle α (mp) . The comparison information may be stored in advance by the driver state estimation unit 105a. Further, the storage unit 104a may store the information in advance, and the driver state estimation unit 105a may acquire the storage unit 104a.

図6において、パラメータmは「4」と、パラメータpは「3」と設定された例を示す。図6において、例えば、運転開始時の有効視野角度αに対する、最新の情報である有効視野角度αの比の値が、閾値β以下である場合、数1が成立する。 FIG. 6 shows an example in which the parameter m is set to “4” and the parameter p is set to “3”. In FIG. 6, for example, when the value of the ratio of the effective viewing angle α 4 , which is the latest information, to the effective viewing angle α 0 at the start of operation is equal to or less than the threshold β 1 , Formula 1 is established.

Figure 2011128799
Figure 2011128799

また、図6において、最新の情報である有効視野角度αが、運転開始以後の所定の時点における有効視野角度αに比べて小さく、更に当該所定の時点より後に導出された有効視野角度αに比べて小さい場合、数2が成立する。 In FIG. 6, the effective viewing angle α 4 , which is the latest information, is smaller than the effective viewing angle α 1 at a predetermined time after the start of operation, and the effective viewing angle α derived after the predetermined time. When smaller than 3 , Equation 2 is established.

Figure 2011128799
Figure 2011128799

更に、図6において、最新の情報である有効視野角度αと、直前3回の全ての有効視野角度(α、α、α)との比の値が、いずれも閾値βよりも非常に小さい場合には、数3が成立する。 Further, in FIG. 6, the values of the ratio of the effective viewing angle α 4 , which is the latest information, and all the effective viewing angles (α 1 , α 2 , α 3 ) of the last three times are all from the threshold β 2 . Is also very small, Equation 3 holds.

Figure 2011128799
Figure 2011128799

図6において、閾値βは、運転者状態推定部105aによる運転者状態の推定の際に、運転者が疲労状態か否かを推定するためのパラメータである。また、閾値βは、運転者状態推定部105aによる運転者状態の推定の際に、運転者が注意散漫状態か否かを推定するためのパラメータである。 In FIG. 6, the threshold value β 1 is a parameter for estimating whether or not the driver is in a fatigue state when the driver state estimation unit 105 a estimates the driver state. The threshold β 2 is a parameter for estimating whether or not the driver is in a distracted state when the driver state is estimated by the driver state estimating unit 105a.

数1が成立しない場合には、正常状態の要件が満たされる。この場合には、運転者は正常状態であると推定され、運転者状態推定部105aは、運転者は正常状態である旨の推定結果情報を運転支援部240に出力する。   If Equation 1 does not hold, the normal condition requirement is satisfied. In this case, the driver is estimated to be in a normal state, and the driver state estimation unit 105a outputs estimation result information indicating that the driver is in a normal state to the driving support unit 240.

数1が成立するが数2及び数3が成立しない場合には、要注意状態の要件が満たされる。この場合には、運転者は要注意状態であると推定され、運転者状態推定部105aは、運転者は要注意状態である旨の推定結果情報を運転支援部240に出力する。   When Equation 1 is satisfied but Equation 2 and Equation 3 are not satisfied, the requirement for the state of caution is satisfied. In this case, it is estimated that the driver is in a state of caution, and the driver state estimation unit 105a outputs estimation result information indicating that the driver is in a state of caution to the driving support unit 240.

数1及び数2が共に成立する場合には、疲労状態の要件が満たされる。この場合には、運転者は疲労状態であると推定され、運転者状態推定部105aは、運転者は疲労状態である旨の推定結果情報を運転支援部240に出力する。   If both Equation 1 and Equation 2 hold, the fatigue condition requirement is satisfied. In this case, it is estimated that the driver is in a fatigue state, and the driver state estimation unit 105a outputs estimation result information indicating that the driver is in a fatigue state to the driving support unit 240.

数3が成立する場合には、注意散漫状態の要件が満たされる。この場合には、運転者は一時的に他の視対象に注意が向いている注意散漫状態であると推定され、運転者状態推定部105aは、運転者は注意散漫状態である旨の推定結果情報を運転支援部240に出力する。なお、運転者状態推定部105aから出力された推定結果情報は、有効視野角度関連情報50に含めて記憶されても構わない。   If Equation 3 holds, the distraction requirement is satisfied. In this case, it is presumed that the driver is temporarily in a distracted state in which attention is paid to other visual objects, and the driver state estimating unit 105a estimates that the driver is in a distracted state. Information is output to the driving support unit 240. In addition, the estimation result information output from the driver state estimation unit 105a may be included in the effective viewing angle related information 50 and stored.

運転者状態推定部105aが図6に示す対比情報に基づいて運転者状態を推定する処理について、図7を参照して説明する。図7は、運転者状態推定部105aによる動作の詳細を説明するフローチャートである。   A process in which the driver state estimating unit 105a estimates the driver state based on the comparison information shown in FIG. 6 will be described with reference to FIG. FIG. 7 is a flowchart illustrating details of the operation performed by the driver state estimation unit 105a.

運転者状態推定部105aは、有効視野角度導出部103aから出力された有効視野角度α、及び記憶部104aに記憶された過去の有効視野角度関連情報50をそれぞれ取得する。運転者状態推定部105aは、有効視野角度導出部103aから出力された有効視野角度αと、当該過去の有効視野角度関連情報50に含まれる有効視野角度α(m−p)とを比較する。 The driver state estimation unit 105a acquires the effective viewing angle α m output from the effective viewing angle deriving unit 103a and the past effective viewing angle related information 50 stored in the storage unit 104a. The driver state estimation unit 105a compares the effective viewing angle α m output from the effective viewing angle derivation unit 103a with the effective viewing angle α (m−p) included in the past effective viewing angle related information 50. .

任意の時点において導出された単一の有効視野角度の絶対値のみで運転者状態を推定するのは効率的ではない。有効視野角度は、運転者又は当該有効視野角度の導出時の運転状況等により異なるためである。したがって、第1の実施形態では、ある時点において導出された有効視野角度、及び当該時点よりも過去の運転開始時に導出された有効視野角度の少なくとも2つの有効視野角度の相対的な変化量に基づいて運転者状態が推定される。少なくとも2つの有効視野角度の相対的な変化量に基づいて推定された運転者状態は、単一の有効視野角度に基づいて推定される運転者状態に比べて正確性が非常に高いといえる。後述の各実施形態においても同様である。   It is not efficient to estimate the driver state only with the absolute value of a single effective viewing angle derived at an arbitrary time. This is because the effective viewing angle varies depending on the driver or the driving situation when the effective viewing angle is derived. Therefore, in the first embodiment, based on an effective viewing angle derived at a certain time point and a relative change amount of at least two effective viewing angles of an effective viewing angle derived at the start of driving past that time. The driver state is estimated. It can be said that the driver state estimated based on the relative change amount of the at least two effective viewing angles is very accurate compared to the driver state estimated based on the single effective viewing angle. The same applies to each embodiment described later.

運転者状態推定部105aは、運転開始時の有効視野角度αに対する最新の情報である有効視野角度αの比の値が閾値β以下であるか否かを判定する(S105a)。運転開始時の有効視野角度αに対する最新の情報である有効視野角度αの比の値が閾値βよりも大きい場合(S105aのNO)、運転者状態推定部105aは、運転者は正常状態であると推定し(S105b)、運転者状態推定部105aの動作は終了する。 The driver state estimation unit 105a determines whether or not the value of the ratio of the effective viewing angle alpha m is the latest information for the field of view angle alpha 0 at the start of operation is the threshold value beta 1 below (S105a). When the value of the ratio of the effective viewing angle α m that is the latest information to the effective viewing angle α 0 at the start of driving is larger than the threshold β 1 (NO in S105a), the driver state estimation unit 105a indicates that the driver is normal. It is estimated that the vehicle is in a state (S105b), and the operation of the driver state estimation unit 105a ends.

運転開始時の有効視野角度αに対する最新の情報である有効視野角度αの比の値が閾値β以下である場合(S105aのYES)、運転者状態推定部105aは、最新の情報である有効視野角度αと、直前3回の全ての有効視野角度(αm−3、αm−2、αm−1)との比の値がそれぞれ閾値βよりも非常に小さいか否かを判定する(S105c)。 When the value of the ratio of the effective viewing angle α m that is the latest information with respect to the effective viewing angle α 0 at the start of driving is equal to or less than the threshold β 1 (YES in S105a), the driver state estimation unit 105a uses the latest information. Whether the value of the ratio between a certain effective viewing angle α m and all the effective viewing angles (α m−3 , α m−2 , α m−1 ) of the last three times is much smaller than the threshold β 2. Is determined (S105c).

最新の情報である有効視野角度αと、直前3回の全ての有効視野角度(αm−3、αm−2、αm−1)との比の値がそれぞれ閾値βよりも非常に小さい場合(S105cのYES)、運転者状態推定部105aは、運転者は注意散漫状態であると推定し(S105d)、運転者状態推定部105aの動作は終了する。 The value of the ratio of the effective viewing angle α m which is the latest information to all the effective viewing angles (α m−3 , α m−2 , α m−1 ) of the last three times is much greater than the threshold β 2. (S105c YES), the driver state estimating unit 105a estimates that the driver is in a distracted state (S105d), and the operation of the driver state estimating unit 105a ends.

最新の情報である有効視野角度αと、直前3回の全ての有効視野角度(αm−3、αm−2、αm−1)との比がそれぞれ閾値βより非常に小さい値ではない場合(S105cのNO)、運転者状態推定部105aは、運転開始時の有効視野角度αと、運転開始後の任意の時刻における有効視野角度αと、最新の情報である有効視野角度αとを比較する(S105e)。この比較により、運転者状態推定部105aは、最新の情報である有効視野角度αが運転開始時の有効視野角度αから徐々に小さくなっているか否かを判定する(S105f)。 The values of the effective viewing angle α m that is the latest information and all the effective viewing angles (α m−3 , α m−2 , α m−1 ) of the last three times are values that are very smaller than the threshold β 2, respectively. If not (nO in S105c), the driver condition estimating unit 105a, a field of view angle alpha 0 at the start of operation, an effective field angle alpha 2 at an arbitrary time after the start of operation, effective is the latest information field The angle α m is compared (S105e). This comparison, the driver state estimation unit 105a determines whether or not the date information is a valid field angle alpha m gradually decreases from the effective viewing angle alpha 0 at the start of operation (S105f).

最新の情報である有効視野角度αが、運転開始時の有効視野角度αから徐々に小さくなっていると判定された場合(S105fのYES)、運転者状態推定部105aは、運転者は疲労状態であると推定し(S105g)、運転者状態推定部105aの動作は終了する。 When it is determined that the effective viewing angle α m , which is the latest information, gradually decreases from the effective viewing angle α 0 at the start of driving (YES in S105f), the driver state estimation unit 105a determines that the driver It is estimated that the vehicle is in a fatigued state (S105g), and the operation of the driver state estimating unit 105a ends.

最新の情報である有効視野角度αが、運転開始時の有効視野角度αから徐々に小さくなっているわけではないと判定された場合には(S105fのNO)、運転者状態推定部105aは、運転者状態は要注意状態と推定し(S105h)、運転者状態推定部105aの動作は終了する。 When it is determined that the effective viewing angle α m which is the latest information is not gradually decreasing from the effective viewing angle α 0 at the start of driving (NO in S105f), the driver state estimation unit 105a. The driver state is estimated to be a state of caution (S105h), and the operation of the driver state estimation unit 105a ends.

以上のように、第1の実施形態の運転者状態推定装置100aでは、自車両が停車中の状態が判定され、停車状態と判定された場合に視覚刺激が表示部230に表示される。この表示された視覚刺激が運転者により視認された場合の運転者の有効視野角度が導出されて記憶される。自車両が停車状態と判定される度に、運転者の有効視野角度が導出されるため、有効視野角度の相対的な変化量と運転者状態との関係が定められた所定の条件(図6参照)に応じて、運転者の状態が推定される。   As described above, in the driver state estimation device 100a of the first embodiment, the state in which the host vehicle is stopped is determined, and the visual stimulus is displayed on the display unit 230 when it is determined that the vehicle is in a stopped state. The effective visual angle of the driver when the displayed visual stimulus is visually recognized by the driver is derived and stored. Since the driver's effective viewing angle is derived each time the host vehicle is determined to be in a stopped state, a predetermined condition (FIG. 6) that defines the relationship between the relative change amount of the effective viewing angle and the driver's state. The state of the driver is estimated.

したがって、第1の実施形態の運転者状態推定装置100aは、経時的に導出された運転者の有効視野角度の相対的な変化量の比較により推定された推定結果情報を、運転者の有効視野角度が時間的に変化する原因と特定することができる。更に、第1の実施形態の運転者状態推定装置100aでは、自車両が停車状態である場合に有効視野角度が導出される。このため、運転者の中心視野方向を見る負荷はほぼ一定となり、外的要因に基づく有効視野角度の時間的に変化する原因が排除された状態で、有効視野角度が時間的に変化する原因を具体的に特定することができる。   Therefore, the driver state estimation device 100a according to the first embodiment uses the estimation result information estimated by comparing the relative change amount of the driver's effective visual field angle derived over time as the driver's effective visual field. It can be identified as the cause that the angle changes with time. Furthermore, in the driver state estimation device 100a of the first embodiment, the effective viewing angle is derived when the host vehicle is in a stopped state. For this reason, the driver's load to see the central visual field direction is almost constant, and the cause of the effective visual angle changing with time is eliminated while eliminating the cause of the temporal change of the effective visual angle based on external factors. It can be specifically identified.

また、単一のある時点における運転者の視覚刺激の視認有無に応じた運転者の有効視野角度に基づく運転者状態は推定されない。少なくとも2つの時点における運転者の視覚刺激角度の視認有無に応じた運転者の有効視野角度の相対変化量に基づく運転者状態が推定される。このため、有効視野角度の時間的な相対変化の発生要因が推定結果情報により判明するため、運転者の推定結果情報は当該情報の正確性が高い。   In addition, the driver state based on the driver's effective viewing angle according to whether or not the driver's visual stimulus is visually recognized at a single point in time is not estimated. The driver state is estimated based on the relative change amount of the driver's effective visual field angle according to whether or not the driver's visual stimulation angle is visually recognized at at least two time points. For this reason, since the cause of the temporal relative change in the effective viewing angle is found from the estimation result information, the driver's estimation result information is highly accurate.

更に、視野外側方向から視野内側方向に向かって所定時間間隔で視覚刺激が順番に表示されたときの運転者の視認有無に応じて運転者の有効視野角度が導出される。このため、注意散漫状態であるのか、疲労状態であるのか、要注意状態であるのか等、有効視野角度の変化の過程を考慮して運転者の状態を推定することができる。また、この推定された運転者の状態を、より適切な運転支援に活かすことができる。   Furthermore, the effective visual field angle of the driver is derived according to the presence or absence of the visual recognition of the driver when visual stimuli are sequentially displayed at predetermined time intervals from the visual field outer direction toward the visual field inner direction. For this reason, it is possible to estimate the driver's state in consideration of the process of changing the effective viewing angle, such as whether it is a distracted state, a fatigued state, or a cautionary state. Further, the estimated driver state can be utilized for more appropriate driving support.

なお、上記の説明では、視覚刺激制御部102aは、画像データ取得部220に記憶された運転者画像データのうち、最新に記憶された運転者画像データを取得するとして説明したが、この限りではない。運転者状態推定装置100aは図示しないタイマー部を備え、停車状態である旨を示す制御情報を取得した時刻をタイマー部により管理し、停車状態である旨を示す制御情報を取得した時刻、または所定の時間経過前もしくは後の時刻における運転者画像データを、画像データ取得部220から取得するとしてもよい。   In the above description, the visual stimulus control unit 102a has been described as acquiring the latest stored driver image data among the driver image data stored in the image data acquisition unit 220. Absent. The driver state estimation device 100a includes a timer unit (not shown), manages the time when the control information indicating that the vehicle is stopped is acquired by the timer unit, and acquires the control information that indicates that the vehicle is stopped, or a predetermined time. The driver image data at a time before or after the time may be acquired from the image data acquisition unit 220.

なお、画像データ取得部220は、3次元情報を取得できるステレオカメラや複眼カメラを備えることが望ましい。なお、上記の説明においては、運転者の視線方向およびアイポイントは、視覚刺激制御部102aにおいて算出されるとして説明したが、その限りではない。すなわち、画像データ取得部220が、視線方向のベクトル、またはx方向、y方向、及びz方向の角度、およびカメラにおける所定の基準座標に対する瞳孔位置の相対座標における位置を出力してもよい。   The image data acquisition unit 220 preferably includes a stereo camera or a compound eye camera that can acquire three-dimensional information. In the above description, the driver's line-of-sight direction and eye point are described as being calculated by the visual stimulus control unit 102a, but this is not a limitation. That is, the image data acquisition unit 220 may output a vector in the line-of-sight direction, or angles in the x, y, and z directions, and a position in the relative coordinates of the pupil position with respect to predetermined reference coordinates in the camera.

なお、以上の説明においては、視覚刺激制御部102aが画像データ取得部220から取得する運転者画像データは単数であるとして説明したが、その限りではない。すなわち、取得された運転者画像データが複数である場合、視覚刺激制御部102aは、複数の運転者画像データに基づいて、運転者の視線方向およびアイポイントの導出、または運転者が視覚刺激を視認したか否かの判定をすることができる。具体的には、複数の運転者画像データから導出された運転者の視線方向およびアイポイントを平均化処理してもよい。また、複数の運転者画像データに基づいて運転者の視線方向の変化を検知し、検知結果に基づいて、運転者が視覚刺激を認識したか否かを判定してもよい。   In the above description, the driver image data acquired by the visual stimulus control unit 102a from the image data acquisition unit 220 is described as being singular. However, the present invention is not limited to this. That is, when there are a plurality of acquired driver image data, the visual stimulus control unit 102a derives the driver's line-of-sight direction and eye point based on the plurality of driver image data, or the driver performs a visual stimulus. It is possible to determine whether or not the user has visually confirmed. Specifically, the driver's line-of-sight direction and eye point derived from a plurality of driver image data may be averaged. Further, a change in the driver's line-of-sight direction may be detected based on a plurality of driver image data, and it may be determined whether the driver has recognized a visual stimulus based on the detection result.

(第2の実施形態)
第2の実施形態に係る運転者状態推定装置100bを含む運転者状態推定システム1bについて図8を参照して説明する。図8は、第2の実施形態に係る運転者状態推定装置100bを含む運転者状態推定システム1bの構成を示すシステム構成図である。図8において、図1と同じ構成要素については同じ符号を用いる。以下、第2の実施形態では、第1の実施形態と異なる構成要素及び当該構成要素の動作について説明し、同一の内容については説明を省略する。
(Second Embodiment)
A driver state estimation system 1b including a driver state estimation device 100b according to the second embodiment will be described with reference to FIG. FIG. 8 is a system configuration diagram showing a configuration of a driver state estimation system 1b including a driver state estimation device 100b according to the second embodiment. In FIG. 8, the same components as those in FIG. Hereinafter, in the second embodiment, components different from those in the first embodiment and operations of the components will be described, and description of the same contents will be omitted.

図8に示すように、運転者状態推定システム1bは、運転者状態推定装置100b、速度情報出力部210、表示部230、運転支援部240、前景撮像用カメラ部250、及び通信部260を有する。運転者状態推定装置100bの内部構成は後述する。   As shown in FIG. 8, the driver state estimation system 1b includes a driver state estimation device 100b, a speed information output unit 210, a display unit 230, a driving support unit 240, a foreground imaging camera unit 250, and a communication unit 260. . The internal configuration of the driver state estimation device 100b will be described later.

速度情報出力部210は、第1の実施形態における速度情報出力部210と同様の機能を有し、自車両の速度に関する速度情報を、運転者状態推定装置100bに出力する。   The speed information output unit 210 has the same function as the speed information output unit 210 in the first embodiment, and outputs speed information related to the speed of the host vehicle to the driver state estimation device 100b.

表示部230、運転支援部240は、それぞれ実施の形態1における各部と同様の機能を有するため、説明を省略する。   Since the display unit 230 and the driving support unit 240 have the same functions as the respective units in the first embodiment, description thereof is omitted.

前景撮像用カメラ部250は、前景画像を所定時間ごとに撮像し、撮像された複数の前景画像データが前景撮像用カメラ部250に含まれるメモリに記憶される。ここで、撮像する所定時間の単位は、fpsで表現される。なお、メモリに記憶される前景画像データのうち、撮像時から所定の時間が経過した前景画像データは、自動的に消去されてもよい。前景撮像用カメラ部250は、撮像された前景画像を、運転者状態推定装置100bに出力する。   The foreground imaging camera unit 250 captures a foreground image every predetermined time, and a plurality of captured foreground image data is stored in a memory included in the foreground imaging camera unit 250. Here, the unit of the predetermined time for imaging is expressed in fps. Note that among the foreground image data stored in the memory, foreground image data for which a predetermined time has elapsed from the time of imaging may be automatically deleted. The foreground imaging camera unit 250 outputs the captured foreground image to the driver state estimation device 100b.

なお、前景撮像用カメラ部250は、運転者状態推定装置100bから出力された制御情報に基づいて撮像してもよい。   The foreground imaging camera unit 250 may capture an image based on the control information output from the driver state estimation device 100b.

また、前景撮像用カメラ部250がメモリを有し、撮像された複数の前景画像は、前景撮像用カメラ部250が有するメモリに前景画像データとして記憶されるとしたが、その限りではない。すなわち、メモリは前景撮像用カメラ部250とは別に設けられ、例えば、視覚刺激制御部102bに含まれてもよい。以下では、前景撮像用カメラ部250がメモリを有するとして説明する。   In addition, although the foreground imaging camera unit 250 includes a memory and the plurality of captured foreground images are stored as foreground image data in the memory included in the foreground imaging camera unit 250, the present invention is not limited thereto. That is, the memory is provided separately from the foreground imaging camera unit 250 and may be included in the visual stimulus control unit 102b, for example. In the following description, it is assumed that the foreground imaging camera unit 250 has a memory.

通信部260は、運転者状態推定装置100bからの指示に基づいて、不図示の信号機と無線で通信し、信号機における赤信号状態の残り時間に関する時間情報を取得する。通信部260は、赤信号状態の残り時間に関する時間情報を運転者状態推定装置100bに出力する。   The communication unit 260 communicates wirelessly with a traffic light (not shown) based on an instruction from the driver state estimation device 100b, and acquires time information regarding the remaining time of the red light state in the traffic light. The communication unit 260 outputs time information regarding the remaining time of the red signal state to the driver state estimation device 100b.

(運転者状態推定装置の内部構成)
図9は、第2の実施形態の運転者状態推定装置100bの内部構成を示す。図9に示すように、運転者状態推定装置100bは、停車状態判定部101b、画像データ取得部220、視覚刺激制御部102b、有効視野角度導出部103b、記憶部104b、運転者状態推定部105b、及び信号機状態判定部106を有する。図10は、図9に示す運転者状態推定装置100bの動作を説明するフローチャートを示す。以下、第2の実施形態における運転者状態推定装置および方法の説明をする。
(Internal configuration of driver state estimation device)
FIG. 9 shows an internal configuration of the driver state estimation device 100b of the second embodiment. As shown in FIG. 9, the driver state estimation device 100b includes a stop state determination unit 101b, an image data acquisition unit 220, a visual stimulus control unit 102b, an effective visual field angle derivation unit 103b, a storage unit 104b, and a driver state estimation unit 105b. And a traffic light state determination unit 106. FIG. 10 shows a flowchart for explaining the operation of the driver state estimating apparatus 100b shown in FIG. Hereinafter, the driver state estimation apparatus and method in the second embodiment will be described.

停車状態判定部101bは、速度情報出力部210から出力された速度情報を取得する。停車状態判定部101bは、速度情報に基づいて、自車両が停車状態であるか否かを判定する(S201)。ここで、停車状態とは、自車両が完全に停車している場合、または所定の速度以下である場合をいう。   The stop state determination unit 101b acquires the speed information output from the speed information output unit 210. The stop state determination unit 101b determines whether the host vehicle is in a stop state based on the speed information (S201). Here, the stop state refers to the case where the host vehicle is completely stopped or the vehicle is at a predetermined speed or less.

停車状態判定部101bは、自車両が停車状態であると判定した場合には、停車状態である旨を示す制御情報を、信号機状態判定部106に出力する(S201のYes)。停車状態判定部101bは、自車両が停車状態ではないと判定した場合には、自車両が停車状態と判定されるまで待機する(S201のNo)。   When it is determined that the host vehicle is in a stopped state, the stop state determining unit 101b outputs control information indicating that the host vehicle is in a stopped state to the traffic light state determining unit 106 (Yes in S201). When it is determined that the host vehicle is not in the stopped state, the stop state determining unit 101b waits until it is determined that the host vehicle is in the stopped state (No in S201).

信号機状態判定部106は、停車状態である旨を示す制御情報を停車状態判定部101bから取得したことに応じて、前景画像データを前景撮像用カメラ部250から取得する。信号機状態判定部106は、取得された前景画像データに基づいて、前景画像に信号機が含まれるか否かを判定し、信号機が含まれる場合は、赤信号状態であるか否かを判定する(S202)。   The traffic light state determination unit 106 acquires foreground image data from the foreground imaging camera unit 250 in response to acquiring control information indicating that the vehicle is in a stopped state from the stop state determination unit 101b. Based on the acquired foreground image data, the traffic light state determination unit 106 determines whether or not the foreground image includes a traffic light. If the traffic light includes a traffic light, the traffic light state determination unit 106 determines whether or not the traffic light is in a red signal state ( S202).

信号機状態判定部106が前景撮像用カメラ部250から取得する前景画像データは、前景撮像用カメラ部250に記憶された前景画像データのうち、最新に記憶された前景画像データであることが望ましい。   The foreground image data acquired by the traffic light state determination unit 106 from the foreground imaging camera unit 250 is preferably foreground image data stored most recently among the foreground image data stored in the foreground imaging camera unit 250.

なお、信号機状態判定部106が取得する前景画像データは、単数でもよく、また複数でもよい。複数の場合は、信号機状態判定部106は、最新に記憶された前景画像データ、および直近に記憶された複数の前景画像データを取得する。以下の説明においては、単数であるとして説明する。   The foreground image data acquired by the traffic light state determination unit 106 may be singular or plural. In the case of a plurality of signals, the traffic light state determination unit 106 acquires the most recently stored foreground image data and the most recently stored foreground image data. In the following description, it is assumed that the number is single.

信号機状態判定部106は、撮像された前景画像の信号機が赤信号状態であると判定した場合には、信号機と無線で通信する旨を示す制御情報を、通信部260に出力する。信号機状態判定部106は、通信部260を介して、赤信号状態の残り時間に関する時間情報を取得する。   When the traffic light state determination unit 106 determines that the traffic light of the captured foreground image is in a red signal state, the traffic light state determination unit 106 outputs control information indicating that the signal device wirelessly communicates with the traffic light to the communication unit 260. The traffic light state determination unit 106 acquires time information regarding the remaining time of the red signal state via the communication unit 260.

信号機状態判定部106は、取得された赤信号状態の残り時間に関する時間情報に基づいて、残り時間が予め設定された所定時間以上であるかを判定する。信号機状態判定部106は、残り時間が所定時間以上であると判定した場合、信号機が赤信号状態である旨を示す制御情報を視覚刺激制御部102bに出力する(S202のYes)。   The traffic light state determination unit 106 determines whether or not the remaining time is equal to or longer than a predetermined time set in advance based on the acquired time information regarding the remaining time of the red light state. When it is determined that the remaining time is equal to or longer than the predetermined time, the traffic light state determination unit 106 outputs control information indicating that the traffic light is in a red signal state to the visual stimulus control unit 102b (Yes in S202).

信号機状態判定部106は、前景画像データにおいて赤信号が認識されない場合、又は、当該赤信号状態の残り時間が当該所定時間未満と判定された場合には、赤信号状態の残り時間が予め設定された所定時間以上であると判定されるまで待機する(S202のNo)。   The traffic light state determination unit 106 presets the remaining time of the red signal state when the red signal is not recognized in the foreground image data or when the remaining time of the red signal state is determined to be less than the predetermined time. The process waits until it is determined that the predetermined time is exceeded (No in S202).

視覚刺激制御部102bは、赤信号状態である旨を示す制御情報を信号機状態判定部106から取得したことに応じて、運手者画像データを画像データ取得部220から取得する。視覚刺激制御部102bの動作については、実施の形態1において説明したため、以降の処理フローは説明を省略する(S102)。   The visual stimulus control unit 102b acquires the operator image data from the image data acquisition unit 220 in response to the acquisition of the control information indicating the red signal state from the traffic light state determination unit 106. Since the operation of the visual stimulus control unit 102b has been described in the first embodiment, the description of the subsequent processing flow is omitted (S102).

また、画像データ取得部220、有効視野角度導出部103b、記憶部104b、及び運転者状態推定部105bの機能は、実施の形態1において説明したため、説明を省略する。   In addition, since the functions of the image data acquisition unit 220, the effective viewing angle derivation unit 103b, the storage unit 104b, and the driver state estimation unit 105b have been described in the first embodiment, description thereof will be omitted.

以上のように、第2の実施形態の運転者状態推定装置100bでは、自車両が停車状態に加え、信号機の赤信号の状態が所定時間以上継続すると判定された場合に、視覚刺激が表示部230に表示される。この表示された視覚刺激が運転者により視認された場合の運転者の有効視野角度が導出されて記憶される。自車両が停車状態と判定される度に、運転者の有効視野角度が導出されるため、有効視野角度の相対的な変化量と運転者状態との関係が定められた所定の条件に応じて、運転者の状態が推定される。   As described above, in the driver state estimation device 100b according to the second embodiment, the visual stimulus is displayed on the display unit when it is determined that the state of the red signal of the traffic light continues for a predetermined time or more in addition to the host vehicle being stopped. 230. The effective visual angle of the driver when the displayed visual stimulus is visually recognized by the driver is derived and stored. Since the driver's effective viewing angle is derived each time the host vehicle is determined to be in a stopped state, the relationship between the relative change amount of the effective viewing angle and the driver state is determined according to a predetermined condition. The driver's condition is estimated.

したがって、第2の実施形態の運転者状態推定装置100bは、第1の実施形態の運転者状態推定装置100aに比べて、有効視野角度の導出過程中に当該自車両が走行状態になる状況を防止するため、より安全な状態で、運転者の状態を推定することができる。   Therefore, the driver state estimation device 100b according to the second embodiment is more sensitive to the situation in which the host vehicle is in a traveling state during the process of deriving the effective viewing angle than the driver state estimation device 100a according to the first embodiment. In order to prevent this, the driver's state can be estimated in a safer state.

(第3の実施形態)
第3の実施形態に係る運転者状態推定装置100cを含む運転者状態推定システム1cについて図11を参照して説明する。図11は、第3の実施形態に係る運転者状態推定装置100cを含む運転者状態推定システム1cの構成を示すシステム構成図である。図11において、図1と同じ構成要素については同じ符号を用いる。以下、第3の実施形態では、第1の実施形態と異なる構成要素及び当該構成要素の動作について説明し、同一の内容については説明を省略する。
(Third embodiment)
A driver state estimation system 1c including a driver state estimation device 100c according to a third embodiment will be described with reference to FIG. FIG. 11 is a system configuration diagram showing a configuration of a driver state estimation system 1c including a driver state estimation device 100c according to the third embodiment. In FIG. 11, the same reference numerals are used for the same components as in FIG. Hereinafter, in the third embodiment, components different from those in the first embodiment and operations of the components will be described, and description of the same contents will be omitted.

図11に示すように、運転者状態推定システム1cは、運転者状態推定装置100c、速度情報出力部210、表示部230、運転支援部240、及び照度センサ270を有する。運転者状態推定装置100cの内部構成は後述する。   As illustrated in FIG. 11, the driver state estimation system 1c includes a driver state estimation device 100c, a speed information output unit 210, a display unit 230, a driving support unit 240, and an illuminance sensor 270. The internal configuration of the driver state estimation device 100c will be described later.

速度情報出力部210は、第1の実施形態における速度情報出力部210と同様の機能を有し、自車両の速度に関する速度情報を、運転者状態推定装置100cに出力する。   The speed information output unit 210 has the same function as the speed information output unit 210 in the first embodiment, and outputs speed information related to the speed of the host vehicle to the driver state estimation device 100c.

表示部230、運転支援部240は、それぞれ実施の形態1における各部と同様の機能を有するため、説明を省略する。   Since the display unit 230 and the driving support unit 240 have the same functions as the respective units in the first embodiment, description thereof is omitted.

照度センサ270は、自車両に設置されるセンサであり、自車両の周囲の明るさを所定時間ごとに計測する。照度センサ270は、計測された自車両の周囲の明るさに関する情報を運転者状態推定装置100cに出力する。なお、照度センサ270は、運転者状態推定装置100cからの指示に基づいて、自車両の周囲の明るさを計測してもよい。   The illuminance sensor 270 is a sensor installed in the host vehicle, and measures the brightness around the host vehicle every predetermined time. The illuminance sensor 270 outputs information related to the measured brightness around the host vehicle to the driver state estimation device 100c. The illuminance sensor 270 may measure the brightness around the host vehicle based on an instruction from the driver state estimation device 100c.

(運転者状態推定装置の内部構成)
図12は、第3の実施形態の運転者状態推定装置100cの内部構成を示す。図12に示すように、運転者状態推定装置100cは、停車状態判定部101c、画像データ取得部220、視覚刺激制御部102c、有効視野角度導出部103c、記憶部104c、運転者状態推定部105c、及びコントラスト調整部107を有する。以下、第3の実施形態における運転者状態推定装置および方法の説明をする。
(Internal configuration of driver state estimation device)
FIG. 12 shows an internal configuration of the driver state estimation device 100c of the third embodiment. As shown in FIG. 12, the driver state estimation device 100c includes a stop state determination unit 101c, an image data acquisition unit 220, a visual stimulus control unit 102c, an effective visual field angle derivation unit 103c, a storage unit 104c, and a driver state estimation unit 105c. And a contrast adjusting unit 107. Hereinafter, the driver state estimation apparatus and method in the third embodiment will be described.

停車状態判定部101cは、速度情報出力部210から出力された速度情報を取得する。停車状態判定部101cは、速度情報に基づいて、自車両が停車状態であるか否かを判定する。ここで、停車状態とは、自車両が完全に停車している場合、または所定の速度以下である場合をいう。   The stop state determination unit 101c acquires the speed information output from the speed information output unit 210. The stop state determination unit 101c determines whether the host vehicle is in a stop state based on the speed information. Here, the stop state refers to the case where the host vehicle is completely stopped or the vehicle is at a predetermined speed or less.

コントラスト調整部107は、照度センサ270から出力された自車両の周囲の明るさに関する情報を取得する。コントラスト調整部107は、取得された自車両の周囲の明るさに関する情報に応じて、自車両の周囲の明るさと、視覚刺激制御部102cにより表示される視覚刺激との輝度コントラストが一定になるように制御する。   The contrast adjustment unit 107 acquires information about the brightness around the host vehicle output from the illuminance sensor 270. The contrast adjustment unit 107 makes the brightness contrast between the brightness around the host vehicle and the visual stimulus displayed by the visual stimulus control unit 102c constant according to the acquired information about the brightness around the host vehicle. To control.

具体的には、コントラスト調整部107は、視覚刺激制御部102cにより表示される視覚刺激と、照度センサ270により出力された自車両の周囲の明るさとの比の値が一定になるように、視覚刺激の表示輝度を調整する。例えば、昼間等で自車両の周囲が明るい場合には、視覚刺激の輝度が大きくなるような調整がなされる。一方、夜間等で自車両の周囲が暗い場合には、視覚刺激の輝度が小さくなるような調整がなされる。   Specifically, the contrast adjustment unit 107 visually adjusts the ratio of the visual stimulus displayed by the visual stimulus control unit 102c and the brightness of the surroundings of the host vehicle output by the illuminance sensor 270 to be constant. Adjust the display brightness of the stimulus. For example, when the surroundings of the host vehicle are bright during the daytime or the like, adjustment is performed so that the luminance of the visual stimulus is increased. On the other hand, when the surroundings of the host vehicle are dark at night or the like, an adjustment is made so that the luminance of the visual stimulus is reduced.

コントラスト調整部107は、調整された視覚刺激の輝度に関する情報、及び調整された視覚刺激の輝度に応じて視覚刺激を表示する旨の制御情報を視覚刺激制御部102cに出力する。   The contrast adjustment unit 107 outputs information regarding the brightness of the adjusted visual stimulus and control information indicating that the visual stimulus is displayed according to the adjusted brightness of the visual stimulus to the visual stimulus control unit 102c.

視覚刺激制御部102cは、コントラスト調整部107により出力された視覚刺激の輝度に応じて視覚刺激を表示する旨の制御情報を取得する。視覚刺激制御部102bは、この取得された制御情報に応じて、運転者の視野外側方向から視野内側方向に向けて所定時間間隔で順番に、コントラスト調整部107により調整された視覚刺激の輝度に対応した視覚刺激を表示部230に表示させる。   The visual stimulus control unit 102c acquires control information indicating that the visual stimulus is displayed according to the luminance of the visual stimulus output by the contrast adjusting unit 107. In accordance with the acquired control information, the visual stimulus control unit 102b changes the luminance of the visual stimulus adjusted by the contrast adjustment unit 107 in order at predetermined time intervals from the driver's outer field of view to the inner field of view. The corresponding visual stimulus is displayed on the display unit 230.

なお、視覚刺激制御部102c、有効視野角度導出部103c、記憶部104c、及び運転者状態推定部105cの機能は、実施の形態1における機能とそれぞれ同じであるため、説明を省略する。   Note that the functions of the visual stimulus control unit 102c, the effective visual field angle deriving unit 103c, the storage unit 104c, and the driver state estimation unit 105c are the same as the functions in the first embodiment, and thus description thereof is omitted.

以上のように、第3の実施形態の運転者状態推定装置100cでは、自車両の周囲の明るさを考慮して、視覚刺激のコントラストを調整して表示部230に表示させるため、第3の実施形態の運転者状態推定装置100cは、第1の実施形態の運転者状態推定装置100aに比べて、より正確に運転者の状態を推定することができる。   As described above, in the driver state estimation device 100c of the third embodiment, the contrast of the visual stimulus is adjusted and displayed on the display unit 230 in consideration of the brightness around the host vehicle. The driver state estimation device 100c according to the embodiment can estimate the driver's state more accurately than the driver state estimation device 100a according to the first embodiment.

(第4の実施形態)
第4の実施形態に係る運転者状態推定装置100dを含む運転者状態推定システム1dについて図13を参照して説明する。図13は、第4の実施形態に係る運転者状態推定装置100dを含む運転者状態推定システム1dの構成を示すシステム構成図である。図13において、図1と同じ構成要素については同じ符号を用いる。以下、第4の実施形態では、第1の実施形態と異なる構成要素及び当該構成要素の動作について説明し、同一の内容については説明を省略する。
(Fourth embodiment)
A driver state estimation system 1d including a driver state estimation device 100d according to a fourth embodiment will be described with reference to FIG. FIG. 13 is a system configuration diagram illustrating a configuration of a driver state estimation system 1d including a driver state estimation device 100d according to the fourth embodiment. In FIG. 13, the same components as those in FIG. Hereinafter, in the fourth embodiment, components different from those in the first embodiment and operations of the components will be described, and description of the same contents will be omitted.

図13に示すように、運転者状態推定システム1dは、運転者状態推定装置100d、速度情報出力部210、表示部230、運転支援部240、及び前景撮像用カメラ250を有する。運転者状態推定装置100dの内部構成は後述する。   As illustrated in FIG. 13, the driver state estimation system 1d includes a driver state estimation device 100d, a speed information output unit 210, a display unit 230, a driving support unit 240, and a foreground imaging camera 250. The internal configuration of the driver state estimation device 100d will be described later.

速度情報出力部210は、第1の実施形態における速度情報出力部210と同様の機能を有し、自車両の速度に関する速度情報を、運転者状態推定装置100dに出力する。   The speed information output unit 210 has the same function as the speed information output unit 210 in the first embodiment, and outputs speed information related to the speed of the host vehicle to the driver state estimation device 100d.

表示部230、及び運転支援部240は、それぞれ実施の形態1における各部と同様の機能を有するため、説明を省略する。   Since the display unit 230 and the driving support unit 240 have the same functions as the respective units in the first embodiment, description thereof is omitted.

また、前景撮像用カメラ部250の機能は、実施の形態2において説明したとおりであるため、説明を省略する。   The function of the foreground imaging camera unit 250 is the same as that described in the second embodiment, and a description thereof will be omitted.

(運転者状態推定装置の内部構成)
図14は、第4の実施形態の運転者状態推定装置100dの内部構造を示す。図14に示すように、運転者状態推定装置100dは、停車状態判定部101d、画像データ取得部220、視覚刺激制御部102d、有効視野角度導出部103d、記憶部104d、運転者状態推定部105d、及び閾値調整部108を有する。以下、第4の実施形態における運転者状態推定装置および方法の説明をする。
(Internal configuration of driver state estimation device)
FIG. 14 shows the internal structure of the driver state estimation device 100d of the fourth embodiment. As shown in FIG. 14, the driver state estimation device 100d includes a stop state determination unit 101d, an image data acquisition unit 220, a visual stimulus control unit 102d, an effective visual field angle derivation unit 103d, a storage unit 104d, and a driver state estimation unit 105d. And a threshold adjustment unit 108. Hereinafter, the driver state estimation apparatus and method in the fourth embodiment will be described.

停車状態判定部101dは、速度情報出力部210から出力された速度情報を取得する。停車状態判定部101dは、速度情報に基づいて、自車両が停車状態であるか否かを判定する。ここで、停車状態とは、自車両が完全に停車している場合、または所定の速度以下である場合をいう。   The stop state determination unit 101d acquires the speed information output from the speed information output unit 210. The stop state determination unit 101d determines whether or not the host vehicle is in a stop state based on the speed information. Here, the stop state refers to the case where the host vehicle is completely stopped or the vehicle is at a predetermined speed or less.

画像データ取得部220、視覚刺激制御部102c、有効視野角度導出部103c、及び記憶部104cの機能は、実施の形態1における機能とそれぞれ同じであるため、説明を省略する。   The functions of the image data acquisition unit 220, the visual stimulus control unit 102c, the effective viewing angle derivation unit 103c, and the storage unit 104c are the same as the functions in the first embodiment, and thus the description thereof is omitted.

閾値調整部108は、前景撮像用カメラ250から出力された前景画像データを取得する。閾値調整部108は、取得された前景画像データが示す前景画像の複雑さに応じて、運転者状態を推定するための閾値βを調整する。具体的には、閾値調整部108は、前景撮像用カメラ部250から出力された前景画像データに基づいて、前景画像の空間周波数を抽出する。前景画像の空間周波数は、前景画像の複雑さを示すパラメータである。一般に、画像の空間周波数が低いと、当該画像は複雑ではないとされる。また、画像の空間周波数が高いと、画像は複雑であるとされる。閾値調整部108は、前景画像の空間周波数と推定閾値との関係に従って、抽出された空間周波数に対応した推定閾値を決定する。なお、この閾値βは、第1の実施形態と同様である。 The threshold adjustment unit 108 acquires the foreground image data output from the foreground imaging camera 250. The threshold adjustment unit 108 adjusts the threshold β 1 for estimating the driver state according to the complexity of the foreground image indicated by the acquired foreground image data. Specifically, the threshold adjustment unit 108 extracts the spatial frequency of the foreground image based on the foreground image data output from the foreground imaging camera unit 250. The spatial frequency of the foreground image is a parameter indicating the complexity of the foreground image. Generally, when the spatial frequency of an image is low, the image is not complicated. Further, when the spatial frequency of the image is high, the image is considered to be complicated. The threshold adjustment unit 108 determines an estimated threshold corresponding to the extracted spatial frequency according to the relationship between the spatial frequency of the foreground image and the estimated threshold. This threshold value β 1 is the same as that in the first embodiment.

前景画像の空間周波数と閾値βとの関係について、図15を参照して説明する。図15は、閾値と前景画像の空間周波数との関係の一例を示した図面である。図15において、前景画像の空間周波数が低いとき、運転者状態を推定するための閾値βは大きい値に調整される。一方、前景画像の空間周波数が高いとき、閾値βは小さい値に調整される。閾値調整部108は、調整された閾値に関する情報を運転者状態推定部105dに出力する。また、閾値調整部108による閾値の調整の処理は、運転者状態推定部105dによる運転者状態の推定の処理の前に行われていれば良い。 Relationship between the spatial frequency and the threshold value beta 1 of the foreground image will be described with reference to FIG. 15. FIG. 15 is a diagram illustrating an example of the relationship between the threshold and the spatial frequency of the foreground image. 15, when the low spatial frequencies of the foreground image, the threshold beta 1 for estimating a driver's state is adjusted to a higher value. On the other hand, when the high spatial frequencies of the foreground image, the threshold beta 1 is adjusted to a small value. The threshold adjustment unit 108 outputs information on the adjusted threshold to the driver state estimation unit 105d. In addition, the threshold adjustment processing by the threshold adjustment unit 108 may be performed before the driver state estimation processing by the driver state estimation unit 105d.

運転者状態推定部105dは、閾値調整部108から出力された閾値に関する情報を取得する。運転者状態推定部105dは、有効視野角度導出部103dから出力された運転者の有効視野角度α、及び記憶部から過去の有効視野角度関連情報50をそれぞれ取得する。以降の処理は、実施の形態1と同様であるため、説明を省略する。 The driver state estimation unit 105d acquires information on the threshold value output from the threshold value adjustment unit 108. The driver state estimation unit 105d acquires the effective visual field angle α m of the driver output from the effective visual field angle deriving unit 103d, and the past effective visual field angle related information 50 from the storage unit. Since the subsequent processing is the same as that of the first embodiment, description thereof is omitted.

以上のように、第4の実施形態の運転者状態推定装置100dでは、撮像される自車両の前景画像の複雑さに応じて、運転者状態を推定するための閾値を調整することにより、有効視野角度の導出時における前景の複雑さの違いの影響を考慮した運転者状態の推定ができるため、運転者状態をさらに正確に推定することができる。   As described above, the driver state estimation device 100d according to the fourth embodiment is effective by adjusting the threshold for estimating the driver state according to the complexity of the foreground image of the subject vehicle to be captured. Since the driver state can be estimated in consideration of the influence of the difference in complexity of the foreground when the viewing angle is derived, the driver state can be estimated more accurately.

なお、前景画像の空間周波数と推定閾値との関係は、図15に示した関係に限定されない。例えば、抽出された空間周波数の値が所定の範囲の場合に推定閾値が所定量調整されても良い。   Note that the relationship between the spatial frequency of the foreground image and the estimation threshold is not limited to the relationship illustrated in FIG. For example, the estimated threshold value may be adjusted by a predetermined amount when the extracted spatial frequency value is within a predetermined range.

(第5の実施形態)
次に、第5の実施形態に係る運転者状態推定装置100eを含む運転者状態推定システム1eについて図16を参照して説明する。図16は、第5の実施形態に係る運転者状態推定装置100eを含む運転者状態推定システム1eの構成を示すシステム構成図である。図16において、図1と同じ構成要素については同じ符号を用いる。以下、第5の実施形態では、第1の実施形態と異なる構成要素及び当該構成要素の動作について説明し、同一の内容については説明を省略する。
(Fifth embodiment)
Next, a driver state estimation system 1e including a driver state estimation device 100e according to a fifth embodiment will be described with reference to FIG. FIG. 16 is a system configuration diagram illustrating a configuration of a driver state estimation system 1e including a driver state estimation device 100e according to the fifth embodiment. In FIG. 16, the same components as those in FIG. Hereinafter, in the fifth embodiment, components different from those in the first embodiment and operations of the components will be described, and description of the same contents will be omitted.

図16に示すように、運転者状態推定システム1eは、運転者状態推定装置100e、速度情報出力部210、表示部230、運転支援部240及びナビゲーション装置280を有する。運転者状態推定装置100eの内部構成は、図1に示した運転者状態推定装置100aと同様である。   As illustrated in FIG. 16, the driver state estimation system 1e includes a driver state estimation device 100e, a speed information output unit 210, a display unit 230, a driving support unit 240, and a navigation device 280. The internal configuration of the driver state estimating device 100e is the same as that of the driver state estimating device 100a shown in FIG.

速度情報出力部210は、第1の実施形態における速度情報出力部210と同様の機能を有し、自車両の速度に関する速度情報を、運転者状態推定装置100eに出力する。   The speed information output unit 210 has the same function as the speed information output unit 210 in the first embodiment, and outputs speed information related to the speed of the host vehicle to the driver state estimation device 100e.

表示部230、及び運転支援部240は、それぞれ実施の形態1における各部と同様の機能を有するため、説明を省略する。   Since the display unit 230 and the driving support unit 240 have the same functions as the respective units in the first embodiment, description thereof is omitted.

ナビゲーション装置280は、自車両に設置され、GPS(Global Positioning System)機能に基づいて自車両が走行している走行道路情報を当該自動車の動作中において認識し、この認識されている走行道路情報を運転者状態推定部100eに出力する。また、ナビゲーション装置280は、有効視野角度の導出場所及び天候情報を運転者状態推定装置100eに出力しても良い。   The navigation device 280 is installed in the host vehicle and recognizes the traveling road information on which the host vehicle is traveling based on the GPS (Global Positioning System) function during the operation of the vehicle. It outputs to the driver state estimation part 100e. Moreover, the navigation apparatus 280 may output the derivation | leading-out place of an effective visual field angle, and a weather information to the driver | operator state estimation apparatus 100e.

(運転者状態推定装置の内部構成)
図16に示すように、運転者状態推定装置100eは、停車状態判定部101e、画像データ取得部220、視覚刺激制御部102e、有効視野角度導出部103e、記憶部104e及び運転者状態推定部105eを有する。以下、第1の実施形態の運転者状態推定装置100aの各構成要素と同一の動作を行う構成要素の説明は省略する。
(Internal configuration of driver state estimation device)
As shown in FIG. 16, the driver state estimation device 100e includes a stop state determination unit 101e, an image data acquisition unit 220, a visual stimulus control unit 102e, an effective visual field angle derivation unit 103e, a storage unit 104e, and a driver state estimation unit 105e. Have Hereinafter, description of the component which performs the same operation | movement as each component of the driver state estimation apparatus 100a of 1st Embodiment is abbreviate | omitted.

停車状態判定部101eは、速度情報出力部210から出力された自車両の速度情報、及び、ナビゲーション装置280から出力された走行道路情報をそれぞれ取得する。停車状態判定部101eは、速度情報及び走行道路情報に基づいて、所定の道路を所定の速度で走行しているか否かを判定する。ここで、所定の道路とは、高速道路の様に自車両がほぼ一定の速度で走行することが期待される道路である。また、所定の速度範囲とは、例えば、80[km]/h[時間]±5[km]/h[時間]である。   The stop state determination unit 101e acquires the speed information of the host vehicle output from the speed information output unit 210 and the traveling road information output from the navigation device 280, respectively. The stop state determination unit 101e determines whether or not the vehicle is traveling on a predetermined road at a predetermined speed based on the speed information and the traveling road information. Here, the predetermined road is a road where the host vehicle is expected to travel at a substantially constant speed like an expressway. The predetermined speed range is, for example, 80 [km] / h [hour] ± 5 [km] / h [hour].

停車状態判定部101eは、所定の道路を所定のほぼ一定速度で走行している状態であると判定した場合、停車状態判定部101eは、視覚刺激を表示する旨の制御情報を視覚刺激制御部102eに出力する。所定の道路を所定のほぼ一定速度で走行している状態ではない場合には、停車状態判定部101eは、所定の道路を所定の速度で走行している状態であると判定されるまで待機する。   When the stop state determination unit 101e determines that the vehicle is traveling on a predetermined road at a predetermined substantially constant speed, the stop state determination unit 101e displays control information for displaying a visual stimulus as a visual stimulus control unit. To 102e. If the vehicle is not in a state of traveling on a predetermined road at a predetermined substantially constant speed, the stop state determination unit 101e waits until it is determined that the vehicle is traveling on a predetermined road at a predetermined speed. .

なお、画像データ取得部220、視覚刺激制御部102c、有効視野角度導出部103c、記憶部104c、及び運転者状態推定部105cの機能は、実施の形態1における機能とそれぞれ同じであるため、説明を省略する。   The functions of the image data acquisition unit 220, the visual stimulus control unit 102c, the effective visual field angle derivation unit 103c, the storage unit 104c, and the driver state estimation unit 105c are the same as the functions in the first embodiment, respectively. Is omitted.

なお、記憶部104eは、第1の実施形態の有効視野角度関連情報50に加え、「走行速度」及び「走行道路」等の情報を含めて有効視野角度関連情報50として記憶しても良い。   Note that the storage unit 104e may store information such as “traveling speed” and “traveling road” as the effective viewing angle related information 50 in addition to the effective viewing angle related information 50 of the first embodiment.

なお、運転者状態推定部105eは、例えば、図6に示した対比表を用いて、導出された有効視野角度の相対的な変化量に基づいて運転者状態を推定する。また、第1の実施形態における「運転開始時の有効視野角度α」は、第5の実施形態においては「高速道路の走行開始時の有効視野角度α」と読み替える。 The driver state estimation unit 105e estimates the driver state based on the derived relative change amount of the effective viewing angle, for example, using the comparison table shown in FIG. Further, “effective viewing angle α 0 at the start of driving” in the first embodiment is read as “effective viewing angle α 0 at the start of driving on the highway” in the fifth embodiment.

以上のように、第5の実施形態の運転者状態推定装置100eでは、自車両が所定の道路を所定の速度で走行している状態が判定され、当該状態と判定された場合に視覚刺激が表示部230に表示される。この表示された視覚刺激が運転者により視認された場合の運転者の有効視野が導出されて記憶される。自車両が所定の道路を所定の速度で走行している状態と判定される度に、運転者の有効視野が導出されるため、有効視野の相対的な変化量と運転者状態との関係が定められた所定の条件(図6参照)に応じて、運転者の状態が推定される。   As described above, in the driver state estimation device 100e of the fifth embodiment, a state in which the host vehicle is traveling on a predetermined road at a predetermined speed is determined, and visual stimulation is generated when it is determined as the state. It is displayed on the display unit 230. The effective visual field of the driver when the displayed visual stimulus is visually recognized by the driver is derived and stored. Each time it is determined that the host vehicle is traveling on a predetermined road at a predetermined speed, the driver's effective field of view is derived. Therefore, the relationship between the relative change in the effective field of view and the driver state The driver's state is estimated according to the predetermined condition (see FIG. 6).

したがって、第5の実施形態の運転者状態推定装置100eは、経時的に導出された運転者の有効視野の相対的な変化量の比較により推定された運転者状態推定結果情報を、運転者の有効視野の経時変化の発生要因と特定することができる。更に、第5の実施形態の運転者状態推定装置100eでは、自車両が所定の道路を所定の速度で走行している状態である場合に有効視野が導出される。このため、運転者の中心視野方向を見る負荷はほぼ一定となり、高速道路走行中などの停車しない状況であっても、外的要因に基づく有効視野の経時変化の影響を受けずに、有効視野の経時変化の発生要因を具体的に特定することができる。   Therefore, the driver state estimation device 100e according to the fifth embodiment uses the driver state estimation result information estimated by comparing the relative change amount of the driver's effective visual field derived with time to the driver's state estimation result information. It can be identified as the cause of the change in the effective visual field over time. Furthermore, in the driver state estimation device 100e of the fifth embodiment, the effective visual field is derived when the host vehicle is traveling on a predetermined road at a predetermined speed. For this reason, the load of viewing the driver's central visual field direction is almost constant, and the effective visual field is not affected by changes in the effective visual field over time due to external factors even when the vehicle is not driving, such as when driving on an expressway. It is possible to specifically specify the cause of the change with time.

(第6の実施形態)
第6の実施形態に係る運転者状態推定装置100fを含む運転者状態推定システム1fについて、図17を参照して説明する。図17は、第6の実施形態に係る運転者状態推定装置100fを含む運転者状態推定システム1fの構成を示すシステム構成図である。図17において、図1ないし図14と同じ構成要素については同じ符号を用いる。以下、第6の実施形態では、第1の実施形態ないし第5の実施形態と異なる構成要素及び当該構成要素の動作について説明し、同一のないようについては説明を省略する。
(Sixth embodiment)
A driver state estimation system 1f including a driver state estimation device 100f according to a sixth embodiment will be described with reference to FIG. FIG. 17 is a system configuration diagram illustrating a configuration of a driver state estimation system 1f including a driver state estimation device 100f according to the sixth embodiment. In FIG. 17, the same components as those in FIGS. 1 to 14 are denoted by the same reference numerals. Hereinafter, in the sixth embodiment, constituent elements different from those in the first to fifth embodiments and operations of the constituent elements will be described, and description thereof will be omitted unless they are the same.

図17に示すように、運転者状態推定システム1fは、運転者状態推定装置100f、速度情報出力部210、表示部230、運転支援部240、前景撮像用カメラ部250、通信部260、及び照度センサ270を有する。運転者状態推定装置100fの内部構成は後述する。   As shown in FIG. 17, the driver state estimation system 1f includes a driver state estimation device 100f, a speed information output unit 210, a display unit 230, a driving support unit 240, a foreground imaging camera unit 250, a communication unit 260, and illuminance. A sensor 270 is included. The internal configuration of the driver state estimation device 100f will be described later.

速度情報出力部210は、第1の実施形態における速度情報出力部210と同様の機能を有し、自車両の速度に関する速度情報を、運転者状態推定装置100fに出力する。   The speed information output unit 210 has the same function as the speed information output unit 210 in the first embodiment, and outputs speed information related to the speed of the host vehicle to the driver state estimation device 100f.

表示部230、運転支援部240、前景撮像用カメラ部250、通信部260、及び照度センサ270は、それぞれ実施の形態1ないし実施の形態4における各部と同様の機能を有するため、説明を省略する。   The display unit 230, the driving support unit 240, the foreground imaging camera unit 250, the communication unit 260, and the illuminance sensor 270 have the same functions as the units in the first to fourth embodiments, and thus description thereof is omitted. .

運転者状態推定装置100fは、停車状態判定部101f、画像データ取得部220、視覚刺激制御部102f、有効視野角度導出部103f、記憶部104f、運転者状態推定部105f、信号機状態判定部106、コントラスト調整部107を有する。   The driver state estimation device 100f includes a stop state determination unit 101f, an image data acquisition unit 220, a visual stimulus control unit 102f, an effective viewing angle derivation unit 103f, a storage unit 104f, a driver state estimation unit 105f, a traffic light state determination unit 106, A contrast adjustment unit 107 is included.

停車状態判定部101f、画像データ取得部220、視覚刺激制御部102f、有効視野角度導出部103f、記憶部104f、運転者状態推定部105f、信号機状態判定部106、コントラスト調整部107の機能の説明は、実施の形態1ないし4において説明したため、説明を省略する。   Description of functions of the stop state determination unit 101f, the image data acquisition unit 220, the visual stimulus control unit 102f, the effective visual field angle derivation unit 103f, the storage unit 104f, the driver state estimation unit 105f, the traffic light state determination unit 106, and the contrast adjustment unit 107 Since it was demonstrated in Embodiment 1 thru | or Embodiment 4, description is abbreviate | omitted.

以上のように、第6の実施形態の運転者状態推定装置100fでは、自車両が停車状態に加え、信号機の赤信号の状態が所定時間以上継続すると判定された場合に、視覚刺激が表示部230に表示される。この表示された視覚刺激が運転者により視認された場合の運転者の有効視野角度が導出されて記憶される。自車両が停車状態と判定される度に、運転者の有効視野角度が導出されるため、有効視野角度の相対的な変化量と運転者状態との関係が定められた所定の条件に応じて、運転者の状態が推定される。   As described above, in the driver state estimation device 100f of the sixth embodiment, the visual stimulus is displayed on the display unit when it is determined that the state of the red signal of the traffic light continues for a predetermined time or more in addition to the host vehicle being stopped. 230. The effective visual angle of the driver when the displayed visual stimulus is visually recognized by the driver is derived and stored. Since the driver's effective viewing angle is derived each time the host vehicle is determined to be in a stopped state, the relationship between the relative change amount of the effective viewing angle and the driver state is determined according to a predetermined condition. The driver's condition is estimated.

したがって、第6の実施形態の運転者状態推定装置100fは、第1の実施形態の運転者状態推定装置100aに比べて、有効視野角度の導出過程中に当該自車両が走行状態になる状況を防止するため、より安全な状態で、運転者の状態を推定することができる。   Therefore, the driver state estimation device 100f according to the sixth embodiment is more sensitive to the situation in which the host vehicle is in a traveling state during the derivation process of the effective viewing angle than the driver state estimation device 100a according to the first embodiment. In order to prevent this, the driver's state can be estimated in a safer state.

さらに、自車両の周囲の明るさを考慮して、視覚刺激のコントラストを調整して表示部230に表示させるため、第6の実施形態の運転者状態推定装置100fは、第1の実施形態の運転者状態推定装置100aに比べて、より正確に運転者の状態を推定することができる。   Furthermore, in order to adjust the contrast of the visual stimulus and display it on the display unit 230 in consideration of the brightness around the host vehicle, the driver state estimation device 100f of the sixth embodiment is the same as that of the first embodiment. Compared with the driver state estimation device 100a, the state of the driver can be estimated more accurately.

(第7の実施形態)
第7の実施形態に係る運転者状態推定装置100gを含む運転者状態推定システム1gについて、図18を参照して説明する。図18は、第7の実施形態に係る運転者状態推定装置100gを含む運転者状態推定システム1gの構成を示すシステム構成図である。図18において、図1ないし図14と同じ構成要素については同じ符号を用いる。以下、第7の実施形態では、第1の実施形態ないし第4の実施形態と異なる構成要素及び当該構成要素の動作について説明し、同一のないようについては説明を省略する。
(Seventh embodiment)
A driver state estimation system 1g including a driver state estimation device 100g according to a seventh embodiment will be described with reference to FIG. FIG. 18 is a system configuration diagram illustrating a configuration of a driver state estimation system 1g including a driver state estimation device 100g according to the seventh embodiment. In FIG. 18, the same reference numerals are used for the same components as those in FIGS. 1 to 14. Hereinafter, in the seventh embodiment, constituent elements different from those in the first to fourth embodiments and operations of the constituent elements will be described, and descriptions thereof are omitted if they are not the same.

図18に示すように、運転者状態推定システム1gは、運転者状態推定装置100g、速度情報出力部210、表示部230、運転支援部240、前景撮像用カメラ部250、及び通信部260を有する。運転者状態推定装置100gの内部構成は後述する。   As illustrated in FIG. 18, the driver state estimation system 1g includes a driver state estimation device 100g, a speed information output unit 210, a display unit 230, a driving support unit 240, a foreground imaging camera unit 250, and a communication unit 260. . The internal configuration of the driver state estimation device 100g will be described later.

速度情報出力部210は、第1の実施形態における速度情報出力部210と同様の機能を有し、自車両の速度に関する速度情報を、運転者状態推定装置100gに出力する。   The speed information output unit 210 has the same function as the speed information output unit 210 in the first embodiment, and outputs speed information related to the speed of the host vehicle to the driver state estimation device 100g.

表示部230、運転支援部240、前景撮像用カメラ部250、及び通信部260は、それぞれ実施の形態1ないし実施の形態6における各部と同様の機能を有するため、説明を省略する。   The display unit 230, the driving support unit 240, the foreground imaging camera unit 250, and the communication unit 260 have the same functions as the units in the first to sixth embodiments, and thus the description thereof is omitted.

運転者状態推定装置100gは、停車状態判定部101g、画像データ取得部220、視覚刺激制御部102g、有効視野角度導出部103g、記憶部104g、運転者状態推定部105g、信号機状態判定部106、閾値調整部108を有する。   The driver state estimation device 100g includes a stop state determination unit 101g, an image data acquisition unit 220, a visual stimulus control unit 102g, an effective viewing angle derivation unit 103g, a storage unit 104g, a driver state estimation unit 105g, a traffic light state determination unit 106, A threshold adjustment unit 108 is included.

停車状態判定部101g、画像データ取得部220、視覚刺激制御部102g、有効視野角度導出部103g、記憶部104g、運転者状態推定部105g、信号機状態判定部106、閾値調整部108の機能の説明は、実施の形態1ないし4において説明したため、説明を省略する。   Description of functions of the stop state determination unit 101g, the image data acquisition unit 220, the visual stimulus control unit 102g, the effective viewing angle derivation unit 103g, the storage unit 104g, the driver state estimation unit 105g, the traffic light state determination unit 106, and the threshold adjustment unit 108 Since it was demonstrated in Embodiment 1 thru | or Embodiment 4, description is abbreviate | omitted.

以上のように、第7の実施形態の運転者状態推定装置100gでは、自車両が停車状態に加え、信号機の赤信号の状態が所定時間以上継続すると判定された場合に、視覚刺激が表示部230に表示される。この表示された視覚刺激が運転者により視認された場合の運転者の有効視野角度が導出されて記憶される。自車両が停車状態と判定される度に、運転者の有効視野角度が導出されるため、有効視野角度の相対的な変化量と運転者状態との関係が定められた所定の条件に応じて、運転者の状態が推定される。   As described above, in the driver state estimation device 100g according to the seventh embodiment, the visual stimulus is displayed on the display unit when it is determined that the state of the red signal of the traffic light continues for a predetermined time or more in addition to the host vehicle being stopped. 230. The effective visual angle of the driver when the displayed visual stimulus is visually recognized by the driver is derived and stored. Since the driver's effective viewing angle is derived each time the host vehicle is determined to be in a stopped state, the relationship between the relative change amount of the effective viewing angle and the driver state is determined according to a predetermined condition. The driver's condition is estimated.

したがって、第7の実施形態の運転者状態推定装置100gは、第1の実施形態の運転者状態推定装置100aに比べて、有効視野角度の導出過程中に当該自車両が走行状態になる状況を防止するため、より安全な状態で、運転者の状態を推定することができる。   Therefore, the driver state estimation device 100g according to the seventh embodiment is more sensitive to the situation in which the host vehicle is in a traveling state during the process of deriving the effective viewing angle than the driver state estimation device 100a according to the first embodiment. In order to prevent this, the driver's state can be estimated in a safer state.

さらに、撮像される自車両の前景画像の複雑さに応じて、運転者状態を推定するための閾値を調整することにより、有効視野角度の導出時における前景の複雑さの違いの影響を考慮した運転者状態の推定ができるため、運転者状態をさらに正確に推定することができる。   Furthermore, by adjusting the threshold for estimating the driver's state according to the complexity of the foreground image of the subject vehicle being imaged, the effect of the difference in foreground complexity when deriving the effective viewing angle was taken into account Since the driver state can be estimated, the driver state can be estimated more accurately.

(第8の実施形態)
第8の実施形態に係る運転者状態推定装置100hを含む運転者状態推定システム1hについて、図19を参照して説明する。図19は、第8の実施形態に係る運転者状態推定装置100hを含む運転者状態推定システム1hの構成を示すシステム構成図である。図19において、図1ないし図14と同じ構成要素については同じ符号を用いる。以下、第8の実施形態では、第1の実施形態ないし第4の実施形態と異なる構成要素及び当該構成要素の動作について説明し、同一のないようについては説明を省略する。
(Eighth embodiment)
A driver state estimation system 1h including a driver state estimation device 100h according to an eighth embodiment will be described with reference to FIG. FIG. 19 is a system configuration diagram showing a configuration of a driver state estimation system 1h including a driver state estimation device 100h according to the eighth embodiment. 19, the same reference numerals are used for the same components as those in FIGS. Hereinafter, in the eighth embodiment, components that are different from those in the first to fourth embodiments and operations of the components will be described, and descriptions of components that are not the same will be omitted.

図19に示すように、運転者状態システム1hは、運転者状態推定装置100h、速度情報出力部210、表示部230、運転支援部240、前景撮像用カメラ部250、及び照度センサ270を有する。運転者状態推定装置100hの内部構成は後述する。   As illustrated in FIG. 19, the driver state system 1h includes a driver state estimation device 100h, a speed information output unit 210, a display unit 230, a driving support unit 240, a foreground imaging camera unit 250, and an illuminance sensor 270. The internal configuration of the driver state estimation device 100h will be described later.

速度情報出力部210は、第1の実施形態における速度情報出力部210と同様の機能を有し、自車両の速度に関する速度情報を、運転者状態推定装置100hに出力する。   The speed information output unit 210 has the same function as the speed information output unit 210 in the first embodiment, and outputs speed information related to the speed of the host vehicle to the driver state estimation device 100h.

表示部230、運転支援部240、前景撮像用カメラ部250、及び照度センサ270は、それぞれ実施の形態1ないし実施の形態4における各部と同様の機能を有するため、説明を省略する。   The display unit 230, the driving support unit 240, the foreground imaging camera unit 250, and the illuminance sensor 270 have the same functions as the units in the first to fourth embodiments, and thus the description thereof is omitted.

運転者状態推定装置100hは、停車状態判定部101h、画像データ取得部220、視覚刺激制御部102h、有効視野角度導出部103h、記憶部104h、運転者状態推定部105h、コントラスト調整部107、および閾値調整部108を有する。   The driver state estimation device 100h includes a stop state determination unit 101h, an image data acquisition unit 220, a visual stimulus control unit 102h, an effective viewing angle derivation unit 103h, a storage unit 104h, a driver state estimation unit 105h, a contrast adjustment unit 107, and A threshold adjustment unit 108 is included.

運転者状態推定装置100hは、停車状態判定部101h、画像データ取得部220、視覚刺激制御部102h、有効視野角度導出部103h、記憶部104h、運転者状態推定部105h、コントラスト調整部107、および閾値調整部108の機能の説明は、実施の形態1ないし4において説明したため、説明を省略する。   The driver state estimation device 100h includes a stop state determination unit 101h, an image data acquisition unit 220, a visual stimulus control unit 102h, an effective viewing angle derivation unit 103h, a storage unit 104h, a driver state estimation unit 105h, a contrast adjustment unit 107, and Since the description of the function of the threshold adjustment unit 108 has been given in the first to fourth embodiments, the description thereof is omitted.

したがって、第8の実施形態の運転者状態推定装置100hは、撮像される自車両の前景画像の複雑さに応じて、運転者状態を推定するための閾値を調整することにより、有効視野角度の導出時における前景の複雑さの違いの影響を考慮した運転者状態の推定ができるため、運転者状態をさらに正確に推定することができる。   Therefore, the driver state estimation device 100h according to the eighth embodiment adjusts the threshold for estimating the driver state according to the complexity of the foreground image of the subject vehicle to be captured, thereby adjusting the effective viewing angle. Since the driver state can be estimated in consideration of the influence of the difference in complexity of the foreground at the time of derivation, the driver state can be estimated more accurately.

さらに、撮像される自車両の前景画像の複雑さに応じて、運転者状態を推定するための閾値を調整することにより、有効視野角度の導出時における前景の複雑さの違いの影響を考慮した運転者状態の推定ができるため、運転者状態をさらに正確に推定することができる。   Furthermore, by adjusting the threshold for estimating the driver's state according to the complexity of the foreground image of the subject vehicle being imaged, the effect of the difference in foreground complexity when deriving the effective viewing angle was taken into account Since the driver state can be estimated, the driver state can be estimated more accurately.

(第9の実施形態)
第9の実施形態に係る運転者状態推定装置100kを含む運転者状態推定システム1kについて、図20を参照して説明する。図20は、第9の実施形態に係る運転者状態推定装置100kを含む運転者状態推定システム1kの構成を示すシステム構成図である。図20において、図1ないし図14と同じ構成要素については同じ符号を用いる。以下、第9の実施形態では、第1の実施形態ないし第4の実施形態と異なる構成要素及び当該構成要素の動作について説明し、同一のないようについては説明を省略する。
(Ninth embodiment)
A driver state estimation system 1k including a driver state estimation device 100k according to a ninth embodiment will be described with reference to FIG. FIG. 20 is a system configuration diagram illustrating a configuration of a driver state estimation system 1k including a driver state estimation device 100k according to the ninth embodiment. 20, the same components as those in FIGS. 1 to 14 are denoted by the same reference numerals. Hereinafter, in the ninth embodiment, constituent elements different from those in the first to fourth embodiments and operations of the constituent elements will be described, and description thereof will be omitted if they are not the same.

図20に示すように、運転者状態推定システム1kは、運転者状態推定装置100k、速度情報出力部210、表示部230、運転支援部240、前景撮像用カメラ部250、通信部260、及び照度センサ270を有する。運転者状態推定装置100hの内部構成は後述する。   As shown in FIG. 20, the driver state estimation system 1k includes a driver state estimation device 100k, a speed information output unit 210, a display unit 230, a driving support unit 240, a foreground imaging camera unit 250, a communication unit 260, and an illuminance. A sensor 270 is included. The internal configuration of the driver state estimation device 100h will be described later.

速度情報出力部210は、第1の実施形態における速度情報出力部210と同様の機能を有し、自車両の速度に関する速度情報を、運転者状態推定装置100kに出力する。   The speed information output unit 210 has the same function as the speed information output unit 210 in the first embodiment, and outputs speed information related to the speed of the host vehicle to the driver state estimation device 100k.

表示部230、運転支援部240、前景撮像用カメラ部250、通信部260、及び照度センサ270は、それぞれ実施の形態1ないし実施の形態4における各部と同様の機能を有するため、説明を省略する。   The display unit 230, the driving support unit 240, the foreground imaging camera unit 250, the communication unit 260, and the illuminance sensor 270 have the same functions as the units in the first to fourth embodiments, and thus description thereof is omitted. .

運転者状態推定装置100kは、停車状態判定部101k、画像データ取得部220、視覚刺激制御部102k、有効視野角度導出部103k、記憶部104k、運転者状態推定部105k、コントラスト調整部107、および閾値調整部108を有する。   The driver state estimation device 100k includes a stop state determination unit 101k, an image data acquisition unit 220, a visual stimulus control unit 102k, an effective viewing angle derivation unit 103k, a storage unit 104k, a driver state estimation unit 105k, a contrast adjustment unit 107, and A threshold adjustment unit 108 is included.

運転者状態推定装置100kは、停車状態判定部101k、画像データ取得部220、視覚刺激制御部102k、有効視野角度導出部103k、記憶部104k、運転者状態推定部105k、コントラスト調整部107、および閾値調整部108の機能の説明は、実施の形態1ないし4において説明したため、説明を省略する。   The driver state estimation device 100k includes a stop state determination unit 101k, an image data acquisition unit 220, a visual stimulus control unit 102k, an effective viewing angle derivation unit 103k, a storage unit 104k, a driver state estimation unit 105k, a contrast adjustment unit 107, and Since the description of the function of the threshold adjustment unit 108 has been given in the first to fourth embodiments, the description thereof is omitted.

以上のように、第9の実施形態の運転者状態推定装置100kでは、自車両が停車状態に加え、信号機の赤信号の状態が所定時間以上継続すると判定された場合に、視覚刺激が表示部230に表示される。この表示された視覚刺激が運転者により視認された場合の運転者の有効視野角度が導出されて記憶される。自車両が停車状態と判定される度に、運転者の有効視野角度が導出されるため、有効視野角度の相対的な変化量と運転者状態との関係が定められた所定の条件に応じて、運転者の状態が推定される。   As described above, in the driver state estimation device 100k according to the ninth embodiment, the visual stimulus is displayed on the display unit when it is determined that the state of the red signal of the traffic light continues for a predetermined time or more in addition to the host vehicle being stopped. 230. The effective visual angle of the driver when the displayed visual stimulus is visually recognized by the driver is derived and stored. Since the driver's effective viewing angle is derived each time the host vehicle is determined to be in a stopped state, the relationship between the relative change amount of the effective viewing angle and the driver state is determined according to a predetermined condition. The driver's condition is estimated.

したがって、第9の実施形態の運転者状態推定装置100kは、第1の実施形態の運転者状態推定装置100aに比べて、有効視野角度の導出過程中に当該自車両が走行状態になる状況を防止するため、より安全な状態で、運転者の状態を推定することができる。   Therefore, the driver state estimation device 100k according to the ninth embodiment is compared with the driver state estimation device 100a according to the first embodiment in a situation where the host vehicle is in a traveling state during the process of deriving the effective viewing angle. In order to prevent this, the driver's state can be estimated in a safer state.

したがって、第9の実施形態の運転者状態推定装置100kは、撮像される自車両の前景画像の複雑さに応じて、運転者状態を推定するための閾値を調整することにより、有効視野角度の導出時における前景の複雑さの違いの影響を考慮した運転者状態の推定ができるため、運転者状態をさらに正確に推定することができる。   Therefore, the driver state estimation device 100k according to the ninth embodiment adjusts the threshold for estimating the driver state according to the complexity of the foreground image of the subject vehicle to be imaged, thereby adjusting the effective viewing angle. Since the driver state can be estimated in consideration of the influence of the difference in complexity of the foreground at the time of derivation, the driver state can be estimated more accurately.

さらに、撮像される自車両の前景画像の複雑さに応じて、運転者状態を推定するための閾値を調整することにより、有効視野角度の導出時における前景の複雑さの違いの影響を考慮した運転者状態の推定ができるため、運転者状態をさらに正確に推定することができる。   Furthermore, by adjusting the threshold for estimating the driver's state according to the complexity of the foreground image of the subject vehicle being imaged, the effect of the difference in foreground complexity when deriving the effective viewing angle was taken into account Since the driver state can be estimated, the driver state can be estimated more accurately.

以上、添付図面を参照しながら各種の実施形態について説明したが、本発明の入力装置はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、それらについても当然に本発明の技術的範囲に属するものと了解される。   While various embodiments have been described above with reference to the accompanying drawings, it goes without saying that the input device of the present invention is not limited to such examples. It will be apparent to those skilled in the art that various changes and modifications can be made within the scope of the claims, and these are naturally within the technical scope of the present invention. Understood.

また、上記した各実施形態における停車状態判定部101a,101b,101c、101d、及び101eが視覚刺激の表示を開始させるための条件は、単位時間あたりの視覚情報量が所定量となる状態であっても構わない。例えば、前景撮像用カメラ部250により撮像された自車両の走行方向の前景画像における空間周波数が予め定められた所定の範囲内にあると閾値調整部108により判定されたとする。この場合に限って、停車状態判定部101dは、視覚刺激制御部102dが視覚刺激を表示する旨の制御情報を視覚刺激制御部102dに出力しても良い。   In addition, the condition for the stop state determination units 101a, 101b, 101c, 101d, and 101e in the above-described embodiments to start displaying visual stimuli is a state in which the amount of visual information per unit time is a predetermined amount. It doesn't matter. For example, it is assumed that the threshold adjustment unit 108 determines that the spatial frequency in the foreground image in the traveling direction of the host vehicle captured by the foreground imaging camera unit 250 is within a predetermined range. Only in this case, the stop state determination unit 101d may output control information indicating that the visual stimulus control unit 102d displays the visual stimulus to the visual stimulus control unit 102d.

なお、コントラスト調整部107は、照度センサ270の代わりに前景撮像用カメラ250を用いて、前景撮像用カメラ部250により出力された自車両の走行方向の前景画像、及び当該前景画像の輝度又は色に関する情報を取得する。コントラスト調整部107は、この取得された前景画像、及び当該前景画像の輝度又は色に関する情報に基づいて、前景と視覚刺激との輝度コントラスト又は色コントラストが一定になる制御を行うようにしても構わない。   The contrast adjustment unit 107 uses the foreground imaging camera 250 instead of the illuminance sensor 270, and outputs the foreground image in the traveling direction of the host vehicle output by the foreground imaging camera unit 250 and the luminance or color of the foreground image. Get information about. The contrast adjustment unit 107 may perform control to make the luminance contrast or color contrast between the foreground and the visual stimulus constant based on the acquired foreground image and information on the luminance or color of the foreground image. Absent.

具体的には、コントラスト調整部107は、前景撮像用カメラ部250により出力された前景画像の輝度又は色に関する情報に基づいて、表示される視覚刺激の輝度又は色を調整する。コントラスト調整部107は、この調整された視覚刺激の輝度又は色に関する情報を視覚刺激制御部102dに出力する。視覚刺激制御部102dは、この調整された視覚刺激の輝度又は色に関する情報に基づいて視覚刺激を表示部230に表示する。   Specifically, the contrast adjustment unit 107 adjusts the luminance or color of the displayed visual stimulus based on information about the luminance or color of the foreground image output by the foreground imaging camera unit 250. The contrast adjustment unit 107 outputs information regarding the brightness or color of the adjusted visual stimulus to the visual stimulus control unit 102d. The visual stimulus control unit 102d displays the visual stimulus on the display unit 230 based on the information regarding the brightness or color of the adjusted visual stimulus.

なお、視覚刺激制御部102aは、運転者400の中心視野位置320から予め設定された視覚刺激表示距離の初期値Lほど離れた視覚刺激表示位置330を特定し、この特定された視覚刺激表示位置330に視覚刺激を表示しても良い。 Incidentally, the visual stimulation control unit 102a specifies the visual stimulus display positions 330 apart as the initial value L 0 of the preset visual stimulus display distance from the center view position 320 of the driver 400, the specified visual stimulus display A visual stimulus may be displayed at position 330.

なお、視覚刺激制御部102aにより表示された視覚刺激が運転者400により視認された場合には、視覚刺激制御部102aは、視覚刺激の表示を終了する。ただ、視覚刺激制御部102aにより表示された視覚刺激が運転者に視認されない場合がある。この場合、所定時間経過後、視覚刺激制御部102aは、視覚刺激表示距離L(<視覚刺激表示位置L)ほど離れた視覚刺激表示位置340を特定する。視覚刺激制御部102aは、この特定された視覚刺激表示位置340に視覚刺激を表示しても良い。 Note that when the driver 400 visually recognizes the visual stimulus displayed by the visual stimulus control unit 102a, the visual stimulus control unit 102a ends the display of the visual stimulus. However, the visual stimulus displayed by the visual stimulus control unit 102a may not be visually recognized by the driver. In this case, after a predetermined time has elapsed, the visual stimulus control unit 102a specifies the visual stimulus display position 340 that is separated by the visual stimulus display distance L 1 (<visual stimulus display position L 0 ). The visual stimulus control unit 102a may display a visual stimulus at the specified visual stimulus display position 340.

視覚刺激制御部102aにより表示された視覚刺激が未だ運転者400に視認されない場合には、所定時間経過後、視覚刺激制御部102aは、視覚刺激表示位置340よりも更に視野内側方向に向かって順番に視覚刺激を表示する。この視覚刺激の表示は、運転者400の中心視野位置320から予め設定された視覚刺激表示距離Lほど離れた視覚刺激表示位置350に表示されるまで繰り返される。視覚刺激表示距離Lは、運転者400の中心視野位置320に十分近い位置にある。視覚刺激表示距離を示すパラメータL[m]は、L≦L≦Lを満たす。 When the visual stimulus displayed by the visual stimulus control unit 102a is not yet visually recognized by the driver 400, the visual stimulus control unit 102a sequentially turns further toward the inside of the visual field than the visual stimulus display position 340 after a predetermined time has elapsed. Display visual stimuli. The display of the visual stimulus is repeated to appear on the central field visual stimulus display preset from the position 320 a distance L n as distant visual stimulus display position 350 of the driver 400. The visual stimulus display distance L n is at a position sufficiently close to the center visual field position 320 of the driver 400. The parameter L k [m] indicating the visual stimulus display distance satisfies L n ≦ L k ≦ L 0 .

また、第1の実施形態では、視覚刺激制御部102aは、運転者の視線方向の角度αと視覚刺激表示角度θとがほぼ同一である場合に、表示部230に表示された視覚刺激が運転者に視認されたと判定する。しかし、視覚刺激が運転者に視認されたか否かの判定は、運転者の視線方向の角度と視覚刺激表示角度とがほぼ同一である場合に限定されない。 In the first embodiment, the visual stimulus control unit 102a displays the visual stimulus displayed on the display unit 230 when the driver's line-of-sight angle α m and the visual stimulus display angle θ k are substantially the same. Is determined to be visually recognized by the driver. However, the determination of whether or not the visual stimulus is visually recognized by the driver is not limited to the case where the angle of the driver's line-of-sight direction and the visual stimulus display angle are substantially the same.

例えば、視覚刺激制御部102aは、中心視野位置320と運転者の視線方向のフロントウィンドウ310上の位置との距離と、視覚刺激表示位置Lとがほぼ同一か否かを判定する。視覚刺激制御部102aは、ほぼ同一である判定された場合に、表示部230に表示された視覚刺激が運転者に視認されたと判定しても良い。なお、中心視野位置320と運転者の視線方向のフロントウィンドウ310の位置との距離は、特許文献1に開示されている視線方向検出装置と同等の構成を含む視覚刺激制御部102aにより導出される。 For example, the visual stimulation control unit 102a determines that the central visual field position 320 and the distance between the position of the driver's line of sight direction of the front window 310, or approximately the same or not and the visual stimulus display position L k. When it is determined that the visual stimulus control unit 102a is substantially the same, the visual stimulus control unit 102a may determine that the driver has visually recognized the visual stimulus displayed on the display unit 230. The distance between the center visual field position 320 and the position of the front window 310 in the driver's line-of-sight direction is derived by the visual stimulus control unit 102a including the same configuration as the line-of-sight direction detection device disclosed in Patent Document 1. .

図6に示す数式3が成立するためには、有効視野角度導出部103aにおいて導出された現在の有効視野αと、直前3回の全ての有効視野(αm−3、αm−2、αm−1)との比がそれぞれ閾値βよりも非常に小さい場合とした。しかし、現在の有効視野αと、直前3回の有効視野(αm−3、αm−2、αm−1)の少なくともいずれかとの比の値が閾値βよりも非常に小さい場合に、図6に示す数式3が成立するようにしても構わない。 In order for Formula 3 shown in FIG. 6 to be established, the current effective visual field α m derived by the effective visual field angle deriving unit 103a and all three effective visual fields (α m−3 , α m−2 , It was assumed that the ratio to α m−1 ) was much smaller than the threshold value β 2 . However, when the value of the ratio between the current effective visual field α m and at least one of the last three effective visual fields (α m-3 , α m-2 , α m-1 ) is much smaller than the threshold β 2 In addition, Formula 3 shown in FIG. 6 may be established.

アイポイント401は、JIS D0021で定義されるアイリプス中心、又は左眼若しくは右眼のアイリプス中心等の位置としてもよい。また、中心視野方向410は、JIS D0021で定義されるアイリプス中心、又は左眼若しくは右眼のアイリプス中心等の標準的なアイポイントの前方正面付近としても構わない。   The eye point 401 may be a position such as the center of the eyelips defined by JIS D0021 or the center of the eyelips of the left eye or the right eye. Further, the central visual field direction 410 may be a front center of an eye point defined by JIS D0021 or a standard eye point such as a left eye or a right eye.

また、上記した各実施形態では、視線方向410は、運転者400のアイポイント401と運転者400の注視点とを結ぶ直線方向であると説明したが、これに限定されない。例えば、視線方向410は、自車両の周辺を撮像するカメラ(不図示)により撮像された周辺画像の画像認識により、当該アイポイント401を基準に、当該画像における先行車両のテールランプの位置の方向に設定しても良い。又は、視線方向410は、当該周辺画像における信号機の位置等の様に、当該アイポイント401を基準に、自車両が停車状態に運転者が注視する頻度が高い対象物の方向に設定しても良い。   Further, in each of the embodiments described above, the line-of-sight direction 410 has been described as a linear direction that connects the eye point 401 of the driver 400 and the gaze point of the driver 400, but is not limited thereto. For example, the line-of-sight direction 410 is set in the direction of the position of the tail lamp of the preceding vehicle in the image based on the eye point 401 by image recognition of a peripheral image captured by a camera (not shown) that captures the periphery of the host vehicle. May be set. Alternatively, the line-of-sight direction 410 may be set to the direction of an object that is frequently watched by the driver while the host vehicle is stopped, with the eyepoint 401 as a reference, such as the position of a traffic light in the surrounding image. good.

また、上記した各実施形態では、運転支援部240を運転者状態推定装置100に含めない旨を説明した。しかし、運転支援部240をそれぞれの運転者状態推定装置100に含めても構わない。   In each of the above-described embodiments, it has been described that the driving support unit 240 is not included in the driver state estimation device 100. However, the driving support unit 240 may be included in each driver state estimation device 100.

なお、各実施形態において、停車状態判定部101は、自車両が停車状態である度に、視覚刺激を表示する旨の制御情報を視覚刺激制御部102に出力する必要はない。例えば、停車状態判定部101は、運転開始時又は運転開始後で所定時間経過する毎の自車両が停車状態であるときに、視覚刺激を表示する旨の制御情報を視覚刺激制御部102に出力してもよい。   In each embodiment, the stop state determination unit 101 does not need to output control information for displaying a visual stimulus to the visual stimulus control unit 102 every time the host vehicle is in a stop state. For example, the stop state determination unit 101 outputs control information indicating that a visual stimulus is displayed to the visual stimulus control unit 102 when the host vehicle is in a stopped state at the start of driving or every time a predetermined time elapses after starting driving. May be.

また、視覚刺激制御部102により表示される視覚刺激の表示位置は、上記した各実施形態で説明した表示位置に限定されず、視野外側方向から視野内側方向に向かって順に表示するようになっていれば良い。例えば、図2又は図3において、上記した各実施形態では、中心視野位置320、及び視覚刺激表示位置330〜350はほぼ直線状に並んでいる。しかし、中心視野位置320、及び視覚刺激表示位置330〜350は、直線状ではなくランダムに並んでも構わない。   Further, the display position of the visual stimulus displayed by the visual stimulus control unit 102 is not limited to the display position described in each of the above-described embodiments, and the display is performed in order from the outer side of the visual field toward the inner side of the visual field. Just do it. For example, in FIG. 2 or FIG. 3, in each of the above-described embodiments, the central visual field position 320 and the visual stimulus display positions 330 to 350 are arranged substantially linearly. However, the central visual field position 320 and the visual stimulus display positions 330 to 350 may be arranged randomly rather than linearly.

更に、中心視野位置320、及び視覚刺激表示位置330〜350は、ほぼ同一の視覚刺激表示角度で、複数回、視覚刺激が表示されても良い。例えば、視覚刺激は、ほぼ同一の視覚刺激表示角度で、運転者から遠い位置に視覚刺激が表示された後に、運転者から近い位置に視覚刺激が表示されるようにしても良い。   Further, the visual stimulus may be displayed a plurality of times at the central visual field position 320 and the visual stimulus display positions 330 to 350 at substantially the same visual stimulus display angle. For example, the visual stimulus may be displayed at a position close to the driver after the visual stimulus is displayed at a position far from the driver at substantially the same visual stimulus display angle.

また、上記した第2の実施形態では、コントラスト調整部107による視覚刺激の表示輝度の調整の処理と、閾値調整部108による閾値の調整の処理とは、それぞれ独立に行われるように記載した。しかし、コントラスト調整部107による調整の処理と、推定閾値調整部109による調整の処理とが所定の相関関係があっても良い。   In the second embodiment described above, it has been described that the process of adjusting the display brightness of the visual stimulus by the contrast adjusting unit 107 and the process of adjusting the threshold by the threshold adjusting unit 108 are performed independently. However, the adjustment process by the contrast adjustment unit 107 and the adjustment process by the estimated threshold value adjustment unit 109 may have a predetermined correlation.

所定の相関関係として、例えば、コントラスト調整部107により視覚刺激の表示輝度が調整された場合には、閾値調整部108による推定閾値の調整は不要とされても良い。具体的には、コントラスト調整部107は、視覚刺激の表示輝度を調整した旨の調整終了情報を視覚刺激制御部102に出力する。このとき、視覚刺激制御部102は、コントラスト調整部107により出力された調整終了情報を取得し、推定閾値の調整を行わずに予め定められている推定閾値を運転者状態推定部105に出力しても良い。   For example, when the display brightness of the visual stimulus is adjusted by the contrast adjusting unit 107 as the predetermined correlation, the adjustment of the estimated threshold by the threshold adjusting unit 108 may be unnecessary. Specifically, the contrast adjustment unit 107 outputs adjustment end information indicating that the display brightness of the visual stimulus is adjusted to the visual stimulus control unit 102. At this time, the visual stimulus control unit 102 acquires the adjustment end information output by the contrast adjustment unit 107, and outputs a predetermined estimated threshold value to the driver state estimation unit 105 without adjusting the estimated threshold value. May be.

さらに、上記した各実施形態では、視覚刺激制御部102により表示される視覚刺激(光点)の大きさは一定であるが、当該大きさは一定でなくても良い。例えば、視線方向410に対する視覚刺激表示角度に依存した皮質拡大係数を用いて、視線位置320から離れた位置に表示される視覚刺激ほどより大きい径を有する視覚刺激が表示されるようにしても良い。   Furthermore, in each of the above-described embodiments, the size of the visual stimulus (light spot) displayed by the visual stimulus control unit 102 is constant, but the size may not be constant. For example, a visual stimulus having a larger diameter as a visual stimulus displayed at a position distant from the line-of-sight position 320 may be displayed using a cortical enlargement coefficient depending on a visual stimulus display angle with respect to the line-of-sight direction 410. .

また、第1の実施形態においては、運転開始時の有効視野αと、自車両が停車状態となった場合における有効視野αとの相対的な変化量が導出された。しかし、自車両が停車状態となった場合におけるαの相対的な変化量が導出される場合に、常に運転開始時の有効視野αと比較されなくても良い。例えば、運転開始時の有効視野αの代わりに、同一地点で導出された過去の有効視野、又は同一時刻で導出された過去の有効視野との比較が行われても良い。 In the first embodiment, the relative amount of change between the effective visual field α 0 at the start of driving and the effective visual field α m when the host vehicle is stopped is derived. However, when the relative change amount of α m when the host vehicle is stopped is derived, it is not always necessary to compare with the effective visual field α 0 at the start of driving. For example, instead of the effective visual field α 0 at the start of operation, a comparison with a past effective visual field derived at the same point or a past effective visual field derived at the same time may be performed.

本発明に係る運転者状態推定装置及び運転者状態推定方法は、自動車等の車両の一部に用いられる装置又は方法として有用である。また推定された運転者の状態に基づいて運転者に対する運転の支援を行う運転支援装置の一部に用いられる装置又は方法としても有用である。   The driver state estimation device and the driver state estimation method according to the present invention are useful as a device or method used for a part of a vehicle such as an automobile. It is also useful as an apparatus or method used in a part of a driving support apparatus that supports driving for a driver based on the estimated driver state.

1a〜h,1k 運転者状態推定システム
50 有効視野角度関連情報
100a〜h,100k 運転者状態推定装置
101a〜h,101k 停車状態判定部
102a〜h,102k 視覚刺激制御部
103a〜h,103k 有効視野角度導出部
104a〜h、104k 記憶部
105a〜h、105k 運転者状態推定部
106 信号機状態判定部
107 コントラスト調整部
108 閾値調整部
210 速度情報出力部
220 画像データ取得部
230 表示部
240 運転支援部
250 前景撮像用カメラ部
260 通信部
270 照度センサ
280 ナビゲーション装置
310 フロントウィンドウ
320 中心視野位置
330,340,350 視覚刺激表示位置
400 運転者
401 アイポイント
410,420,430,440 視線方向
1a-h, 1k Driver state estimation system 50 Effective viewing angle related information 100a-h, 100k Driver state estimation devices 101a-h, 101k Stop state determination units 102a-h, 102k Visual stimulus control units 103a-h, 103k Effective Viewing angle derivation units 104a to h, 104k, storage units 105a to h, 105k, driver state estimation unit 106, traffic light state determination unit 107, contrast adjustment unit 108, threshold adjustment unit 210, speed information output unit 220, image data acquisition unit 230, display unit 240, driving support Unit 250 foreground imaging camera unit 260 communication unit 270 illuminance sensor 280 navigation device 310 front window 320 center visual field position 330, 340, 350 visual stimulus display position 400 driver 401 eye point 410, 420, 430, 440 line-of-sight direction

Claims (21)

表示領域を備えた車両の運転者の状態を推定する運転者状態推定装置であって、
撮像系を有し、前記撮像系を用いて前記運転者の画像データを取得する画像データ取得部と、
前記車両の速度情報に基づいて、前記車両の速度が所定値以下であるか否かを判定する停車状態判定部と、
前記車両の速度が前記所定値以下であると判定された場合に、前記表示領域に第1の視覚刺激を表示させて、前記運転者の画像データに基づいて、前記第1の視覚刺激が前記運転者に視認されたか否かを判定する視覚刺激制御部と、
前記第1の視覚刺激が前記運転者に視認されたと判定された場合に、前記第1の視覚刺激が前記表示領域に表示された位置に基づいて、前記運転者の正面方向と視線方向とがなす角度である第1の有効視野角度を導出する有効視野角度導出部と、
前記第1の有効視野角度を記憶する記憶部と、
前記第1の有効視野角度と、前記第1の有効視野角度が記憶された時点より以前に、前記記憶部が記憶した第2の有効視野角度との差分に基づいて、前記運転者の状態を推定する運転者状態推定部と、
を備える運転者状態推定装置。
A driver state estimating device for estimating a state of a driver of a vehicle having a display area,
An image data acquisition unit that has an imaging system and acquires the image data of the driver using the imaging system;
A stop state determination unit that determines whether the speed of the vehicle is equal to or lower than a predetermined value based on the speed information of the vehicle;
When it is determined that the speed of the vehicle is equal to or lower than the predetermined value, the first visual stimulus is displayed on the display area, and the first visual stimulus is based on the image data of the driver. A visual stimulus control unit for determining whether or not the driver has visually recognized;
When it is determined that the first visual stimulus is visually recognized by the driver, the front direction and the line-of-sight direction of the driver are determined based on the position where the first visual stimulus is displayed in the display area. An effective viewing angle deriving unit for deriving a first effective viewing angle that is an angle formed;
A storage unit for storing the first effective viewing angle;
Based on the difference between the first effective viewing angle and the second effective viewing angle stored in the storage unit before the time when the first effective viewing angle is stored, the state of the driver is determined. A driver state estimation unit to estimate;
A driver state estimation device comprising:
前記停車状態判定部は、前記車両の速度がゼロであるか否かを判定する請求項1に記載の運転者状態推定装置。   The driver state estimation device according to claim 1, wherein the stop state determination unit determines whether or not the speed of the vehicle is zero. 前記視覚刺激制御部において、前記視覚刺激が前記運転者に視認されていないと判定された場合、前記表示領域において、前記視覚刺激に対して前記運転者の側に第2の視覚刺激を表示する請求項1に記載の運転者状態推定装置。   When the visual stimulus control unit determines that the visual stimulus is not visually recognized by the driver, a second visual stimulus is displayed on the driver side with respect to the visual stimulus in the display area. The driver state estimation apparatus according to claim 1. 前記停車状態判定部は、前記車両が一定速度で走行中の状態に前記視覚刺激の表示開始と判定することを特徴とする請求項1に記載の運転者状態推定装置。   The driver state estimation device according to claim 1, wherein the stop state determination unit determines that the display of the visual stimulus starts when the vehicle is traveling at a constant speed. 前記記憶部は、前記車両の運転開始時における有効視野角度を記憶し、
前記運転者状態推定部は、前記有効視野角度導出部により導出された有効視野角度と、前記運転開始時における有効視野角度との間に所定の関係が成立する場合に、前記運転者が疲労状態であると推定することを特徴とする請求項1に記載の運転者状態推定装置。
The storage unit stores an effective viewing angle at the start of operation of the vehicle,
When the driver state estimation unit establishes a predetermined relationship between the effective viewing angle derived by the effective viewing angle deriving unit and the effective viewing angle at the start of driving, the driver is in a fatigue state The driver state estimation device according to claim 1, wherein the driver state estimation device is estimated.
請求項5に記載の運転者状態推定装置であって、
前記所定の関係は、前記有効視野角度導出部により導出された有効視野角度と、前記運転開始時の有効視野角度との比の値が第1の閾値以下であり、且つ、前記有効視野角度導出部により導出された有効視野角度が、前記運転開始時における有効視野角度より小さい値であることを特徴とする運転者状態推定装置。
The driver state estimation device according to claim 5,
The predetermined relationship is that a value of a ratio between the effective visual field angle derived by the effective visual field angle deriving unit and the effective visual field angle at the start of operation is equal to or less than a first threshold value, and the effective visual field angle is derived. The driver state estimation device, wherein the effective visual field angle derived by the unit is smaller than the effective visual field angle at the start of driving.
前記記憶部は、前記車両の運転開始時における有効視野角度を記憶し、
前記運転者状態推定部は、前記有効視野角度導出部により導出された有効視野角度と、当該導出時の直前に導出された有効視野角度との比が第2の閾値未満である場合に、前記運転者が注意散漫状態であると推定することを特徴とする請求項1に記載の運転者状態推定装置。
The storage unit stores an effective viewing angle at the start of operation of the vehicle,
When the ratio of the effective visual field angle derived by the effective visual field angle deriving unit and the effective visual field angle derived immediately before the derivation is less than a second threshold, The driver state estimating apparatus according to claim 1, wherein the driver is estimated to be in a distracted state.
前記視覚刺激制御部は、前記運転者のアイポイントの前方正面方向を中心視野方向と設定する請求項1に記載の運転者状態推定装置。   The driver state estimation apparatus according to claim 1, wherein the visual stimulus control unit sets a front front direction of the driver's eye point as a central visual field direction. 請求項8に記載の運転者状態推定装置であって、
前記アイポイントは、前記運転者を含む画像を撮像する撮像装置を介して取得された撮像画像により検出された眼球位置と視線方向とに基づいて決定されることを特徴とする運転者状態推定装置。
The driver state estimation device according to claim 8,
The driver state estimation device, wherein the eye point is determined based on an eyeball position and a line-of-sight direction detected by a captured image acquired via an imaging device that captures an image including the driver. .
前記視覚刺激制御部は、前記運転者のアイポイントを起点に、前記車両が停車中の状態に当該運転者により注視される頻度が高い所定の対象物の方向を中心視野方向と設定することを特徴とする請求項1に記載の運転者状態推定装置。   The visual stimulation control unit sets a direction of a predetermined object that is frequently watched by the driver as a central visual field direction from the driver's eye point as a starting point. The driver state estimation apparatus according to claim 1, wherein 請求項10に記載の運転者状態推定装置であって、
前記車両が停車中の状態に注視される頻度が高い所定の対象物は、信号機であることを特徴とする運転者状態推定装置。
The driver state estimation device according to claim 10,
The driver state estimation device, wherein the predetermined object with a high frequency of being watched while the vehicle is stopped is a traffic light.
請求項10に記載の運転者状態推定装置であって、
前記車両が停車中の状態に注視される頻度が高い所定の対象物は、先行車両であることを特徴とする運転者状態推定装置。
The driver state estimation device according to claim 10,
The driver state estimation device, wherein the predetermined object with a high frequency of being watched while the vehicle is stopped is a preceding vehicle.
前記視覚刺激制御部は、前記車両のフロントウィンドウに前記視覚刺激を表示することを特徴とする請求項1に記載の運転者状態推定装置。   The driver state estimation apparatus according to claim 1, wherein the visual stimulus control unit displays the visual stimulus on a front window of the vehicle. 請求項8に記載の運転者状態推定装置であって、
前記有効視野角度導出部は、前記視覚刺激制御部により最初に視認されたと判定された視覚刺激の表示方向と、前記運転者の中心視野方向とにより定まる角度を有効視野角度と導出することを特徴とする運転者状態推定装置。
The driver state estimation device according to claim 8,
The effective visual field angle deriving unit derives an effective visual angle as an angle determined by a visual stimulus display direction determined to be initially viewed by the visual stimulus control unit and a central visual field direction of the driver. A driver state estimating device.
前記停車状態判定部は、直前の信号機から送信された信号機状態に基づいて前記視覚刺激の表示開始を判定することを特徴とする請求項1に記載の運転者状態推定装置。   The driver state estimation device according to claim 1, wherein the stop state determination unit determines display start of the visual stimulus based on a traffic light state transmitted from an immediately preceding traffic light. 前記車両の周囲の明るさに応じて、前記視覚刺激制御部により表示される前記視覚刺激の表示輝度又は色を調整するコントラスト調整部と、を更に備え、
前記視覚刺激制御部は、前記コントラスト調整部により調整された前記視覚刺激を表示することを特徴とする請求項1に記載の運転者状態推定装置。
A contrast adjusting unit that adjusts display luminance or color of the visual stimulus displayed by the visual stimulus control unit according to the brightness of the surroundings of the vehicle,
The driver state estimation apparatus according to claim 1, wherein the visual stimulus control unit displays the visual stimulus adjusted by the contrast adjusting unit.
請求項16に記載の運転者状態推定装置であって、
前記コントラスト調整部は、前記車両の周囲の撮像画像に基づいて、前記視覚刺激制御部により表示される前記視覚刺激の表示輝度又は色を調整することを特徴とする運転者状態推定装置。
The driver state estimating device according to claim 16, wherein
The said contrast adjustment part adjusts the display brightness | luminance or color of the said visual stimulus displayed by the said visual stimulus control part based on the captured image around the said vehicle, The driver state estimation apparatus characterized by the above-mentioned.
請求項6又は7に記載の運転者状態推定装置であって、
前記視覚刺激制御部により表示される前記視覚刺激を表示する前記車両の前景に応じて、前記第1の推定閾値又は前記第2の推定閾値を調整する推定閾値調整部と、を更に備えることを特徴とする運転者状態推定装置。
The driver state estimation device according to claim 6 or 7,
An estimated threshold value adjusting unit for adjusting the first estimated threshold value or the second estimated threshold value according to the foreground of the vehicle displaying the visual stimulus displayed by the visual stimulus control unit. A driver state estimation device as a feature.
前記運転者状態推定部により疲労状態であると判定された場合に、前記運転者に対して休憩を促す報知を行う運転支援部と、
を更に有することを特徴とする請求項1に記載の運転者状態推定装置。
When it is determined that the driver state estimation unit is in a fatigued state, a driving support unit that notifies the driver of a break, and
The driver state estimating device according to claim 1, further comprising:
前記運転者状態推定部により注意散漫状態であると判定された場合に、前記運転者に対して警告を行う運転支援部と、
を更に有することを特徴とする請求項1に記載の運転者状態推定装置。
When it is determined that the driver state estimation unit is in a distracted state, a driving support unit that warns the driver;
The driver state estimating device according to claim 1, further comprising:
表示領域を備えた車両の運転者の状態を推定する運転者状態推定方法であって、
撮像系を有し、前記撮像系を用いて前記運転者の画像データを取得し、
前記車両の速度情報に基づいて、前記車両の速度が所定値以下であるか否かを判定し、
前記車両の速度が前記所定値以下であると判定された場合に、前記表示領域に第1の視覚刺激を表示させて、前記運転者の画像データに基づいて、前記第1の視覚刺激が前記運転者に視認されたか否かを判定し、
前記第1の視覚刺激が前記運転者に視認されたと判定された場合に、前記第1の視覚刺激が前記表示領域に表示された位置に基づいて、前記運転者の正面方向と視線方向とがなす角度である第1の有効視野角度を導出し、
前記第1の有効視野角度を記憶し、
前記第1の有効視野角度と、前記第1の有効視野角度が記憶された時点より以前に、前記記憶部が記憶した第2の有効視野角度との差分に基づいて、前記運転者の状態を推定する運転者状態推定方法。
A driver state estimation method for estimating the state of a driver of a vehicle having a display area,
Having an imaging system, obtaining image data of the driver using the imaging system,
Based on the speed information of the vehicle, it is determined whether the speed of the vehicle is a predetermined value or less,
When it is determined that the speed of the vehicle is equal to or lower than the predetermined value, the first visual stimulus is displayed on the display area, and the first visual stimulus is based on the image data of the driver. Determine if it was visible to the driver,
When it is determined that the first visual stimulus is visually recognized by the driver, the front direction and the line-of-sight direction of the driver are determined based on the position where the first visual stimulus is displayed in the display area. Deriving a first effective viewing angle, which is an angle formed;
Storing the first effective viewing angle;
Based on the difference between the first effective viewing angle and the second effective viewing angle stored in the storage unit before the time when the first effective viewing angle is stored, the state of the driver is determined. Driver state estimation method to be estimated.
JP2009285539A 2009-12-16 2009-12-16 Device and method for estimating driver state Withdrawn JP2011128799A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009285539A JP2011128799A (en) 2009-12-16 2009-12-16 Device and method for estimating driver state

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009285539A JP2011128799A (en) 2009-12-16 2009-12-16 Device and method for estimating driver state

Publications (1)

Publication Number Publication Date
JP2011128799A true JP2011128799A (en) 2011-06-30

Family

ID=44291348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009285539A Withdrawn JP2011128799A (en) 2009-12-16 2009-12-16 Device and method for estimating driver state

Country Status (1)

Country Link
JP (1) JP2011128799A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013156688A (en) * 2012-01-26 2013-08-15 Toyota Motor Corp Driving support device and driving support method
JP2013250872A (en) * 2012-06-01 2013-12-12 Denso Corp Driving ability deterioration determination device
WO2014119235A1 (en) * 2013-01-29 2014-08-07 株式会社デンソー Alertness level detection device and alertness level detection method
CN105361894A (en) * 2014-08-14 2016-03-02 罗伯特·博世有限公司 Method and device for determining a reaction time of a vehicle driver
CN107209850A (en) * 2014-12-04 2017-09-26 法雷奥开关和传感器有限责任公司 The method of the specific blind spot of driver for determining driver assistance system, driver assistance system and motor vehicles
US9842267B2 (en) 2014-11-20 2017-12-12 Hyundai Motor Company Method and apparatus for monitoring driver status using head mounted display
WO2019175956A1 (en) * 2018-03-13 2019-09-19 三菱電機株式会社 Display control device, display device, and display control method

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013156688A (en) * 2012-01-26 2013-08-15 Toyota Motor Corp Driving support device and driving support method
JP2013250872A (en) * 2012-06-01 2013-12-12 Denso Corp Driving ability deterioration determination device
WO2014119235A1 (en) * 2013-01-29 2014-08-07 株式会社デンソー Alertness level detection device and alertness level detection method
JP2014144096A (en) * 2013-01-29 2014-08-14 Denso Corp Vigilance level detection device and vigilance level detection method
US9390337B2 (en) 2013-01-29 2016-07-12 Denso Corporation Alertness level detection apparatus and alertness level detection method
CN105361894A (en) * 2014-08-14 2016-03-02 罗伯特·博世有限公司 Method and device for determining a reaction time of a vehicle driver
US9842267B2 (en) 2014-11-20 2017-12-12 Hyundai Motor Company Method and apparatus for monitoring driver status using head mounted display
CN107209850A (en) * 2014-12-04 2017-09-26 法雷奥开关和传感器有限责任公司 The method of the specific blind spot of driver for determining driver assistance system, driver assistance system and motor vehicles
JP2017538221A (en) * 2014-12-04 2017-12-21 ヴァレオ・シャルター・ウント・ゼンゾーレン・ゲーエムベーハー Method for determining driver-specific blind spot for driver assistance system, driver assistance system and vehicle
CN107209850B (en) * 2014-12-04 2020-11-24 法雷奥开关和传感器有限责任公司 Method for determining a driver-specific blind spot of a driver assistance system, driver assistance system and motor vehicle
WO2019175956A1 (en) * 2018-03-13 2019-09-19 三菱電機株式会社 Display control device, display device, and display control method
JPWO2019175956A1 (en) * 2018-03-13 2020-05-28 三菱電機株式会社 Display control device, display device, and display control method

Similar Documents

Publication Publication Date Title
JP6443677B2 (en) Head mounted display device
JP4353162B2 (en) Vehicle surrounding information display device
JP2011128799A (en) Device and method for estimating driver state
EP1510849A1 (en) A virtual display device for use in a vehicle
JP5555526B2 (en) Vehicle display device
JP2013203103A (en) Display device for vehicle, control method therefor, and program
JP2007087337A (en) Vehicle peripheral information display device
JP2005135037A (en) Vehicular information presentation system
WO2015098136A1 (en) Information display device for vehicle and information display method for vehicle
JP5855206B1 (en) Transmission display device for vehicle
JP2010160606A (en) Information presentation system for vehicle
JP6075248B2 (en) Information display device
WO2017162812A1 (en) Adaptive display for low visibility
JP2010143411A (en) Head-up display device
JP4337130B2 (en) Control device for driving device
JP4779780B2 (en) Image display device
JP2017009406A (en) Display system for on vehicle use
JP4337131B2 (en) Mobile control device
JP2017167623A (en) Information display device, information display method, and program
JP6485310B2 (en) Information providing system, information providing method, and computer program
JP2018041011A (en) Display device
JP5521275B2 (en) VEHICLE DISPLAY DEVICE AND VEHICLE DISPLAY METHOD
JP6365409B2 (en) Image display device for vehicle driver
JP6476644B2 (en) Cognitive assist device
WO2016143744A1 (en) Head mounted display device

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305