JP6589734B2 - Crew state estimation device - Google Patents
Crew state estimation device Download PDFInfo
- Publication number
- JP6589734B2 JP6589734B2 JP2016084355A JP2016084355A JP6589734B2 JP 6589734 B2 JP6589734 B2 JP 6589734B2 JP 2016084355 A JP2016084355 A JP 2016084355A JP 2016084355 A JP2016084355 A JP 2016084355A JP 6589734 B2 JP6589734 B2 JP 6589734B2
- Authority
- JP
- Japan
- Prior art keywords
- occupant
- unit
- state
- sound image
- visual recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Circuit For Audible Band Transducer (AREA)
- Traffic Control Systems (AREA)
Description
本発明は、乗員の状態を推定する乗員状態推定装置に関する。 The present invention relates to an occupant state estimation device that estimates an occupant state.
従来、運転席に着座している乗員(以降、運転席乗員)の疲労度合いや、意識レベル、運転操作に集中できているか否かなどといった、運転席乗員の状態を推定する乗員状態推定装置が種々提案されている。例えば特許文献1に開示の乗員状態推定装置は、運転席乗員の視線の動きに基づいて、運転席乗員が正常状態にあるか否かを判定する。
Conventionally, there is an occupant state estimation device that estimates the state of a driver's seat occupant, such as the degree of fatigue, consciousness level, and whether or not he / she can concentrate on driving operations, for a passenger seated in the driver's seat (hereinafter, driver's seat occupant) Various proposals have been made. For example, the occupant state estimation device disclosed in
具体的には次の通りである。特許文献1に開示の乗員状態推定装置は、運転席乗員の視線方向を検出する機能と、運転席乗員が注意すべき事象が発生したか否かを判定する機能を備えており、運転席乗員が注意すべき事象が発生した場合には、当該事象を警告する情報(以降、注意喚起情報)をディスプレイに表示する。注意喚起情報には、運転席乗員が視線を向けるべき方向などが含まれている。
Specifically, it is as follows. The occupant state estimation device disclosed in
また、運転席乗員状態推定装置は、注意喚起情報をディスプレイに表示してからの運転席乗員の視線方向を追跡し、運転席乗員がディスプレイに表示されている注意喚起情報を見ている時間(以降、注視時間)や、ディスプレイに視線を向けてから注意喚起情報に対応する方向に視線を向けるまでの時間(以降、反応時間)を計測する。 In addition, the driver's seat occupant state estimation device tracks the driver's occupant's line of sight after displaying the alert information on the display, and the driver's seat occupant state is watching the alert information displayed on the display ( Thereafter, the gaze time) and the time from when the line of sight is directed to the display until the line of sight is directed in the direction corresponding to the alert information (hereinafter, reaction time) are measured.
そして、計測された注視時間や反応時間が所定の閾値以下となっているか否かに基づいて、運転席乗員が正常な状態であるか否かを判定する。なお、特許文献1における運転席乗員が正常ではない状態とは、意識レベルが低下していたり、疲労していたり、集中力が低下していたりする状態である。
Then, it is determined whether or not the driver's seat occupant is in a normal state based on whether or not the measured gaze time or reaction time is equal to or less than a predetermined threshold. In addition, the state where the driver's seat occupant is not normal in
特許文献1に開示の方法では、運転席乗員はいったんディスプレイを見なければ、視線を向けるべき方向(換言すれば注意すべき方向)を認識できない。そのため、運転席乗員の状態を推定するためには、運転席乗員に対して、ディスプレイを視認させるステップと、ディスプレイに表示した方向を視認させるステップの2つの行動を取らせる必要がある。当然、運転席乗員が視線を向けるべき方向が多いほど、運転席乗員の負担が大きくなってしまう。
In the method disclosed in
本発明は、この事情に基づいて成されたものであり、その目的とするところは、運転席乗員がディスプレイに視線を向けなくとも運転席乗員の状態を推定できる乗員状態推定装置を提供することにある。 The present invention has been made based on this situation, and an object of the present invention is to provide an occupant state estimation device that can estimate the state of the driver occupant without having the driver's sight line look at the display. It is in.
その目的を達成するための第1の発明は、車両で用いられ、2個以上の音響信号出力装置のそれぞれから音響信号を出力することによって、3次元空間の所望の位置に仮想音源を定位させた立体音像を生成する立体音像生成部(F4)と、車室内の設けられたカメラの撮像画像に基づいて、所定の座席に着座している乗員が見ている方向である視認方向を特定する視認方向特定部(F5)と、視認方向特定部の特定結果に基づいて、立体音像が生成されてから所定の反応待機時間以内に仮想音源が定位された方向である定位方向を乗員が見たか否かを判定する視認判定部(F6)と、視認判定部の判定結果に基づいて乗員の状態を推定する乗員状態推定部(F7)と、車両の周辺の交通状況を示す周辺情報を取得する周辺情報検出デバイスから、周辺情報を取得する周辺情報取得部(F1)と、周辺情報取得部が取得した周辺情報に基づいて、車両と接触しうる物体の存在を検出するとともに、その物体が存在する方向を特定するリスク方向特定部(F3)と、を備え、周辺情報取得部は、周辺情報として、車両の周辺に存在する移動体の移動体種別、車両に対する相対速度、車両に対する相対位置を取得し、リスク方向特定部は、周辺情報取得部が取得した周辺情報に基づいて、車両との距離が減少傾向にある移動体である接近体が存在する方向を特定し、周辺情報に基づいて接近体毎の衝突リスクを評価するリスク評価部(F31)と、移動体種別に応じた擬音を音響信号として出力するための擬音データを移動体種別毎に記憶している擬音データ記憶部(M1)とをさらに備え、周辺情報は、少なくとも車両の周辺に存在する移動体毎の移動体種別を含み、立体音像生成部は、乗員にとって仮想音源が位置する方向である定位方向が、リスク方向特定部が特定した方向と一致するように立体音像を生成することで、接近体の存在を乗員に報知するものであって、接近体のうち、リスク評価部によって衝突リスクは所定の報知閾値未満であると評価されている接近体については、当該移動体に対応した立体音像を生成しない一方、接近体のうち、リスク評価部によって衝突リスクが所定の報知閾値以上であると評価されている接近体が存在する場合に、当該接近体が存在する方向と仮想音源の定位方向とが一致するように立体音像を生成するものであり、所定の報知閾値以上であると評価されている接近体が存在する場合に、その接近体の移動体種別に応じた擬音で立体音像を生成するとともに、立体音像によってその存在を乗員に報知しようとしている接近体に対してリスク評価部が評価した衝突リスクに応じて、立体音像の擬音の種別は変更せずに吹鳴態様を変更することを特徴とする。
第2の発明は、車両で用いられ、2個以上の音響信号出力装置のそれぞれから音響信号を出力することによって、3次元空間の所望の位置に仮想音源を定位させた立体音像を生成する立体音像生成部(F4)と、車室内の設けられたカメラの撮像画像に基づいて、所定の座席に着座している乗員が見ている方向である視認方向を特定する視認方向特定部(F5)と、視認方向特定部の特定結果に基づいて、立体音像が生成されてから所定の反応待機時間以内に仮想音源が定位された方向である定位方向を乗員が見たか否かを判定する視認判定部(F6)と、視認判定部の判定結果に基づいて乗員の状態を推定する乗員状態推定部(F7)と、を備え、乗員状態推定部は、運転席乗員としての状態の適正度合いを逐次判定し、乗員の五感の少なくとも何れか1つを刺激する刺激装置の動作を制御する刺激印加部(F9)と、乗員状態推定部によって逐次判定される適正度合いの時間変化に基づき、適正度合いが、自動運転時における運転席乗員の状態として予め設計された不適切なレベルへ移行するタイミングを予測する予測部(F8)と、をさらに備え、刺激印加部は、予測部によって所定の残余時間以内に不適切なレベルまで低下すると予測されている場合に、刺激装置を動作させることを特徴とする。
第3の発明は、車両で用いられ、2個以上の音響信号出力装置のそれぞれから音響信号を出力することによって、3次元空間の所望の位置に仮想音源を定位させた立体音像を生成する立体音像生成部(F4)と、車室内の設けられたカメラの撮像画像に基づいて、所定の座席に着座している乗員が見ている方向である視認方向を特定する視認方向特定部(F5)と、視認方向特定部の特定結果に基づいて、立体音像が生成されてから所定の反応待機時間以内に仮想音源が定位された方向である定位方向を乗員が見たか否かを判定する視認判定部(F6)と、視認判定部の判定結果に基づいて乗員の状態を推定する乗員状態推定部(F7)と、を備え、視認方向特定部は、複数の座席のそれぞれに着座する乗員の視認方向を特定するように構成されており、視認判定部は、乗員毎に、仮想音源が定位された方向を見たか否かを判定し、乗員状態推定部は、視認判定部による判定結果に基づいて、乗員毎の状態が、自動運転時の運転席乗員の状態として予め設計された適切な状態であるか否かを判定することを特徴とする。
第4の発明は、車両で用いられ、2個以上の音響信号出力装置のそれぞれから音響信号を出力することによって、3次元空間の所望の位置に仮想音源を定位させた立体音像を生成する立体音像生成部(F4)と、車室内の設けられたカメラの撮像画像に基づいて、所定の座席に着座している乗員が見ている方向である視認方向を特定する視認方向特定部(F5)と、視認方向特定部の特定結果に基づいて、立体音像が生成されてから所定の反応待機時間以内に仮想音源が定位された方向である定位方向を乗員が見たか否かを判定する視認判定部(F6)と、視認判定部の判定結果に基づいて乗員の状態を推定する乗員状態推定部(F7)と、を備え、視認方向特定部は、複数の座席のそれぞれに着座する乗員の視認方向を特定するように構成されており、視認判定部は、乗員毎に、仮想音源が定位された方向を見たか否かを判定し、乗員状態推定部は、運転席乗員としての状態の適正度合いを逐次判定するとともに、視認判定部による判定結果に基づいて、乗員毎の状態を推定することを特徴とする。
A first invention for achieving the object is used in a vehicle, and outputs a sound signal from each of two or more sound signal output devices to localize a virtual sound source at a desired position in a three-dimensional space. Based on the captured image of the stereoscopic sound image generation unit (F4) that generates the stereoscopic image and the camera provided in the passenger compartment, the visual recognition direction that is the direction that the occupant seated in the predetermined seat is viewing is specified. Whether the occupant saw the localization direction, which is the direction in which the virtual sound source was localized within a predetermined reaction waiting time after the stereoscopic sound image was generated, based on the identification result of the visual recognition direction specifying unit (F5) and the visual recognition direction specifying unit A visual recognition determination unit (F6) that determines whether or not, an occupant state estimation unit (F7) that estimates the state of the occupant based on the determination result of the visual recognition determination unit, and peripheral information that indicates traffic conditions around the vehicle Peripheral information detection device Based on the peripheral information acquired by the peripheral information acquisition unit (F1) that acquires the peripheral information and the peripheral information acquisition unit, the presence of an object that can come into contact with the vehicle is detected and the direction in which the object exists is specified A risk direction specifying unit (F3), and the peripheral information acquiring unit acquires, as peripheral information, a moving body type of a moving body existing around the vehicle, a relative speed with respect to the vehicle, a relative position with respect to the vehicle, and a risk direction. The identifying unit identifies a direction in which an approaching body, which is a moving body whose distance from the vehicle is decreasing, based on the surrounding information acquired by the surrounding information acquisition unit, and collides with each approaching body based on the surrounding information. A risk evaluation unit (F31) that evaluates the risk, and a pseudo sound data storage unit (M1) that stores pseudo sound data for outputting the pseudo sound corresponding to the mobile body type as an acoustic signal for each mobile body type. The surrounding information includes at least a moving body type for each moving body existing around the vehicle, and the three-dimensional sound image generation unit is a direction in which the localization direction that is the direction in which the virtual sound source is located for the occupant is specified by the risk direction specifying unit. By generating a three-dimensional sound image so as to coincide with the occupant, the presence of the approaching body is notified to the occupant, and among the approaching bodies, the risk evaluation unit evaluates that the collision risk is less than a predetermined notification threshold. For the approaching object that does not generate a three-dimensional sound image corresponding to the moving object, there is an approaching object that is evaluated by the risk evaluation unit as having a collision risk equal to or higher than a predetermined notification threshold. , A three-dimensional sound image is generated so that the direction in which the approaching body is present matches the localization direction of the virtual sound source, and there is an approaching body that is evaluated to be equal to or greater than a predetermined notification threshold. In addition, according to the collision risk evaluated by the risk evaluation unit for the approaching object that is to notify the occupant of the existence by generating the three-dimensional sound image with the pseudo sound according to the moving body type of the approaching object , imitative of the types of 3D sound is characterized that you change the blowing mode without changing.
The second invention is used in a vehicle and outputs a sound signal from each of two or more sound signal output devices to generate a three-dimensional sound image in which a virtual sound source is localized at a desired position in a three-dimensional space. A visual direction specifying unit (F5) that specifies a visual direction, which is a direction in which a passenger seated in a predetermined seat is viewing, based on a sound image generating unit (F4) and a captured image of a camera provided in a vehicle interior. And a visual determination that determines whether or not the occupant has viewed the localization direction that is the direction in which the virtual sound source is localized within a predetermined reaction waiting time after the stereoscopic sound image is generated based on the identification result of the visual recognition direction identification unit And an occupant state estimation unit (F7) that estimates the state of the occupant based on the determination result of the visual recognition determination unit, and the occupant state estimation unit sequentially determines the appropriateness of the state as a driver's seat occupant Judgment and less sense of the crew Both the stimulus application unit (F9) that controls the operation of the stimulation device that stimulates any one of them, and the appropriateness degree based on the temporal change of the appropriateness level sequentially determined by the occupant state estimation unit, the driver's seat at the time of automatic driving And a prediction unit (F8) for predicting the timing of shifting to an inappropriate level designed in advance as an occupant state, and the stimulus applying unit is lowered to an inappropriate level within a predetermined remaining time by the prediction unit Then, when it is predicted, the stimulator is operated.
According to a third aspect of the present invention, there is provided a three-dimensional sound image that is used in a vehicle and generates a three-dimensional sound image in which a virtual sound source is localized at a desired position in a three-dimensional space by outputting sound signals from each of two or more sound signal output devices. A visual direction specifying unit (F5) that specifies a visual direction, which is a direction in which a passenger seated in a predetermined seat is viewing, based on a sound image generating unit (F4) and a captured image of a camera provided in a vehicle interior. And a visual determination that determines whether or not the occupant has viewed the localization direction that is the direction in which the virtual sound source is localized within a predetermined reaction waiting time after the stereoscopic sound image is generated based on the identification result of the visual recognition direction identification unit And an occupant state estimation unit (F7) that estimates the state of the occupant based on the determination result of the visual recognition determination unit, and the visual recognition direction specifying unit visually recognizes the occupant seated in each of the plurality of seats. Configure to identify direction The visual recognition determination unit determines, for each occupant, whether or not the virtual sound source has been localized, and the occupant state estimation unit determines whether the state of each occupant is based on the determination result by the visual determination unit. It is characterized in that it is determined whether or not the state of the driver's seat occupant during automatic driving is an appropriate state designed in advance.
A fourth invention is a three-dimensional sound image that is used in a vehicle and generates a three-dimensional sound image in which a virtual sound source is localized at a desired position in a three-dimensional space by outputting sound signals from each of two or more sound signal output devices. A visual direction specifying unit (F5) that specifies a visual direction, which is a direction in which a passenger seated in a predetermined seat is viewing, based on a sound image generating unit (F4) and a captured image of a camera provided in a vehicle interior. And a visual determination that determines whether or not the occupant has viewed the localization direction that is the direction in which the virtual sound source is localized within a predetermined reaction waiting time after the stereoscopic sound image is generated based on the identification result of the visual recognition direction identification unit And an occupant state estimation unit (F7) that estimates the state of the occupant based on the determination result of the visual recognition determination unit, and the visual recognition direction specifying unit visually recognizes the occupant seated in each of the plurality of seats. Configure to identify direction The visual recognition determination unit determines, for each occupant, whether or not the direction in which the virtual sound source is localized is viewed, and the occupant state estimation unit sequentially determines the appropriate degree of the state as the driver's seat occupant, A state for each occupant is estimated based on a determination result by the visual recognition determination unit.
以上の構成において、乗員状態推定部は、立体音像を定位させた方向を、乗員が視認したか否かに基づいて当該乗員の状態を推定する。このような構成によれば、運転席乗員の適正度を決定する上で、運転席乗員にいったんディスプレイを見させる必要が発生しない。仮想音源が定位されている方向が、視線を向けるべき方向となっているためである。 In the above configuration, the occupant state estimation unit estimates the state of the occupant based on whether or not the occupant has visually recognized the direction in which the stereo sound image is localized. According to such a configuration, it is not necessary for the driver's seat occupant to see the display once in determining the appropriateness of the driver's seat occupant. This is because the direction in which the virtual sound source is localized is the direction in which the line of sight should be directed.
したがって、運転席乗員がディスプレイに視線を向けなくとも運転席乗員の状態を推定できる。 Therefore, the state of the driver's seat occupant can be estimated even if the driver's seat occupant does not look at the display.
なお、特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本発明の技術的範囲を限定するものではない。 In addition, the code | symbol in the parenthesis described in the claim shows the correspondence with the specific means as described in embodiment mentioned later as one aspect, Comprising: The technical scope of this invention is limited is not.
以下、本発明の実施形態の一例について図を用いて説明する。図1は、本実施形態に係る乗員状態推定システム100の概略的な構成の一例を示す図である。本実施形態の乗員状態推定システム100は、自動運転機能を備えた車両に搭載されており、当該車両の運転席に着座している乗員(以降、運転席乗員)の、自動運転時の状態としての適正度合い(以降、適正度)を逐次決定するものである。
Hereinafter, an example of an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a diagram illustrating an example of a schematic configuration of an occupant
なお、ここでの運転席乗員の状態の適正度は、脳を含む身体の疲労度合いを示すパラメータであってもよいし、眠さ等の意識レベルを示すパラメータであってもよい。また、適正度は、精神状態の安定度合いを示すパラメータであってもよい。 The appropriateness of the state of the driver's seat occupant here may be a parameter indicating the degree of fatigue of the body including the brain, or may be a parameter indicating the level of consciousness such as sleepiness. The appropriateness level may be a parameter indicating the degree of stability of the mental state.
ここでは一例として、それらの種々の要因を複合的に組み合わせた適正度を意味するものとする。適正度が高い程、自動運転時における運転席乗員の状態として、予め定義された適切な状態に近いことを表す。 Here, as an example, it is assumed that the appropriateness is a combination of these various factors. The higher the degree of appropriateness, the closer to the appropriate state defined in advance as the state of the driver's seat occupant during automatic driving.
また、ここでの自動運転機能とは、ユーザによって設定されている走行予定経路に沿って自車両が走行するように、操舵、加速、減速を自動的に実行する機能である。以降では便宜上、乗員状態推定システム100が搭載されている車両のことを自車両とも記載する。
The automatic driving function here is a function that automatically executes steering, acceleration, and deceleration so that the host vehicle travels along a planned travel route set by a user. Hereinafter, for convenience, a vehicle on which the occupant
<乗員状態推定システム100の構成について>
図1に示すように、乗員状態推定システム100は、乗員状態推定装置10、カメラユニット21、ミリ波レーダ22、車車間通信部23、広域通信部24、ドライバステータスモニタ(以降、DSM:Driver Status Monitor)25、スピーカ26、ディスプレイ27、バイブレータ28、空調装置29、及び自動運転ECU30を備えている。
<Configuration of Crew
As shown in FIG. 1, an occupant
カメラユニット21、ミリ波レーダ22、車車間通信部23、広域通信部24、DSM25、スピーカ26、ディスプレイ27、バイブレータ28、空調装置29、及び自動運転ECU30のそれぞれは、乗員状態推定装置10と車両内に構築された通信ネットワーク(以降、LAN:Local Area Network)を介して相互通信可能に接続されている。
The
乗員状態推定装置10は、CPU11、RAM12、ROM13、I/O14、及びこれらの構成を接続するバスラインなどを備えた、コンピュータとして構成されている。CPU11は種々の演算処理を実施するものであって、例えばマイクロプロセッサ等を用いて実現される。RAM12は揮発性のメモリであり、ROM13は不揮発性のメモリである。I/O14は、乗員状態推定装置10が、カメラユニット21やミリ波レーダ22等とデータの入出力をするためのインターフェースである。I/O14は、アナログ回路素子やICなどを用いて実現されればよい。
The occupant
ROM13には、通常のコンピュータを乗員状態推定装置10として機能させるためのプログラム(以降、乗員状態推定プログラム)等が格納されている。なお、上述の乗員状態推定プログラムは、非遷移的実体的記録媒体(non- transitory tangible storage medium)に格納されていればよい。CPU11が乗員状態推定プログラムを実行することは、乗員状態推定プログラムに対応する方法が実行されることに相当する。
The
乗員状態推定装置10は、CPU11が乗員状態推定プログラムを実行することによって、後述する種々の機能を提供する。またに、それらの機能を協働させることによって後述する乗員状態管理処理を実行する。
The occupant
なお、乗員状態管理処理の概略は次の通りである。乗員状態推定装置10は、カメラユニット21やミリ波レーダ22等から入力されるデータに基づいて、自車両周辺に存在する他の移動体と自車両とが衝突する可能性(換言すれば衝突リスク)を推定する。衝突リスクが所定の閾値以上となっている移動体が存在する場合には、その移動体が存在する方向に対応する位置に立体音像を生成する。
The outline of the occupant state management process is as follows. The occupant
そして、立体音像を生成した時点からの運転席乗員の視線の動きを観測することで、運転席乗員の適正度を決定する。仮に決定された適正度が、不適切な状態に相当するレベルとなっている場合には、適切な状態へと復帰するように運転席乗員の五感に対して刺激を付与する。なお、ここでの自車両周辺に存在する他の移動体には、他車両だけでなく、歩行者なども含まれる。 Then, the appropriateness of the driver's seat occupant is determined by observing the movement of the line of sight of the driver's seat occupant from the time when the three-dimensional sound image is generated. If the degree of appropriateness determined is at a level corresponding to an inappropriate state, a stimulus is given to the five senses of the driver's seat occupant so as to return to the appropriate state. In addition, the other mobile bodies existing around the own vehicle here include not only other vehicles but also pedestrians and the like.
カメラユニット21及びミリ波レーダ22は、歩行者及び他車両等の移動体、さらに道路上の落下物、交通信号機、ガードレール、縁石、道路標識、道路標示、及び区画線等の静止物を検出する自律センサである。つまり、カメラユニット21及びミリ波レーダ22のそれぞれは、自車両周辺の交通状況及び走行環境を表す情報(以降、周辺情報)のソースデバイス(以降、周辺情報検出デバイス)として機能する。なお、ここでの交通状況とは、自車両と歩行者及び他車両等の移動体との位置関係や、周辺に存在する車両の数(つまり車両密度)などを表し、走行環境とは、路上の落下物、交通信号機、ガードレール、縁石、道路標識、道路標示、及び区画線等の静止物に対する自車両の位置関係や、道路勾配、道路の曲率などを指すものとする。
The
例えばカメラユニット21は、車室外の所定範囲(例えば前方)を撮影するように設置されたカメラ(以降、車室外用カメラ)と、当該車室外カメラが撮影した画像に対して画像認識処理を施すことで、例えば歩行者などの上述した種々の検出対象物を検出する画像認識処理モジュールとを用いて実現されれば良い。車室外カメラとしては、CMOSカメラやCCDカメラ等の光学式のカメラを用いることができる。
For example, the
もちろん、赤外線カメラを車室外カメラとして用いても良い。また、車室外カメラの撮影範囲は、自車両前方に限らず、自車両側方や、自車両後方などであってもよい。車室外カメラの撮影範囲は適宜設計されれば良い。また、車室外カメラは複数のカメラを用いて実現されても良い。 Of course, an infrared camera may be used as a camera outside the vehicle compartment. Further, the shooting range of the camera outside the vehicle compartment is not limited to the front of the host vehicle, but may be the side of the host vehicle or the rear of the host vehicle. The photographing range of the vehicle exterior camera may be appropriately designed. Further, the vehicle exterior camera may be realized using a plurality of cameras.
また、ミリ波レーダ22は、ミリ波又は準ミリ波を送受信することで、自車両前方の所定範囲(以降、レーダ検知エリア)に存在する物体についての情報を取得する。具体的には、レーダ検知エリア内に存在する物体を検出するとともに、その検出した物体が存在する方向や、距離、相対速度、種別等を推定する。
Further, the
なお、ここでは一例としてミリ波レーダ22が、反射波の受信結果を解析することで検出物が存在する方向や距離、相対速度、種別などを推定する態様とするが、これに限らない。他の態様として、ミリ波レーダ22は反射波の受信結果を乗員状態推定装置10に提供し、乗員状態推定装置10が、ミリ波レーダ22から提供される反射波の受信結果を解析することで検出物が存在する方向や距離、相対速度、種別などを推定する態様としてもよい。
Here, as an example, the
また、他の態様として、自車両前方に存在する物体を検出するレーダ装置として、ミリ波レーダ22に代えてレーザレーダを採用してもよい。さらに、ミリ波レーダ22とレーザレーダを併用してもよい。カメラユニット21及びミリ波レーダ22はそれぞれ、検出した移動物体及び静止物体に係る検出物情報を、乗員状態推定装置10へ逐次提供する。検出物情報が前述の周辺情報に相当する。
As another aspect, a laser radar may be employed instead of the
車車間通信部23は、5.9GHz帯や760MHz帯など所定の周波数帯の電波を用いて、他車両と直接的な無線通信(いわゆる車車間通信)を実施するための通信モジュールである。
The
例えば車車間通信部23は、自車両の走行状態を示す車両情報を含んだ通信パケットを送信するとともに、他車両の車両情報を含んだ通信パケットを受信する。車両情報には、現在位置や、進行方向、車速、加速度などが含まれる。車両情報を含む通信パケットには、車両情報のほかに、当該通信パケットの送信時刻や、送信元情報などの情報を含む。送信元情報とは、送信元に相当する車両に割り当てられている識別番号(いわゆる車両ID)である。
For example, the
このように車車間通信部23もまた、周辺情報を取得する装置として機能する。そのため、車車間通信部23もまた、周辺情報検出デバイスに相当する。
Thus, the
広域通信部24は、広域通信網に接続し、図示しない外部装置と広域通信網を介した通信を実施するための無線通信モジュールである。例えば、広域通信部24は、自車両の現在位置に対応する道路の交通情報を配信する交通情報配信センタや、気象情報を配信する気象情報配信センタ等と通信する。これにより広域通信部24は、自車両の現在位置に対応する交通情報や気象情報を取得する。
The wide
ここでの交通情報には、自車両が走行している道路の混雑度合いを示す渋滞情報や、交通規制情報、路面情報、工事情報、事故情報、障害物情報等が含まれる。路面情報は、路面が濡れているか、凍結しているかなどの路面状態を示す情報である。障害物情報とは、駐車車両の位置や、道路上の落下物の位置及びその種別等を示す情報である。なお、自車両の現在位置は、Global Navigation Satellite System(以降、GNSS)が備える航法衛星が送信する航法信号に基づいて特定されればよい。 The traffic information here includes traffic jam information indicating the degree of congestion of the road on which the vehicle is traveling, traffic regulation information, road surface information, construction information, accident information, obstacle information, and the like. The road surface information is information indicating a road surface state such as whether the road surface is wet or frozen. Obstacle information is information indicating the position of a parked vehicle, the position of a fallen object on a road, its type, and the like. The current position of the host vehicle may be specified based on a navigation signal transmitted by a navigation satellite provided in the Global Navigation Satellite System (hereinafter referred to as GNSS).
このように広域通信部24もまた、周辺情報を取得する装置として機能する。そのため、広域通信部24もまた、周辺情報検出デバイスに相当する。
Thus, the wide
DSM25は、近赤外光源、近赤外カメラ、及びそれらを制御する制御ユニット等を用いて実現されている。DSM25は、近赤外光源によって近赤外光を照射された運転席乗員の顔を、近赤外カメラによって撮影する。DSM25は、近赤外カメラの撮像画像に対して周知の画像認識処理を施すことで、運転席乗員の顔の向き、及び視線方向等を逐次検出する。
The
検出された運転席乗員の顔の向きや視線方向を示す情報は、乗員状態推定装置10へ逐次出力される。なお、撮像画像から運転席乗員の顔の向き、視線方向等を特定することは、周知の方法を援用して実現することができるため、ここではその詳細な説明については省略する。
Information indicating the detected face direction and line-of-sight direction of the driver's seat occupant is sequentially output to the occupant
スピーカ26は、乗員状態推定装置10からの指示に基づいて音響信号(つまり音)を出力する音響信号出力装置である。スピーカ26は、運転席乗員に対して立体音像を提供できるように、車室内において適宜設計される複数の箇所に設けられていればよい。
The
本実施形態では一例として、自車両には図2に示すように、インストゥルメントパネルの所望の位置に右側スピーカ26Rと左側スピーカ26Lの2つのスピーカ26が設けられているものとする。これにより、本実施形態における乗員状態推定装置10は2チャンネルスピーカを用いて立体音像の提供を実現する。
In the present embodiment, as an example, it is assumed that the host vehicle is provided with two
なお、右側スピーカ26Rは、例えばインストゥルメントパネルにおいて運転席の右斜め前方に設けられ、左側スピーカ26Lは、インストゥルメントパネルにおいて運転席の左斜め前方に設けられればよい。もちろん、スピーカ26の設置位置は、上述した態様に限らない。スピーカ26は、ステアリングコラムや、運転席用シートのヘッドレスト、ピラー部分、天井などに設けられていても良い。
For example, the
また、本実施形態では2チャンネルスピーカを用いて立体音場及び立体音源を実現する態様とするが、これに限らない。乗員状態推定装置10は、3チャンネルスピーカを用いて立体音源を実現してもよい。また、スピーカ26は、骨伝導振動子を用いたスピーカや、パラメトリックスピーカであってもよい。
In the present embodiment, a two-channel speaker is used to realize a three-dimensional sound field and a three-dimensional sound source, but is not limited thereto. The occupant
ディスプレイ27は、乗員状態推定装置10から入力された信号に対応するテキストや画像を表示する。ディスプレイ27は、例えばフルカラー表示が可能なものであり、液晶ディスプレイや、有機ELディスプレイ等を用いて構成することができる。また、ディスプレイ27としては、ヘッドアップディスプレイであってもよい。
The
バイブレータ28は、図示しないモータを駆動させることによって振動素子を振動させる装置である。バイブレータ28は、運転席乗員の触覚を刺激するための装置として用いられる。そのため、バイブレータ28は、運転席用シートや、ペダル(例えばブレーキペダル)、ハンドルなどといった、車室内において運転席乗員の体が触れると想定される箇所に設けられていることが好ましい。
The
なお、自動運転時には、運転席乗員の手がハンドルから離れていたり、ペダルから足が離れていたりすることが想定される。したがって、バイブレータ28は、運転席用のシートや、シートベルト等、自動運転時においても運転席乗員の体に接することが想定される部材に設けられていることが好ましい。
During automatic driving, it is assumed that the driver's occupant's hand is away from the handle or the foot is away from the pedal. Therefore, it is preferable that the
空調装置29は、車室内の温度や、湿度等を調整する装置である。空調装置29の作動は、乗員状態推定装置10によって制御される。なお、空調装置29は、香り付きの空気を吹き出す機能(以降、香り発生機能)を備えていてもよい。
The
自動運転ECU30は、自動運転機能を提供するECU(Electronic Control Unit)である。すなわち、ユーザによって設定されている走行予定経路に沿って自車両が走行するように、操舵、加速、減速を自動的に実行する。自動的な操舵、加減速等の制御は、制御対象とする車載アクチュエータやモータに向けて、制御信号を出力することによって実現されればよい。また、自動運転ECU30は、自動運転機能が作動しているか否かを示す作動情報を乗員状態推定装置10に提供する。
The
<乗員状態推定装置10が備える機能について>
次に、図3を用いて乗員状態推定装置10が備える機能について説明する。乗員状態推定装置10は、CPU11が上述の乗員状態推定プログラムを実行することによって、図3に示す種々の機能ブロックに対応する機能を提供する。すなわち、乗員状態推定装置10は機能ブロックとして、周辺情報取得部F1、移動体情報抽出部F2、接近体抽出部F3、立体音像生成部F4、視認方向特定部F5、視認判定部F6、適正度決定部F7、適正度予測部F8、及び刺激印加部F9を備える。
<Regarding the functions of the occupant
Next, the function with which the passenger | crew
なお、乗員状態推定装置10が備える機能ブロックの一部又は全部は、一つあるいは複数のIC等を用いて(換言すればハードウェアとして)実現してもよい。また、乗員状態推定装置10が備える機能ブロックの一部又は全部は、CPUによるソフトウェアの実行とハードウェア部材の組み合わせによって実現されてもよい。
Part or all of the functional blocks included in the occupant
また、乗員状態推定装置10は、ROM13が備える記憶領域の一部を用いて実現される音データ記憶部M1と、RAM12等の書き換え可能な記憶媒体を用いて実現される結果記憶部M2と、を備える。
In addition, the occupant
音データ記憶部M1には、移動体種別毎の擬音データが格納されている。移動体種別とは、例えば四輪自動車や二輪自動車、自転車、歩行者などといった移動体の種別を意味する。なお、四輪自動車は、さらに、トラックや、乗用車などのように細分化されていてもよい。 The sound data storage unit M1 stores pseudo sound data for each moving body type. The moving body type means a moving body type such as a four-wheeled vehicle, a two-wheeled vehicle, a bicycle, and a pedestrian. The four-wheeled vehicle may be further subdivided like a truck or a passenger car.
或る移動体種別の擬音データとは、その移動体種別の特徴を表す擬音をスピーカ26から出力するためのデータである。例えば、二輪自動車の擬音データとは二輪自動車のエンジン音を模した音響信号を出力するためのデータとすればよい。擬音データは、MIDI(Musical Instrument Digital Interface)形式で保存されていても良いし、他の形式で保存されていても良い。音データ記憶部M1が請求項に記載の擬音データ記憶部に相当する。
The onomatopoeia data of a certain mobile body type is data for outputting onomatopoeia representing the characteristics of the mobile body type from the
結果記憶部M2には、後述する視認判定部F6による判定結果が保存される。結果記憶部M2が記憶する判定結果については別途後述する。 The result storage unit M2 stores a determination result by a visual recognition determination unit F6 described later. The determination result stored in the result storage unit M2 will be described later separately.
周辺情報取得部F1は、カメラユニット21、ミリ波レーダ22、車車間通信部23、広域通信部24のそれぞれと相互通信を実施し、それぞれが取得した周辺情報を取得する。つまり、周辺情報取得部F1は、周辺情報検出デバイスとの通信インターフェースとして機能する。周辺情報取得部F1が取得した周辺情報は、その取得時刻を示すタイムスタンプが付与されてRAM12に保存されれば良い。
The peripheral information acquisition unit F1 performs mutual communication with each of the
移動体情報抽出部F2は、周辺情報取得部F1が取得した周辺情報に基づいて、自車両周辺に存在する移動体毎の移動体情報を抽出する。ここでは一例として、移動体情報には、移動体種別と、自車両に対して移動体が存在する相対的な位置(つまり相対位置)と、自車両に対する相対速度と、相対的な進行方向と、が含まれるものとする。相対位置は、方向と距離によって表されれば良い。相対速度は、自車両との距離が小さくなる場合に正の値をとるように算出されれば良い。 The mobile body information extraction unit F2 extracts mobile body information for each mobile body existing around the host vehicle based on the peripheral information acquired by the peripheral information acquisition unit F1. Here, as an example, the moving body information includes the moving body type, the relative position where the moving body exists with respect to the own vehicle (that is, the relative position), the relative speed with respect to the own vehicle, and the relative traveling direction. , Shall be included. The relative position may be represented by a direction and a distance. The relative speed may be calculated so as to take a positive value when the distance to the host vehicle is small.
なお、各周辺情報検出デバイスから提供される周辺情報に含まれる移動体情報は、周知のセンサフュージョン技術によって相補的に結合されて利用されればよい。移動体情報抽出部F2が逐次取得する移動体毎の移動体情報は、移動体毎に区別されてRAM12に保存されれば良い。
In addition, the mobile body information contained in the peripheral information provided from each peripheral information detection device should just be complementarily couple | bonded and utilized by a well-known sensor fusion technique. The moving body information for each moving body that is sequentially acquired by the moving body information extraction unit F2 may be distinguished for each moving body and stored in the
接近体抽出部F3は、移動体毎の移動体情報に基づいて、自車両周辺に存在する移動体のうち、自車両と接近関係にある移動体(以降、接近体)を抽出する。自車両と接近関係にある移動体とは、自車両との距離が減少傾向にある移動体である。接近体は、相対位置の時間変化から特定されればよい。 Based on the moving body information for each moving body, the approaching body extraction unit F3 extracts a moving body (hereinafter referred to as an approaching body) in an approaching relationship with the own vehicle from among the moving bodies existing around the own vehicle. The moving body that is in an approaching relationship with the host vehicle is a moving body whose distance from the host vehicle tends to decrease. The approaching body may be specified from the time change of the relative position.
もちろん、接近体は、対象とする移動体の相対位置や、対象とする移動体の進行方向、自車両の進行方向などに基づいて決定されても良い。接近体抽出部F3によって抽出された移動体(つまり接近体)は、自車両と接触する可能性がある移動体に相当する。なお、移動体毎の相対位置等は移動体情報抽出部F2によって特定されているため、接近体を特定すれば、その接近体の相対位置等も特定される。接近体が存在する方向が、自車両と接触しうる移動体が存在する方向である。したがって、接近体抽出部F3が請求項に記載のリスク方向特定部に相当する。 Of course, the approaching body may be determined based on the relative position of the target moving body, the traveling direction of the target moving body, the traveling direction of the host vehicle, and the like. The moving body (that is, the approaching body) extracted by the approaching body extraction unit F3 corresponds to a moving body that may come into contact with the host vehicle. In addition, since the relative position etc. for every moving body are specified by the moving body information extraction part F2, if the approaching body is specified, the relative position of the approaching body is also specified. The direction in which the approaching body exists is the direction in which the moving body that can come into contact with the host vehicle exists. Therefore, the approaching body extraction unit F3 corresponds to the risk direction specifying unit described in the claims.
また、接近体抽出部F3は、より細かい機能ブロックとしてリスク評価部F31を備える。リスク評価部F31は、接近体毎の衝突リスクを評価する機能ブロックである。例えばリスク評価部F31は、接近体毎に、その接近体の相対位置、相対速度、及び相対的な進行方向に基づいて、衝突するまでの残り時間(いわゆるTTC:Time-To-Collision)を算出し、TTCが小さいほど衝突リスクが高いと判定する。 Moreover, the approaching body extraction unit F3 includes a risk evaluation unit F31 as a finer functional block. The risk evaluation unit F31 is a functional block that evaluates the collision risk for each approaching body. For example, the risk evaluation unit F31 calculates, for each approaching body, the remaining time until the collision (so-called TTC: Time-To-Collision) based on the relative position, relative speed, and relative traveling direction of the approaching body. It is determined that the smaller the TTC, the higher the collision risk.
衝突リスクは連続的な値として算出されても良いが、ここでは一例として、衝突リスクの高さは、レベル1からレベル4までの4段階で表現されるものとする。レベル1は衝突リスクの最も低い状態を表し、レベル4が衝突リスクの最も高い状態を表す。
The collision risk may be calculated as a continuous value, but here, as an example, the height of the collision risk is expressed in four stages from
例えばレベル1は、衝突するまでの時間がまだ十分に残っている状態や、衝突する可能性が0と見なすことができるほど十分に低い状態を表すものである。例えば、TTCが所定の第1閾値(例えば15秒)以上となっている場合にはレベル1と判定し、TTCが第1閾値未満であって所定の第2閾値(例えば10秒)以上となっている場合にはレベル2と判定する。
For example,
また、TTCが第2閾値未満であって第3閾値(例えば5秒)以上となっている場合にはレベル3と判定し、TTCが第3閾値未満となっている場合にはレベル4と判定する。なお、種々の閾値の具体的な値は適宜設計されればよい。
Further, when the TTC is less than the second threshold and is not less than the third threshold (for example, 5 seconds), it is determined as
また、本実施形態では一例として、TTCの大きさに基づいてレベルを決定する態様とするが、これに限らない。周知の方法によってレベルを決定してもよい。 In the present embodiment, as an example, the level is determined based on the size of the TTC. However, the present invention is not limited to this. The level may be determined by a known method.
なお、本実施形態では自車両の走行状態を示す情報を用いずに、衝突リスク(換言すればレベル)を算出する態様を例示するが、これに限らない。自車両の走行速度や進行方向、操舵角などに基づいて、衝突リスクを算出する態様としてもよい。自車両の車両情報と周辺環境とから衝突リスクを算出する方法は周知のものを援用することができるため、ここではその詳細は省略する。 In addition, although this embodiment illustrates the aspect which calculates a collision risk (in other words, a level), without using the information which shows the driving state of the own vehicle, it is not restricted to this. A collision risk may be calculated based on the traveling speed, traveling direction, steering angle, and the like of the host vehicle. Since a well-known method can be used as the method for calculating the collision risk from the vehicle information of the host vehicle and the surrounding environment, the details thereof are omitted here.
立体音像生成部F4は、右側スピーカ26R及び左側スピーカ26Lのそれぞれから音響信号を出力させることで、仮想音源を3次元空間の任意の方向及び任意の距離に定位させた立体音像を生成する。仮想音源の位置の調整は、各スピーカから出力させる音のレベル差、時間差、位相差などを制御することで実現することができる。このような音像定位には、公知の音場再生システムにて用いられている周知の音像定位技術を用いることができる。
The three-dimensional sound image generation unit F4 generates a three-dimensional sound image in which the virtual sound source is localized in an arbitrary direction and an arbitrary distance in the three-dimensional space by outputting an acoustic signal from each of the
本実施形態において立体音像生成部F4が立体音像を生成する場合とは、接近体の中に、所定の報知条件を充足する接近体が存在する場合とする。報知条件は、立体音像を提供することによって、対象とする接近体の存在を運転席乗員に報知するための条件である。報知条件の具体的な内容については別途後述する。便宜上、報知条件を充足している接近体のことを報知対象移動体と記載する。 In the present embodiment, the case where the three-dimensional sound image generation unit F4 generates a three-dimensional sound image is a case where an approaching body that satisfies a predetermined notification condition exists in the approaching body. The notification condition is a condition for notifying a driver's seat occupant of the presence of a target approaching object by providing a three-dimensional sound image. Specific contents of the notification condition will be described later separately. For convenience, an approaching body that satisfies the notification condition is referred to as a notification target moving body.
また、立体音像生成部F4は、運転席から見て報知対象移動体が存在する方向と、運転席乗員によって仮想音源が存在すると知覚される方向とが一致するように、仮想音源の位置を決定する。つまり、仮想音源は、運転席から見て報知対象移動体が存在する方向に配置される。例えば、報知対象移動体が自車両の右斜め後方に存在する場合には、立体音像生成部F4は、運転席乗員によって仮想音源が右斜め後方に存在すると知覚されるように立体音像を生成する。 In addition, the three-dimensional sound image generation unit F4 determines the position of the virtual sound source so that the direction in which the notification target moving body exists when viewed from the driver's seat matches the direction perceived by the driver's seat occupant as the virtual sound source. To do. That is, the virtual sound source is arranged in the direction in which the notification target moving body exists when viewed from the driver's seat. For example, when the notification target moving body exists diagonally right behind the host vehicle, the stereoscopic sound image generation unit F4 generates a stereoscopic sound image so that the driver's seat occupant perceives that the virtual sound source exists diagonally right behind. .
このような態様によれば、運転席乗員に、報知対象移動体が存在する方向(換言すれば注意を払うべき方向)を直感的に認識させることができる。立体音像生成部F4は、立体音像を生成した場合、その仮想音源を配置した方向(以降、定位方向)を示す情報を視認判定部F6に提供する。 According to such an aspect, the driver's seat occupant can intuitively recognize the direction in which the notification target moving body is present (in other words, the direction where attention should be paid). When the three-dimensional sound image is generated, the three-dimensional sound image generation unit F4 provides information indicating the direction in which the virtual sound source is arranged (hereinafter, the localization direction) to the visual recognition determination unit F6.
さらに、立体音像生成部F4は、報知対象移動体の移動体種別に応じた擬音データを用いて、立体音像を生成する。例えば報知対象移動体が四輪自動車である場合には四輪自動車に対応する擬音データを用いて、立体音像を生成する。このような態様によれば、立体音像を構成する擬音の種類に基づいて、運転席乗員に報知対象移動体の移動体種別を直感的に認識させることができる。 Furthermore, the three-dimensional sound image generation unit F4 generates a three-dimensional sound image using pseudo sound data corresponding to the moving body type of the notification target moving body. For example, when the notification target moving body is a four-wheeled vehicle, a three-dimensional sound image is generated using pseudo sound data corresponding to the four-wheeled vehicle. According to such an aspect, it is possible to make the driver's seat occupant intuitively recognize the moving body type of the notification target moving body based on the types of pseudo sounds constituting the three-dimensional sound image.
また、立体音像生成部F4は、報知対象移動体に対してリスク評価部F31が決定している衝突リスクに応じて、立体音像の吹鳴態様(換言すれば出力態様)を調整する。例えば、衝突リスクが高いほど、運転席乗員に対して危機感を感じさせる吹鳴態様で立体音像を生成する。例えば、衝突リスクが高いほど、擬音が含む高音を強調して出力したり、音量を大きくしたり、立体音像を連続して生成する回数を増加させたりする。なお、各スピーカ26には、所望の吹鳴態様の立体音像が生成されるように調整された擬音信号が出力されれば良い。
In addition, the three-dimensional sound image generation unit F4 adjusts the sounding mode (in other words, the output mode) of the three-dimensional sound image according to the collision risk determined by the risk evaluation unit F31 for the notification target moving body. For example, the higher the collision risk, the more the three-dimensional sound image is generated in a sounding manner that makes the driver's occupant feel a sense of crisis. For example, the higher the collision risk is, the higher the treble included in the onomatopoeia is output, the volume is increased, or the number of times that the three-dimensional sound image is continuously generated is increased. It should be noted that a pseudo sound signal adjusted so that a three-dimensional sound image in a desired sounding mode is generated may be output to each
視認方向特定部F5は、DSM25から運転席乗員の顔の向き及び視線方向を示す情報(以降、視線情報)を逐次取得する。そして、運転者乗員の顔の向きと視線方向とから、運転者乗員が見ている方向(以降、視認方向)を特定する。
The visual recognition direction specifying unit F5 sequentially acquires information (hereinafter referred to as visual line information) indicating the direction of the driver's occupant's face and the visual line direction from the
なお、本実施形態ではDSM25が運転席乗員の顔画像から運転席乗員の顔の向きや視線方向を特定する態様とするが、これに限らない。他の態様として、視認方向特定部F5が運転席乗員の顔画像を取得し、その画像データから運転席乗員の顔の向きや視線方向を特定してもよい。
In the present embodiment, the
視認判定部F6は、そして、立体音像生成部F4が立体音像を生成した場合には、上述した視認方向に基づいて、立体音像生成部F4から提供される定位方向を運転席乗員が視認したか否かを判定する。 When the stereoscopic sound image generation unit F4 generates a stereoscopic sound image, the visual recognition determination unit F6 determines whether the driver's seat occupant visually recognizes the localization direction provided from the stereoscopic sound image generation unit F4 based on the visual recognition direction described above. Determine whether or not.
例えば視認判定部F6は、定位方向と視認方向とが一致した場合に、運転席乗員が定位方向を視認したと判定すればよい。なお、ここでの一致とは完全な一致に限らない。例えば視認方向が、定位方向を基準として定まる所定範囲となった場合に、定位方向を運転席乗員が視認したと判定すればよい。 For example, the visual recognition determination unit F6 may determine that the driver's seat occupant has visually recognized the localization direction when the localization direction and the visual recognition direction match. The match here is not limited to a complete match. For example, when the viewing direction is within a predetermined range determined with the localization direction as a reference, it may be determined that the driver's seat passenger has visually recognized the localization direction.
なお、視認判定部F6による判定は、ドアミラーやバックミラーを介して運転席乗員が間接的に視認する場合にも対応しているものとする。具体的には、運転席乗員の視認方向が、右側ドアミラーが配置されている方向となった場合には、運転席乗員は車両の右側後方を視認したと判定する。左側ドアミラーについても同様である。また、運転席乗員の視認方向が、バックミラーが配置されている方向となった場合には、運転席乗員は車両後方を視認したと判定する。 In addition, the determination by the visual recognition determination part F6 shall respond | correspond also when a driver's seat passenger | crew visually recognizes via a door mirror or a rearview mirror. Specifically, when the viewing direction of the driver's seat occupant is the direction in which the right door mirror is disposed, it is determined that the driver's seat occupant has visually recognized the rear right side of the vehicle. The same applies to the left door mirror. Further, when the viewing direction of the driver's seat occupant is the direction in which the rearview mirror is disposed, it is determined that the driver's seat occupant has visually recognized the rear of the vehicle.
また、近年は、車両外の所定範囲(例えば車両後方)を撮影するカメラの撮像映像をディスプレイ27に表示することで、運転席乗員が車両周辺の交通状況を認識することを支援するシステムも提案されている。そのような車室外のリアルタイムな状況を示す映像がディスプレイ27に表示されてあって、かつ、運転席乗員の視線方向がディスプレイ27の方向となった場合には、視認判定部F6は、運転席乗員がディスプレイ27に表示されている映像に対応する方向を視認したと判定すればよい。
In recent years, a system has also been proposed that supports the driver's seat occupant in recognizing traffic conditions around the vehicle by displaying on the
また、視認判定部F6は、より細かい機能ブロックとして、反応時間計測部F61を備える。反応時間計測部F61は、仮想音像を提供する音響信号が出力されてから(換言すれば立体音像が生成されてから)、乗員が定位方向に視線を向けるまでの所要時間(つまり反応時間)を測定する。 Moreover, the visual recognition determination part F6 is provided with the reaction time measurement part F61 as a finer functional block. The reaction time measurement unit F61 calculates the time required for the occupant to turn his / her line of sight in the localization direction after the acoustic signal providing the virtual sound image is output (in other words, after the three-dimensional sound image is generated). taking measurement.
視認判定部F6は、仮想音像を提供する音響信号をスピーカ26から出力させてから、所定の反応待機時間Tmis経過しても運転席乗員が定位方向を視認しなかった場合には、運転席乗員が定位方向を視認しなかったと判定する。反応待機時間Tmisとして採用する具体的な時間は適宜設計されれば良い。ここでは一例として5秒とする。
The visual recognition determination unit F6 outputs an acoustic signal that provides a virtual sound image from the
また、立体音像が生成されてから反応待機時間Tmis経過するまでに運転席乗員の視認方向が定位方向に向いた場合には、その時点までの経過時間を反応時間として採用する。 Further, when the driver's seat occupant's viewing direction is directed to the localization direction from when the three-dimensional sound image is generated until the reaction waiting time Tmis elapses, the elapsed time up to that point is adopted as the reaction time.
記録処理部F62は、運転席乗員が定位方向を視認したか否かの判定結果を結果記憶部M2に記録する機能ブロックである。また、記録処理部F62は、運転席乗員が定位方向を視認した場合には、運転席乗員が定位方向を視認したという判定結果とともに、その際に特定された反応時間も記録する。 The recording processing unit F62 is a functional block that records in the result storage unit M2 the determination result of whether or not the driver's seat occupant has visually recognized the localization direction. Further, when the driver's seat occupant visually recognizes the localization direction, the recording processing unit F62 also records the reaction time specified at that time together with the determination result that the driver's seat occupant visually recognized the localization direction.
判定結果は、立体音像が生成される度に収集される。複数時点における判定結果は、結果記憶部M2において時系列順に並べて保存されればよい。便宜上、判定結果を時系列に並べたデータを判定結果データと称する。図4は、判定結果データの概略的な構成の一例を示す図である。個々の判定結果は、立体音像が生成された時刻を示す時刻情報や、定位方向と対応付けられて保存されることが好ましい。なお、図4の判定結果欄における「OK」は運転席乗員が定位方向を視認したことを表し、「NG」は運転席乗員が定位方向を視認しなかったことを表している。 The determination result is collected every time a three-dimensional sound image is generated. The determination results at a plurality of time points may be stored in the result storage unit M2 in chronological order. For convenience, data in which the determination results are arranged in time series is referred to as determination result data. FIG. 4 is a diagram illustrating an example of a schematic configuration of determination result data. The individual determination results are preferably stored in association with time information indicating the time at which the three-dimensional sound image is generated and the localization direction. Note that “OK” in the determination result column of FIG. 4 indicates that the driver's seat occupant visually recognized the localization direction, and “NG” indicates that the driver's seat occupant did not visually recognize the localization direction.
記録処理部F62は、立体音像が生成される度に収集される判定結果を、所定回数分保存しておく。例えば、記録処理部F62は、直近N回分の判定結果を結果記憶部M2に保存しておくものとする。Nは適宜設計される正の整数であればよく、例えば10や20などとすれば良い。 The recording processing unit F62 stores the determination result collected every time a three-dimensional sound image is generated for a predetermined number of times. For example, the recording processing unit F62 stores the determination results for the latest N times in the result storage unit M2. N may be a positive integer designed as appropriate, for example, 10 or 20.
適正度決定部F7は、結果記憶部M2に保存されている直近N回分の試行に対する判定結果に基づいて、運転席乗員の適正度が、予め設定されている複数のレベルの何れに該当するかを判断する。適正度を示すレベルは、自動運転時における運転席乗員の状態として適切な状態である度合い(つまり適正度)を段階的に表したものである。適正度決定部F7が請求項に記載の乗員状態推定部に相当する。 The appropriateness determination unit F7 determines which of the plurality of preset levels the appropriateness of the driver's seat occupant is based on the determination result for the last N trials stored in the result storage unit M2. Judging. The level indicating the appropriateness is a stepwise representation of the degree of appropriateness (that is, the appropriateness) as the state of the driver's seat occupant during automatic driving. The appropriateness determination unit F7 corresponds to the occupant state estimation unit recited in the claims.
ここでは一例として適正度は、自動運転時における運転席乗員の状態として不適切な状態に対応するレベルを含むように、5段階で表現されているものとする。支援レベルの決定手順については別途後述する。レベル数が高い程、自動運転時における運転席乗員の状態として適切な状態に近いことを表す。つまり、レベル5が最も適切な状態を表し、レベル1が最も不適切な状態を表すものとする。なお、適正度のレベル数は、適宜設計されれば良い。
Here, as an example, the appropriateness level is expressed in five stages so as to include a level corresponding to an inappropriate state as the state of the driver's seat occupant during automatic driving. The procedure for determining the support level will be described later separately. The higher the number of levels, the closer to the appropriate state for the driver's seat occupant state during automatic driving. That is, level 5 represents the most appropriate state, and
なお、ここでは自動運転時における運転席乗員の状態として不適切な状態に対応するレベルは、レベル1のみとする。つまり、レベル2以上となっている状態であれば、程度の差はあるものの、自動運転時における運転席乗員の状態として適切な状態であることを意味するものとする。
Here, the level corresponding to the state inappropriate for the state of the driver's seat occupant during automatic driving is assumed to be
また、自動運転時における運転席乗員の状態として適切な状態とは、いつでも運転操作を再開できる状態を表し、不適切な状態とは、運転権限を移譲されたとしても周囲の交通状況に応じた運転操作を実施できない可能性が高い状態を表すものとする。換言すれば、適正度が低いほど自動運転ECU30が運転操作の権限を運転席乗員に移譲しづらい状態であることを意味する。
In addition, the appropriate state of the driver's seat occupant during automatic driving means that the driving operation can be resumed at any time, and the inappropriate state depends on the surrounding traffic conditions even if the driving authority is transferred. It shall represent a state where there is a high possibility that the driving operation cannot be performed. In other words, the lower the degree of appropriateness, the more difficult it is for the
本実施形態における適正度決定部F7は、上述した適正度を決定するための準備として、結果記憶部M2に保存されている直近N回分の試行に対する判定結果に基づいて、見逃し率Rnと、平均反応時間Trepを算出する。ここでの試行とは、立体音像を生成することを指す。 In the present embodiment, the appropriateness determination unit F7 prepares for determining the appropriateness as described above, based on the determination result for the last N trials stored in the result storage unit M2, the miss rate Rn, and the average The reaction time Trep is calculated. The trial here refers to generating a three-dimensional sound image.
見逃し率Rnは、N回の試行に対して運転席乗員が定位方向を見逃した割合を表すパラメータである。例えば、10回の試行のうち、定位方向を視認した回数が3回である場合には、見逃し率Rnは0.7と算出される。10回の試行に対して、定位方向を視認した回数が3回である場合、見逃した回数は7回となるためである。 The miss rate Rn is a parameter that represents the ratio that the driver's seat passenger missed the localization direction for N trials. For example, when the number of times the localization direction is visually recognized is 10 times out of 10 trials, the miss rate Rn is calculated as 0.7. This is because when the number of times the localization direction is visually recognized is 3 times for 10 trials, the number of missed positions is 7 times.
また、平均反応時間Trepは、直近N回の試行に対して得られた反応時間の代表値とである。代表値は、計測された反応時間の平均値としてもよいし、中央値としてもよい。なお、反応時間の代表値を決定する際、定位方向が視認されなかった試行は除外されればよい。 The average reaction time Trep is a representative value of the reaction time obtained for the latest N trials. The representative value may be an average value of measured reaction times or a median value. Note that when determining the representative value of the reaction time, trials in which the localization direction is not visually recognized may be excluded.
もちろん、他の態様として、定位方向が視認されなかった試行における反応時間は反応待機時間Tmisとして、平均反応時間Trepを決定してもよい。また、定位方向が視認されなかった試行における反応時間は、反応待機時間Tmisに所定のペネルティ時間(例えば3秒等)を加えた時間として平均反応時間Trepを算出してもよい。 Of course, as another aspect, the average reaction time Trep may be determined as the reaction waiting time Tmis as the reaction time in the trial in which the localization direction was not visually recognized. The reaction time in the trial in which the orientation direction was not visually recognized may be calculated as the average reaction time Trep as a time obtained by adding a predetermined penalty time (for example, 3 seconds) to the reaction waiting time Tmis.
そして、適正度決定部F7は、見逃し率Rnと平均反応時間Trepの2つのパラメータに基づいて、適正度を決定する。本実施形態では一例として、適正度決定部F7は、予めROM13に登録されている適正度評価マップを用いて、見逃し率Rnと平均反応時間Trepから適正度レベルを決定するものとする。
And the appropriateness determination part F7 determines an appropriateness based on two parameters, the miss rate Rn and the average reaction time Trep. In this embodiment, as an example, the appropriateness determination unit F7 determines the appropriateness level from the miss rate Rn and the average reaction time Trep using the appropriateness evaluation map registered in advance in the
適正度評価マップは、図5に示すように、予め2つのパラメータに対応するレベルを、試験等によってマップ化したデータである。図5に示すように、見逃し率Rnが小さいほど、また、平均反応時間Trepが短いほど、適正度が高く評価されるように設定されている。なお、図5では、例えばレベル5と記載されている範囲が、適正度がレベル5であると評価される見逃し率Rnと平均反応時間Trepの値域を表している。また、レベル4と記載されている範囲が、適正度がレベル4であると評価される見逃し率Rnと平均反応時間Trepの値域を表している。 As shown in FIG. 5, the appropriateness evaluation map is data obtained by mapping levels corresponding to two parameters in advance by a test or the like. As shown in FIG. 5, the degree of appropriateness is set to be evaluated higher as the miss rate Rn is smaller and the average reaction time Trep is shorter. In FIG. 5, for example, the range described as level 5 represents the range of the miss rate Rn and the average reaction time Trep that are evaluated as having the appropriateness level 5. Further, the range described as level 4 represents the range of the miss rate Rn and the average reaction time Trep that are evaluated as having the appropriateness level 4.
なお、本実施形態では一例として、適正度評価マップを用いて適正度を特定する態様とするが、これに限らない。適正度は、見逃し率Rnと平均反応時間Trepが入力された場合に、それらの入力値に対応する適正度を出力する所定の関数を用いて決定されても良い。 In the present embodiment, as an example, the appropriateness is specified using the appropriateness evaluation map, but the present invention is not limited to this. When the miss rate Rn and the average reaction time Trep are input, the appropriateness may be determined using a predetermined function that outputs the appropriateness corresponding to the input values.
適正度決定部F7によって決定された適正度は、最新の適正度がリストの先頭となるようにRAM12に時系列順に保存されていく。便宜上、適正度決定部F7によって特定された適正度を時系列に並べたデータを適正度推移データと称する。なお、適正度の決定は、結果記憶部M2に新たなデータが追加される度に実施されれば良い。
The appropriateness determined by the appropriateness determining unit F7 is stored in the
適正度予測部F8は、適正度推移データに基づいて、適正度が低下傾向であるか否かを判定する。例えば、図6の時刻Tj−2,Tj−1,時刻Tjでの特定結果に示すように、適正度が2回連続でレベルダウンしている場合には、低下傾向であると判定すればよい。なお、時刻Tjの特定結果が最新の特定結果を表しており、時刻Tj−1における特定結果は最新の特定結果よりも1回前の特定結果を、時刻Tj−2の特定結果は最新の特定結果よりも2回前の特定結果を表している。 The appropriateness prediction unit F8 determines whether or not the appropriateness is in a decreasing tendency based on the appropriateness transition data. For example, as shown in the specific results at time Tj−2, Tj−1, and time Tj in FIG. 6, when the appropriateness level is continuously down twice, it may be determined that the trend is decreasing. . The specified result at time Tj represents the latest specified result, the specified result at time Tj-1 is the specified result one time before the latest specified result, and the specified result at time Tj-2 is the latest specified result. The specific result two times before the result is shown.
また、適正度予測部F8は、適正度が低下傾向であると判定し、かつ、最新の適正度がレベル2以上と評価されている場合には、一定時間当りの適正度の減少度合いから、適正度がレベル1に移行するタイミングを特定するとともに、そのタイミングまでの残余時間Trmnを特定する。残余時間Trmnは、刺激印加部F9に提供される。適正度予測部F8が請求項に記載の予測部に相当する。
In addition, the appropriateness prediction unit F8 determines that the appropriateness is in a decreasing tendency, and when the latest appropriateness is evaluated as
刺激印加部F9は、スピーカ26や、ディスプレイ27、バイブレータ28、空調装置29を、所定の動作パターンで動作させることで、運転席乗員の感覚器官を刺激する処理を行う。例えば刺激印加部F9は、スピーカ26から警報音や、音声メッセージを出力させることで、運転席乗員の聴覚に刺激を印加する。
The stimulus application unit F9 performs a process of stimulating the sensory organs of the driver's seat occupant by operating the
また、刺激印加部F9は、ディスプレイ27に画像を表示させたり、画像を点滅表示させたりすることで、運転席乗員の視覚を刺激する。なお、運転席乗員の視覚を刺激する装置(以降、視覚刺激装置)は、ディスプレイに限らない。視覚刺激装置は、LEDからなるインジケータや、車室内用の照明装置などであっても良い。
Further, the stimulus application unit F9 stimulates the driver's occupant's vision by displaying an image on the
さらに、刺激印加部F9は、バイブレータ28を動作させることで運転席乗員の触覚を刺激する。なお、運転席乗員の触覚を刺激する装置(以降、触覚刺激装置)は、バイブレータ28に限らない。例えば空調装置29を触覚刺激装置として採用してもよい。空調装置29を触覚刺激装置として採用する場合には、車室内の温度に対して人間が暑いと感じたり寒いと感じたりする温度差を有する空気を、所定の風量で運転席に向けて吹き出すように指示する。これにより、触覚に属する温覚を刺激することができる。また、所定の風量で空気を運転席に吹き付けることによって運転席乗員の触覚を刺激してもよい。
Furthermore, the stimulus application unit F9 stimulates the tactile sensation of the driver's seat occupant by operating the
また、仮に空調装置29が香り発生機能を備えている場合には、刺激印加部F9は、空調装置29の香り発生機能を動作させることで、運転席乗員の嗅覚を刺激することができる。
In addition, if the
このようにスピーカ26や、ディスプレイ27、バイブレータ28、空調装置29は、人間の感覚器官を刺激する装置(以降、刺激装置)として機能する。刺激印加部F9が刺激装置を介して運転席乗員に対して刺激を印加するタイミング等については別途後述する。
Thus, the
<乗員状態管理処理>
次に図7に示すフローチャートを用いて、乗員状態推定装置10が実施する乗員状態管理処理について説明する。乗員状態管理処理は、運転席乗員の状態を自動運転時の状態として適切な状態に維持するための処理である。
<Occupant status management process>
Next, an occupant state management process performed by the occupant
図7に示すフローチャートは、自動運転機能がオンとなっている場合において、所定の実行周期で(例えば100ミリ秒毎に)開始されればよい。なお、本フローとは独立して周辺情報取得部F1による周辺情報の取得や、移動体情報抽出部F2による移動体毎の移動体情報の取得及び更新を実施している。 The flowchart shown in FIG. 7 may be started at a predetermined execution cycle (for example, every 100 milliseconds) when the automatic driving function is on. In addition, acquisition of the periphery information by the periphery information acquisition part F1 and acquisition and update of the mobile body information for every mobile body by the mobile body information extraction part F2 are implemented independently of this flow.
また、本実施形態ではより好ましい態様として、後述するステップS104での立体音像の生成を一度実行した場合には、その時点から反応待機時間Tmis経過するまでは、本処理を再実行させないこととする。立体音像が相対的に短い時間で複数回生成されるとユーザに煩わしさを与えてしまう恐れがあるためである。 Further, as a more preferable aspect in the present embodiment, when a three-dimensional sound image is generated once in step S104 to be described later, this process is not re-executed until the reaction waiting time Tmis elapses from that point. . This is because if the three-dimensional sound image is generated a plurality of times in a relatively short time, the user may be bothered.
まずステップS101では接近体抽出部F3が、移動体情報抽出部F2によって取得されている移動体毎の移動体情報に基づいて接近体を特定する。それに伴い、接近体毎の移動体種別や、相対位置、相対速度などが特定される。ステップS101での処理が完了するとステップS102に移る。 First, in step S101, the approaching body extraction unit F3 specifies an approaching body based on the moving body information for each moving body acquired by the moving body information extraction unit F2. Accordingly, the moving body type, relative position, relative speed, etc. for each approaching body are specified. When the process in step S101 is completed, the process proceeds to step S102.
ステップS102ではリスク評価部F31が、接近体毎の衝突リスクを評価してステップS103に移る。ステップS103は、立体音像生成部F4が、立体音像の生成によって運転席乗員に対してその存在を報知すべき接近体(換言すれば運転席乗員が視認すべき接近体)が存在するか否かを判定するステップである。つまり、ステップS103では報知条件を充足する接近体が存在するか否かを判定する。 In step S102, the risk evaluation unit F31 evaluates the collision risk for each approaching body, and proceeds to step S103. In step S103, it is determined whether or not there is an approaching body (in other words, an approaching body that the driver's seat occupant should visually recognize) that the three-dimensional sound image generation unit F4 should inform the driver's seat occupant of the presence of the three-dimensional sound image. It is a step which determines. That is, in step S103, it is determined whether there is an approaching body that satisfies the notification condition.
報知条件は、前述の通り、立体音像の生成によって運転席乗員に接近体の存在を報知するための条件である。ここでは一例として、報知条件を充足する接近体とは、衝突リスクが所定の報知レベル(例えばレベル2)以上であり、かつ、運転席乗員がその接近体の存在を認識していないと推定される接近体とする。報知レベルが請求項に記載の報知閾値に相当する。 As described above, the notification condition is a condition for notifying the driver's seat occupant of the presence of an approaching body by generating a three-dimensional sound image. Here, as an example, an approaching body that satisfies the notification condition is estimated that the collision risk is equal to or higher than a predetermined notification level (for example, level 2), and the driver's seat occupant does not recognize the presence of the approaching body. Approaching body. The notification level corresponds to the notification threshold described in the claims.
運転席乗員がその接近体の存在を認識しているか否かは、現在から所定時間(例えば5秒)以内にその接近体が存在する方向へ運転席乗員が視線を向けたか否かによって判定されればよい。現在から所定時間以内に運転席乗員が視線を向けた方向に存在している接近体については、運転席乗員はその接近体の存在を認識していると判定される。換言すれば、運転席乗員がその接近体の存在を認識していないと推定される接近体とは、現在から所定時間以内に視線を向けていない方向に存在する接近体である。 Whether or not the driver's seat occupant recognizes the presence of the approaching body is determined by whether or not the driver's seat occupant has looked in the direction in which the approaching body exists within a predetermined time (for example, 5 seconds) from now. Just do it. For an approaching body in which the driver's seat occupant is present in the direction in which the line of sight is directed within a predetermined time from the present time, it is determined that the driver's seat occupant has recognized the presence of the approaching body. In other words, the approaching body estimated that the driver's seat occupant does not recognize the presence of the approaching body is an approaching body that exists in a direction in which the line of sight is not directed within a predetermined time from the present time.
なお、本実施形態では一例として、運転席乗員がその接近体の存在を認識していないことを報知条件に含める態様としたがこれに限らない。例えば報知条件は、衝突リスクが報知レベル以上であることだけでもよい。また、その他の観点から定まる条件を報知条件として含める態様としてもよい。つまり、報知条件は適宜設計されれば良い。 In this embodiment, as an example, the notification condition includes that the driver's seat occupant does not recognize the presence of the approaching body, but the present invention is not limited thereto. For example, the notification condition may be that the collision risk is not less than the notification level. Moreover, it is good also as an aspect which includes the conditions decided from another viewpoint as alerting | reporting conditions. That is, the notification condition may be appropriately designed.
このステップS103での判定処理において、報知条件を充足する接近体が存在しない場合にはステップS103が否定判定されて本フローを終了する。一方、報知条件を充足する移動体が存在する場合には、ステップS103が肯定判定されてステップS104に移る。報知条件を充足する接近体が報知対象移動体である。なお、報知条件を充足する接近体が複数存在する場合には、その中で衝突リスクが最も高レベルとなっている接近体を報知対象移動体に設定してステップS104に移るものとする。 In the determination process in step S103, if there is no approaching object that satisfies the notification condition, a negative determination is made in step S103, and this flow ends. On the other hand, when there is a moving body that satisfies the notification condition, an affirmative determination is made in step S103 and the process proceeds to step S104. An approaching body that satisfies the notification condition is a notification target moving body. When there are a plurality of approaching bodies that satisfy the notification condition, the approaching body having the highest collision risk is set as the notification target moving body, and the process proceeds to step S104.
ステップS104では立体音像生成部F4が、報知対象移動体の移動体種別に応じた擬音データを用いて、当該報知対象移動体の相対位置に仮想音源が定位するように立体音像を生成してステップS105に移る。その際、立体音像生成部F4は、リスク評価部F31によって評価されている衝突リスクに対応する吹鳴態様で立体音像を生成する。 In step S104, the three-dimensional sound image generation unit F4 generates a three-dimensional sound image using the pseudo sound data corresponding to the moving object type of the notification target moving body so that the virtual sound source is localized at the relative position of the notification target moving body. The process moves to S105. At that time, the three-dimensional sound image generation unit F4 generates a three-dimensional sound image in a sounding manner corresponding to the collision risk evaluated by the risk evaluation unit F31.
ステップS105では視認判定部F6が、運転席乗員が定位方向を見たか否かを判定する。立体音像が生成されてから反応待機時間Tmis以内に運転席乗員が定位方向を見た場合には、それまでの経過時間を、今回の試行における反応時間として採用する。また、立体音像が生成されてから反応待機時間Tmis経過しても運転席乗員が定位方向を見なかった場合には、視認失敗と判定する。 In step S105, the visual recognition determination unit F6 determines whether or not the driver's seat occupant has seen the localization direction. When the driver's seat occupant sees the localization direction within the reaction waiting time Tmis after the three-dimensional sound image is generated, the elapsed time until that time is adopted as the reaction time in the current trial. Further, if the driver's seat occupant does not see the localization direction even after the reaction waiting time Tmis has elapsed since the three-dimensional sound image is generated, it is determined that the visual recognition has failed.
ステップS106では記録処理部F62が、ステップS105での判定結果を結果記憶部M2に保存してステップS107に移る。ステップS107では適正度決定部F7が、結果記憶部M2に保存されている判定結果がN回分蓄積されているか否かを判定する。N回分の判定結果が蓄積されている場合にはステップS107が肯定判定されてステップS108に移る。一方、N回分の判定結果が蓄積されていない場合には、ステップS107が否定判定されて本フローを終了する。 In step S106, the recording processing unit F62 stores the determination result in step S105 in the result storage unit M2, and proceeds to step S107. In step S107, the appropriateness determination unit F7 determines whether or not the determination results stored in the result storage unit M2 have been accumulated N times. If determination results for N times are accumulated, an affirmative determination is made in step S107 and the process proceeds to step S108. On the other hand, when the determination results for N times are not accumulated, a negative determination is made in step S107, and this flow ends.
ステップS108では適正度決定部F7が、結果記憶部M2に保存されている直近N回分の判定結果に基づいて、運転席乗員の適正度を決定する。すなわち、直近N回分の判定結果に基づいて、見逃し率Rnと平均反応時間Trepを算出し、さらに、それら2つのパラメータと適正度評価マップを用いて、今回の試行に対する適正度を決定する。適正度の決定が完了するとステップS109に移る。 In step S108, the appropriateness determination unit F7 determines the appropriateness of the driver's seat occupant based on the latest N determination results stored in the result storage unit M2. That is, the miss rate Rn and the average reaction time Trep are calculated based on the most recent N determination results, and the appropriateness for the current trial is determined using these two parameters and the appropriateness evaluation map. When the determination of the appropriateness is completed, the process proceeds to step S109.
ステップS109では適正度予測部F8が、RAM12に保存されている適正度の時系列データに基づいて、適正度の今後の推移を予測してステップS110に移る。具体的には、適正度が低下傾向であるか否かを判定する。また、適正度が低下傾向であると判定し、かつ、ステップS108において適正度はレベル2以上であると決定された場合には、残余時間Trmnを算出する。
In step S109, the appropriateness prediction unit F8 predicts future transition of the appropriateness based on the time series data of the appropriateness stored in the
ステップS110では、刺激印加部F9が、所定の刺激印加条件が充足されている否かを判定する。刺激印加条件は、所定の刺激装置を動作させることによって運転席乗員の感覚器官に刺激を印加する条件である。刺激条件の具体的な内容は適宜決定されればよい。 In step S110, the stimulus application unit F9 determines whether or not a predetermined stimulus application condition is satisfied. The stimulus application condition is a condition for applying a stimulus to the sensory organ of the driver's seat occupant by operating a predetermined stimulator. The specific content of the stimulation condition may be determined as appropriate.
ここでは一例として、ステップS108で決定された適正度がレベル1となっている場合に、刺激印加条件が充足されていると判定する。また、ステップS109で残余時間Trmnが算出されており、且つ、その算出されている残余時間Trmnが所定の残余閾値以下である場合にも、刺激印加条件が充足されていると判定する。
Here, as an example, when the appropriateness determined in step S108 is
刺激印加条件が充足されている場合には、ステップS110が肯定判定されてステップS111に移る。一方、刺激印加条件が充足されていない場合にはステップS110が否定判定されて本フローを終了する。 If the stimulus application condition is satisfied, an affirmative determination is made in step S110 and the process proceeds to step S111. On the other hand, if the stimulus application condition is not satisfied, a negative determination is made in step S110, and this flow ends.
ステップS111では刺激印加部F9が、所定の刺激装置を所定の動作パターンで動作させて本フローを終了する。どの刺激装置を動作させるか、及び、どのような動作パターンで動作させるかは適宜設計されれば良い。ただし、残余時間Trmnが所定の残余閾値以下である場合に動作させる場合よりも、適正度がレベル1となっている場合のほうが、運転席乗員に対してより強い刺激を印加するように動作させることが好ましい。残余時間Trmnが残余閾値以下である場合とは、未だ運転席乗員の状態が自動運転時の状態として適切な状態であることを意味するのに対し、適正度がレベル1となっている場合とは、既に不適切な状態となっていることを意味するためである。
In step S111, the stimulus application unit F9 operates a predetermined stimulation device with a predetermined operation pattern, and ends this flow. What stimulation device is operated and what operation pattern should be used may be appropriately designed. However, when the remaining time Trmn is equal to or less than the predetermined remaining threshold value, the operation is performed so that a stronger stimulus is applied to the driver's seat occupant when the appropriateness is
例えば、適正度がレベル1となっている場合には、残余時間Trmnが所定の残余閾値以下である場合に動作させる場合よりも、バイブレータ28をより強く振動させる。また、動作させる刺激装置の組み合わせを変更することで、より強い刺激を印加してもよい。例えば、残余時間Trmnが所定の残余閾値以下である場合には、ディスプレイ27とバイブレータ28を用いて触覚や視覚を刺激を印加する一方、適正度がレベル1となっている場合には、それらの刺激に加えて、空調装置29を用いて温覚や嗅覚を刺激してもよい。
For example, when the appropriateness is
<実施形態のまとめ>
以上の構成では、自動運転機能が動作している場合、接近体抽出部F3が自車両と接近関係にある移動体を特定するとともに、その移動体と自車両との衝突リスクを評価する。立体音像生成部F4は、そのように算出される衝突リスクに基づいて、運転席乗員に報知すべき移動体(つまり報知対象移動体)が存在するか否かを逐次判定する。報知対象移動体が存在する場合には、報知対象移動体が存在する方向に仮想音源が存在すると運転席乗員によって知覚されるように立体音像を生成する。
<Summary of Embodiment>
In the above configuration, when the automatic driving function is operating, the approaching body extraction unit F3 identifies a moving body that is in an approaching relationship with the host vehicle, and evaluates the risk of collision between the moving body and the host vehicle. The three-dimensional sound image generation unit F4 sequentially determines whether or not there is a moving body (that is, a notification target moving body) that should be notified to the driver's seat occupant based on the calculated collision risk. When the notification target moving body exists, a three-dimensional sound image is generated so that the driver's seat occupant perceives that the virtual sound source exists in the direction in which the notification target moving body exists.
視認判定部F6は、立体音像の生成をトリガとして、仮想音源が定位されている方向(つまり定位方向)を運転席乗員が視認したか否かを判定するとともに、定位方向を視認した場合にはその所要時間(つまり反応時間)を特定する。そして、適正度決定部F7は、視認判定部F6の判定結果から定まる見逃し率Rnや平均反応時間Trepに基づいて運転席乗員の適正度を決定する。 The visual recognition determination unit F6 determines whether the driver's seat occupant has visually recognized the direction in which the virtual sound source is localized (that is, the localization direction) with the generation of the three-dimensional sound image as a trigger. The required time (that is, reaction time) is specified. And the appropriateness determination part F7 determines the appropriateness of a driver | operator seat passenger | crew based on the miss rate Rn and average reaction time Trep which are determined from the determination result of the visual recognition determination part F6.
このような態様によれば、運転席乗員の適正度を決定する上で、運転席乗員にいったんディスプレイを見させる必要が発生しない。仮想音源が定位されている方向が、視線を向けるべき方向となっているためである。したがって、上記の構成によれば、運転席乗員がディスプレイに視線を向けなくとも当該乗員の状態を推定できる。 According to such an aspect, in determining the appropriateness of the driver's seat occupant, there is no need for the driver's seat occupant to see the display once. This is because the direction in which the virtual sound source is localized is the direction in which the line of sight should be directed. Therefore, according to the above configuration, the state of the occupant can be estimated even if the driver's seat occupant does not look at the display.
また、以上の構成では、報知対象移動体の移動体種別に応じた擬音を立体音像として運転席乗員に提供する。したがって、運転席乗員は、立体音像を聞くことによって、乗員状態推定装置10がどのような移動体に対して注意を促しているのかを認識することができる。
Further, in the above configuration, the pseudo sound corresponding to the moving body type of the notification target moving body is provided to the driver's seat occupant as a three-dimensional sound image. Therefore, the driver's seat occupant can recognize what kind of moving body the occupant
さらに、運転席乗員に対して提供される立体音像は、その報知対象移動体に対してリスク評価部F31が決定している衝突リスクに応じた吹鳴態様で生成される。したがって、運転席乗員は、立体音像を聴取することで、乗員状態推定装置10が算出している衝突リスクを認識することができる。
Furthermore, the three-dimensional sound image provided to the driver's seat occupant is generated in a sounding manner corresponding to the collision risk determined by the risk evaluation unit F31 for the notification target moving body. Therefore, the driver's seat occupant can recognize the collision risk calculated by the occupant
ところで、車両が自動運転で走行している場合には、運転席乗員がディスプレイ27を見る頻度が手動運転時よりも低下することが予見される。そのため、特許文献1に開示の方法では、自動運転時の運転席乗員の状態を手動運転時と同様の精度で推定することが困難となると考えられる。これに対し、本実施形態によれば、運転席乗員の状態を推定する上でディスプレイ27を視認させる必要はないため、自動運転時においても手動運転時と同様の精度で運転席乗員の状態を推定することができると考えられる。
By the way, when the vehicle is traveling in automatic driving, it is foreseen that the frequency of the driver's seat occupant looking at the
以上、本発明の実施形態を説明したが、本発明は上述の実施形態に限定されるものではなく、以降で述べる種々の変形例も本発明の技術的範囲に含まれ、さらに、下記以外にも要旨を逸脱しない範囲内で種々変更して実施することができる。また、上述した実施形態及び種々の変形例は、矛盾が生じない範囲において適宜組み合わせることができる。 As mentioned above, although embodiment of this invention was described, this invention is not limited to the above-mentioned embodiment, The various modifications described below are also contained in the technical scope of this invention, and also in addition to the following However, various modifications can be made without departing from the scope of the invention. Further, the above-described embodiment and various modifications can be combined as appropriate within a range where no contradiction occurs.
なお、前述の実施形態で述べた部材と同一の機能を有する部材については、同一の符号を付し、その説明を省略する。また、構成の一部のみに言及している場合、他の部分については先に説明した実施形態の構成を適用することができる。 In addition, about the member which has the same function as the member described in the above-mentioned embodiment, the same code | symbol is attached | subjected and the description is abbreviate | omitted. In addition, when only a part of the configuration is mentioned, the configuration of the above-described embodiment can be applied to the other portions.
[変形例1]
上述した実施形態では、自動運転時における運転席乗員の状態としての適正度を、複数のレベルを用いて段階的に表現する態様を採用しているが、連続値によって表現されても良い。そのような態様においては、図8に示すように逐次算出される適正度の履歴から、適正度の傾向を示す近似直線(図中の一点鎖線)を算出し、残余時間Trmnを特定することができる。なお、図8の破線よりも下側が、自動運転時における運転席乗員の状態とし不適切な状態であることを意味する範囲(以降、不適正範囲)を表しており、時刻Txは、適正度が不適正範囲となると予測されるタイミングを表している。
[Modification 1]
In the above-described embodiment, a mode in which the appropriateness as the state of the driver's seat occupant during automatic driving is expressed in a stepwise manner using a plurality of levels, but may be expressed by a continuous value. In such an aspect, it is possible to calculate an approximate straight line (dashed line in the figure) indicating a tendency of appropriateness from the history of appropriateness sequentially calculated as shown in FIG. 8, and to specify the remaining time Trmn. it can. In addition, the lower side of the broken line in FIG. 8 represents a range (hereinafter referred to as an inappropriate range) meaning that the state is an inappropriate state as a driver's seat occupant state during automatic driving, and the time Tx is a degree of appropriateness. Represents a timing at which is predicted to be in an inappropriate range.
なお、見逃し率Rnと平均反応時間Trepに基づいて適正度を算出する関数(以降、適正度評価関数)は適宜設計されれば良い。当然、適正度評価関数は、見逃し率Rnが小さいほど、また、平均反応時間Trepが小さいほど、適正度を高く算出するように構成されているものとする。 It should be noted that the function for calculating the appropriateness based on the miss rate Rn and the average reaction time Trep (hereinafter referred to as the appropriateness evaluation function) may be designed as appropriate. Naturally, the appropriateness evaluation function is configured to calculate the appropriateness higher as the miss rate Rn is smaller and as the average reaction time Trep is smaller.
[変形例2]
以上では、乗員状態推定装置10は適正度を3段階以上で評価したり、連続値で評価したりする態様について開示したが、これに限らない。乗員状態推定装置10は、運転席乗員の状態が、自動運転時の状態として適正であるか否かを判定するものであっても良い。
[Modification 2]
Although the occupant
[変形例3]
以上では、見逃し率Rnと平均反応時間Trepの2つのパラメータから適正度を決定する態様を例示したが、これに限らない。適正度決定部F7は、平均反応時間Trepを用いずに、見逃し率Rnのみから適正度を決定してもよい。また、見逃し率Rnに代わって、見逃し回数を用いて適正度を決定してもよい。
[Modification 3]
In the above, the mode in which the appropriateness is determined from the two parameters of the miss rate Rn and the average reaction time Trep is exemplified, but the present invention is not limited to this. The appropriateness determination unit F7 may determine the appropriateness only from the miss rate Rn without using the average reaction time Trep. Further, instead of the miss rate Rn, the appropriateness may be determined using the number of misses.
さらに、適正度決定部F7は、見逃し率Rnを用いずに、平均反応時間Trepのみから適正度を決定してもよい。また、平均反応時間Trepの代わりに、最新の反応時間のみを用いて適正度を決定してもよい。 Furthermore, the appropriateness determination unit F7 may determine the appropriateness only from the average reaction time Trep without using the miss rate Rn. In addition, the appropriateness may be determined using only the latest reaction time instead of the average reaction time Trep.
[変形例4]
以上では、乗員状態推定装置10の1つの実施形態として、自動運転時の運転席乗員の状態として適切な状態である度合い(つまり適正度)を決定する態様を例示したが、これに限らない。乗員状態推定装置10は、手動運転時の状態として適切な状態である度合い(つまり適正度)を決定する装置であっても良い。手動運転時の適正度も、仮想音源を定位させた方向(つまり定位方向)を運転席乗員が視認したか否かに基づいて決定されれば良い。
[Modification 4]
In the above, as an embodiment of the occupant
また、自動運転時には、自動運転時の状態としての適正度を決定する一方、手動運転時には手動運転時の状態として適切な状態であるか否かを推定するように、それぞれの運転モードに応じて動作モードが切り替わるように構成されていてもよい。なお、自動運転時とは自動運転機能が作動している状態に相当し、手動運転時とは自動運転機能が作動していない状態に相当する。 Also, depending on each operation mode, the degree of appropriateness as the state during automatic operation is determined during automatic operation, while the state during the manual operation is estimated as to whether the state is appropriate as the state during manual operation. The operation mode may be switched. Note that the automatic operation corresponds to a state where the automatic operation function is activated, and the manual operation corresponds to a state where the automatic operation function is not activated.
また、以上では、乗員状態推定装置10が自動運転機能を備えた車両に適用されている態様を例示したが、これに限らない。自動運転機能を備えていない車両に適用されていても良い。
Moreover, although the passenger | crew
[変形例5]
以上では、運転席乗員が視認すべき移動体が存在する場合に、立体音像を生成することによってその移動体の存在を運転席乗員に報知する態様を例示したが、これに限らない。運転席乗員が視認すべき静止物が存在する場合に、立体音像を生成し、当該静止物の存在を運転席乗員に放置してもよい。つまり、立体音像による報知の対象は、移動体に限らず、静止物であってもよい。
[Modification 5]
In the above description, the mode in which the presence of the moving body is notified to the driver's seat occupant by generating a three-dimensional sound image when there is a moving body to be visually recognized by the driver's seat occupant is not limited to this. When there is a stationary object to be visually recognized by the driver's seat occupant, a three-dimensional sound image may be generated and the presence of the stationary object may be left in the driver's seat occupant. That is, the target of notification by a three-dimensional sound image is not limited to a moving object, and may be a stationary object.
例えば、高速道路上を走行している場合には、高速道路に設けられた種々の標識の存在を、立体音像の生成によって報知してもよい。このような構成によれば、衝突リスクが発生せずに、安全な走行を維持できている場合であっても定期的に運転席乗員の適正度を決定することができる。なお、高速道路に設けられた標識とは、例えば、高速道路の入口/出口を案内する入口出口案内標識や、経路案内標識、サービスエリア及びパーキングエリアまでの残り距離を示す標識などである。もちろん、立体音像の生成のトリガとする静止物は、標識にかぎらず、道路上の落下物などであってもよい。 For example, when traveling on an expressway, the presence of various signs provided on the expressway may be notified by generating a three-dimensional sound image. According to such a configuration, it is possible to periodically determine the appropriateness of the driver's seat occupant even when a safe traveling can be maintained without causing a collision risk. The sign provided on the expressway is, for example, an entrance / exit guide sign for guiding the entrance / exit of the expressway, a route guide sign, a sign indicating the remaining distance to the service area and the parking area, and the like. Of course, the stationary object that triggers the generation of the three-dimensional sound image is not limited to the sign but may be a falling object on the road.
[変形例6]
以上では、乗員状態推定装置10は、運転席乗員の状態を推定する態様を例示したが、これに限らない。乗員状態推定装置10は、助手席乗員や、後部座席の乗員の状態(具体的は適正度等)を推定してもよい。また、運転席乗員と助手席乗員のそれぞれの状態を推定するなど、複数の座席に対応していてもよい。
[Modification 6]
In the above, the occupant
100 乗員状態推定システム、10 乗員状態推定装置、11 CPU、12 RAM、13 ROM、14 I/O、21 カメラユニット、22 ミリ波レーダ、23 車車間通信部、24 広域通信部、25 DSM、26 スピーカ、26R 右側スピーカ、26L 左側スピーカ、27 ディスプレイ、28 バイブレータ、29 空調装置、30 自動運転ECU、F1 周辺情報取得部、F2 移動体情報抽出部、F3 接近体抽出部(リスク方向特定部)、F31 リスク評価部、F4 立体音像生成部、F5 視認方向特定部、F6 視認判定部、F61 反応時間計測部、F62 記録処理部、F7 適正度決定部(乗員状態推定部)、F8 適正度予測部(予測部)、F9 刺激印加部、M1 音データ記憶部(擬音データ記憶部)、M2 結果記憶部 100 occupant state estimation system, 10 occupant state estimation device, 11 CPU, 12 RAM, 13 ROM, 14 I / O, 21 camera unit, 22 millimeter wave radar, 23 inter-vehicle communication unit, 24 wide area communication unit, 25 DSM, 26 Speaker, 26R right speaker, 26L left speaker, 27 display, 28 vibrator, 29 air conditioner, 30 automatic operation ECU, F1 peripheral information acquisition unit, F2 moving body information extraction unit, F3 approaching body extraction unit (risk direction identification unit), F31 risk evaluation unit, F4 three-dimensional sound image generation unit, F5 visual recognition direction identification unit, F6 visual recognition determination unit, F61 reaction time measurement unit, F62 recording processing unit, F7 appropriateness determination unit (occupant state estimation unit), F8 appropriateness prediction unit (Prediction unit), F9 stimulus application unit, M1 sound data storage unit (pseudo sound data storage unit), M Result storage unit
Claims (15)
2個以上の音響信号出力装置のそれぞれから音響信号を出力することによって、3次元空間の所望の位置に仮想音源を定位させた立体音像を生成する立体音像生成部(F4)と、
車室内の設けられたカメラの撮像画像に基づいて、所定の座席に着座している乗員が見ている方向である視認方向を特定する視認方向特定部(F5)と、
前記視認方向特定部の特定結果に基づいて、前記立体音像が生成されてから所定の反応待機時間以内に前記仮想音源が定位された方向である定位方向を前記乗員が見たか否かを判定する視認判定部(F6)と、
前記視認判定部の判定結果に基づいて前記乗員の状態を推定する乗員状態推定部(F7)と、
前記車両の周辺の交通状況を示す周辺情報を取得する周辺情報検出デバイスから、前記周辺情報を取得する周辺情報取得部(F1)と、
前記周辺情報取得部が取得した前記周辺情報に基づいて、前記車両と接触しうる物体の存在を検出するとともに、その物体が存在する方向を特定するリスク方向特定部(F3)と、を備え、
前記周辺情報取得部は、前記周辺情報として、前記車両の周辺に存在する移動体の移動体種別、前記車両に対する相対速度、前記車両に対する相対位置を取得し、
前記リスク方向特定部は、前記周辺情報取得部が取得した前記周辺情報に基づいて、前記車両との距離が減少傾向にある前記移動体である接近体が存在する方向を特定し、
前記周辺情報に基づいて前記接近体毎の衝突リスクを評価するリスク評価部(F31)と、
移動体種別に応じた擬音を前記音響信号として出力するための擬音データを移動体種別毎に記憶している擬音データ記憶部(M1)とをさらに備え、
前記周辺情報は、少なくとも前記車両の周辺に存在する移動体毎の移動体種別を含み、
前記立体音像生成部は、
前記乗員にとって前記仮想音源が位置する方向である定位方向が、前記リスク方向特定部が特定した方向と一致するように前記立体音像を生成することで、前記接近体の存在を前記乗員に報知するものであって、
前記接近体のうち、前記リスク評価部によって前記衝突リスクは所定の報知閾値未満であると評価されている前記接近体については、当該移動体に対応した前記立体音像を生成しない一方、前記接近体のうち、前記リスク評価部によって前記衝突リスクが所定の報知閾値以上であると評価されている前記接近体が存在する場合に、当該接近体が存在する方向と前記仮想音源の定位方向とが一致するように前記立体音像を生成するものであり、
所定の報知閾値以上であると評価されている前記接近体が存在する場合に、その接近体の移動体種別に応じた擬音で前記立体音像を生成するとともに、
前記立体音像によってその存在を前記乗員に報知しようとしている前記接近体に対して前記リスク評価部が評価した前記衝突リスクに応じて、前記立体音像の擬音の種別は変更せずに吹鳴態様を変更することを特徴とする乗員状態推定装置。 Used in vehicles,
A three-dimensional sound image generation unit (F4) that generates a three-dimensional sound image in which a virtual sound source is localized at a desired position in a three-dimensional space by outputting sound signals from each of the two or more sound signal output devices;
A viewing direction identifying unit (F5) that identifies a viewing direction that is a direction in which an occupant seated in a predetermined seat is viewing based on a captured image of a camera provided in a vehicle interior;
Based on the identification result of the visual recognition direction identification unit, it is determined whether or not the occupant has viewed a localization direction that is a direction in which the virtual sound source is localized within a predetermined reaction waiting time after the stereoscopic sound image is generated. A visual recognition determination unit (F6);
An occupant state estimation unit (F7) that estimates the state of the occupant based on the determination result of the visual recognition determination unit;
A peripheral information acquisition unit (F1) that acquires the peripheral information from a peripheral information detection device that acquires peripheral information indicating traffic conditions around the vehicle;
A risk direction specifying unit (F3) for detecting the presence of an object that can come into contact with the vehicle based on the peripheral information acquired by the peripheral information acquiring unit, and specifying a direction in which the object exists ;
The peripheral information acquisition unit acquires, as the peripheral information, a moving body type of a moving body existing around the vehicle, a relative speed with respect to the vehicle, and a relative position with respect to the vehicle,
The risk direction specifying unit specifies a direction in which an approaching body that is the moving body in which the distance to the vehicle tends to decrease is based on the peripheral information acquired by the peripheral information acquisition unit,
A risk evaluation unit (F31) for evaluating a collision risk for each approaching body based on the peripheral information;
Further comprising an onomatopoeia data storage unit (M1) for storing onomatopoeia data for outputting an onomatopoeia corresponding to a mobile body type as the acoustic signal for each mobile body type,
The surrounding information includes at least a moving body type for each moving body existing around the vehicle,
The three-dimensional sound image generator is
The occupant is informed of the presence of the approaching body by generating the three-dimensional sound image so that the localization direction in which the virtual sound source is located for the occupant matches the direction specified by the risk direction specifying unit. And
Among the approaching bodies, for the approaching body that is evaluated by the risk evaluation unit to be less than a predetermined notification threshold, the approaching body does not generate the three-dimensional sound image corresponding to the moving body. Among these, when there is the approaching body evaluated by the risk evaluation unit as the collision risk is equal to or higher than a predetermined notification threshold, the direction in which the approaching body exists and the localization direction of the virtual sound source coincide with each other To generate the three-dimensional sound image,
When the approaching body that is evaluated to be equal to or higher than a predetermined notification threshold is present, the stereoscopic sound image is generated with an imitation sound according to the moving body type of the approaching body, and
According to the collision risk evaluated by the risk evaluation unit for the approaching body that is about to notify the occupant of the presence of the three-dimensional sound image, the blowing mode is changed without changing the type of the pseudo sound of the three-dimensional sound image. occupant state estimating apparatus according to claim to Rukoto.
前記乗員状態推定部は、前記乗員の状態が、自動運転時の運転席乗員の状態として予め設計された適切な状態であるか否かを判定することを特徴とする乗員状態推定装置。 Oite to claim 1,
The occupant state estimation unit determines whether or not the occupant state is an appropriate state designed in advance as a state of a driver's seat occupant during automatic driving.
前記乗員状態推定部は、運転席乗員としての状態の適正度合いを逐次判定することを特徴とする乗員状態推定装置。 Oite to claim 1,
The occupant state estimation unit sequentially determines an appropriate degree of a state as a driver's seat occupant.
前記乗員の五感の少なくとも何れか1つを刺激する刺激装置の動作を制御する刺激印加部(F9)と、
前記乗員状態推定部によって逐次判定される前記適正度合いの時間変化に基づき、前記適正度合いが、自動運転時における運転席乗員の状態として予め設計された不適切なレベルへ移行するタイミングを予測する予測部(F8)と、を備え、
前記刺激印加部は、前記予測部によって所定の残余時間以内に不適切なレベルまで低下すると予測されている場合に、前記刺激装置を動作させることを特徴とする乗員状態推定装置。 In claim 3 ,
A stimulus application unit (F9) for controlling the operation of a stimulation device that stimulates at least one of the five senses of the occupant;
Prediction for predicting the timing at which the appropriateness level shifts to an inappropriate level designed in advance as the state of the driver's seat occupant during automatic driving, based on the time change of the appropriateness level sequentially determined by the occupant state estimating unit Part (F8),
The occupant state estimation device, wherein the stimulation application unit operates the stimulation device when the prediction unit is predicted to decrease to an inappropriate level within a predetermined remaining time.
前記視認方向特定部は、複数の座席のそれぞれに着座する前記乗員の前記視認方向を特定するように構成されており、
前記視認判定部は、前記乗員毎に、前記仮想音源が定位された方向を見たか否かを判定し、
前記乗員状態推定部は、前記視認判定部による判定結果に基づいて、前記乗員毎の状態を推定することを特徴とする乗員状態推定装置。 In any one of Claim 2 to 4 ,
The visual recognition direction specifying unit is configured to specify the visual recognition direction of the occupant seated in each of a plurality of seats,
The visual recognition determination unit determines, for each occupant, whether or not the virtual sound source has been localized.
The said occupant state estimation part estimates the state for every said occupant based on the determination result by the said visual recognition determination part, The occupant state estimation apparatus characterized by the above-mentioned.
2個以上の音響信号出力装置のそれぞれから音響信号を出力することによって、3次元空間の所望の位置に仮想音源を定位させた立体音像を生成する立体音像生成部(F4)と、
車室内の設けられたカメラの撮像画像に基づいて、所定の座席に着座している乗員が見ている方向である視認方向を特定する視認方向特定部(F5)と、
前記視認方向特定部の特定結果に基づいて、前記立体音像が生成されてから所定の反応待機時間以内に前記仮想音源が定位された方向である定位方向を前記乗員が見たか否かを判定する視認判定部(F6)と、
前記視認判定部の判定結果に基づいて前記乗員の状態を推定する乗員状態推定部(F7)と、を備え、
前記乗員状態推定部は、運転席乗員としての状態の適正度合いを逐次判定し、
前記乗員の五感の少なくとも何れか1つを刺激する刺激装置の動作を制御する刺激印加部(F9)と、
前記乗員状態推定部によって逐次判定される前記適正度合いの時間変化に基づき、前記適正度合いが、自動運転時における運転席乗員の状態として予め設計された不適切なレベルへ移行するタイミングを予測する予測部(F8)と、をさらに備え、
前記刺激印加部は、前記予測部によって所定の残余時間以内に不適切なレベルまで低下すると予測されている場合に、前記刺激装置を動作させることを特徴とする乗員状態推定装置。 Used in vehicles,
A three-dimensional sound image generation unit (F4) that generates a three-dimensional sound image in which a virtual sound source is localized at a desired position in a three-dimensional space by outputting sound signals from each of the two or more sound signal output devices;
A viewing direction identifying unit (F5) that identifies a viewing direction that is a direction in which an occupant seated in a predetermined seat is viewing based on a captured image of a camera provided in a vehicle interior;
Based on the identification result of the visual recognition direction identification unit, it is determined whether or not the occupant has viewed a localization direction that is a direction in which the virtual sound source is localized within a predetermined reaction waiting time after the stereoscopic sound image is generated. A visual recognition determination unit (F6);
An occupant state estimation unit (F7) that estimates the state of the occupant based on the determination result of the visual recognition determination unit ,
The occupant state estimation unit sequentially determines the appropriate degree of state as a driver's seat occupant,
A stimulus application unit (F9) for controlling the operation of a stimulation device that stimulates at least one of the five senses of the occupant;
Prediction for predicting the timing at which the appropriateness level shifts to an inappropriate level designed in advance as the state of the driver's seat occupant during automatic driving, based on the time change of the appropriateness level sequentially determined by the occupant state estimating unit Part (F8),
The stimulus applying unit, the if it is expected to drop to inappropriate levels within a predetermined residual hours by the prediction unit, the occupant state estimating apparatus according to claim Rukoto to operate the stimulator.
前記視認方向特定部は、複数の座席のそれぞれに着座する前記乗員の前記視認方向を特定するように構成されており、
前記視認判定部は、前記乗員毎に、前記仮想音源が定位された方向を見たか否かを判定し、
前記乗員状態推定部は、前記視認判定部による判定結果に基づいて、前記乗員毎の状態を推定することを特徴とする乗員状態推定装置。 In claim 6 ,
The visual recognition direction specifying unit is configured to specify the visual recognition direction of the occupant seated in each of a plurality of seats,
The visual recognition determination unit determines, for each occupant, whether or not the virtual sound source has been localized.
The said occupant state estimation part estimates the state for every said occupant based on the determination result by the said visual recognition determination part, The occupant state estimation apparatus characterized by the above-mentioned.
2個以上の音響信号出力装置のそれぞれから音響信号を出力することによって、3次元空間の所望の位置に仮想音源を定位させた立体音像を生成する立体音像生成部(F4)と、
車室内の設けられたカメラの撮像画像に基づいて、所定の座席に着座している乗員が見ている方向である視認方向を特定する視認方向特定部(F5)と、
前記視認方向特定部の特定結果に基づいて、前記立体音像が生成されてから所定の反応待機時間以内に前記仮想音源が定位された方向である定位方向を前記乗員が見たか否かを判定する視認判定部(F6)と、
前記視認判定部の判定結果に基づいて前記乗員の状態を推定する乗員状態推定部(F7)と、を備え、
前記視認方向特定部は、複数の座席のそれぞれに着座する前記乗員の前記視認方向を特定するように構成されており、
前記視認判定部は、前記乗員毎に、前記仮想音源が定位された方向を見たか否かを判定し、
前記乗員状態推定部は、前記視認判定部による判定結果に基づいて、前記乗員毎の状態が、自動運転時の運転席乗員の状態として予め設計された適切な状態であるか否かを判定することを特徴とする乗員状態推定装置。 Used in vehicles,
A three-dimensional sound image generation unit (F4) that generates a three-dimensional sound image in which a virtual sound source is localized at a desired position in a three-dimensional space by outputting sound signals from each of the two or more sound signal output devices;
A viewing direction identifying unit (F5) that identifies a viewing direction that is a direction in which an occupant seated in a predetermined seat is viewing based on a captured image of a camera provided in a vehicle interior;
Based on the identification result of the visual recognition direction identification unit, it is determined whether or not the occupant has viewed a localization direction that is a direction in which the virtual sound source is localized within a predetermined reaction waiting time after the stereoscopic sound image is generated. A visual recognition determination unit (F6);
An occupant state estimation unit (F7) that estimates the state of the occupant based on the determination result of the visual recognition determination unit ,
The visual recognition direction specifying unit is configured to specify the visual recognition direction of the occupant seated in each of a plurality of seats,
The visual recognition determination unit determines, for each occupant, whether or not the virtual sound source has been localized.
The occupant state estimation unit determines whether or not the state for each occupant is an appropriate state designed in advance as the state of the driver's seat occupant during automatic driving based on the determination result by the visual recognition determination unit . An occupant state estimation device.
2個以上の音響信号出力装置のそれぞれから音響信号を出力することによって、3次元空間の所望の位置に仮想音源を定位させた立体音像を生成する立体音像生成部(F4)と、
車室内の設けられたカメラの撮像画像に基づいて、所定の座席に着座している乗員が見ている方向である視認方向を特定する視認方向特定部(F5)と、
前記視認方向特定部の特定結果に基づいて、前記立体音像が生成されてから所定の反応待機時間以内に前記仮想音源が定位された方向である定位方向を前記乗員が見たか否かを判定する視認判定部(F6)と、
前記視認判定部の判定結果に基づいて前記乗員の状態を推定する乗員状態推定部(F7)と、を備え、
前記視認方向特定部は、複数の座席のそれぞれに着座する前記乗員の前記視認方向を特定するように構成されており、
前記視認判定部は、前記乗員毎に、前記仮想音源が定位された方向を見たか否かを判定し、
前記乗員状態推定部は、運転席乗員としての状態の適正度合いを逐次判定するとともに、前記視認判定部による判定結果に基づいて、前記乗員毎の状態を推定することを特徴とする乗員状態推定装置。 Used in vehicles,
A three-dimensional sound image generation unit (F4) that generates a three-dimensional sound image in which a virtual sound source is localized at a desired position in a three-dimensional space by outputting sound signals from each of the two or more sound signal output devices;
A viewing direction identifying unit (F5) that identifies a viewing direction that is a direction in which an occupant seated in a predetermined seat is viewing based on a captured image of a camera provided in a vehicle interior;
Based on the identification result of the visual recognition direction identification unit, it is determined whether or not the occupant has viewed a localization direction that is a direction in which the virtual sound source is localized within a predetermined reaction waiting time after the stereoscopic sound image is generated. A visual recognition determination unit (F6);
An occupant state estimation unit (F7) that estimates the state of the occupant based on the determination result of the visual recognition determination unit,
The visual recognition direction specifying unit is configured to specify the visual recognition direction of the occupant seated in each of a plurality of seats,
The visual recognition determination unit determines, for each occupant, whether or not the virtual sound source has been localized.
The occupant state estimating unit is configured to determine the proper degree of state of the driver seat occupant sequentially based on a determination result of the visual judgment unit, occupant state estimating characterized that you estimate the state of each of the occupant apparatus.
前記車両の周辺の交通状況を示す周辺情報を取得する周辺情報検出デバイスから、前記周辺情報を取得する周辺情報取得部(F1)と、
前記周辺情報取得部が取得した前記周辺情報に基づいて、前記車両と接触しうる物体の存在を検出するとともに、その物体が存在する方向を特定するリスク方向特定部(F3)と、を備え、
前記立体音像生成部は、前記乗員にとって前記仮想音源が位置する方向である定位方向が、前記リスク方向特定部が推定した方向と一致するように前記立体音像を生成することを特徴とする乗員状態推定装置。 In any one of Claim 6 to 9 ,
A peripheral information acquisition unit (F1) that acquires the peripheral information from a peripheral information detection device that acquires peripheral information indicating traffic conditions around the vehicle;
A risk direction specifying unit (F3) for detecting the presence of an object that can come into contact with the vehicle based on the peripheral information acquired by the peripheral information acquiring unit, and specifying a direction in which the object exists;
The three-dimensional sound image generation unit generates the three-dimensional sound image so that a localization direction that is a direction in which the virtual sound source is located for the occupant coincides with a direction estimated by the risk direction specifying unit. Estimating device.
前記周辺情報取得部は、前記周辺情報として、前記車両の周辺に存在する移動体の移動体種別、前記車両に対する相対速度、前記車両に対する相対位置を取得し、
前記リスク方向特定部は、前記周辺情報取得部が取得した前記周辺情報に基づいて、前記車両との距離が減少傾向にある前記移動体である接近体が存在する方向を特定し、
前記周辺情報に基づいて前記接近体毎の衝突リスクを評価するリスク評価部(F31)を備え、
前記立体音像生成部は、
前記接近体が存在する方向に前記仮想音源が定位するように前記立体音像を生成することで、前記接近体の存在を前記乗員に報知するものであって、
前記接近体のうち、前記リスク評価部によって前記衝突リスクは所定の報知閾値未満であると評価されている前記接近体については、当該移動体に対応した前記立体音像を生成しないことを特徴とする乗員状態推定装置。 In claim 10 ,
The peripheral information acquisition unit acquires, as the peripheral information, a moving body type of a moving body existing around the vehicle, a relative speed with respect to the vehicle, and a relative position with respect to the vehicle,
The risk direction specifying unit specifies a direction in which an approaching body that is the moving body in which the distance to the vehicle tends to decrease is based on the peripheral information acquired by the peripheral information acquisition unit,
A risk evaluation unit (F31) for evaluating a collision risk for each approaching body based on the peripheral information;
The three-dimensional sound image generator is
Informing the occupant of the presence of the approaching object by generating the stereoscopic sound image so that the virtual sound source is localized in the direction in which the approaching object exists,
Among the approaching objects, the three-dimensional sound image corresponding to the moving body is not generated for the approaching body evaluated by the risk evaluation unit as the collision risk being less than a predetermined notification threshold. Crew state estimation device.
前記立体音像生成部は、前記接近体のうち、前記リスク評価部によって前記衝突リスクが所定の報知閾値以上であると評価されている前記接近体が存在する場合に、当該接近体が存在する方向と前記仮想音源の定位方向とが一致するように前記立体音像を生成することを特徴とする乗員状態推定装置。 In claim 11 ,
The three-dimensional sound image generation unit has a direction in which the approaching body is present when the approaching body is evaluated by the risk evaluation unit as being more than a predetermined notification threshold. The occupant state estimation device characterized in that the three-dimensional sound image is generated so that the localization direction of the virtual sound source matches.
前記立体音像生成部は、
前記立体音像によってその存在を前記乗員に報知しようとしている前記接近体に対して前記リスク評価部が評価した前記衝突リスクに応じて、前記立体音像の出力態様を変更することを特徴とする乗員状態推定装置。 In claim 12 ,
The three-dimensional sound image generator is
The occupant state characterized by changing the output mode of the three-dimensional sound image according to the collision risk evaluated by the risk evaluation unit with respect to the approaching body that is about to notify the occupant of the presence of the three-dimensional sound image. Estimating device.
移動体種別に応じた擬音を前記音響信号として出力するための擬音データを移動体種別毎に記憶している擬音データ記憶部(M1)を備え、
前記周辺情報は、少なくとも前記車両の周辺に存在する移動体毎の移動体種別を含み、
前記立体音像生成部は、
所定の報知条件を充足する移動体が存在する場合に、その報知条件を充足している前記移動体の移動体種別に応じた擬音で前記立体音像を生成することを特徴とする乗員状態推定装置。 In any one of Claims 10 to 13 ,
An onomatopoeia data storage unit (M1) for storing onomatopoeia data for outputting an onomatopoeia according to a moving body type for each moving body type;
The surrounding information includes at least a moving body type for each moving body existing around the vehicle,
The three-dimensional sound image generator is
An occupant state estimation device characterized in that, when there is a moving body that satisfies a predetermined notification condition, the three-dimensional sound image is generated with a pseudo sound corresponding to a moving body type of the moving body that satisfies the notification condition. .
前記立体音像が生成されてから前記乗員が前記定位方向に視線を向けるまでの反応時間を計測する反応時間計測部(F61)と、
前記視認判定部の判定結果、及び、前記反応時間計測部が計測した前記反応時間を、所定の記憶媒体を用いて実現される結果記憶部に記録する記録処理部(F62)と、を備え、
前記乗員状態推定部は、前記記録処理部に記録されている前記反応時間と、所定回数の前記立体音像の生成に対して前記乗員が前記仮想音源の方向を見た回数の、少なくとも何れか一方に基づいて、前記乗員の状態を推定することを特徴とする乗員状態推定装置。 In any one of Claims 1-14,
A reaction time measuring unit (F61) for measuring a reaction time from when the three-dimensional sound image is generated until the occupant turns his line of sight toward the localization direction;
A recording processing unit (F62) that records the determination result of the visual recognition determination unit and the reaction time measured by the reaction time measurement unit in a result storage unit realized using a predetermined storage medium;
The occupant state estimation unit is at least one of the reaction time recorded in the recording processing unit and the number of times the occupant looks at the direction of the virtual sound source with respect to the generation of the stereoscopic sound image a predetermined number of times. An occupant state estimating device that estimates the state of the occupant based on the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016084355A JP6589734B2 (en) | 2016-04-20 | 2016-04-20 | Crew state estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016084355A JP6589734B2 (en) | 2016-04-20 | 2016-04-20 | Crew state estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017194822A JP2017194822A (en) | 2017-10-26 |
JP6589734B2 true JP6589734B2 (en) | 2019-10-16 |
Family
ID=60155990
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016084355A Expired - Fee Related JP6589734B2 (en) | 2016-04-20 | 2016-04-20 | Crew state estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6589734B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3872787A1 (en) * | 2020-02-26 | 2021-09-01 | Mitsubishi Logisnext Co., Ltd. | Processing device, processing method, notification system, and program |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6676084B2 (en) * | 2018-02-01 | 2020-04-08 | 株式会社Subaru | Vehicle occupant monitoring device |
JP2021099704A (en) * | 2019-12-23 | 2021-07-01 | 株式会社Jvcケンウッド | Notification control device for vehicle, notification system for vehicle, notification method, and program |
JP7350823B2 (en) * | 2021-11-22 | 2023-09-26 | 本田技研工業株式会社 | Notification device, vehicle and notification control method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010140358A (en) * | 2008-12-12 | 2010-06-24 | Toyota Motor Corp | Traveling support device |
JP2010231337A (en) * | 2009-03-26 | 2010-10-14 | Mazda Motor Corp | Lane departure alarm for vehicle |
JP2013186728A (en) * | 2012-03-08 | 2013-09-19 | Mitsubishi Motors Corp | Warning system |
-
2016
- 2016-04-20 JP JP2016084355A patent/JP6589734B2/en not_active Expired - Fee Related
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3872787A1 (en) * | 2020-02-26 | 2021-09-01 | Mitsubishi Logisnext Co., Ltd. | Processing device, processing method, notification system, and program |
US11802032B2 (en) | 2020-02-26 | 2023-10-31 | Mitsubishi Logisnext Co., LTD. | Processing device, processing method, notification system, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2017194822A (en) | 2017-10-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111361552B (en) | Automatic driving system | |
JP6447481B2 (en) | Startup proposal apparatus and startup proposal method | |
CN105989749B (en) | System and method for prioritizing driver alerts | |
EP3128462B1 (en) | Driver assistance apparatus and control method for the same | |
JP6564576B2 (en) | Proximity alarm device for automobiles | |
CN107878460A (en) | The control method and server of automatic driving vehicle | |
JP6589734B2 (en) | Crew state estimation device | |
WO2015134840A2 (en) | Vehicular visual information system and method | |
WO2007105792A1 (en) | Monitor and monitoring method, controller and control method, and program | |
WO2020100585A1 (en) | Information processing device, information processing method, and program | |
US20240071231A1 (en) | Information presentation device | |
US20220314982A1 (en) | Control device | |
JP2015212115A (en) | Vehicle control device | |
WO2016157814A1 (en) | Startup suggestion device and startup suggestion method | |
CN107599965B (en) | Electronic control device and method for vehicle | |
JP2024067296A (en) | Attention calling system and attention calling method | |
WO2021131789A1 (en) | Vehicle | |
JP2019109659A (en) | Travel support system and on-vehicle device | |
JP7372382B2 (en) | Traffic safety support system | |
JP7372381B2 (en) | Traffic safety support system | |
US20230326344A1 (en) | Traffic safety support system | |
JP7469358B2 (en) | Traffic Safety Support System | |
JP2023151645A (en) | Traffic safety support system | |
CN116895182A (en) | Traffic safety auxiliary system | |
JP2023151648A (en) | Traffic safety support system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180704 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190417 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190423 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190902 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6589734 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |