JP7415460B2 - Vehicle control device and driver condition determination method - Google Patents
Vehicle control device and driver condition determination method Download PDFInfo
- Publication number
- JP7415460B2 JP7415460B2 JP2019203792A JP2019203792A JP7415460B2 JP 7415460 B2 JP7415460 B2 JP 7415460B2 JP 2019203792 A JP2019203792 A JP 2019203792A JP 2019203792 A JP2019203792 A JP 2019203792A JP 7415460 B2 JP7415460 B2 JP 7415460B2
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- driver
- degree
- gaze point
- standard
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 26
- 230000005856 abnormality Effects 0.000 claims description 53
- 238000001514 detection method Methods 0.000 claims description 52
- 230000004434 saccadic eye movement Effects 0.000 claims description 47
- 230000033001 locomotion Effects 0.000 claims description 30
- 230000002159 abnormal effect Effects 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 5
- 230000007613 environmental effect Effects 0.000 claims description 2
- 230000004044 response Effects 0.000 claims description 2
- 238000012545 processing Methods 0.000 description 35
- 230000006399 behavior Effects 0.000 description 21
- 239000002131 composite material Substances 0.000 description 19
- 238000010586 diagram Methods 0.000 description 17
- 230000004064 dysfunction Effects 0.000 description 14
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 8
- 238000004364 calculation method Methods 0.000 description 7
- 230000007423 decrease Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 7
- 230000004424 eye movement Effects 0.000 description 7
- 239000005357 flat glass Substances 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 4
- 201000010099 disease Diseases 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 2
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000006735 deficit Effects 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 208000014644 Brain disease Diseases 0.000 description 1
- 208000013016 Hypoglycemia Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 208000006011 Stroke Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 208000035475 disorder Diseases 0.000 description 1
- 206010015037 epilepsy Diseases 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000009760 functional impairment Effects 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 230000002218 hypoglycaemic effect Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 208000010125 myocardial infarction Diseases 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Description
ここに開示する技術は、例えば車両制御装置及び自動車を運転する運転者の状態を判定する運転者状態判定方法に関する。 The technology disclosed herein relates to, for example, a vehicle control device and a driver state determination method for determining the state of a driver who drives an automobile.
昨今、国家的に自動運転システムの開発が推進されている。本願出願人は、現時点において、自動運転システムには、大きく分けると2つの方向性があると考えている。 Recently, the development of autonomous driving systems has been promoted nationally. The applicant of this application currently believes that there are two main directions for automatic driving systems.
第1の方向性は、自動車が主体となって運転者の操作を要することなく乗員を目的地まで運ぶシステムであり、いわゆる自動車の完全自動走行である。第2の方向性は、「自動車の運転が楽しめる環境を提供する」というように、あくまで人間が運転をすることを前提とした自動運転システムである。 The first direction is a system in which the vehicle plays a central role in transporting passengers to their destination without requiring any operation by the driver, which is what is called fully automated vehicle driving. The second direction is an automated driving system that is based on the assumption that a human will be driving the car, such as ``providing an environment where driving can be enjoyed.''
第2の方向性の自動運転システムでは、例えば、運転者に疾患等が発生し正常な運転が困難な状況が発生した場合等に、自動的に、自動車が乗員に変わって自動運転を行うことが想定される。このため、運転者に異常が発生したこと、特に、運転者に機能障害や疾患が発生したことをいかに早期にかつ精度良く発見できるかが、運転者の救命率の向上や周囲を含めた安全を確保する観点から極めて重要となる。 In the second direction of automated driving systems, when a situation arises in which the driver becomes ill and is unable to drive normally, for example, the vehicle automatically replaces the passenger and performs automated driving. is assumed. Therefore, it is important to be able to detect abnormalities in the driver as early as possible and accurately, especially when the driver has developed a functional disorder or disease, to improve the survival rate of the driver and to ensure the safety of everyone, including those around them. This is extremely important from the perspective of ensuring that
運転者の異常を判定する方法として、例えば、特許文献1には、車両の前方画像をマッピングし、マッピングされた前方画像の画素値に基づいて目立ち度マップ(サリエンシーマップ)を生成するとともに、ドライバの視線先の目立ち度を計算し、ドライバが目立つ部分に視線を向けた度合いと予め定めた閾値とを比較して、ドライバが漫然状態か否かを判定する技術が開示されている。
As a method for determining abnormality of a driver, for example,
特許文献1の技術は、ドライバが漫然状態にある場合には、意図的な注意機能が働かなくなるため、例えば、死角領域からの歩行者の飛び出しが起こり得るような危険な場所に視線が行かなくなり、視覚的な刺激の目立つ部分に視線が向けられるという視線配分特性に基づいた判定となっている。また、特許文献1には、危険度計算手段により計算された危険度を差し引いて、漫然状態を判定することが示されている。
In the technology of
発明者らは、機能障害者と健常者とによりドライビングシミュレータで視線検出を行った結果、機能障害者でもサリエンシーが高い領域に誘目されない場合や健常者でもサリエンシーが高い領域に誘目される場合が多数生じることが分かった。 The inventors conducted line-of-sight detection using a driving simulator using a driving simulator for people with impairments and healthy people, and found that there were many cases where even people with impairments were not attracted to areas with high salience, and even healthy people were often attracted to areas with high salience. I found out that it occurs.
例えば、サリエンシーが高い領域が、同時に運転中に見るべき注意箇所である場合に、健常者であってもサリエンシーが高い領域に視線が向かい、結果として、疾患発生と誤判定される場合がある。 For example, if an area with high salience is also a caution point that should be looked at while driving, even a healthy person may direct their line of sight to the area with high salience, and as a result, it may be erroneously determined that a disease has occurred.
ここに開示された技術は、斯かる点に鑑みてなされたものであり、サリエンシーに対する誘目傾向から運転者の状態判定をする運転者状態判定装置において、車両の走行環境にかかわらずに運転者の異常対応をより適切に行うことができるようにすることにある。 The technology disclosed herein has been developed in view of the above, and is designed to provide a driver condition determination device that determines the driver's condition based on the tendency to attract attention to salience, regardless of the driving environment of the vehicle. The purpose is to be able to handle abnormalities more appropriately.
前記課題を解決するために、ここに開示された技術では、車両に搭載される車両制御装置を対象として、前記車両の運転者の注視点を検出する注視点検出部と、前記車両前側の環境情報を取得する車外情報取得手段から車外環境情報を受信し、前記注視点検出部で検出された運転者の注視点が、前記車外環境情報に基づくサリエンシーの高い領域を見る傾向が所定の第1基準よりも高いときに、運転者の異常に対応する動作を行う車両制御部とを備え、前記車両制御部は、前記車外環境情報に基づいて推定される危険度が所定の第2基準よりも高くかつ前記注視点のサリエンシーが前記第1基準よりも低い第3基準以下の場合において、前記注視点に基づくサッケードの振幅が所定の第4基準より小さいときにも前記運転者の異常に対応する動作を行う、構成とした。 In order to solve the above problem, the technology disclosed herein includes a gaze point detection unit that detects a gaze point of a driver of the vehicle, and an environment in front of the vehicle, for a vehicle control device installed in a vehicle. The vehicle exterior environment information is received from the vehicle exterior information acquisition means that acquires the information, and the driver's gaze point detected by the gaze point detection unit has a predetermined first tendency to view an area with high salience based on the vehicle exterior environment information. and a vehicle control unit that performs an operation corresponding to a driver's abnormality when the level of risk is higher than a predetermined second standard. and when the saliency of the gaze point is equal to or lower than a third criterion lower than the first criterion, and the amplitude of the saccade based on the gaze point is smaller than a predetermined fourth criterion, it also corresponds to an abnormality of the driver. It is configured to perform operations.
ここで、サリエンシーとは、色、輝度、動き等により刻々と変化する顕著性からなる視覚特徴量である。高サリエンシー領域とは、運転者の視界領域のうちでサリエンシーが高い(顕著性が高い)領域を指すものとし、換言すると、周囲に対して目立つ領域を指すものとする。より具体的には、高サリエンシー領域は、例えば、周囲の領域に対して色差や輝度差が大きかったり、周囲に対して大きな動きをしていたりする領域を指すものとする。 Here, saliency is a visual feature amount consisting of saliency that changes from moment to moment due to color, brightness, movement, etc. The high saliency area refers to an area where saliency is high (high conspicuousness) in the driver's visual field, or in other words, an area that stands out from the surroundings. More specifically, a high saliency region refers to, for example, a region that has a large color difference or brightness difference compared to surrounding regions, or that has a large movement relative to the surrounding regions.
また、サッケードとは、運転者が意図的に視線を移動させる跳躍性眼球運動のことであり、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。サッケードの振幅とは、運転者の視線が所定時間停滞する注視点から次の注視点への移動した場合における移動量のことを指す。 Furthermore, a saccade is a jumping eye movement in which the driver intentionally moves his/her line of sight, and is an eye movement in which the driver moves his/her line of sight from a point of gaze where the line of sight remains stagnant for a predetermined period of time to the next point of gaze. The amplitude of a saccade refers to the amount of movement when the driver's line of sight moves from a gaze point where it remains stagnant for a predetermined period of time to the next gaze point.
上記の態様によると、サリエンシーの高い領域を見る傾向に加えて、サッケードの振幅に基づいた基準を設けることで、例えば、危険度が高まったことにより、運転者が異常状態であるにもかかわらず、運転者の異常対応ができていないという状態をできるだけ避けることができる。 According to the above aspect, by setting a criterion based on the amplitude of saccades in addition to the tendency to see areas with high salience, for example, even if the driver is in an abnormal state due to an increased risk , it is possible to avoid as much as possible a situation in which the driver is unable to respond to an abnormality.
上記態様の車両制御装置において、前記車外環境情報に基づいて推定される危険度が前記第2基準よりも高い場合、前記危険度の増加に応じて前記第1基準を低下させる、としてもよい。 In the vehicle control device of the above aspect, if the degree of risk estimated based on the vehicle exterior environment information is higher than the second standard, the first standard may be lowered in accordance with the increase in the degree of risk.
このように、危険度の増加に応じて第1基準を低下させることにより、危険度が高まったことにより、運転者が異常状態であるにもかかわらず、サリエンシーが相対的に低い危険個所を見ているような場合に、未判定状態となることを低減することができる。 In this way, by lowering the first standard in accordance with the increase in the degree of danger, it is possible to identify dangerous spots where the salience is relatively low even though the driver is in an abnormal state due to the increase in the degree of danger. It is possible to reduce the possibility of an undetermined state in such a case.
上記態様の車両制御装置において、自動運転の経路生成のために車外環境を認識する外部環境認識部を備え、前記車両制御部は、前記外部環境認識部の認識結果を基に、前記危険度を推定する、としてもよい。 The vehicle control device according to the above aspect includes an external environment recognition unit that recognizes an environment outside the vehicle in order to generate a route for automatic driving, and the vehicle control unit determines the degree of risk based on the recognition result of the external environment recognition unit. You can also say to estimate.
このように、外部環境認識部で認識された危険度を用いることにより、新たに危険度を推定するための構成を追加する必要がない。 In this way, by using the degree of risk recognized by the external environment recognition unit, there is no need to add a new configuration for estimating the degree of risk.
前記課題を解決するために、ここに開示された技術では、車両の運転者の状態を判定する運転者状態判定方法を対象として、前記車両の運転者の注視点、及び、該注視点の動きに基づくサッケード振幅を検出する検出ステップと、前記車両前側の環境情報を取得する車外情報取得手段から受信した車外環境情報を基にしてサリエンシーの高い領域を抽出する抽出ステップと、前記車外情報取得手段から受信した車外環境情報を基にして走行シーンの危険度を推定する推定ステップと、前記検出ステップで検出された運転者の注視点が、前記抽出ステップで抽出されたサリエンシーの高い領域を見る傾向が所定の第1基準よりも高いときに、運転者に異常がある判定する判定ステップとを備え、前記判定ステップは、前記推定ステップで推定された危険度が所定の第2基準よりも高くかつ前記運転者の注視点がサリエンシーの高い領域を見る傾向が前記第1基準よりも低い所定の第3基準より小さい場合において、前記注視点に基づくサッケードの振幅が所定の第4基準より小さいときにも運転者の異常と判定する。 In order to solve the above problem, the technology disclosed herein targets a driver state determination method for determining the state of a driver of a vehicle, and includes a method for determining the state of the driver of a vehicle, and a movement of the point of view of the driver of the vehicle. a detection step of detecting a saccade amplitude based on the saccade amplitude, an extraction step of extracting a region with high salience based on the vehicle exterior environment information received from the vehicle exterior information acquisition means that acquires the vehicle front side environment information, and the vehicle exterior information acquisition means an estimation step of estimating the degree of danger of a driving scene based on the external environment information received from the vehicle; and a tendency for the driver's gaze point detected in the detection step to look at the high salience region extracted in the extraction step. is higher than a predetermined first standard, a determining step of determining that the driver is abnormal; When the driver's gaze point is smaller than a predetermined third criterion, which is lower than the first criterion, and the driver's tendency to look at an area with high salience is smaller than a predetermined fourth criterion, the amplitude of a saccade based on the gaze point is smaller than a predetermined fourth criterion. It is also determined that there is an abnormality on the part of the driver.
このように、サリエンシーの高い領域を見る傾向に基づいた運転者の異常判定に、サッケードの振幅に基づいた基準に基づく異常判定を加えることにより、例えば、危険度が高まったことにより、運転者が異常状態であるにもかかわらず、サリエンシーが相対的に低い危険個所を見ているような場合においても、未判定状態となることを低減することができる。 In this way, by adding an abnormality judgment based on a criterion based on the amplitude of saccades to the driver's abnormality judgment based on the driver's tendency to look at areas with high salience, for example, the driver may Even in a case where a dangerous location with relatively low salience is observed despite being in an abnormal state, it is possible to reduce the possibility of an undetermined state.
以上説明したように、ここに開示された技術によると、運転者の異常対応をより適切に行うことができる。 As described above, according to the technology disclosed herein, the driver can more appropriately respond to abnormalities.
<本願発明者らにより得られた知見>
特許文献1にも示されているように、運転者のサリエンシーに対する視線移動の変化を見て、運転者の異常(注意機能低下を引き起こす異常)を検出する技術が知られている。この技術では、例えば、サリエンシーが高い領域(高サリエンシー領域)への視線移動が所定の閾値を超える場合に運転者の異常を検出する。
<Findings obtained by the inventors>
As disclosed in
本願発明者らは、鋭意研究の結果、注意機能障害者の車両運転時の挙動を観測することにより、車両の運転者の異常時(例えば、注意機能低下を引き起こす異常時)の挙動を擬似的に観測することができることを見出した。そして、本願発明者らは、上記の観測結果を基に、高サリエンシー領域への視線移動が所定の閾値を超える場合に運転者の異常を検出するという手法について検証を行った。具体的には、注意機能障害者の車両運転時の挙動と、注意機能障害を有さない健常者の車両運転時の挙動とについて、後述するサリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の閾値を超える場合に運転者の異常を検出するという手法についての検証を行った。 As a result of intensive research, the inventors of the present application have simulated the behavior of vehicle drivers during abnormal situations (for example, abnormal situations that cause a decline in attention function) by observing the behavior of people with attention dysfunction when driving a vehicle. We found that it is possible to observe Based on the above observation results, the inventors of the present application verified a method of detecting a driver's abnormality when the line of sight movement toward a high saliency region exceeds a predetermined threshold value. Specifically, we examined the behavior of people with attention dysfunction when driving a vehicle and the behavior of healthy people without attention dysfunction when driving a vehicle, using the saliency index described later to determine the shift of the gaze toward a high salience region. We tested a method that detects trends and detects driver abnormalities when the salience index exceeds a predetermined threshold.
この検証の結果、本願発明者らは、注意機能障害者でもサリエンシーが高い領域に誘目されない場合や健常者でもサリエンシーが高い領域に誘目される場合が多数生じることが分かった。例えば、サリエンシーが高い領域が、同時に運転中に見るべき注意箇所である場合に、健常者であってもサリエンシーが高い領域に視線が向かい、結果として、疾患発生と誤判定される場合があることが分かった。また、運転者に異常がある場合においても、危険度合いが増加すると、サリエンシーの高低にかかわらず危険個所を見る傾向があり、注視点のサリエンシーが低下して異常状態を判定できない場合があることがわかった。 As a result of this verification, the inventors of the present invention found that there are many cases in which even people with attentional dysfunction are not attracted to areas with high salience, and even healthy people are often attracted to areas with high salience. For example, if an area with high salience is also a cautionary point to look at while driving, even healthy people may direct their eyes to the area with high salience, and as a result, it may be erroneously determined that a disease has occurred. I understand. Furthermore, even if the driver has an abnormality, as the degree of danger increases, the driver tends to look at the dangerous area regardless of the level of salience, and the salience of the gaze point decreases, making it impossible to determine the abnormal condition. Understood.
図20,21は、ドライビングシミュレータを用いて運転者の視線を検出し、サリエンシー指標の時間変化としてプロットしたものである。図20は健常者の測定結果であり、図21は注意機能障害患者の測定結果である。ただし、走行スピードが互いに異なるので、時間軸と走行場所が必ずしも一致しているわけではない。 20 and 21 show the driver's line of sight detected using a driving simulator and plotted as a time change in the saliency index. FIG. 20 shows the measurement results of a healthy person, and FIG. 21 shows the measurement results of a patient with attention dysfunction. However, since the running speeds are different from each other, the time axis and the running location do not necessarily match.
詳細は後述するが、サリエンシー指標とは、高サリエンシー領域への誘目度が高いほど数値が高くなる指標となっている。図20,21の例では、高サリエンシー領域への誘目度が相対的に高いと判断される0.6に閾値を設定し、サリエンシー指標が0.6を超える場合に注意機能の障害があると推定するものとした。 Although the details will be described later, the saliency index is an index whose numerical value increases as the degree of attraction to a high saliency region increases. In the examples shown in Figures 20 and 21, the threshold is set to 0.6, which indicates that the degree of attraction to the high salience region is relatively high, and when the salience index exceeds 0.6, it is determined that there is a failure in attention function. It was assumed that the
そうすると、健常者でもサリエンシー指標が0.6を超える場面が散見されることが分かった(図21のAR1参照)。例えば、消防車のようにサリエンシーの高い車両を追い抜く際などには、健常者であってもサリエンシーの高い場所に誘目される傾向がある。また、機能障害患者であっても、交差点や駐車車両の追い越し時等の危険度が高い場所・シーンにおいて、サリエンシー指標が低い場所でも確認する傾向があり、サリエンシー指標が低い領域が確認されている(図22のAR2参照)。 As a result, it was found that even in healthy subjects, there were some cases where the saliency index exceeded 0.6 (see AR1 in FIG. 21). For example, when passing a vehicle with high salience such as a fire truck, even healthy people tend to be attracted to places with high salience. In addition, even in patients with functional impairment, there is a tendency to check even in high-risk places and scenes such as at intersections and when overtaking parked vehicles, even in places where the salience index is low, and areas with low salience index have been confirmed. (See AR2 in Figure 22).
そこで、本願発明者らは、さらに鋭意検討を重ね、危険度合いを示すリスクポテンシャルを用いることで、より精度よく運転者の異常を検出することができることを見出した。リスクポテンシャルとは、自車両の走行環境における危険度(自車両の運転者が感じる危険感)を適切に反映するように人工的に設定された場であり、例えば、周辺車両に対して各周辺車両の中心位置が最大となり、各周辺車両の周囲に拡がって行くような形状を有する適当な関数が設定される。また、また、リスクポテンシャルとして、死角領域や交差点等に想定され得る危険度合いを推定するような指標としてもよい。また、危険度合(リスクポテンシャル)の判定方法として、周辺車両との車間距離やTTC(Time To Collision)、道路線形や線形変化点までの距離等を用いてもよい。 Therefore, the inventors of the present application further conducted intensive studies and found that by using the risk potential indicating the degree of danger, abnormalities of the driver can be detected with higher accuracy. Risk potential is a field that is artificially set to appropriately reflect the degree of danger in the driving environment of the own vehicle (the sense of danger felt by the driver of the own vehicle). An appropriate function is set that has a shape that has a maximum value at the center position of the vehicle and expands around each surrounding vehicle. Furthermore, the risk potential may be used as an index for estimating the degree of danger that may be expected in blind spots, intersections, etc. Further, as a method for determining the degree of risk (risk potential), the distance between vehicles and surrounding vehicles, TTC (Time To Collision), road alignment, distance to a linear change point, etc. may be used.
より具体的には、運転者の異常判定において、危険度が増加傾向にある場合にはサリエンシー指標の判定閾値を相対的に下げる一方で、危険度が減少傾向にある場合にはサリエンシー指標の判定閾値を相対的に上げるようにする。すなわち、危険度の増減の傾向に応じて、サリエンシー指標の閾値を危険度の傾向とは反対の方向に変化させる。これにより、運転者の異常の未判定を低減させることができることを見出した。運転者の異常の未判定には、例えば、運転者の異常がある場合でもサリエンシーが低い危険場所を見る傾向がある場合における異常の未判定を含む。さらに、本願発明者らは、危険度が所定の基準値(第2基準に相当)よりも高い場合でかつ注視点のサリエンシー指標が所定の基準値(第3基準に相当)以下になった場合に、サッケード振幅を用いて運転者の異常を判定することにより、運転者の異常を判定しやすくなることを見出した。本願発明者らは、上記実験等を踏まえた鋭意検討の結果、運転者の異常時、特に、注意機能障害者は、危険度が所定の基準を超えると、運転者の視点が局所にとらわれる傾向があることを見出しており、サッケード振幅を用いた運転者の異常判定は、運転者の視点が局所にとらわれる傾向がある状態を検出することを目的としている。 More specifically, in driver abnormality determination, if the degree of danger is increasing, the saliency index determination threshold is relatively lowered, while if the degree of danger is decreasing, the saliency index determination threshold is relatively lowered. Increase the threshold relatively. That is, the threshold value of the saliency index is changed in the direction opposite to the trend of the risk level according to the trend of increase/decrease in the risk level. It has been found that this can reduce the number of undetermined abnormalities of the driver. The undetermined abnormality of the driver includes, for example, the undetermined abnormality when the driver tends to look at dangerous places with low salience even when the driver has an abnormality. Furthermore, the inventors of the present invention propose that when the degree of risk is higher than a predetermined standard value (equivalent to the second standard) and the salience index of the gaze point becomes less than the predetermined standard value (equivalent to the third standard), In addition, we found that it is easier to determine whether a driver is abnormal by using saccade amplitude to determine whether the driver is abnormal. As a result of intensive studies based on the above-mentioned experiments, the inventors of the present application have found that when a driver is abnormal, especially those with attentional dysfunction, when the degree of danger exceeds a predetermined standard, the driver's viewpoint tends to become localized. The purpose of driver abnormality determination using saccade amplitude is to detect a state in which the driver's viewpoint tends to be localized.
以下において、例示的な実施形態について、図面を参照しながら具体的に説明する。なお、以下の説明において、車両の前進走行側を単に前側といい、後退走行側を単に後側という。また、後側から前側を見たときの左側を左側といい、その逆を右側という。 In the following, exemplary embodiments will be specifically described with reference to the drawings. In the following description, the forward traveling side of the vehicle is simply referred to as the front side, and the backward traveling side is simply referred to as the rear side. Also, when looking from the rear to the front, the left side is called the left side, and the opposite is called the right side.
図1は、車両としての自動車の車室内を概略的に示す。この車両は、右ハンドル式の車両であって、右側にステアリングホイール58が配置されている。
FIG. 1 schematically shows the interior of an automobile as a vehicle. This vehicle is a right-hand drive vehicle, and a
車室内において、運転席から見て車両前側にはフロントウィンドウガラス51が配置されている。フロントウィンドウガラス51は、車室内側から見て、複数の車両構成部材により区画されている。具体的には、フロントウィンドウガラス51は、左右のフロントピラートリム52と、ルーフトリム53と、インストルメントパネル54とによって区画されている。
In the vehicle interior, a
左右のフロントピラートリム52は、フロントウィンドウガラス51の車幅方向外側の境界をそれぞれ構成している。各フロントピラートリム52は、各フロントピラーに沿って配置されている。ルーフトリム53は、フロントウィンドウガラス51の上側の境界を構成している。ルーフトリム53は、車両のルーフパネルの車室内側を覆っている。フロントウィンドウガラス51の車幅方向の中央でかつルーフトリム53のやや下側の部分には、バックミラー55が取り付けられている。ルーフトリム53におけるバックミラー55の近傍部分には、車室内、特に、運転者の顔面を撮影する車内カメラ28(図3参照)が設けられている。車内カメラ28については後で詳しく説明する。インストルメントパネル54は、フロントウィンドウガラス51の下側の境界を構成している。インストルメントパネル54には、メーターボックスやディスプレイ57が設けられている。
The left and right front pillar trims 52 constitute outer boundaries of the
また、車両は、左右のフロントピラーよりも車幅方向外側に、サイドミラー56をそれぞれ有している。各サイドミラー56は、運転席に着座した運転手がサイドドアのウィンドウ越しに見ることが出来るように配置されている。
Further, the vehicle has side mirrors 56 on the outer sides of the left and right front pillars in the vehicle width direction. Each
図2に示すように、車両には、車両前側の外部環境を撮影するためのカメラ(以下、前カメラ21aという)が設けられている。前カメラ21aは、車両の前側端部であって、車両のボンネット59よりもやや下側に配置されている。前カメラ21aは、車両前側の環境情報を取得する車外情報取得手段の一例である。
As shown in FIG. 2, the vehicle is provided with a camera (hereinafter referred to as
<車両制御システム>
図3は、実施形態による車両制御システム10の構成を例示する。車両制御システム10は、車両(具体的には自動四輪車)に設けられる。車両は、マニュアル運転と、アシスト運転と、自動運転とに切り換え可能である。マニュアル運転は、運転者の操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、運転者の操作を支援して走行する運転である。自動運転は、運転者の操作なしに走行する運転である。車両制御システム10は、アシスト運転および自動運転において、車両を制御する。具体的には、車両制御システム10は、車両に設けられたアクチュエータ11を制御することで車両の動作(特に走行)を制御する。
<Vehicle control system>
FIG. 3 illustrates the configuration of the
車両制御システム10は、情報取得部20と、制御部30と、通知部40とを備える。なお、以下の説明では、車両制御システム10が設けられている車両を「自車両」と記載し、自車両の周囲に存在する他の車両を「他車両」と記載する。
The
-アクチュエータ-
アクチュエータ11は、駆動系のアクチュエータ、操舵系のアクチュエータ、制動系のアクチュエータなどを含む。駆動系のアクチュエータの例としては、エンジン、モータ、トランスミッションが挙げられる。操舵系のアクチュエータの例としては、ステアリングが挙げられる。制動系のアクチュエータの例としては、ブレーキが挙げられる。
-Actuator-
The
-情報取得部-
情報取得部20は、車両の制御(特に走行制御)に用いられる各種情報を取得する。この例では、情報取得部20は、複数のカメラ21と、複数のレーダ22と、位置センサ23と、外部入力部24と、車両状態センサ25と、運転操作センサ26と、運転者状態センサ27とを含む。
-Information acquisition department-
The
〔カメラ〕
複数のカメラ21は、互いに同様の構成を有する。複数のカメラ21は、車両の周囲を囲うように車両に設けられる。複数のカメラ21の各々は、車両の周囲に広がる環境(車両の外部環境)の一部を撮像することで、車両の外部環境の一部を示す画像データを取得する。複数のカメラ21の各々により得られた画像データは、制御部30に送信される。複数のカメラ21は、前述の前カメラ21aを含む。
〔camera〕
The plurality of
この例では、カメラ21は、広角レンズを有する単眼カメラである。例えば、カメラ21は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。なお、カメラ21は、狭角レンズを有する単眼カメラであってもよいし、広角レンズまたは狭角レンズを有するステレオカメラであってもよい。
In this example,
〔レーダ〕
複数のレーダ22は、互いに同様の構成を有する。複数のレーダ22は、車両の周囲を囲うように車両に設けられる。複数のレーダ22の各々は、車両の外部環境の一部を検出する。具体的には、レーダ22は、車両の外部環境の一部へ向けて電波を送信して車両の外部環境の一部からの反射波を受信することで、車両の外部環境の一部を検出する。複数のレーダ22の検出結果は、制御部30に送信される。
[Radar]
The plurality of
例えば、レーダ22は、ミリ波を送信するミリ波レーダであってもよいし、レーザ光を送信するライダ(Light Detection and Ranging)であってもよいし、赤外線を送信する赤外線レーダであってもよいし、超音波を送信する超音波センサであってもよい。
For example, the
〔位置センサ〕
位置センサ23は、車両の位置(例えば緯度および経度)を検出する。例えば、位置センサ23は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて車両の位置を検出する。位置センサ23により得られた情報(車両の位置)は、制御部30に送信される。
[Position sensor]
The
〔外部入力部〕
外部入力部24は、車両の外部に設けられた車外ネットワーク(例えばインターネットなど)を通じて情報を入力する。例えば、外部入力部24は、車両の周囲に位置する他車両(図示省略)からの通信情報、ナビゲーションシステム(図示省略)からのカーナビゲーションデータ、交通情報、高精度地図情報などを受信する。外部入力部24により得られた情報は、制御部30に送信される。
[External input section]
The
〔車両状態センサ〕
車両状態センサ25は、車両の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、車両状態センサ25は、車両の速度を検出する車速センサ、車両の加速度を検出する加速度センサ、車両のヨーレートを検出するヨーレートセンサなどを含む。車両状態センサ25により得られた情報(車両の状態)は、制御部30に送信される。
[Vehicle condition sensor]
The
〔運転操作センサ〕
運転操作センサ26は、車両に加えられる運転操作を検出する。例えば、運転操作センサ26は、アクセル開度センサ、操舵角センサ、ブレーキ油圧センサなどを含む。アクセル開度センサは、車両のアクセルの操作量を検出する。操舵角センサは、車両のハンドルの操舵角を検出する。ブレーキ油圧センサは、車両のブレーキの操作量を検出する。運転操作センサ26により得られた情報(車両の運転操作)は、制御部30に送信される。
[Driving operation sensor]
The driving
〔運転者状態センサ〕
運転者状態センサ27は、車両を運転する運転者の状態(例えば運転者の健康状態や感情や身体挙動など)を検出する。運転者状態センサ27により得られた情報(運転者の状態)は、制御部30に送信される。この例では、運転者状態センサ27は、車内カメラ28と、生体情報センサ29とを含む。
[Driver status sensor]
The
《車内カメラ》
車内カメラ28は、車両の内部に設けられる。車内カメラ28は、運転者の眼球を含む領域を撮像することで運転者の目を含む画像データを取得する。車内カメラ28により得られた画像データは、制御部30に送信される。例えば、車内カメラ28は、運転者の前方に配置され、運転者の眼球が撮像範囲内となるように撮像範囲が設定される。なお、車内カメラ28は、運転者に装着されるゴーグル(図示を省略)に設けられてもよい。
《In-vehicle camera》
The in-
《生体情報センサ》
生体情報センサ29は、運転者の生体情報(例えば発汗など)を検出する。生体情報センサ29により得られた情報(運転者の生体情報)は、制御部30に送信される。
《Biological information sensor》
The biological information sensor 29 detects biological information (for example, sweating) of the driver. Information obtained by the biometric information sensor 29 (driver's biometric information) is transmitted to the
-制御部-
制御部30は、アシスト運転または自動運転において、情報取得部20により取得された各種情報に基づいて、車両が走行すべき経路である目標経路を決定し、目標経路を走行するために必要となる車両の運動である目標運動を決定する。そして、制御部30は、車両の運動が目標運動となるように、アクチュエータ11の動作を制御する。例えば、制御部30は、1つまたは複数の演算チップを有する電子制御ユニット(ECU)により構成される。言い換えると、制御部30は、1つまたは複数のプロセッサ、1つまたは複数のプロセッサを動作させるためのプログラムやデータを記憶する1つまたは複数のメモリなどを有する電子制御ユニット(ECU)により構成される。
-Control unit-
The
この例では、図3に示すように、制御部30は、画像処理部31と、外部環境認識部32と、候補経路生成部33と、車両挙動認識部34と、運転者挙動認識部35と、目標経路決定部36と、運動制御部37とを有する。
In this example, as shown in FIG. 3, the
〔画像処理部〕
画像処理部31は、複数のカメラ21で撮像された画像を受信し、画像処理を行う。画像処理部31で行われる画像処理には、外部環境認識部32で物体等の外部環境を認識するために用いる画像のための第1画像処理と、サリエンシーマップの生成に用いるための第2画像処理とが含まれる。
[Image processing section]
The
《第1画像処理》
画像処理部31は、各カメラ21の撮影した画像に対して、画像の歪み(この例ではカメラ21の広角化による歪み)を補正する歪み補正処理や、画像のホワイトバランスを調整するホワイトバランス調整処理などを行う。また、画像処理部31は、画像を構成する素子のうち後段の外部環境認識部32での処理に不要な画素を削除したり、色彩に関するデータを間引いたり(車両を全て同じ色で表すなど)して、画像データを生成する。第1画像処理で生成された画像データは、外部環境認識部32に送信される。
《First image processing》
The
《第2画像処理》
画像処理部31は、例えば、前カメラ21aの撮影した画像に対して、画像を構成する素子のうち、後段のマップ生成部301の処理(例えば、サリエンシーマップの生成)に不要な画素を削除する処理を行う。また、画像処理部31は、前カメラ21aで撮影された車両前側の外部環境を示す画像に対して、別の画像を合成して合成画像を生成する処理を行う。
《Second image processing》
For example, the
図5は、車両の走行シーンにおいて前カメラ21aが撮影した車両前側の外部環境を示す画像D11の一例である。この画像D11に示す外部環境には、車道150と、車道150上の白線151とが含まれる。また、この画像D11に示された外部環境には、車道150の左側に形成された壁162と、壁162よりも左側の領域に形成された森林163と、車道150の右側の領域に広がる丘164と、丘164に形成された森林165が含まれる。また、この画像D11に示された外部環境には、車道150及び森林163,165の上側に広がる空167が含まれる。なお、以下の説明において、画像D11の空167は夕焼け空であり、赤みがかった空が広がっていると仮定する。換言すると、画像D11は、図7に示すように、高サリエンシー領域の広がりRWが相対的に大きい画像であるものとする。なお、図7については後で詳細に説明する。
FIG. 5 is an example of an image D11 showing the external environment on the front side of the vehicle, taken by the
画像処理部31は、画像D11に対して、車両の走行時に運転者の視界領域に入る車両構成部材を示す画像を合成する。具体的には、図6に示すように、画像処理部31は、運転席に着座した運転者が車両前側を見たときの車両構成部材の画像(以下、車両画像という)を画像D11に合成し、合成画像D12を生成する。車両画像に撮影される車両構成部材は、例えば、右側(運転席側)のフロントピラートリム52と、ルーフトリム53の右側の部分と、インストルメントパネル54の右側の部分と、バックミラー55と、右側のサイドミラー56と、ステアリングホイール58である。車両画像は、例えば、運転席側から運転者の視界領域に入る車内構造を予め撮影しておき、撮影した画像データをレイヤとして制御部30のメモリ(図示省略)に保存させておくことができる。そして、画像D11に車両画像を合成するときには、画像処理部31がメモリから当該車両画像を画像D11と別レイヤに読み込み、画像D11と車両画像との位置合わせをして重ねるようにすればよい。なお、車両構成部材として、さらにボンネット59の一部を考慮するようにしてもよい。また、合成画像D12を作成するのにあたって、前カメラ21a以外の情報、例えば、レーダ22の検出結果や、外部入力部24からの入力情報を使用するようにしてもよい。画像処理部31で生成された合成画像D12の画像データ(以下、合成画像データという)は、後述するマップ生成部301に送信される(図4参照)。
The
〔外部環境認識部〕
外部環境認識部32は、複数のカメラ21及びレーダ22から出力されたデータに基づいて車両の外部環境を認識する。外部環境認識部32により認識される車両の外部環境には、物体が含まれる。物体の例としては、時間経過により変位する動体と、時間経過により変位しない静止体とが挙げられる。動体の例としては、自動四輪車、自動二輪車、自転車、歩行者などが挙げられる。静止体の例としては、標識、街路樹、中央分離帯、センターポール、建物などが挙げられる。
[External environment recognition department]
The external
〔候補経路生成部〕
候補経路生成部33は、外部環境認識部32の出力に基づいて1つまたは複数の候補経路を生成する。候補経路は、車両が走行可能な経路であり、目標経路の候補である。また、候補経路生成部33は、候補経路を生成するのにあたって、前述のリスクポテンシャルを演算する。例えば、図11に示すように、他車両161(駐車車両)がある場合には、周辺車両の周囲に広がる危険領域が設定され、その広がりに応じた危険度がスコア化され、設定される。危険度のスコア化は、関数を用いて演算するようにしてもよいし、シーン等に応じた参照テーブルを設けるような方法であってもよい。
[Candidate route generation unit]
The candidate
図5~図12は、走行シーンの変化の一例を示している。図5~8は、同じ走行シーン(以下、第1走行シーンという)を示している。図9,10は、第1走行シーンから少し時間が経過した後の走行シーン(以下、第2走行シーンという)を示している。また、図11,12は、第2走行シーンから少し時間が経過した後の走行シーン(以下、第3走行シーンという)を示している。具体的に、第1走行シーンでは周囲に他車両が存在せずに危険度が低い状態であり、第2走行シーンでは遠方に停車中の他車両(以下停車車両161という)が見える走行シーンに移行して少し危険度が上昇しているものとする。また、第3走行シーンでは、停車車両161に近くなり、危険度が所定の第2基準を超えているものとする。候補経路生成部33では、車両の走行中に継続的に走行シーンの危険度及び危険が予測される場所を推定し、危険度や危険が予測される場所に応じて複数の候補経路を生成するように構成されている。走行シーンに応じた異常検出方法については、後で具体的に説明する。
5 to 12 show examples of changes in driving scenes. 5 to 8 show the same driving scene (hereinafter referred to as the first driving scene). FIGS. 9 and 10 show a driving scene (hereinafter referred to as a second driving scene) a little time after the first driving scene. Moreover, FIGS. 11 and 12 show a driving scene (hereinafter referred to as a third driving scene) after a little time has elapsed from the second driving scene. Specifically, in the first driving scene, there are no other vehicles around and the danger level is low, and in the second driving scene, another vehicle parked in the distance (hereinafter referred to as the stopped vehicle 161) can be seen. It is assumed that the risk level has increased slightly due to the transition. Further, in the third driving scene, it is assumed that the vehicle is close to the stopped
候補経路生成部33で生成された候補経路は、目標経路決定部36に送信される。また、候補経路生成部33で演算された危険度は、後述する異常検出部303に送信される(図4参照)。なお、危険度は、候補経路生成部33以外の構成要素で演算されるようにしてもよい。例えば、外部環境認識部32や、危険度演算専用の構成要素で演算するようにしてもよい。
The candidate route generated by the candidate
〔車両挙動認識部〕
車両挙動認識部34は、車両状態センサ25の出力に基づいて車両の挙動(例えば速度や加速度やヨーレートなど)を認識する。例えば、車両挙動認識部34は、深層学習により生成された学習モデルを用いて車両状態センサ25の出力から車両の挙動を認識する。
[Vehicle behavior recognition unit]
The vehicle
〔運転者挙動認識部〕
運転者挙動認識部35は、運転者状態センサ27の出力に基づいて運転者の挙動(例えば運転者の健康状態や感情や身体挙動など)を認識する。例えば、運転者挙動認識部35は、深層学習により生成された学習モデルを用いて運転者状態センサ27の出力からドライバの挙動を認識する。この例では、運転者挙動認識部35は、運転者状態検出部300を有する。運転者状態検出部300については、後で詳しく説明する。
[Driver behavior recognition unit]
The driver
〔目標経路決定部〕
目標経路決定部36は、車両挙動認識部34の出力と、運転者挙動認識部35の出力に基づいて、候補経路生成部33により生成された1つまたは複数の候補経路の中から目標経路となる候補経路を選択する。例えば、目標経路決定部36は、複数の候補経路のうち運転者が最も快適であると感じる候補経路を選択する。
[Target route determination unit]
The target
〔運動制御部〕
運動制御部37は、目標経路決定部36により目標経路として選択された候補経路に基づいて目標運動を決定し、その決定された目標運動に基づいてアクチュエータ11を制御する。例えば、運動制御部37は、目標運動を達成するための駆動力と制動力と操舵量である目標駆動力と目標制動力と目標操舵量をそれぞれ導出する。そして、運動制御部37は、目標駆動力を示す駆動指令値と目標制動力を示す制動指令値と目標操舵量を示す操舵指令値とを、駆動系のアクチュエータと制動系のアクチュエータと操舵系のアクチュエータとにそれぞれ送信する。
[Motor control unit]
The
《通知部》
通知部40は、車両の運転者に各種情報を通知する。この例では、通知部40は、表示部41と、スピーカ42とを含む。表示部41は、各種情報を画像で出力する。スピーカ42は、各種情報を音声で出力する。
《Notification Department》
The
《運転者状態検出部》
運転者状態検出部300は、車両の運転者の異常を検出する。具体的には、図4に示すように、運転者状態検出部300は、マップ生成部301と、注視点検出部302と、異常検出部303とを有する。
《Driver status detection section》
The driver
なお、運転者の異常とは、運転者の注意機能低下を引き起こす異常のことである。このような運転者の異常の例としては、脳卒中などの脳疾患、心筋梗塞などの心疾患、癲癇、低血糖、眠気などが挙げられる。また、以下の説明で、異常状態にある運転者のことを、注意機能障害者というものとする。 Note that the driver's abnormality refers to an abnormality that causes a decline in the driver's attention function. Examples of such driver abnormalities include brain diseases such as stroke, heart diseases such as myocardial infarction, epilepsy, hypoglycemia, and drowsiness. Furthermore, in the following explanation, a driver who is in an abnormal state will be referred to as a person with impaired attention function.
〔マップ生成部〕
マップ生成部301は、画像処理部31から合成画像データを受信し、合成画像データに基づいて合成画像D12についてのサリエンシーマップD13を生成する。具体的には、マップ生成部301は、合成画像データのうち外部環境を表す部分、すなわち、画像処理部31で合成した車両画像以外の部分についてのサリエンシーを算出する。このとき、マップ生成部301は、画像処理部31での合成に使用した車両画像についてのサリエンシーは算出しないものの、合成画像D12のうちの外部環境を表す部分のサリエンシーの算出には利用する。つまり、マップ生成部301は、車両の走行時に運転者の視界領域に入る車両構成部材を考慮してサリエンシーマップD13を生成する。
[Map generator]
The
前述したように、サリエンシーは、物標の色、輝度、動き等により変化する。そこで、本実施形態では、マップ生成部301は、色に基づくサリエンシー、輝度に基づくサリエンシー、動きに基づくサリエンシー等、特徴毎にサリエンシーを算出して、特徴毎のサリエンシーマップを生成した後に、それらを足し合わせることで最終的な合成画像D12に基づいたサリエンシーマップD13を生成する。
As mentioned above, saliency changes depending on the color, brightness, movement, etc. of the target object. Therefore, in the present embodiment, the
例えば、マップ生成部301は、色に基づくサリエンシーについて、合成画像データにおける車両構成部材の近傍領域において、当該近傍領域と車両構成部材との色差が大きいときには、該色差が小さいときと比較して、近傍領域のサリエンシーを高くする。なお、色差とは、ある画素の色のRGBを(R1,G1,B1)とし、他の画素の色のRGBを(R2,G2,B2)したときに、以下の式により算出される。
(色差)={(R2-R1)2+(G2-G1)2+(B2-B1)2}1/2
マップ生成部301は、色差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
For example, with respect to color-based saliency, when the color difference between the nearby region and the vehicle component is large in a region near the vehicle component in the composite image data, the
(Color difference) = {(R2-R1) 2 + (G2-G1) 2 + (B2-B1) 2 } 1/2
The
また、例えば、マップ生成部301は、輝度に基づくサリエンシーについて、合成画像データにおける車両構成部材の近傍領域において、当該近傍領域と車両構成部材との輝度差が大きいときには、該輝度差が小さいときと比較して、近傍領域のサリエンシーを高くする。例えば、マップ生成部301は、合成した車両構成部品が黒色であるときには、白色に近い部分ほど輝度差が大きくなるため、近傍領域のうち白色に近い部分のサリエンシーを高くする。マップ生成部301は、輝度差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
Further, for example, regarding the saliency based on brightness, the
図7は、マップ生成部301で生成されたサリエンシーマップの一例を示している。図7において、サリエンシーの高さに応じてハッチングを変えて表示している。図7ではハッチングの線間が密な方がサリエンシーが高い領域を示しており、ハッチングがない領域がサリエンシーが最も低い領域を示している。図8、図10、図12では、図面を見やすくするために、サリエンシーマップの等高線のみを記載している。
FIG. 7 shows an example of a saliency map generated by the
なお、サリエンシーの算出自体は、インターネット上等で公開されている既知のコンピュータプログラムを用いることができる。また、特徴毎のサリエンシーマップの算出及び各サリエンシーマップの統合についても既知のコンピュータプログラムを用いることができる。 Note that the calculation of saliency itself can be performed using a known computer program published on the Internet or the like. Furthermore, a known computer program can be used to calculate a saliency map for each feature and to integrate each saliency map.
〔注視点検出部〕
注視点検出部302は、車内カメラ28により撮影された運転者の眼球画像から、運転者の視線方向を算出する。注視点検出部302は、例えば、運転者が車内カメラ28のレンズを覗いた状態を基準にして、そこからの運転者の瞳孔の変化を検知することで運転者の視線方向を算出する。視線方向の算出は、運転者の左目及び右目のどちらか一方から算出してもよいし、運転者の両目のそれぞれから求めた視線方向(視線ベクトル)の平均値としてもよい。また、運転者の瞳孔の変化から運転者の視線方向を算出することが困難であるときには、運転者の顔面の向きを更に考慮して視線方向を算出してもよい。また、運転者の視線方向の算出に、深層学習により生成された学習モデル(視線を検出するための学習モデル)を用いてもよい。
[Gaze point detection unit]
The gaze
《注視点及びサッケードの検出》
注視点検出部302は、運転者の視線の動きに基づいて運転者のサッケードを検出する。サッケードとは、運転者が意図的に視線を移動させる跳躍性眼球運動のことであり、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。図13に示すように、隣り合う2つの注視期間の間に挟まれた期間がサッケード期間となる。なお、注視期間は、視線が停滞しているとみなされる期間である。サッケードの振幅dsは、サッケード期間における視線の移動距離である。
《Detection of fixation points and saccades》
The gaze
注視点検出部302は、視線の移動距離の変化に基づいて視線の移動速度を算出し、視線の移動速度が予め定められた速度閾値(例えば2deg/s)未満である状態が予め定められた停滞時間(例えば0.1秒間)継続する期間を「注視期間」として抽出するとともに、その注視期間において運転者の視線の先にある点を「注視点」として抽出する。また、注視点検出部302は、隣り合う2つの注視期間の間に挟まれた期間における視線移動のうち、移動速度が速度閾値(例えば40deg/s)以上であり、且つ、移動距離が予め定められ距離閾値(例えば3deg)以上である視線移動を「サッケード」として抽出する。
The gaze
なお、注視点検出部302は、抽出されたサッケードについて、ノイズ除去処理を行うようにしてもよい。具体的には、注視点検出部302は、図14に示すように、複数のサッケード候補に基づいて回帰曲線L10を導出する。注視点検出部302は、例えば、最小自乗法により複数のサッケード候補から回帰曲線L10を導出する。次に、注視点検出部302は、回帰曲線L10を移動速度が増加する方向(図14の縦軸における増加方向)にシフトさせることで第1基準曲線L11を導出し、回帰曲線L10を移動速度が減少する方向(図14の縦軸における減少方向)にシフトさせることで第2基準曲線L12を導出し、第1基準曲線L11と第2基準曲線L12との間をサッケード範囲R10とする。そして、注視点検出部302は、複数のサッケード候補のうちサッケード範囲R10内に含まれるサッケード候補をサッケードとして抽出する。
Note that the gaze
次に、注視点検出部302は、サッケードの指標であるサッケードの振幅dsとサッケードの頻度fsとを算出する。具体的には、注視点検出部302は、予め定められた周期毎(例えば10秒毎)に、その周期内に含まれるサッケードの振幅dsの平均値を「サッケードの振幅ds」として算出し、その周期内に含まれるサッケードの数をその周期の時間で除算して得られる値を「サッケードの頻度fs」として算出する。
Next, the gaze
図8、図10及び図12は、サリエンシーマップ上の注視点の位置と、時間的に隣り合う注視点間を線で結んだ図である。図8、図10及び図12において、注視点間の線の長さは、サッケードの振幅dsを示している。また、図8、図10及び図12において、丸印は健常者の注視点の一例であり、三角印は注意機能障害者の注視点の一例である。また、図8、図10及び図12において、実線は健常者の視線の動きの一例であり、破線は注意機能障害者の注視点の動きの一例である。 FIG. 8, FIG. 10, and FIG. 12 are diagrams in which the positions of gaze points on the saliency map and temporally adjacent gaze points are connected by lines. In FIGS. 8, 10, and 12, the length of the line between the fixation points indicates the amplitude ds of the saccade. Furthermore, in FIGS. 8, 10, and 12, circles are examples of gaze points of a healthy person, and triangle marks are examples of gaze points of a person with an attention dysfunction. Furthermore, in FIGS. 8, 10, and 12, the solid line is an example of the movement of the line of sight of a healthy person, and the broken line is an example of the movement of the gaze point of a person with an attentional dysfunction.
〔異常検出部〕
異常検出部303は、マップ生成部301で生成されたサリエンシーマップD3と、注視点検出部302で検出された運転者の注視点及びサッケードの振幅dsとに基づいて、運転者の異常を検出する。異常検出部303の動作は、以下の「車両制御システムの動作」において具体的に説明する。
[Abnormality detection part]
The
-車両制御システムの動作-
以下、図19参照しつつ、車両制御システムの動作について説明する。
-Vehicle control system operation-
The operation of the vehicle control system will be described below with reference to FIG.
(ステップST11)
まず、ステップST11において、車両制御システムでは、車両の運転者の注視点を検出する注視点検出ステップが実行される。具体的に、ステップST11では、例えば、前述の「注視点及びサッケードの検出」の項で説明したように、注視点検出部302が、車内カメラ28で検出された運転者の視線に基づいて注視点及びサッケードの振幅dsを検出する。
(Step ST11)
First, in step ST11, the vehicle control system executes a gaze point detection step of detecting the gaze point of the vehicle driver. Specifically, in step ST11, the gaze
(ステップST12)
ステップST12において、車両制御システムでは、前カメラ21aから受信した画像データに基づいて、サリエンシーマップを生成するマップ生成ステップが実行される。具体的に、ステップST12では、例えば、前述の「マップ生成部」の項で説明したように、マップ生成部301が画像処理部31から出力された合成画像データに基づいて、合成画像D12のサリエンシーマップD13を生成する。
(Step ST12)
In step ST12, the vehicle control system executes a map generation step of generating a saliency map based on the image data received from the
(ステップST13)
ステップST13において、車両制御システムでは、前カメラ21aから受信した画像データに基づいて、車両の走行シーンにおける危険度を推定する。具体的に、ステップST13では、例えば、前述の「候補経路生成部」の項で説明したように、候補経路生成部33が、車両の走行期間中に、走行シーンの危険度を推定する。候補経路生成部33は、例えば、所定の時間毎(例えば、10秒毎)に危険度を更新する。なお、ステップST11、ステップST12及びステップST13の実行順序は、特に限定されない。例えば、ステップS12がステップS11よりも先に実行されてもよいし、ステップS13がステップS11やステップST12よりも先に実行されてもよいし、ステップST11~ST13が同時に実行されてもよい。
(Step ST13)
In step ST13, the vehicle control system estimates the degree of danger in the vehicle driving scene based on the image data received from the
ステップST13の後は、ステップST21からの処理と、ステップST31からの処理とが並行して実行される。 After step ST13, the process from step ST21 and the process from step ST31 are executed in parallel.
(ステップST21)
ステップST21では、異常検出部303は、運転者がサリエンシーの高い領域を見る傾向が所定の第1基準よりも高いかどうかを判定する。具体的には、例えば、サリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の閾値を超えるか否かが判定される。具体的には、異常検出部303は、マップ生成部301で生成されたサリエンシーマップと、注視点検出部302で検出された運転者の注視点とに基づいて、運転者がサリエンシーの高い領域を見る傾向が所定の第1基準よりも高いかどうかを判定する。本実施形態では、異常検出部303は、第1基準として、サリエンシー指標が0.6より高いかどうかを判定する。なお、第1基準に用いるサリエンシー指標は0.6以外の数値を用いてもよいし、ステップST21の判定においてサリエンシー指標以外の指標を用いてもよい。
(Step ST21)
In step ST21, the
《サリエンシー指標の算出》
サリエンシー指標の算出方法について、図15~図18を用いて説明する。このサリエンシー指標の算出は、主に、異常検出部303により行われる。
《Calculation of salience index》
A method for calculating the saliency index will be explained using FIGS. 15 to 18. Calculation of this saliency index is mainly performed by the
図15は、運転者の注視点のサリエンシーの時間変化をプロットしたものである。このグラフは、例えば、図8に示すように、注視点の変化をサリエンシーマップに当てはめて、サッケードが生じる毎に注視点のサリエンシーの高さをプロットしたものである。一方で、図16は、図15と同じサリエンシーマップ(例えば、図8)からランダムに座標(以下、ランダム座標という)を指定して、サッケードが生じる毎にランダム座標のサリエンシーを求めることで生成される。 FIG. 15 is a plot of the change in saliency of the driver's gaze point over time. For example, as shown in FIG. 8, this graph is a graph in which changes in the gaze point are applied to a saliency map, and the height of the saliency of the gaze point is plotted every time a saccade occurs. On the other hand, Fig. 16 is generated by randomly specifying coordinates (hereinafter referred to as random coordinates) from the same saliency map as Fig. 15 (for example, Fig. 8) and calculating the saliency of the random coordinates every time a saccade occurs. be done.
図15及び図16のグラフをそれぞれ作成した後は、ランダム点における閾値を超える割合と運転者の注視点における閾値を超える割合とのROC(Receiver Operating Characteristic)曲線を求める。具体的には、まず、第1ステップとして、閾値を図15及び図16のグラフにおいて最大値よりも大きい値に設定する。次に、第2ステップとして、閾値を低下させながら、閾値毎に該閾値を超えた点の割合を求める。そして、この第2ステップの処理を閾値が、図15及び図16のグラフにおいて最小値以下になるまで繰り返す。 After creating the graphs shown in FIGS. 15 and 16, ROC (Receiver Operating Characteristic) curves of the proportion exceeding the threshold value at random points and the proportion exceeding the threshold value at the driver's gaze point are determined. Specifically, first, as a first step, the threshold value is set to a value larger than the maximum value in the graphs of FIGS. 15 and 16. Next, as a second step, while lowering the threshold value, the percentage of points exceeding the threshold value is determined for each threshold value. The process of this second step is then repeated until the threshold value becomes equal to or less than the minimum value in the graphs of FIGS. 15 and 16.
前記第1及び第2ステップの後、第3ステップとして、ランダム点における閾値を超える割合(第1確率という)を横軸にとりかつ運転者の注視点における閾値を超える割合(第2確率という)を縦軸にとって、図17のようなグラフを作成する。図17のグラフは、同一の閾値におけるランダム確率に対する注視確率を表す。図17のグラフは、横軸及び縦軸ともに確率であるため、曲線の最小値は0であり、最大値は1である。 After the first and second steps, as a third step, the horizontal axis is the proportion exceeding the threshold at random points (referred to as the first probability), and the ratio exceeding the threshold at the driver's gaze point (referred to as the second probability) is plotted on the horizontal axis. A graph like the one shown in FIG. 17 is created for the vertical axis. The graph in FIG. 17 represents the gaze probability versus random probability at the same threshold. In the graph of FIG. 17, both the horizontal and vertical axes are probabilities, so the minimum value of the curve is 0 and the maximum value is 1.
図17において破線は、運転者の視線がサリエンシーに対してどのように動いているかを表す。図17の曲線C1のように、曲線が上側に凸になる場合は、運転者の注視点がランダム点よりも閾値を超える割合が高いことを表す。図17の曲線C1のような形状の曲線が算出されたときは、運転者の視線がサリエンシーの高い箇所を見る傾向にあること、すなわち、高サリエンシー領域への誘目度が高いことを意味している。一方で、図17の曲線C2のように、曲線が下側に凸になる場合は、運転者の注視点がランダム点よりも閾値を超える割合が低いことを表す。図17の曲線C2のような形状の曲線が算出されたときは、運転者の視線が高サリエンシー領域の影響を受けていないことを意味している。 In FIG. 17, the dashed line represents how the driver's line of sight moves with respect to saliency. When the curve is upwardly convex, like the curve C1 in FIG. 17, it indicates that the rate at which the driver's gaze point exceeds the threshold is higher than at a random point. When a curve with a shape like curve C1 in FIG. 17 is calculated, it means that the driver's line of sight tends to look at a high salience area, that is, the high salience area is highly attractive. There is. On the other hand, when the curve is convex downward like curve C2 in FIG. 17, it indicates that the rate at which the driver's gaze point exceeds the threshold is lower than that at a random point. When a curve shaped like curve C2 in FIG. 17 is calculated, it means that the driver's line of sight is not affected by the high salience region.
本実施形態では、第4ステップとして、AUC(Area Under Curve)を求める。AUCは、この曲線の右下部分の積分値である。すなわち、AUCは、図18に斜線で示すように、図17の曲線C1(または曲線C2)と2点鎖線とで囲まれた領域の面積である。本実施形態では、この積分値をサリエンシー指標と呼んでいる。サリエンシー指標を用いることで、走行シーンによる依存性を低減させることができる。具体的には、例えば、運転者が単純に高サリエンシー領域を見た割合を算出するだけでは、走行シーンが全体的に高サリエンシー領域を含むような場合に、高サリエンシー領域を見る頻度が高いという結果が得られる恐れがある。これに対して、本実施形態のように、ランダム点との比較を行ったサリエンシー指標を用いることで、高サリエンシー領域の多さや広がり等、走行シーンへの依存性を低減することができ、より精度の高い判断をすることができるようになる。 In this embodiment, as the fourth step, AUC (Area Under Curve) is determined. AUC is the integral value of the lower right portion of this curve. That is, AUC is the area of the region surrounded by the curve C1 (or curve C2) and the two-dot chain line in FIG. 17, as indicated by diagonal lines in FIG. In this embodiment, this integral value is called a saliency index. By using the salience index, dependence on driving scenes can be reduced. Specifically, for example, simply calculating the percentage of high-saliency areas that the driver views will show that when the entire driving scene includes high-saliency areas, the driver views the high-saliency areas more frequently. There may be consequences. On the other hand, by using a saliency index that is compared with random points as in this embodiment, it is possible to reduce the dependence on the driving scene, such as the number and spread of high saliency areas, and to Be able to make highly accurate judgments.
ステップST21において、サリエンシー指標が第1基準よりも高い場合、次のステップST22に進む。一方で、ステップST21において、サリエンシー指標が第1基準以下の場合、処理はステップST11に戻る。ステップST21は、例えば、判定ステップの一部を構成する処理の一例である。なお、ステップST11~ST12は、ステップST21,ST22の処理にかかわらず、車両の走行中は継続して実行される。 In step ST21, if the saliency index is higher than the first standard, the process proceeds to the next step ST22. On the other hand, if the saliency index is equal to or less than the first standard in step ST21, the process returns to step ST11. Step ST21 is, for example, an example of processing that constitutes a part of the determination step. Incidentally, steps ST11 to ST12 are continuously executed while the vehicle is running, regardless of the processing in steps ST21 and ST22.
(ステップST22)
ステップS22では、制御部30は、運転者の異常に対応する制御を行う。例えば、制御部30は、運転者の異常の度合いが高い場合(例えば、運転者に疾患が発現したと認識した場合)、運動制御部37等を介してアクチュエータ11を制御して自動運転に切り替える処理を行う。また、制御部30は、通知部40を介して、運転者に「大丈夫ですか」、「少し休みませんか」との問いかけをする等、運転者に向けたアクチュエーションを実施し、運転者の反応を確認するようにしてもよい。例えば、制御部30は、上記のアクチュエーションの結果、運転者の反応が薄い場合に、アクチュエータ11を制御して自動運転に切り替える処理を行うようにしてもよい。
(Step ST22)
In step S22, the
このように、運転者への問いかけや注意喚起などのアクチュエーションを実施することで、運転者の異常判定の精度を高めたり、運転者に安全な行動を促すことができる。 In this way, by performing actuations such as asking the driver questions and calling attention to them, it is possible to improve the accuracy of the driver's abnormality determination and encourage the driver to take safe actions.
(ステップST31)
ステップST31において、異常検出部303は、ステップST13で推定された危険度が所定の第2基準よりも高いか否かを判定する。所定の第2基準は、予測される危険度が定量的に評価できれば、具体的な内容は特に限定されないが、例えば、前述のリスクポテンシャルを用いることができる。以下の説明では、前述の第1走行シーン(図6参照)及び第2走行シーン(図9参照)は、危険度が所定の第2基準以下であり、第3走行シーン(図11参照)は、危険度が所定の第2基準より高いものとする。すなわち、車両が第1走行シーンから第3走行シーンに移動し、他車両161が自車両の所定の範囲内に入った場合に、危険度が所定の第2基準より高くなったものとする。ステップST31において、危険度が所定の第2基準よりも高いと判定された場合、すなわち、YES判定の場合フローはステップST32に進む。
(Step ST31)
In step ST31, the
(ステップST32)
ステップST32では、異常検出部303は、運転者がサリエンシーの高い領域を見る傾向が所定の第3基準よりも低いかどうかを判定する。具体的には、例えば、ステップST21と同様に、サリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の第3基準より低いか否かが判定される。ここで、第3基準は、第1基準よりも低い値である。また、第3基準は、ランダム点よりにおける閾値を超える確率(0.5)よりも低い値に設定され、例えば、0.3秒に設定される。ステップST21と同様に、サリエンシー指標以外の指標を用いて判定するようにしてもよい。図12の例では、他車両161は、サリエンシーが相対的に低い領域に停車している。前述のとおり、注意機能障害では、危険度が所定の基準を超えると、運転者の視点が局所にとらわれる傾向がある。例えば、図12に示すように、健常者の例(丸印)では、駐車している他車両161に加えて、追い抜きのために、道路状況を確認したり、ミラーを用いて、後方や側方を確認している。これに対し、注意機能障害患者の例では、他車両161に注意は向いているものの、必要以上に他車両に視線がとらわれ、周囲の確認が不十分な状態となっている様子が表れている。この図12の三角印のような状況では、サリエンシー指標は、相対的に低い値となり、その結果として、サリエンシー指標が所定の第3基準よりも低い値となる場合がある。ここでは、図12の三角印の状況において、サリエンシー指標が所定の第3基準より低くなったものとする。ステップST32で運転者がサリエンシーの高い領域を見る傾向が所定の第3基準よりも低いと判定された場合(例えば、図21のAR2参照)、すなわちYES判定の場合フローはステップST33に進む。
(Step ST32)
In step ST32, the
(ステップST33)
ステップST33では、異常検出部303は、運転者のサッケードの振幅dsが所定の第4基準より小さいかどうかを判定する。運転者のサッケードの振幅dsを見ることにより、運転者の視点が局所(例えば、危険が想定される場所)にとらわれているかどうかを確認することができる。所定の第4基準は、任意に設定することができ、特に限定されない。例えば、所定の第4基準として、本願発明者らのようにドライブシミュレータ等を用いた実証実験を行い、健常者と注意機能障害患者との間の境界を第4基準としてもよい。ステップST33で運転者のサッケードの振幅dsが所定の第4基準より小さいと判定された場合、すなわちYES判定の場合、フローはステップST34に進む。
(Step ST33)
In step ST33, the
(ステップST34)
ステップST34では、制御部30は、ステップS22と同様に、運転者の異常に対応する制御を行う。なお、ステップST34とステップST22とで同じ制御を行うようにしてよいし、互いに異なる制御をするようにしてもよい。また、例えば、制御部30が、ステップST21とステップST33の両方の結果を基づいた制御を行うようにしてもよい。例えば、ステップST21とステップST33のいずれか一方がYES判定の場合には運転者への問いかけや注意喚起などのアクチュエーションを実施し、ステップST21とステップST33の両方ともにYES判定の場合には直ちに自動運転に切り替えるというような動作を設定してもよい。
(Step ST34)
In step ST34, the
以上のように、本実施形態によると、できるだけ精度よく運転者の異常を検出し、車両が運転者の異常に対応する動作をすることができる。具体的には、例えば、危険度が高まったことにより、運転者が異常状態であるにもかかわらず、サリエンシーが相対的に低い危険個所を見ているような場合においても、未判定状態となることを低減することができる。 As described above, according to the present embodiment, the abnormality of the driver can be detected as accurately as possible, and the vehicle can perform an operation corresponding to the abnormality of the driver. Specifically, for example, even if the driver is in an abnormal state due to an increased degree of danger and is looking at a dangerous location with relatively low salience, the state will be in an undetermined state. This can be reduced.
なお、上記実施形態において、危険度と注視点のサリエンシーとの相関を用いて運転者の異常判定をするようにしてもよい。具体的に、運転者の異常時には、危険な状況や場所に対する気づきが正常状態の場合と比較して低下する傾向があるため、危険度と注視点のサリエンシーとの相関が低下する傾向にある。そこで、危険度と注視点のサリエンシーとの相関の度合いを基準とすることで、運転者の異常判定の精度を高めることができる。 Note that in the above embodiment, the abnormality of the driver may be determined using the correlation between the degree of risk and the saliency of the gaze point. Specifically, when a driver is in an abnormal situation, their awareness of dangerous situations and places tends to be lower than when the driver is in a normal state, so the correlation between the degree of danger and the saliency of the gaze point tends to decrease. Therefore, by using the degree of correlation between the degree of risk and the saliency of the gaze point as a standard, it is possible to improve the accuracy of the driver's abnormality determination.
また、上記の実施形態において、ステップST31からステップST33の処理に代えて、または、加えて、ステップST21において、危険度が所定の第2基準よりも低い場合、危険度の増加に応じて第1基準を低下させるようにしてもよい。この場合における危険度も、例えば、リスクポテンシャルを用いてスコア化することができる。 In the above embodiment, instead of or in addition to the processes from step ST31 to step ST33, in step ST21, if the degree of risk is lower than the predetermined second standard, the first standard is The standard may be lowered. The degree of risk in this case can also be scored using, for example, risk potential.
また、上記の実施形態において、ステップST31からステップST33の処理に代えて、または、加えて、ステップST21において、危険度(リスクポテンシャル)が増加傾向にある場合にサリエンシー指標の判定閾値を第2基準から下げるようにし、危険度(リスクポテンシャル)が減少傾向にある場合にサリエンシー指標の判定閾値を上げるようにしてもよい。これにより、例えば、危険度が高まったことにより、運転者が異常状態であるにもかかわらず、サリエンシーが相対的に低い危険個所を見ているような場合においても、未判定状態となることを低減することができる。 In the above embodiment, instead of or in addition to the processes from step ST31 to step ST33, in step ST21, when the degree of risk (risk potential) is increasing, the determination threshold of the saliency index is set to the second standard. The determination threshold value of the saliency index may be raised when the degree of risk (risk potential) is on a decreasing trend. As a result, even if, for example, the driver is in an abnormal state due to an increase in the degree of danger, he or she is looking at a dangerous location with relatively low salience, the situation will not be determined. can be reduced.
また、上記の実施形態において、第1から第4の基準(以下、単に所定の基準という)を用い、それらよりも高いか低いかを判定するようにしているが、本判定には様々な方法を適用することができる。例えば、基準を超えている期間を判定要素に加えてもよいし、所定期間の平均値や加重平均値と所定の基準とを比較するようにしてもよい。また、所定の基準に関し、その基準を超えているまたは下回っている期間の概念を運転者の異常判定の基準に加えてもよい。また、所定の基準に関し、その基準を超えているまたは下回っている期間と大きさとで形成される領域の面積の概念を運転者の異常判定の基準に加えてもよい。 Furthermore, in the above embodiment, the first to fourth criteria (hereinafter simply referred to as predetermined criteria) are used to determine whether the criteria are higher or lower than these, but various methods can be used for this determination. can be applied. For example, a period exceeding the standard may be added to the determination factor, or an average value or a weighted average value for a predetermined period may be compared with a predetermined standard. Furthermore, regarding a predetermined standard, the concept of a period in which the vehicle exceeds or falls short of the standard may be added to the standard for driver abnormality determination. Furthermore, regarding a predetermined standard, the concept of the area of a region formed by the period and size of exceeding or falling below the standard may be added to the standard for abnormality determination by the driver.
ここに開示された技術は、自動車に搭載される運転者状態判定装置として有用である。 The technology disclosed herein is useful as a driver condition determination device installed in a vehicle.
21a 前カメラ(車外情報取得手段)
30 制御部(車両制御部)
302 注視点検出部
21a Front camera (external information acquisition means)
30 Control unit (vehicle control unit)
302 Gaze point detection unit
Claims (4)
前記車両の運転者の注視点を検出する注視点検出部と、
前記車両前側の環境情報を取得する車外情報取得手段から車外環境情報を受信し、前記注視点検出部で検出された運転者の注視点が、前記車外環境情報に基づいて生成されるサリエーションマップにおいて周囲に対して相対的に顕著性を有するサリエンシーの高い領域に誘目される度合いである誘目度が所定の第1基準よりも高いときに、運転者の異常に対応する動作を行う車両制御部とを備え、
前記車両制御部は、前記車外環境情報に基づいて推定される危険度が所定の第2基準よりも高くかつ前記注視点のサリエンシーが前記第1基準よりも低い第3基準以下の場合において、前記注視点に基づくサッケードの振幅が所定の第4基準より小さいときにも前記運転者の異常に対応する動作を行う
ことを特徴とする車両制御装置。 A vehicle control device installed in a vehicle,
a gaze point detection unit that detects a gaze point of the driver of the vehicle;
A saliation map in which external environment information is received from an external information acquisition unit that acquires environmental information on the front side of the vehicle, and a driver's gaze point detected by the gaze point detection unit is generated based on the vehicle exterior environment information. A vehicle control unit that performs an operation in response to a driver's abnormality when an eye attraction degree, which is a degree of eye attraction that is a degree of eye attraction to a region with high salience that is relatively salient to the surroundings, is higher than a predetermined first standard. and
When the degree of risk estimated based on the vehicle external environment information is higher than a predetermined second standard and the saliency of the gaze point is equal to or lower than a third standard, which is lower than the first standard, the vehicle control unit A vehicle control device that performs an operation corresponding to an abnormality of the driver even when the amplitude of a saccade based on a gaze point is smaller than a fourth predetermined reference.
前記車外環境情報に基づいて推定される危険度が前記第2基準よりも高い場合、前記危険度の増加に応じて前記第1基準を低下させる
ことを特徴とする車両制御装置。 The vehicle control device according to claim 1,
A vehicle control device characterized in that, when the degree of risk estimated based on the environment information outside the vehicle is higher than the second standard, the first standard is lowered in accordance with the increase in the degree of risk.
自動運転の経路生成のために車外環境を認識する外部環境認識部を備え、
前記車両制御部は、前記外部環境認識部の認識結果を基に、前記危険度を推定する
ことを特徴とする車両制御装置。 The vehicle control device according to claim 1,
Equipped with an external environment recognition unit that recognizes the environment outside the vehicle to generate routes for autonomous driving.
The vehicle control device is characterized in that the vehicle control unit estimates the degree of risk based on the recognition result of the external environment recognition unit.
車両の運転者の注視点、及び、該注視点の動きに基づくサッケード振幅を検出する検出ステップと、
前記車両前側の環境情報を取得する車外情報取得手段から受信した車外環境情報を基づいて生成されたサリエーションマップにおいて周囲に対して相対的に顕著性を有するサリエンシーの高い領域を抽出する抽出ステップと、
前記車外情報取得手段から受信した車外環境情報を基にして走行シーンの危険度を推定する推定ステップと、
前記検出ステップで検出された運転者の注視点が、前記抽出ステップで抽出されたサリエンシーの高い領域に誘目される度合いである誘目度が所定の第1基準よりも高いときに、運転者に異常がある判定する判定ステップとを備え、
前記判定ステップは、前記推定ステップで推定された危険度が所定の第2基準よりも高くかつ前記運転者の注視点がサリエンシーの高い領域に誘目される度合いである誘目度が前記第1基準よりも低い所定の第3基準より小さい場合において、前記注視点に基づくサッケードの振幅が所定の第4基準より小さいときにも運転者の異常と判定する
ことを特徴とする運転者状態判定方法。 A driver condition determination method for determining a driver condition executed by a vehicle control device, the method comprising:
a detection step of detecting a gaze point of a vehicle driver and a saccade amplitude based on the movement of the gaze point;
an extraction step of extracting a region with high salience that is relatively salient with respect to the surroundings in a salience map generated based on vehicle exterior environment information received from the vehicle exterior information acquisition means that acquires environment information on the front side of the vehicle; ,
an estimation step of estimating the degree of danger of the driving scene based on the vehicle exterior environment information received from the vehicle exterior information acquisition means;
When the driver's gaze point detected in the detection step has a degree of attraction, which is the degree to which the driver's gaze point is attracted to the region of high salience extracted in the extraction step, which is higher than a predetermined first standard, the driver is detected to be abnormal. a determination step for determining that there is a
In the determining step, the degree of risk estimated in the estimating step is higher than a predetermined second standard, and the degree of attraction, which is the degree to which the driver's gaze point is attracted to an area with high salience, is higher than the first standard. A method for determining a driver's condition, characterized in that the driver is determined to be abnormal even when the amplitude of a saccade based on the gaze point is smaller than a fourth predetermined criterion when the amplitude of the saccade based on the gaze point is smaller than a predetermined fourth criterion.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203792A JP7415460B2 (en) | 2019-11-11 | 2019-11-11 | Vehicle control device and driver condition determination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203792A JP7415460B2 (en) | 2019-11-11 | 2019-11-11 | Vehicle control device and driver condition determination method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021077141A JP2021077141A (en) | 2021-05-20 |
JP7415460B2 true JP7415460B2 (en) | 2024-01-17 |
Family
ID=75898037
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019203792A Active JP7415460B2 (en) | 2019-11-11 | 2019-11-11 | Vehicle control device and driver condition determination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7415460B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007068917A (en) | 2005-09-09 | 2007-03-22 | Nissan Motor Co Ltd | Visibility situation judgment apparatus, automobile, and visibility situation judgment method |
JP5718493B1 (en) | 2014-01-16 | 2015-05-13 | 日本電信電話株式会社 | Sound saliency estimating apparatus, method and program thereof |
WO2017195405A1 (en) | 2016-05-11 | 2017-11-16 | ソニー株式会社 | Image processing apparatus, image processing method, and mobile body |
-
2019
- 2019-11-11 JP JP2019203792A patent/JP7415460B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007068917A (en) | 2005-09-09 | 2007-03-22 | Nissan Motor Co Ltd | Visibility situation judgment apparatus, automobile, and visibility situation judgment method |
JP5718493B1 (en) | 2014-01-16 | 2015-05-13 | 日本電信電話株式会社 | Sound saliency estimating apparatus, method and program thereof |
WO2017195405A1 (en) | 2016-05-11 | 2017-11-16 | ソニー株式会社 | Image processing apparatus, image processing method, and mobile body |
Also Published As
Publication number | Publication date |
---|---|
JP2021077141A (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7332726B2 (en) | Detecting Driver Attention Using Heatmaps | |
KR102533860B1 (en) | Image processing device and image processing method | |
JP4872245B2 (en) | Pedestrian recognition device | |
JP7342638B2 (en) | Driver status detection device | |
CN108604413B (en) | Display device control method and display device | |
JP7459634B2 (en) | Driver Abnormality Judgment System | |
JP6891926B2 (en) | Vehicle systems, methods performed on vehicle systems, and driver assistance systems | |
EP3868622B1 (en) | Driver state estimation device and movable body | |
EP3868621B1 (en) | Driver state estimation device and movable body | |
JP7342637B2 (en) | Vehicle control device and driver condition determination method | |
JP7342636B2 (en) | Vehicle control device and driver condition determination method | |
JP7459633B2 (en) | Driver abnormality determination device | |
JP7415460B2 (en) | Vehicle control device and driver condition determination method | |
JP7415459B2 (en) | Vehicle control device and driver condition determination method | |
JP2021167163A (en) | Driver abnormality determination device | |
JP7318560B2 (en) | state estimator | |
JP7298509B2 (en) | state estimator | |
JP7298510B2 (en) | state estimator | |
JP7276083B2 (en) | Driver state estimation device | |
JP7342635B2 (en) | Driver state estimation device and driver state estimation method | |
JP7322667B2 (en) | Driver state estimation device | |
JP2023022410A (en) | Driver state determination method and driver state determination system | |
JP2023022409A (en) | Driver state determination method and driver state determination system | |
CN113044060A (en) | Driving consciousness estimating device | |
JP2021133753A (en) | State presumption device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7415460 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |