JP7415460B2 - Vehicle control device and driver condition determination method - Google Patents

Vehicle control device and driver condition determination method Download PDF

Info

Publication number
JP7415460B2
JP7415460B2 JP2019203792A JP2019203792A JP7415460B2 JP 7415460 B2 JP7415460 B2 JP 7415460B2 JP 2019203792 A JP2019203792 A JP 2019203792A JP 2019203792 A JP2019203792 A JP 2019203792A JP 7415460 B2 JP7415460 B2 JP 7415460B2
Authority
JP
Japan
Prior art keywords
vehicle
driver
degree
gaze point
standard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019203792A
Other languages
Japanese (ja)
Other versions
JP2021077141A (en
Inventor
耕二 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2019203792A priority Critical patent/JP7415460B2/en
Publication of JP2021077141A publication Critical patent/JP2021077141A/en
Application granted granted Critical
Publication of JP7415460B2 publication Critical patent/JP7415460B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

ここに開示する技術は、例えば車両制御装置及び自動車を運転する運転者の状態を判定する運転者状態判定方法に関する。 The technology disclosed herein relates to, for example, a vehicle control device and a driver state determination method for determining the state of a driver who drives an automobile.

昨今、国家的に自動運転システムの開発が推進されている。本願出願人は、現時点において、自動運転システムには、大きく分けると2つの方向性があると考えている。 Recently, the development of autonomous driving systems has been promoted nationally. The applicant of this application currently believes that there are two main directions for automatic driving systems.

第1の方向性は、自動車が主体となって運転者の操作を要することなく乗員を目的地まで運ぶシステムであり、いわゆる自動車の完全自動走行である。第2の方向性は、「自動車の運転が楽しめる環境を提供する」というように、あくまで人間が運転をすることを前提とした自動運転システムである。 The first direction is a system in which the vehicle plays a central role in transporting passengers to their destination without requiring any operation by the driver, which is what is called fully automated vehicle driving. The second direction is an automated driving system that is based on the assumption that a human will be driving the car, such as ``providing an environment where driving can be enjoyed.''

第2の方向性の自動運転システムでは、例えば、運転者に疾患等が発生し正常な運転が困難な状況が発生した場合等に、自動的に、自動車が乗員に変わって自動運転を行うことが想定される。このため、運転者に異常が発生したこと、特に、運転者に機能障害や疾患が発生したことをいかに早期にかつ精度良く発見できるかが、運転者の救命率の向上や周囲を含めた安全を確保する観点から極めて重要となる。 In the second direction of automated driving systems, when a situation arises in which the driver becomes ill and is unable to drive normally, for example, the vehicle automatically replaces the passenger and performs automated driving. is assumed. Therefore, it is important to be able to detect abnormalities in the driver as early as possible and accurately, especially when the driver has developed a functional disorder or disease, to improve the survival rate of the driver and to ensure the safety of everyone, including those around them. This is extremely important from the perspective of ensuring that

運転者の異常を判定する方法として、例えば、特許文献1には、車両の前方画像をマッピングし、マッピングされた前方画像の画素値に基づいて目立ち度マップ(サリエンシーマップ)を生成するとともに、ドライバの視線先の目立ち度を計算し、ドライバが目立つ部分に視線を向けた度合いと予め定めた閾値とを比較して、ドライバが漫然状態か否かを判定する技術が開示されている。 As a method for determining abnormality of a driver, for example, Patent Document 1 describes a method in which a front image of a vehicle is mapped, a conspicuousness map (saliency map) is generated based on the pixel values of the mapped front image, and A technique has been disclosed that calculates the degree of conspicuousness of a driver's line of sight, and compares the degree to which the driver has turned his/her line of sight to a predetermined threshold with a predetermined threshold value to determine whether or not the driver is distracted.

特許文献1の技術は、ドライバが漫然状態にある場合には、意図的な注意機能が働かなくなるため、例えば、死角領域からの歩行者の飛び出しが起こり得るような危険な場所に視線が行かなくなり、視覚的な刺激の目立つ部分に視線が向けられるという視線配分特性に基づいた判定となっている。また、特許文献1には、危険度計算手段により計算された危険度を差し引いて、漫然状態を判定することが示されている。 In the technology of Patent Document 1, when the driver is distracted, the intentional attention function does not work, so for example, the driver's line of sight does not go to a dangerous place where a pedestrian may jump out of the blind spot. , the judgment is based on the gaze distribution characteristic that the gaze is directed to the conspicuous part of the visual stimulus. Further, Patent Document 1 discloses that a mindless state is determined by subtracting the degree of risk calculated by a degree of risk calculation means.

特許第5966640号公報Patent No. 5966640

発明者らは、機能障害者と健常者とによりドライビングシミュレータで視線検出を行った結果、機能障害者でもサリエンシーが高い領域に誘目されない場合や健常者でもサリエンシーが高い領域に誘目される場合が多数生じることが分かった。 The inventors conducted line-of-sight detection using a driving simulator using a driving simulator for people with impairments and healthy people, and found that there were many cases where even people with impairments were not attracted to areas with high salience, and even healthy people were often attracted to areas with high salience. I found out that it occurs.

例えば、サリエンシーが高い領域が、同時に運転中に見るべき注意箇所である場合に、健常者であってもサリエンシーが高い領域に視線が向かい、結果として、疾患発生と誤判定される場合がある。 For example, if an area with high salience is also a caution point that should be looked at while driving, even a healthy person may direct their line of sight to the area with high salience, and as a result, it may be erroneously determined that a disease has occurred.

ここに開示された技術は、斯かる点に鑑みてなされたものであり、サリエンシーに対する誘目傾向から運転者の状態判定をする運転者状態判定装置において、車両の走行環境にかかわらずに運転者の異常対応をより適切に行うことができるようにすることにある。 The technology disclosed herein has been developed in view of the above, and is designed to provide a driver condition determination device that determines the driver's condition based on the tendency to attract attention to salience, regardless of the driving environment of the vehicle. The purpose is to be able to handle abnormalities more appropriately.

前記課題を解決するために、ここに開示された技術では、車両に搭載される車両制御装置を対象として、前記車両の運転者の注視点を検出する注視点検出部と、前記車両前側の環境情報を取得する車外情報取得手段から車外環境情報を受信し、前記注視点検出部で検出された運転者の注視点が、前記車外環境情報に基づくサリエンシーの高い領域を見る傾向が所定の第1基準よりも高いときに、運転者の異常に対応する動作を行う車両制御部とを備え、前記車両制御部は、前記車外環境情報に基づいて推定される危険度が所定の第2基準よりも高くかつ前記注視点のサリエンシーが前記第1基準よりも低い第3基準以下の場合において、前記注視点に基づくサッケードの振幅が所定の第4基準より小さいときにも前記運転者の異常に対応する動作を行う、構成とした。 In order to solve the above problem, the technology disclosed herein includes a gaze point detection unit that detects a gaze point of a driver of the vehicle, and an environment in front of the vehicle, for a vehicle control device installed in a vehicle. The vehicle exterior environment information is received from the vehicle exterior information acquisition means that acquires the information, and the driver's gaze point detected by the gaze point detection unit has a predetermined first tendency to view an area with high salience based on the vehicle exterior environment information. and a vehicle control unit that performs an operation corresponding to a driver's abnormality when the level of risk is higher than a predetermined second standard. and when the saliency of the gaze point is equal to or lower than a third criterion lower than the first criterion, and the amplitude of the saccade based on the gaze point is smaller than a predetermined fourth criterion, it also corresponds to an abnormality of the driver. It is configured to perform operations.

ここで、サリエンシーとは、色、輝度、動き等により刻々と変化する顕著性からなる視覚特徴量である。高サリエンシー領域とは、運転者の視界領域のうちでサリエンシーが高い(顕著性が高い)領域を指すものとし、換言すると、周囲に対して目立つ領域を指すものとする。より具体的には、高サリエンシー領域は、例えば、周囲の領域に対して色差や輝度差が大きかったり、周囲に対して大きな動きをしていたりする領域を指すものとする。 Here, saliency is a visual feature amount consisting of saliency that changes from moment to moment due to color, brightness, movement, etc. The high saliency area refers to an area where saliency is high (high conspicuousness) in the driver's visual field, or in other words, an area that stands out from the surroundings. More specifically, a high saliency region refers to, for example, a region that has a large color difference or brightness difference compared to surrounding regions, or that has a large movement relative to the surrounding regions.

また、サッケードとは、運転者が意図的に視線を移動させる跳躍性眼球運動のことであり、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。サッケードの振幅とは、運転者の視線が所定時間停滞する注視点から次の注視点への移動した場合における移動量のことを指す。 Furthermore, a saccade is a jumping eye movement in which the driver intentionally moves his/her line of sight, and is an eye movement in which the driver moves his/her line of sight from a point of gaze where the line of sight remains stagnant for a predetermined period of time to the next point of gaze. The amplitude of a saccade refers to the amount of movement when the driver's line of sight moves from a gaze point where it remains stagnant for a predetermined period of time to the next gaze point.

上記の態様によると、サリエンシーの高い領域を見る傾向に加えて、サッケードの振幅に基づいた基準を設けることで、例えば、危険度が高まったことにより、運転者が異常状態であるにもかかわらず、運転者の異常対応ができていないという状態をできるだけ避けることができる。 According to the above aspect, by setting a criterion based on the amplitude of saccades in addition to the tendency to see areas with high salience, for example, even if the driver is in an abnormal state due to an increased risk , it is possible to avoid as much as possible a situation in which the driver is unable to respond to an abnormality.

上記態様の車両制御装置において、前記車外環境情報に基づいて推定される危険度が前記第2基準よりも高い場合、前記危険度の増加に応じて前記第1基準を低下させる、としてもよい。 In the vehicle control device of the above aspect, if the degree of risk estimated based on the vehicle exterior environment information is higher than the second standard, the first standard may be lowered in accordance with the increase in the degree of risk.

このように、危険度の増加に応じて第1基準を低下させることにより、危険度が高まったことにより、運転者が異常状態であるにもかかわらず、サリエンシーが相対的に低い危険個所を見ているような場合に、未判定状態となることを低減することができる。 In this way, by lowering the first standard in accordance with the increase in the degree of danger, it is possible to identify dangerous spots where the salience is relatively low even though the driver is in an abnormal state due to the increase in the degree of danger. It is possible to reduce the possibility of an undetermined state in such a case.

上記態様の車両制御装置において、自動運転の経路生成のために車外環境を認識する外部環境認識部を備え、前記車両制御部は、前記外部環境認識部の認識結果を基に、前記危険度を推定する、としてもよい。 The vehicle control device according to the above aspect includes an external environment recognition unit that recognizes an environment outside the vehicle in order to generate a route for automatic driving, and the vehicle control unit determines the degree of risk based on the recognition result of the external environment recognition unit. You can also say to estimate.

このように、外部環境認識部で認識された危険度を用いることにより、新たに危険度を推定するための構成を追加する必要がない。 In this way, by using the degree of risk recognized by the external environment recognition unit, there is no need to add a new configuration for estimating the degree of risk.

前記課題を解決するために、ここに開示された技術では、車両の運転者の状態を判定する運転者状態判定方法を対象として、前記車両の運転者の注視点、及び、該注視点の動きに基づくサッケード振幅を検出する検出ステップと、前記車両前側の環境情報を取得する車外情報取得手段から受信した車外環境情報を基にしてサリエンシーの高い領域を抽出する抽出ステップと、前記車外情報取得手段から受信した車外環境情報を基にして走行シーンの危険度を推定する推定ステップと、前記検出ステップで検出された運転者の注視点が、前記抽出ステップで抽出されたサリエンシーの高い領域を見る傾向が所定の第1基準よりも高いときに、運転者に異常がある判定する判定ステップとを備え、前記判定ステップは、前記推定ステップで推定された危険度が所定の第2基準よりも高くかつ前記運転者の注視点がサリエンシーの高い領域を見る傾向が前記第1基準よりも低い所定の第3基準より小さい場合において、前記注視点に基づくサッケードの振幅が所定の第4基準より小さいときにも運転者の異常と判定する。 In order to solve the above problem, the technology disclosed herein targets a driver state determination method for determining the state of a driver of a vehicle, and includes a method for determining the state of the driver of a vehicle, and a movement of the point of view of the driver of the vehicle. a detection step of detecting a saccade amplitude based on the saccade amplitude, an extraction step of extracting a region with high salience based on the vehicle exterior environment information received from the vehicle exterior information acquisition means that acquires the vehicle front side environment information, and the vehicle exterior information acquisition means an estimation step of estimating the degree of danger of a driving scene based on the external environment information received from the vehicle; and a tendency for the driver's gaze point detected in the detection step to look at the high salience region extracted in the extraction step. is higher than a predetermined first standard, a determining step of determining that the driver is abnormal; When the driver's gaze point is smaller than a predetermined third criterion, which is lower than the first criterion, and the driver's tendency to look at an area with high salience is smaller than a predetermined fourth criterion, the amplitude of a saccade based on the gaze point is smaller than a predetermined fourth criterion. It is also determined that there is an abnormality on the part of the driver.

このように、サリエンシーの高い領域を見る傾向に基づいた運転者の異常判定に、サッケードの振幅に基づいた基準に基づく異常判定を加えることにより、例えば、危険度が高まったことにより、運転者が異常状態であるにもかかわらず、サリエンシーが相対的に低い危険個所を見ているような場合においても、未判定状態となることを低減することができる。 In this way, by adding an abnormality judgment based on a criterion based on the amplitude of saccades to the driver's abnormality judgment based on the driver's tendency to look at areas with high salience, for example, the driver may Even in a case where a dangerous location with relatively low salience is observed despite being in an abnormal state, it is possible to reduce the possibility of an undetermined state.

以上説明したように、ここに開示された技術によると、運転者の異常対応をより適切に行うことができる。 As described above, according to the technology disclosed herein, the driver can more appropriately respond to abnormalities.

例示的な実施形態に係る運転者状態推定装置を搭載した車両の車室内を前側部分を示す概略図である。1 is a schematic diagram showing a front portion of a vehicle interior of a vehicle equipped with a driver state estimation device according to an exemplary embodiment; FIG. 車両を前側から見た正面図である。FIG. 2 is a front view of the vehicle seen from the front. 例示的な実施形態に係る車両制御システムの構成を例示するブロック図である。FIG. 1 is a block diagram illustrating the configuration of a vehicle control system according to an exemplary embodiment. 運転者状態検出部の構成を例示するブロック図である。FIG. 2 is a block diagram illustrating the configuration of a driver state detection section. 前カメラにより撮影された車両前側の外部環境画像の一例を示す図である。FIG. 3 is a diagram showing an example of an external environment image on the front side of the vehicle taken by a front camera. 図5の外部環境画像を基にした合成画像の一例を示す図である。6 is a diagram showing an example of a composite image based on the external environment image of FIG. 5. FIG. 図6の合成画像のサリエンシーマップの一例を示す図である。7 is a diagram showing an example of a saliency map of the composite image of FIG. 6. FIG. 図5の例において健常者及び注意機能障害患者による視線移動の一例を示す図である。FIG. 6 is a diagram showing an example of eye movement by a healthy person and an attention dysfunction patient in the example of FIG. 5; 前カメラにより撮影された車両前側の外部環境画像を基にした合成画像の他の例を示す図である。FIG. 7 is a diagram showing another example of a composite image based on an external environment image on the front side of the vehicle taken by a front camera. 図9の例において健常者及び注意機能障害患者による視線移動の一例を示す図である。10 is a diagram illustrating an example of gaze movement by a healthy person and an attention dysfunction patient in the example of FIG. 9. FIG. 前カメラにより撮影された車両前側の外部環境画像を基にした合成画像の他の例を示す図である。FIG. 7 is a diagram showing another example of a composite image based on an external environment image on the front side of the vehicle taken by a front camera. 図11の例において健常者及び注意機能障害患者による視線移動の一例を示す図である。FIG. 12 is a diagram showing an example of eye movement by a healthy person and an attention dysfunction patient in the example of FIG. 11; サッケードの抽出について説明するためのグラフである。It is a graph for explaining extraction of saccades. サッケードのノイズ除去処理について説明するためのグラフである。It is a graph for explaining saccade noise removal processing. 運転者の注視点のサリエンシーの時間変化の一例を示した図である。FIG. 3 is a diagram showing an example of a change in saliency over time of a driver's gaze point. 図15と同じ環境でランダムに座標を指定した場合におけるサリエンシーの時間変化の一例を示した図である。FIG. 16 is a diagram showing an example of changes in saliency over time when coordinates are specified randomly in the same environment as FIG. 15; ランダム点における閾値を超える割合と運転者の注視点における閾値を超える割合とを比較したグラフである。It is a graph comparing the proportion exceeding the threshold value at random points and the proportion exceeding the threshold value at the driver's gaze point. サリエンシー指標について説明するための図である。FIG. 2 is a diagram for explaining a saliency index. 車両制御装置の動作を例示するフローチャートである。3 is a flowchart illustrating the operation of the vehicle control device. 健常者のサリエンシー指標の時間分布の一例を示した図である。FIG. 2 is a diagram showing an example of the time distribution of the salience index of healthy individuals. 注意機能患者のサリエンシー指標の時間分布の一例を示した図である。FIG. 3 is a diagram illustrating an example of the temporal distribution of the salience index of an attention function patient.

<本願発明者らにより得られた知見>
特許文献1にも示されているように、運転者のサリエンシーに対する視線移動の変化を見て、運転者の異常(注意機能低下を引き起こす異常)を検出する技術が知られている。この技術では、例えば、サリエンシーが高い領域(高サリエンシー領域)への視線移動が所定の閾値を超える場合に運転者の異常を検出する。
<Findings obtained by the inventors>
As disclosed in Patent Document 1, a technique is known that detects an abnormality (an abnormality that causes a decline in attention function) of the driver by observing changes in the driver's line of sight movement with respect to saliency. In this technique, for example, an abnormality of the driver is detected when the line of sight movement toward an area with high salience (high saliency area) exceeds a predetermined threshold value.

本願発明者らは、鋭意研究の結果、注意機能障害者の車両運転時の挙動を観測することにより、車両の運転者の異常時(例えば、注意機能低下を引き起こす異常時)の挙動を擬似的に観測することができることを見出した。そして、本願発明者らは、上記の観測結果を基に、高サリエンシー領域への視線移動が所定の閾値を超える場合に運転者の異常を検出するという手法について検証を行った。具体的には、注意機能障害者の車両運転時の挙動と、注意機能障害を有さない健常者の車両運転時の挙動とについて、後述するサリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の閾値を超える場合に運転者の異常を検出するという手法についての検証を行った。 As a result of intensive research, the inventors of the present application have simulated the behavior of vehicle drivers during abnormal situations (for example, abnormal situations that cause a decline in attention function) by observing the behavior of people with attention dysfunction when driving a vehicle. We found that it is possible to observe Based on the above observation results, the inventors of the present application verified a method of detecting a driver's abnormality when the line of sight movement toward a high saliency region exceeds a predetermined threshold value. Specifically, we examined the behavior of people with attention dysfunction when driving a vehicle and the behavior of healthy people without attention dysfunction when driving a vehicle, using the saliency index described later to determine the shift of the gaze toward a high salience region. We tested a method that detects trends and detects driver abnormalities when the salience index exceeds a predetermined threshold.

この検証の結果、本願発明者らは、注意機能障害者でもサリエンシーが高い領域に誘目されない場合や健常者でもサリエンシーが高い領域に誘目される場合が多数生じることが分かった。例えば、サリエンシーが高い領域が、同時に運転中に見るべき注意箇所である場合に、健常者であってもサリエンシーが高い領域に視線が向かい、結果として、疾患発生と誤判定される場合があることが分かった。また、運転者に異常がある場合においても、危険度合いが増加すると、サリエンシーの高低にかかわらず危険個所を見る傾向があり、注視点のサリエンシーが低下して異常状態を判定できない場合があることがわかった。 As a result of this verification, the inventors of the present invention found that there are many cases in which even people with attentional dysfunction are not attracted to areas with high salience, and even healthy people are often attracted to areas with high salience. For example, if an area with high salience is also a cautionary point to look at while driving, even healthy people may direct their eyes to the area with high salience, and as a result, it may be erroneously determined that a disease has occurred. I understand. Furthermore, even if the driver has an abnormality, as the degree of danger increases, the driver tends to look at the dangerous area regardless of the level of salience, and the salience of the gaze point decreases, making it impossible to determine the abnormal condition. Understood.

図20,21は、ドライビングシミュレータを用いて運転者の視線を検出し、サリエンシー指標の時間変化としてプロットしたものである。図20は健常者の測定結果であり、図21は注意機能障害患者の測定結果である。ただし、走行スピードが互いに異なるので、時間軸と走行場所が必ずしも一致しているわけではない。 20 and 21 show the driver's line of sight detected using a driving simulator and plotted as a time change in the saliency index. FIG. 20 shows the measurement results of a healthy person, and FIG. 21 shows the measurement results of a patient with attention dysfunction. However, since the running speeds are different from each other, the time axis and the running location do not necessarily match.

詳細は後述するが、サリエンシー指標とは、高サリエンシー領域への誘目度が高いほど数値が高くなる指標となっている。図20,21の例では、高サリエンシー領域への誘目度が相対的に高いと判断される0.6に閾値を設定し、サリエンシー指標が0.6を超える場合に注意機能の障害があると推定するものとした。 Although the details will be described later, the saliency index is an index whose numerical value increases as the degree of attraction to a high saliency region increases. In the examples shown in Figures 20 and 21, the threshold is set to 0.6, which indicates that the degree of attraction to the high salience region is relatively high, and when the salience index exceeds 0.6, it is determined that there is a failure in attention function. It was assumed that the

そうすると、健常者でもサリエンシー指標が0.6を超える場面が散見されることが分かった(図21のAR1参照)。例えば、消防車のようにサリエンシーの高い車両を追い抜く際などには、健常者であってもサリエンシーの高い場所に誘目される傾向がある。また、機能障害患者であっても、交差点や駐車車両の追い越し時等の危険度が高い場所・シーンにおいて、サリエンシー指標が低い場所でも確認する傾向があり、サリエンシー指標が低い領域が確認されている(図22のAR2参照)。 As a result, it was found that even in healthy subjects, there were some cases where the saliency index exceeded 0.6 (see AR1 in FIG. 21). For example, when passing a vehicle with high salience such as a fire truck, even healthy people tend to be attracted to places with high salience. In addition, even in patients with functional impairment, there is a tendency to check even in high-risk places and scenes such as at intersections and when overtaking parked vehicles, even in places where the salience index is low, and areas with low salience index have been confirmed. (See AR2 in Figure 22).

そこで、本願発明者らは、さらに鋭意検討を重ね、危険度合いを示すリスクポテンシャルを用いることで、より精度よく運転者の異常を検出することができることを見出した。リスクポテンシャルとは、自車両の走行環境における危険度(自車両の運転者が感じる危険感)を適切に反映するように人工的に設定された場であり、例えば、周辺車両に対して各周辺車両の中心位置が最大となり、各周辺車両の周囲に拡がって行くような形状を有する適当な関数が設定される。また、また、リスクポテンシャルとして、死角領域や交差点等に想定され得る危険度合いを推定するような指標としてもよい。また、危険度合(リスクポテンシャル)の判定方法として、周辺車両との車間距離やTTC(Time To Collision)、道路線形や線形変化点までの距離等を用いてもよい。 Therefore, the inventors of the present application further conducted intensive studies and found that by using the risk potential indicating the degree of danger, abnormalities of the driver can be detected with higher accuracy. Risk potential is a field that is artificially set to appropriately reflect the degree of danger in the driving environment of the own vehicle (the sense of danger felt by the driver of the own vehicle). An appropriate function is set that has a shape that has a maximum value at the center position of the vehicle and expands around each surrounding vehicle. Furthermore, the risk potential may be used as an index for estimating the degree of danger that may be expected in blind spots, intersections, etc. Further, as a method for determining the degree of risk (risk potential), the distance between vehicles and surrounding vehicles, TTC (Time To Collision), road alignment, distance to a linear change point, etc. may be used.

より具体的には、運転者の異常判定において、危険度が増加傾向にある場合にはサリエンシー指標の判定閾値を相対的に下げる一方で、危険度が減少傾向にある場合にはサリエンシー指標の判定閾値を相対的に上げるようにする。すなわち、危険度の増減の傾向に応じて、サリエンシー指標の閾値を危険度の傾向とは反対の方向に変化させる。これにより、運転者の異常の未判定を低減させることができることを見出した。運転者の異常の未判定には、例えば、運転者の異常がある場合でもサリエンシーが低い危険場所を見る傾向がある場合における異常の未判定を含む。さらに、本願発明者らは、危険度が所定の基準値(第2基準に相当)よりも高い場合でかつ注視点のサリエンシー指標が所定の基準値(第3基準に相当)以下になった場合に、サッケード振幅を用いて運転者の異常を判定することにより、運転者の異常を判定しやすくなることを見出した。本願発明者らは、上記実験等を踏まえた鋭意検討の結果、運転者の異常時、特に、注意機能障害者は、危険度が所定の基準を超えると、運転者の視点が局所にとらわれる傾向があることを見出しており、サッケード振幅を用いた運転者の異常判定は、運転者の視点が局所にとらわれる傾向がある状態を検出することを目的としている。 More specifically, in driver abnormality determination, if the degree of danger is increasing, the saliency index determination threshold is relatively lowered, while if the degree of danger is decreasing, the saliency index determination threshold is relatively lowered. Increase the threshold relatively. That is, the threshold value of the saliency index is changed in the direction opposite to the trend of the risk level according to the trend of increase/decrease in the risk level. It has been found that this can reduce the number of undetermined abnormalities of the driver. The undetermined abnormality of the driver includes, for example, the undetermined abnormality when the driver tends to look at dangerous places with low salience even when the driver has an abnormality. Furthermore, the inventors of the present invention propose that when the degree of risk is higher than a predetermined standard value (equivalent to the second standard) and the salience index of the gaze point becomes less than the predetermined standard value (equivalent to the third standard), In addition, we found that it is easier to determine whether a driver is abnormal by using saccade amplitude to determine whether the driver is abnormal. As a result of intensive studies based on the above-mentioned experiments, the inventors of the present application have found that when a driver is abnormal, especially those with attentional dysfunction, when the degree of danger exceeds a predetermined standard, the driver's viewpoint tends to become localized. The purpose of driver abnormality determination using saccade amplitude is to detect a state in which the driver's viewpoint tends to be localized.

以下において、例示的な実施形態について、図面を参照しながら具体的に説明する。なお、以下の説明において、車両の前進走行側を単に前側といい、後退走行側を単に後側という。また、後側から前側を見たときの左側を左側といい、その逆を右側という。 In the following, exemplary embodiments will be specifically described with reference to the drawings. In the following description, the forward traveling side of the vehicle is simply referred to as the front side, and the backward traveling side is simply referred to as the rear side. Also, when looking from the rear to the front, the left side is called the left side, and the opposite is called the right side.

図1は、車両としての自動車の車室内を概略的に示す。この車両は、右ハンドル式の車両であって、右側にステアリングホイール58が配置されている。 FIG. 1 schematically shows the interior of an automobile as a vehicle. This vehicle is a right-hand drive vehicle, and a steering wheel 58 is disposed on the right side.

車室内において、運転席から見て車両前側にはフロントウィンドウガラス51が配置されている。フロントウィンドウガラス51は、車室内側から見て、複数の車両構成部材により区画されている。具体的には、フロントウィンドウガラス51は、左右のフロントピラートリム52と、ルーフトリム53と、インストルメントパネル54とによって区画されている。 In the vehicle interior, a front window glass 51 is arranged on the front side of the vehicle when viewed from the driver's seat. The front window glass 51 is partitioned by a plurality of vehicle structural members when viewed from the inside of the vehicle. Specifically, the front window glass 51 is divided by left and right front pillar trims 52, a roof trim 53, and an instrument panel 54.

左右のフロントピラートリム52は、フロントウィンドウガラス51の車幅方向外側の境界をそれぞれ構成している。各フロントピラートリム52は、各フロントピラーに沿って配置されている。ルーフトリム53は、フロントウィンドウガラス51の上側の境界を構成している。ルーフトリム53は、車両のルーフパネルの車室内側を覆っている。フロントウィンドウガラス51の車幅方向の中央でかつルーフトリム53のやや下側の部分には、バックミラー55が取り付けられている。ルーフトリム53におけるバックミラー55の近傍部分には、車室内、特に、運転者の顔面を撮影する車内カメラ28(図3参照)が設けられている。車内カメラ28については後で詳しく説明する。インストルメントパネル54は、フロントウィンドウガラス51の下側の境界を構成している。インストルメントパネル54には、メーターボックスやディスプレイ57が設けられている。 The left and right front pillar trims 52 constitute outer boundaries of the front window glass 51 in the vehicle width direction, respectively. Each front pillar trim 52 is arranged along each front pillar. The roof trim 53 constitutes the upper boundary of the front window glass 51. The roof trim 53 covers the interior side of the roof panel of the vehicle. A rearview mirror 55 is attached to a portion at the center of the front window glass 51 in the vehicle width direction and slightly below the roof trim 53. An in-vehicle camera 28 (see FIG. 3) for photographing the interior of the vehicle, particularly the driver's face, is provided in a portion of the roof trim 53 near the rearview mirror 55. The in-vehicle camera 28 will be explained in detail later. The instrument panel 54 constitutes the lower boundary of the front window glass 51. The instrument panel 54 is provided with a meter box and a display 57.

また、車両は、左右のフロントピラーよりも車幅方向外側に、サイドミラー56をそれぞれ有している。各サイドミラー56は、運転席に着座した運転手がサイドドアのウィンドウ越しに見ることが出来るように配置されている。 Further, the vehicle has side mirrors 56 on the outer sides of the left and right front pillars in the vehicle width direction. Each side mirror 56 is arranged so that the driver seated in the driver's seat can see through the window of the side door.

図2に示すように、車両には、車両前側の外部環境を撮影するためのカメラ(以下、前カメラ21aという)が設けられている。前カメラ21aは、車両の前側端部であって、車両のボンネット59よりもやや下側に配置されている。前カメラ21aは、車両前側の環境情報を取得する車外情報取得手段の一例である。 As shown in FIG. 2, the vehicle is provided with a camera (hereinafter referred to as front camera 21a) for photographing the external environment on the front side of the vehicle. The front camera 21a is located at the front end of the vehicle, slightly below the hood 59 of the vehicle. The front camera 21a is an example of outside-vehicle information acquisition means that acquires environmental information on the front side of the vehicle.

<車両制御システム>
図3は、実施形態による車両制御システム10の構成を例示する。車両制御システム10は、車両(具体的には自動四輪車)に設けられる。車両は、マニュアル運転と、アシスト運転と、自動運転とに切り換え可能である。マニュアル運転は、運転者の操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、運転者の操作を支援して走行する運転である。自動運転は、運転者の操作なしに走行する運転である。車両制御システム10は、アシスト運転および自動運転において、車両を制御する。具体的には、車両制御システム10は、車両に設けられたアクチュエータ11を制御することで車両の動作(特に走行)を制御する。
<Vehicle control system>
FIG. 3 illustrates the configuration of the vehicle control system 10 according to the embodiment. The vehicle control system 10 is provided in a vehicle (specifically, a four-wheeled motor vehicle). The vehicle can be switched between manual driving, assisted driving, and automatic driving. Manual driving is driving in response to the driver's operations (for example, accelerator operation). Assisted driving is driving in which the vehicle supports the driver's operations. Autonomous driving is driving without driver input. The vehicle control system 10 controls the vehicle in assisted driving and automatic driving. Specifically, the vehicle control system 10 controls the operation (especially driving) of the vehicle by controlling an actuator 11 provided in the vehicle.

車両制御システム10は、情報取得部20と、制御部30と、通知部40とを備える。なお、以下の説明では、車両制御システム10が設けられている車両を「自車両」と記載し、自車両の周囲に存在する他の車両を「他車両」と記載する。 The vehicle control system 10 includes an information acquisition section 20, a control section 30, and a notification section 40. In the following description, the vehicle provided with the vehicle control system 10 will be referred to as the "host vehicle", and other vehicles existing around the host vehicle will be referred to as "other vehicles".

-アクチュエータ-
アクチュエータ11は、駆動系のアクチュエータ、操舵系のアクチュエータ、制動系のアクチュエータなどを含む。駆動系のアクチュエータの例としては、エンジン、モータ、トランスミッションが挙げられる。操舵系のアクチュエータの例としては、ステアリングが挙げられる。制動系のアクチュエータの例としては、ブレーキが挙げられる。
-Actuator-
The actuator 11 includes a drive system actuator, a steering system actuator, a brake system actuator, and the like. Examples of drive system actuators include engines, motors, and transmissions. An example of a steering system actuator is a steering wheel. An example of a brake system actuator is a brake.

-情報取得部-
情報取得部20は、車両の制御(特に走行制御)に用いられる各種情報を取得する。この例では、情報取得部20は、複数のカメラ21と、複数のレーダ22と、位置センサ23と、外部入力部24と、車両状態センサ25と、運転操作センサ26と、運転者状態センサ27とを含む。
-Information acquisition department-
The information acquisition unit 20 acquires various information used for vehicle control (particularly driving control). In this example, the information acquisition section 20 includes a plurality of cameras 21, a plurality of radars 22, a position sensor 23, an external input section 24, a vehicle condition sensor 25, a driving operation sensor 26, and a driver condition sensor 27. including.

〔カメラ〕
複数のカメラ21は、互いに同様の構成を有する。複数のカメラ21は、車両の周囲を囲うように車両に設けられる。複数のカメラ21の各々は、車両の周囲に広がる環境(車両の外部環境)の一部を撮像することで、車両の外部環境の一部を示す画像データを取得する。複数のカメラ21の各々により得られた画像データは、制御部30に送信される。複数のカメラ21は、前述の前カメラ21aを含む。
〔camera〕
The plurality of cameras 21 have mutually similar configurations. A plurality of cameras 21 are provided on the vehicle so as to surround the vehicle. Each of the plurality of cameras 21 acquires image data representing a part of the external environment of the vehicle by capturing an image of a part of the environment surrounding the vehicle (external environment of the vehicle). Image data obtained by each of the plurality of cameras 21 is transmitted to the control unit 30. The plurality of cameras 21 include the above-mentioned front camera 21a.

この例では、カメラ21は、広角レンズを有する単眼カメラである。例えば、カメラ21は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。なお、カメラ21は、狭角レンズを有する単眼カメラであってもよいし、広角レンズまたは狭角レンズを有するステレオカメラであってもよい。 In this example, camera 21 is a monocular camera with a wide-angle lens. For example, the camera 21 is configured using a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor). Note that the camera 21 may be a monocular camera with a narrow-angle lens, or may be a stereo camera with a wide-angle lens or a narrow-angle lens.

〔レーダ〕
複数のレーダ22は、互いに同様の構成を有する。複数のレーダ22は、車両の周囲を囲うように車両に設けられる。複数のレーダ22の各々は、車両の外部環境の一部を検出する。具体的には、レーダ22は、車両の外部環境の一部へ向けて電波を送信して車両の外部環境の一部からの反射波を受信することで、車両の外部環境の一部を検出する。複数のレーダ22の検出結果は、制御部30に送信される。
[Radar]
The plurality of radars 22 have mutually similar configurations. The plurality of radars 22 are provided in the vehicle so as to surround the vehicle. Each of the plurality of radars 22 detects a part of the external environment of the vehicle. Specifically, the radar 22 detects a part of the external environment of the vehicle by transmitting radio waves toward a part of the external environment of the vehicle and receiving reflected waves from the part of the external environment of the vehicle. do. The detection results of the plurality of radars 22 are transmitted to the control unit 30.

例えば、レーダ22は、ミリ波を送信するミリ波レーダであってもよいし、レーザ光を送信するライダ(Light Detection and Ranging)であってもよいし、赤外線を送信する赤外線レーダであってもよいし、超音波を送信する超音波センサであってもよい。 For example, the radar 22 may be a millimeter wave radar that transmits millimeter waves, a lidar (Light Detection and Ranging) that transmits laser light, or an infrared radar that transmits infrared light. Alternatively, it may be an ultrasonic sensor that transmits ultrasonic waves.

〔位置センサ〕
位置センサ23は、車両の位置(例えば緯度および経度)を検出する。例えば、位置センサ23は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて車両の位置を検出する。位置センサ23により得られた情報(車両の位置)は、制御部30に送信される。
[Position sensor]
The position sensor 23 detects the position (for example, latitude and longitude) of the vehicle. For example, the position sensor 23 receives GPS information from the global positioning system and detects the position of the vehicle based on the GPS information. Information (vehicle position) obtained by the position sensor 23 is transmitted to the control unit 30.

〔外部入力部〕
外部入力部24は、車両の外部に設けられた車外ネットワーク(例えばインターネットなど)を通じて情報を入力する。例えば、外部入力部24は、車両の周囲に位置する他車両(図示省略)からの通信情報、ナビゲーションシステム(図示省略)からのカーナビゲーションデータ、交通情報、高精度地図情報などを受信する。外部入力部24により得られた情報は、制御部30に送信される。
[External input section]
The external input unit 24 inputs information through an external network (for example, the Internet) provided outside the vehicle. For example, the external input unit 24 receives communication information from other vehicles (not shown) located around the vehicle, car navigation data from a navigation system (not shown), traffic information, high-precision map information, and the like. Information obtained by the external input section 24 is transmitted to the control section 30.

〔車両状態センサ〕
車両状態センサ25は、車両の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、車両状態センサ25は、車両の速度を検出する車速センサ、車両の加速度を検出する加速度センサ、車両のヨーレートを検出するヨーレートセンサなどを含む。車両状態センサ25により得られた情報(車両の状態)は、制御部30に送信される。
[Vehicle condition sensor]
The vehicle condition sensor 25 detects the condition of the vehicle (for example, speed, acceleration, yaw rate, etc.). For example, the vehicle condition sensor 25 includes a vehicle speed sensor that detects the speed of the vehicle, an acceleration sensor that detects the acceleration of the vehicle, a yaw rate sensor that detects the yaw rate of the vehicle, and the like. Information (vehicle status) obtained by the vehicle status sensor 25 is transmitted to the control unit 30.

〔運転操作センサ〕
運転操作センサ26は、車両に加えられる運転操作を検出する。例えば、運転操作センサ26は、アクセル開度センサ、操舵角センサ、ブレーキ油圧センサなどを含む。アクセル開度センサは、車両のアクセルの操作量を検出する。操舵角センサは、車両のハンドルの操舵角を検出する。ブレーキ油圧センサは、車両のブレーキの操作量を検出する。運転操作センサ26により得られた情報(車両の運転操作)は、制御部30に送信される。
[Driving operation sensor]
The driving operation sensor 26 detects a driving operation applied to the vehicle. For example, the driving operation sensor 26 includes an accelerator opening sensor, a steering angle sensor, a brake oil pressure sensor, and the like. The accelerator opening sensor detects the amount of operation of the accelerator of the vehicle. The steering angle sensor detects the steering angle of the steering wheel of the vehicle. The brake oil pressure sensor detects the amount of brake operation of the vehicle. Information (vehicle driving operation) obtained by the driving operation sensor 26 is transmitted to the control unit 30.

〔運転者状態センサ〕
運転者状態センサ27は、車両を運転する運転者の状態(例えば運転者の健康状態や感情や身体挙動など)を検出する。運転者状態センサ27により得られた情報(運転者の状態)は、制御部30に送信される。この例では、運転者状態センサ27は、車内カメラ28と、生体情報センサ29とを含む。
[Driver status sensor]
The driver condition sensor 27 detects the condition of the driver who drives the vehicle (for example, the driver's health condition, emotions, physical behavior, etc.). Information obtained by the driver condition sensor 27 (driver condition) is transmitted to the control unit 30. In this example, driver condition sensor 27 includes an in-vehicle camera 28 and a biological information sensor 29.

《車内カメラ》
車内カメラ28は、車両の内部に設けられる。車内カメラ28は、運転者の眼球を含む領域を撮像することで運転者の目を含む画像データを取得する。車内カメラ28により得られた画像データは、制御部30に送信される。例えば、車内カメラ28は、運転者の前方に配置され、運転者の眼球が撮像範囲内となるように撮像範囲が設定される。なお、車内カメラ28は、運転者に装着されるゴーグル(図示を省略)に設けられてもよい。
《In-vehicle camera》
The in-vehicle camera 28 is provided inside the vehicle. The in-vehicle camera 28 acquires image data including the driver's eyes by capturing an image of a region including the driver's eyes. Image data obtained by the in-vehicle camera 28 is transmitted to the control unit 30. For example, the in-vehicle camera 28 is placed in front of the driver, and the imaging range is set so that the driver's eyeballs are within the imaging range. Note that the in-vehicle camera 28 may be provided in goggles (not shown) worn by the driver.

《生体情報センサ》
生体情報センサ29は、運転者の生体情報(例えば発汗など)を検出する。生体情報センサ29により得られた情報(運転者の生体情報)は、制御部30に送信される。
《Biological information sensor》
The biological information sensor 29 detects biological information (for example, sweating) of the driver. Information obtained by the biometric information sensor 29 (driver's biometric information) is transmitted to the control unit 30 .

-制御部-
制御部30は、アシスト運転または自動運転において、情報取得部20により取得された各種情報に基づいて、車両が走行すべき経路である目標経路を決定し、目標経路を走行するために必要となる車両の運動である目標運動を決定する。そして、制御部30は、車両の運動が目標運動となるように、アクチュエータ11の動作を制御する。例えば、制御部30は、1つまたは複数の演算チップを有する電子制御ユニット(ECU)により構成される。言い換えると、制御部30は、1つまたは複数のプロセッサ、1つまたは複数のプロセッサを動作させるためのプログラムやデータを記憶する1つまたは複数のメモリなどを有する電子制御ユニット(ECU)により構成される。
-Control unit-
The control unit 30 determines a target route, which is the route the vehicle should travel, based on various information acquired by the information acquisition unit 20 during assisted driving or automatic driving, and is necessary for driving the target route. Determine the target motion, which is the motion of the vehicle. The control unit 30 then controls the operation of the actuator 11 so that the motion of the vehicle matches the target motion. For example, the control section 30 is configured by an electronic control unit (ECU) having one or more arithmetic chips. In other words, the control unit 30 is configured by an electronic control unit (ECU) having one or more processors, one or more memories that store programs and data for operating the one or more processors, and the like. Ru.

この例では、図3に示すように、制御部30は、画像処理部31と、外部環境認識部32と、候補経路生成部33と、車両挙動認識部34と、運転者挙動認識部35と、目標経路決定部36と、運動制御部37とを有する。 In this example, as shown in FIG. 3, the control unit 30 includes an image processing unit 31, an external environment recognition unit 32, a candidate route generation unit 33, a vehicle behavior recognition unit 34, and a driver behavior recognition unit 35. , a target route determining section 36, and a motion control section 37.

〔画像処理部〕
画像処理部31は、複数のカメラ21で撮像された画像を受信し、画像処理を行う。画像処理部31で行われる画像処理には、外部環境認識部32で物体等の外部環境を認識するために用いる画像のための第1画像処理と、サリエンシーマップの生成に用いるための第2画像処理とが含まれる。
[Image processing section]
The image processing unit 31 receives images captured by the plurality of cameras 21 and performs image processing. The image processing performed by the image processing unit 31 includes first image processing for images used by the external environment recognition unit 32 to recognize the external environment such as objects, and second image processing for use in generating a saliency map. Image processing is included.

《第1画像処理》
画像処理部31は、各カメラ21の撮影した画像に対して、画像の歪み(この例ではカメラ21の広角化による歪み)を補正する歪み補正処理や、画像のホワイトバランスを調整するホワイトバランス調整処理などを行う。また、画像処理部31は、画像を構成する素子のうち後段の外部環境認識部32での処理に不要な画素を削除したり、色彩に関するデータを間引いたり(車両を全て同じ色で表すなど)して、画像データを生成する。第1画像処理で生成された画像データは、外部環境認識部32に送信される。
《First image processing》
The image processing unit 31 performs distortion correction processing to correct image distortion (in this example, distortion due to wide-angle camera 21) and white balance adjustment to adjust the white balance of the image, for images captured by each camera 21. Perform processing, etc. The image processing unit 31 also deletes pixels that are unnecessary for processing in the external environment recognition unit 32 in the subsequent stage from among the elements that make up the image, and thins out color-related data (such as representing all vehicles in the same color). to generate image data. The image data generated by the first image processing is sent to the external environment recognition section 32.

《第2画像処理》
画像処理部31は、例えば、前カメラ21aの撮影した画像に対して、画像を構成する素子のうち、後段のマップ生成部301の処理(例えば、サリエンシーマップの生成)に不要な画素を削除する処理を行う。また、画像処理部31は、前カメラ21aで撮影された車両前側の外部環境を示す画像に対して、別の画像を合成して合成画像を生成する処理を行う。
《Second image processing》
For example, the image processing unit 31 deletes, from the image taken by the front camera 21a, pixels that are unnecessary for processing by the map generation unit 301 in the subsequent stage (for example, generation of a saliency map) from among the elements constituting the image. Perform the processing to do. Further, the image processing unit 31 performs processing to generate a composite image by combining another image with the image showing the external environment on the front side of the vehicle taken by the front camera 21a.

図5は、車両の走行シーンにおいて前カメラ21aが撮影した車両前側の外部環境を示す画像D11の一例である。この画像D11に示す外部環境には、車道150と、車道150上の白線151とが含まれる。また、この画像D11に示された外部環境には、車道150の左側に形成された壁162と、壁162よりも左側の領域に形成された森林163と、車道150の右側の領域に広がる丘164と、丘164に形成された森林165が含まれる。また、この画像D11に示された外部環境には、車道150及び森林163,165の上側に広がる空167が含まれる。なお、以下の説明において、画像D11の空167は夕焼け空であり、赤みがかった空が広がっていると仮定する。換言すると、画像D11は、図7に示すように、高サリエンシー領域の広がりRWが相対的に大きい画像であるものとする。なお、図7については後で詳細に説明する。 FIG. 5 is an example of an image D11 showing the external environment on the front side of the vehicle, taken by the front camera 21a in a vehicle driving scene. The external environment shown in this image D11 includes a roadway 150 and a white line 151 on the roadway 150. In addition, the external environment shown in this image D11 includes a wall 162 formed on the left side of the roadway 150, a forest 163 formed on the left side of the wall 162, and a hill spreading on the right side of the roadway 150. 164 and a forest 165 formed on the hill 164. Furthermore, the external environment shown in this image D11 includes the sky 167 that extends above the road 150 and forests 163 and 165. In the following description, it is assumed that the sky 167 of the image D11 is a sunset sky, and a reddish sky is spreading. In other words, the image D11 is assumed to be an image in which the spread RW of the high saliency region is relatively large, as shown in FIG. Note that FIG. 7 will be explained in detail later.

画像処理部31は、画像D11に対して、車両の走行時に運転者の視界領域に入る車両構成部材を示す画像を合成する。具体的には、図6に示すように、画像処理部31は、運転席に着座した運転者が車両前側を見たときの車両構成部材の画像(以下、車両画像という)を画像D11に合成し、合成画像D12を生成する。車両画像に撮影される車両構成部材は、例えば、右側(運転席側)のフロントピラートリム52と、ルーフトリム53の右側の部分と、インストルメントパネル54の右側の部分と、バックミラー55と、右側のサイドミラー56と、ステアリングホイール58である。車両画像は、例えば、運転席側から運転者の視界領域に入る車内構造を予め撮影しておき、撮影した画像データをレイヤとして制御部30のメモリ(図示省略)に保存させておくことができる。そして、画像D11に車両画像を合成するときには、画像処理部31がメモリから当該車両画像を画像D11と別レイヤに読み込み、画像D11と車両画像との位置合わせをして重ねるようにすればよい。なお、車両構成部材として、さらにボンネット59の一部を考慮するようにしてもよい。また、合成画像D12を作成するのにあたって、前カメラ21a以外の情報、例えば、レーダ22の検出結果や、外部入力部24からの入力情報を使用するようにしてもよい。画像処理部31で生成された合成画像D12の画像データ(以下、合成画像データという)は、後述するマップ生成部301に送信される(図4参照)。 The image processing unit 31 synthesizes, with the image D11, an image showing vehicle components that enter the driver's field of view when the vehicle is running. Specifically, as shown in FIG. 6, the image processing unit 31 synthesizes an image of vehicle components (hereinafter referred to as a vehicle image) when a driver seated in the driver's seat looks at the front side of the vehicle into an image D11. Then, a composite image D12 is generated. The vehicle components photographed in the vehicle image include, for example, the front pillar trim 52 on the right side (driver's seat side), the right part of the roof trim 53, the right part of the instrument panel 54, the rearview mirror 55, and the right side. side mirrors 56 and a steering wheel 58. The vehicle image can be, for example, taken in advance by photographing the interior structure of the vehicle that enters the driver's field of view from the driver's seat side, and storing the photographed image data as a layer in the memory (not shown) of the control unit 30. . When combining the vehicle image with the image D11, the image processing unit 31 may read the vehicle image from the memory into a separate layer from the image D11, align the image D11 and the vehicle image, and overlap them. Note that a part of the hood 59 may also be taken into consideration as a vehicle component. Further, in creating the composite image D12, information other than the front camera 21a, for example, the detection results of the radar 22 or input information from the external input unit 24 may be used. Image data of the composite image D12 (hereinafter referred to as composite image data) generated by the image processing unit 31 is transmitted to a map generation unit 301, which will be described later (see FIG. 4).

〔外部環境認識部〕
外部環境認識部32は、複数のカメラ21及びレーダ22から出力されたデータに基づいて車両の外部環境を認識する。外部環境認識部32により認識される車両の外部環境には、物体が含まれる。物体の例としては、時間経過により変位する動体と、時間経過により変位しない静止体とが挙げられる。動体の例としては、自動四輪車、自動二輪車、自転車、歩行者などが挙げられる。静止体の例としては、標識、街路樹、中央分離帯、センターポール、建物などが挙げられる。
[External environment recognition department]
The external environment recognition unit 32 recognizes the external environment of the vehicle based on data output from the plurality of cameras 21 and radar 22. The external environment of the vehicle recognized by the external environment recognition unit 32 includes objects. Examples of objects include a moving object that displaces over time and a stationary object that does not displace over time. Examples of moving objects include four-wheeled motor vehicles, motorcycles, bicycles, and pedestrians. Examples of stationary objects include signs, street trees, median strips, center poles, and buildings.

〔候補経路生成部〕
候補経路生成部33は、外部環境認識部32の出力に基づいて1つまたは複数の候補経路を生成する。候補経路は、車両が走行可能な経路であり、目標経路の候補である。また、候補経路生成部33は、候補経路を生成するのにあたって、前述のリスクポテンシャルを演算する。例えば、図11に示すように、他車両161(駐車車両)がある場合には、周辺車両の周囲に広がる危険領域が設定され、その広がりに応じた危険度がスコア化され、設定される。危険度のスコア化は、関数を用いて演算するようにしてもよいし、シーン等に応じた参照テーブルを設けるような方法であってもよい。
[Candidate route generation unit]
The candidate route generation unit 33 generates one or more candidate routes based on the output of the external environment recognition unit 32. A candidate route is a route on which a vehicle can travel, and is a candidate for a target route. Further, the candidate route generation unit 33 calculates the above-mentioned risk potential when generating a candidate route. For example, as shown in FIG. 11, when there is another vehicle 161 (parked vehicle), a dangerous area that extends around the surrounding vehicle is set, and a degree of risk is scored and set according to the extent of the area. The degree of risk may be scored by calculation using a function, or by providing a reference table depending on the scene or the like.

図5~図12は、走行シーンの変化の一例を示している。図5~8は、同じ走行シーン(以下、第1走行シーンという)を示している。図9,10は、第1走行シーンから少し時間が経過した後の走行シーン(以下、第2走行シーンという)を示している。また、図11,12は、第2走行シーンから少し時間が経過した後の走行シーン(以下、第3走行シーンという)を示している。具体的に、第1走行シーンでは周囲に他車両が存在せずに危険度が低い状態であり、第2走行シーンでは遠方に停車中の他車両(以下停車車両161という)が見える走行シーンに移行して少し危険度が上昇しているものとする。また、第3走行シーンでは、停車車両161に近くなり、危険度が所定の第2基準を超えているものとする。候補経路生成部33では、車両の走行中に継続的に走行シーンの危険度及び危険が予測される場所を推定し、危険度や危険が予測される場所に応じて複数の候補経路を生成するように構成されている。走行シーンに応じた異常検出方法については、後で具体的に説明する。 5 to 12 show examples of changes in driving scenes. 5 to 8 show the same driving scene (hereinafter referred to as the first driving scene). FIGS. 9 and 10 show a driving scene (hereinafter referred to as a second driving scene) a little time after the first driving scene. Moreover, FIGS. 11 and 12 show a driving scene (hereinafter referred to as a third driving scene) after a little time has elapsed from the second driving scene. Specifically, in the first driving scene, there are no other vehicles around and the danger level is low, and in the second driving scene, another vehicle parked in the distance (hereinafter referred to as the stopped vehicle 161) can be seen. It is assumed that the risk level has increased slightly due to the transition. Further, in the third driving scene, it is assumed that the vehicle is close to the stopped vehicle 161 and the degree of danger exceeds a predetermined second standard. The candidate route generation unit 33 continuously estimates the degree of danger of the driving scene and the predicted danger locations while the vehicle is running, and generates a plurality of candidate routes according to the degree of danger and the predicted danger locations. It is configured as follows. The abnormality detection method according to the driving scene will be specifically explained later.

候補経路生成部33で生成された候補経路は、目標経路決定部36に送信される。また、候補経路生成部33で演算された危険度は、後述する異常検出部303に送信される(図4参照)。なお、危険度は、候補経路生成部33以外の構成要素で演算されるようにしてもよい。例えば、外部環境認識部32や、危険度演算専用の構成要素で演算するようにしてもよい。 The candidate route generated by the candidate route generation unit 33 is transmitted to the target route determination unit 36. Furthermore, the degree of risk calculated by the candidate route generation unit 33 is transmitted to an abnormality detection unit 303, which will be described later (see FIG. 4). Note that the degree of risk may be calculated by a component other than the candidate route generation unit 33. For example, the calculation may be performed using the external environment recognition unit 32 or a component dedicated to risk calculation.

〔車両挙動認識部〕
車両挙動認識部34は、車両状態センサ25の出力に基づいて車両の挙動(例えば速度や加速度やヨーレートなど)を認識する。例えば、車両挙動認識部34は、深層学習により生成された学習モデルを用いて車両状態センサ25の出力から車両の挙動を認識する。
[Vehicle behavior recognition unit]
The vehicle behavior recognition unit 34 recognizes vehicle behavior (eg, speed, acceleration, yaw rate, etc.) based on the output of the vehicle state sensor 25. For example, the vehicle behavior recognition unit 34 recognizes the behavior of the vehicle from the output of the vehicle condition sensor 25 using a learning model generated by deep learning.

〔運転者挙動認識部〕
運転者挙動認識部35は、運転者状態センサ27の出力に基づいて運転者の挙動(例えば運転者の健康状態や感情や身体挙動など)を認識する。例えば、運転者挙動認識部35は、深層学習により生成された学習モデルを用いて運転者状態センサ27の出力からドライバの挙動を認識する。この例では、運転者挙動認識部35は、運転者状態検出部300を有する。運転者状態検出部300については、後で詳しく説明する。
[Driver behavior recognition unit]
The driver behavior recognition unit 35 recognizes the driver's behavior (for example, the driver's health condition, emotions, physical behavior, etc.) based on the output of the driver condition sensor 27. For example, the driver behavior recognition unit 35 recognizes the driver's behavior from the output of the driver condition sensor 27 using a learning model generated by deep learning. In this example, the driver behavior recognition section 35 includes a driver state detection section 300. The driver state detection section 300 will be explained in detail later.

〔目標経路決定部〕
目標経路決定部36は、車両挙動認識部34の出力と、運転者挙動認識部35の出力に基づいて、候補経路生成部33により生成された1つまたは複数の候補経路の中から目標経路となる候補経路を選択する。例えば、目標経路決定部36は、複数の候補経路のうち運転者が最も快適であると感じる候補経路を選択する。
[Target route determination unit]
The target route determination unit 36 selects a target route from among the one or more candidate routes generated by the candidate route generation unit 33 based on the output of the vehicle behavior recognition unit 34 and the output of the driver behavior recognition unit 35. Select a candidate route. For example, the target route determining unit 36 selects the candidate route that the driver feels is most comfortable from among the plurality of candidate routes.

〔運動制御部〕
運動制御部37は、目標経路決定部36により目標経路として選択された候補経路に基づいて目標運動を決定し、その決定された目標運動に基づいてアクチュエータ11を制御する。例えば、運動制御部37は、目標運動を達成するための駆動力と制動力と操舵量である目標駆動力と目標制動力と目標操舵量をそれぞれ導出する。そして、運動制御部37は、目標駆動力を示す駆動指令値と目標制動力を示す制動指令値と目標操舵量を示す操舵指令値とを、駆動系のアクチュエータと制動系のアクチュエータと操舵系のアクチュエータとにそれぞれ送信する。
[Motor control unit]
The motion control unit 37 determines a target motion based on the candidate route selected as the target route by the target route determination unit 36, and controls the actuator 11 based on the determined target motion. For example, the motion control unit 37 derives a target driving force, a target braking force, and a target steering amount, which are a driving force, a braking force, and a steering amount for achieving the target movement, respectively. Then, the motion control unit 37 transmits the drive command value indicating the target driving force, the braking command value indicating the target braking force, and the steering command value indicating the target steering amount to the actuators of the drive system, the actuators of the braking system, and the steering system. and the actuator respectively.

《通知部》
通知部40は、車両の運転者に各種情報を通知する。この例では、通知部40は、表示部41と、スピーカ42とを含む。表示部41は、各種情報を画像で出力する。スピーカ42は、各種情報を音声で出力する。
《Notification Department》
The notification unit 40 notifies the driver of the vehicle of various information. In this example, the notification section 40 includes a display section 41 and a speaker 42. The display unit 41 outputs various information in the form of images. The speaker 42 outputs various information in the form of audio.

《運転者状態検出部》
運転者状態検出部300は、車両の運転者の異常を検出する。具体的には、図4に示すように、運転者状態検出部300は、マップ生成部301と、注視点検出部302と、異常検出部303とを有する。
《Driver status detection section》
The driver condition detection unit 300 detects abnormality of the driver of the vehicle. Specifically, as shown in FIG. 4, the driver state detection section 300 includes a map generation section 301, a gaze point detection section 302, and an abnormality detection section 303.

なお、運転者の異常とは、運転者の注意機能低下を引き起こす異常のことである。このような運転者の異常の例としては、脳卒中などの脳疾患、心筋梗塞などの心疾患、癲癇、低血糖、眠気などが挙げられる。また、以下の説明で、異常状態にある運転者のことを、注意機能障害者というものとする。 Note that the driver's abnormality refers to an abnormality that causes a decline in the driver's attention function. Examples of such driver abnormalities include brain diseases such as stroke, heart diseases such as myocardial infarction, epilepsy, hypoglycemia, and drowsiness. Furthermore, in the following explanation, a driver who is in an abnormal state will be referred to as a person with impaired attention function.

〔マップ生成部〕
マップ生成部301は、画像処理部31から合成画像データを受信し、合成画像データに基づいて合成画像D12についてのサリエンシーマップD13を生成する。具体的には、マップ生成部301は、合成画像データのうち外部環境を表す部分、すなわち、画像処理部31で合成した車両画像以外の部分についてのサリエンシーを算出する。このとき、マップ生成部301は、画像処理部31での合成に使用した車両画像についてのサリエンシーは算出しないものの、合成画像D12のうちの外部環境を表す部分のサリエンシーの算出には利用する。つまり、マップ生成部301は、車両の走行時に運転者の視界領域に入る車両構成部材を考慮してサリエンシーマップD13を生成する。
[Map generator]
The map generation unit 301 receives composite image data from the image processing unit 31, and generates a saliency map D13 for the composite image D12 based on the composite image data. Specifically, the map generation unit 301 calculates the saliency of a portion of the composite image data representing the external environment, that is, a portion other than the vehicle image synthesized by the image processing unit 31. At this time, the map generation unit 301 does not calculate the saliency of the vehicle images used in the synthesis by the image processing unit 31, but uses it to calculate the saliency of the portion of the composite image D12 that represents the external environment. That is, the map generation unit 301 generates the saliency map D13 by taking into account the vehicle components that enter the driver's field of view when the vehicle is running.

前述したように、サリエンシーは、物標の色、輝度、動き等により変化する。そこで、本実施形態では、マップ生成部301は、色に基づくサリエンシー、輝度に基づくサリエンシー、動きに基づくサリエンシー等、特徴毎にサリエンシーを算出して、特徴毎のサリエンシーマップを生成した後に、それらを足し合わせることで最終的な合成画像D12に基づいたサリエンシーマップD13を生成する。 As mentioned above, saliency changes depending on the color, brightness, movement, etc. of the target object. Therefore, in the present embodiment, the map generation unit 301 calculates saliency for each feature, such as saliency based on color, saliency based on brightness, saliency based on motion, etc., and generates a saliency map for each feature. By adding these together, a saliency map D13 based on the final composite image D12 is generated.

例えば、マップ生成部301は、色に基づくサリエンシーについて、合成画像データにおける車両構成部材の近傍領域において、当該近傍領域と車両構成部材との色差が大きいときには、該色差が小さいときと比較して、近傍領域のサリエンシーを高くする。なお、色差とは、ある画素の色のRGBを(R1,G1,B1)とし、他の画素の色のRGBを(R2,G2,B2)したときに、以下の式により算出される。
(色差)={(R2-R1)+(G2-G1)+(B2-B1)}1/2
マップ生成部301は、色差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
For example, with respect to color-based saliency, when the color difference between the nearby region and the vehicle component is large in a region near the vehicle component in the composite image data, the map generation unit 301 generates a color-based saliency, compared to when the color difference is small. Increase the salience of the neighborhood. Note that the color difference is calculated by the following formula when the RGB of a certain pixel color is (R1, G1, B1) and the RGB of another pixel is (R2, G2, B2).
(Color difference) = {(R2-R1) 2 + (G2-G1) 2 + (B2-B1) 2 } 1/2
The map generation unit 301 may calculate so that the saliency increases continuously as the color difference increases, or it may calculate such that the saliency increases by a certain value each time the threshold value is exceeded by providing a plurality of threshold values. .

また、例えば、マップ生成部301は、輝度に基づくサリエンシーについて、合成画像データにおける車両構成部材の近傍領域において、当該近傍領域と車両構成部材との輝度差が大きいときには、該輝度差が小さいときと比較して、近傍領域のサリエンシーを高くする。例えば、マップ生成部301は、合成した車両構成部品が黒色であるときには、白色に近い部分ほど輝度差が大きくなるため、近傍領域のうち白色に近い部分のサリエンシーを高くする。マップ生成部301は、輝度差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。 Further, for example, regarding the saliency based on brightness, the map generation unit 301 can determine whether the difference in brightness between the nearby region and the vehicle component is large in the vicinity of the vehicle component in the composite image data, and when the brightness difference is small. In comparison, the salience of the neighboring region is increased. For example, when the synthesized vehicle component is black, the map generation unit 301 increases the saliency of the part closer to white in the nearby region because the brightness difference becomes larger as the part becomes closer to white. The map generation unit 301 may calculate so that the saliency increases continuously as the luminance difference becomes larger, or it may calculate such that the saliency increases by a certain value each time the threshold value is exceeded by providing a plurality of threshold values. good.

図7は、マップ生成部301で生成されたサリエンシーマップの一例を示している。図7において、サリエンシーの高さに応じてハッチングを変えて表示している。図7ではハッチングの線間が密な方がサリエンシーが高い領域を示しており、ハッチングがない領域がサリエンシーが最も低い領域を示している。図8、図10、図12では、図面を見やすくするために、サリエンシーマップの等高線のみを記載している。 FIG. 7 shows an example of a saliency map generated by the map generation unit 301. In FIG. 7, hatching is changed depending on the height of saliency. In FIG. 7, denser hatched lines indicate regions with higher salience, and regions with no hatching indicate regions with the lowest salience. In FIGS. 8, 10, and 12, only the contour lines of the saliency maps are shown to make the drawings easier to read.

なお、サリエンシーの算出自体は、インターネット上等で公開されている既知のコンピュータプログラムを用いることができる。また、特徴毎のサリエンシーマップの算出及び各サリエンシーマップの統合についても既知のコンピュータプログラムを用いることができる。 Note that the calculation of saliency itself can be performed using a known computer program published on the Internet or the like. Furthermore, a known computer program can be used to calculate a saliency map for each feature and to integrate each saliency map.

〔注視点検出部〕
注視点検出部302は、車内カメラ28により撮影された運転者の眼球画像から、運転者の視線方向を算出する。注視点検出部302は、例えば、運転者が車内カメラ28のレンズを覗いた状態を基準にして、そこからの運転者の瞳孔の変化を検知することで運転者の視線方向を算出する。視線方向の算出は、運転者の左目及び右目のどちらか一方から算出してもよいし、運転者の両目のそれぞれから求めた視線方向(視線ベクトル)の平均値としてもよい。また、運転者の瞳孔の変化から運転者の視線方向を算出することが困難であるときには、運転者の顔面の向きを更に考慮して視線方向を算出してもよい。また、運転者の視線方向の算出に、深層学習により生成された学習モデル(視線を検出するための学習モデル)を用いてもよい。
[Gaze point detection unit]
The gaze point detection unit 302 calculates the driver's line of sight direction from the driver's eyeball image captured by the in-vehicle camera 28. For example, the gaze point detection unit 302 calculates the direction of the driver's line of sight by detecting changes in the driver's pupils from a state in which the driver looks through the lens of the in-vehicle camera 28 as a reference. The line-of-sight direction may be calculated from either the driver's left eye or right eye, or may be the average value of the line-of-sight directions (line-of-sight vector) determined from each of the driver's eyes. Furthermore, when it is difficult to calculate the driver's line-of-sight direction from changes in the driver's pupils, the line-of-sight direction may be calculated by further considering the direction of the driver's face. Further, a learning model (a learning model for detecting the line of sight) generated by deep learning may be used to calculate the direction of the driver's line of sight.

《注視点及びサッケードの検出》
注視点検出部302は、運転者の視線の動きに基づいて運転者のサッケードを検出する。サッケードとは、運転者が意図的に視線を移動させる跳躍性眼球運動のことであり、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。図13に示すように、隣り合う2つの注視期間の間に挟まれた期間がサッケード期間となる。なお、注視期間は、視線が停滞しているとみなされる期間である。サッケードの振幅dsは、サッケード期間における視線の移動距離である。
《Detection of fixation points and saccades》
The gaze point detection unit 302 detects the driver's saccades based on the movement of the driver's line of sight. A saccade is a jumping eye movement in which the driver intentionally moves his/her line of sight, and is an eye movement in which the driver moves his/her line of sight from a point of gaze where the line of sight remains stagnant for a predetermined period of time to the next point of gaze. As shown in FIG. 13, a period sandwiched between two adjacent gaze periods is a saccade period. Note that the gaze period is a period in which the line of sight is considered to be stationary. The saccade amplitude ds is the distance the line of sight moves during the saccade period.

注視点検出部302は、視線の移動距離の変化に基づいて視線の移動速度を算出し、視線の移動速度が予め定められた速度閾値(例えば2deg/s)未満である状態が予め定められた停滞時間(例えば0.1秒間)継続する期間を「注視期間」として抽出するとともに、その注視期間において運転者の視線の先にある点を「注視点」として抽出する。また、注視点検出部302は、隣り合う2つの注視期間の間に挟まれた期間における視線移動のうち、移動速度が速度閾値(例えば40deg/s)以上であり、且つ、移動距離が予め定められ距離閾値(例えば3deg)以上である視線移動を「サッケード」として抽出する。 The gaze point detection unit 302 calculates the moving speed of the line of sight based on the change in the moving distance of the line of sight, and determines a state in which the moving speed of the line of sight is less than a predetermined speed threshold (for example, 2 deg/s). A period of stagnation time (for example, 0.1 second) is extracted as a "gazing period", and a point ahead of the driver's line of sight during the gaze period is extracted as a "gazing point". In addition, the gaze point detection unit 302 detects that the movement speed of the gaze movement during the period sandwiched between two adjacent gaze periods is equal to or higher than a speed threshold (for example, 40 deg/s), and the movement distance is a predetermined distance. A line-of-sight movement that is equal to or greater than a distance threshold (for example, 3 degrees) is extracted as a "saccade."

なお、注視点検出部302は、抽出されたサッケードについて、ノイズ除去処理を行うようにしてもよい。具体的には、注視点検出部302は、図14に示すように、複数のサッケード候補に基づいて回帰曲線L10を導出する。注視点検出部302は、例えば、最小自乗法により複数のサッケード候補から回帰曲線L10を導出する。次に、注視点検出部302は、回帰曲線L10を移動速度が増加する方向(図14の縦軸における増加方向)にシフトさせることで第1基準曲線L11を導出し、回帰曲線L10を移動速度が減少する方向(図14の縦軸における減少方向)にシフトさせることで第2基準曲線L12を導出し、第1基準曲線L11と第2基準曲線L12との間をサッケード範囲R10とする。そして、注視点検出部302は、複数のサッケード候補のうちサッケード範囲R10内に含まれるサッケード候補をサッケードとして抽出する。 Note that the gaze point detection unit 302 may perform noise removal processing on the extracted saccade. Specifically, the gaze point detection unit 302 derives a regression curve L10 based on a plurality of saccade candidates, as shown in FIG. 14. The gaze point detection unit 302 derives the regression curve L10 from a plurality of saccade candidates using, for example, the least squares method. Next, the gaze point detection unit 302 derives the first reference curve L11 by shifting the regression curve L10 in the direction in which the moving speed increases (increasing direction on the vertical axis in FIG. 14), and shifts the regression curve L10 to the moving speed A second reference curve L12 is derived by shifting in a direction in which the curve decreases (decreasing direction on the vertical axis in FIG. 14), and a saccade range R10 is defined between the first reference curve L11 and the second reference curve L12. Then, the gaze point detection unit 302 extracts a saccade candidate included within the saccade range R10 from among the plurality of saccade candidates as a saccade.

次に、注視点検出部302は、サッケードの指標であるサッケードの振幅dsとサッケードの頻度fsとを算出する。具体的には、注視点検出部302は、予め定められた周期毎(例えば10秒毎)に、その周期内に含まれるサッケードの振幅dsの平均値を「サッケードの振幅ds」として算出し、その周期内に含まれるサッケードの数をその周期の時間で除算して得られる値を「サッケードの頻度fs」として算出する。 Next, the gaze point detection unit 302 calculates a saccade amplitude ds and a saccade frequency fs, which are indicators of a saccade. Specifically, the gaze point detection unit 302 calculates the average value of the saccade amplitudes ds included in each predetermined period (for example, every 10 seconds) as the "saccade amplitude ds", The value obtained by dividing the number of saccades included in the cycle by the time of the cycle is calculated as the "saccade frequency fs".

図8、図10及び図12は、サリエンシーマップ上の注視点の位置と、時間的に隣り合う注視点間を線で結んだ図である。図8、図10及び図12において、注視点間の線の長さは、サッケードの振幅dsを示している。また、図8、図10及び図12において、丸印は健常者の注視点の一例であり、三角印は注意機能障害者の注視点の一例である。また、図8、図10及び図12において、実線は健常者の視線の動きの一例であり、破線は注意機能障害者の注視点の動きの一例である。 FIG. 8, FIG. 10, and FIG. 12 are diagrams in which the positions of gaze points on the saliency map and temporally adjacent gaze points are connected by lines. In FIGS. 8, 10, and 12, the length of the line between the fixation points indicates the amplitude ds of the saccade. Furthermore, in FIGS. 8, 10, and 12, circles are examples of gaze points of a healthy person, and triangle marks are examples of gaze points of a person with an attention dysfunction. Furthermore, in FIGS. 8, 10, and 12, the solid line is an example of the movement of the line of sight of a healthy person, and the broken line is an example of the movement of the gaze point of a person with an attentional dysfunction.

〔異常検出部〕
異常検出部303は、マップ生成部301で生成されたサリエンシーマップD3と、注視点検出部302で検出された運転者の注視点及びサッケードの振幅dsとに基づいて、運転者の異常を検出する。異常検出部303の動作は、以下の「車両制御システムの動作」において具体的に説明する。
[Abnormality detection part]
The abnormality detection unit 303 detects an abnormality of the driver based on the saliency map D3 generated by the map generation unit 301 and the driver's gaze point and saccade amplitude ds detected by the gaze point detection unit 302. do. The operation of the abnormality detection unit 303 will be specifically explained in "Operation of Vehicle Control System" below.

-車両制御システムの動作-
以下、図19参照しつつ、車両制御システムの動作について説明する。
-Vehicle control system operation-
The operation of the vehicle control system will be described below with reference to FIG.

(ステップST11)
まず、ステップST11において、車両制御システムでは、車両の運転者の注視点を検出する注視点検出ステップが実行される。具体的に、ステップST11では、例えば、前述の「注視点及びサッケードの検出」の項で説明したように、注視点検出部302が、車内カメラ28で検出された運転者の視線に基づいて注視点及びサッケードの振幅dsを検出する。
(Step ST11)
First, in step ST11, the vehicle control system executes a gaze point detection step of detecting the gaze point of the vehicle driver. Specifically, in step ST11, the gaze point detection unit 302 detects the gaze point based on the driver's line of sight detected by the in-vehicle camera 28, for example, as explained in the section “Detection of gaze point and saccade” above. The viewpoint and the saccade amplitude ds are detected.

(ステップST12)
ステップST12において、車両制御システムでは、前カメラ21aから受信した画像データに基づいて、サリエンシーマップを生成するマップ生成ステップが実行される。具体的に、ステップST12では、例えば、前述の「マップ生成部」の項で説明したように、マップ生成部301が画像処理部31から出力された合成画像データに基づいて、合成画像D12のサリエンシーマップD13を生成する。
(Step ST12)
In step ST12, the vehicle control system executes a map generation step of generating a saliency map based on the image data received from the front camera 21a. Specifically, in step ST12, the map generation unit 301 generates a salier of the composite image D12 based on the composite image data output from the image processing unit 31, for example, as described in the above “Map generation unit” section. A sea map D13 is generated.

(ステップST13)
ステップST13において、車両制御システムでは、前カメラ21aから受信した画像データに基づいて、車両の走行シーンにおける危険度を推定する。具体的に、ステップST13では、例えば、前述の「候補経路生成部」の項で説明したように、候補経路生成部33が、車両の走行期間中に、走行シーンの危険度を推定する。候補経路生成部33は、例えば、所定の時間毎(例えば、10秒毎)に危険度を更新する。なお、ステップST11、ステップST12及びステップST13の実行順序は、特に限定されない。例えば、ステップS12がステップS11よりも先に実行されてもよいし、ステップS13がステップS11やステップST12よりも先に実行されてもよいし、ステップST11~ST13が同時に実行されてもよい。
(Step ST13)
In step ST13, the vehicle control system estimates the degree of danger in the vehicle driving scene based on the image data received from the front camera 21a. Specifically, in step ST13, for example, as explained in the section of the above-mentioned "candidate route generation section", the candidate route generation section 33 estimates the degree of danger of the driving scene during the period when the vehicle is traveling. The candidate route generation unit 33 updates the degree of risk, for example, at every predetermined time (for example, every 10 seconds). Note that the order of execution of step ST11, step ST12, and step ST13 is not particularly limited. For example, step S12 may be executed before step S11, step S13 may be executed before step S11 or step ST12, or steps ST11 to ST13 may be executed simultaneously.

ステップST13の後は、ステップST21からの処理と、ステップST31からの処理とが並行して実行される。 After step ST13, the process from step ST21 and the process from step ST31 are executed in parallel.

(ステップST21)
ステップST21では、異常検出部303は、運転者がサリエンシーの高い領域を見る傾向が所定の第1基準よりも高いかどうかを判定する。具体的には、例えば、サリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の閾値を超えるか否かが判定される。具体的には、異常検出部303は、マップ生成部301で生成されたサリエンシーマップと、注視点検出部302で検出された運転者の注視点とに基づいて、運転者がサリエンシーの高い領域を見る傾向が所定の第1基準よりも高いかどうかを判定する。本実施形態では、異常検出部303は、第1基準として、サリエンシー指標が0.6より高いかどうかを判定する。なお、第1基準に用いるサリエンシー指標は0.6以外の数値を用いてもよいし、ステップST21の判定においてサリエンシー指標以外の指標を用いてもよい。
(Step ST21)
In step ST21, the abnormality detection unit 303 determines whether the tendency of the driver to view a region with high salience is higher than a predetermined first criterion. Specifically, for example, a tendency of eye movement toward a high saliency area is detected using a saliency index, and it is determined whether the saliency index exceeds a predetermined threshold value. Specifically, the abnormality detection unit 303 determines whether the driver is in an area with high salience based on the saliency map generated by the map generation unit 301 and the driver's gaze point detected by the gaze point detection unit 302. It is determined whether the tendency to view is higher than a predetermined first criterion. In this embodiment, the abnormality detection unit 303 determines whether the saliency index is higher than 0.6 as a first criterion. Note that the saliency index used as the first criterion may be a numerical value other than 0.6, or an index other than the saliency index may be used in the determination in step ST21.

《サリエンシー指標の算出》
サリエンシー指標の算出方法について、図15~図18を用いて説明する。このサリエンシー指標の算出は、主に、異常検出部303により行われる。
《Calculation of salience index》
A method for calculating the saliency index will be explained using FIGS. 15 to 18. Calculation of this saliency index is mainly performed by the abnormality detection unit 303.

図15は、運転者の注視点のサリエンシーの時間変化をプロットしたものである。このグラフは、例えば、図8に示すように、注視点の変化をサリエンシーマップに当てはめて、サッケードが生じる毎に注視点のサリエンシーの高さをプロットしたものである。一方で、図16は、図15と同じサリエンシーマップ(例えば、図8)からランダムに座標(以下、ランダム座標という)を指定して、サッケードが生じる毎にランダム座標のサリエンシーを求めることで生成される。 FIG. 15 is a plot of the change in saliency of the driver's gaze point over time. For example, as shown in FIG. 8, this graph is a graph in which changes in the gaze point are applied to a saliency map, and the height of the saliency of the gaze point is plotted every time a saccade occurs. On the other hand, Fig. 16 is generated by randomly specifying coordinates (hereinafter referred to as random coordinates) from the same saliency map as Fig. 15 (for example, Fig. 8) and calculating the saliency of the random coordinates every time a saccade occurs. be done.

図15及び図16のグラフをそれぞれ作成した後は、ランダム点における閾値を超える割合と運転者の注視点における閾値を超える割合とのROC(Receiver Operating Characteristic)曲線を求める。具体的には、まず、第1ステップとして、閾値を図15及び図16のグラフにおいて最大値よりも大きい値に設定する。次に、第2ステップとして、閾値を低下させながら、閾値毎に該閾値を超えた点の割合を求める。そして、この第2ステップの処理を閾値が、図15及び図16のグラフにおいて最小値以下になるまで繰り返す。 After creating the graphs shown in FIGS. 15 and 16, ROC (Receiver Operating Characteristic) curves of the proportion exceeding the threshold value at random points and the proportion exceeding the threshold value at the driver's gaze point are determined. Specifically, first, as a first step, the threshold value is set to a value larger than the maximum value in the graphs of FIGS. 15 and 16. Next, as a second step, while lowering the threshold value, the percentage of points exceeding the threshold value is determined for each threshold value. The process of this second step is then repeated until the threshold value becomes equal to or less than the minimum value in the graphs of FIGS. 15 and 16.

前記第1及び第2ステップの後、第3ステップとして、ランダム点における閾値を超える割合(第1確率という)を横軸にとりかつ運転者の注視点における閾値を超える割合(第2確率という)を縦軸にとって、図17のようなグラフを作成する。図17のグラフは、同一の閾値におけるランダム確率に対する注視確率を表す。図17のグラフは、横軸及び縦軸ともに確率であるため、曲線の最小値は0であり、最大値は1である。 After the first and second steps, as a third step, the horizontal axis is the proportion exceeding the threshold at random points (referred to as the first probability), and the ratio exceeding the threshold at the driver's gaze point (referred to as the second probability) is plotted on the horizontal axis. A graph like the one shown in FIG. 17 is created for the vertical axis. The graph in FIG. 17 represents the gaze probability versus random probability at the same threshold. In the graph of FIG. 17, both the horizontal and vertical axes are probabilities, so the minimum value of the curve is 0 and the maximum value is 1.

図17において破線は、運転者の視線がサリエンシーに対してどのように動いているかを表す。図17の曲線C1のように、曲線が上側に凸になる場合は、運転者の注視点がランダム点よりも閾値を超える割合が高いことを表す。図17の曲線C1のような形状の曲線が算出されたときは、運転者の視線がサリエンシーの高い箇所を見る傾向にあること、すなわち、高サリエンシー領域への誘目度が高いことを意味している。一方で、図17の曲線C2のように、曲線が下側に凸になる場合は、運転者の注視点がランダム点よりも閾値を超える割合が低いことを表す。図17の曲線C2のような形状の曲線が算出されたときは、運転者の視線が高サリエンシー領域の影響を受けていないことを意味している。 In FIG. 17, the dashed line represents how the driver's line of sight moves with respect to saliency. When the curve is upwardly convex, like the curve C1 in FIG. 17, it indicates that the rate at which the driver's gaze point exceeds the threshold is higher than at a random point. When a curve with a shape like curve C1 in FIG. 17 is calculated, it means that the driver's line of sight tends to look at a high salience area, that is, the high salience area is highly attractive. There is. On the other hand, when the curve is convex downward like curve C2 in FIG. 17, it indicates that the rate at which the driver's gaze point exceeds the threshold is lower than that at a random point. When a curve shaped like curve C2 in FIG. 17 is calculated, it means that the driver's line of sight is not affected by the high salience region.

本実施形態では、第4ステップとして、AUC(Area Under Curve)を求める。AUCは、この曲線の右下部分の積分値である。すなわち、AUCは、図18に斜線で示すように、図17の曲線C1(または曲線C2)と2点鎖線とで囲まれた領域の面積である。本実施形態では、この積分値をサリエンシー指標と呼んでいる。サリエンシー指標を用いることで、走行シーンによる依存性を低減させることができる。具体的には、例えば、運転者が単純に高サリエンシー領域を見た割合を算出するだけでは、走行シーンが全体的に高サリエンシー領域を含むような場合に、高サリエンシー領域を見る頻度が高いという結果が得られる恐れがある。これに対して、本実施形態のように、ランダム点との比較を行ったサリエンシー指標を用いることで、高サリエンシー領域の多さや広がり等、走行シーンへの依存性を低減することができ、より精度の高い判断をすることができるようになる。 In this embodiment, as the fourth step, AUC (Area Under Curve) is determined. AUC is the integral value of the lower right portion of this curve. That is, AUC is the area of the region surrounded by the curve C1 (or curve C2) and the two-dot chain line in FIG. 17, as indicated by diagonal lines in FIG. In this embodiment, this integral value is called a saliency index. By using the salience index, dependence on driving scenes can be reduced. Specifically, for example, simply calculating the percentage of high-saliency areas that the driver views will show that when the entire driving scene includes high-saliency areas, the driver views the high-saliency areas more frequently. There may be consequences. On the other hand, by using a saliency index that is compared with random points as in this embodiment, it is possible to reduce the dependence on the driving scene, such as the number and spread of high saliency areas, and to Be able to make highly accurate judgments.

ステップST21において、サリエンシー指標が第1基準よりも高い場合、次のステップST22に進む。一方で、ステップST21において、サリエンシー指標が第1基準以下の場合、処理はステップST11に戻る。ステップST21は、例えば、判定ステップの一部を構成する処理の一例である。なお、ステップST11~ST12は、ステップST21,ST22の処理にかかわらず、車両の走行中は継続して実行される。 In step ST21, if the saliency index is higher than the first standard, the process proceeds to the next step ST22. On the other hand, if the saliency index is equal to or less than the first standard in step ST21, the process returns to step ST11. Step ST21 is, for example, an example of processing that constitutes a part of the determination step. Incidentally, steps ST11 to ST12 are continuously executed while the vehicle is running, regardless of the processing in steps ST21 and ST22.

(ステップST22)
ステップS22では、制御部30は、運転者の異常に対応する制御を行う。例えば、制御部30は、運転者の異常の度合いが高い場合(例えば、運転者に疾患が発現したと認識した場合)、運動制御部37等を介してアクチュエータ11を制御して自動運転に切り替える処理を行う。また、制御部30は、通知部40を介して、運転者に「大丈夫ですか」、「少し休みませんか」との問いかけをする等、運転者に向けたアクチュエーションを実施し、運転者の反応を確認するようにしてもよい。例えば、制御部30は、上記のアクチュエーションの結果、運転者の反応が薄い場合に、アクチュエータ11を制御して自動運転に切り替える処理を行うようにしてもよい。
(Step ST22)
In step S22, the control unit 30 performs control corresponding to the abnormality of the driver. For example, when the degree of abnormality of the driver is high (for example, when recognizing that the driver has developed a disease), the control unit 30 controls the actuator 11 via the motion control unit 37 etc. to switch to automatic driving. Perform processing. The control unit 30 also performs actuations directed at the driver, such as asking the driver, “Are you okay?” and “Would you like to take a break?” via the notification unit 40. You may also check the reaction. For example, the control unit 30 may perform a process of controlling the actuator 11 to switch to automatic driving when the driver's reaction is weak as a result of the above actuation.

このように、運転者への問いかけや注意喚起などのアクチュエーションを実施することで、運転者の異常判定の精度を高めたり、運転者に安全な行動を促すことができる。 In this way, by performing actuations such as asking the driver questions and calling attention to them, it is possible to improve the accuracy of the driver's abnormality determination and encourage the driver to take safe actions.

(ステップST31)
ステップST31において、異常検出部303は、ステップST13で推定された危険度が所定の第2基準よりも高いか否かを判定する。所定の第2基準は、予測される危険度が定量的に評価できれば、具体的な内容は特に限定されないが、例えば、前述のリスクポテンシャルを用いることができる。以下の説明では、前述の第1走行シーン(図6参照)及び第2走行シーン(図9参照)は、危険度が所定の第2基準以下であり、第3走行シーン(図11参照)は、危険度が所定の第2基準より高いものとする。すなわち、車両が第1走行シーンから第3走行シーンに移動し、他車両161が自車両の所定の範囲内に入った場合に、危険度が所定の第2基準より高くなったものとする。ステップST31において、危険度が所定の第2基準よりも高いと判定された場合、すなわち、YES判定の場合フローはステップST32に進む。
(Step ST31)
In step ST31, the abnormality detection unit 303 determines whether the degree of risk estimated in step ST13 is higher than a predetermined second standard. The specific content of the predetermined second criterion is not particularly limited as long as the predicted degree of risk can be quantitatively evaluated, but for example, the above-mentioned risk potential can be used. In the following explanation, the above-mentioned first driving scene (see FIG. 6) and second driving scene (see FIG. 9) have a risk level below a predetermined second standard, and the third driving scene (see FIG. 11) , the degree of risk is higher than a predetermined second standard. That is, when the vehicle moves from the first driving scene to the third driving scene and the other vehicle 161 enters within a predetermined range of the own vehicle, it is assumed that the degree of danger has become higher than the second predetermined standard. In step ST31, if it is determined that the degree of risk is higher than a predetermined second standard, that is, if the determination is YES, the flow proceeds to step ST32.

(ステップST32)
ステップST32では、異常検出部303は、運転者がサリエンシーの高い領域を見る傾向が所定の第3基準よりも低いかどうかを判定する。具体的には、例えば、ステップST21と同様に、サリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の第3基準より低いか否かが判定される。ここで、第3基準は、第1基準よりも低い値である。また、第3基準は、ランダム点よりにおける閾値を超える確率(0.5)よりも低い値に設定され、例えば、0.3秒に設定される。ステップST21と同様に、サリエンシー指標以外の指標を用いて判定するようにしてもよい。図12の例では、他車両161は、サリエンシーが相対的に低い領域に停車している。前述のとおり、注意機能障害では、危険度が所定の基準を超えると、運転者の視点が局所にとらわれる傾向がある。例えば、図12に示すように、健常者の例(丸印)では、駐車している他車両161に加えて、追い抜きのために、道路状況を確認したり、ミラーを用いて、後方や側方を確認している。これに対し、注意機能障害患者の例では、他車両161に注意は向いているものの、必要以上に他車両に視線がとらわれ、周囲の確認が不十分な状態となっている様子が表れている。この図12の三角印のような状況では、サリエンシー指標は、相対的に低い値となり、その結果として、サリエンシー指標が所定の第3基準よりも低い値となる場合がある。ここでは、図12の三角印の状況において、サリエンシー指標が所定の第3基準より低くなったものとする。ステップST32で運転者がサリエンシーの高い領域を見る傾向が所定の第3基準よりも低いと判定された場合(例えば、図21のAR2参照)、すなわちYES判定の場合フローはステップST33に進む。
(Step ST32)
In step ST32, the abnormality detection unit 303 determines whether the tendency of the driver to view the high salience region is lower than a predetermined third criterion. Specifically, for example, similarly to step ST21, the tendency of the line of sight to move to a high saliency area is detected using the saliency index, and it is determined whether the saliency index is lower than a predetermined third standard. Here, the third criterion is a value lower than the first criterion. Further, the third criterion is set to a value lower than the probability (0.5) of exceeding the threshold at a random point, for example, to 0.3 seconds. Similar to step ST21, the determination may be made using an index other than the saliency index. In the example of FIG. 12, the other vehicle 161 is stopped in an area where the salience is relatively low. As mentioned above, in attention dysfunction, when the degree of danger exceeds a predetermined standard, the driver's viewpoint tends to become localized. For example, as shown in FIG. 12, an able-bodied person (marked with a circle) may check the road conditions and use mirrors to check for other parked vehicles 161, as well as check the rear or side of the vehicle in order to pass. I'm checking the direction. On the other hand, in the case of patients with attention dysfunction, although their attention is directed toward the other vehicle 161, their gaze is more focused on the other vehicle than necessary, and their surroundings are not sufficiently checked. . In a situation like the triangle mark in FIG. 12, the saliency index has a relatively low value, and as a result, the saliency index may have a value lower than the predetermined third standard. Here, it is assumed that in the situation indicated by the triangle mark in FIG. 12, the saliency index becomes lower than a predetermined third standard. If it is determined in step ST32 that the tendency of the driver to view the high salience region is lower than a predetermined third standard (for example, see AR2 in FIG. 21), that is, if the determination is YES, the flow proceeds to step ST33.

(ステップST33)
ステップST33では、異常検出部303は、運転者のサッケードの振幅dsが所定の第4基準より小さいかどうかを判定する。運転者のサッケードの振幅dsを見ることにより、運転者の視点が局所(例えば、危険が想定される場所)にとらわれているかどうかを確認することができる。所定の第4基準は、任意に設定することができ、特に限定されない。例えば、所定の第4基準として、本願発明者らのようにドライブシミュレータ等を用いた実証実験を行い、健常者と注意機能障害患者との間の境界を第4基準としてもよい。ステップST33で運転者のサッケードの振幅dsが所定の第4基準より小さいと判定された場合、すなわちYES判定の場合、フローはステップST34に進む。
(Step ST33)
In step ST33, the abnormality detection unit 303 determines whether the amplitude ds of the driver's saccade is smaller than a predetermined fourth reference. By looking at the amplitude ds of the driver's saccades, it can be confirmed whether the driver's viewpoint is localized (eg, a place where danger is assumed). The predetermined fourth criterion can be set arbitrarily and is not particularly limited. For example, as the predetermined fourth criterion, a demonstration experiment using a driving simulator or the like may be conducted as the inventors of the present invention, and the boundary between a healthy person and an attention dysfunction patient may be set as the fourth criterion. If it is determined in step ST33 that the amplitude ds of the driver's saccade is smaller than the fourth predetermined standard, that is, if the determination is YES, the flow advances to step ST34.

(ステップST34)
ステップST34では、制御部30は、ステップS22と同様に、運転者の異常に対応する制御を行う。なお、ステップST34とステップST22とで同じ制御を行うようにしてよいし、互いに異なる制御をするようにしてもよい。また、例えば、制御部30が、ステップST21とステップST33の両方の結果を基づいた制御を行うようにしてもよい。例えば、ステップST21とステップST33のいずれか一方がYES判定の場合には運転者への問いかけや注意喚起などのアクチュエーションを実施し、ステップST21とステップST33の両方ともにYES判定の場合には直ちに自動運転に切り替えるというような動作を設定してもよい。
(Step ST34)
In step ST34, the control unit 30 performs control corresponding to the abnormality of the driver, similarly to step S22. Note that the same control may be performed in step ST34 and step ST22, or different control may be performed in step ST34 and step ST22. Further, for example, the control unit 30 may perform control based on the results of both step ST21 and step ST33. For example, if either step ST21 or step ST33 is determined to be YES, actuation such as asking the driver or alerting the driver is performed, and if both step ST21 and step ST33 are determined to be YES, the actuation is automatically performed immediately. An operation such as switching to driving may be set.

以上のように、本実施形態によると、できるだけ精度よく運転者の異常を検出し、車両が運転者の異常に対応する動作をすることができる。具体的には、例えば、危険度が高まったことにより、運転者が異常状態であるにもかかわらず、サリエンシーが相対的に低い危険個所を見ているような場合においても、未判定状態となることを低減することができる。 As described above, according to the present embodiment, the abnormality of the driver can be detected as accurately as possible, and the vehicle can perform an operation corresponding to the abnormality of the driver. Specifically, for example, even if the driver is in an abnormal state due to an increased degree of danger and is looking at a dangerous location with relatively low salience, the state will be in an undetermined state. This can be reduced.

なお、上記実施形態において、危険度と注視点のサリエンシーとの相関を用いて運転者の異常判定をするようにしてもよい。具体的に、運転者の異常時には、危険な状況や場所に対する気づきが正常状態の場合と比較して低下する傾向があるため、危険度と注視点のサリエンシーとの相関が低下する傾向にある。そこで、危険度と注視点のサリエンシーとの相関の度合いを基準とすることで、運転者の異常判定の精度を高めることができる。 Note that in the above embodiment, the abnormality of the driver may be determined using the correlation between the degree of risk and the saliency of the gaze point. Specifically, when a driver is in an abnormal situation, their awareness of dangerous situations and places tends to be lower than when the driver is in a normal state, so the correlation between the degree of danger and the saliency of the gaze point tends to decrease. Therefore, by using the degree of correlation between the degree of risk and the saliency of the gaze point as a standard, it is possible to improve the accuracy of the driver's abnormality determination.

また、上記の実施形態において、ステップST31からステップST33の処理に代えて、または、加えて、ステップST21において、危険度が所定の第2基準よりも低い場合、危険度の増加に応じて第1基準を低下させるようにしてもよい。この場合における危険度も、例えば、リスクポテンシャルを用いてスコア化することができる。 In the above embodiment, instead of or in addition to the processes from step ST31 to step ST33, in step ST21, if the degree of risk is lower than the predetermined second standard, the first standard is The standard may be lowered. The degree of risk in this case can also be scored using, for example, risk potential.

また、上記の実施形態において、ステップST31からステップST33の処理に代えて、または、加えて、ステップST21において、危険度(リスクポテンシャル)が増加傾向にある場合にサリエンシー指標の判定閾値を第2基準から下げるようにし、危険度(リスクポテンシャル)が減少傾向にある場合にサリエンシー指標の判定閾値を上げるようにしてもよい。これにより、例えば、危険度が高まったことにより、運転者が異常状態であるにもかかわらず、サリエンシーが相対的に低い危険個所を見ているような場合においても、未判定状態となることを低減することができる。 In the above embodiment, instead of or in addition to the processes from step ST31 to step ST33, in step ST21, when the degree of risk (risk potential) is increasing, the determination threshold of the saliency index is set to the second standard. The determination threshold value of the saliency index may be raised when the degree of risk (risk potential) is on a decreasing trend. As a result, even if, for example, the driver is in an abnormal state due to an increase in the degree of danger, he or she is looking at a dangerous location with relatively low salience, the situation will not be determined. can be reduced.

また、上記の実施形態において、第1から第4の基準(以下、単に所定の基準という)を用い、それらよりも高いか低いかを判定するようにしているが、本判定には様々な方法を適用することができる。例えば、基準を超えている期間を判定要素に加えてもよいし、所定期間の平均値や加重平均値と所定の基準とを比較するようにしてもよい。また、所定の基準に関し、その基準を超えているまたは下回っている期間の概念を運転者の異常判定の基準に加えてもよい。また、所定の基準に関し、その基準を超えているまたは下回っている期間と大きさとで形成される領域の面積の概念を運転者の異常判定の基準に加えてもよい。 Furthermore, in the above embodiment, the first to fourth criteria (hereinafter simply referred to as predetermined criteria) are used to determine whether the criteria are higher or lower than these, but various methods can be used for this determination. can be applied. For example, a period exceeding the standard may be added to the determination factor, or an average value or a weighted average value for a predetermined period may be compared with a predetermined standard. Furthermore, regarding a predetermined standard, the concept of a period in which the vehicle exceeds or falls short of the standard may be added to the standard for driver abnormality determination. Furthermore, regarding a predetermined standard, the concept of the area of a region formed by the period and size of exceeding or falling below the standard may be added to the standard for abnormality determination by the driver.

ここに開示された技術は、自動車に搭載される運転者状態判定装置として有用である。 The technology disclosed herein is useful as a driver condition determination device installed in a vehicle.

21a 前カメラ(車外情報取得手段)
30 制御部(車両制御部)
302 注視点検出部
21a Front camera (external information acquisition means)
30 Control unit (vehicle control unit)
302 Gaze point detection unit

Claims (4)

車両に設けられる車両制御装置であって、
前記車両の運転者の注視点を検出する注視点検出部と、
前記車両前側の環境情報を取得する車外情報取得手段から車外環境情報を受信し、前記注視点検出部で検出された運転者の注視点が、前記車外環境情報に基づいて生成されるサリエーションマップにおいて周囲に対して相対的に顕著性を有するサリエンシーの高い領域に誘目される度合いである誘目度が所定の第1基準よりも高いときに、運転者の異常に対応する動作を行う車両制御部とを備え、
前記車両制御部は、前記車外環境情報に基づいて推定される危険度が所定の第2基準よりも高くかつ前記注視点のサリエンシーが前記第1基準よりも低い第3基準以下の場合において、前記注視点に基づくサッケードの振幅が所定の第4基準より小さいときにも前記運転者の異常に対応する動作を行う
ことを特徴とする車両制御装置。
A vehicle control device installed in a vehicle,
a gaze point detection unit that detects a gaze point of the driver of the vehicle;
A saliation map in which external environment information is received from an external information acquisition unit that acquires environmental information on the front side of the vehicle, and a driver's gaze point detected by the gaze point detection unit is generated based on the vehicle exterior environment information. A vehicle control unit that performs an operation in response to a driver's abnormality when an eye attraction degree, which is a degree of eye attraction that is a degree of eye attraction to a region with high salience that is relatively salient to the surroundings, is higher than a predetermined first standard. and
When the degree of risk estimated based on the vehicle external environment information is higher than a predetermined second standard and the saliency of the gaze point is equal to or lower than a third standard, which is lower than the first standard, the vehicle control unit A vehicle control device that performs an operation corresponding to an abnormality of the driver even when the amplitude of a saccade based on a gaze point is smaller than a fourth predetermined reference.
請求項1に記載の車両制御装置において、
前記車外環境情報に基づいて推定される危険度が前記第2基準よりも高い場合、前記危険度の増加に応じて前記第1基準を低下させる
ことを特徴とする車両制御装置。
The vehicle control device according to claim 1,
A vehicle control device characterized in that, when the degree of risk estimated based on the environment information outside the vehicle is higher than the second standard, the first standard is lowered in accordance with the increase in the degree of risk.
請求項1に記載の車両制御装置において、
自動運転の経路生成のために車外環境を認識する外部環境認識部を備え、
前記車両制御部は、前記外部環境認識部の認識結果を基に、前記危険度を推定する
ことを特徴とする車両制御装置。
The vehicle control device according to claim 1,
Equipped with an external environment recognition unit that recognizes the environment outside the vehicle to generate routes for autonomous driving.
The vehicle control device is characterized in that the vehicle control unit estimates the degree of risk based on the recognition result of the external environment recognition unit.
車両制御装置が実行する運転者の状態を判定する運転者状態判定方法であって、
車両の運転者の注視点、及び、該注視点の動きに基づくサッケード振幅を検出する検出ステップと、
前記車両前側の環境情報を取得する車外情報取得手段から受信した車外環境情報を基づいて生成されたサリエーションマップにおいて周囲に対して相対的に顕著性を有するサリエンシーの高い領域を抽出する抽出ステップと、
前記車外情報取得手段から受信した車外環境情報を基にして走行シーンの危険度を推定する推定ステップと、
前記検出ステップで検出された運転者の注視点が、前記抽出ステップで抽出されたサリエンシーの高い領域に誘目される度合いである誘目度が所定の第1基準よりも高いときに、運転者に異常がある判定する判定ステップとを備え、
前記判定ステップは、前記推定ステップで推定された危険度が所定の第2基準よりも高くかつ前記運転者の注視点がサリエンシーの高い領域に誘目される度合いである誘目度が前記第1基準よりも低い所定の第3基準より小さい場合において、前記注視点に基づくサッケードの振幅が所定の第4基準より小さいときにも運転者の異常と判定する
ことを特徴とする運転者状態判定方法。
A driver condition determination method for determining a driver condition executed by a vehicle control device, the method comprising:
a detection step of detecting a gaze point of a vehicle driver and a saccade amplitude based on the movement of the gaze point;
an extraction step of extracting a region with high salience that is relatively salient with respect to the surroundings in a salience map generated based on vehicle exterior environment information received from the vehicle exterior information acquisition means that acquires environment information on the front side of the vehicle; ,
an estimation step of estimating the degree of danger of the driving scene based on the vehicle exterior environment information received from the vehicle exterior information acquisition means;
When the driver's gaze point detected in the detection step has a degree of attraction, which is the degree to which the driver's gaze point is attracted to the region of high salience extracted in the extraction step, which is higher than a predetermined first standard, the driver is detected to be abnormal. a determination step for determining that there is a
In the determining step, the degree of risk estimated in the estimating step is higher than a predetermined second standard, and the degree of attraction, which is the degree to which the driver's gaze point is attracted to an area with high salience, is higher than the first standard. A method for determining a driver's condition, characterized in that the driver is determined to be abnormal even when the amplitude of a saccade based on the gaze point is smaller than a fourth predetermined criterion when the amplitude of the saccade based on the gaze point is smaller than a predetermined fourth criterion.
JP2019203792A 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method Active JP7415460B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019203792A JP7415460B2 (en) 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203792A JP7415460B2 (en) 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method

Publications (2)

Publication Number Publication Date
JP2021077141A JP2021077141A (en) 2021-05-20
JP7415460B2 true JP7415460B2 (en) 2024-01-17

Family

ID=75898037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203792A Active JP7415460B2 (en) 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method

Country Status (1)

Country Link
JP (1) JP7415460B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068917A (en) 2005-09-09 2007-03-22 Nissan Motor Co Ltd Visibility situation judgment apparatus, automobile, and visibility situation judgment method
JP5718493B1 (en) 2014-01-16 2015-05-13 日本電信電話株式会社 Sound saliency estimating apparatus, method and program thereof
WO2017195405A1 (en) 2016-05-11 2017-11-16 ソニー株式会社 Image processing apparatus, image processing method, and mobile body

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068917A (en) 2005-09-09 2007-03-22 Nissan Motor Co Ltd Visibility situation judgment apparatus, automobile, and visibility situation judgment method
JP5718493B1 (en) 2014-01-16 2015-05-13 日本電信電話株式会社 Sound saliency estimating apparatus, method and program thereof
WO2017195405A1 (en) 2016-05-11 2017-11-16 ソニー株式会社 Image processing apparatus, image processing method, and mobile body

Also Published As

Publication number Publication date
JP2021077141A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
JP7332726B2 (en) Detecting Driver Attention Using Heatmaps
KR102533860B1 (en) Image processing device and image processing method
JP4872245B2 (en) Pedestrian recognition device
JP7342638B2 (en) Driver status detection device
CN108604413B (en) Display device control method and display device
JP7459634B2 (en) Driver Abnormality Judgment System
JP6891926B2 (en) Vehicle systems, methods performed on vehicle systems, and driver assistance systems
EP3868622B1 (en) Driver state estimation device and movable body
EP3868621B1 (en) Driver state estimation device and movable body
JP7342637B2 (en) Vehicle control device and driver condition determination method
JP7342636B2 (en) Vehicle control device and driver condition determination method
JP7459633B2 (en) Driver abnormality determination device
JP7415460B2 (en) Vehicle control device and driver condition determination method
JP7415459B2 (en) Vehicle control device and driver condition determination method
JP2021167163A (en) Driver abnormality determination device
JP7318560B2 (en) state estimator
JP7298509B2 (en) state estimator
JP7298510B2 (en) state estimator
JP7276083B2 (en) Driver state estimation device
JP7342635B2 (en) Driver state estimation device and driver state estimation method
JP7322667B2 (en) Driver state estimation device
JP2023022410A (en) Driver state determination method and driver state determination system
JP2023022409A (en) Driver state determination method and driver state determination system
CN113044060A (en) Driving consciousness estimating device
JP2021133753A (en) State presumption device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7415460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150