JP2021077140A - Vehicle control device and driver state determination method - Google Patents

Vehicle control device and driver state determination method Download PDF

Info

Publication number
JP2021077140A
JP2021077140A JP2019203790A JP2019203790A JP2021077140A JP 2021077140 A JP2021077140 A JP 2021077140A JP 2019203790 A JP2019203790 A JP 2019203790A JP 2019203790 A JP2019203790 A JP 2019203790A JP 2021077140 A JP2021077140 A JP 2021077140A
Authority
JP
Japan
Prior art keywords
driver
vehicle
salience
gaze point
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019203790A
Other languages
Japanese (ja)
Other versions
JP7415459B2 (en
Inventor
耕二 岩瀬
Koji Iwase
耕二 岩瀬
雅之 渡邊
Masayuki Watanabe
雅之 渡邊
陽子 星野
Yoko Hoshino
陽子 星野
亜希子 福井
Akiko Fukui
亜希子 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2019203790A priority Critical patent/JP7415459B2/en
Publication of JP2021077140A publication Critical patent/JP2021077140A/en
Application granted granted Critical
Publication of JP7415459B2 publication Critical patent/JP7415459B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Abstract

To provide a vehicle control device and a driver state determination method that more appropriately respond to an abnormality of a driver.SOLUTION: In a vehicle control system, a driver state detection unit 300 of a vehicle control unit includes: a gazing point detection unit 302 that detects a gazing point of a driver of a vehicle; and a control unit that receives image data from a front camera 21a for acquiring environmental information on a vehicle front side, and takes an action responding to an abnormality of the driver when the tendency in which the gazing point of the driver detected by the gazing point detection unit 302 is directed to a high saliency region is higher than a given second reference, in the case where the degree of correlation between extent of the high saliency region based on the image data and amplitude of a saccade of the driver detected by the gazing point detection unit 302 is higher than a predetermined first reference.SELECTED DRAWING: Figure 4

Description

ここに開示する技術は、例えば車両制御装置及び自動車を運転する運転者の状態を判定する運転者状態判定方法に関する。 The technique disclosed herein relates to, for example, a vehicle control device and a driver state determination method for determining the state of a driver who drives a vehicle.

昨今、国家的に自動運転システムの開発が推進されている。本願出願人は、現時点において、自動運転システムには、大きく分けると2つの方向性があると考えている。 Recently, the development of autonomous driving systems is being promoted nationally. At present, the applicant of the present application considers that the autonomous driving system has two main directions.

第1の方向性は、自動車が主体となって運転者の操作を要することなく乗員を目的地まで運ぶシステムであり、いわゆる自動車の完全自動走行である。第2の方向性は、「自動車の運転が楽しめる環境を提供する」というように、あくまで人間が運転をすることを前提とした自動運転システムである。 The first direction is a system in which the automobile takes the lead in transporting the occupants to the destination without requiring the driver's operation, which is the so-called fully automatic driving of the automobile. The second direction is an automatic driving system that is premised on human driving, such as "providing an environment where people can enjoy driving a car."

第2の方向性の自動運転システムでは、例えば、運転者に疾患等が発生し正常な運転が困難な状況が発生した場合等に、自動的に、自動車が乗員に変わって自動運転を行うことが想定される。このため、運転者に異常が発生したこと、特に、運転者に機能障害や疾患が発生したことをいかに早期にかつ精度良く発見できるかが、運転者の救命率の向上や周囲を含めた安全を確保する観点から極めて重要となる。 In the second directional automatic driving system, for example, when a driver has a disease or the like and a situation occurs in which normal driving is difficult, the automobile automatically changes to the occupant and automatically drives. Is assumed. For this reason, how quickly and accurately it is possible to detect the occurrence of an abnormality in the driver, especially the occurrence of a dysfunction or disease in the driver, is the improvement of the lifesaving rate of the driver and the safety including the surroundings. It is extremely important from the viewpoint of ensuring.

運転者の異常を判定する方法として、例えば、特許文献1には、車両の前方画像をマッピングし、マッピングされた前方画像の画素値に基づいて目立ち度マップ(サリエンシーマップ)を生成するとともに、ドライバの視線先の目立ち度を計算し、ドライバが目立つ部分に視線を向けた度合いと予め定めた閾値とを比較して、ドライバが漫然状態か否かを判定する技術が開示されている。 As a method of determining a driver's abnormality, for example, in Patent Document 1, a front image of a vehicle is mapped, a conspicuity map (saliency map) is generated based on the pixel value of the mapped front image, and a conspicuity map (saliency map) is generated. A technique has been disclosed in which the degree of conspicuity of the driver's line of sight is calculated, and the degree to which the driver directs the line of sight to the conspicuous part is compared with a predetermined threshold value to determine whether or not the driver is in a vague state.

特許文献1の技術は、ドライバが漫然状態にある場合には、意図的な注意機能が働かなくなるため、例えば、死角領域からの歩行者の飛び出しが起こり得るような危険な場所に視線が行かなくなり、視覚的な刺激の目立つ部分に視線が向けられるという視線配分特性に基づいた判定となっている。 In the technique of Patent Document 1, when the driver is in a loose state, the intentional attention function does not work, so that the line of sight does not go to a dangerous place where, for example, a pedestrian may jump out from the blind spot area. , The judgment is based on the line-of-sight distribution characteristic that the line of sight is directed to the part where the visual stimulus is conspicuous.

特許第5966640号公報Japanese Patent No. 5966640

発明者らは、機能障害者と健常者とによりドライビングシミュレータで視線検出を行った結果、機能障害者でもサリエンシーが高い領域に誘目されない場合や健常者でもサリエンシーが高い領域に誘目される場合が多数生じることが分かった。 As a result of line-of-sight detection by a dysfunctional person and a healthy person with a driving simulator, the inventors often do not attract the dysfunctional person to the area with high salience, or even the healthy person is attracted to the area with high salience. It turned out to occur.

例えば、サリエンシーが高い領域が、同時に運転中に見るべき注意箇所である場合に、健常者であってもサリエンシーが高い領域に視線が向かい、結果として、疾患発生と誤判定される場合がある。 For example, when a region with high salience is a point of caution that should be seen while driving at the same time, even a healthy person may look toward the region with high salience, and as a result, it may be erroneously determined that a disease has occurred.

ここに開示された技術は、斯かる点に鑑みてなされたものであり、サリエンシーに対する誘目傾向から運転者の状態判定をする運転者状態判定装置において、車両の走行環境にかかわらずにできるだけ精度よく運転者の異常を検出できるようにすることにある。 The technology disclosed here has been made in view of these points, and is as accurate as possible in a driver condition determination device that determines a driver's condition based on a tendency to attract salience, regardless of the driving environment of the vehicle. The purpose is to be able to detect anomalies in the driver.

前記課題を解決するために、ここに開示された技術では、車両に搭載される車両制御装置を対象として、前記車両の運転者の注視点を検出する注視点検出部と、前記車両前側の環境情報を取得する車外情報取得手段から車外環境情報を受信し、該車外環境情報に基づいた高サリエンシー領域の広がりと前記注視点検出部で検出された前記運転者のサッケードの振幅との間の相関度が所定の第1基準よりも高い場合において、前記注視点検出部で検出された運転者の注視点がサリエンシーの高い領域を見る傾向が所定の第2基準よりも高いときに、運転者の異常に対応する動作を行う車両制御部とを備える、構成とした。 In order to solve the above-mentioned problems, in the technique disclosed here, a gaze point detecting unit for detecting a gaze point of the driver of the vehicle and an environment on the front side of the vehicle are targeted for a vehicle control device mounted on the vehicle. Correlation between the spread of the high salience region based on the outside environment information and the amplitude of the sack of the driver detected by the gaze detection unit after receiving the outside environment information from the outside information acquisition means for acquiring the information. When the degree is higher than the predetermined first criterion, the driver's gaze point detected by the gaze point detection unit is more likely to see a region with high salience than the predetermined second criterion. The configuration is provided with a vehicle control unit that operates in response to an abnormality.

ここで、サリエンシーとは、色、輝度、動き等により刻々と変化する顕著性からなる視覚特徴量である。高サリエンシー領域とは、運転者の視界領域のうちでサリエンシーが高い(顕著性が高い)領域を指すものとし、換言すると、周囲に対して目立つ領域を指すものとする。より具体的には、高サリエンシー領域は、例えば、周囲の領域に対して色差や輝度差が大きかったり、周囲に対して大きな動きをしていたりする領域を指すものとする。 Here, salience is a visual feature amount consisting of remarkableness that changes from moment to moment depending on color, brightness, movement, and the like. The high salience region refers to a region having high salience (high prominence) in the driver's field of vision, in other words, a region that stands out with respect to the surroundings. More specifically, the high salience region refers to, for example, a region in which a color difference or a luminance difference is large with respect to a surrounding region or a large movement is made with respect to the surrounding region.

また、サッケードとは、運転者が意図的に視線を移動させる跳躍性眼球運動のことであり、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。サッケードの振幅とは、運転者の視線が所定時間停滞する注視点から次の注視点への移動した場合における移動量のことを指す。 Further, the saccade is a jumping eye movement in which the driver intentionally moves the line of sight, and is an eye movement in which the line of sight is moved from a gaze point where the line of sight is stagnant for a predetermined time to the next gaze point. The amplitude of the saccade refers to the amount of movement when the driver's line of sight moves from the gaze point where the driver's line of sight is stagnant for a predetermined time to the next gaze point.

この構成によると、高サリエンシー領域の広がりと運転者のサッケードの振幅との間の相関度を見ることにより、運転者の視点が高サリエンシー領域に誘引されている傾向を抽出することができる。この運転者の視点が高サリエンシー領域に誘引されている傾向と、運転者の注視点がサリエンシーの高い領域を見る傾向とを組み合わせることで、運転者の異常対応をより適切に行うことができる。 According to this configuration, by looking at the degree of correlation between the extent of the high salience region and the amplitude of the driver's saccade, it is possible to extract the tendency that the driver's viewpoint is attracted to the high salience region. By combining the tendency of the driver's viewpoint to be attracted to the high-salience area and the tendency of the driver's gaze to see the high-salience area, it is possible to more appropriately deal with the driver's abnormality.

前記車両制御装置の一実施形態として、前記高サリエンシー領域の広がりに応じて前記第2基準を変更する、としてもよい。 As one embodiment of the vehicle control device, the second criterion may be changed according to the expansion of the high salience region.

サリエンシー領域の広がりが大きい場合には、高サリエンシー領域も多くなるため、健常者であっても高サリエンシー領域を見る確率は高くなることが想定される。そこで、高サリエンシー領域の広がりに応じて第2基準を変更することにより、運転者の異常判定の誤判定を低減することができる。 When the extent of the salience region is large, the high salience region also increases, so it is expected that even a healthy person will have a high probability of seeing the high salience region. Therefore, by changing the second criterion according to the expansion of the high salience region, it is possible to reduce the erroneous determination of the driver's abnormality determination.

前記課題を解決するために、ここに開示された技術では、車両の運転者の状態を判定する運転者状態判定方法を対象として、前記車両の運転者の注視点、及び、該注視点の動きに基づくサッケード振幅を検出する注視点検出ステップと、前記車両前側の環境情報を取得する車外情報取得手段から受信した車外環境情報を基にしてサリエンシーマップを生成するマップ生成ステップと、前記マップ生成ステップで生成されたサリエンシーマップの高サリエンシー領域の広がりと前記注視点検出ステップで検出された前記運転者のサッケード振幅の大きさとの間に相関がある場合において、前記注視点検出部で検出された運転者の注視点が前記高サリエンシー領域を見る傾向が所定の基準値よりも高いときに、運転者に異常があると判定する判定ステップとを備える。 In order to solve the above-mentioned problems, in the technique disclosed here, the gaze point of the driver of the vehicle and the movement of the gaze point are targeted at the driver state determination method for determining the state of the driver of the vehicle. A gaze point detection step for detecting the sackde amplitude based on the above, a map generation step for generating a salency map based on the outside environment information received from the outside information acquisition means for acquiring the environment information on the front side of the vehicle, and the map generation. When there is a correlation between the extent of the high salency region of the salency map generated in the step and the magnitude of the sacked amplitude of the driver detected in the gazing point detection step, it is detected by the gazing point detection unit. It is provided with a determination step of determining that the driver has an abnormality when the driver's gaze point is higher than a predetermined reference value in the tendency to see the high amplitude region.

この方法によると、高サリエンシー領域の広がりと運転者のサッケードの振幅との間の相関度を見ることにより、運転者の視点が高サリエンシー領域に誘引されている傾向を抽出することができる。この運転者の視点が高サリエンシー領域に誘引されている傾向と、運転者の注視点がサリエンシーの高い領域を見る傾向とを組み合わせることで、運転者の異常判定の精度を高めることができる。 According to this method, by observing the degree of correlation between the extent of the high salience region and the amplitude of the driver's saccade, it is possible to extract the tendency that the driver's viewpoint is attracted to the high salience region. By combining the tendency of the driver's viewpoint to be attracted to the high salience region and the tendency of the driver's gaze to see the region of high salience, the accuracy of the driver's abnormality determination can be improved.

以上説明したように、ここに開示された技術によると、運転者の異常対応をより適切に行うことができる。 As described above, according to the technology disclosed here, it is possible to more appropriately deal with abnormalities of the driver.

例示的な実施形態に係る運転者状態推定装置を搭載した車両の車室内を前側部分を示す概略図である。It is the schematic which shows the front side part in the vehicle interior of the vehicle equipped with the driver state estimation device which concerns on an exemplary embodiment. 車両を前側から見た正面図である。It is a front view which looked at the vehicle from the front side. 例示的な実施形態に係る車両制御システムの構成を例示するブロック図である。It is a block diagram which illustrates the structure of the vehicle control system which concerns on an exemplary embodiment. 運転者状態検出部の構成を例示するブロック図である。It is a block diagram which illustrates the structure of the driver state detection part. 前カメラにより撮影された車両前側の外部環境画像の一例を示す図である。It is a figure which shows an example of the external environment image of the front side of a vehicle taken by a front camera. 図5の外部環境画像を基にした合成画像の一例を示す図である。It is a figure which shows an example of the composite image based on the external environment image of FIG. 図6の合成画像のサリエンシーマップの一例を示す図である。It is a figure which shows an example of the saliency map of the composite image of FIG. 図5の例において健常者及び注意機能障害患者による視線移動の一例を示すグラフである。It is a graph which shows an example of the line-of-sight movement by a healthy person and a patient with attention dysfunction in the example of FIG. 前カメラにより撮影された車両前側の外部環境画像を基にした合成画像の他の例を示す図である。It is a figure which shows another example of the composite image based on the external environment image of the front side of a vehicle taken by the front camera. 図9の合成画像のサリエンシーマップの一例を示す図である。It is a figure which shows an example of the saliency map of the composite image of FIG. 図10の例において健常者及び注意機能障害患者による視線移動の一例を示すグラフである。It is a graph which shows an example of the line-of-sight movement by a healthy person and a patient with attention dysfunction in the example of FIG. サッケードの抽出について説明するためのグラフである。It is a graph for demonstrating the extraction of a saccade. サッケードのノイズ除去処理について説明するためのグラフである。It is a graph for demonstrating the noise removal processing of a saccade. 運転者のサリエンシーの広がりとサッケード振幅との関係を模式的に示した概念図である。It is a conceptual diagram which schematically shows the relationship between the spread of the driver's salience and the saccade amplitude. 運転者の注視点のサリエンシーの時間変化の一例を示した図である。It is a figure which showed an example of the time change of the salience of the driver's gaze point. 図15と同じ環境でランダムに座標を指定した場合におけるサリエンシーの時間変化の一例を示した図である。It is a figure which showed an example of the time change of salience when the coordinates are randomly specified in the same environment as FIG. ランダム点における閾値を超える割合と運転者の注視点における閾値を超える割合とを比較したグラフである。It is a graph comparing the ratio exceeding the threshold value at a random point and the ratio exceeding the threshold value at the driver's gaze point. サリエンシー指標について説明するための図である。It is a figure for demonstrating the salience index. 車両制御装置の動作を例示するフローチャートである。It is a flowchart which illustrates the operation of a vehicle control device. 健常者のサリエンシー指標の時間分布の一例を示した図である。It is a figure which showed an example of the time distribution of the salience index of a healthy person. 注意機能患者のサリエンシー指標の時間分布の一例を示した図である。It is a figure which showed an example of the time distribution of the salience index of the attention function patient.

<本願発明者らにより得られた知見>
特許文献1にも示されているように、運転者のサリエンシーに対する視線移動の変化を見て、運転者の異常(注意機能低下を引き起こす異常)を検出する技術が知られている。この技術では、例えば、サリエンシーが高い領域(高サリエンシー領域)への視線移動が所定の閾値を超える場合に運転者の異常を検出する。
<Knowledge obtained by the inventors of the present application>
As shown in Patent Document 1, there is known a technique for detecting an abnormality (an abnormality causing a decrease in attention function) of a driver by observing a change in the movement of the line of sight with respect to the salience of the driver. In this technique, for example, when the movement of the line of sight to a region with high salience (high salience region) exceeds a predetermined threshold value, an abnormality of the driver is detected.

本願発明者らは、鋭意研究の結果、注意機能障害者の車両運転時の挙動を観測することにより、車両の運転者の異常時(注意機能低下を引き起こす異常時)の挙動を擬似的に観測することができることを見出した。そして、本願発明者らは、上記の観測結果を基に、高サリエンシー領域への視線移動が所定の閾値を超える場合に運転者の異常を検出するという手法について検証を行った。具多的には、注意機能障害者の車両運転時の挙動と、注意機能障害を有さない健常者の車両運転時の挙動とについて、後述するサリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の閾値を超える場合に運転者の異常を検出するという手法についての検証を行った。 As a result of diligent research, the inventors of the present application observe the behavior of a person with attention dysfunction when driving a vehicle, thereby simulating the behavior of the driver of the vehicle at an abnormal time (an abnormal time causing a decrease in attention function). I found that I could do it. Then, based on the above observation results, the inventors of the present application have verified a method of detecting an abnormality of the driver when the movement of the line of sight to the high salience region exceeds a predetermined threshold value. More specifically, the behavior of a person with attention dysfunction when driving a vehicle and the behavior of a healthy person without attention dysfunction when driving a vehicle are moved to a high salience region by using the salience index described later. We verified the method of detecting the tendency of the driver and detecting the driver's abnormality when the salience index exceeds a predetermined threshold.

この検証の結果、本願発明者らは、機能障害者でもサリエンシーが高い領域に誘目されない場合や健常者でもサリエンシーが高い領域に誘目される場合が多数生じることが分かった。例えば、サリエンシーが高い領域が、同時に運転中に見るべき注意箇所である場合に、健常者であってもサリエンシーが高い領域に視線が向かい、結果として、疾患発生と誤判定される場合があることが分かった。 As a result of this verification, the inventors of the present application have found that there are many cases in which even dysfunctional persons are not attracted to areas with high salience, and even healthy persons are attracted to areas with high salience. For example, if the area with high salience is a point of caution that should be seen while driving at the same time, even a healthy person may look at the area with high salience, and as a result, it may be erroneously determined that a disease has occurred. I found out.

図20,21は、ドライビングシミュレータを用いて運転者の視線を検出し、サリエンシー指標の時間変化としてプロットしたものである。図20は健常者の測定結果であり、図21は機能障害患者の測定結果である。ただし、走行スピードが互いに異なるので、時間軸と走行場所が必ずしも一致しているわけではない。 FIGS. 20 and 21 show the driver's line of sight detected using a driving simulator and plotted as a time change of the salience index. FIG. 20 is a measurement result of a healthy person, and FIG. 21 is a measurement result of a dysfunctional patient. However, since the traveling speeds are different from each other, the time axis and the traveling place do not always match.

詳細は後述するが、サリエンシー指標とは、高サリエンシー領域への誘目度が高いほど数値が高くなる指標となっている。図20,21の例では、高サリエンシー領域への誘目度が相対的に高いと判断される0.6に閾値を設定し、サリエンシー指標が0.6を超える場合に注意機能の障害があると推定するものとした。 The details will be described later, but the salience index is an index in which the higher the degree of attraction to the high salience region, the higher the numerical value. In the examples of FIGS. 20 and 21, a threshold value is set to 0.6, which is judged to have a relatively high degree of attraction to the high salience region, and when the salience index exceeds 0.6, there is an impairment of attention function. It was supposed to be estimated.

そうすると、健常者でもサリエンシー指標が0.6を超える場面が散見されることが分かった(図20のAR1参照)。例えば、消防車のようにサリエンシーの高い車両を追い抜く際などには、健常者であってもサリエンシーの高い場所に誘目される傾向がある。また、機能障害患者であっても、交差点等の危険度が高い場所において、サリエンシー指標が低い場所でも確認する場合があり、サリエンシー指標が低い領域が確認されている(図21のAR2参照)。 Then, it was found that there were some scenes in which the salience index exceeded 0.6 even in healthy subjects (see AR1 in FIG. 20). For example, when overtaking a vehicle with high salience such as a fire engine, even a healthy person tends to be attracted to a place with high salience. Further, even if the patient has a dysfunction, it may be confirmed even in a place where the salience index is low in a place where the risk is high such as an intersection, and a region where the salience index is low is confirmed (see AR2 in FIG. 21).

そこで、本願発明者らは、さらに鋭意検討を重ね、サリエンシー指標に加えて、サリエンシーの空間的な広がりを見ることで、運転者の異常を検出することができることを見出した。 Therefore, the inventors of the present application have conducted further diligent studies and found that an abnormality of the driver can be detected by observing the spatial spread of salience in addition to the salience index.

具体的には、本願発明者らは、サリエンシー指標を用いて運転者の注視点が高サリエンシー領域に向かう傾向があるかを検知するとともに、サリエンシーの空間的な広がりと運転者の視線分布の広がりとの相関の度合いを検知する。そして、運転者の注視点が高サリエンシー領域に向かう傾向がある場合で、サリエンシーの空間的な広がりと視線分布の広がりの相関の度合いが高い場合に、運転者に異常があると判定することで、運転者の異常検出の精度を高めることができることを見出した。 Specifically, the inventors of the present application use a salience index to detect whether the driver's gaze point tends to move toward a high salience region, and at the same time, the spatial spread of salience and the spread of the driver's line-of-sight distribution. Detects the degree of correlation with. Then, when the driver's gaze tends toward the high salience region and the degree of correlation between the spatial spread of salience and the spread of the line-of-sight distribution is high, it is determined that the driver has an abnormality. , It was found that the accuracy of driver's abnormality detection can be improved.

以下において、例示的な実施形態について、図面を参照しながら具体的に説明する。なお、以下の説明において、車両の前進走行側を単に前側といい、後退走行側を単に後側という。また、後側から前側を見たときの左側を左側といい、その逆を右側という。 Hereinafter, exemplary embodiments will be specifically described with reference to the drawings. In the following description, the forward traveling side of the vehicle is simply referred to as the front side, and the backward traveling side is simply referred to as the rear side. The left side when looking at the front side from the rear side is called the left side, and the opposite is called the right side.

図1は、車両としての自動車の車室内を概略的に示す。この車両は、右ハンドル式の車両であって、右側にステアリングホイール58が配置されている。 FIG. 1 schematically shows the interior of an automobile as a vehicle. This vehicle is a right-hand drive vehicle, and the steering wheel 58 is arranged on the right side.

車室内において、運転席から見て車両前側にはフロントウィンドウガラス51が配置されている。フロントウィンドウガラス51は、車室内側から見て、複数の車両構成部材により区画されている。具体的には、フロントウィンドウガラス51は、左右のフロントピラートリム52と、ルーフトリム53と、インストルメントパネル54とによって区画されている。 In the vehicle interior, the front window glass 51 is arranged on the front side of the vehicle when viewed from the driver's seat. The front window glass 51 is partitioned by a plurality of vehicle components when viewed from the vehicle interior side. Specifically, the front window glass 51 is partitioned by the left and right front pillar trims 52, the roof trim 53, and the instrument panel 54.

左右のフロントピラートリム52は、フロントウィンドウガラス51の車幅方向外側の境界をそれぞれ構成している。各フロントピラートリム52は、各フロントピラーに沿って配置されている。ルーフトリム53は、フロントウィンドウガラス51の上側の境界を構成している。ルーフトリム53は、車両のルーフパネルの車室内側を覆っている。フロントウィンドウガラス51の車幅方向の中央でかつルーフトリム53のやや下側の部分には、バックミラー55が取り付けられている。ルーフトリム53におけるバックミラー55の近傍部分には、車室内、特に、運転者の顔面を撮影する車内カメラ28(図3参照)が設けられている。車内カメラ28については後で詳しく説明する。インストルメントパネル54は、フロントウィンドウガラス51の下側の境界を構成している。インストルメントパネル54には、メーターボックスやディスプレイ57が設けられている。 The left and right front pillar trims 52 form boundaries on the outer side of the front window glass 51 in the vehicle width direction. Each front pillar trim 52 is arranged along each front pillar. The roof trim 53 constitutes the upper boundary of the front window glass 51. The roof trim 53 covers the vehicle interior side of the roof panel of the vehicle. A rear-view mirror 55 is attached to the center of the front window glass 51 in the vehicle width direction and slightly below the roof trim 53. In the vicinity of the rear-view mirror 55 in the roof trim 53, an in-vehicle camera 28 (see FIG. 3) for photographing the vehicle interior, particularly the driver's face, is provided. The in-vehicle camera 28 will be described in detail later. The instrument panel 54 constitutes the lower boundary of the front window glass 51. The instrument panel 54 is provided with a meter box and a display 57.

また、車両は、左右のフロントピラーよりも車幅方向外側に、サイドミラー56をそれぞれ有している。各サイドミラー56は、運転席に着座した運転手がサイドドアのウィンドウ越しに見ることが出来るように配置されている。 Further, the vehicle has side mirrors 56 on the outer side in the vehicle width direction with respect to the left and right front pillars. Each side mirror 56 is arranged so that the driver seated in the driver's seat can see through the window of the side door.

図2に示すように、車両には、車両前側の外部環境を撮影するためのカメラ(以下、前カメラ21aという)が設けられている。前カメラ21aは、車両の前側端部であって、車両のボンネット59よりもやや下側に配置されている。前カメラ21aは、車両前側の環境情報を取得する車外情報取得手段の一例である。 As shown in FIG. 2, the vehicle is provided with a camera (hereinafter, referred to as a front camera 21a) for photographing the external environment on the front side of the vehicle. The front camera 21a is a front end portion of the vehicle and is arranged slightly below the bonnet 59 of the vehicle. The front camera 21a is an example of an out-of-vehicle information acquisition means for acquiring environmental information on the front side of the vehicle.

<車両制御システム>
図3は、実施形態による車両制御システム10の構成を例示する。車両制御システム10は、車両(具体的には自動四輪車)に設けられる。車両は、マニュアル運転と、アシスト運転と、自動運転とに切り換え可能である。マニュアル運転は、運転者の操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、運転者の操作を支援して走行する運転である。自動運転は、運転者の操作なしに走行する運転である。車両制御システム10は、アシスト運転および自動運転において、車両を制御する。具体的には、車両制御システム10は、車両に設けられたアクチュエータ11を制御することで車両の動作(特に走行)を制御する。
<Vehicle control system>
FIG. 3 illustrates the configuration of the vehicle control system 10 according to the embodiment. The vehicle control system 10 is provided in a vehicle (specifically, a four-wheeled vehicle). The vehicle can be switched between manual driving, assisted driving, and automatic driving. Manual driving is driving in which the vehicle travels in response to a driver's operation (for example, accelerator operation). Assisted driving is driving that assists the driver's operation. Autonomous driving is driving that runs without the operation of the driver. The vehicle control system 10 controls the vehicle in assisted driving and automatic driving. Specifically, the vehicle control system 10 controls the operation (particularly traveling) of the vehicle by controlling the actuator 11 provided in the vehicle.

車両制御システム10は、情報取得部20と、制御部30と、通知部40とを備える。なお、以下の説明では、車両制御システム10が設けられている車両を「自車両」と記載し、自車両の周囲に存在する他の車両を「他車両」と記載する。 The vehicle control system 10 includes an information acquisition unit 20, a control unit 30, and a notification unit 40. In the following description, the vehicle provided with the vehicle control system 10 will be referred to as "own vehicle", and other vehicles existing around the own vehicle will be referred to as "other vehicle".

−アクチュエータ−
アクチュエータ11は、駆動系のアクチュエータ、操舵系のアクチュエータ、制動系のアクチュエータなどを含む。駆動系のアクチュエータの例としては、エンジン、モータ、トランスミッションが挙げられる。操舵系のアクチュエータの例としては、ステアリングが挙げられる。制動系のアクチュエータの例としては、ブレーキが挙げられる。
-Actuator-
The actuator 11 includes a drive system actuator, a steering system actuator, a braking system actuator, and the like. Examples of drive system actuators include engines, motors, and transmissions. An example of a steering system actuator is steering. An example of a braking system actuator is a brake.

−情報取得部−
情報取得部20は、車両の制御(特に走行制御)に用いられる各種情報を取得する。この例では、情報取得部20は、複数のカメラ21と、複数のレーダ22と、位置センサ23と、外部入力部24と、車両状態センサ25と、運転操作センサ26と、運転者状態センサ27とを含む。
-Information acquisition department-
The information acquisition unit 20 acquires various information used for vehicle control (particularly travel control). In this example, the information acquisition unit 20 includes a plurality of cameras 21, a plurality of radars 22, a position sensor 23, an external input unit 24, a vehicle state sensor 25, a driving operation sensor 26, and a driver state sensor 27. And include.

〔カメラ〕
複数のカメラ21は、互いに同様の構成を有する。複数のカメラ21は、車両の周囲を囲うように車両に設けられる。複数のカメラ21の各々は、車両の周囲に広がる環境(車両の外部環境)の一部を撮像することで、車両の外部環境の一部を示す画像データを取得する。複数のカメラ21の各々により得られた画像データは、制御部30に送信される。複数のカメラ21は、前述の前カメラ21aを含む。
〔camera〕
The plurality of cameras 21 have the same configuration as each other. The plurality of cameras 21 are provided on the vehicle so as to surround the periphery of the vehicle. Each of the plurality of cameras 21 acquires image data showing a part of the external environment of the vehicle by capturing a part of the environment spreading around the vehicle (external environment of the vehicle). The image data obtained by each of the plurality of cameras 21 is transmitted to the control unit 30. The plurality of cameras 21 include the above-mentioned front camera 21a.

この例では、カメラ21は、広角レンズを有する単眼カメラである。例えば、カメラ21は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。なお、カメラ21は、狭角レンズを有する単眼カメラであってもよいし、広角レンズまたは狭角レンズを有するステレオカメラであってもよい。 In this example, the camera 21 is a monocular camera with a wide-angle lens. For example, the camera 21 is configured by using a solid-state image sensor such as a CCD (Charge Coupled Device) or a CMOS (Complementary metal-oxide-semiconductor). The camera 21 may be a monocular camera having a narrow-angle lens, or a stereo camera having a wide-angle lens or a narrow-angle lens.

〔レーダ〕
複数のレーダ22は、互いに同様の構成を有する。複数のレーダ22は、車両の周囲を囲うように車両に設けられる。複数のレーダ22の各々は、車両の外部環境の一部を検出する。具体的には、レーダ22は、車両の外部環境の一部へ向けて電波を送信して車両の外部環境の一部からの反射波を受信することで、車両の外部環境の一部を検出する。複数のレーダ22の検出結果は、制御部30に送信される。
[Radar]
The plurality of radars 22 have similar configurations to each other. The plurality of radars 22 are provided on the vehicle so as to surround the vehicle. Each of the plurality of radars 22 detects a part of the external environment of the vehicle. Specifically, the radar 22 detects a part of the external environment of the vehicle by transmitting radio waves to a part of the external environment of the vehicle and receiving reflected waves from a part of the external environment of the vehicle. To do. The detection results of the plurality of radars 22 are transmitted to the control unit 30.

例えば、レーダ22は、ミリ波を送信するミリ波レーダであってもよいし、レーザ光を送信するライダ(Light Detection and Ranging)であってもよいし、赤外線を送信する赤外線レーダであってもよいし、超音波を送信する超音波センサであってもよい。 For example, the radar 22 may be a millimeter-wave radar that transmits millimeter waves, a lidar (Light Detection and Ranging) that transmits laser light, or an infrared radar that transmits infrared rays. It may be an ultrasonic sensor that transmits ultrasonic waves.

〔位置センサ〕
位置センサ23は、車両の位置(例えば緯度および経度)を検出する。例えば、位置センサ23は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて車両の位置を検出する。位置センサ23により得られた情報(車両の位置)は、制御部30に送信される。
[Position sensor]
The position sensor 23 detects the position of the vehicle (eg, latitude and longitude). For example, the position sensor 23 receives GPS information from the Global Positioning System and detects the position of the vehicle based on the GPS information. The information (vehicle position) obtained by the position sensor 23 is transmitted to the control unit 30.

〔外部入力部〕
外部入力部24は、車両の外部に設けられた車外ネットワーク(例えばインターネットなど)を通じて情報を入力する。例えば、外部入力部24は、車両の周囲に位置する他車両(図示省略)からの通信情報、ナビゲーションシステム(図示省略)からのカーナビゲーションデータ、交通情報、高精度地図情報などを受信する。外部入力部24により得られた情報は、制御部30に送信される。
[External input section]
The external input unit 24 inputs information through an external network (for example, the Internet) provided outside the vehicle. For example, the external input unit 24 receives communication information from another vehicle (not shown) located around the vehicle, car navigation data from a navigation system (not shown), traffic information, high-precision map information, and the like. The information obtained by the external input unit 24 is transmitted to the control unit 30.

〔車両状態センサ〕
車両状態センサ25は、車両の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、車両状態センサ25は、車両の速度を検出する車速センサ、車両の加速度を検出する加速度センサ、車両のヨーレートを検出するヨーレートセンサなどを含む。車両状態センサ25により得られた情報(車両の状態)は、制御部30に送信される。
[Vehicle status sensor]
The vehicle condition sensor 25 detects the condition of the vehicle (for example, speed, acceleration, yaw rate, etc.). For example, the vehicle condition sensor 25 includes a vehicle speed sensor that detects the speed of the vehicle, an acceleration sensor that detects the acceleration of the vehicle, a yaw rate sensor that detects the yaw rate of the vehicle, and the like. The information (vehicle condition) obtained by the vehicle condition sensor 25 is transmitted to the control unit 30.

〔運転操作センサ〕
運転操作センサ26は、車両に加えられる運転操作を検出する。例えば、運転操作センサ26は、アクセル開度センサ、操舵角センサ、ブレーキ油圧センサなどを含む。アクセル開度センサは、車両のアクセルの操作量を検出する。操舵角センサは、車両のハンドルの操舵角を検出する。ブレーキ油圧センサは、車両のブレーキの操作量を検出する。運転操作センサ26により得られた情報(車両の運転操作)は、制御部30に送信される。
[Driving operation sensor]
The driving operation sensor 26 detects a driving operation applied to the vehicle. For example, the driving operation sensor 26 includes an accelerator opening degree sensor, a steering angle sensor, a brake oil pressure sensor, and the like. The accelerator opening sensor detects the amount of operation of the accelerator of the vehicle. The steering angle sensor detects the steering angle of the steering wheel of the vehicle. The brake oil sensor detects the amount of operation of the vehicle brake. The information (driving operation of the vehicle) obtained by the driving operation sensor 26 is transmitted to the control unit 30.

〔運転者状態センサ〕
運転者状態センサ27は、車両を運転する運転者の状態(例えば運転者の健康状態や感情や身体挙動など)を検出する。運転者状態センサ27により得られた情報(運転者の状態)は、制御部30に送信される。この例では、運転者状態センサ27は、車内カメラ28と、生体情報センサ29とを含む。
[Driver status sensor]
The driver state sensor 27 detects the state of the driver driving the vehicle (for example, the driver's health state, emotions, physical behavior, etc.). The information (driver's state) obtained by the driver state sensor 27 is transmitted to the control unit 30. In this example, the driver status sensor 27 includes an in-vehicle camera 28 and a biometric information sensor 29.

《車内カメラ》
車内カメラ28は、車両の内部に設けられる。車内カメラ28は、運転者の眼球を含む領域を撮像することで運転者の目を含む画像データを取得する。車内カメラ28により得られた画像データは、制御部30に送信される。例えば、車内カメラ28は、運転者の前方に配置され、運転者の眼球が撮像範囲内となるように撮像範囲が設定される。なお、車内カメラ28は、運転者に装着されるゴーグル(図示を省略)に設けられてもよい。
《Camera in the car》
The in-vehicle camera 28 is provided inside the vehicle. The in-vehicle camera 28 acquires image data including the driver's eyes by capturing an image of a region including the driver's eyes. The image data obtained by the in-vehicle camera 28 is transmitted to the control unit 30. For example, the in-vehicle camera 28 is arranged in front of the driver, and the imaging range is set so that the driver's eyeball is within the imaging range. The in-vehicle camera 28 may be provided on goggles (not shown) worn by the driver.

《生体情報センサ》
生体情報センサ29は、運転者の生体情報(例えば発汗など)を検出する。生体情報センサ29により得られた情報(運転者の生体情報)は、制御部30に送信される。
《Biological information sensor》
The biological information sensor 29 detects the driver's biological information (for example, sweating). The information (driver's biological information) obtained by the biological information sensor 29 is transmitted to the control unit 30.

−制御部−
制御部30は、アシスト運転または自動運転において、情報取得部20により取得された各種情報に基づいて、車両が走行すべき経路である目標経路を決定し、目標経路を走行するために必要となる車両の運動である目標運動を決定する。そして、制御部30は、車両の運動が目標運動となるように、アクチュエータ11の動作を制御する。例えば、制御部30は、1つまたは複数の演算チップを有する電子制御ユニット(ECU)により構成される。言い換えると、制御部30は、1つまたは複数のプロセッサ、1つまたは複数のプロセッサを動作させるためのプログラムやデータを記憶する1つまたは複数のメモリなどを有する電子制御ユニット(ECU)により構成される。
-Control unit-
In assisted driving or automatic driving, the control unit 30 determines a target route, which is a route to be traveled by the vehicle, based on various information acquired by the information acquisition unit 20, and is required to travel on the target route. Determine the target movement, which is the movement of the vehicle. Then, the control unit 30 controls the operation of the actuator 11 so that the movement of the vehicle becomes the target movement. For example, the control unit 30 is composed of an electronic control unit (ECU) having one or more arithmetic chips. In other words, the control unit 30 is composed of an electronic control unit (ECU) having one or more processors, one or more memories for storing programs and data for operating the one or more processors, and the like. To.

この例では、図3に示すように、制御部30は、画像処理部31と、外部環境認識部32と、候補経路生成部33と、車両挙動認識部34と、運転者挙動認識部35と、目標経路決定部36と、運動制御部37とを有する。 In this example, as shown in FIG. 3, the control unit 30 includes an image processing unit 31, an external environment recognition unit 32, a candidate route generation unit 33, a vehicle behavior recognition unit 34, and a driver behavior recognition unit 35. It has a target route determining unit 36 and a motion control unit 37.

〔画像処理部〕
画像処理部31は、複数のカメラ21で撮像された画像を受信し、画像処理を行う。画像処理部31で行われる画像処理には、外部環境認識部32で物体等の外部環境を認識するために用いる画像のための第1画像処理と、サリエンシーマップの生成に用いるための第2画像処理とが含まれる。なお、第1画像処理は、従来から自動運転等に用いられる画像処理であり、ここでは詳細説明を省略する。
[Image processing unit]
The image processing unit 31 receives images captured by a plurality of cameras 21 and performs image processing. The image processing performed by the image processing unit 31 includes a first image processing for an image used by the external environment recognition unit 32 for recognizing an external environment such as an object, and a second image processing for generating a saliency map. Image processing and is included. The first image processing is an image processing conventionally used for automatic driving and the like, and detailed description thereof will be omitted here.

《第2画像処理について》
画像処理部31は、例えば、前カメラ21aの撮影した画像に対して、画像を構成する素子のうち後述するマップ生成部301の処理(例えば、サリエンシーマップの生成)に不要な画素を削除する処理を行う。また、画像処理部31は、前カメラ21aで撮影された車両前側の外部環境を示す画像に対して、別の画像を合成して合成画像を生成する処理を行う。
<< About the second image processing >>
The image processing unit 31 deletes, for example, pixels unnecessary for processing (for example, generation of a salency map) of the map generation unit 301, which will be described later, among the elements constituting the image, with respect to the image captured by the front camera 21a. Perform processing. Further, the image processing unit 31 performs a process of synthesizing another image with respect to the image showing the external environment on the front side of the vehicle taken by the front camera 21a to generate a composite image.

図5は、車両の走行シーンにおいて前カメラ21aが撮影した車両前側の外部環境を示す画像D11の一例である。この画像D11に示す外部環境には、車道150と、車道150上の白線151とが含まれる。また、この画像D11に示された外部環境には、車道150の左側に形成された壁162と、壁162よりも左側の領域に形成された森林163と、車道150の右側の領域に広がる丘164と、丘164に形成された森林165が含まれる。また、この画像D11に示された外部環境には、車道150及び森林163,165の上側に広がる空167が含まれる。なお、以下の説明において、画像D11の空167は夕焼け空であり、赤みがかった空が広がっていると仮定する。換言すると、画像D11は、図7に示すように、高サリエンシー領域の広がりRWが相対的に大きい画像であるものとする。なお、図7については後で詳細に説明する。 FIG. 5 is an example of an image D11 showing the external environment on the front side of the vehicle taken by the front camera 21a in the traveling scene of the vehicle. The external environment shown in the image D11 includes a roadway 150 and a white line 151 on the roadway 150. Further, in the external environment shown in this image D11, a wall 162 formed on the left side of the roadway 150, a forest 163 formed in an area on the left side of the wall 162, and a hill extending on the right side area of the roadway 150. 164 and forest 165 formed on the hill 164 are included. Further, the external environment shown in the image D11 includes the roadway 150 and the sky 167 extending above the forests 163 and 165. In the following description, it is assumed that the sky 167 of image D11 is a sunset sky and a reddish sky is spreading. In other words, as shown in FIG. 7, the image D11 is an image in which the spread RW of the high salience region is relatively large. Note that FIG. 7 will be described in detail later.

画像処理部31は、画像D11に対して、車両の走行時に運転者の視界領域に入る車両構成部材を示す画像を合成する。具体的には、図6に示すように、画像処理部31は、運転席に着座した運転者が車両前側を見たときの車両構成部材の画像(以下、車両画像という)を画像D11に合成し、合成画像D12を生成する。車両画像に撮影される車両構成部材は、例えば、右側(運転席側)のフロントピラートリム52と、ルーフトリム53の右側の部分と、インストルメントパネル54の右側の部分と、バックミラー55と、右側のサイドミラー56と、ステアリングホイール58である。車両画像は、例えば、運転席側から運転者の視界領域に入る車内構造を予め撮影しておき、撮影した画像データをレイヤとして制御部30のメモリ(図示省略)に保存させておくことができる。そして、画像D11に車両画像を合成するときには、画像処理部31がメモリから当該車両画像を画像D11と別レイヤに読み込み、画像D11と車両画像との位置合わせをして重ねるようにすればよい。なお、車両構成部材として、さらにボンネット59の一部を考慮するようにしてもよい。また、合成画像D12を作成するのにあたって、前カメラ21a以外の情報、例えば、レーダ22の検出結果や、外部入力部24からの入力情報を使用するようにしてもよい。 The image processing unit 31 synthesizes with the image D11 an image showing a vehicle component that enters the driver's field of view when the vehicle is traveling. Specifically, as shown in FIG. 6, the image processing unit 31 synthesizes an image of a vehicle component (hereinafter referred to as a vehicle image) when the driver seated in the driver's seat looks at the front side of the vehicle with the image D11. Then, the composite image D12 is generated. The vehicle components photographed in the vehicle image are, for example, the front pillar trim 52 on the right side (driver's seat side), the right part of the roof trim 53, the right part of the instrument panel 54, the rearview mirror 55, and the right side. Side mirror 56 and steering wheel 58. For the vehicle image, for example, the structure inside the vehicle that enters the driver's field of view from the driver's seat side can be photographed in advance, and the photographed image data can be stored as a layer in the memory (not shown) of the control unit 30. .. Then, when synthesizing the vehicle image with the image D11, the image processing unit 31 may read the vehicle image from the memory into a layer different from the image D11, align the image D11 with the vehicle image, and superimpose the vehicle image. A part of the bonnet 59 may be further considered as a vehicle component. Further, in creating the composite image D12, information other than the front camera 21a, for example, the detection result of the radar 22 or the input information from the external input unit 24 may be used.

図9は、図5〜図8とは別の走行シーンにおいて前カメラ21aが撮影した車両前側の外部環境の画像に車両画像を合成した合成画像D22の一例である。合成画像D22は合成画像D12の場合と同様に、前カメラ21aの撮影画像と車両画像とを合成して生成される。合成画像D22に示す外部環境には、車道150と、車道150上の白線151とが含まれる。また、合成画像D22に示された外部環境には、他車両161と、車道150の両側に形成された壁162とが含まれる。左の壁162よりも左側の領域には、樹木168が植えられ、左の壁162よりも左側の領域に広がる丘164の上に樹木169が植えられている。同様に、右の壁162よりも左側の領域に広がる丘164の上に樹木168植えられている。また、画像D22に示された外部環境には、車道150、丘164及び樹木168,169の上側に広がる空170が含まれる。なお、以下の説明において、合成画像D22の空170は青空であると仮定する。換言すると、画像D22は、図10に示すように、高サリエンシー領域の広がりRWが相対的に小さい画像であるものとする。なお、図10については後で詳細に説明する。 FIG. 9 is an example of a composite image D22 in which a vehicle image is combined with an image of the external environment on the front side of the vehicle taken by the front camera 21a in a driving scene different from that of FIGS. 5 to 8. The composite image D22 is generated by synthesizing the captured image of the front camera 21a and the vehicle image, as in the case of the composite image D12. The external environment shown in the composite image D22 includes the roadway 150 and the white line 151 on the roadway 150. Further, the external environment shown in the composite image D22 includes another vehicle 161 and walls 162 formed on both sides of the roadway 150. Trees 168 are planted in the area to the left of the left wall 162, and trees 169 are planted on the hill 164 extending to the area to the left of the left wall 162. Similarly, 168 trees are planted on a hill 164 that extends to the area to the left of the right wall 162. The external environment shown in image D22 includes the roadway 150, the hills 164, and the sky 170 extending above the trees 168,169. In the following description, it is assumed that the sky 170 of the composite image D22 is a blue sky. In other words, it is assumed that the image D22 is an image in which the spread RW of the high salience region is relatively small, as shown in FIG. Note that FIG. 10 will be described in detail later.

図6及び図9に示すように、画像処理部31で生成された合成画像D12,D22は、画像の一部が車両構成部材により遮られた状態になる。画像処理部31で生成された合成画像D12,D22の画像データ(以下、合成画像データという)は、後述するマップ生成部301に送信される。 As shown in FIGS. 6 and 9, the composite images D12 and D22 generated by the image processing unit 31 are in a state where a part of the images is blocked by the vehicle constituent members. The image data (hereinafter referred to as composite image data) of the composite images D12 and D22 generated by the image processing unit 31 is transmitted to the map generation unit 301 described later.

〔外部環境認識部〕
外部環境認識部32は、複数のカメラ21及びレーダ22から出力されたデータに基づいて車両の外部環境を認識する。外部環境認識部32により認識される車両の外部環境には、物体が含まれる。物体の例としては、時間経過により変位する動体と、時間経過により変位しない静止体とが挙げられる。動体の例としては、自動四輪車、自動二輪車、自転車、歩行者などが挙げられる。静止体の例としては、標識、街路樹、中央分離帯、センターポール、建物などが挙げられる。
[External Environment Recognition Department]
The external environment recognition unit 32 recognizes the external environment of the vehicle based on the data output from the plurality of cameras 21 and the radar 22. The external environment of the vehicle recognized by the external environment recognition unit 32 includes an object. Examples of objects include a moving body that displaces with the passage of time and a stationary body that does not displace with the passage of time. Examples of moving objects include motorcycles, motorcycles, bicycles, pedestrians and the like. Examples of stationary bodies include signs, roadside trees, medians, centerpoles, buildings and the like.

〔候補経路生成部〕
候補経路生成部33は、外部環境認識部32の出力に基づいて1つまたは複数の候補経路を生成する。候補経路は、車両が走行可能な経路であり、目標経路の候補である。
[Candidate route generator]
The candidate route generation unit 33 generates one or a plurality of candidate routes based on the output of the external environment recognition unit 32. The candidate route is a route on which the vehicle can travel and is a candidate for the target route.

〔車両挙動認識部〕
車両挙動認識部34は、車両状態センサ25の出力に基づいて車両の挙動(例えば速度や加速度やヨーレートなど)を認識する。例えば、車両挙動認識部34は、深層学習により生成された学習モデルを用いて車両状態センサ25の出力から車両の挙動を認識する。
[Vehicle behavior recognition unit]
The vehicle behavior recognition unit 34 recognizes the behavior of the vehicle (for example, speed, acceleration, yaw rate, etc.) based on the output of the vehicle condition sensor 25. For example, the vehicle behavior recognition unit 34 recognizes the behavior of the vehicle from the output of the vehicle state sensor 25 using the learning model generated by the deep learning.

〔運転者挙動認識部〕
運転者挙動認識部35は、運転者状態センサ27の出力に基づいて運転者の挙動(例えば運転者の健康状態や感情や身体挙動など)を認識する。例えば、運転者挙動認識部35は、深層学習により生成された学習モデルを用いて運転者状態センサ27の出力からドライバの挙動を認識する。この例では、運転者挙動認識部35は、運転者状態検出部300を有する。運転者状態検出部300については、後で詳しく説明する。
[Driver behavior recognition unit]
The driver behavior recognition unit 35 recognizes the driver's behavior (for example, the driver's health condition, emotion, physical behavior, etc.) based on the output of the driver condition sensor 27. For example, the driver behavior recognition unit 35 recognizes the driver's behavior from the output of the driver state sensor 27 using the learning model generated by deep learning. In this example, the driver behavior recognition unit 35 has a driver state detection unit 300. The driver state detection unit 300 will be described in detail later.

〔目標経路決定部〕
目標経路決定部36は、車両挙動認識部34の出力と、運転者挙動認識部35の出力に基づいて、候補経路生成部33により生成された1つまたは複数の候補経路の中から目標経路となる候補経路を選択する。例えば、目標経路決定部36は、複数の候補経路のうち運転者が最も快適であると感じる候補経路を選択する。
[Target route determination unit]
The target route determination unit 36 sets the target route from one or a plurality of candidate routes generated by the candidate route generation unit 33 based on the output of the vehicle behavior recognition unit 34 and the output of the driver behavior recognition unit 35. Select a candidate route. For example, the target route determination unit 36 selects a candidate route that the driver feels most comfortable with among the plurality of candidate routes.

〔運動制御部〕
運動制御部37は、目標経路決定部36により目標経路として選択された候補経路に基づいて目標運動を決定し、その決定された目標運動に基づいてアクチュエータ11を制御する。例えば、運動制御部37は、目標運動を達成するための駆動力と制動力と操舵量である目標駆動力と目標制動力と目標操舵量をそれぞれ導出する。そして、運動制御部37は、目標駆動力を示す駆動指令値と目標制動力を示す制動指令値と目標操舵量を示す操舵指令値とを、駆動系のアクチュエータと制動系のアクチュエータと操舵系のアクチュエータとにそれぞれ送信する。駆動系のアクチュエータ、制動系のアクチュエータ、操舵系のアクチュエータは、アクチュエータ11の一例である。
[Motion control unit]
The motion control unit 37 determines the target motion based on the candidate path selected as the target path by the target path determination unit 36, and controls the actuator 11 based on the determined target motion. For example, the motion control unit 37 derives the target driving force, the target braking force, and the target steering amount, which are the driving force, the braking force, and the steering amount for achieving the target motion, respectively. Then, the motion control unit 37 sets the drive command value indicating the target driving force, the braking command value indicating the target braking force, and the steering command value indicating the target steering amount to the actuator of the drive system, the actuator of the braking system, and the steering system. It sends to the actuator and each. The drive system actuator, the braking system actuator, and the steering system actuator are examples of the actuator 11.

《通知部》
通知部40は、車両の運転者に各種情報を通知する。この例では、通知部40は、表示部41と、スピーカ42とを含む。表示部41は、各種情報を画像で出力する。スピーカ42は、各種情報を音声で出力する。
《Notification section》
The notification unit 40 notifies the driver of the vehicle of various information. In this example, the notification unit 40 includes a display unit 41 and a speaker 42. The display unit 41 outputs various information as an image. The speaker 42 outputs various information by voice.

《運転者状態検出部》
運転者状態検出部300は、車両の運転者の異常を検出する。具体的には、図4に示すように、運転者状態検出部300は、マップ生成部301と、注視点検出部302と、異常検出部303とを有する。
<< Driver status detector >>
The driver state detection unit 300 detects an abnormality of the driver of the vehicle. Specifically, as shown in FIG. 4, the driver state detection unit 300 includes a map generation unit 301, a gazing point detection unit 302, and an abnormality detection unit 303.

なお、運転者の異常とは、運転者の注意機能低下を引き起こす異常のことである。このような運転者の異常の例としては、脳卒中などの脳疾患、心筋梗塞などの心疾患、癲癇、低血糖、眠気などが挙げられる。 The driver's abnormality is an abnormality that causes the driver's attention function to deteriorate. Examples of such driver abnormalities include brain diseases such as stroke, heart diseases such as myocardial infarction, epilepsy, hypoglycemia, and drowsiness.

〔マップ生成部〕
マップ生成部301は、画像処理部31から合成画像D12,D22(以下、まとめて合成画像D2という)を受信し、合成画像D12,D22についてのサリエンシーマップD3を生成する。具体的には、マップ生成部301は、合成画像データのうち外部環境を表す部分、すなわち、画像処理部31で合成した車両画像以外の部分についてのサリエンシーを算出する。このとき、マップ生成部301は、画像処理部31での合成に使用した車両画像についてのサリエンシーは算出しないものの、合成画像D2のうちの外部環境を表す部分のサリエンシーの算出には利用する。つまり、マップ生成部301は、車両の走行時に運転者の視界領域に入る車両構成部材を考慮してサリエンシーマップD3を生成する。
[Map generator]
The map generation unit 301 receives the composite images D12 and D22 (hereinafter collectively referred to as composite images D2) from the image processing unit 31 and generates a surrency map D3 for the composite images D12 and D22. Specifically, the map generation unit 301 calculates the salience of the portion of the composite image data representing the external environment, that is, the portion other than the vehicle image synthesized by the image processing unit 31. At this time, the map generation unit 301 does not calculate the salience of the vehicle image used for the composition in the image processing unit 31, but uses it for calculating the salience of the portion of the composite image D2 representing the external environment. That is, the map generation unit 301 generates the saliency map D3 in consideration of the vehicle components that enter the driver's field of view when the vehicle is running.

前述したように、サリエンシーは、物標の色、輝度、動き等により変化する。そこで、本実施形態では、マップ生成部301は、色に基づくサリエンシー、輝度に基づくサリエンシー、動きに基づくサリエンシー等、特徴毎にサリエンシーを算出して、特徴毎のサリエンシーマップを生成した後に、それらを足し合わせることで最終的な合成画像D12に基づいたサリエンシーマップD13(図7参照)及び合成画像D22に基づいたサリエンシーマップD23(図10参照)を生成する。サリエンシーマップD13及びサリエンシーマップD23は、サリエンシーマップD3の一例である。 As described above, salience changes depending on the color, brightness, movement, etc. of the target. Therefore, in the present embodiment, the map generation unit 301 calculates the salience for each feature such as color-based salience, brightness-based salience, and motion-based salience, and after generating the salience map for each feature, they are used. Are added together to generate a salience map D13 (see FIG. 7) based on the final composite image D12 and a salience map D23 (see FIG. 10) based on the composite image D22. The saliency map D13 and the saliency map D23 are examples of the saliency map D3.

例えば、マップ生成部301は、色に基づくサリエンシーについて、合成画像データにおける車両構成部材の近傍領域において、当該近傍領域と車両構成部材との色差が大きいときには、該色差が小さいときと比較して、近傍領域のサリエンシーを高くする。なお、色差とは、ある画素の色のRGBを(R1,G1,B1)とし、他の画素の色のRGBを(R2,G2,B2)したときに、以下の式により算出される。
(色差)={(R2−R1)+(G2−G1)+(B2−B1)}1/2
マップ生成部301は、色差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
For example, regarding color-based salience, the map generation unit 301 determines that when the color difference between the neighborhood region and the vehicle component is large in the vicinity region of the vehicle component in the composite image data, the color difference is smaller than when the color difference is small. Increase the salience of nearby areas. The color difference is calculated by the following formula when the RGB of the color of a certain pixel is (R1, G1, B1) and the RGB of the color of another pixel is (R2, G2, B2).
(Color difference) = {(R2-R1) 2 + (G2-G1) 2 + (B2-B1) 2 } 1/2
The map generation unit 301 may calculate so that the larger the color difference, the higher the salience continuously, or may set a plurality of threshold values and calculate so that the salience increases by a certain value each time the threshold value is exceeded. ..

また、例えば、マップ生成部301は、輝度に基づくサリエンシーについて、合成画像データにおける車両構成部材の近傍領域において、当該近傍領域と車両構成部材との輝度差が大きいときには、該輝度差が小さいときと比較して、近傍領域のサリエンシーを高くする。例えば、マップ生成部301は、合成した車両構成部品が黒色であるときには、白色に近い部分ほど輝度差が大きくなるため、近傍領域のうち白色に近い部分のサリエンシーを高くする。マップ生成部301は、輝度差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。 Further, for example, regarding the salience based on the brightness, the map generation unit 301 determines that when the brightness difference between the neighborhood region and the vehicle constituent member is large in the vicinity region of the vehicle constituent member in the composite image data, the brightness difference is small. In comparison, the salience of the neighboring region is increased. For example, when the combined vehicle component is black, the map generation unit 301 increases the salience of the portion of the vicinity region that is close to white because the brightness difference becomes larger as the portion is closer to white. The map generation unit 301 may calculate so that the larger the luminance difference is, the higher the salience is continuously, or may set a plurality of threshold values and calculate so that the salience increases by a certain value each time the threshold value is exceeded. Good.

なお、サリエンシーの算出自体は、インターネット上等で公開されている既知のコンピュータプログラムを用いることができる。また、特徴毎のサリエンシーマップの算出及び各サリエンシーマップの統合についても既知のコンピュータプログラムを用いることができる。 For the calculation of salience itself, a known computer program published on the Internet or the like can be used. In addition, a known computer program can be used for calculating the saliency map for each feature and integrating each saliency map.

〔注視点検出部〕
注視点検出部302は、車内カメラ28により撮影された運転者の眼球画像から、運転者の視線方向を算出する。注視点検出部302は、例えば、運転者が車内カメラ28のレンズを覗いた状態を基準にして、そこからの運転者の瞳孔の変化を検知することで運転者の視線方向を算出する。視線方向の算出は、運転者の左目及び右目のどちらか一方から算出してもよいし、運転者の両目のそれぞれから求めた視線方向(視線ベクトル)の平均値としてもよい。また、運転者の瞳孔の変化から運転者の視線方向を算出することが困難であるときには、運転者の顔面の向きを更に考慮して視線方向を算出してもよい。また、運転者の視線方向の算出に、深層学習により生成された学習モデル(視線を検出するための学習モデル)を用いてもよい。
[Gaze point detector]
The gazing point detection unit 302 calculates the driver's line-of-sight direction from the driver's eyeball image taken by the in-vehicle camera 28. The gazing point detection unit 302 calculates the driver's line-of-sight direction by detecting a change in the driver's pupil from the state in which the driver looks into the lens of the in-vehicle camera 28, for example. The line-of-sight direction may be calculated from either the driver's left eye or the right eye, or may be the average value of the line-of-sight directions (line-of-sight vectors) obtained from each of the driver's eyes. Further, when it is difficult to calculate the driver's line-of-sight direction from the change in the driver's pupil, the line-of-sight direction may be calculated in consideration of the direction of the driver's face. Further, a learning model (learning model for detecting the line of sight) generated by deep learning may be used for calculating the line-of-sight direction of the driver.

《注視点及びサッケードの検出》
注視点検出部302は、運転者の視線の動きに基づいて運転者のサッケードを検出する。サッケードとは、運転者が意図的に視線を移動させる跳躍性眼球運動のことであり、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。図12に示すように、隣り合う2つの注視期間の間に挟まれた期間がサッケード期間となる。なお、注視期間は、視線が停滞しているとみなされる期間である。サッケードの振幅dsは、サッケード期間における視線の移動距離である。
<< Detection of gazing point and saccade >>
The gazing point detection unit 302 detects the driver's saccade based on the movement of the driver's line of sight. The saccade is a jumping eye movement in which the driver intentionally moves the line of sight, and is an eye movement in which the line of sight is moved from a gaze point where the line of sight is stagnant for a predetermined time to the next gaze point. As shown in FIG. 12, the period sandwiched between two adjacent gaze periods is the saccade period. The gaze period is a period in which the line of sight is considered to be stagnant. The amplitude ds of the saccade is the moving distance of the line of sight during the saccade period.

注視点検出部302は、視線の移動距離の変化に基づいて視線の移動速度を算出し、視線の移動速度が予め定められた速度閾値(例えば2deg/s)未満である状態が予め定められた停滞時間(例えば0.1秒間)継続する期間を「注視期間」として抽出するとともに、その注視期間において運転者の視線の先にある点を「注視点」として抽出する。また、注視点検出部302は、隣り合う2つの注視期間の間に挟まれた期間における視線移動のうち、移動速度が速度閾値(例えば2deg/s)以上であり、且つ、移動距離が予め定められ距離閾値(例えば0.1deg)以上である視線移動を「サッケード」として抽出する。 The gazing point detection unit 302 calculates the moving speed of the line of sight based on the change in the moving distance of the line of sight, and a state in which the moving speed of the line of sight is less than a predetermined speed threshold value (for example, 2 deg / s) is predetermined. The period during which the stagnation time (for example, 0.1 second) continues is extracted as the "gaze period", and the point ahead of the driver's line of sight during the gaze period is extracted as the "gaze point". Further, in the gazing point detection unit 302, among the line-of-sight movements in the period sandwiched between two adjacent gazing periods, the moving speed is equal to or higher than the speed threshold value (for example, 2deg / s), and the moving distance is predetermined. The movement of the line of sight that is equal to or greater than the distance threshold (for example, 0.1 deg) is extracted as a “saccade”.

なお、注視点検出部302は、抽出されたサッケードについて、ノイズ除去処理を行うようにしてもよい。具体的には、注視点検出部302は、図13に示すように、複数のサッケード候補に基づいて回帰曲線L10を導出する。注視点検出部302は、例えば、最小自乗法により複数のサッケード候補から回帰曲線L10を導出する。次に、注視点検出部302は、回帰曲線L10を移動速度が増加する方向(図13の縦軸における増加方向)にシフトさせることで第1基準曲線L11を導出し、回帰曲線L10を移動速度が減少する方向(図13の縦軸における減少方向)にシフトさせることで第2基準曲線L12を導出し、第1基準曲線L11と第2基準曲線L12との間をサッケード範囲R10とする。そして、注視点検出部302は、複数のサッケード候補のうちサッケード範囲R10内に含まれるサッケード候補をサッケードとして抽出する。 The gaze point detection unit 302 may perform noise removal processing on the extracted saccade. Specifically, as shown in FIG. 13, the gazing point detection unit 302 derives the regression curve L10 based on a plurality of saccade candidates. The gazing point detection unit 302 derives the regression curve L10 from a plurality of saccade candidates by, for example, the least squares method. Next, the gazing point detection unit 302 derives the first reference curve L11 by shifting the regression curve L10 in the direction in which the moving speed increases (the increasing direction in the vertical axis of FIG. 13), and moves the regression curve L10 in the moving speed. The second reference curve L12 is derived by shifting in the direction of decrease (decrease direction on the vertical axis of FIG. 13), and the sackde range R10 is defined between the first reference curve L11 and the second reference curve L12. Then, the gazing point detection unit 302 extracts the saccade candidates included in the saccade range R10 from the plurality of saccade candidates as saccades.

次に、注視点検出部302は、サッケードの指標であるサッケードの振幅dsとサッケードの頻度fsとを算出する。具体的には、注視点検出部302は、予め定められた周期毎(例えば10秒毎)に、その周期内に含まれるサッケードの振幅dsの平均値を「サッケードの振幅ds」として算出し、その周期内に含まれるサッケードの数をその周期の時間で除算して得られる値を「サッケードの頻度fs」として算出する。 Next, the gazing point detection unit 302 calculates the amplitude ds of the saccade, which is an index of the saccade, and the frequency fs of the saccade. Specifically, the gazing point detection unit 302 calculates the average value of the saccade amplitude ds included in the predetermined cycle (for example, every 10 seconds) as the “saccade amplitude ds”. The value obtained by dividing the number of saccades included in the cycle by the time of the cycle is calculated as "saccade frequency fs".

〔異常検出部〕
異常検出部303は、マップ生成部301で生成されたサリエンシーマップD3と、注視点検出部302で検出された運転者の注視点及びサッケードの振幅dsとに基づいて、運転者の異常を検出する。異常検出部303の動作は、以下の「車両制御システムの動作」において具体的に説明する。
[Abnormality detection unit]
The abnormality detection unit 303 detects the driver's abnormality based on the saliency map D3 generated by the map generation unit 301 and the driver's gaze point and saccade amplitude ds detected by the gaze point detection unit 302. To do. The operation of the abnormality detection unit 303 will be specifically described in the following "Operation of the vehicle control system".

−車両制御システムの動作−
以下、図19を参照しつつ、車両制御システムの動作について説明する。
-Vehicle control system operation-
Hereinafter, the operation of the vehicle control system will be described with reference to FIG.

(ステップST11)
まず、ステップST11において、車両制御システムでは、車両の運転者の注視点を検出する注視点検出ステップが実行される。具体的に、ステップST11では、例えば、前述の「注視点及びサッケードの検出」の項で説明したように、注視点検出部302が、車内カメラ28で検出された運転者の視線に基づいて注視点及びサッケードの振幅dsを検出する。
(Step ST11)
First, in step ST11, the vehicle control system executes a gaze point detection step of detecting the gaze point of the driver of the vehicle. Specifically, in step ST11, for example, as described in the above-mentioned section “Detection of gazing point and saccade”, the gazing point detection unit 302 notes based on the driver's line of sight detected by the in-vehicle camera 28. The amplitude ds of the viewpoint and the saccade is detected.

(ステップST12)
次のステップST12において、車両制御システムでは、前カメラ21aから受信した画像データに基づいて、サリエンシーマップを生成するマップ生成ステップが実行される。具体的に、ステップST12では、例えば、前述の「マップ生成部」の項で説明したように、マップ生成部301が画像処理部31で合成された合成画像D2に基づいて、サリエンシーマップD3を生成する。なお、ステップST11とステップST12との実行順序は、特に限定されない。例えば、ステップS12がステップS11よりも先に実行されてもよいし、ステップST11とステップST12とが同時に実行されてもよい。
(Step ST12)
In the next step ST12, the vehicle control system executes a map generation step of generating a saliency map based on the image data received from the front camera 21a. Specifically, in step ST12, for example, as described in the section of the above-mentioned "map generation unit", the map generation unit 301 creates the saliency map D3 based on the composite image D2 synthesized by the image processing unit 31. Generate. The execution order of step ST11 and step ST12 is not particularly limited. For example, step S12 may be executed before step S11, or step ST11 and step ST12 may be executed at the same time.

(ステップST13)
ステップST13では、ステップST12で生成されたサリエンシーマップの高サリエンシー領域の広がりと、ステップST11で検出された運転者のサッケードの振幅dsの大きさとの間に相関があるか否かを判定する。
(Step ST13)
In step ST13, it is determined whether or not there is a correlation between the extent of the high salience region of the salience map generated in step ST12 and the magnitude of the driver's saccade amplitude ds detected in step ST11.

具体的には、例えば、異常検出部303が、マップ生成部301で生成されたサリエンシーマップの高サリエンシー領域の広がりRWと、注視点検出部で検出された運転者のサッケードの振幅dsの大きさとの間に相関があるか否かを判定する。より具体的には、異常検出部303は、例えば、高サリエンシー領域の広がりRWが互いに異なる複数のサリエンシーマップD3を用意する。そして、異常検出部303は、各々のサリエンシーマップD3の高サリエンシー領域の広がりと、そのサリエンシーマップD3の基となる画像が撮影された所定の時間範囲(例えば、5秒間)におけるサッケードの振幅dsとを対比することで互いの相関関係の有無を判定する。 Specifically, for example, the anomaly detection unit 303 increases the spread RW of the high-salience region of the salience map generated by the map generation unit 301 and the amplitude ds of the driver's saccade detected by the gazing point detection unit. Determine if there is a correlation with. More specifically, the abnormality detection unit 303 prepares, for example, a plurality of salience maps D3 having different spread RWs in the high salience region. Then, the anomaly detection unit 303 expands the high correlation region of each salience map D3 and the amplitude of the saccade in a predetermined time range (for example, 5 seconds) in which the image underlying the salience map D3 is taken. The presence or absence of mutual correlation is determined by comparing with ds.

図14は、健常者及び注意機能障害者について、「高サリエンシー領域の広がりRW」と「サッケードの振幅ds」との関係を示した概念図である。図14において、太実線が健常者の特性を模式的に示したものであり、細実線が注意機能障害者の特性を模式的に示したものである。 FIG. 14 is a conceptual diagram showing the relationship between “expansion RW of high salience region” and “saccade amplitude ds” for a healthy person and a person with attention dysfunction. In FIG. 14, the thick solid line schematically shows the characteristics of a healthy person, and the fine solid line schematically shows the characteristics of a person with attention dysfunction.

ここで、運転者が正常な状態(例えば健常者)であれば、車両走行時には駐車車両、歩行者、脇道等の注視すべき視認対象物を見ながら運転する。すなわち、健常者であれば、サリエンシーの広がりの大小にかかわらず、注視すべき視認対象物を見ながら運転する。したがって、図14の太実線で示すように、高サリエンシー領域の広がりRWの大きさと、サッケードの振幅dsとの間の相関度は低くなる傾向がある。一方で、運転者に体調異常等が発生して能動的な運転が出来なくなったりしたときには、運転者は、サリエンシーが高い領域に自然と視線を向けるようになる。すなわち、運転者が誘目度の高い領域を見る頻度が高いときには、運転者に異常が生じている可能性が高い。そうすると、運転者に異常がある場合に、高サリエンシー領域の広がりRWが大きいときには、運転者の視線の移動量が増え、サッケードの振幅dsが大きくなる傾向が出る。一方で、運転者に異常がある場合に、高サリエンシー領域の広がりRWが小さいときには、運転者の視線の移動量が減り、サッケードの振幅dsが小さくなる傾向が出る。すなわち、運転者に異常がある場合には、図14の細実線で示すように、高サリエンシー領域の広がりRWの大きさと、サッケードの振幅dsの大きさとの間の相関度が高くなる傾向が出る。したがって、ステップST11では、マップ生成部301で生成されたサリエンシーマップの高サリエンシー領域の広がりRWと注視点検出部で検出された運転者のサッケードの振幅dsとの間の相関度が所定の第1基準よりも高い場合、次のステップST14に進む。一方で、ステップST13において、高サリエンシー領域の広がりRWとサッケードの振幅dsとの間の相関度が第1基準以下の場合、処理はステップST11に戻る。ここで、所定の第1基準は、相関度の高さを求めることができるような基準であればよく、任意に設定することができる。例えば、図14に破線で示すように、相関度が高いことを示す基準となるような基準線を引いて、その基準線との関係(例えば、傾きの近似度や一致度)に基づいて相関度を判定するようにしてもよい。ステップST13は、例えば、判定ステップの一部を構成する処理の一例である。 Here, if the driver is in a normal state (for example, a healthy person), he / she drives while looking at a parked vehicle, a pedestrian, a side road, or other visible object to be watched when the vehicle is running. That is, a healthy person drives while looking at a visual object to be watched regardless of the extent of the spread of salience. Therefore, as shown by the thick solid line in FIG. 14, the degree of correlation between the magnitude of the spread RW of the high salience region and the amplitude ds of the saccade tends to be low. On the other hand, when the driver becomes unable to drive actively due to an abnormal physical condition or the like, the driver naturally turns his / her gaze to an area with high salience. That is, when the driver frequently sees the area with a high degree of attraction, there is a high possibility that the driver has an abnormality. Then, when the driver has an abnormality and the spread RW of the high salience region is large, the amount of movement of the driver's line of sight increases, and the amplitude ds of the saccade tends to increase. On the other hand, when there is an abnormality in the driver and the spread RW of the high salience region is small, the amount of movement of the driver's line of sight tends to decrease, and the amplitude ds of the saccade tends to decrease. That is, when there is an abnormality in the driver, as shown by the fine solid line in FIG. 14, the degree of correlation between the magnitude of the spread RW of the high salience region and the magnitude of the amplitude ds of the saccade tends to be high. .. Therefore, in step ST11, the degree of correlation between the spread RW of the high salience region of the salience map generated by the map generation unit 301 and the amplitude ds of the driver's saccade detected by the gaze point detection unit is a predetermined first degree. If it is higher than one criterion, the process proceeds to the next step ST14. On the other hand, in step ST13, when the degree of correlation between the spread RW of the high salience region and the amplitude ds of the saccade is equal to or less than the first reference, the process returns to step ST11. Here, the predetermined first criterion may be any reference as long as it can determine the high degree of correlation, and can be arbitrarily set. For example, as shown by a broken line in FIG. 14, a reference line that serves as a reference indicating that the degree of correlation is high is drawn, and the correlation is based on the relationship with the reference line (for example, the degree of approximation or the degree of agreement of the slope). The degree may be determined. Step ST13 is, for example, an example of processing that constitutes a part of the determination step.

(ステップST14)
ステップST14では、ステップST11で検出された運転者の注視点が高サリエンシー領域を見る傾向が所定の基準値よりも高いか否かが判定される。具体的には、例えば、サリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の閾値を超えるか否かが判定される。
(Step ST14)
In step ST14, it is determined whether or not the driver's gaze point detected in step ST11 has a higher tendency to see the high salience region than a predetermined reference value. Specifically, for example, the tendency of the line of sight to move to the high salience region is detected by using the salience index, and it is determined whether or not the salience index exceeds a predetermined threshold value.

具体的には、異常検出部303は、マップ生成部301で生成されたサリエンシーマップと、注視点検出部302で検出された運転者の注視点とに基づいて、運転者がサリエンシーの高い領域を見る傾向が所定の第2基準よりも高いかどうかを判定する。本実施形態では、サリエンシー指標が所定の第2基準(例えば0.6)より高いかどうかを判定する。 Specifically, the abnormality detection unit 303 has a region in which the driver has high salience based on the salience map generated by the map generation unit 301 and the driver's gaze point detected by the gaze point detection unit 302. Determine if the tendency to see is higher than a given second criterion. In this embodiment, it is determined whether the salience index is higher than a predetermined second criterion (for example, 0.6).

なお、ステップST14の判定において、サリエンシー指標の第2基準として0.6以外の数値を用いてもよいし、サリエンシー指標以外の指標を用いてもよい。 In the determination of step ST14, a numerical value other than 0.6 may be used as the second criterion of the salience index, or an index other than the salience index may be used.

《サリエンシー指標の算出》
サリエンシー指標の算出方法について、図15〜図18を用いて説明する。このサリエンシー指標の算出は、主に、異常検出部303により行われる。
<< Calculation of Salience Index >>
The method of calculating the salience index will be described with reference to FIGS. 15 to 18. The calculation of this salience index is mainly performed by the abnormality detection unit 303.

図15は、運転者の注視点のサリエンシーの時間変化をプロットしたものである。このグラフは、例えば、図8や図11に示すように、注視点の変化をサリエンシーマップに当てはめて、サッケードが生じる毎に注視点のサリエンシーの高さをプロットしたものである。一方で、図16は、図15と同じサリエンシーマップ(例えば、図8や図11)からランダムに座標(以下、ランダム座標という)を指定して、サッケードが生じる毎にランダム座標のサリエンシーを求めることで生成される。 FIG. 15 is a plot of the time change of the salience of the driver's gaze point. In this graph, for example, as shown in FIGS. 8 and 11, the change in the gazing point is applied to the salience map, and the height of the salience of the gazing point is plotted each time a saccade occurs. On the other hand, in FIG. 16, coordinates (hereinafter referred to as random coordinates) are randomly specified from the same salience map as in FIG. 15 (for example, FIGS. 8 and 11), and the salience of random coordinates is obtained each time a saccade occurs. It is generated by.

図15及び図16のグラフをそれぞれ作成した後は、ランダム点における閾値を超える割合と運転者の注視点における閾値を超える割合とのROC(Receiver Operating Characteristic)曲線を求める。具体的には、まず、第1ステップとして、閾値を図15及び図16のグラフにおいて最大値よりも大きい値に設定する。次に、第2ステップとして、閾値を低下させながら、閾値毎に該閾値を超えた点の割合を求める。そして、この第2ステップの処理を閾値が、図15及び図16のグラフにおいて最小値以下になるまで繰り返す。 After creating the graphs of FIGS. 15 and 16, respectively, the ROC (Receiver Operating Characteristic) curve of the ratio exceeding the threshold value at the random point and the ratio exceeding the threshold value at the driver's gaze point is obtained. Specifically, first, as a first step, the threshold value is set to a value larger than the maximum value in the graphs of FIGS. 15 and 16. Next, as a second step, while lowering the threshold value, the ratio of points exceeding the threshold value is obtained for each threshold value. Then, the process of this second step is repeated until the threshold value becomes equal to or less than the minimum value in the graphs of FIGS. 15 and 16.

前記第1及び第2ステップの後、第3ステップとして、ランダム点における閾値を超える割合(第1確率という)を横軸にとりかつ運転者の注視点における閾値を超える割合(第2確率という)を縦軸にとって、図17のようなグラフを作成する。図17のグラフは、同一の閾値におけるランダム確率に対する注視確率を表す。図17のグラフは、横軸及び縦軸ともに確率であるため、曲線の最小値は0であり、最大値は1である。 After the first and second steps, as the third step, the ratio exceeding the threshold value at the random point (referred to as the first probability) is taken on the horizontal axis and the ratio exceeding the threshold value at the driver's gaze point (referred to as the second probability). For the vertical axis, a graph as shown in FIG. 17 is created. The graph of FIG. 17 represents the gaze probability for a random probability at the same threshold. In the graph of FIG. 17, since both the horizontal axis and the vertical axis are probabilities, the minimum value of the curve is 0 and the maximum value is 1.

図17において破線は、運転者の視線がサリエンシーに対してどのように動いているかを表す。図17の曲線C1のように、曲線が上側に凸になる場合は、運転者の注視点がランダム点よりも閾値を超える割合が高いことを表す。図17の曲線C1のような形状の曲線が算出されたときは、運転者の視線がサリエンシーの高い箇所を見る傾向にあること、すなわち、高サリエンシー領域への誘目度が高いことを意味している。一方で、図17の曲線C2のように、曲線が下側に凸になる場合は、運転者の注視点がランダム点よりも閾値を超える割合が低いことを表す。図17の曲線C2のような形状の曲線が算出されたときは、運転者の視線が高サリエンシー領域の影響を受けていないことを意味している。 In FIG. 17, the dashed line represents how the driver's line of sight moves with respect to salience. When the curve is convex upward as in the curve C1 of FIG. 17, it means that the driver's gaze point exceeds the threshold value at a higher rate than the random point. When a curve having a shape like the curve C1 in FIG. 17 is calculated, it means that the driver's line of sight tends to see a portion having high salience, that is, the degree of attraction to the high salience region is high. There is. On the other hand, when the curve is convex downward as in the curve C2 of FIG. 17, it means that the ratio of the driver's gaze point exceeding the threshold value is lower than the random point. When a curve having a shape like the curve C2 in FIG. 17 is calculated, it means that the driver's line of sight is not affected by the high salience region.

本実施形態では、第4ステップとして、AUC(Area Under Curve)を求める。AUCは、この曲線の右下部分の積分値である。すなわち、AUCは、図18に斜線で示すように、図17の曲線C1(または曲線C2)と2点鎖線とで囲まれた領域の面積である。本実施形態では、この積分値をサリエンシー指標と呼んでいる。サリエンシー指標を用いることで、走行シーンによる依存性を低減させることができる。具体的には、例えば、運転者が単純に高サリエンシー領域を見た割合を算出するだけでは、走行シーンが全体的に高サリエンシー領域を含むような場合に、高サリエンシー領域を見る頻度が高いという結果が得られる恐れがある。これに対して、本実施形態のように、ランダム点との比較を行ったサリエンシー指標を用いることで、高サリエンシー領域の多さや広がり等、走行シーンへの依存性を低減することができ、より精度の高い判断をすることができるようになる。 In the present embodiment, the AUC (Area Under Curve) is obtained as the fourth step. AUC is the integral value of the lower right part of this curve. That is, the AUC is the area of the region surrounded by the curve C1 (or curve C2) and the alternate long and short dash line in FIG. 17, as shown by the diagonal lines in FIG. In this embodiment, this integrated value is called a salience index. By using the salience index, it is possible to reduce the dependence on the driving scene. Specifically, for example, if the driver simply calculates the ratio of seeing the high salience area, the high salience area is often seen when the driving scene includes the high salience area as a whole. Results may be obtained. On the other hand, by using the salience index compared with the random points as in the present embodiment, it is possible to reduce the dependence on the driving scene such as the number and spread of the high salience region. You will be able to make highly accurate judgments.

ステップST14において、サリエンシー指標が第2基準よりも高い場合、次のステップST15に進む。一方で、ステップST14において、サリエンシー指標が第2基準以下の場合、処理はステップST11に戻る。ステップST14は、例えば、判定ステップの一部を構成する処理の一例である。なお、ステップST11,ST12は、ステップST13,14の処理にかかわらず、車両の走行中は継続して実行される。 If the salience index is higher than the second criterion in step ST14, the process proceeds to the next step ST15. On the other hand, in step ST14, when the salience index is equal to or less than the second criterion, the process returns to step ST11. Step ST14 is, for example, an example of processing that constitutes a part of the determination step. It should be noted that steps ST11 and ST12 are continuously executed while the vehicle is running, regardless of the processing of steps ST13 and 14.

(ステップST15)
ステップS15では、制御部30は、運転者の異常に対応する制御を行う。例えば、制御部30は、運転者の異常の度合いが高い場合(例えば、運転者に疾患が発現したと認識した場合)、運転運動制御部37等を介してアクチュエータ11を制御して自動運転に切り替える処理を行う。また、制御部30は、通知部40を介して、運転者に「大丈夫ですか」、「少し休みませんか」との問いかけをする等、運転者に向けたアクチュエーションを実施し、運転者の反応を確認するようにしてもよい。例えば、制御部30は、上記のアクチュエーションの結果、運転者の反応が薄い場合に、アクチュエータ11を制御して自動運転に切り替える処理を行うようにしてもよい。
(Step ST15)
In step S15, the control unit 30 performs control corresponding to the driver's abnormality. For example, when the degree of abnormality of the driver is high (for example, when the driver recognizes that a disease has developed), the control unit 30 controls the actuator 11 via the driving motion control unit 37 or the like to perform automatic driving. Perform the switching process. In addition, the control unit 30 carries out an actuation for the driver, such as asking the driver "Is it okay" or "Would you like to take a rest?" Through the notification unit 40, and the driver. You may try to confirm the reaction of. For example, the control unit 30 may control the actuator 11 to switch to automatic operation when the driver's reaction is weak as a result of the above-mentioned actuation.

このように、運転者への問いかけや注意喚起などのアクチュエーションを実施することで、運転者の異常判定の精度を高めたり、運転者に安全な行動を促すことができる。 In this way, by carrying out actions such as asking the driver and calling attention to the driver, it is possible to improve the accuracy of the driver's abnormality determination and encourage the driver to take safe actions.

以上のように、本実施形態によると、できるだけ精度よく運転者の異常を検出することができる。具体的には、例えば、図19のように、サリエンシー指標のみを見た場合には、健常者が異常と誤判定されるような場面であっても、図14の太実線で示すように、高サリエンシー領域の広がりRWとサッケードの振幅dsとの相関性が低い場合、運転者の異常とは判定されない。これにより、視線がサリエンシーに誘引されている傾向をより精度よく抽出することができ、結果として運転者の異常を精度よく判定できる。 As described above, according to the present embodiment, it is possible to detect the driver's abnormality as accurately as possible. Specifically, for example, as shown in FIG. 19, when only the salience index is viewed, even in a situation where a healthy person is erroneously determined to be abnormal, as shown by the thick solid line in FIG. If the correlation between the spread RW of the high salience region and the amplitude ds of the saccade is low, it is not determined that the driver is abnormal. As a result, the tendency that the line of sight is attracted to salience can be extracted more accurately, and as a result, the driver's abnormality can be accurately determined.

なお、上記実施形態では、図19のステップST14において、高サリエンシー領域の広がりRWに応じて、第2基準を変更するようにしてもよい。サリエンシー領域の広がりが大きい場合には、高サリエンシー領域も多くなるため、健常者であっても高サリエンシー領域を見る確率は高くなることが想定される。そこで、高サリエンシー領域の広がりに応じて第2基準を変更することにより、運転者の異常判定の誤判定を低減することができる。 In the above embodiment, in step ST14 of FIG. 19, the second criterion may be changed according to the spread RW of the high salience region. When the extent of the salience region is large, the high salience region also increases, so it is expected that even a healthy person will have a high probability of seeing the high salience region. Therefore, by changing the second criterion according to the expansion of the high salience region, it is possible to reduce the erroneous determination of the driver's abnormality determination.

また、上記の実施形態では、図19のステップST13において、サリエンシーマップの高サリエンシー領域の広がりと、運転者のサッケードの振幅dsの大きさとの間に相関があるか否かを判定するものとしたが、これに限定されない。例えば、サッケードの振幅dsに加えてまたは変えて、サッケードの頻度fsをパラメータとして用いてもよい。 Further, in the above embodiment, in step ST13 of FIG. 19, it is determined whether or not there is a correlation between the extent of the high salience region of the salience map and the magnitude of the amplitude ds of the driver's saccade. However, it is not limited to this. For example, the frequency fs of the saccade may be used as a parameter in addition to or changed by the amplitude ds of the saccade.

ここに開示された技術は、自動車に搭載される運転者状態判定装置として有用である。 The technology disclosed herein is useful as a driver condition determination device mounted on an automobile.

21a 前カメラ(車外情報取得手段)
30 制御部(車両制御部)
302 注視点検出部
21a Front camera (means for acquiring information outside the vehicle)
30 Control unit (vehicle control unit)
302 Gaze point detector

Claims (3)

車両に設けられる車両制御装置であって、
前記車両の運転者の注視点を検出する注視点検出部と、
前記車両前側の環境情報を取得する車外情報取得手段から車外環境情報を受信し、該車外環境情報に基づいた高サリエンシー領域の広がりと前記注視点検出部で検出された前記運転者のサッケードの振幅との間の相関度が所定の第1基準よりも高い場合において、前記注視点検出部で検出された運転者の注視点がサリエンシーの高い領域を見る傾向が所定の第2基準よりも高いときに、運転者の異常に対応する動作を行う車両制御部とを備える
ことを特徴とする車両制御装置。
A vehicle control device installed in a vehicle
A gaze point detection unit that detects the gaze point of the driver of the vehicle,
The outside environment information is received from the outside information acquisition means for acquiring the environment information on the front side of the vehicle, the expansion of the high salience region based on the outside environment information and the amplitude of the driver's sacked detected by the gazing point detection unit. When the degree of correlation with is higher than the predetermined first criterion, and the driver's gaze point detected by the gaze point detection unit has a higher tendency to see a region with high salience than the predetermined second criterion. In addition, a vehicle control device including a vehicle control unit that performs an operation corresponding to an abnormality of the driver.
請求項1に記載の車両制御装置において、
前記高サリエンシー領域の広がりに応じて前記第2基準を変更する
ことを特徴とする車両制御装置。
In the vehicle control device according to claim 1,
A vehicle control device characterized in that the second criterion is changed according to the expansion of the high salience region.
車両の運転者の状態を判定する運転者状態判定方法であって、
前記車両の運転者の注視点、及び、該注視点の動きに基づくサッケード振幅を検出する注視点検出ステップと、
前記車両前側の環境情報を取得する車外情報取得手段から受信した車外環境情報を基にしてサリエンシーマップを生成するマップ生成ステップと、
前記マップ生成ステップで生成されたサリエンシーマップの高サリエンシー領域の広がりと前記注視点検出ステップで検出された前記運転者のサッケード振幅の大きさとの間に相関がある場合において、前記注視点検出ステップで検出された運転者の注視点が前記高サリエンシー領域を見る傾向が所定の基準値よりも高いときに、運転者に異常があると判定する判定ステップとを備える
ことを特徴とする運転者状態判定方法。
It is a driver state determination method for determining the state of the driver of a vehicle.
A gaze point detection step for detecting the gaze point of the driver of the vehicle and the saccade amplitude based on the movement of the gaze point, and the gaze point detection step.
A map generation step of generating a survivor map based on the vehicle exterior environment information received from the vehicle exterior information acquisition means for acquiring the environment information on the front side of the vehicle, and a map generation step.
When there is a correlation between the extent of the high salience region of the salience map generated in the map generation step and the magnitude of the driver's saccade amplitude detected in the gaze point detection step, the gaze point detection step The driver state is characterized by comprising a determination step of determining that the driver has an abnormality when the gaze point of the driver detected in the above is higher than a predetermined reference value. Judgment method.
JP2019203790A 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method Active JP7415459B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019203790A JP7415459B2 (en) 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203790A JP7415459B2 (en) 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method

Publications (2)

Publication Number Publication Date
JP2021077140A true JP2021077140A (en) 2021-05-20
JP7415459B2 JP7415459B2 (en) 2024-01-17

Family

ID=75897981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203790A Active JP7415459B2 (en) 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method

Country Status (1)

Country Link
JP (1) JP7415459B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068917A (en) * 2005-09-09 2007-03-22 Nissan Motor Co Ltd Visibility situation judgment apparatus, automobile, and visibility situation judgment method
JP5718493B1 (en) * 2014-01-16 2015-05-13 日本電信電話株式会社 Sound saliency estimating apparatus, method and program thereof
WO2017195405A1 (en) * 2016-05-11 2017-11-16 ソニー株式会社 Image processing apparatus, image processing method, and mobile body

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068917A (en) * 2005-09-09 2007-03-22 Nissan Motor Co Ltd Visibility situation judgment apparatus, automobile, and visibility situation judgment method
JP5718493B1 (en) * 2014-01-16 2015-05-13 日本電信電話株式会社 Sound saliency estimating apparatus, method and program thereof
WO2017195405A1 (en) * 2016-05-11 2017-11-16 ソニー株式会社 Image processing apparatus, image processing method, and mobile body

Also Published As

Publication number Publication date
JP7415459B2 (en) 2024-01-17

Similar Documents

Publication Publication Date Title
JP7332726B2 (en) Detecting Driver Attention Using Heatmaps
KR102533860B1 (en) Image processing device and image processing method
JP4872245B2 (en) Pedestrian recognition device
JP7342638B2 (en) Driver status detection device
CN113276821B (en) Driver state estimating device
KR101986734B1 (en) Driver assistance apparatus in vehicle and method for guidance a safety driving thereof
JP2021167165A (en) Driver abnormality determination system
CN113276822B (en) Driver state estimating device
JP7342637B2 (en) Vehicle control device and driver condition determination method
JP7342636B2 (en) Vehicle control device and driver condition determination method
JP7415459B2 (en) Vehicle control device and driver condition determination method
JP7415460B2 (en) Vehicle control device and driver condition determination method
JP2021167163A (en) Driver abnormality determination device
JP2009206689A (en) Vehicle display device and vehicle display method
JP7298510B2 (en) state estimator
JP7318560B2 (en) state estimator
JP7276083B2 (en) Driver state estimation device
JP7322667B2 (en) Driver state estimation device
JP2023022409A (en) Driver state determination method and driver state determination system
JP2023022410A (en) Driver state determination method and driver state determination system
JP2023120985A (en) Image display device and method for displaying image
CN113044060A (en) Driving consciousness estimating device
JP2021133753A (en) State presumption device
JP2021133754A (en) State presumption device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7415459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150