JP7415459B2 - Vehicle control device and driver condition determination method - Google Patents

Vehicle control device and driver condition determination method Download PDF

Info

Publication number
JP7415459B2
JP7415459B2 JP2019203790A JP2019203790A JP7415459B2 JP 7415459 B2 JP7415459 B2 JP 7415459B2 JP 2019203790 A JP2019203790 A JP 2019203790A JP 2019203790 A JP2019203790 A JP 2019203790A JP 7415459 B2 JP7415459 B2 JP 7415459B2
Authority
JP
Japan
Prior art keywords
driver
vehicle
saliency
gaze point
map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019203790A
Other languages
Japanese (ja)
Other versions
JP2021077140A (en
Inventor
耕二 岩瀬
雅之 渡邊
陽子 星野
亜希子 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2019203790A priority Critical patent/JP7415459B2/en
Publication of JP2021077140A publication Critical patent/JP2021077140A/en
Application granted granted Critical
Publication of JP7415459B2 publication Critical patent/JP7415459B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Traffic Control Systems (AREA)

Description

ここに開示する技術は、例えば車両制御装置及び自動車を運転する運転者の状態を判定する運転者状態判定方法に関する。 The technology disclosed herein relates to, for example, a vehicle control device and a driver state determination method for determining the state of a driver who drives an automobile.

昨今、国家的に自動運転システムの開発が推進されている。本願出願人は、現時点において、自動運転システムには、大きく分けると2つの方向性があると考えている。 Recently, the development of autonomous driving systems has been promoted nationally. The applicant of this application currently believes that there are two main directions for automatic driving systems.

第1の方向性は、自動車が主体となって運転者の操作を要することなく乗員を目的地まで運ぶシステムであり、いわゆる自動車の完全自動走行である。第2の方向性は、「自動車の運転が楽しめる環境を提供する」というように、あくまで人間が運転をすることを前提とした自動運転システムである。 The first direction is a system in which the vehicle plays a central role in transporting passengers to their destination without requiring any operation by the driver, which is what is called fully automated vehicle driving. The second direction is an automated driving system that is based on the assumption that a human will be driving the car, such as ``providing an environment where driving can be enjoyed.''

第2の方向性の自動運転システムでは、例えば、運転者に疾患等が発生し正常な運転が困難な状況が発生した場合等に、自動的に、自動車が乗員に変わって自動運転を行うことが想定される。このため、運転者に異常が発生したこと、特に、運転者に機能障害や疾患が発生したことをいかに早期にかつ精度良く発見できるかが、運転者の救命率の向上や周囲を含めた安全を確保する観点から極めて重要となる。 In the second direction of automated driving systems, when a situation arises in which the driver becomes ill and is unable to drive normally, for example, the vehicle automatically replaces the passenger and performs automated driving. is assumed. Therefore, it is important to be able to detect abnormalities in the driver as early as possible and accurately, especially when the driver has developed a functional disorder or disease, to improve the survival rate of the driver and to ensure the safety of everyone, including those around them. This is extremely important from the perspective of ensuring that

運転者の異常を判定する方法として、例えば、特許文献1には、車両の前方画像をマッピングし、マッピングされた前方画像の画素値に基づいて目立ち度マップ(サリエンシーマップ)を生成するとともに、ドライバの視線先の目立ち度を計算し、ドライバが目立つ部分に視線を向けた度合いと予め定めた閾値とを比較して、ドライバが漫然状態か否かを判定する技術が開示されている。 As a method for determining abnormality of a driver, for example, Patent Document 1 describes a method in which a front image of a vehicle is mapped, a conspicuousness map (saliency map) is generated based on the pixel values of the mapped front image, and A technique has been disclosed that calculates the degree of conspicuousness of a driver's line of sight, and compares the degree to which the driver has turned his/her line of sight to a predetermined threshold with a predetermined threshold value to determine whether or not the driver is distracted.

特許文献1の技術は、ドライバが漫然状態にある場合には、意図的な注意機能が働かなくなるため、例えば、死角領域からの歩行者の飛び出しが起こり得るような危険な場所に視線が行かなくなり、視覚的な刺激の目立つ部分に視線が向けられるという視線配分特性に基づいた判定となっている。 In the technology of Patent Document 1, when the driver is distracted, the intentional attention function does not work, so for example, the driver's line of sight does not go to a dangerous place where a pedestrian may jump out of the blind spot. , the judgment is based on the gaze distribution characteristic that the gaze is directed to the prominent part of the visual stimulus.

特許第5966640号公報Patent No. 5966640

発明者らは、機能障害者と健常者とによりドライビングシミュレータで視線検出を行った結果、機能障害者でもサリエンシーが高い領域に誘目されない場合や健常者でもサリエンシーが高い領域に誘目される場合が多数生じることが分かった。 The inventors conducted line-of-sight detection using a driving simulator using a driving simulator for people with impairments and healthy people, and found that there were many cases where even people with impairments were not attracted to areas with high salience, and even healthy people were often attracted to areas with high salience. I found out that it occurs.

例えば、サリエンシーが高い領域が、同時に運転中に見るべき注意箇所である場合に、健常者であってもサリエンシーが高い領域に視線が向かい、結果として、疾患発生と誤判定される場合がある。 For example, if an area with high salience is also a caution point that should be looked at while driving, even a healthy person may direct their line of sight to the area with high salience, and as a result, it may be erroneously determined that a disease has occurred.

ここに開示された技術は、斯かる点に鑑みてなされたものであり、サリエンシーに対する誘目傾向から運転者の状態判定をする運転者状態判定装置において、車両の走行環境にかかわらずにできるだけ精度よく運転者の異常を検出できるようにすることにある。 The technology disclosed herein has been developed in view of these points, and is capable of determining the driver's condition as accurately as possible regardless of the driving environment of the vehicle in a driver condition determination device that determines the driver's condition based on the tendency to attract attention to saliency. The purpose is to be able to detect abnormalities of the driver.

前記課題を解決するために、ここに開示された技術では、車両に搭載される車両制御装置を対象として、前記車両の運転者の注視点を検出する注視点検出部と、前記車両前側の環境情報を取得する車外情報取得手段から車外環境情報を受信し、該車外環境情報に基づいた高サリエンシー領域の広がりと前記注視点検出部で検出された前記運転者のサッケードの振幅との間の相関度が所定の第1基準よりも高い場合において、前記注視点検出部で検出された運転者の注視点がサリエンシーの高い領域を見る傾向が所定の第2基準よりも高いときに、運転者の異常に対応する動作を行う車両制御部とを備える、構成とした。 In order to solve the above problem, the technology disclosed herein includes a gaze point detection unit that detects a gaze point of a driver of the vehicle, and an environment in front of the vehicle, for a vehicle control device installed in a vehicle. Receiving vehicle exterior environment information from vehicle exterior information acquisition means for acquiring information, and correlation between the spread of a high salience region based on the vehicle exterior environment information and the amplitude of the driver's saccade detected by the gaze point detection unit. If the driver's gaze point detected by the gaze point detection unit has a higher tendency to look at an area with high salience than a predetermined second criterion, The vehicle control unit is configured to include a vehicle control unit that performs operations in response to abnormalities.

ここで、サリエンシーとは、色、輝度、動き等により刻々と変化する顕著性からなる視覚特徴量である。高サリエンシー領域とは、運転者の視界領域のうちでサリエンシーが高い(顕著性が高い)領域を指すものとし、換言すると、周囲に対して目立つ領域を指すものとする。より具体的には、高サリエンシー領域は、例えば、周囲の領域に対して色差や輝度差が大きかったり、周囲に対して大きな動きをしていたりする領域を指すものとする。 Here, saliency is a visual feature amount consisting of saliency that changes from moment to moment due to color, brightness, movement, etc. The high saliency area refers to an area where saliency is high (high conspicuousness) in the driver's visual field, or in other words, an area that stands out from the surroundings. More specifically, a high saliency region refers to, for example, a region that has a large color difference or brightness difference compared to surrounding regions, or that has a large movement relative to the surrounding regions.

また、サッケードとは、運転者が意図的に視線を移動させる跳躍性眼球運動のことであり、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。サッケードの振幅とは、運転者の視線が所定時間停滞する注視点から次の注視点への移動した場合における移動量のことを指す。 Furthermore, a saccade is a jumping eye movement in which the driver intentionally moves his/her line of sight, and is an eye movement in which the driver moves his/her line of sight from a point of gaze where the line of sight remains stagnant for a predetermined period of time to the next point of gaze. The amplitude of a saccade refers to the amount of movement when the driver's line of sight moves from a gaze point where it remains stagnant for a predetermined period of time to the next gaze point.

この構成によると、高サリエンシー領域の広がりと運転者のサッケードの振幅との間の相関度を見ることにより、運転者の視点が高サリエンシー領域に誘引されている傾向を抽出することができる。この運転者の視点が高サリエンシー領域に誘引されている傾向と、運転者の注視点がサリエンシーの高い領域を見る傾向とを組み合わせることで、運転者の異常対応をより適切に行うことができる。 According to this configuration, by looking at the degree of correlation between the spread of the high saliency area and the amplitude of the driver's saccades, it is possible to extract the tendency for the driver's viewpoint to be drawn to the high saliency area. By combining this tendency for the driver's viewpoint to be drawn to the high saliency region and the tendency for the driver's gaze point to look at the high saliency region, the driver can more appropriately respond to abnormalities.

前記車両制御装置の一実施形態として、前記高サリエンシー領域の広がりに応じて前記第2基準を変更する、としてもよい。 In one embodiment of the vehicle control device, the second reference may be changed depending on the extent of the high saliency region.

サリエンシー領域の広がりが大きい場合には、高サリエンシー領域も多くなるため、健常者であっても高サリエンシー領域を見る確率は高くなることが想定される。そこで、高サリエンシー領域の広がりに応じて第2基準を変更することにより、運転者の異常判定の誤判定を低減することができる。 When the saliency region spreads widely, the number of high saliency regions increases, so it is assumed that even a healthy person will have a high probability of seeing a high saliency region. Therefore, by changing the second standard according to the spread of the high saliency region, it is possible to reduce erroneous abnormality determinations by the driver.

前記課題を解決するために、ここに開示された技術では、車両の運転者の状態を判定する運転者状態判定方法を対象として、前記車両の運転者の注視点、及び、該注視点の動きに基づくサッケード振幅を検出する注視点検出ステップと、前記車両前側の環境情報を取得する車外情報取得手段から受信した車外環境情報を基にしてサリエンシーマップを生成するマップ生成ステップと、前記マップ生成ステップで生成されたサリエンシーマップの高サリエンシー領域の広がりと前記注視点検出ステップで検出された前記運転者のサッケード振幅の大きさとの間に相関がある場合において、前記注視点検出部で検出された運転者の注視点が前記高サリエンシー領域を見る傾向が所定の基準値よりも高いときに、運転者に異常があると判定する判定ステップとを備える。 In order to solve the above problem, the technology disclosed herein targets a driver state determination method for determining the state of a driver of a vehicle, and includes a method for determining the state of the driver of a vehicle, and a movement of the point of view of the driver of the vehicle. a gaze point detection step of detecting a saccade amplitude based on the saccade amplitude; a map generation step of generating a saliency map based on the vehicle exterior environment information received from the vehicle exterior information acquisition means acquiring the vehicle front side environment information; and the map generation step. In the case where there is a correlation between the spread of the high saliency region of the saliency map generated in step and the magnitude of the saccade amplitude of the driver detected in the gaze point detection step, the saccade amplitude detected by the gaze point detection unit is and a determination step of determining that the driver has an abnormality when the tendency of the driver's gaze point to look at the high saliency region is higher than a predetermined reference value.

この方法によると、高サリエンシー領域の広がりと運転者のサッケードの振幅との間の相関度を見ることにより、運転者の視点が高サリエンシー領域に誘引されている傾向を抽出することができる。この運転者の視点が高サリエンシー領域に誘引されている傾向と、運転者の注視点がサリエンシーの高い領域を見る傾向とを組み合わせることで、運転者の異常判定の精度を高めることができる。 According to this method, by looking at the degree of correlation between the spread of the high saliency area and the amplitude of the driver's saccades, it is possible to extract the tendency for the driver's viewpoint to be drawn to the high saliency area. By combining this tendency for the driver's viewpoint to be attracted to the high saliency region and the tendency for the driver's gaze point to look at the high saliency region, it is possible to improve the accuracy of the driver's abnormality determination.

以上説明したように、ここに開示された技術によると、運転者の異常対応をより適切に行うことができる。 As described above, according to the technology disclosed herein, the driver can more appropriately respond to abnormalities.

例示的な実施形態に係る運転者状態推定装置を搭載した車両の車室内を前側部分を示す概略図である。1 is a schematic diagram showing a front portion of a vehicle interior of a vehicle equipped with a driver state estimation device according to an exemplary embodiment; FIG. 車両を前側から見た正面図である。FIG. 2 is a front view of the vehicle seen from the front. 例示的な実施形態に係る車両制御システムの構成を例示するブロック図である。FIG. 1 is a block diagram illustrating the configuration of a vehicle control system according to an exemplary embodiment. 運転者状態検出部の構成を例示するブロック図である。FIG. 2 is a block diagram illustrating the configuration of a driver state detection section. 前カメラにより撮影された車両前側の外部環境画像の一例を示す図である。FIG. 3 is a diagram showing an example of an external environment image on the front side of the vehicle taken by a front camera. 図5の外部環境画像を基にした合成画像の一例を示す図である。6 is a diagram showing an example of a composite image based on the external environment image of FIG. 5. FIG. 図6の合成画像のサリエンシーマップの一例を示す図である。7 is a diagram showing an example of a saliency map of the composite image of FIG. 6. FIG. 図5の例において健常者及び注意機能障害患者による視線移動の一例を示すグラフである。6 is a graph showing an example of eye movement by a healthy person and an attention dysfunction patient in the example of FIG. 5. FIG. 前カメラにより撮影された車両前側の外部環境画像を基にした合成画像の他の例を示す図である。FIG. 7 is a diagram showing another example of a composite image based on an external environment image on the front side of the vehicle taken by a front camera. 図9の合成画像のサリエンシーマップの一例を示す図である。10 is a diagram showing an example of a saliency map of the composite image of FIG. 9. FIG. 図10の例において健常者及び注意機能障害患者による視線移動の一例を示すグラフである。11 is a graph showing an example of gaze movement by a healthy person and an attention dysfunction patient in the example of FIG. 10. サッケードの抽出について説明するためのグラフである。It is a graph for explaining extraction of saccades. サッケードのノイズ除去処理について説明するためのグラフである。It is a graph for explaining saccade noise removal processing. 運転者のサリエンシーの広がりとサッケード振幅との関係を模式的に示した概念図である。FIG. 2 is a conceptual diagram schematically showing the relationship between the spread of the driver's salience and the saccade amplitude. 運転者の注視点のサリエンシーの時間変化の一例を示した図である。FIG. 3 is a diagram showing an example of a change in saliency over time of a driver's gaze point. 図15と同じ環境でランダムに座標を指定した場合におけるサリエンシーの時間変化の一例を示した図である。FIG. 16 is a diagram showing an example of changes in saliency over time when coordinates are specified randomly in the same environment as FIG. 15; ランダム点における閾値を超える割合と運転者の注視点における閾値を超える割合とを比較したグラフである。It is a graph comparing the proportion exceeding the threshold value at random points and the proportion exceeding the threshold value at the driver's gaze point. サリエンシー指標について説明するための図である。FIG. 2 is a diagram for explaining a saliency index. 車両制御装置の動作を例示するフローチャートである。3 is a flowchart illustrating the operation of the vehicle control device. 健常者のサリエンシー指標の時間分布の一例を示した図である。FIG. 2 is a diagram showing an example of the time distribution of the salience index of healthy individuals. 注意機能患者のサリエンシー指標の時間分布の一例を示した図である。FIG. 3 is a diagram illustrating an example of the temporal distribution of the salience index of an attention function patient.

<本願発明者らにより得られた知見>
特許文献1にも示されているように、運転者のサリエンシーに対する視線移動の変化を見て、運転者の異常(注意機能低下を引き起こす異常)を検出する技術が知られている。この技術では、例えば、サリエンシーが高い領域(高サリエンシー領域)への視線移動が所定の閾値を超える場合に運転者の異常を検出する。
<Findings obtained by the inventors>
As disclosed in Patent Document 1, there is a known technique for detecting an abnormality in a driver (an abnormality that causes a decline in attention function) by observing changes in the driver's line of sight movement with respect to saliency. In this technique, for example, an abnormality of the driver is detected when the line of sight movement toward an area with high salience (high saliency area) exceeds a predetermined threshold value.

本願発明者らは、鋭意研究の結果、注意機能障害者の車両運転時の挙動を観測することにより、車両の運転者の異常時(注意機能低下を引き起こす異常時)の挙動を擬似的に観測することができることを見出した。そして、本願発明者らは、上記の観測結果を基に、高サリエンシー領域への視線移動が所定の閾値を超える場合に運転者の異常を検出するという手法について検証を行った。具多的には、注意機能障害者の車両運転時の挙動と、注意機能障害を有さない健常者の車両運転時の挙動とについて、後述するサリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の閾値を超える場合に運転者の異常を検出するという手法についての検証を行った。 As a result of intensive research, the inventors of the present application have simulated the behavior of vehicle drivers during abnormal situations (abnormal situations that cause a decline in attention function) by observing the behavior of people with attention dysfunction when driving a vehicle. I found out that it can be done. Based on the above observation results, the inventors of the present application verified a method of detecting a driver's abnormality when the line of sight movement toward a high saliency region exceeds a predetermined threshold value. Specifically, we examined the behavior of people with attention dysfunction when driving a vehicle and the behavior of healthy people without attention dysfunction when driving a vehicle, using the salience index described later to move the line of sight to a high salience region. We verified a method that detects the tendency of the driver and detects driver abnormality when the salience index exceeds a predetermined threshold.

この検証の結果、本願発明者らは、機能障害者でもサリエンシーが高い領域に誘目されない場合や健常者でもサリエンシーが高い領域に誘目される場合が多数生じることが分かった。例えば、サリエンシーが高い領域が、同時に運転中に見るべき注意箇所である場合に、健常者であってもサリエンシーが高い領域に視線が向かい、結果として、疾患発生と誤判定される場合があることが分かった。 As a result of this verification, the inventors of the present application found that there are many cases in which even people with functional disabilities are not attracted to areas with high salience, and cases in which even healthy people are attracted to areas with high salience. For example, if an area with high salience is also a cautionary point to look at while driving, even healthy people may direct their eyes to the area with high salience, and as a result, it may be erroneously determined that a disease has occurred. I understand.

図20,21は、ドライビングシミュレータを用いて運転者の視線を検出し、サリエンシー指標の時間変化としてプロットしたものである。図20は健常者の測定結果であり、図21は機能障害患者の測定結果である。ただし、走行スピードが互いに異なるので、時間軸と走行場所が必ずしも一致しているわけではない。 20 and 21 show the driver's line of sight detected using a driving simulator and plotted as a time change in the saliency index. FIG. 20 shows the measurement results of a healthy person, and FIG. 21 shows the measurement results of a functionally impaired patient. However, since the running speeds are different from each other, the time axis and the running location do not necessarily match.

詳細は後述するが、サリエンシー指標とは、高サリエンシー領域への誘目度が高いほど数値が高くなる指標となっている。図20,21の例では、高サリエンシー領域への誘目度が相対的に高いと判断される0.6に閾値を設定し、サリエンシー指標が0.6を超える場合に注意機能の障害があると推定するものとした。 Although the details will be described later, the saliency index is an index whose numerical value increases as the degree of attraction to a high saliency region increases. In the examples shown in Figures 20 and 21, the threshold is set to 0.6, which indicates that the degree of attraction to the high salience region is relatively high, and when the salience index exceeds 0.6, it is determined that there is a failure in attention function. It was assumed that the

そうすると、健常者でもサリエンシー指標が0.6を超える場面が散見されることが分かった(図20のAR1参照)。例えば、消防車のようにサリエンシーの高い車両を追い抜く際などには、健常者であってもサリエンシーの高い場所に誘目される傾向がある。また、機能障害患者であっても、交差点等の危険度が高い場所において、サリエンシー指標が低い場所でも確認する場合があり、サリエンシー指標が低い領域が確認されている(図21のAR2参照)。 As a result, it was found that even in healthy subjects, there were some cases where the salience index exceeded 0.6 (see AR1 in FIG. 20). For example, when passing a vehicle with high salience such as a fire truck, even healthy people tend to be attracted to places with high salience. In addition, even in patients with functional disorders, the saliency index may be confirmed in high-risk locations such as intersections, and areas with a low saliency index have been confirmed (see AR2 in FIG. 21).

そこで、本願発明者らは、さらに鋭意検討を重ね、サリエンシー指標に加えて、サリエンシーの空間的な広がりを見ることで、運転者の異常を検出することができることを見出した。 Therefore, the inventors of the present application further conducted extensive studies and found that it is possible to detect abnormalities in the driver by looking at the spatial spread of saliency in addition to the saliency index.

具体的には、本願発明者らは、サリエンシー指標を用いて運転者の注視点が高サリエンシー領域に向かう傾向があるかを検知するとともに、サリエンシーの空間的な広がりと運転者の視線分布の広がりとの相関の度合いを検知する。そして、運転者の注視点が高サリエンシー領域に向かう傾向がある場合で、サリエンシーの空間的な広がりと視線分布の広がりの相関の度合いが高い場合に、運転者に異常があると判定することで、運転者の異常検出の精度を高めることができることを見出した。 Specifically, the inventors used a salience index to detect whether the driver's gaze point tends to move toward a high salience region, and also to detect the spatial spread of salience and the spread of the driver's line of sight distribution. Detect the degree of correlation between Then, when the driver's gaze point tends to move toward a high salience region, and when the degree of correlation between the spatial spread of saliency and the spread of the gaze distribution is high, it can be determined that there is an abnormality in the driver. We found that the accuracy of driver abnormality detection can be improved.

以下において、例示的な実施形態について、図面を参照しながら具体的に説明する。なお、以下の説明において、車両の前進走行側を単に前側といい、後退走行側を単に後側という。また、後側から前側を見たときの左側を左側といい、その逆を右側という。 In the following, exemplary embodiments will be specifically described with reference to the drawings. In the following description, the forward traveling side of the vehicle is simply referred to as the front side, and the backward traveling side is simply referred to as the rear side. Also, when looking from the rear to the front, the left side is called the left side, and the opposite is called the right side.

図1は、車両としての自動車の車室内を概略的に示す。この車両は、右ハンドル式の車両であって、右側にステアリングホイール58が配置されている。 FIG. 1 schematically shows the interior of an automobile as a vehicle. This vehicle is a right-hand drive vehicle, and a steering wheel 58 is disposed on the right side.

車室内において、運転席から見て車両前側にはフロントウィンドウガラス51が配置されている。フロントウィンドウガラス51は、車室内側から見て、複数の車両構成部材により区画されている。具体的には、フロントウィンドウガラス51は、左右のフロントピラートリム52と、ルーフトリム53と、インストルメントパネル54とによって区画されている。 In the vehicle interior, a front window glass 51 is arranged on the front side of the vehicle when viewed from the driver's seat. The front window glass 51 is partitioned by a plurality of vehicle structural members when viewed from the inside of the vehicle. Specifically, the front window glass 51 is divided by left and right front pillar trims 52, a roof trim 53, and an instrument panel 54.

左右のフロントピラートリム52は、フロントウィンドウガラス51の車幅方向外側の境界をそれぞれ構成している。各フロントピラートリム52は、各フロントピラーに沿って配置されている。ルーフトリム53は、フロントウィンドウガラス51の上側の境界を構成している。ルーフトリム53は、車両のルーフパネルの車室内側を覆っている。フロントウィンドウガラス51の車幅方向の中央でかつルーフトリム53のやや下側の部分には、バックミラー55が取り付けられている。ルーフトリム53におけるバックミラー55の近傍部分には、車室内、特に、運転者の顔面を撮影する車内カメラ28(図3参照)が設けられている。車内カメラ28については後で詳しく説明する。インストルメントパネル54は、フロントウィンドウガラス51の下側の境界を構成している。インストルメントパネル54には、メーターボックスやディスプレイ57が設けられている。 The left and right front pillar trims 52 constitute outer boundaries of the front window glass 51 in the vehicle width direction, respectively. Each front pillar trim 52 is arranged along each front pillar. The roof trim 53 constitutes the upper boundary of the front window glass 51. The roof trim 53 covers the interior side of the roof panel of the vehicle. A rearview mirror 55 is attached to a portion at the center of the front window glass 51 in the vehicle width direction and slightly below the roof trim 53. An in-vehicle camera 28 (see FIG. 3) for photographing the interior of the vehicle, particularly the driver's face, is provided in a portion of the roof trim 53 near the rearview mirror 55. The in-vehicle camera 28 will be explained in detail later. The instrument panel 54 constitutes the lower boundary of the front window glass 51. The instrument panel 54 is provided with a meter box and a display 57.

また、車両は、左右のフロントピラーよりも車幅方向外側に、サイドミラー56をそれぞれ有している。各サイドミラー56は、運転席に着座した運転手がサイドドアのウィンドウ越しに見ることが出来るように配置されている。 Further, the vehicle has side mirrors 56 on the outer sides of the left and right front pillars in the vehicle width direction. Each side mirror 56 is arranged so that the driver seated in the driver's seat can see through the window of the side door.

図2に示すように、車両には、車両前側の外部環境を撮影するためのカメラ(以下、前カメラ21aという)が設けられている。前カメラ21aは、車両の前側端部であって、車両のボンネット59よりもやや下側に配置されている。前カメラ21aは、車両前側の環境情報を取得する車外情報取得手段の一例である。 As shown in FIG. 2, the vehicle is provided with a camera (hereinafter referred to as front camera 21a) for photographing the external environment on the front side of the vehicle. The front camera 21a is located at the front end of the vehicle, slightly below the hood 59 of the vehicle. The front camera 21a is an example of outside-vehicle information acquisition means that acquires environmental information on the front side of the vehicle.

<車両制御システム>
図3は、実施形態による車両制御システム10の構成を例示する。車両制御システム10は、車両(具体的には自動四輪車)に設けられる。車両は、マニュアル運転と、アシスト運転と、自動運転とに切り換え可能である。マニュアル運転は、運転者の操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、運転者の操作を支援して走行する運転である。自動運転は、運転者の操作なしに走行する運転である。車両制御システム10は、アシスト運転および自動運転において、車両を制御する。具体的には、車両制御システム10は、車両に設けられたアクチュエータ11を制御することで車両の動作(特に走行)を制御する。
<Vehicle control system>
FIG. 3 illustrates the configuration of the vehicle control system 10 according to the embodiment. The vehicle control system 10 is provided in a vehicle (specifically, a four-wheeled motor vehicle). The vehicle can be switched between manual driving, assisted driving, and automatic driving. Manual driving is driving in response to the driver's operations (for example, accelerator operation). Assisted driving is driving in which the vehicle supports the driver's operations. Autonomous driving is driving without driver input. The vehicle control system 10 controls the vehicle in assisted driving and automatic driving. Specifically, the vehicle control system 10 controls the operation (especially driving) of the vehicle by controlling an actuator 11 provided in the vehicle.

車両制御システム10は、情報取得部20と、制御部30と、通知部40とを備える。なお、以下の説明では、車両制御システム10が設けられている車両を「自車両」と記載し、自車両の周囲に存在する他の車両を「他車両」と記載する。 The vehicle control system 10 includes an information acquisition section 20, a control section 30, and a notification section 40. In the following description, the vehicle provided with the vehicle control system 10 will be referred to as the "host vehicle", and other vehicles existing around the host vehicle will be referred to as "other vehicles".

-アクチュエータ-
アクチュエータ11は、駆動系のアクチュエータ、操舵系のアクチュエータ、制動系のアクチュエータなどを含む。駆動系のアクチュエータの例としては、エンジン、モータ、トランスミッションが挙げられる。操舵系のアクチュエータの例としては、ステアリングが挙げられる。制動系のアクチュエータの例としては、ブレーキが挙げられる。
-Actuator-
The actuator 11 includes a drive system actuator, a steering system actuator, a brake system actuator, and the like. Examples of drive system actuators include engines, motors, and transmissions. An example of a steering system actuator is a steering wheel. An example of a brake system actuator is a brake.

-情報取得部-
情報取得部20は、車両の制御(特に走行制御)に用いられる各種情報を取得する。この例では、情報取得部20は、複数のカメラ21と、複数のレーダ22と、位置センサ23と、外部入力部24と、車両状態センサ25と、運転操作センサ26と、運転者状態センサ27とを含む。
-Information acquisition department-
The information acquisition unit 20 acquires various information used for vehicle control (particularly driving control). In this example, the information acquisition section 20 includes a plurality of cameras 21, a plurality of radars 22, a position sensor 23, an external input section 24, a vehicle condition sensor 25, a driving operation sensor 26, and a driver condition sensor 27. including.

〔カメラ〕
複数のカメラ21は、互いに同様の構成を有する。複数のカメラ21は、車両の周囲を囲うように車両に設けられる。複数のカメラ21の各々は、車両の周囲に広がる環境(車両の外部環境)の一部を撮像することで、車両の外部環境の一部を示す画像データを取得する。複数のカメラ21の各々により得られた画像データは、制御部30に送信される。複数のカメラ21は、前述の前カメラ21aを含む。
〔camera〕
The plurality of cameras 21 have mutually similar configurations. A plurality of cameras 21 are provided on the vehicle so as to surround the vehicle. Each of the plurality of cameras 21 acquires image data representing a part of the external environment of the vehicle by capturing an image of a part of the environment surrounding the vehicle (external environment of the vehicle). Image data obtained by each of the plurality of cameras 21 is transmitted to the control unit 30. The plurality of cameras 21 include the above-mentioned front camera 21a.

この例では、カメラ21は、広角レンズを有する単眼カメラである。例えば、カメラ21は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。なお、カメラ21は、狭角レンズを有する単眼カメラであってもよいし、広角レンズまたは狭角レンズを有するステレオカメラであってもよい。 In this example, camera 21 is a monocular camera with a wide-angle lens. For example, the camera 21 is configured using a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal-Oxide-Semiconductor). Note that the camera 21 may be a monocular camera with a narrow-angle lens, or may be a stereo camera with a wide-angle lens or a narrow-angle lens.

〔レーダ〕
複数のレーダ22は、互いに同様の構成を有する。複数のレーダ22は、車両の周囲を囲うように車両に設けられる。複数のレーダ22の各々は、車両の外部環境の一部を検出する。具体的には、レーダ22は、車両の外部環境の一部へ向けて電波を送信して車両の外部環境の一部からの反射波を受信することで、車両の外部環境の一部を検出する。複数のレーダ22の検出結果は、制御部30に送信される。
[Radar]
The plurality of radars 22 have mutually similar configurations. The plurality of radars 22 are provided in the vehicle so as to surround the vehicle. Each of the plurality of radars 22 detects a part of the external environment of the vehicle. Specifically, the radar 22 detects a part of the external environment of the vehicle by transmitting radio waves toward a part of the external environment of the vehicle and receiving reflected waves from the part of the external environment of the vehicle. do. The detection results of the plurality of radars 22 are transmitted to the control unit 30.

例えば、レーダ22は、ミリ波を送信するミリ波レーダであってもよいし、レーザ光を送信するライダ(Light Detection and Ranging)であってもよいし、赤外線を送信する赤外線レーダであってもよいし、超音波を送信する超音波センサであってもよい。 For example, the radar 22 may be a millimeter wave radar that transmits millimeter waves, a lidar (Light Detection and Ranging) that transmits laser light, or an infrared radar that transmits infrared light. Alternatively, it may be an ultrasonic sensor that transmits ultrasonic waves.

〔位置センサ〕
位置センサ23は、車両の位置(例えば緯度および経度)を検出する。例えば、位置センサ23は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて車両の位置を検出する。位置センサ23により得られた情報(車両の位置)は、制御部30に送信される。
[Position sensor]
The position sensor 23 detects the position (for example, latitude and longitude) of the vehicle. For example, the position sensor 23 receives GPS information from the global positioning system and detects the position of the vehicle based on the GPS information. Information (vehicle position) obtained by the position sensor 23 is transmitted to the control unit 30.

〔外部入力部〕
外部入力部24は、車両の外部に設けられた車外ネットワーク(例えばインターネットなど)を通じて情報を入力する。例えば、外部入力部24は、車両の周囲に位置する他車両(図示省略)からの通信情報、ナビゲーションシステム(図示省略)からのカーナビゲーションデータ、交通情報、高精度地図情報などを受信する。外部入力部24により得られた情報は、制御部30に送信される。
[External input section]
The external input unit 24 inputs information through an external network (for example, the Internet) provided outside the vehicle. For example, the external input unit 24 receives communication information from other vehicles (not shown) located around the vehicle, car navigation data from a navigation system (not shown), traffic information, high-precision map information, and the like. Information obtained by the external input section 24 is transmitted to the control section 30.

〔車両状態センサ〕
車両状態センサ25は、車両の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、車両状態センサ25は、車両の速度を検出する車速センサ、車両の加速度を検出する加速度センサ、車両のヨーレートを検出するヨーレートセンサなどを含む。車両状態センサ25により得られた情報(車両の状態)は、制御部30に送信される。
[Vehicle condition sensor]
The vehicle condition sensor 25 detects the condition of the vehicle (for example, speed, acceleration, yaw rate, etc.). For example, the vehicle condition sensor 25 includes a vehicle speed sensor that detects the speed of the vehicle, an acceleration sensor that detects the acceleration of the vehicle, a yaw rate sensor that detects the yaw rate of the vehicle, and the like. Information (vehicle status) obtained by the vehicle status sensor 25 is transmitted to the control unit 30.

〔運転操作センサ〕
運転操作センサ26は、車両に加えられる運転操作を検出する。例えば、運転操作センサ26は、アクセル開度センサ、操舵角センサ、ブレーキ油圧センサなどを含む。アクセル開度センサは、車両のアクセルの操作量を検出する。操舵角センサは、車両のハンドルの操舵角を検出する。ブレーキ油圧センサは、車両のブレーキの操作量を検出する。運転操作センサ26により得られた情報(車両の運転操作)は、制御部30に送信される。
[Driving operation sensor]
The driving operation sensor 26 detects a driving operation applied to the vehicle. For example, the driving operation sensor 26 includes an accelerator opening sensor, a steering angle sensor, a brake oil pressure sensor, and the like. The accelerator opening sensor detects the amount of operation of the accelerator of the vehicle. The steering angle sensor detects the steering angle of the steering wheel of the vehicle. The brake oil pressure sensor detects the amount of brake operation of the vehicle. Information (vehicle driving operation) obtained by the driving operation sensor 26 is transmitted to the control unit 30.

〔運転者状態センサ〕
運転者状態センサ27は、車両を運転する運転者の状態(例えば運転者の健康状態や感情や身体挙動など)を検出する。運転者状態センサ27により得られた情報(運転者の状態)は、制御部30に送信される。この例では、運転者状態センサ27は、車内カメラ28と、生体情報センサ29とを含む。
[Driver status sensor]
The driver condition sensor 27 detects the condition of the driver who drives the vehicle (for example, the driver's health condition, emotions, physical behavior, etc.). The information (driver's condition) obtained by the driver condition sensor 27 is transmitted to the control unit 30. In this example, driver condition sensor 27 includes an in-vehicle camera 28 and a biological information sensor 29.

《車内カメラ》
車内カメラ28は、車両の内部に設けられる。車内カメラ28は、運転者の眼球を含む領域を撮像することで運転者の目を含む画像データを取得する。車内カメラ28により得られた画像データは、制御部30に送信される。例えば、車内カメラ28は、運転者の前方に配置され、運転者の眼球が撮像範囲内となるように撮像範囲が設定される。なお、車内カメラ28は、運転者に装着されるゴーグル(図示を省略)に設けられてもよい。
《In-vehicle camera》
The in-vehicle camera 28 is provided inside the vehicle. The in-vehicle camera 28 acquires image data including the driver's eyes by capturing an image of a region including the driver's eyes. Image data obtained by the in-vehicle camera 28 is transmitted to the control unit 30. For example, the in-vehicle camera 28 is placed in front of the driver, and the imaging range is set so that the driver's eyeballs are within the imaging range. Note that the in-vehicle camera 28 may be provided in goggles (not shown) worn by the driver.

《生体情報センサ》
生体情報センサ29は、運転者の生体情報(例えば発汗など)を検出する。生体情報センサ29により得られた情報(運転者の生体情報)は、制御部30に送信される。
《Biological information sensor》
The biological information sensor 29 detects biological information (for example, sweating) of the driver. Information obtained by the biometric information sensor 29 (driver's biometric information) is transmitted to the control unit 30 .

-制御部-
制御部30は、アシスト運転または自動運転において、情報取得部20により取得された各種情報に基づいて、車両が走行すべき経路である目標経路を決定し、目標経路を走行するために必要となる車両の運動である目標運動を決定する。そして、制御部30は、車両の運動が目標運動となるように、アクチュエータ11の動作を制御する。例えば、制御部30は、1つまたは複数の演算チップを有する電子制御ユニット(ECU)により構成される。言い換えると、制御部30は、1つまたは複数のプロセッサ、1つまたは複数のプロセッサを動作させるためのプログラムやデータを記憶する1つまたは複数のメモリなどを有する電子制御ユニット(ECU)により構成される。
-Control unit-
The control unit 30 determines a target route, which is the route the vehicle should travel, based on various information acquired by the information acquisition unit 20 during assisted driving or automatic driving, and is necessary for driving the target route. Determine the target motion, which is the motion of the vehicle. The control unit 30 then controls the operation of the actuator 11 so that the motion of the vehicle matches the target motion. For example, the control section 30 is configured by an electronic control unit (ECU) having one or more arithmetic chips. In other words, the control section 30 is configured by an electronic control unit (ECU) having one or more processors, one or more memories that store programs and data for operating the one or more processors, and the like. Ru.

この例では、図3に示すように、制御部30は、画像処理部31と、外部環境認識部32と、候補経路生成部33と、車両挙動認識部34と、運転者挙動認識部35と、目標経路決定部36と、運動制御部37とを有する。 In this example, as shown in FIG. 3, the control unit 30 includes an image processing unit 31, an external environment recognition unit 32, a candidate route generation unit 33, a vehicle behavior recognition unit 34, and a driver behavior recognition unit 35. , a target route determining section 36, and a motion control section 37.

〔画像処理部〕
画像処理部31は、複数のカメラ21で撮像された画像を受信し、画像処理を行う。画像処理部31で行われる画像処理には、外部環境認識部32で物体等の外部環境を認識するために用いる画像のための第1画像処理と、サリエンシーマップの生成に用いるための第2画像処理とが含まれる。なお、第1画像処理は、従来から自動運転等に用いられる画像処理であり、ここでは詳細説明を省略する。
[Image processing section]
The image processing unit 31 receives images captured by the plurality of cameras 21 and performs image processing. The image processing performed by the image processing unit 31 includes first image processing for images used by the external environment recognition unit 32 to recognize the external environment such as objects, and second image processing for use in generating a saliency map. Image processing is included. Note that the first image processing is image processing that has been conventionally used for automatic driving and the like, and a detailed explanation thereof will be omitted here.

《第2画像処理について》
画像処理部31は、例えば、前カメラ21aの撮影した画像に対して、画像を構成する素子のうち後述するマップ生成部301の処理(例えば、サリエンシーマップの生成)に不要な画素を削除する処理を行う。また、画像処理部31は、前カメラ21aで撮影された車両前側の外部環境を示す画像に対して、別の画像を合成して合成画像を生成する処理を行う。
《About the second image processing》
For example, the image processing unit 31 deletes, from the image captured by the front camera 21a, pixels that are unnecessary for processing by the map generation unit 301 (for example, generation of a saliency map), which will be described later, from among the elements constituting the image. Perform processing. Further, the image processing unit 31 performs processing to generate a composite image by combining another image with the image showing the external environment on the front side of the vehicle taken by the front camera 21a.

図5は、車両の走行シーンにおいて前カメラ21aが撮影した車両前側の外部環境を示す画像D11の一例である。この画像D11に示す外部環境には、車道150と、車道150上の白線151とが含まれる。また、この画像D11に示された外部環境には、車道150の左側に形成された壁162と、壁162よりも左側の領域に形成された森林163と、車道150の右側の領域に広がる丘164と、丘164に形成された森林165が含まれる。また、この画像D11に示された外部環境には、車道150及び森林163,165の上側に広がる空167が含まれる。なお、以下の説明において、画像D11の空167は夕焼け空であり、赤みがかった空が広がっていると仮定する。換言すると、画像D11は、図7に示すように、高サリエンシー領域の広がりRWが相対的に大きい画像であるものとする。なお、図7については後で詳細に説明する。 FIG. 5 is an example of an image D11 showing the external environment on the front side of the vehicle, taken by the front camera 21a in a vehicle driving scene. The external environment shown in this image D11 includes a roadway 150 and a white line 151 on the roadway 150. In addition, the external environment shown in this image D11 includes a wall 162 formed on the left side of the roadway 150, a forest 163 formed on the left side of the wall 162, and a hill spreading on the right side of the roadway 150. 164 and a forest 165 formed on the hill 164. Furthermore, the external environment shown in this image D11 includes the sky 167 that extends above the road 150 and forests 163 and 165. In the following description, it is assumed that the sky 167 of the image D11 is a sunset sky, and a reddish sky is spreading. In other words, the image D11 is assumed to be an image in which the spread RW of the high saliency region is relatively large, as shown in FIG. Note that FIG. 7 will be explained in detail later.

画像処理部31は、画像D11に対して、車両の走行時に運転者の視界領域に入る車両構成部材を示す画像を合成する。具体的には、図6に示すように、画像処理部31は、運転席に着座した運転者が車両前側を見たときの車両構成部材の画像(以下、車両画像という)を画像D11に合成し、合成画像D12を生成する。車両画像に撮影される車両構成部材は、例えば、右側(運転席側)のフロントピラートリム52と、ルーフトリム53の右側の部分と、インストルメントパネル54の右側の部分と、バックミラー55と、右側のサイドミラー56と、ステアリングホイール58である。車両画像は、例えば、運転席側から運転者の視界領域に入る車内構造を予め撮影しておき、撮影した画像データをレイヤとして制御部30のメモリ(図示省略)に保存させておくことができる。そして、画像D11に車両画像を合成するときには、画像処理部31がメモリから当該車両画像を画像D11と別レイヤに読み込み、画像D11と車両画像との位置合わせをして重ねるようにすればよい。なお、車両構成部材として、さらにボンネット59の一部を考慮するようにしてもよい。また、合成画像D12を作成するのにあたって、前カメラ21a以外の情報、例えば、レーダ22の検出結果や、外部入力部24からの入力情報を使用するようにしてもよい。 The image processing unit 31 synthesizes, with the image D11, an image showing vehicle components that enter the driver's field of view when the vehicle is running. Specifically, as shown in FIG. 6, the image processing unit 31 synthesizes an image of vehicle components (hereinafter referred to as a vehicle image) when a driver seated in the driver's seat looks at the front side of the vehicle into an image D11. Then, a composite image D12 is generated. The vehicle components photographed in the vehicle image include, for example, the front pillar trim 52 on the right side (driver's seat side), the right part of the roof trim 53, the right part of the instrument panel 54, the rearview mirror 55, and the right side. side mirrors 56 and a steering wheel 58. The vehicle image can be, for example, taken in advance by photographing the interior structure of the vehicle that enters the driver's field of view from the driver's seat side, and storing the photographed image data as a layer in the memory (not shown) of the control unit 30. . When combining the vehicle image with the image D11, the image processing unit 31 may read the vehicle image from the memory into a separate layer from the image D11, align the image D11 and the vehicle image, and overlap them. Note that a part of the hood 59 may also be considered as a vehicle component. Further, in creating the composite image D12, information other than the front camera 21a, for example, the detection results of the radar 22 or input information from the external input unit 24 may be used.

図9は、図5~図8とは別の走行シーンにおいて前カメラ21aが撮影した車両前側の外部環境の画像に車両画像を合成した合成画像D22の一例である。合成画像D22は合成画像D12の場合と同様に、前カメラ21aの撮影画像と車両画像とを合成して生成される。合成画像D22に示す外部環境には、車道150と、車道150上の白線151とが含まれる。また、合成画像D22に示された外部環境には、他車両161と、車道150の両側に形成された壁162とが含まれる。左の壁162よりも左側の領域には、樹木168が植えられ、左の壁162よりも左側の領域に広がる丘164の上に樹木169が植えられている。同様に、右の壁162よりも左側の領域に広がる丘164の上に樹木168植えられている。また、画像D22に示された外部環境には、車道150、丘164及び樹木168,169の上側に広がる空170が含まれる。なお、以下の説明において、合成画像D22の空170は青空であると仮定する。換言すると、画像D22は、図10に示すように、高サリエンシー領域の広がりRWが相対的に小さい画像であるものとする。なお、図10については後で詳細に説明する。 FIG. 9 is an example of a composite image D22 obtained by combining a vehicle image with an image of the external environment in front of the vehicle taken by the front camera 21a in a driving scene different from that shown in FIGS. 5 to 8. The composite image D22 is generated by combining the captured image of the front camera 21a and the vehicle image, as in the case of the composite image D12. The external environment shown in the composite image D22 includes a roadway 150 and a white line 151 on the roadway 150. Further, the external environment shown in the composite image D22 includes other vehicles 161 and walls 162 formed on both sides of the roadway 150. A tree 168 is planted in an area to the left of the left wall 162, and a tree 169 is planted on top of a hill 164 that extends to the left of the left wall 162. Similarly, a tree 168 is planted on top of a hill 164 that extends to the left side of the right wall 162. Further, the external environment shown in the image D22 includes the road 150, the hill 164, and the sky 170 extending above the trees 168, 169. Note that in the following description, it is assumed that the sky 170 of the composite image D22 is a blue sky. In other words, it is assumed that the image D22 is an image in which the spread RW of the high saliency region is relatively small, as shown in FIG. Note that FIG. 10 will be explained in detail later.

図6及び図9に示すように、画像処理部31で生成された合成画像D12,D22は、画像の一部が車両構成部材により遮られた状態になる。画像処理部31で生成された合成画像D12,D22の画像データ(以下、合成画像データという)は、後述するマップ生成部301に送信される。 As shown in FIGS. 6 and 9, the composite images D12 and D22 generated by the image processing unit 31 are in a state in which a portion of the images is blocked by a vehicle component. Image data of composite images D12 and D22 (hereinafter referred to as composite image data) generated by the image processing unit 31 is sent to a map generation unit 301, which will be described later.

〔外部環境認識部〕
外部環境認識部32は、複数のカメラ21及びレーダ22から出力されたデータに基づいて車両の外部環境を認識する。外部環境認識部32により認識される車両の外部環境には、物体が含まれる。物体の例としては、時間経過により変位する動体と、時間経過により変位しない静止体とが挙げられる。動体の例としては、自動四輪車、自動二輪車、自転車、歩行者などが挙げられる。静止体の例としては、標識、街路樹、中央分離帯、センターポール、建物などが挙げられる。
[External environment recognition department]
The external environment recognition unit 32 recognizes the external environment of the vehicle based on data output from the plurality of cameras 21 and radar 22. The external environment of the vehicle recognized by the external environment recognition unit 32 includes objects. Examples of objects include a moving object that displaces over time and a stationary object that does not displace over time. Examples of moving objects include four-wheeled motor vehicles, motorcycles, bicycles, and pedestrians. Examples of stationary objects include signs, street trees, median strips, center poles, and buildings.

〔候補経路生成部〕
候補経路生成部33は、外部環境認識部32の出力に基づいて1つまたは複数の候補経路を生成する。候補経路は、車両が走行可能な経路であり、目標経路の候補である。
[Candidate route generation unit]
The candidate route generation unit 33 generates one or more candidate routes based on the output of the external environment recognition unit 32. A candidate route is a route on which a vehicle can travel, and is a candidate for a target route.

〔車両挙動認識部〕
車両挙動認識部34は、車両状態センサ25の出力に基づいて車両の挙動(例えば速度や加速度やヨーレートなど)を認識する。例えば、車両挙動認識部34は、深層学習により生成された学習モデルを用いて車両状態センサ25の出力から車両の挙動を認識する。
[Vehicle behavior recognition unit]
The vehicle behavior recognition unit 34 recognizes vehicle behavior (eg, speed, acceleration, yaw rate, etc.) based on the output of the vehicle state sensor 25. For example, the vehicle behavior recognition unit 34 recognizes the behavior of the vehicle from the output of the vehicle condition sensor 25 using a learning model generated by deep learning.

〔運転者挙動認識部〕
運転者挙動認識部35は、運転者状態センサ27の出力に基づいて運転者の挙動(例えば運転者の健康状態や感情や身体挙動など)を認識する。例えば、運転者挙動認識部35は、深層学習により生成された学習モデルを用いて運転者状態センサ27の出力からドライバの挙動を認識する。この例では、運転者挙動認識部35は、運転者状態検出部300を有する。運転者状態検出部300については、後で詳しく説明する。
[Driver behavior recognition unit]
The driver behavior recognition unit 35 recognizes the driver's behavior (for example, the driver's health condition, emotions, physical behavior, etc.) based on the output of the driver condition sensor 27. For example, the driver behavior recognition unit 35 recognizes the driver's behavior from the output of the driver condition sensor 27 using a learning model generated by deep learning. In this example, the driver behavior recognition section 35 includes a driver state detection section 300. The driver state detection section 300 will be explained in detail later.

〔目標経路決定部〕
目標経路決定部36は、車両挙動認識部34の出力と、運転者挙動認識部35の出力に基づいて、候補経路生成部33により生成された1つまたは複数の候補経路の中から目標経路となる候補経路を選択する。例えば、目標経路決定部36は、複数の候補経路のうち運転者が最も快適であると感じる候補経路を選択する。
[Target route determination unit]
The target route determination unit 36 selects a target route from among the one or more candidate routes generated by the candidate route generation unit 33 based on the output of the vehicle behavior recognition unit 34 and the output of the driver behavior recognition unit 35. Select a candidate route. For example, the target route determining unit 36 selects the candidate route that the driver feels is most comfortable from among the plurality of candidate routes.

〔運動制御部〕
運動制御部37は、目標経路決定部36により目標経路として選択された候補経路に基づいて目標運動を決定し、その決定された目標運動に基づいてアクチュエータ11を制御する。例えば、運動制御部37は、目標運動を達成するための駆動力と制動力と操舵量である目標駆動力と目標制動力と目標操舵量をそれぞれ導出する。そして、運動制御部37は、目標駆動力を示す駆動指令値と目標制動力を示す制動指令値と目標操舵量を示す操舵指令値とを、駆動系のアクチュエータと制動系のアクチュエータと操舵系のアクチュエータとにそれぞれ送信する。駆動系のアクチュエータ、制動系のアクチュエータ、操舵系のアクチュエータは、アクチュエータ11の一例である。
[Motor control unit]
The motion control unit 37 determines a target motion based on the candidate route selected as the target route by the target route determination unit 36, and controls the actuator 11 based on the determined target motion. For example, the motion control unit 37 derives a target driving force, a target braking force, and a target steering amount, which are a driving force, a braking force, and a steering amount for achieving the target movement, respectively. Then, the motion control unit 37 transmits the drive command value indicating the target driving force, the braking command value indicating the target braking force, and the steering command value indicating the target steering amount to the actuators of the drive system, the actuators of the braking system, and the steering system. and the actuator respectively. A drive system actuator, a brake system actuator, and a steering system actuator are examples of the actuator 11.

《通知部》
通知部40は、車両の運転者に各種情報を通知する。この例では、通知部40は、表示部41と、スピーカ42とを含む。表示部41は、各種情報を画像で出力する。スピーカ42は、各種情報を音声で出力する。
《Notification Department》
The notification unit 40 notifies the driver of the vehicle of various information. In this example, the notification section 40 includes a display section 41 and a speaker 42. The display unit 41 outputs various information in the form of images. The speaker 42 outputs various information in the form of audio.

《運転者状態検出部》
運転者状態検出部300は、車両の運転者の異常を検出する。具体的には、図4に示すように、運転者状態検出部300は、マップ生成部301と、注視点検出部302と、異常検出部303とを有する。
《Driver status detection section》
The driver condition detection unit 300 detects abnormality of the driver of the vehicle. Specifically, as shown in FIG. 4, the driver state detection section 300 includes a map generation section 301, a gaze point detection section 302, and an abnormality detection section 303.

なお、運転者の異常とは、運転者の注意機能低下を引き起こす異常のことである。このような運転者の異常の例としては、脳卒中などの脳疾患、心筋梗塞などの心疾患、癲癇、低血糖、眠気などが挙げられる。 Note that the driver's abnormality refers to an abnormality that causes a decline in the driver's attention function. Examples of such driver abnormalities include brain diseases such as stroke, heart diseases such as myocardial infarction, epilepsy, hypoglycemia, and drowsiness.

〔マップ生成部〕
マップ生成部301は、画像処理部31から合成画像D12,D22(以下、まとめて合成画像D2という)を受信し、合成画像D12,D22についてのサリエンシーマップD3を生成する。具体的には、マップ生成部301は、合成画像データのうち外部環境を表す部分、すなわち、画像処理部31で合成した車両画像以外の部分についてのサリエンシーを算出する。このとき、マップ生成部301は、画像処理部31での合成に使用した車両画像についてのサリエンシーは算出しないものの、合成画像D2のうちの外部環境を表す部分のサリエンシーの算出には利用する。つまり、マップ生成部301は、車両の走行時に運転者の視界領域に入る車両構成部材を考慮してサリエンシーマップD3を生成する。
[Map generator]
The map generation unit 301 receives composite images D12 and D22 (hereinafter collectively referred to as composite image D2) from the image processing unit 31, and generates a saliency map D3 for the composite images D12 and D22. Specifically, the map generation unit 301 calculates the saliency of a portion of the composite image data representing the external environment, that is, a portion other than the vehicle image synthesized by the image processing unit 31. At this time, the map generation unit 301 does not calculate the saliency of the vehicle images used in the synthesis by the image processing unit 31, but uses it to calculate the saliency of the portion of the composite image D2 that represents the external environment. That is, the map generation unit 301 generates the saliency map D3 in consideration of the vehicle components that enter the driver's field of view when the vehicle is running.

前述したように、サリエンシーは、物標の色、輝度、動き等により変化する。そこで、本実施形態では、マップ生成部301は、色に基づくサリエンシー、輝度に基づくサリエンシー、動きに基づくサリエンシー等、特徴毎にサリエンシーを算出して、特徴毎のサリエンシーマップを生成した後に、それらを足し合わせることで最終的な合成画像D12に基づいたサリエンシーマップD13(図7参照)及び合成画像D22に基づいたサリエンシーマップD23(図10参照)を生成する。サリエンシーマップD13及びサリエンシーマップD23は、サリエンシーマップD3の一例である。 As mentioned above, saliency changes depending on the color, brightness, movement, etc. of the target object. Therefore, in the present embodiment, the map generation unit 301 calculates saliency for each feature, such as saliency based on color, saliency based on brightness, saliency based on motion, etc., and generates a saliency map for each feature. By adding them together, a final saliency map D13 based on the composite image D12 (see FIG. 7) and a saliency map D23 based on the composite image D22 (see FIG. 10) are generated. The saliency map D13 and the saliency map D23 are examples of the saliency map D3.

例えば、マップ生成部301は、色に基づくサリエンシーについて、合成画像データにおける車両構成部材の近傍領域において、当該近傍領域と車両構成部材との色差が大きいときには、該色差が小さいときと比較して、近傍領域のサリエンシーを高くする。なお、色差とは、ある画素の色のRGBを(R1,G1,B1)とし、他の画素の色のRGBを(R2,G2,B2)したときに、以下の式により算出される。
(色差)={(R2-R1)+(G2-G1)+(B2-B1)}1/2
マップ生成部301は、色差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
For example, with respect to color-based saliency, when the color difference between the nearby region and the vehicle component is large in a region near the vehicle component in the composite image data, the map generation unit 301 generates a color-based saliency, compared to when the color difference is small. Increase the salience of the neighborhood. Note that the color difference is calculated by the following formula when the RGB of a certain pixel color is (R1, G1, B1) and the RGB of another pixel is (R2, G2, B2).
(Color difference) = {(R2-R1) 2 + (G2-G1) 2 + (B2-B1) 2 } 1/2
The map generation unit 301 may calculate so that the saliency increases continuously as the color difference increases, or it may calculate such that the saliency increases by a certain value each time the threshold value is exceeded by providing a plurality of threshold values. .

また、例えば、マップ生成部301は、輝度に基づくサリエンシーについて、合成画像データにおける車両構成部材の近傍領域において、当該近傍領域と車両構成部材との輝度差が大きいときには、該輝度差が小さいときと比較して、近傍領域のサリエンシーを高くする。例えば、マップ生成部301は、合成した車両構成部品が黒色であるときには、白色に近い部分ほど輝度差が大きくなるため、近傍領域のうち白色に近い部分のサリエンシーを高くする。マップ生成部301は、輝度差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。 Further, for example, regarding the saliency based on brightness, the map generation unit 301 can determine whether the difference in brightness between the nearby region and the vehicle component is large in the vicinity of the vehicle component in the composite image data, and when the brightness difference is small. In comparison, the salience of the neighboring region is increased. For example, when the synthesized vehicle component is black, the map generation unit 301 increases the saliency of the part closer to white in the nearby region because the brightness difference becomes larger as the part becomes closer to white. The map generation unit 301 may calculate so that the saliency increases continuously as the luminance difference becomes larger, or it may calculate such that the saliency increases by a certain value each time the threshold value is exceeded by providing a plurality of threshold values. good.

なお、サリエンシーの算出自体は、インターネット上等で公開されている既知のコンピュータプログラムを用いることができる。また、特徴毎のサリエンシーマップの算出及び各サリエンシーマップの統合についても既知のコンピュータプログラムを用いることができる。 Note that the calculation of saliency itself can be performed using a known computer program published on the Internet or the like. Furthermore, a known computer program can be used to calculate a saliency map for each feature and to integrate each saliency map.

〔注視点検出部〕
注視点検出部302は、車内カメラ28により撮影された運転者の眼球画像から、運転者の視線方向を算出する。注視点検出部302は、例えば、運転者が車内カメラ28のレンズを覗いた状態を基準にして、そこからの運転者の瞳孔の変化を検知することで運転者の視線方向を算出する。視線方向の算出は、運転者の左目及び右目のどちらか一方から算出してもよいし、運転者の両目のそれぞれから求めた視線方向(視線ベクトル)の平均値としてもよい。また、運転者の瞳孔の変化から運転者の視線方向を算出することが困難であるときには、運転者の顔面の向きを更に考慮して視線方向を算出してもよい。また、運転者の視線方向の算出に、深層学習により生成された学習モデル(視線を検出するための学習モデル)を用いてもよい。
[Gaze point detection unit]
The gaze point detection unit 302 calculates the driver's line of sight direction from the driver's eyeball image captured by the in-vehicle camera 28. For example, the gaze point detection unit 302 calculates the direction of the driver's line of sight by detecting changes in the driver's pupils from a state in which the driver looks through the lens of the in-vehicle camera 28 as a reference. The line-of-sight direction may be calculated from either the driver's left eye or right eye, or may be the average value of the line-of-sight directions (line-of-sight vector) determined from each of the driver's eyes. Furthermore, when it is difficult to calculate the driver's line-of-sight direction from changes in the driver's pupils, the line-of-sight direction may be calculated by further considering the direction of the driver's face. Further, a learning model (a learning model for detecting the line of sight) generated by deep learning may be used to calculate the direction of the driver's line of sight.

《注視点及びサッケードの検出》
注視点検出部302は、運転者の視線の動きに基づいて運転者のサッケードを検出する。サッケードとは、運転者が意図的に視線を移動させる跳躍性眼球運動のことであり、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。図12に示すように、隣り合う2つの注視期間の間に挟まれた期間がサッケード期間となる。なお、注視期間は、視線が停滞しているとみなされる期間である。サッケードの振幅dsは、サッケード期間における視線の移動距離である。
《Detection of fixation points and saccades》
The gaze point detection unit 302 detects the driver's saccades based on the movement of the driver's line of sight. A saccade is a jumping eye movement in which the driver intentionally moves his/her line of sight, and is an eye movement in which the driver moves his/her line of sight from a point of gaze where the line of sight remains stagnant for a predetermined period of time to the next point of gaze. As shown in FIG. 12, a period sandwiched between two adjacent gaze periods is a saccade period. Note that the gaze period is a period in which the line of sight is considered to be stationary. The saccade amplitude ds is the distance the line of sight moves during the saccade period.

注視点検出部302は、視線の移動距離の変化に基づいて視線の移動速度を算出し、視線の移動速度が予め定められた速度閾値(例えば2deg/s)未満である状態が予め定められた停滞時間(例えば0.1秒間)継続する期間を「注視期間」として抽出するとともに、その注視期間において運転者の視線の先にある点を「注視点」として抽出する。また、注視点検出部302は、隣り合う2つの注視期間の間に挟まれた期間における視線移動のうち、移動速度が速度閾値(例えば2deg/s)以上であり、且つ、移動距離が予め定められ距離閾値(例えば0.1deg)以上である視線移動を「サッケード」として抽出する。 The gaze point detection unit 302 calculates the moving speed of the line of sight based on the change in the moving distance of the line of sight, and determines a state in which the moving speed of the line of sight is less than a predetermined speed threshold (for example, 2 deg/s). A period of stagnation time (for example, 0.1 second) is extracted as a "gazing period", and a point ahead of the driver's line of sight during the gaze period is extracted as a "gazing point". In addition, the gaze point detection unit 302 detects that the movement speed of the gaze movement during the period sandwiched between two adjacent gaze periods is equal to or higher than a speed threshold (for example, 2 deg/s), and the movement distance is a predetermined distance. A line-of-sight movement that is equal to or greater than a distance threshold (for example, 0.1 deg) is extracted as a "saccade."

なお、注視点検出部302は、抽出されたサッケードについて、ノイズ除去処理を行うようにしてもよい。具体的には、注視点検出部302は、図13に示すように、複数のサッケード候補に基づいて回帰曲線L10を導出する。注視点検出部302は、例えば、最小自乗法により複数のサッケード候補から回帰曲線L10を導出する。次に、注視点検出部302は、回帰曲線L10を移動速度が増加する方向(図13の縦軸における増加方向)にシフトさせることで第1基準曲線L11を導出し、回帰曲線L10を移動速度が減少する方向(図13の縦軸における減少方向)にシフトさせることで第2基準曲線L12を導出し、第1基準曲線L11と第2基準曲線L12との間をサッケード範囲R10とする。そして、注視点検出部302は、複数のサッケード候補のうちサッケード範囲R10内に含まれるサッケード候補をサッケードとして抽出する。 Note that the gaze point detection unit 302 may perform noise removal processing on the extracted saccade. Specifically, the gaze point detection unit 302 derives a regression curve L10 based on a plurality of saccade candidates, as shown in FIG. 13. The gaze point detection unit 302 derives the regression curve L10 from a plurality of saccade candidates using, for example, the least squares method. Next, the gaze point detection unit 302 derives the first reference curve L11 by shifting the regression curve L10 in the direction in which the moving speed increases (increasing direction on the vertical axis in FIG. 13), and shifts the regression curve L10 to the moving speed is shifted in the decreasing direction (decreasing direction on the vertical axis in FIG. 13) to derive the second reference curve L12, and the saccade range R10 is defined between the first reference curve L11 and the second reference curve L12. Then, the gaze point detection unit 302 extracts a saccade candidate included within the saccade range R10 from among the plurality of saccade candidates as a saccade.

次に、注視点検出部302は、サッケードの指標であるサッケードの振幅dsとサッケードの頻度fsとを算出する。具体的には、注視点検出部302は、予め定められた周期毎(例えば10秒毎)に、その周期内に含まれるサッケードの振幅dsの平均値を「サッケードの振幅ds」として算出し、その周期内に含まれるサッケードの数をその周期の時間で除算して得られる値を「サッケードの頻度fs」として算出する。 Next, the gaze point detection unit 302 calculates a saccade amplitude ds and a saccade frequency fs, which are indicators of a saccade. Specifically, the gaze point detection unit 302 calculates the average value of the saccade amplitudes ds included in each predetermined period (for example, every 10 seconds) as the "saccade amplitude ds", The value obtained by dividing the number of saccades included in the cycle by the time of the cycle is calculated as the "saccade frequency fs".

〔異常検出部〕
異常検出部303は、マップ生成部301で生成されたサリエンシーマップD3と、注視点検出部302で検出された運転者の注視点及びサッケードの振幅dsとに基づいて、運転者の異常を検出する。異常検出部303の動作は、以下の「車両制御システムの動作」において具体的に説明する。
[Abnormality detection part]
The abnormality detection unit 303 detects an abnormality of the driver based on the saliency map D3 generated by the map generation unit 301 and the driver's gaze point and saccade amplitude ds detected by the gaze point detection unit 302. do. The operation of the abnormality detection unit 303 will be specifically explained in "Operation of Vehicle Control System" below.

-車両制御システムの動作-
以下、図19を参照しつつ、車両制御システムの動作について説明する。
-Vehicle control system operation-
The operation of the vehicle control system will be described below with reference to FIG. 19.

(ステップST11)
まず、ステップST11において、車両制御システムでは、車両の運転者の注視点を検出する注視点検出ステップが実行される。具体的に、ステップST11では、例えば、前述の「注視点及びサッケードの検出」の項で説明したように、注視点検出部302が、車内カメラ28で検出された運転者の視線に基づいて注視点及びサッケードの振幅dsを検出する。
(Step ST11)
First, in step ST11, the vehicle control system executes a gaze point detection step of detecting the gaze point of the vehicle driver. Specifically, in step ST11, the gaze point detection unit 302 detects the gaze point based on the driver's line of sight detected by the in-vehicle camera 28, for example, as explained in the section “Detection of gaze point and saccade” above. The viewpoint and the saccade amplitude ds are detected.

(ステップST12)
次のステップST12において、車両制御システムでは、前カメラ21aから受信した画像データに基づいて、サリエンシーマップを生成するマップ生成ステップが実行される。具体的に、ステップST12では、例えば、前述の「マップ生成部」の項で説明したように、マップ生成部301が画像処理部31で合成された合成画像D2に基づいて、サリエンシーマップD3を生成する。なお、ステップST11とステップST12との実行順序は、特に限定されない。例えば、ステップS12がステップS11よりも先に実行されてもよいし、ステップST11とステップST12とが同時に実行されてもよい。
(Step ST12)
In the next step ST12, the vehicle control system executes a map generation step of generating a saliency map based on the image data received from the front camera 21a. Specifically, in step ST12, the map generation unit 301 generates the saliency map D3 based on the synthesized image D2 synthesized by the image processing unit 31, for example, as explained in the above-mentioned “Map generation unit” section. generate. Note that the order of execution of step ST11 and step ST12 is not particularly limited. For example, step S12 may be executed before step S11, or step ST11 and step ST12 may be executed simultaneously.

(ステップST13)
ステップST13では、ステップST12で生成されたサリエンシーマップの高サリエンシー領域の広がりと、ステップST11で検出された運転者のサッケードの振幅dsの大きさとの間に相関があるか否かを判定する。
(Step ST13)
In step ST13, it is determined whether there is a correlation between the spread of the high saliency region of the saliency map generated in step ST12 and the amplitude ds of the driver's saccade detected in step ST11.

具体的には、例えば、異常検出部303が、マップ生成部301で生成されたサリエンシーマップの高サリエンシー領域の広がりRWと、注視点検出部で検出された運転者のサッケードの振幅dsの大きさとの間に相関があるか否かを判定する。より具体的には、異常検出部303は、例えば、高サリエンシー領域の広がりRWが互いに異なる複数のサリエンシーマップD3を用意する。そして、異常検出部303は、各々のサリエンシーマップD3の高サリエンシー領域の広がりと、そのサリエンシーマップD3の基となる画像が撮影された所定の時間範囲(例えば、5秒間)におけるサッケードの振幅dsとを対比することで互いの相関関係の有無を判定する。 Specifically, for example, the abnormality detection unit 303 determines the extent RW of the high saliency region of the saliency map generated by the map generation unit 301 and the amplitude ds of the driver's saccade detected by the gaze point detection unit. Determine whether there is a correlation between More specifically, the abnormality detection unit 303 prepares, for example, a plurality of saliency maps D3 in which the spread RW of the high saliency region is different from each other. The abnormality detection unit 303 then detects the spread of the high saliency region of each saliency map D3 and the amplitude of saccades in a predetermined time range (for example, 5 seconds) in which the image on which the saliency map D3 is based is captured. The presence or absence of a mutual correlation is determined by comparing with ds.

図14は、健常者及び注意機能障害者について、「高サリエンシー領域の広がりRW」と「サッケードの振幅ds」との関係を示した概念図である。図14において、太実線が健常者の特性を模式的に示したものであり、細実線が注意機能障害者の特性を模式的に示したものである。 FIG. 14 is a conceptual diagram showing the relationship between "extension RW of high salience region" and "saccade amplitude ds" for healthy subjects and attentionally impaired subjects. In FIG. 14, the thick solid line schematically shows the characteristics of a healthy person, and the thin solid line schematically shows the characteristics of a person with attentional dysfunction.

ここで、運転者が正常な状態(例えば健常者)であれば、車両走行時には駐車車両、歩行者、脇道等の注視すべき視認対象物を見ながら運転する。すなわち、健常者であれば、サリエンシーの広がりの大小にかかわらず、注視すべき視認対象物を見ながら運転する。したがって、図14の太実線で示すように、高サリエンシー領域の広がりRWの大きさと、サッケードの振幅dsとの間の相関度は低くなる傾向がある。一方で、運転者に体調異常等が発生して能動的な運転が出来なくなったりしたときには、運転者は、サリエンシーが高い領域に自然と視線を向けるようになる。すなわち、運転者が誘目度の高い領域を見る頻度が高いときには、運転者に異常が生じている可能性が高い。そうすると、運転者に異常がある場合に、高サリエンシー領域の広がりRWが大きいときには、運転者の視線の移動量が増え、サッケードの振幅dsが大きくなる傾向が出る。一方で、運転者に異常がある場合に、高サリエンシー領域の広がりRWが小さいときには、運転者の視線の移動量が減り、サッケードの振幅dsが小さくなる傾向が出る。すなわち、運転者に異常がある場合には、図14の細実線で示すように、高サリエンシー領域の広がりRWの大きさと、サッケードの振幅dsの大きさとの間の相関度が高くなる傾向が出る。したがって、ステップST11では、マップ生成部301で生成されたサリエンシーマップの高サリエンシー領域の広がりRWと注視点検出部で検出された運転者のサッケードの振幅dsとの間の相関度が所定の第1基準よりも高い場合、次のステップST14に進む。一方で、ステップST13において、高サリエンシー領域の広がりRWとサッケードの振幅dsとの間の相関度が第1基準以下の場合、処理はステップST11に戻る。ここで、所定の第1基準は、相関度の高さを求めることができるような基準であればよく、任意に設定することができる。例えば、図14に破線で示すように、相関度が高いことを示す基準となるような基準線を引いて、その基準線との関係(例えば、傾きの近似度や一致度)に基づいて相関度を判定するようにしてもよい。ステップST13は、例えば、判定ステップの一部を構成する処理の一例である。 Here, if the driver is in a normal state (for example, a healthy person), the driver drives while looking at visible objects to be watched, such as parked vehicles, pedestrians, and side streets. In other words, a healthy person drives while looking at the visual object to be focused on, regardless of the extent of salience. Therefore, as shown by the thick solid line in FIG. 14, the degree of correlation between the extent of the high saliency region RW and the saccade amplitude ds tends to be low. On the other hand, when the driver becomes unable to drive actively due to an abnormality in his or her physical condition, the driver naturally turns his/her eyes toward an area where salience is high. In other words, when the driver frequently looks at areas with high eye-attractiveness, there is a high possibility that something is wrong with the driver. Then, when the driver has an abnormality and the spread RW of the high saliency region is large, the amount of movement of the driver's line of sight increases, and the amplitude ds of the saccade tends to increase. On the other hand, when the driver has an abnormality and the spread RW of the high salience region is small, the amount of movement of the driver's line of sight decreases, and the amplitude ds of the saccade tends to decrease. That is, when the driver has an abnormality, as shown by the thin solid line in FIG. 14, there is a tendency for the degree of correlation between the size of the spread RW of the high salience region and the size of the saccade amplitude ds to become high. . Therefore, in step ST11, the degree of correlation between the spread RW of the high saliency region of the saliency map generated by the map generation unit 301 and the amplitude ds of the driver's saccade detected by the gaze point detection unit is determined to be a predetermined number. If it is higher than the 1 standard, proceed to the next step ST14. On the other hand, in step ST13, if the degree of correlation between the spread RW of the high saliency region and the amplitude ds of the saccade is less than or equal to the first criterion, the process returns to step ST11. Here, the predetermined first criterion can be arbitrarily set as long as it is a criterion that can determine the degree of correlation. For example, as shown by the broken line in Figure 14, a reference line is drawn that indicates a high degree of correlation, and the correlation is calculated based on the relationship with the reference line (for example, the degree of approximation of the slope or the degree of coincidence). The degree may also be determined. Step ST13 is, for example, an example of processing that constitutes a part of the determination step.

(ステップST14)
ステップST14では、ステップST11で検出された運転者の注視点が高サリエンシー領域を見る傾向が所定の基準値よりも高いか否かが判定される。具体的には、例えば、サリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の閾値を超えるか否かが判定される。
(Step ST14)
In step ST14, it is determined whether the tendency of the driver's gaze point detected in step ST11 to look at the high saliency region is higher than a predetermined reference value. Specifically, for example, a tendency of eye movement toward a high saliency area is detected using a saliency index, and it is determined whether the saliency index exceeds a predetermined threshold value.

具体的には、異常検出部303は、マップ生成部301で生成されたサリエンシーマップと、注視点検出部302で検出された運転者の注視点とに基づいて、運転者がサリエンシーの高い領域を見る傾向が所定の第2基準よりも高いかどうかを判定する。本実施形態では、サリエンシー指標が所定の第2基準(例えば0.6)より高いかどうかを判定する。 Specifically, the abnormality detection unit 303 determines whether the driver is in an area with high salience based on the saliency map generated by the map generation unit 301 and the driver's gaze point detected by the gaze point detection unit 302. It is determined whether the tendency to view is higher than a predetermined second criterion. In this embodiment, it is determined whether the saliency index is higher than a predetermined second standard (for example, 0.6).

なお、ステップST14の判定において、サリエンシー指標の第2基準として0.6以外の数値を用いてもよいし、サリエンシー指標以外の指標を用いてもよい。 Note that in the determination in step ST14, a value other than 0.6 may be used as the second standard of the saliency index, or an index other than the saliency index may be used.

《サリエンシー指標の算出》
サリエンシー指標の算出方法について、図15~図18を用いて説明する。このサリエンシー指標の算出は、主に、異常検出部303により行われる。
《Calculation of salience index》
A method for calculating the saliency index will be explained using FIGS. 15 to 18. Calculation of this saliency index is mainly performed by the abnormality detection unit 303.

図15は、運転者の注視点のサリエンシーの時間変化をプロットしたものである。このグラフは、例えば、図8や図11に示すように、注視点の変化をサリエンシーマップに当てはめて、サッケードが生じる毎に注視点のサリエンシーの高さをプロットしたものである。一方で、図16は、図15と同じサリエンシーマップ(例えば、図8や図11)からランダムに座標(以下、ランダム座標という)を指定して、サッケードが生じる毎にランダム座標のサリエンシーを求めることで生成される。 FIG. 15 is a plot of the change in saliency of the driver's gaze point over time. For example, as shown in FIGS. 8 and 11, this graph is a graph in which changes in the gaze point are applied to a saliency map, and the height of the saliency of the gaze point is plotted every time a saccade occurs. On the other hand, in FIG. 16, coordinates (hereinafter referred to as random coordinates) are randomly specified from the same saliency map as in FIG. 15 (e.g., FIG. 8 and FIG. 11), and the saliency of the random coordinates is calculated every time a saccade occurs. It is generated by

図15及び図16のグラフをそれぞれ作成した後は、ランダム点における閾値を超える割合と運転者の注視点における閾値を超える割合とのROC(Receiver Operating Characteristic)曲線を求める。具体的には、まず、第1ステップとして、閾値を図15及び図16のグラフにおいて最大値よりも大きい値に設定する。次に、第2ステップとして、閾値を低下させながら、閾値毎に該閾値を超えた点の割合を求める。そして、この第2ステップの処理を閾値が、図15及び図16のグラフにおいて最小値以下になるまで繰り返す。 After creating the graphs shown in FIGS. 15 and 16, ROC (Receiver Operating Characteristic) curves of the proportion exceeding the threshold value at random points and the proportion exceeding the threshold value at the driver's gaze point are determined. Specifically, first, as a first step, the threshold value is set to a value larger than the maximum value in the graphs of FIGS. 15 and 16. Next, as a second step, while lowering the threshold value, the percentage of points exceeding the threshold value is determined for each threshold value. The process of this second step is then repeated until the threshold value becomes equal to or less than the minimum value in the graphs of FIGS. 15 and 16.

前記第1及び第2ステップの後、第3ステップとして、ランダム点における閾値を超える割合(第1確率という)を横軸にとりかつ運転者の注視点における閾値を超える割合(第2確率という)を縦軸にとって、図17のようなグラフを作成する。図17のグラフは、同一の閾値におけるランダム確率に対する注視確率を表す。図17のグラフは、横軸及び縦軸ともに確率であるため、曲線の最小値は0であり、最大値は1である。 After the first and second steps, as a third step, the horizontal axis is the proportion exceeding the threshold at random points (referred to as the first probability), and the ratio exceeding the threshold at the driver's gaze point (referred to as the second probability) is plotted on the horizontal axis. A graph like the one shown in FIG. 17 is created for the vertical axis. The graph in FIG. 17 represents the gaze probability versus random probability at the same threshold. In the graph of FIG. 17, both the horizontal and vertical axes are probabilities, so the minimum value of the curve is 0 and the maximum value is 1.

図17において破線は、運転者の視線がサリエンシーに対してどのように動いているかを表す。図17の曲線C1のように、曲線が上側に凸になる場合は、運転者の注視点がランダム点よりも閾値を超える割合が高いことを表す。図17の曲線C1のような形状の曲線が算出されたときは、運転者の視線がサリエンシーの高い箇所を見る傾向にあること、すなわち、高サリエンシー領域への誘目度が高いことを意味している。一方で、図17の曲線C2のように、曲線が下側に凸になる場合は、運転者の注視点がランダム点よりも閾値を超える割合が低いことを表す。図17の曲線C2のような形状の曲線が算出されたときは、運転者の視線が高サリエンシー領域の影響を受けていないことを意味している。 In FIG. 17, the dashed line represents how the driver's line of sight moves with respect to saliency. When the curve is upwardly convex, like the curve C1 in FIG. 17, it indicates that the rate at which the driver's gaze point exceeds the threshold is higher than at a random point. When a curve with a shape like curve C1 in FIG. 17 is calculated, it means that the driver's line of sight tends to look at a high salience area, that is, the high salience area is highly attractive. There is. On the other hand, when the curve is convex downward like curve C2 in FIG. 17, it indicates that the rate at which the driver's gaze point exceeds the threshold is lower than that at a random point. When a curve shaped like curve C2 in FIG. 17 is calculated, it means that the driver's line of sight is not affected by the high salience region.

本実施形態では、第4ステップとして、AUC(Area Under Curve)を求める。AUCは、この曲線の右下部分の積分値である。すなわち、AUCは、図18に斜線で示すように、図17の曲線C1(または曲線C2)と2点鎖線とで囲まれた領域の面積である。本実施形態では、この積分値をサリエンシー指標と呼んでいる。サリエンシー指標を用いることで、走行シーンによる依存性を低減させることができる。具体的には、例えば、運転者が単純に高サリエンシー領域を見た割合を算出するだけでは、走行シーンが全体的に高サリエンシー領域を含むような場合に、高サリエンシー領域を見る頻度が高いという結果が得られる恐れがある。これに対して、本実施形態のように、ランダム点との比較を行ったサリエンシー指標を用いることで、高サリエンシー領域の多さや広がり等、走行シーンへの依存性を低減することができ、より精度の高い判断をすることができるようになる。 In this embodiment, the fourth step is to obtain AUC (Area Under Curve). AUC is the integral value of the lower right portion of this curve. That is, AUC is the area of the region surrounded by the curve C1 (or curve C2) and the two-dot chain line in FIG. 17, as indicated by diagonal lines in FIG. In this embodiment, this integral value is called a saliency index. By using the saliency index, dependence on driving scenes can be reduced. Specifically, for example, simply calculating the percentage of high-saliency areas that the driver views will show that when the entire driving scene includes high-saliency areas, the driver views the high-saliency areas more frequently. There may be consequences. On the other hand, by using a saliency index that is compared with random points as in this embodiment, it is possible to reduce the dependence on the driving scene, such as the number and spread of high saliency areas, and to Be able to make highly accurate judgments.

ステップST14において、サリエンシー指標が第2基準よりも高い場合、次のステップST15に進む。一方で、ステップST14において、サリエンシー指標が第2基準以下の場合、処理はステップST11に戻る。ステップST14は、例えば、判定ステップの一部を構成する処理の一例である。なお、ステップST11,ST12は、ステップST13,14の処理にかかわらず、車両の走行中は継続して実行される。 In step ST14, if the saliency index is higher than the second standard, the process proceeds to the next step ST15. On the other hand, if the saliency index is equal to or less than the second standard in step ST14, the process returns to step ST11. Step ST14 is, for example, an example of processing that constitutes a part of the determination step. Note that steps ST11 and ST12 are continuously executed while the vehicle is running, regardless of the processing of steps ST13 and ST14.

(ステップST15)
ステップS15では、制御部30は、運転者の異常に対応する制御を行う。例えば、制御部30は、運転者の異常の度合いが高い場合(例えば、運転者に疾患が発現したと認識した場合)、運転運動制御部37等を介してアクチュエータ11を制御して自動運転に切り替える処理を行う。また、制御部30は、通知部40を介して、運転者に「大丈夫ですか」、「少し休みませんか」との問いかけをする等、運転者に向けたアクチュエーションを実施し、運転者の反応を確認するようにしてもよい。例えば、制御部30は、上記のアクチュエーションの結果、運転者の反応が薄い場合に、アクチュエータ11を制御して自動運転に切り替える処理を行うようにしてもよい。
(Step ST15)
In step S15, the control unit 30 performs control corresponding to the abnormality of the driver. For example, when the degree of abnormality of the driver is high (for example, when it is recognized that the driver has developed a disease), the control unit 30 controls the actuator 11 via the driving motion control unit 37 etc. to enable automatic driving. Perform the switching process. The control unit 30 also performs actuations directed at the driver, such as asking the driver, “Are you okay?” and “Would you like to take a break?” via the notification unit 40. You may also check the reaction. For example, the control unit 30 may perform a process of controlling the actuator 11 to switch to automatic driving when the driver's reaction is weak as a result of the above actuation.

このように、運転者への問いかけや注意喚起などのアクチュエーションを実施することで、運転者の異常判定の精度を高めたり、運転者に安全な行動を促すことができる。 In this way, by performing actuations such as asking the driver questions and calling attention to them, it is possible to improve the accuracy of the driver's abnormality determination and encourage the driver to take safe actions.

以上のように、本実施形態によると、できるだけ精度よく運転者の異常を検出することができる。具体的には、例えば、図19のように、サリエンシー指標のみを見た場合には、健常者が異常と誤判定されるような場面であっても、図14の太実線で示すように、高サリエンシー領域の広がりRWとサッケードの振幅dsとの相関性が低い場合、運転者の異常とは判定されない。これにより、視線がサリエンシーに誘引されている傾向をより精度よく抽出することができ、結果として運転者の異常を精度よく判定できる。 As described above, according to this embodiment, abnormality of the driver can be detected as accurately as possible. Specifically, for example, as shown in FIG. 19, when looking only at the saliency index, even in a situation where a healthy person is incorrectly judged as abnormal, as shown by the thick solid line in FIG. If the correlation between the spread RW of the high saliency region and the saccade amplitude ds is low, it is not determined that the driver is abnormal. As a result, it is possible to more accurately extract the tendency for the line of sight to be induced by salience, and as a result, it is possible to accurately determine the driver's abnormality.

なお、上記実施形態では、図19のステップST14において、高サリエンシー領域の広がりRWに応じて、第2基準を変更するようにしてもよい。サリエンシー領域の広がりが大きい場合には、高サリエンシー領域も多くなるため、健常者であっても高サリエンシー領域を見る確率は高くなることが想定される。そこで、高サリエンシー領域の広がりに応じて第2基準を変更することにより、運転者の異常判定の誤判定を低減することができる。 Note that in the above embodiment, the second criterion may be changed in step ST14 of FIG. 19 according to the spread RW of the high saliency region. When the saliency region spreads widely, the number of high saliency regions also increases, so it is assumed that even a healthy person will have a high probability of seeing a high saliency region. Therefore, by changing the second standard according to the spread of the high saliency region, it is possible to reduce erroneous abnormality determinations by the driver.

また、上記の実施形態では、図19のステップST13において、サリエンシーマップの高サリエンシー領域の広がりと、運転者のサッケードの振幅dsの大きさとの間に相関があるか否かを判定するものとしたが、これに限定されない。例えば、サッケードの振幅dsに加えてまたは変えて、サッケードの頻度fsをパラメータとして用いてもよい。 Further, in the above embodiment, in step ST13 of FIG. 19, it is determined whether there is a correlation between the spread of the high saliency region of the saliency map and the magnitude of the amplitude ds of the driver's saccade. However, it is not limited to this. For example, the saccade frequency fs may be used as a parameter in addition to or in place of the saccade amplitude ds.

ここに開示された技術は、自動車に搭載される運転者状態判定装置として有用である。 The technology disclosed herein is useful as a driver condition determination device installed in a vehicle.

21a 前カメラ(車外情報取得手段)
30 制御部(車両制御部)
302 注視点検出部
21a Front camera (external information acquisition means)
30 Control unit (vehicle control unit)
302 Gaze point detection unit

Claims (3)

車両に設けられる車両制御装置であって、
前記車両の運転者の注視点を検出する注視点検出部と、
前記車両前側の環境情報を取得する車外情報取得手段から車外環境情報を受信し、該車外環境情報に基づいてサリエンシーマップを生成し、前記サリエンシーマップにおいて周囲に対して相対的に顕著性を有する高サリエンシー領域の当該サリエンシーマップ内における広がり具合と前記注視点検出部で検出された前記運転者のサッケードの振幅との間の相関度が所定の第1基準よりも高い場合において、前記注視点検出部で検出された運転者の注視点が前記高サリエンシー領域に誘目される度合いである誘目度が所定の第2基準よりも高いときに、運転者の異常に対応する動作を行う車両制御部とを備えることを特徴とする車両制御装置。
A vehicle control device installed in a vehicle,
a gaze point detection unit that detects a gaze point of the driver of the vehicle;
Receive external environmental information from the external information acquisition means that acquires environmental information on the front side of the vehicle, generate a salience map based on the external environmental information, and determine the salience relative to the surroundings in the salience map. When the degree of correlation between the degree of spread of the high saliency region in the saliency map and the amplitude of the saccade of the driver detected by the gaze point detection unit is higher than a predetermined first criterion, Vehicle control that performs an operation corresponding to an abnormality of the driver when an eye attraction degree, which is a degree to which the driver's gaze point detected by the viewpoint detection unit is attracted to the high salience area, is higher than a predetermined second standard. A vehicle control device comprising:
請求項1に記載の車両制御装置において、
前記サリエンシーマップにおける前記高サリエンシー領域の広がり具合に応じて前記第2基準を変更する
ことを特徴とする車両制御装置。
The vehicle control device according to claim 1,
A vehicle control device characterized in that the second reference is changed depending on the degree of spread of the high saliency region in the saliency map.
車両制御装置が実行する運転者の状態を判定する運転者状態判定方法であって、
車両の運転者の注視点、及び、該注視点の動きに基づくサッケード振幅を検出する注視点検出ステップと、
前記車両前側の環境情報を取得する車外情報取得手段から受信した車外環境情報を基にしてサリエンシーマップを生成するマップ生成ステップと、
前記マップ生成ステップで生成されたサリエンシーマップにおいて周囲に対して相対的に顕著性を有する高サリエンシー領域の当該サリエンシーマップ内における広がり具合と前記注視点検出ステップで検出された前記運転者のサッケード振幅の大きさとの間に相関がある場合において、前記注視点検出ステップで検出された運転者の注視点が前記高サリエンシー領域に誘目される度合いである誘目度が所定の基準値よりも高いときに、運転者に異常があると判定する判定ステップとを備える
ことを特徴とする運転者状態判定方法。
A driver condition determination method for determining a driver condition executed by a vehicle control device, the method comprising:
a gaze point detection step of detecting a gaze point of a vehicle driver and a saccade amplitude based on the movement of the gaze point;
a map generation step of generating a saliency map based on the vehicle exterior environment information received from the vehicle exterior information acquisition means that acquires the vehicle front side environment information;
In the saliency map generated in the map generation step, the degree of spread of a high saliency region that is relatively salient with respect to the surroundings in the saliency map and the driver's saccade detected in the gaze point detection step When there is a correlation between the magnitude of the amplitude and the degree of attraction, which is the degree to which the driver's gaze point detected in the gaze point detection step is attracted to the high salience area, is higher than a predetermined reference value. and a determining step of determining that the driver has an abnormality.
JP2019203790A 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method Active JP7415459B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019203790A JP7415459B2 (en) 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019203790A JP7415459B2 (en) 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method

Publications (2)

Publication Number Publication Date
JP2021077140A JP2021077140A (en) 2021-05-20
JP7415459B2 true JP7415459B2 (en) 2024-01-17

Family

ID=75897981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019203790A Active JP7415459B2 (en) 2019-11-11 2019-11-11 Vehicle control device and driver condition determination method

Country Status (1)

Country Link
JP (1) JP7415459B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068917A (en) 2005-09-09 2007-03-22 Nissan Motor Co Ltd Visibility situation judgment apparatus, automobile, and visibility situation judgment method
JP5718493B1 (en) 2014-01-16 2015-05-13 日本電信電話株式会社 Sound saliency estimating apparatus, method and program thereof
WO2017195405A1 (en) 2016-05-11 2017-11-16 ソニー株式会社 Image processing apparatus, image processing method, and mobile body

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007068917A (en) 2005-09-09 2007-03-22 Nissan Motor Co Ltd Visibility situation judgment apparatus, automobile, and visibility situation judgment method
JP5718493B1 (en) 2014-01-16 2015-05-13 日本電信電話株式会社 Sound saliency estimating apparatus, method and program thereof
WO2017195405A1 (en) 2016-05-11 2017-11-16 ソニー株式会社 Image processing apparatus, image processing method, and mobile body

Also Published As

Publication number Publication date
JP2021077140A (en) 2021-05-20

Similar Documents

Publication Publication Date Title
JP7332726B2 (en) Detecting Driver Attention Using Heatmaps
KR102533860B1 (en) Image processing device and image processing method
JP4872245B2 (en) Pedestrian recognition device
JP7342638B2 (en) Driver status detection device
CN108604413B (en) Display device control method and display device
EP3868621B1 (en) Driver state estimation device and movable body
KR101986734B1 (en) Driver assistance apparatus in vehicle and method for guidance a safety driving thereof
JP7459633B2 (en) Driver abnormality determination device
EP3868622B1 (en) Driver state estimation device and movable body
JP7342637B2 (en) Vehicle control device and driver condition determination method
JP7342636B2 (en) Vehicle control device and driver condition determination method
JP7415459B2 (en) Vehicle control device and driver condition determination method
JP7415460B2 (en) Vehicle control device and driver condition determination method
JP2021167163A (en) Driver abnormality determination device
JP7318560B2 (en) state estimator
JP7322667B2 (en) Driver state estimation device
JP7276083B2 (en) Driver state estimation device
JP7298509B2 (en) state estimator
JP7298510B2 (en) state estimator
JP7342635B2 (en) Driver state estimation device and driver state estimation method
CN113044060A (en) Driving consciousness estimating device
JP2023022409A (en) Driver state determination method and driver state determination system
JP2023022410A (en) Driver state determination method and driver state determination system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230404

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231218

R150 Certificate of patent or registration of utility model

Ref document number: 7415459

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150