JP7415459B2 - Vehicle control device and driver condition determination method - Google Patents
Vehicle control device and driver condition determination method Download PDFInfo
- Publication number
- JP7415459B2 JP7415459B2 JP2019203790A JP2019203790A JP7415459B2 JP 7415459 B2 JP7415459 B2 JP 7415459B2 JP 2019203790 A JP2019203790 A JP 2019203790A JP 2019203790 A JP2019203790 A JP 2019203790A JP 7415459 B2 JP7415459 B2 JP 7415459B2
- Authority
- JP
- Japan
- Prior art keywords
- driver
- vehicle
- saliency
- gaze point
- map
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 22
- 230000004434 saccadic eye movement Effects 0.000 claims description 56
- 238000001514 detection method Methods 0.000 claims description 55
- 230000005856 abnormality Effects 0.000 claims description 43
- 230000033001 locomotion Effects 0.000 claims description 30
- 230000007613 environmental effect Effects 0.000 claims description 4
- 238000012545 processing Methods 0.000 description 31
- 239000002131 composite material Substances 0.000 description 25
- 230000006399 behavior Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 7
- 210000001508 eye Anatomy 0.000 description 7
- 239000005357 flat glass Substances 0.000 description 7
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 6
- 230000004064 dysfunction Effects 0.000 description 6
- 230000004424 eye movement Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000007423 decrease Effects 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 201000010099 disease Diseases 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 101000911772 Homo sapiens Hsc70-interacting protein Proteins 0.000 description 3
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 2
- 210000005252 bulbus oculi Anatomy 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000006735 deficit Effects 0.000 description 2
- 208000035475 disorder Diseases 0.000 description 2
- 230000008451 emotion Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000001771 impaired effect Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 208000014644 Brain disease Diseases 0.000 description 1
- 101000710013 Homo sapiens Reversion-inducing cysteine-rich protein with Kazal motifs Proteins 0.000 description 1
- 208000013016 Hypoglycemia Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 208000006011 Stroke Diseases 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 206010015037 epilepsy Diseases 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 208000019622 heart disease Diseases 0.000 description 1
- 230000002218 hypoglycaemic effect Effects 0.000 description 1
- 208000010125 myocardial infarction Diseases 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000004083 survival effect Effects 0.000 description 1
- 230000035900 sweating Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Traffic Control Systems (AREA)
Description
ここに開示する技術は、例えば車両制御装置及び自動車を運転する運転者の状態を判定する運転者状態判定方法に関する。 The technology disclosed herein relates to, for example, a vehicle control device and a driver state determination method for determining the state of a driver who drives an automobile.
昨今、国家的に自動運転システムの開発が推進されている。本願出願人は、現時点において、自動運転システムには、大きく分けると2つの方向性があると考えている。 Recently, the development of autonomous driving systems has been promoted nationally. The applicant of this application currently believes that there are two main directions for automatic driving systems.
第1の方向性は、自動車が主体となって運転者の操作を要することなく乗員を目的地まで運ぶシステムであり、いわゆる自動車の完全自動走行である。第2の方向性は、「自動車の運転が楽しめる環境を提供する」というように、あくまで人間が運転をすることを前提とした自動運転システムである。 The first direction is a system in which the vehicle plays a central role in transporting passengers to their destination without requiring any operation by the driver, which is what is called fully automated vehicle driving. The second direction is an automated driving system that is based on the assumption that a human will be driving the car, such as ``providing an environment where driving can be enjoyed.''
第2の方向性の自動運転システムでは、例えば、運転者に疾患等が発生し正常な運転が困難な状況が発生した場合等に、自動的に、自動車が乗員に変わって自動運転を行うことが想定される。このため、運転者に異常が発生したこと、特に、運転者に機能障害や疾患が発生したことをいかに早期にかつ精度良く発見できるかが、運転者の救命率の向上や周囲を含めた安全を確保する観点から極めて重要となる。 In the second direction of automated driving systems, when a situation arises in which the driver becomes ill and is unable to drive normally, for example, the vehicle automatically replaces the passenger and performs automated driving. is assumed. Therefore, it is important to be able to detect abnormalities in the driver as early as possible and accurately, especially when the driver has developed a functional disorder or disease, to improve the survival rate of the driver and to ensure the safety of everyone, including those around them. This is extremely important from the perspective of ensuring that
運転者の異常を判定する方法として、例えば、特許文献1には、車両の前方画像をマッピングし、マッピングされた前方画像の画素値に基づいて目立ち度マップ(サリエンシーマップ)を生成するとともに、ドライバの視線先の目立ち度を計算し、ドライバが目立つ部分に視線を向けた度合いと予め定めた閾値とを比較して、ドライバが漫然状態か否かを判定する技術が開示されている。
As a method for determining abnormality of a driver, for example,
特許文献1の技術は、ドライバが漫然状態にある場合には、意図的な注意機能が働かなくなるため、例えば、死角領域からの歩行者の飛び出しが起こり得るような危険な場所に視線が行かなくなり、視覚的な刺激の目立つ部分に視線が向けられるという視線配分特性に基づいた判定となっている。
In the technology of
発明者らは、機能障害者と健常者とによりドライビングシミュレータで視線検出を行った結果、機能障害者でもサリエンシーが高い領域に誘目されない場合や健常者でもサリエンシーが高い領域に誘目される場合が多数生じることが分かった。 The inventors conducted line-of-sight detection using a driving simulator using a driving simulator for people with impairments and healthy people, and found that there were many cases where even people with impairments were not attracted to areas with high salience, and even healthy people were often attracted to areas with high salience. I found out that it occurs.
例えば、サリエンシーが高い領域が、同時に運転中に見るべき注意箇所である場合に、健常者であってもサリエンシーが高い領域に視線が向かい、結果として、疾患発生と誤判定される場合がある。 For example, if an area with high salience is also a caution point that should be looked at while driving, even a healthy person may direct their line of sight to the area with high salience, and as a result, it may be erroneously determined that a disease has occurred.
ここに開示された技術は、斯かる点に鑑みてなされたものであり、サリエンシーに対する誘目傾向から運転者の状態判定をする運転者状態判定装置において、車両の走行環境にかかわらずにできるだけ精度よく運転者の異常を検出できるようにすることにある。 The technology disclosed herein has been developed in view of these points, and is capable of determining the driver's condition as accurately as possible regardless of the driving environment of the vehicle in a driver condition determination device that determines the driver's condition based on the tendency to attract attention to saliency. The purpose is to be able to detect abnormalities of the driver.
前記課題を解決するために、ここに開示された技術では、車両に搭載される車両制御装置を対象として、前記車両の運転者の注視点を検出する注視点検出部と、前記車両前側の環境情報を取得する車外情報取得手段から車外環境情報を受信し、該車外環境情報に基づいた高サリエンシー領域の広がりと前記注視点検出部で検出された前記運転者のサッケードの振幅との間の相関度が所定の第1基準よりも高い場合において、前記注視点検出部で検出された運転者の注視点がサリエンシーの高い領域を見る傾向が所定の第2基準よりも高いときに、運転者の異常に対応する動作を行う車両制御部とを備える、構成とした。 In order to solve the above problem, the technology disclosed herein includes a gaze point detection unit that detects a gaze point of a driver of the vehicle, and an environment in front of the vehicle, for a vehicle control device installed in a vehicle. Receiving vehicle exterior environment information from vehicle exterior information acquisition means for acquiring information, and correlation between the spread of a high salience region based on the vehicle exterior environment information and the amplitude of the driver's saccade detected by the gaze point detection unit. If the driver's gaze point detected by the gaze point detection unit has a higher tendency to look at an area with high salience than a predetermined second criterion, The vehicle control unit is configured to include a vehicle control unit that performs operations in response to abnormalities.
ここで、サリエンシーとは、色、輝度、動き等により刻々と変化する顕著性からなる視覚特徴量である。高サリエンシー領域とは、運転者の視界領域のうちでサリエンシーが高い(顕著性が高い)領域を指すものとし、換言すると、周囲に対して目立つ領域を指すものとする。より具体的には、高サリエンシー領域は、例えば、周囲の領域に対して色差や輝度差が大きかったり、周囲に対して大きな動きをしていたりする領域を指すものとする。 Here, saliency is a visual feature amount consisting of saliency that changes from moment to moment due to color, brightness, movement, etc. The high saliency area refers to an area where saliency is high (high conspicuousness) in the driver's visual field, or in other words, an area that stands out from the surroundings. More specifically, a high saliency region refers to, for example, a region that has a large color difference or brightness difference compared to surrounding regions, or that has a large movement relative to the surrounding regions.
また、サッケードとは、運転者が意図的に視線を移動させる跳躍性眼球運動のことであり、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。サッケードの振幅とは、運転者の視線が所定時間停滞する注視点から次の注視点への移動した場合における移動量のことを指す。 Furthermore, a saccade is a jumping eye movement in which the driver intentionally moves his/her line of sight, and is an eye movement in which the driver moves his/her line of sight from a point of gaze where the line of sight remains stagnant for a predetermined period of time to the next point of gaze. The amplitude of a saccade refers to the amount of movement when the driver's line of sight moves from a gaze point where it remains stagnant for a predetermined period of time to the next gaze point.
この構成によると、高サリエンシー領域の広がりと運転者のサッケードの振幅との間の相関度を見ることにより、運転者の視点が高サリエンシー領域に誘引されている傾向を抽出することができる。この運転者の視点が高サリエンシー領域に誘引されている傾向と、運転者の注視点がサリエンシーの高い領域を見る傾向とを組み合わせることで、運転者の異常対応をより適切に行うことができる。 According to this configuration, by looking at the degree of correlation between the spread of the high saliency area and the amplitude of the driver's saccades, it is possible to extract the tendency for the driver's viewpoint to be drawn to the high saliency area. By combining this tendency for the driver's viewpoint to be drawn to the high saliency region and the tendency for the driver's gaze point to look at the high saliency region, the driver can more appropriately respond to abnormalities.
前記車両制御装置の一実施形態として、前記高サリエンシー領域の広がりに応じて前記第2基準を変更する、としてもよい。 In one embodiment of the vehicle control device, the second reference may be changed depending on the extent of the high saliency region.
サリエンシー領域の広がりが大きい場合には、高サリエンシー領域も多くなるため、健常者であっても高サリエンシー領域を見る確率は高くなることが想定される。そこで、高サリエンシー領域の広がりに応じて第2基準を変更することにより、運転者の異常判定の誤判定を低減することができる。 When the saliency region spreads widely, the number of high saliency regions increases, so it is assumed that even a healthy person will have a high probability of seeing a high saliency region. Therefore, by changing the second standard according to the spread of the high saliency region, it is possible to reduce erroneous abnormality determinations by the driver.
前記課題を解決するために、ここに開示された技術では、車両の運転者の状態を判定する運転者状態判定方法を対象として、前記車両の運転者の注視点、及び、該注視点の動きに基づくサッケード振幅を検出する注視点検出ステップと、前記車両前側の環境情報を取得する車外情報取得手段から受信した車外環境情報を基にしてサリエンシーマップを生成するマップ生成ステップと、前記マップ生成ステップで生成されたサリエンシーマップの高サリエンシー領域の広がりと前記注視点検出ステップで検出された前記運転者のサッケード振幅の大きさとの間に相関がある場合において、前記注視点検出部で検出された運転者の注視点が前記高サリエンシー領域を見る傾向が所定の基準値よりも高いときに、運転者に異常があると判定する判定ステップとを備える。 In order to solve the above problem, the technology disclosed herein targets a driver state determination method for determining the state of a driver of a vehicle, and includes a method for determining the state of the driver of a vehicle, and a movement of the point of view of the driver of the vehicle. a gaze point detection step of detecting a saccade amplitude based on the saccade amplitude; a map generation step of generating a saliency map based on the vehicle exterior environment information received from the vehicle exterior information acquisition means acquiring the vehicle front side environment information; and the map generation step. In the case where there is a correlation between the spread of the high saliency region of the saliency map generated in step and the magnitude of the saccade amplitude of the driver detected in the gaze point detection step, the saccade amplitude detected by the gaze point detection unit is and a determination step of determining that the driver has an abnormality when the tendency of the driver's gaze point to look at the high saliency region is higher than a predetermined reference value.
この方法によると、高サリエンシー領域の広がりと運転者のサッケードの振幅との間の相関度を見ることにより、運転者の視点が高サリエンシー領域に誘引されている傾向を抽出することができる。この運転者の視点が高サリエンシー領域に誘引されている傾向と、運転者の注視点がサリエンシーの高い領域を見る傾向とを組み合わせることで、運転者の異常判定の精度を高めることができる。 According to this method, by looking at the degree of correlation between the spread of the high saliency area and the amplitude of the driver's saccades, it is possible to extract the tendency for the driver's viewpoint to be drawn to the high saliency area. By combining this tendency for the driver's viewpoint to be attracted to the high saliency region and the tendency for the driver's gaze point to look at the high saliency region, it is possible to improve the accuracy of the driver's abnormality determination.
以上説明したように、ここに開示された技術によると、運転者の異常対応をより適切に行うことができる。 As described above, according to the technology disclosed herein, the driver can more appropriately respond to abnormalities.
<本願発明者らにより得られた知見>
特許文献1にも示されているように、運転者のサリエンシーに対する視線移動の変化を見て、運転者の異常(注意機能低下を引き起こす異常)を検出する技術が知られている。この技術では、例えば、サリエンシーが高い領域(高サリエンシー領域)への視線移動が所定の閾値を超える場合に運転者の異常を検出する。
<Findings obtained by the inventors>
As disclosed in
本願発明者らは、鋭意研究の結果、注意機能障害者の車両運転時の挙動を観測することにより、車両の運転者の異常時(注意機能低下を引き起こす異常時)の挙動を擬似的に観測することができることを見出した。そして、本願発明者らは、上記の観測結果を基に、高サリエンシー領域への視線移動が所定の閾値を超える場合に運転者の異常を検出するという手法について検証を行った。具多的には、注意機能障害者の車両運転時の挙動と、注意機能障害を有さない健常者の車両運転時の挙動とについて、後述するサリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の閾値を超える場合に運転者の異常を検出するという手法についての検証を行った。 As a result of intensive research, the inventors of the present application have simulated the behavior of vehicle drivers during abnormal situations (abnormal situations that cause a decline in attention function) by observing the behavior of people with attention dysfunction when driving a vehicle. I found out that it can be done. Based on the above observation results, the inventors of the present application verified a method of detecting a driver's abnormality when the line of sight movement toward a high saliency region exceeds a predetermined threshold value. Specifically, we examined the behavior of people with attention dysfunction when driving a vehicle and the behavior of healthy people without attention dysfunction when driving a vehicle, using the salience index described later to move the line of sight to a high salience region. We verified a method that detects the tendency of the driver and detects driver abnormality when the salience index exceeds a predetermined threshold.
この検証の結果、本願発明者らは、機能障害者でもサリエンシーが高い領域に誘目されない場合や健常者でもサリエンシーが高い領域に誘目される場合が多数生じることが分かった。例えば、サリエンシーが高い領域が、同時に運転中に見るべき注意箇所である場合に、健常者であってもサリエンシーが高い領域に視線が向かい、結果として、疾患発生と誤判定される場合があることが分かった。 As a result of this verification, the inventors of the present application found that there are many cases in which even people with functional disabilities are not attracted to areas with high salience, and cases in which even healthy people are attracted to areas with high salience. For example, if an area with high salience is also a cautionary point to look at while driving, even healthy people may direct their eyes to the area with high salience, and as a result, it may be erroneously determined that a disease has occurred. I understand.
図20,21は、ドライビングシミュレータを用いて運転者の視線を検出し、サリエンシー指標の時間変化としてプロットしたものである。図20は健常者の測定結果であり、図21は機能障害患者の測定結果である。ただし、走行スピードが互いに異なるので、時間軸と走行場所が必ずしも一致しているわけではない。 20 and 21 show the driver's line of sight detected using a driving simulator and plotted as a time change in the saliency index. FIG. 20 shows the measurement results of a healthy person, and FIG. 21 shows the measurement results of a functionally impaired patient. However, since the running speeds are different from each other, the time axis and the running location do not necessarily match.
詳細は後述するが、サリエンシー指標とは、高サリエンシー領域への誘目度が高いほど数値が高くなる指標となっている。図20,21の例では、高サリエンシー領域への誘目度が相対的に高いと判断される0.6に閾値を設定し、サリエンシー指標が0.6を超える場合に注意機能の障害があると推定するものとした。 Although the details will be described later, the saliency index is an index whose numerical value increases as the degree of attraction to a high saliency region increases. In the examples shown in Figures 20 and 21, the threshold is set to 0.6, which indicates that the degree of attraction to the high salience region is relatively high, and when the salience index exceeds 0.6, it is determined that there is a failure in attention function. It was assumed that the
そうすると、健常者でもサリエンシー指標が0.6を超える場面が散見されることが分かった(図20のAR1参照)。例えば、消防車のようにサリエンシーの高い車両を追い抜く際などには、健常者であってもサリエンシーの高い場所に誘目される傾向がある。また、機能障害患者であっても、交差点等の危険度が高い場所において、サリエンシー指標が低い場所でも確認する場合があり、サリエンシー指標が低い領域が確認されている(図21のAR2参照)。 As a result, it was found that even in healthy subjects, there were some cases where the salience index exceeded 0.6 (see AR1 in FIG. 20). For example, when passing a vehicle with high salience such as a fire truck, even healthy people tend to be attracted to places with high salience. In addition, even in patients with functional disorders, the saliency index may be confirmed in high-risk locations such as intersections, and areas with a low saliency index have been confirmed (see AR2 in FIG. 21).
そこで、本願発明者らは、さらに鋭意検討を重ね、サリエンシー指標に加えて、サリエンシーの空間的な広がりを見ることで、運転者の異常を検出することができることを見出した。 Therefore, the inventors of the present application further conducted extensive studies and found that it is possible to detect abnormalities in the driver by looking at the spatial spread of saliency in addition to the saliency index.
具体的には、本願発明者らは、サリエンシー指標を用いて運転者の注視点が高サリエンシー領域に向かう傾向があるかを検知するとともに、サリエンシーの空間的な広がりと運転者の視線分布の広がりとの相関の度合いを検知する。そして、運転者の注視点が高サリエンシー領域に向かう傾向がある場合で、サリエンシーの空間的な広がりと視線分布の広がりの相関の度合いが高い場合に、運転者に異常があると判定することで、運転者の異常検出の精度を高めることができることを見出した。 Specifically, the inventors used a salience index to detect whether the driver's gaze point tends to move toward a high salience region, and also to detect the spatial spread of salience and the spread of the driver's line of sight distribution. Detect the degree of correlation between Then, when the driver's gaze point tends to move toward a high salience region, and when the degree of correlation between the spatial spread of saliency and the spread of the gaze distribution is high, it can be determined that there is an abnormality in the driver. We found that the accuracy of driver abnormality detection can be improved.
以下において、例示的な実施形態について、図面を参照しながら具体的に説明する。なお、以下の説明において、車両の前進走行側を単に前側といい、後退走行側を単に後側という。また、後側から前側を見たときの左側を左側といい、その逆を右側という。 In the following, exemplary embodiments will be specifically described with reference to the drawings. In the following description, the forward traveling side of the vehicle is simply referred to as the front side, and the backward traveling side is simply referred to as the rear side. Also, when looking from the rear to the front, the left side is called the left side, and the opposite is called the right side.
図1は、車両としての自動車の車室内を概略的に示す。この車両は、右ハンドル式の車両であって、右側にステアリングホイール58が配置されている。
FIG. 1 schematically shows the interior of an automobile as a vehicle. This vehicle is a right-hand drive vehicle, and a
車室内において、運転席から見て車両前側にはフロントウィンドウガラス51が配置されている。フロントウィンドウガラス51は、車室内側から見て、複数の車両構成部材により区画されている。具体的には、フロントウィンドウガラス51は、左右のフロントピラートリム52と、ルーフトリム53と、インストルメントパネル54とによって区画されている。
In the vehicle interior, a
左右のフロントピラートリム52は、フロントウィンドウガラス51の車幅方向外側の境界をそれぞれ構成している。各フロントピラートリム52は、各フロントピラーに沿って配置されている。ルーフトリム53は、フロントウィンドウガラス51の上側の境界を構成している。ルーフトリム53は、車両のルーフパネルの車室内側を覆っている。フロントウィンドウガラス51の車幅方向の中央でかつルーフトリム53のやや下側の部分には、バックミラー55が取り付けられている。ルーフトリム53におけるバックミラー55の近傍部分には、車室内、特に、運転者の顔面を撮影する車内カメラ28(図3参照)が設けられている。車内カメラ28については後で詳しく説明する。インストルメントパネル54は、フロントウィンドウガラス51の下側の境界を構成している。インストルメントパネル54には、メーターボックスやディスプレイ57が設けられている。
The left and right front pillar trims 52 constitute outer boundaries of the
また、車両は、左右のフロントピラーよりも車幅方向外側に、サイドミラー56をそれぞれ有している。各サイドミラー56は、運転席に着座した運転手がサイドドアのウィンドウ越しに見ることが出来るように配置されている。
Further, the vehicle has side mirrors 56 on the outer sides of the left and right front pillars in the vehicle width direction. Each
図2に示すように、車両には、車両前側の外部環境を撮影するためのカメラ(以下、前カメラ21aという)が設けられている。前カメラ21aは、車両の前側端部であって、車両のボンネット59よりもやや下側に配置されている。前カメラ21aは、車両前側の環境情報を取得する車外情報取得手段の一例である。
As shown in FIG. 2, the vehicle is provided with a camera (hereinafter referred to as
<車両制御システム>
図3は、実施形態による車両制御システム10の構成を例示する。車両制御システム10は、車両(具体的には自動四輪車)に設けられる。車両は、マニュアル運転と、アシスト運転と、自動運転とに切り換え可能である。マニュアル運転は、運転者の操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、運転者の操作を支援して走行する運転である。自動運転は、運転者の操作なしに走行する運転である。車両制御システム10は、アシスト運転および自動運転において、車両を制御する。具体的には、車両制御システム10は、車両に設けられたアクチュエータ11を制御することで車両の動作(特に走行)を制御する。
<Vehicle control system>
FIG. 3 illustrates the configuration of the
車両制御システム10は、情報取得部20と、制御部30と、通知部40とを備える。なお、以下の説明では、車両制御システム10が設けられている車両を「自車両」と記載し、自車両の周囲に存在する他の車両を「他車両」と記載する。
The
-アクチュエータ-
アクチュエータ11は、駆動系のアクチュエータ、操舵系のアクチュエータ、制動系のアクチュエータなどを含む。駆動系のアクチュエータの例としては、エンジン、モータ、トランスミッションが挙げられる。操舵系のアクチュエータの例としては、ステアリングが挙げられる。制動系のアクチュエータの例としては、ブレーキが挙げられる。
-Actuator-
The
-情報取得部-
情報取得部20は、車両の制御(特に走行制御)に用いられる各種情報を取得する。この例では、情報取得部20は、複数のカメラ21と、複数のレーダ22と、位置センサ23と、外部入力部24と、車両状態センサ25と、運転操作センサ26と、運転者状態センサ27とを含む。
-Information acquisition department-
The
〔カメラ〕
複数のカメラ21は、互いに同様の構成を有する。複数のカメラ21は、車両の周囲を囲うように車両に設けられる。複数のカメラ21の各々は、車両の周囲に広がる環境(車両の外部環境)の一部を撮像することで、車両の外部環境の一部を示す画像データを取得する。複数のカメラ21の各々により得られた画像データは、制御部30に送信される。複数のカメラ21は、前述の前カメラ21aを含む。
〔camera〕
The plurality of
この例では、カメラ21は、広角レンズを有する単眼カメラである。例えば、カメラ21は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。なお、カメラ21は、狭角レンズを有する単眼カメラであってもよいし、広角レンズまたは狭角レンズを有するステレオカメラであってもよい。
In this example,
〔レーダ〕
複数のレーダ22は、互いに同様の構成を有する。複数のレーダ22は、車両の周囲を囲うように車両に設けられる。複数のレーダ22の各々は、車両の外部環境の一部を検出する。具体的には、レーダ22は、車両の外部環境の一部へ向けて電波を送信して車両の外部環境の一部からの反射波を受信することで、車両の外部環境の一部を検出する。複数のレーダ22の検出結果は、制御部30に送信される。
[Radar]
The plurality of
例えば、レーダ22は、ミリ波を送信するミリ波レーダであってもよいし、レーザ光を送信するライダ(Light Detection and Ranging)であってもよいし、赤外線を送信する赤外線レーダであってもよいし、超音波を送信する超音波センサであってもよい。
For example, the
〔位置センサ〕
位置センサ23は、車両の位置(例えば緯度および経度)を検出する。例えば、位置センサ23は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて車両の位置を検出する。位置センサ23により得られた情報(車両の位置)は、制御部30に送信される。
[Position sensor]
The
〔外部入力部〕
外部入力部24は、車両の外部に設けられた車外ネットワーク(例えばインターネットなど)を通じて情報を入力する。例えば、外部入力部24は、車両の周囲に位置する他車両(図示省略)からの通信情報、ナビゲーションシステム(図示省略)からのカーナビゲーションデータ、交通情報、高精度地図情報などを受信する。外部入力部24により得られた情報は、制御部30に送信される。
[External input section]
The
〔車両状態センサ〕
車両状態センサ25は、車両の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、車両状態センサ25は、車両の速度を検出する車速センサ、車両の加速度を検出する加速度センサ、車両のヨーレートを検出するヨーレートセンサなどを含む。車両状態センサ25により得られた情報(車両の状態)は、制御部30に送信される。
[Vehicle condition sensor]
The vehicle condition sensor 25 detects the condition of the vehicle (for example, speed, acceleration, yaw rate, etc.). For example, the vehicle condition sensor 25 includes a vehicle speed sensor that detects the speed of the vehicle, an acceleration sensor that detects the acceleration of the vehicle, a yaw rate sensor that detects the yaw rate of the vehicle, and the like. Information (vehicle status) obtained by the vehicle status sensor 25 is transmitted to the
〔運転操作センサ〕
運転操作センサ26は、車両に加えられる運転操作を検出する。例えば、運転操作センサ26は、アクセル開度センサ、操舵角センサ、ブレーキ油圧センサなどを含む。アクセル開度センサは、車両のアクセルの操作量を検出する。操舵角センサは、車両のハンドルの操舵角を検出する。ブレーキ油圧センサは、車両のブレーキの操作量を検出する。運転操作センサ26により得られた情報(車両の運転操作)は、制御部30に送信される。
[Driving operation sensor]
The driving operation sensor 26 detects a driving operation applied to the vehicle. For example, the driving operation sensor 26 includes an accelerator opening sensor, a steering angle sensor, a brake oil pressure sensor, and the like. The accelerator opening sensor detects the amount of operation of the accelerator of the vehicle. The steering angle sensor detects the steering angle of the steering wheel of the vehicle. The brake oil pressure sensor detects the amount of brake operation of the vehicle. Information (vehicle driving operation) obtained by the driving operation sensor 26 is transmitted to the
〔運転者状態センサ〕
運転者状態センサ27は、車両を運転する運転者の状態(例えば運転者の健康状態や感情や身体挙動など)を検出する。運転者状態センサ27により得られた情報(運転者の状態)は、制御部30に送信される。この例では、運転者状態センサ27は、車内カメラ28と、生体情報センサ29とを含む。
[Driver status sensor]
The
《車内カメラ》
車内カメラ28は、車両の内部に設けられる。車内カメラ28は、運転者の眼球を含む領域を撮像することで運転者の目を含む画像データを取得する。車内カメラ28により得られた画像データは、制御部30に送信される。例えば、車内カメラ28は、運転者の前方に配置され、運転者の眼球が撮像範囲内となるように撮像範囲が設定される。なお、車内カメラ28は、運転者に装着されるゴーグル(図示を省略)に設けられてもよい。
《In-vehicle camera》
The in-
《生体情報センサ》
生体情報センサ29は、運転者の生体情報(例えば発汗など)を検出する。生体情報センサ29により得られた情報(運転者の生体情報)は、制御部30に送信される。
《Biological information sensor》
The
-制御部-
制御部30は、アシスト運転または自動運転において、情報取得部20により取得された各種情報に基づいて、車両が走行すべき経路である目標経路を決定し、目標経路を走行するために必要となる車両の運動である目標運動を決定する。そして、制御部30は、車両の運動が目標運動となるように、アクチュエータ11の動作を制御する。例えば、制御部30は、1つまたは複数の演算チップを有する電子制御ユニット(ECU)により構成される。言い換えると、制御部30は、1つまたは複数のプロセッサ、1つまたは複数のプロセッサを動作させるためのプログラムやデータを記憶する1つまたは複数のメモリなどを有する電子制御ユニット(ECU)により構成される。
-Control unit-
The
この例では、図3に示すように、制御部30は、画像処理部31と、外部環境認識部32と、候補経路生成部33と、車両挙動認識部34と、運転者挙動認識部35と、目標経路決定部36と、運動制御部37とを有する。
In this example, as shown in FIG. 3, the
〔画像処理部〕
画像処理部31は、複数のカメラ21で撮像された画像を受信し、画像処理を行う。画像処理部31で行われる画像処理には、外部環境認識部32で物体等の外部環境を認識するために用いる画像のための第1画像処理と、サリエンシーマップの生成に用いるための第2画像処理とが含まれる。なお、第1画像処理は、従来から自動運転等に用いられる画像処理であり、ここでは詳細説明を省略する。
[Image processing section]
The
《第2画像処理について》
画像処理部31は、例えば、前カメラ21aの撮影した画像に対して、画像を構成する素子のうち後述するマップ生成部301の処理(例えば、サリエンシーマップの生成)に不要な画素を削除する処理を行う。また、画像処理部31は、前カメラ21aで撮影された車両前側の外部環境を示す画像に対して、別の画像を合成して合成画像を生成する処理を行う。
《About the second image processing》
For example, the
図5は、車両の走行シーンにおいて前カメラ21aが撮影した車両前側の外部環境を示す画像D11の一例である。この画像D11に示す外部環境には、車道150と、車道150上の白線151とが含まれる。また、この画像D11に示された外部環境には、車道150の左側に形成された壁162と、壁162よりも左側の領域に形成された森林163と、車道150の右側の領域に広がる丘164と、丘164に形成された森林165が含まれる。また、この画像D11に示された外部環境には、車道150及び森林163,165の上側に広がる空167が含まれる。なお、以下の説明において、画像D11の空167は夕焼け空であり、赤みがかった空が広がっていると仮定する。換言すると、画像D11は、図7に示すように、高サリエンシー領域の広がりRWが相対的に大きい画像であるものとする。なお、図7については後で詳細に説明する。
FIG. 5 is an example of an image D11 showing the external environment on the front side of the vehicle, taken by the
画像処理部31は、画像D11に対して、車両の走行時に運転者の視界領域に入る車両構成部材を示す画像を合成する。具体的には、図6に示すように、画像処理部31は、運転席に着座した運転者が車両前側を見たときの車両構成部材の画像(以下、車両画像という)を画像D11に合成し、合成画像D12を生成する。車両画像に撮影される車両構成部材は、例えば、右側(運転席側)のフロントピラートリム52と、ルーフトリム53の右側の部分と、インストルメントパネル54の右側の部分と、バックミラー55と、右側のサイドミラー56と、ステアリングホイール58である。車両画像は、例えば、運転席側から運転者の視界領域に入る車内構造を予め撮影しておき、撮影した画像データをレイヤとして制御部30のメモリ(図示省略)に保存させておくことができる。そして、画像D11に車両画像を合成するときには、画像処理部31がメモリから当該車両画像を画像D11と別レイヤに読み込み、画像D11と車両画像との位置合わせをして重ねるようにすればよい。なお、車両構成部材として、さらにボンネット59の一部を考慮するようにしてもよい。また、合成画像D12を作成するのにあたって、前カメラ21a以外の情報、例えば、レーダ22の検出結果や、外部入力部24からの入力情報を使用するようにしてもよい。
The
図9は、図5~図8とは別の走行シーンにおいて前カメラ21aが撮影した車両前側の外部環境の画像に車両画像を合成した合成画像D22の一例である。合成画像D22は合成画像D12の場合と同様に、前カメラ21aの撮影画像と車両画像とを合成して生成される。合成画像D22に示す外部環境には、車道150と、車道150上の白線151とが含まれる。また、合成画像D22に示された外部環境には、他車両161と、車道150の両側に形成された壁162とが含まれる。左の壁162よりも左側の領域には、樹木168が植えられ、左の壁162よりも左側の領域に広がる丘164の上に樹木169が植えられている。同様に、右の壁162よりも左側の領域に広がる丘164の上に樹木168植えられている。また、画像D22に示された外部環境には、車道150、丘164及び樹木168,169の上側に広がる空170が含まれる。なお、以下の説明において、合成画像D22の空170は青空であると仮定する。換言すると、画像D22は、図10に示すように、高サリエンシー領域の広がりRWが相対的に小さい画像であるものとする。なお、図10については後で詳細に説明する。
FIG. 9 is an example of a composite image D22 obtained by combining a vehicle image with an image of the external environment in front of the vehicle taken by the
図6及び図9に示すように、画像処理部31で生成された合成画像D12,D22は、画像の一部が車両構成部材により遮られた状態になる。画像処理部31で生成された合成画像D12,D22の画像データ(以下、合成画像データという)は、後述するマップ生成部301に送信される。
As shown in FIGS. 6 and 9, the composite images D12 and D22 generated by the
〔外部環境認識部〕
外部環境認識部32は、複数のカメラ21及びレーダ22から出力されたデータに基づいて車両の外部環境を認識する。外部環境認識部32により認識される車両の外部環境には、物体が含まれる。物体の例としては、時間経過により変位する動体と、時間経過により変位しない静止体とが挙げられる。動体の例としては、自動四輪車、自動二輪車、自転車、歩行者などが挙げられる。静止体の例としては、標識、街路樹、中央分離帯、センターポール、建物などが挙げられる。
[External environment recognition department]
The external
〔候補経路生成部〕
候補経路生成部33は、外部環境認識部32の出力に基づいて1つまたは複数の候補経路を生成する。候補経路は、車両が走行可能な経路であり、目標経路の候補である。
[Candidate route generation unit]
The candidate
〔車両挙動認識部〕
車両挙動認識部34は、車両状態センサ25の出力に基づいて車両の挙動(例えば速度や加速度やヨーレートなど)を認識する。例えば、車両挙動認識部34は、深層学習により生成された学習モデルを用いて車両状態センサ25の出力から車両の挙動を認識する。
[Vehicle behavior recognition unit]
The vehicle
〔運転者挙動認識部〕
運転者挙動認識部35は、運転者状態センサ27の出力に基づいて運転者の挙動(例えば運転者の健康状態や感情や身体挙動など)を認識する。例えば、運転者挙動認識部35は、深層学習により生成された学習モデルを用いて運転者状態センサ27の出力からドライバの挙動を認識する。この例では、運転者挙動認識部35は、運転者状態検出部300を有する。運転者状態検出部300については、後で詳しく説明する。
[Driver behavior recognition unit]
The driver
〔目標経路決定部〕
目標経路決定部36は、車両挙動認識部34の出力と、運転者挙動認識部35の出力に基づいて、候補経路生成部33により生成された1つまたは複数の候補経路の中から目標経路となる候補経路を選択する。例えば、目標経路決定部36は、複数の候補経路のうち運転者が最も快適であると感じる候補経路を選択する。
[Target route determination unit]
The target
〔運動制御部〕
運動制御部37は、目標経路決定部36により目標経路として選択された候補経路に基づいて目標運動を決定し、その決定された目標運動に基づいてアクチュエータ11を制御する。例えば、運動制御部37は、目標運動を達成するための駆動力と制動力と操舵量である目標駆動力と目標制動力と目標操舵量をそれぞれ導出する。そして、運動制御部37は、目標駆動力を示す駆動指令値と目標制動力を示す制動指令値と目標操舵量を示す操舵指令値とを、駆動系のアクチュエータと制動系のアクチュエータと操舵系のアクチュエータとにそれぞれ送信する。駆動系のアクチュエータ、制動系のアクチュエータ、操舵系のアクチュエータは、アクチュエータ11の一例である。
[Motor control unit]
The motion control unit 37 determines a target motion based on the candidate route selected as the target route by the target
《通知部》
通知部40は、車両の運転者に各種情報を通知する。この例では、通知部40は、表示部41と、スピーカ42とを含む。表示部41は、各種情報を画像で出力する。スピーカ42は、各種情報を音声で出力する。
《Notification Department》
The
《運転者状態検出部》
運転者状態検出部300は、車両の運転者の異常を検出する。具体的には、図4に示すように、運転者状態検出部300は、マップ生成部301と、注視点検出部302と、異常検出部303とを有する。
《Driver status detection section》
The driver
なお、運転者の異常とは、運転者の注意機能低下を引き起こす異常のことである。このような運転者の異常の例としては、脳卒中などの脳疾患、心筋梗塞などの心疾患、癲癇、低血糖、眠気などが挙げられる。 Note that the driver's abnormality refers to an abnormality that causes a decline in the driver's attention function. Examples of such driver abnormalities include brain diseases such as stroke, heart diseases such as myocardial infarction, epilepsy, hypoglycemia, and drowsiness.
〔マップ生成部〕
マップ生成部301は、画像処理部31から合成画像D12,D22(以下、まとめて合成画像D2という)を受信し、合成画像D12,D22についてのサリエンシーマップD3を生成する。具体的には、マップ生成部301は、合成画像データのうち外部環境を表す部分、すなわち、画像処理部31で合成した車両画像以外の部分についてのサリエンシーを算出する。このとき、マップ生成部301は、画像処理部31での合成に使用した車両画像についてのサリエンシーは算出しないものの、合成画像D2のうちの外部環境を表す部分のサリエンシーの算出には利用する。つまり、マップ生成部301は、車両の走行時に運転者の視界領域に入る車両構成部材を考慮してサリエンシーマップD3を生成する。
[Map generator]
The
前述したように、サリエンシーは、物標の色、輝度、動き等により変化する。そこで、本実施形態では、マップ生成部301は、色に基づくサリエンシー、輝度に基づくサリエンシー、動きに基づくサリエンシー等、特徴毎にサリエンシーを算出して、特徴毎のサリエンシーマップを生成した後に、それらを足し合わせることで最終的な合成画像D12に基づいたサリエンシーマップD13(図7参照)及び合成画像D22に基づいたサリエンシーマップD23(図10参照)を生成する。サリエンシーマップD13及びサリエンシーマップD23は、サリエンシーマップD3の一例である。
As mentioned above, saliency changes depending on the color, brightness, movement, etc. of the target object. Therefore, in the present embodiment, the
例えば、マップ生成部301は、色に基づくサリエンシーについて、合成画像データにおける車両構成部材の近傍領域において、当該近傍領域と車両構成部材との色差が大きいときには、該色差が小さいときと比較して、近傍領域のサリエンシーを高くする。なお、色差とは、ある画素の色のRGBを(R1,G1,B1)とし、他の画素の色のRGBを(R2,G2,B2)したときに、以下の式により算出される。
(色差)={(R2-R1)2+(G2-G1)2+(B2-B1)2}1/2
マップ生成部301は、色差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
For example, with respect to color-based saliency, when the color difference between the nearby region and the vehicle component is large in a region near the vehicle component in the composite image data, the
(Color difference) = {(R2-R1) 2 + (G2-G1) 2 + (B2-B1) 2 } 1/2
The
また、例えば、マップ生成部301は、輝度に基づくサリエンシーについて、合成画像データにおける車両構成部材の近傍領域において、当該近傍領域と車両構成部材との輝度差が大きいときには、該輝度差が小さいときと比較して、近傍領域のサリエンシーを高くする。例えば、マップ生成部301は、合成した車両構成部品が黒色であるときには、白色に近い部分ほど輝度差が大きくなるため、近傍領域のうち白色に近い部分のサリエンシーを高くする。マップ生成部301は、輝度差が大きいほどサリエンシーを連続的に高くするように算出してもよいし、複数の閾値を設けて閾値を超える毎にサリエンシーが一定値高くなるように算出してもよい。
Further, for example, regarding the saliency based on brightness, the
なお、サリエンシーの算出自体は、インターネット上等で公開されている既知のコンピュータプログラムを用いることができる。また、特徴毎のサリエンシーマップの算出及び各サリエンシーマップの統合についても既知のコンピュータプログラムを用いることができる。 Note that the calculation of saliency itself can be performed using a known computer program published on the Internet or the like. Furthermore, a known computer program can be used to calculate a saliency map for each feature and to integrate each saliency map.
〔注視点検出部〕
注視点検出部302は、車内カメラ28により撮影された運転者の眼球画像から、運転者の視線方向を算出する。注視点検出部302は、例えば、運転者が車内カメラ28のレンズを覗いた状態を基準にして、そこからの運転者の瞳孔の変化を検知することで運転者の視線方向を算出する。視線方向の算出は、運転者の左目及び右目のどちらか一方から算出してもよいし、運転者の両目のそれぞれから求めた視線方向(視線ベクトル)の平均値としてもよい。また、運転者の瞳孔の変化から運転者の視線方向を算出することが困難であるときには、運転者の顔面の向きを更に考慮して視線方向を算出してもよい。また、運転者の視線方向の算出に、深層学習により生成された学習モデル(視線を検出するための学習モデル)を用いてもよい。
[Gaze point detection unit]
The gaze
《注視点及びサッケードの検出》
注視点検出部302は、運転者の視線の動きに基づいて運転者のサッケードを検出する。サッケードとは、運転者が意図的に視線を移動させる跳躍性眼球運動のことであり、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。図12に示すように、隣り合う2つの注視期間の間に挟まれた期間がサッケード期間となる。なお、注視期間は、視線が停滞しているとみなされる期間である。サッケードの振幅dsは、サッケード期間における視線の移動距離である。
《Detection of fixation points and saccades》
The gaze
注視点検出部302は、視線の移動距離の変化に基づいて視線の移動速度を算出し、視線の移動速度が予め定められた速度閾値(例えば2deg/s)未満である状態が予め定められた停滞時間(例えば0.1秒間)継続する期間を「注視期間」として抽出するとともに、その注視期間において運転者の視線の先にある点を「注視点」として抽出する。また、注視点検出部302は、隣り合う2つの注視期間の間に挟まれた期間における視線移動のうち、移動速度が速度閾値(例えば2deg/s)以上であり、且つ、移動距離が予め定められ距離閾値(例えば0.1deg)以上である視線移動を「サッケード」として抽出する。
The gaze
なお、注視点検出部302は、抽出されたサッケードについて、ノイズ除去処理を行うようにしてもよい。具体的には、注視点検出部302は、図13に示すように、複数のサッケード候補に基づいて回帰曲線L10を導出する。注視点検出部302は、例えば、最小自乗法により複数のサッケード候補から回帰曲線L10を導出する。次に、注視点検出部302は、回帰曲線L10を移動速度が増加する方向(図13の縦軸における増加方向)にシフトさせることで第1基準曲線L11を導出し、回帰曲線L10を移動速度が減少する方向(図13の縦軸における減少方向)にシフトさせることで第2基準曲線L12を導出し、第1基準曲線L11と第2基準曲線L12との間をサッケード範囲R10とする。そして、注視点検出部302は、複数のサッケード候補のうちサッケード範囲R10内に含まれるサッケード候補をサッケードとして抽出する。
Note that the gaze
次に、注視点検出部302は、サッケードの指標であるサッケードの振幅dsとサッケードの頻度fsとを算出する。具体的には、注視点検出部302は、予め定められた周期毎(例えば10秒毎)に、その周期内に含まれるサッケードの振幅dsの平均値を「サッケードの振幅ds」として算出し、その周期内に含まれるサッケードの数をその周期の時間で除算して得られる値を「サッケードの頻度fs」として算出する。
Next, the gaze
〔異常検出部〕
異常検出部303は、マップ生成部301で生成されたサリエンシーマップD3と、注視点検出部302で検出された運転者の注視点及びサッケードの振幅dsとに基づいて、運転者の異常を検出する。異常検出部303の動作は、以下の「車両制御システムの動作」において具体的に説明する。
[Abnormality detection part]
The
-車両制御システムの動作-
以下、図19を参照しつつ、車両制御システムの動作について説明する。
-Vehicle control system operation-
The operation of the vehicle control system will be described below with reference to FIG. 19.
(ステップST11)
まず、ステップST11において、車両制御システムでは、車両の運転者の注視点を検出する注視点検出ステップが実行される。具体的に、ステップST11では、例えば、前述の「注視点及びサッケードの検出」の項で説明したように、注視点検出部302が、車内カメラ28で検出された運転者の視線に基づいて注視点及びサッケードの振幅dsを検出する。
(Step ST11)
First, in step ST11, the vehicle control system executes a gaze point detection step of detecting the gaze point of the vehicle driver. Specifically, in step ST11, the gaze
(ステップST12)
次のステップST12において、車両制御システムでは、前カメラ21aから受信した画像データに基づいて、サリエンシーマップを生成するマップ生成ステップが実行される。具体的に、ステップST12では、例えば、前述の「マップ生成部」の項で説明したように、マップ生成部301が画像処理部31で合成された合成画像D2に基づいて、サリエンシーマップD3を生成する。なお、ステップST11とステップST12との実行順序は、特に限定されない。例えば、ステップS12がステップS11よりも先に実行されてもよいし、ステップST11とステップST12とが同時に実行されてもよい。
(Step ST12)
In the next step ST12, the vehicle control system executes a map generation step of generating a saliency map based on the image data received from the
(ステップST13)
ステップST13では、ステップST12で生成されたサリエンシーマップの高サリエンシー領域の広がりと、ステップST11で検出された運転者のサッケードの振幅dsの大きさとの間に相関があるか否かを判定する。
(Step ST13)
In step ST13, it is determined whether there is a correlation between the spread of the high saliency region of the saliency map generated in step ST12 and the amplitude ds of the driver's saccade detected in step ST11.
具体的には、例えば、異常検出部303が、マップ生成部301で生成されたサリエンシーマップの高サリエンシー領域の広がりRWと、注視点検出部で検出された運転者のサッケードの振幅dsの大きさとの間に相関があるか否かを判定する。より具体的には、異常検出部303は、例えば、高サリエンシー領域の広がりRWが互いに異なる複数のサリエンシーマップD3を用意する。そして、異常検出部303は、各々のサリエンシーマップD3の高サリエンシー領域の広がりと、そのサリエンシーマップD3の基となる画像が撮影された所定の時間範囲(例えば、5秒間)におけるサッケードの振幅dsとを対比することで互いの相関関係の有無を判定する。
Specifically, for example, the
図14は、健常者及び注意機能障害者について、「高サリエンシー領域の広がりRW」と「サッケードの振幅ds」との関係を示した概念図である。図14において、太実線が健常者の特性を模式的に示したものであり、細実線が注意機能障害者の特性を模式的に示したものである。 FIG. 14 is a conceptual diagram showing the relationship between "extension RW of high salience region" and "saccade amplitude ds" for healthy subjects and attentionally impaired subjects. In FIG. 14, the thick solid line schematically shows the characteristics of a healthy person, and the thin solid line schematically shows the characteristics of a person with attentional dysfunction.
ここで、運転者が正常な状態(例えば健常者)であれば、車両走行時には駐車車両、歩行者、脇道等の注視すべき視認対象物を見ながら運転する。すなわち、健常者であれば、サリエンシーの広がりの大小にかかわらず、注視すべき視認対象物を見ながら運転する。したがって、図14の太実線で示すように、高サリエンシー領域の広がりRWの大きさと、サッケードの振幅dsとの間の相関度は低くなる傾向がある。一方で、運転者に体調異常等が発生して能動的な運転が出来なくなったりしたときには、運転者は、サリエンシーが高い領域に自然と視線を向けるようになる。すなわち、運転者が誘目度の高い領域を見る頻度が高いときには、運転者に異常が生じている可能性が高い。そうすると、運転者に異常がある場合に、高サリエンシー領域の広がりRWが大きいときには、運転者の視線の移動量が増え、サッケードの振幅dsが大きくなる傾向が出る。一方で、運転者に異常がある場合に、高サリエンシー領域の広がりRWが小さいときには、運転者の視線の移動量が減り、サッケードの振幅dsが小さくなる傾向が出る。すなわち、運転者に異常がある場合には、図14の細実線で示すように、高サリエンシー領域の広がりRWの大きさと、サッケードの振幅dsの大きさとの間の相関度が高くなる傾向が出る。したがって、ステップST11では、マップ生成部301で生成されたサリエンシーマップの高サリエンシー領域の広がりRWと注視点検出部で検出された運転者のサッケードの振幅dsとの間の相関度が所定の第1基準よりも高い場合、次のステップST14に進む。一方で、ステップST13において、高サリエンシー領域の広がりRWとサッケードの振幅dsとの間の相関度が第1基準以下の場合、処理はステップST11に戻る。ここで、所定の第1基準は、相関度の高さを求めることができるような基準であればよく、任意に設定することができる。例えば、図14に破線で示すように、相関度が高いことを示す基準となるような基準線を引いて、その基準線との関係(例えば、傾きの近似度や一致度)に基づいて相関度を判定するようにしてもよい。ステップST13は、例えば、判定ステップの一部を構成する処理の一例である。
Here, if the driver is in a normal state (for example, a healthy person), the driver drives while looking at visible objects to be watched, such as parked vehicles, pedestrians, and side streets. In other words, a healthy person drives while looking at the visual object to be focused on, regardless of the extent of salience. Therefore, as shown by the thick solid line in FIG. 14, the degree of correlation between the extent of the high saliency region RW and the saccade amplitude ds tends to be low. On the other hand, when the driver becomes unable to drive actively due to an abnormality in his or her physical condition, the driver naturally turns his/her eyes toward an area where salience is high. In other words, when the driver frequently looks at areas with high eye-attractiveness, there is a high possibility that something is wrong with the driver. Then, when the driver has an abnormality and the spread RW of the high saliency region is large, the amount of movement of the driver's line of sight increases, and the amplitude ds of the saccade tends to increase. On the other hand, when the driver has an abnormality and the spread RW of the high salience region is small, the amount of movement of the driver's line of sight decreases, and the amplitude ds of the saccade tends to decrease. That is, when the driver has an abnormality, as shown by the thin solid line in FIG. 14, there is a tendency for the degree of correlation between the size of the spread RW of the high salience region and the size of the saccade amplitude ds to become high. . Therefore, in step ST11, the degree of correlation between the spread RW of the high saliency region of the saliency map generated by the
(ステップST14)
ステップST14では、ステップST11で検出された運転者の注視点が高サリエンシー領域を見る傾向が所定の基準値よりも高いか否かが判定される。具体的には、例えば、サリエンシー指標を用いて高サリエンシー領域への視線移動の傾向を検出し、サリエンシー指標が所定の閾値を超えるか否かが判定される。
(Step ST14)
In step ST14, it is determined whether the tendency of the driver's gaze point detected in step ST11 to look at the high saliency region is higher than a predetermined reference value. Specifically, for example, a tendency of eye movement toward a high saliency area is detected using a saliency index, and it is determined whether the saliency index exceeds a predetermined threshold value.
具体的には、異常検出部303は、マップ生成部301で生成されたサリエンシーマップと、注視点検出部302で検出された運転者の注視点とに基づいて、運転者がサリエンシーの高い領域を見る傾向が所定の第2基準よりも高いかどうかを判定する。本実施形態では、サリエンシー指標が所定の第2基準(例えば0.6)より高いかどうかを判定する。
Specifically, the
なお、ステップST14の判定において、サリエンシー指標の第2基準として0.6以外の数値を用いてもよいし、サリエンシー指標以外の指標を用いてもよい。 Note that in the determination in step ST14, a value other than 0.6 may be used as the second standard of the saliency index, or an index other than the saliency index may be used.
《サリエンシー指標の算出》
サリエンシー指標の算出方法について、図15~図18を用いて説明する。このサリエンシー指標の算出は、主に、異常検出部303により行われる。
《Calculation of salience index》
A method for calculating the saliency index will be explained using FIGS. 15 to 18. Calculation of this saliency index is mainly performed by the
図15は、運転者の注視点のサリエンシーの時間変化をプロットしたものである。このグラフは、例えば、図8や図11に示すように、注視点の変化をサリエンシーマップに当てはめて、サッケードが生じる毎に注視点のサリエンシーの高さをプロットしたものである。一方で、図16は、図15と同じサリエンシーマップ(例えば、図8や図11)からランダムに座標(以下、ランダム座標という)を指定して、サッケードが生じる毎にランダム座標のサリエンシーを求めることで生成される。 FIG. 15 is a plot of the change in saliency of the driver's gaze point over time. For example, as shown in FIGS. 8 and 11, this graph is a graph in which changes in the gaze point are applied to a saliency map, and the height of the saliency of the gaze point is plotted every time a saccade occurs. On the other hand, in FIG. 16, coordinates (hereinafter referred to as random coordinates) are randomly specified from the same saliency map as in FIG. 15 (e.g., FIG. 8 and FIG. 11), and the saliency of the random coordinates is calculated every time a saccade occurs. It is generated by
図15及び図16のグラフをそれぞれ作成した後は、ランダム点における閾値を超える割合と運転者の注視点における閾値を超える割合とのROC(Receiver Operating Characteristic)曲線を求める。具体的には、まず、第1ステップとして、閾値を図15及び図16のグラフにおいて最大値よりも大きい値に設定する。次に、第2ステップとして、閾値を低下させながら、閾値毎に該閾値を超えた点の割合を求める。そして、この第2ステップの処理を閾値が、図15及び図16のグラフにおいて最小値以下になるまで繰り返す。 After creating the graphs shown in FIGS. 15 and 16, ROC (Receiver Operating Characteristic) curves of the proportion exceeding the threshold value at random points and the proportion exceeding the threshold value at the driver's gaze point are determined. Specifically, first, as a first step, the threshold value is set to a value larger than the maximum value in the graphs of FIGS. 15 and 16. Next, as a second step, while lowering the threshold value, the percentage of points exceeding the threshold value is determined for each threshold value. The process of this second step is then repeated until the threshold value becomes equal to or less than the minimum value in the graphs of FIGS. 15 and 16.
前記第1及び第2ステップの後、第3ステップとして、ランダム点における閾値を超える割合(第1確率という)を横軸にとりかつ運転者の注視点における閾値を超える割合(第2確率という)を縦軸にとって、図17のようなグラフを作成する。図17のグラフは、同一の閾値におけるランダム確率に対する注視確率を表す。図17のグラフは、横軸及び縦軸ともに確率であるため、曲線の最小値は0であり、最大値は1である。 After the first and second steps, as a third step, the horizontal axis is the proportion exceeding the threshold at random points (referred to as the first probability), and the ratio exceeding the threshold at the driver's gaze point (referred to as the second probability) is plotted on the horizontal axis. A graph like the one shown in FIG. 17 is created for the vertical axis. The graph in FIG. 17 represents the gaze probability versus random probability at the same threshold. In the graph of FIG. 17, both the horizontal and vertical axes are probabilities, so the minimum value of the curve is 0 and the maximum value is 1.
図17において破線は、運転者の視線がサリエンシーに対してどのように動いているかを表す。図17の曲線C1のように、曲線が上側に凸になる場合は、運転者の注視点がランダム点よりも閾値を超える割合が高いことを表す。図17の曲線C1のような形状の曲線が算出されたときは、運転者の視線がサリエンシーの高い箇所を見る傾向にあること、すなわち、高サリエンシー領域への誘目度が高いことを意味している。一方で、図17の曲線C2のように、曲線が下側に凸になる場合は、運転者の注視点がランダム点よりも閾値を超える割合が低いことを表す。図17の曲線C2のような形状の曲線が算出されたときは、運転者の視線が高サリエンシー領域の影響を受けていないことを意味している。 In FIG. 17, the dashed line represents how the driver's line of sight moves with respect to saliency. When the curve is upwardly convex, like the curve C1 in FIG. 17, it indicates that the rate at which the driver's gaze point exceeds the threshold is higher than at a random point. When a curve with a shape like curve C1 in FIG. 17 is calculated, it means that the driver's line of sight tends to look at a high salience area, that is, the high salience area is highly attractive. There is. On the other hand, when the curve is convex downward like curve C2 in FIG. 17, it indicates that the rate at which the driver's gaze point exceeds the threshold is lower than that at a random point. When a curve shaped like curve C2 in FIG. 17 is calculated, it means that the driver's line of sight is not affected by the high salience region.
本実施形態では、第4ステップとして、AUC(Area Under Curve)を求める。AUCは、この曲線の右下部分の積分値である。すなわち、AUCは、図18に斜線で示すように、図17の曲線C1(または曲線C2)と2点鎖線とで囲まれた領域の面積である。本実施形態では、この積分値をサリエンシー指標と呼んでいる。サリエンシー指標を用いることで、走行シーンによる依存性を低減させることができる。具体的には、例えば、運転者が単純に高サリエンシー領域を見た割合を算出するだけでは、走行シーンが全体的に高サリエンシー領域を含むような場合に、高サリエンシー領域を見る頻度が高いという結果が得られる恐れがある。これに対して、本実施形態のように、ランダム点との比較を行ったサリエンシー指標を用いることで、高サリエンシー領域の多さや広がり等、走行シーンへの依存性を低減することができ、より精度の高い判断をすることができるようになる。 In this embodiment, the fourth step is to obtain AUC (Area Under Curve). AUC is the integral value of the lower right portion of this curve. That is, AUC is the area of the region surrounded by the curve C1 (or curve C2) and the two-dot chain line in FIG. 17, as indicated by diagonal lines in FIG. In this embodiment, this integral value is called a saliency index. By using the saliency index, dependence on driving scenes can be reduced. Specifically, for example, simply calculating the percentage of high-saliency areas that the driver views will show that when the entire driving scene includes high-saliency areas, the driver views the high-saliency areas more frequently. There may be consequences. On the other hand, by using a saliency index that is compared with random points as in this embodiment, it is possible to reduce the dependence on the driving scene, such as the number and spread of high saliency areas, and to Be able to make highly accurate judgments.
ステップST14において、サリエンシー指標が第2基準よりも高い場合、次のステップST15に進む。一方で、ステップST14において、サリエンシー指標が第2基準以下の場合、処理はステップST11に戻る。ステップST14は、例えば、判定ステップの一部を構成する処理の一例である。なお、ステップST11,ST12は、ステップST13,14の処理にかかわらず、車両の走行中は継続して実行される。 In step ST14, if the saliency index is higher than the second standard, the process proceeds to the next step ST15. On the other hand, if the saliency index is equal to or less than the second standard in step ST14, the process returns to step ST11. Step ST14 is, for example, an example of processing that constitutes a part of the determination step. Note that steps ST11 and ST12 are continuously executed while the vehicle is running, regardless of the processing of steps ST13 and ST14.
(ステップST15)
ステップS15では、制御部30は、運転者の異常に対応する制御を行う。例えば、制御部30は、運転者の異常の度合いが高い場合(例えば、運転者に疾患が発現したと認識した場合)、運転運動制御部37等を介してアクチュエータ11を制御して自動運転に切り替える処理を行う。また、制御部30は、通知部40を介して、運転者に「大丈夫ですか」、「少し休みませんか」との問いかけをする等、運転者に向けたアクチュエーションを実施し、運転者の反応を確認するようにしてもよい。例えば、制御部30は、上記のアクチュエーションの結果、運転者の反応が薄い場合に、アクチュエータ11を制御して自動運転に切り替える処理を行うようにしてもよい。
(Step ST15)
In step S15, the
このように、運転者への問いかけや注意喚起などのアクチュエーションを実施することで、運転者の異常判定の精度を高めたり、運転者に安全な行動を促すことができる。 In this way, by performing actuations such as asking the driver questions and calling attention to them, it is possible to improve the accuracy of the driver's abnormality determination and encourage the driver to take safe actions.
以上のように、本実施形態によると、できるだけ精度よく運転者の異常を検出することができる。具体的には、例えば、図19のように、サリエンシー指標のみを見た場合には、健常者が異常と誤判定されるような場面であっても、図14の太実線で示すように、高サリエンシー領域の広がりRWとサッケードの振幅dsとの相関性が低い場合、運転者の異常とは判定されない。これにより、視線がサリエンシーに誘引されている傾向をより精度よく抽出することができ、結果として運転者の異常を精度よく判定できる。 As described above, according to this embodiment, abnormality of the driver can be detected as accurately as possible. Specifically, for example, as shown in FIG. 19, when looking only at the saliency index, even in a situation where a healthy person is incorrectly judged as abnormal, as shown by the thick solid line in FIG. If the correlation between the spread RW of the high saliency region and the saccade amplitude ds is low, it is not determined that the driver is abnormal. As a result, it is possible to more accurately extract the tendency for the line of sight to be induced by salience, and as a result, it is possible to accurately determine the driver's abnormality.
なお、上記実施形態では、図19のステップST14において、高サリエンシー領域の広がりRWに応じて、第2基準を変更するようにしてもよい。サリエンシー領域の広がりが大きい場合には、高サリエンシー領域も多くなるため、健常者であっても高サリエンシー領域を見る確率は高くなることが想定される。そこで、高サリエンシー領域の広がりに応じて第2基準を変更することにより、運転者の異常判定の誤判定を低減することができる。 Note that in the above embodiment, the second criterion may be changed in step ST14 of FIG. 19 according to the spread RW of the high saliency region. When the saliency region spreads widely, the number of high saliency regions also increases, so it is assumed that even a healthy person will have a high probability of seeing a high saliency region. Therefore, by changing the second standard according to the spread of the high saliency region, it is possible to reduce erroneous abnormality determinations by the driver.
また、上記の実施形態では、図19のステップST13において、サリエンシーマップの高サリエンシー領域の広がりと、運転者のサッケードの振幅dsの大きさとの間に相関があるか否かを判定するものとしたが、これに限定されない。例えば、サッケードの振幅dsに加えてまたは変えて、サッケードの頻度fsをパラメータとして用いてもよい。 Further, in the above embodiment, in step ST13 of FIG. 19, it is determined whether there is a correlation between the spread of the high saliency region of the saliency map and the magnitude of the amplitude ds of the driver's saccade. However, it is not limited to this. For example, the saccade frequency fs may be used as a parameter in addition to or in place of the saccade amplitude ds.
ここに開示された技術は、自動車に搭載される運転者状態判定装置として有用である。 The technology disclosed herein is useful as a driver condition determination device installed in a vehicle.
21a 前カメラ(車外情報取得手段)
30 制御部(車両制御部)
302 注視点検出部
21a Front camera (external information acquisition means)
30 Control unit (vehicle control unit)
302 Gaze point detection unit
Claims (3)
前記車両の運転者の注視点を検出する注視点検出部と、
前記車両前側の環境情報を取得する車外情報取得手段から車外環境情報を受信し、該車外環境情報に基づいてサリエンシーマップを生成し、前記サリエンシーマップにおいて周囲に対して相対的に顕著性を有する高サリエンシー領域の当該サリエンシーマップ内における広がり具合と前記注視点検出部で検出された前記運転者のサッケードの振幅との間の相関度が所定の第1基準よりも高い場合において、前記注視点検出部で検出された運転者の注視点が前記高サリエンシー領域に誘目される度合いである誘目度が所定の第2基準よりも高いときに、運転者の異常に対応する動作を行う車両制御部とを備えることを特徴とする車両制御装置。 A vehicle control device installed in a vehicle,
a gaze point detection unit that detects a gaze point of the driver of the vehicle;
Receive external environmental information from the external information acquisition means that acquires environmental information on the front side of the vehicle, generate a salience map based on the external environmental information, and determine the salience relative to the surroundings in the salience map. When the degree of correlation between the degree of spread of the high saliency region in the saliency map and the amplitude of the saccade of the driver detected by the gaze point detection unit is higher than a predetermined first criterion, Vehicle control that performs an operation corresponding to an abnormality of the driver when an eye attraction degree, which is a degree to which the driver's gaze point detected by the viewpoint detection unit is attracted to the high salience area, is higher than a predetermined second standard. A vehicle control device comprising:
前記サリエンシーマップにおける前記高サリエンシー領域の広がり具合に応じて前記第2基準を変更する
ことを特徴とする車両制御装置。 The vehicle control device according to claim 1,
A vehicle control device characterized in that the second reference is changed depending on the degree of spread of the high saliency region in the saliency map.
車両の運転者の注視点、及び、該注視点の動きに基づくサッケード振幅を検出する注視点検出ステップと、
前記車両前側の環境情報を取得する車外情報取得手段から受信した車外環境情報を基にしてサリエンシーマップを生成するマップ生成ステップと、
前記マップ生成ステップで生成されたサリエンシーマップにおいて周囲に対して相対的に顕著性を有する高サリエンシー領域の当該サリエンシーマップ内における広がり具合と前記注視点検出ステップで検出された前記運転者のサッケード振幅の大きさとの間に相関がある場合において、前記注視点検出ステップで検出された運転者の注視点が前記高サリエンシー領域に誘目される度合いである誘目度が所定の基準値よりも高いときに、運転者に異常があると判定する判定ステップとを備える
ことを特徴とする運転者状態判定方法。
A driver condition determination method for determining a driver condition executed by a vehicle control device, the method comprising:
a gaze point detection step of detecting a gaze point of a vehicle driver and a saccade amplitude based on the movement of the gaze point;
a map generation step of generating a saliency map based on the vehicle exterior environment information received from the vehicle exterior information acquisition means that acquires the vehicle front side environment information;
In the saliency map generated in the map generation step, the degree of spread of a high saliency region that is relatively salient with respect to the surroundings in the saliency map and the driver's saccade detected in the gaze point detection step When there is a correlation between the magnitude of the amplitude and the degree of attraction, which is the degree to which the driver's gaze point detected in the gaze point detection step is attracted to the high salience area, is higher than a predetermined reference value. and a determining step of determining that the driver has an abnormality.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203790A JP7415459B2 (en) | 2019-11-11 | 2019-11-11 | Vehicle control device and driver condition determination method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019203790A JP7415459B2 (en) | 2019-11-11 | 2019-11-11 | Vehicle control device and driver condition determination method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021077140A JP2021077140A (en) | 2021-05-20 |
JP7415459B2 true JP7415459B2 (en) | 2024-01-17 |
Family
ID=75897981
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019203790A Active JP7415459B2 (en) | 2019-11-11 | 2019-11-11 | Vehicle control device and driver condition determination method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7415459B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007068917A (en) | 2005-09-09 | 2007-03-22 | Nissan Motor Co Ltd | Visibility situation judgment apparatus, automobile, and visibility situation judgment method |
JP5718493B1 (en) | 2014-01-16 | 2015-05-13 | 日本電信電話株式会社 | Sound saliency estimating apparatus, method and program thereof |
WO2017195405A1 (en) | 2016-05-11 | 2017-11-16 | ソニー株式会社 | Image processing apparatus, image processing method, and mobile body |
-
2019
- 2019-11-11 JP JP2019203790A patent/JP7415459B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007068917A (en) | 2005-09-09 | 2007-03-22 | Nissan Motor Co Ltd | Visibility situation judgment apparatus, automobile, and visibility situation judgment method |
JP5718493B1 (en) | 2014-01-16 | 2015-05-13 | 日本電信電話株式会社 | Sound saliency estimating apparatus, method and program thereof |
WO2017195405A1 (en) | 2016-05-11 | 2017-11-16 | ソニー株式会社 | Image processing apparatus, image processing method, and mobile body |
Also Published As
Publication number | Publication date |
---|---|
JP2021077140A (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7332726B2 (en) | Detecting Driver Attention Using Heatmaps | |
KR102533860B1 (en) | Image processing device and image processing method | |
JP4872245B2 (en) | Pedestrian recognition device | |
JP7342638B2 (en) | Driver status detection device | |
CN108604413B (en) | Display device control method and display device | |
EP3868621B1 (en) | Driver state estimation device and movable body | |
KR101986734B1 (en) | Driver assistance apparatus in vehicle and method for guidance a safety driving thereof | |
JP7459633B2 (en) | Driver abnormality determination device | |
EP3868622B1 (en) | Driver state estimation device and movable body | |
JP7342637B2 (en) | Vehicle control device and driver condition determination method | |
JP7342636B2 (en) | Vehicle control device and driver condition determination method | |
JP7415459B2 (en) | Vehicle control device and driver condition determination method | |
JP7415460B2 (en) | Vehicle control device and driver condition determination method | |
JP2021167163A (en) | Driver abnormality determination device | |
JP7318560B2 (en) | state estimator | |
JP7322667B2 (en) | Driver state estimation device | |
JP7276083B2 (en) | Driver state estimation device | |
JP7298509B2 (en) | state estimator | |
JP7298510B2 (en) | state estimator | |
JP7342635B2 (en) | Driver state estimation device and driver state estimation method | |
CN113044060A (en) | Driving consciousness estimating device | |
JP2023022409A (en) | Driver state determination method and driver state determination system | |
JP2023022410A (en) | Driver state determination method and driver state determination system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230404 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230529 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230913 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231218 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7415459 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |