JP7432198B2 - Situation awareness estimation system and driving support system - Google Patents

Situation awareness estimation system and driving support system Download PDF

Info

Publication number
JP7432198B2
JP7432198B2 JP2019104020A JP2019104020A JP7432198B2 JP 7432198 B2 JP7432198 B2 JP 7432198B2 JP 2019104020 A JP2019104020 A JP 2019104020A JP 2019104020 A JP2019104020 A JP 2019104020A JP 7432198 B2 JP7432198 B2 JP 7432198B2
Authority
JP
Japan
Prior art keywords
recognition
situation
driver
vehicle
line
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019104020A
Other languages
Japanese (ja)
Other versions
JP2020197952A (en
Inventor
允啓 亀▲崎▼
弘昭 林
直樹 岡
ウダーラ マナワドゥ
重樹 菅野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Waseda University
Original Assignee
Waseda University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Waseda University filed Critical Waseda University
Priority to JP2019104020A priority Critical patent/JP7432198B2/en
Publication of JP2020197952A publication Critical patent/JP2020197952A/en
Application granted granted Critical
Publication of JP7432198B2 publication Critical patent/JP7432198B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、状況認識推定システム及び運転支援システムに係り、更に詳しくは、所定の対象者の周囲を相対移動する認識対象物について、その対象者が適切に認識しているか否かを推定する状況認識推定システム、及び当該状況認識推定システムを利用して、対象者による自動車等の移動体の運転支援を行う運転支援システムに関する。 The present invention relates to a situation recognition estimation system and a driving support system, and more specifically, a situation in which it is estimated whether or not a target person appropriately recognizes a recognition target object that moves relatively around a predetermined target person. The present invention relates to a recognition estimation system and a driving support system that uses the situation recognition estimation system to assist a target person in driving a mobile object such as a car.

自動車を安全且つ効率的に運転するには、運転者の正しい状況認識が極めて重要となる。運転者が行うべき状況認識は、右折、合流等の運転タスクや車の混雑具合、周辺車両や歩行者の存在等によって大きく異なる。ここでの状況認識は、環境に存在する要素の状態や特性を知る知覚のみならず、知覚した要素を統合し、現在の事象について把握する理解と、理解した情報と自らの知識や経験から将来の動きを推定する予測とを段階的に行うことで十分となる。 In order to drive a car safely and efficiently, a driver's correct situational awareness is extremely important. The situational awareness that a driver should perform varies greatly depending on driving tasks such as right turns and merging, how crowded the vehicles are, and the presence of surrounding vehicles and pedestrians. Situational awareness here is not only the perception of knowing the state and characteristics of elements existing in the environment, but also the understanding of integrating the perceived elements and grasping the current event, and the understanding of the future based on the understood information and one's own knowledge and experience. It is sufficient to perform the prediction step by step to estimate the movement of the .

ところで、特許文献1には、運転者が本来確認しなければならない方向を見落としている場合に、当該方向への視認を運転者に伝達する運転支援装置が開示されている。この運転支援装置では、GPS信号により、対象となる運転者が運転する自車両の位置情報を獲得するとともに、予め記憶された地図情報に基づいて自車両の走行する分岐の種類等の道路情報が判定され、当該道路情報と、探索された経路による進行方向とに応じ、この時点で運転者が目視すべき目視必要方向が決定される。そして、撮像された運転者の映像から運転者の視線方向が取得され、所定時間内における目視必要方向における視認の有無により、注意喚起すべき見落とし方向が特定される。 By the way, Patent Document 1 discloses a driving support device that, when the driver overlooks a direction that the driver should originally check, transmits the visual recognition in that direction to the driver. This driving support device uses GPS signals to obtain location information of the vehicle being driven by the target driver, and also obtains road information such as the type of branch the vehicle is traveling on based on pre-stored map information. Based on the road information and the direction of travel according to the searched route, the direction in which the driver should visually observe is determined at this point. Then, the direction of the driver's line of sight is acquired from the captured image of the driver, and an overlooked direction in which attention should be called is identified based on whether or not the driver is visually recognized in the required visual direction within a predetermined period of time.

特許第6419401号公報Patent No. 6419401

しかしながら、前記特許文献1の運転支援装置にあっては、運転者の視線が目視必要方向に向けられたか否かについて判断するに過ぎず、目視必要方向に実際に存在する人や物等の認識対象物を視認したか否かについて検討されず、前述の状況認識が十分になされているか否かについてまで推定できない。すなわち、例えば、自車両の周囲の交通状況が経時的に変化する中で、前記所定時間内において、視認すべき他車両等の認識対象物が前記目視必要方向に出現したり消滅したりするような場合に、前記運転支援装置では、その認識対象物が出現している適切なタイミングで、運転者が前記目視必要方向を実際に視認したか否かまでは特定できない。また、前記運転支援装置では、認識対象物が出現しているタイミングで運転者が前記目視必要方向を実際に視認したとしても、状況認識を十分に行うための前述の理解及び予測に必要な時間の視認がなされているか否かまでは特定できない。つまり、前記運転支援装置では、運転者が前記目視必要方向に一度でも目を向ければ、当該目視必要方向に存在する認識対象物を全く視認していない、若しくは、当該認識対象物を十分な時間視認していないときでも、必要方向への見落としが無いと判断され、注意喚起がなされないことになる。従って、特許文献1の運転支援装置では、前述の状況認識が適切になされているか否かまで推定できず、安全運転に対する運転者に対する運転評価や運転支援として、必ずしも十分とは言えない。 However, the driving support device of Patent Document 1 only determines whether the driver's line of sight is directed in the direction that requires visual inspection, and does not recognize people or objects that actually exist in the direction that requires visual inspection. There is no consideration as to whether or not the object was visually recognized, and it is not possible to estimate whether or not the above-mentioned situational awareness is sufficient. That is, for example, as the traffic situation around the host vehicle changes over time, a recognition target such as another vehicle to be visually recognized may appear or disappear in the direction in which visual recognition is required within the predetermined time period. In such a case, the driving support device cannot specify whether or not the driver actually visually recognized the direction in which visual observation is required at an appropriate timing when the recognition target object appears. In addition, in the driving support device, even if the driver actually visually recognizes the direction in which visual recognition is required at the timing when the recognition target object appears, the time necessary for the above-mentioned understanding and prediction to sufficiently recognize the situation is required. It is not possible to determine whether or not the person is being visually recognized. In other words, in the driving support device, if the driver turns his/her eyes in the direction that requires visual observation even once, the driver does not visually recognize the recognition target existing in the direction that requires visual visibility at all, or the recognition target exists for a sufficient period of time. Even when the vehicle is not visually recognized, it is determined that there is no oversight in the necessary direction, and no alert is issued. Therefore, the driving support device of Patent Document 1 cannot estimate whether or not the above-mentioned situation recognition is being performed appropriately, and cannot necessarily be said to be sufficient as a driving evaluation or driving support for the driver regarding safe driving.

本発明は、このような課題を解決するために案出されたものであり、その目的は、所定の環境中を移動する対象者がその周囲に存在する認識対象物の状況を適切に認識しているか否かを推定することができる状況認識推定システム及び運転支援システムを提供することにある。 The present invention was devised to solve such problems, and its purpose is to enable a subject moving in a predetermined environment to appropriately recognize the status of recognition objects existing around him/her. An object of the present invention is to provide a situation recognition estimation system and a driving support system that can estimate whether or not the vehicle is in a vehicle.

前記目的を達成するため、本発明は、主として、対象者の周囲を相対移動する認識対象物について、前記対象者が適切に認識しているか否かを推定する状況認識推定システムにおいて、前記対象者の動作及び前記対象者の周辺環境に関係する各種情報を取得する情報取得手段と、当該情報取得手段からの情報により、前記対象者における前記認識対象物の視認状況を把握する視認状況把握手段と、前記情報に基づき、前記対象者によって近い将来行われるタスクを特定するタスク特定手段と、前記視認状況に基づき、前記タスクにおける前記対象者の状況認識について判定する認識判定手段とを備え、前記視認状況把握手段は、前記対象者の視線方向を複数の視認エリア毎に分類する視認エリア特定部と、当該視認エリア特定部での分類結果から、前記視認エリア毎に、前記認識対象物の存在と前記視認状況を各時刻で対応させてなる時系列の視線データを生成する視線データ生成部とを備え、前記認識判定手段は、基準となる状況認識に対応する視線モデルが前記タスク毎に記憶され、前記視線データと前記視線モデルから、前記認識対象物に対する状況認識が適切になされているか否かを判定する判定部を備え、前記判定部では、前記対象者が前記認識対象物を視認すべき前記各視認エリアにおいて前記認識対象物を視認するタイミングと、当該認識対象物を視認する視認時間とが適切か否かを判定することで、前記状況認識の判定を行う、という構成を採っている。 In order to achieve the above object, the present invention mainly provides a situation recognition estimation system for estimating whether or not the target person appropriately recognizes a recognition target that moves relatively around the target person. information acquisition means for acquiring various information related to the operation of the target person and the surrounding environment of the target person; and visibility situation grasping means for determining the visibility status of the recognition target by the target person based on the information from the information acquisition means. , comprising a task specifying means for specifying a task to be performed by the target person in the near future based on the information, and a recognition determining means for determining the situational awareness of the target person in the task based on the visual recognition situation, The situation grasping means includes a viewing area specifying unit that classifies the target person's line of sight direction into a plurality of viewing areas, and determining the existence of the recognition target for each viewing area based on the classification results of the viewing area specifying unit. and a gaze data generation unit that generates time-series gaze data by associating the visual recognition situation at each time, and the recognition determining means stores a gaze model corresponding to reference situation recognition for each task. , a determination unit that determines from the line-of-sight data and the line-of-sight model whether or not the situation with respect to the recognition target object is properly recognized; the determination unit determines whether the target person should visually recognize the recognition target object; The situation recognition is determined by determining whether the timing of viewing the recognition target object in each of the viewing areas and the viewing time of viewing the recognition target object are appropriate. .

また、本発明は、前記状況認識推定システムが適用され、前記対象者を移動体の運転者とし、前記状況認識推定システムによる前記移動体の周囲の状況認識の推定結果により、前記運転者への運転支援を行う運転支援システムにおいて、前記認識判定手段で前記運転者の運転中の状況認識が適切になされていないと判定された場合に、前記運転者に対するサポートを行うサポート手段を備える、という構成を採っている。 Further, in the present invention, the situational awareness estimation system is applied, the target person is a driver of a moving object, and the situational awareness estimation system provides information to the driver based on the estimation result of the situation recognition around the moving object. A driving support system that provides driving support includes support means that provides support to the driver when the recognition determining means determines that the driver is not properly recognizing the driving situation. are taken.

本発明によれば、視線データにより、各時刻において、各視認エリアにおける認識対象物の存在状況と対象者における各視認エリアの視認状況とを対応させ、これにより、各時刻において各認識対象物を対象者が視認しているか否かを推定可能になる。また、視線モデルとして、タスク毎、若しくは当該タスクを構成するフェーズ単位で、視認すべき視認エリアを設定するとともに、状況認識を十分に行うための理解及び予測に必要な視認時間となる基準時間を設定することにより、認識対象物が実際に存在しているタイミングで、対象者が当該視認エリアを視認しているか否かと、このときの視認時間が基準時間に達しているか否かが分かることになる。これにより、対象者による状況認識が適切に行われているか否かの推定が可能となる。 According to the present invention, the presence status of the recognition target in each visibility area is made to correspond to the visibility status of each visibility area by the subject at each time using line of sight data. It becomes possible to estimate whether the target person is visually recognizing it. In addition, as a line-of-sight model, we set the visibility area that should be seen for each task or each phase that makes up the task, and set the reference time that is the visibility time necessary for understanding and predicting the situation to sufficiently recognize it. By setting this, it is possible to know whether the target person is viewing the relevant viewing area at the timing when the recognition target object actually exists, and whether or not the viewing time at this time has reached the reference time. Become. This makes it possible to estimate whether or not the subject is appropriately recognizing the situation.

また、対象者を移動体の運転者としたその周囲の状況認識の推定に、本発明の状況認識推定システムを利用することにより、運転者の状況認識能力の客観的な評価が可能になり、当該評価内容を運転者にフィードバックすること等により、事故防止の観点での運転者の運転能力の向上に資することになる。また、実際の運転時において、各運転タスクで運転者が不足している状況認識をリアルタイムで推定できるため、当該状況認識が不足している場合に、注意喚起等により運転者に再度の視認を促し、或いは、状況認識の低下による事故等を抑制するための機器やシステムに対して動作指令する等の各種サポートが可能になる。このため、運転者の横に、あたかも運転協力者が存在するかのような安全運転のための支援が可能となる。 Furthermore, by using the situational awareness estimation system of the present invention to estimate the situational awareness of the surroundings of a driver of a moving object, it becomes possible to objectively evaluate the situational awareness ability of the driver. By feeding back the evaluation contents to the driver, etc., it will contribute to improving the driver's driving ability from the viewpoint of accident prevention. In addition, during actual driving, it is possible to estimate in real time the situational awareness that the driver lacks in each driving task, so if the situational awareness is insufficient, the driver can be reminded to look again by alerting the driver, etc. It becomes possible to provide various types of support, such as prompting or issuing operational commands to devices and systems to prevent accidents caused by a decline in situational awareness. Therefore, it is possible to provide support for safe driving as if there were a driving assistant beside the driver.

本実施形態に係る運転支援システムの全体構成を表したブロック図である。FIG. 1 is a block diagram showing the overall configuration of a driving support system according to the present embodiment. 視認エリアを説明するための概念図である。FIG. 3 is a conceptual diagram for explaining a visual recognition area. 第1のケースにおける交通状況を表した概略図である。FIG. 3 is a schematic diagram showing the traffic situation in the first case. 第1のケースにおける視線データの構成をグラフで概念的に表した図である。FIG. 3 is a diagram conceptually representing the configuration of line-of-sight data in a first case using a graph. 第2のケースにおける交通状況を表した概略図である。It is a schematic diagram showing the traffic situation in a second case. 第2のケースにおける視線データの構成をグラフで概念的に表した図である。FIG. 7 is a diagram conceptually representing the configuration of line-of-sight data in a second case using a graph. 第3のケースにおける交通状況を表した概略図である。It is a schematic diagram showing the traffic situation in a third case. 第3のケースにおける視線データの構成をグラフで概念的に表した図である。FIG. 7 is a diagram conceptually representing the configuration of line-of-sight data in a third case using a graph.

以下、本発明の実施形態について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.

図1には、本実施形態に係る運転支援システムの全体構成を表したブロック図が示されている。この図において、前記運転支援システム10には、所定の環境中を移動する対象者がその周囲に存在する人や物等の認識対象物の状況を適切に認識しているか否かを推定する状況認識推定システム11が適用されている。この運転支援システム10では、前記対象者を自動車の運転者として、当該運転者における運転中の状況認識が適切か否かを判断し、当該状況認識が適切になされていない場合に、運転者に対するサポートを行うようになっている。なお、以下の説明において、状況認識の対象者となる運転者が運転する自動車を「自車両」と称し、当該自動車の周囲に位置する自動車等を「他車両」と称する。 FIG. 1 shows a block diagram showing the overall configuration of a driving support system according to this embodiment. In this figure, the driving support system 10 includes a situation for estimating whether or not a subject moving in a predetermined environment appropriately recognizes the situation of objects to be recognized such as people and objects existing around the subject. A recognition estimation system 11 is applied. In this driving support system 10, the target person is a car driver, and it is determined whether or not the driver's awareness of the situation while driving is appropriate. Support is now available. Note that, in the following description, the vehicle driven by the driver who is the subject of situation recognition will be referred to as the "self-vehicle", and the vehicles etc. located around the vehicle will be referred to as "other vehicles".

すなわち、この運転支援システム10は、自車両の運転者における運転中の状況認識が適切になされているか否かを推定する状況認識推定システム11と、状況認識推定システム11により、運転中の状況認識が適切になされていないと推定された場合に、運転者に対するサポートを行うサポート手段12とにより構成される。 That is, this driving support system 10 includes a situation recognition estimation system 11 that estimates whether or not the driver of the vehicle is appropriately aware of the situation while driving; and a support means 12 that provides support to the driver when it is estimated that the driver is not doing so properly.

前記状況認識推定システム11は、運転者の視線や運転操作等の動作及び自車両の周囲の周辺環境に関係する各種情報を取得する情報取得手段14と、自車両周辺に対する運転者の視認状況を把握する視認状況把握手段15と、運転者により近い将来行われる運転タスクを特定するタスク特定手段16と、当該運転タスクにおいて、運転者の視認状況に基づいて当該運転者の状況認識について判定する認識判定手段17とを備えている。 The situation recognition estimation system 11 includes an information acquisition means 14 that acquires various information related to the driver's line of sight, actions such as driving operations, and the surrounding environment around the own vehicle, and information acquisition means 14 that acquires various information related to the driver's line of sight, actions such as driving operations, and the surrounding environment around the own vehicle, and information acquisition means 14 that acquires various information related to the driver's line of sight, actions such as driving operations, and the surrounding environment around the own vehicle, and information acquisition means 14 that acquires various information related to the driver's line of sight and actions such as driving operations, and the surrounding environment around the own vehicle, A visibility situation grasping means 15 for grasping, a task identification means 16 for identifying a driving task to be performed by the driver in the near future, and a recognition means for determining the situational awareness of the driver based on the driver's visibility situation in the driving task. determination means 17.

前記情報取得手段14は、自車両に取り付けられた所定のセンサやカメラ等からなる情報取得用機器19と、情報取得用機器19からの信号から各種情報を検出する検出部20とからなる。 The information acquisition means 14 includes an information acquisition device 19 including a predetermined sensor, camera, etc. attached to the own vehicle, and a detection section 20 that detects various information from signals from the information acquisition device 19.

前記情報取得用機器19は、自車両の周囲に存在する人や物等の認識対象物の存在及び相対位置関係を表す周辺車両情報を検知するためのライダ等の測域センサ22と、自車両周囲の一定範囲内となる周辺空間を撮像可能に設けられた車外撮像用カメラ23と、運転者の顔部分を含む自車両の車内空間を撮像可能に設けられた車内撮像用カメラ24と、自車両周辺の降雨量を測定するための降雨センサ25と、自車両周囲の明るさを測定するための光センサ26と、GPSを利用するためのGPS送受信機27と、外部で生成された地図情報や渋滞情報等の道路交通情報等を受信可能なデータ通信機28と、自車両に対する運転者の操作状態を検出する運転操作状態検出機29とからなる。この運転操作状態検出機29は、運転者による方向指示器(ウインカー)の点滅操作や、運転者によるハンドルの操作に対応する操舵角や、運転者によるブレーキやアクセルの操作に対応する運転時の速度変化、加速度変化等を検知する各種センサ類からなる。 The information acquisition device 19 includes a range sensor 22 such as a lidar for detecting surrounding vehicle information representing the presence and relative positional relationship of objects to be recognized, such as people and objects, existing around the own vehicle, and A vehicle exterior imaging camera 23 is provided to capture an image of the surrounding space within a certain range, an in-vehicle imaging camera 24 is provided to capture an image of the interior space of the vehicle including the driver's face, and A rain sensor 25 for measuring the amount of rainfall around the vehicle, a light sensor 26 for measuring the brightness around the vehicle, a GPS transceiver 27 for using GPS, and externally generated map information. The vehicle includes a data communication device 28 capable of receiving road traffic information such as road traffic information and traffic jam information, and a driving operation state detector 29 that detects the driver's operating state of the own vehicle. This driving operation state detector 29 detects the steering angle corresponding to the blinking operation of the turn signal (blinker) by the driver, the operation of the steering wheel by the driver, and the operation of the brake or accelerator during driving by the driver. It consists of various sensors that detect changes in speed, acceleration, etc.

前記検出部20は、GPS送受信機27を利用して自車両の現在位置情報を特定する自車両位置情報検出部31と、自車両の周辺における各種の外部環境情報を検出する周辺環境情報検出部32と、運転操作状態検出機29からのデータにより自車両に対する運転者の操作情報を検出する自車両操作情報検出部33と、車内撮像用カメラ24で取得した運転者の顔部分の画像データから機械学習を利用した公知の画像処理手法を用いて、運転者の視線方向に関する視線情報を検出する運転者視線情報検出部34からなる。 The detection unit 20 includes a vehicle position information detection unit 31 that uses a GPS transceiver 27 to identify current position information of the vehicle, and a surrounding environment information detection unit that detects various external environment information around the vehicle. 32, an own vehicle operation information detection unit 33 that detects information on the driver's operation of the own vehicle based on data from the driving operation state detector 29, and image data of the driver's face obtained by the in-vehicle imaging camera 24. The driver's line-of-sight information detection unit 34 detects line-of-sight information regarding the driver's line-of-sight direction using a known image processing method using machine learning.

なお、特に限定されるものではないが、検出部20は、自車両内に配置しても良いし、自車両に取り付けられた情報取得用機器19との間でデータ通信が可能となるように、自車両から離れた外部のサーバ等に配置しても良い。 Note that, although the detection unit 20 is not particularly limited, the detection unit 20 may be placed within the own vehicle, or may be configured such that data communication is possible with the information acquisition device 19 attached to the own vehicle. , it may be placed in an external server or the like that is remote from the own vehicle.

前記周辺環境情報検出部32では、前記外部環境情報として、次の第1~第6の周辺環境情報が取得される。 The surrounding environment information detection unit 32 obtains the following first to sixth surrounding environment information as the external environment information.

前記第1の周辺環境情報として、自車両が走行する道路が交差点かそうでない単路かについての道路情報について、自車両の現在位置と併せて取得される。すなわち、この道路情報は、出発地から目的地まで自車両が走行する地図情報を取得若しくは新たに作成し、GPSによる自車両の現在位置情報と組み合わせることで、現在及び想定される近未来において通過する道路について求められる。 As the first surrounding environment information, road information regarding whether the road on which the host vehicle is traveling is an intersection or a single road is acquired together with the current position of the host vehicle. In other words, this road information can be created by acquiring or newly creating map information for the vehicle traveling from the departure point to the destination, and combining it with the vehicle's current position information from GPS, so that it can be used both now and in the foreseeable future. required for roads.

前記第2の周辺環境情報として、車外撮像用カメラ23により取得した自車両の前方空間の画像データから、公知の画像処理手法を利用し、道路レーンを仕切る白線や白い停止線と黒色の通行部分とを区別する車線情報について求められる。すなわち、この車線情報は、自車両が走行する道路の車線数と、自車両前方の停止線の存在と、自車両が現在走行している走行車線が特定された情報となる。 As the second surrounding environment information, from the image data of the space in front of the vehicle acquired by the external imaging camera 23, using a known image processing method, white lines dividing road lanes, white stop lines, and black traffic areas are calculated. Lane information that distinguishes between the two is required. That is, this lane information is information specifying the number of lanes of the road on which the vehicle is traveling, the presence of a stop line in front of the vehicle, and the lane in which the vehicle is currently traveling.

前記第3の周辺環境情報として、車外撮像用カメラ23により取得した自車両の前方空間の画像データから、公知の画像処理手法を利用し、自車両前方の信号の存在及びその灯色と、自車両前方に存在する道路標識の種類とからなる信号標識情報が求められる。なお、特に限定されるものではないが、この信号標識情報は、R-CNN(Regions with Convolutional Neural Networks)等の公知の物体検出手法により求められる。 As the third surrounding environment information, from the image data of the space in front of the vehicle acquired by the external imaging camera 23, a known image processing method is used to determine the presence and color of traffic lights in front of the vehicle. Signal sign information consisting of the type of road sign existing in front of the vehicle is required. Although not particularly limited, this signal sign information is obtained by a known object detection method such as R-CNN (Regions with Convolutional Neural Networks).

前記第4の周辺環境情報として、自車両の周辺に存在する他車両の走行方向及び相対位置からなる周辺車両情報が求められる。ここでは、車外撮像用カメラ23により取得した自車両周囲の画像データから他車両の存在や走行方向が求められるとともに、測域センサ22の検出結果により他車両との相対距離が求められる。 As the fourth surrounding environment information, surrounding vehicle information including the traveling directions and relative positions of other vehicles existing around the own vehicle is obtained. Here, the presence and traveling direction of another vehicle are determined from image data around the vehicle acquired by the external imaging camera 23, and the relative distance to the other vehicle is determined from the detection results of the range sensor 22.

前記第5の周辺環境情報として、自車両の周辺空間の降雨量及び明るさ等からなる気象情報が求められる。すなわち、ここでは、降雨センサ25の検出結果により自車両の周辺空間の降雨量が求められ、光センサ26の検出結果により自車両の周辺空間の明るさが求められる。 As the fifth surrounding environment information, weather information including the amount of rainfall, brightness, etc. of the space surrounding the own vehicle is obtained. That is, here, the amount of rainfall in the space around the host vehicle is determined from the detection result of the rain sensor 25, and the brightness of the space around the host vehicle is determined from the detection result of the optical sensor 26.

前記第6の周辺環境情報として、自車両の周辺に存在する歩行者の走行方向及び相対位置からなる周辺歩行者情報が求められる。ここでは、車外撮像用カメラ23により取得した自車両周囲の画像データから歩行者の存在や走行方向が求められるとともに、測域センサ22の検出結果により歩行者との相対距離が求められる。 As the sixth surrounding environment information, surrounding pedestrian information including the running direction and relative position of pedestrians existing around the own vehicle is obtained. Here, the presence of a pedestrian and the traveling direction are determined from the image data around the vehicle acquired by the external imaging camera 23, and the relative distance to the pedestrian is determined from the detection result of the range sensor 22.

前記自車両操作情報検出部33では、運転者の方向指示器操作や、運転者によるハンドル操作による操舵角や、ブレーキやアクセルの操作量及び当該操作量に対応した運転時の速度変化や、自車両の加速度変化等の自車両操作情報が逐次検出される。 The own vehicle operation information detection unit 33 detects the driver's direction indicator operation, the steering angle by the driver's steering wheel operation, the amount of brake and accelerator operation, and the speed change during driving corresponding to the amount of operation, and the driver's operation information. Vehicle operation information such as changes in vehicle acceleration is sequentially detected.

次に、前記視認状況把握手段15、前記タスク特定手段16、及び前記認識判定手段17について説明する。 Next, the visual recognition situation grasping means 15, the task specifying means 16, and the recognition determining means 17 will be explained.

これら各手段15~17は、CPU等の演算処理装置及びメモリやハードディスク等の記憶装置等からなるコンピュータによって実行される。このコンピュータは、特に限定されるものではないが、自車両の内部又は外部に配置される他、当該コンピュータを自車両の内部及び外部に配置し、一部手段を自車両の内部で実行させ、残り手段を自車両の外部で実行させる態様を採ることもできる。 Each of these means 15 to 17 is executed by a computer comprising an arithmetic processing unit such as a CPU and a storage device such as a memory or a hard disk. Although this computer is not particularly limited, it may be placed inside or outside the own vehicle, or the computer may be placed inside or outside the own vehicle, and some means may be executed inside the own vehicle. It is also possible to adopt a mode in which the remaining means are executed outside the own vehicle.

前記視認状況把握手段15は、運転者視線情報検出部34で検出した運転者の視線情報から、運転者の視線方向を複数の視認エリア毎に分類する視認エリア特定部37と、視認エリア特定部37での分類結果から、視認エリア毎に、自車両から所定範囲の空間内に存在する認識対象物の存在と運転者の視認状況を各時刻で対応させてなる時系列の視線データを生成する視線データ生成部38とを備えている。 The visibility situation grasping means 15 includes a visibility area specifying unit 37 that classifies the direction of the driver's line of sight into a plurality of visibility areas based on the driver's line of sight information detected by the driver's line of sight information detection unit 34, and a visibility area specifying unit. Based on the classification results in step 37, time-series line-of-sight data is generated for each visibility area by associating the presence of a recognition target within a predetermined space from the own vehicle with the driver's visibility status at each time. The line of sight data generation section 38 is also provided.

前記視認エリア特定部37では、各時刻で取得した運転者の視線情報から、各時刻における運転者の視線方向がどの視認エリアの方向かが特定される。特に限定されるものではないが、本実施形態では、図2に示されるように、以下の7つの視認エリアA1~A7が設定されており、各時刻における運転者の視線方向を視認エリアA1~A7の何れかに振り分けるようになっている。すなわち、本実施形態における視認エリアとして、自車両のフロントガラス越しに視認される正面前方の前方エリアA1と、同バックミラーを通じて視認される真後方向のバックミラーエリアA2と、同左側の窓越しに視認される左側方の左ウインドウエリアA3と、同左側のサイドミラーを通じて視認される左後方の左サイドミラーエリアA4と、同右側の窓越しに視認される右側方の右ウインドウエリアA5と、同右側のサイドミラーを通じて視認される右後方の右サイドミラーエリアA6と、車内前方に存在するスピードメータエリアA7とが設定されている。 The visual recognition area specifying unit 37 identifies which visual recognition area the driver's line of sight direction at each time is in the direction of, based on the driver's line of sight information acquired at each time. Although not particularly limited, in this embodiment, as shown in FIG. It is designed to be sorted into either A7. That is, the visibility areas in this embodiment include a front area A1 in front of the vehicle that is visible through the windshield, a rearview mirror area A2 directly behind that is visible through the rearview mirror, and a rearview area A2 that is visible through the rearview mirror. A left window area A3 on the left side that is visible to the driver, a left rear left side mirror area A4 that is visible through the side mirror on the left side, and a right window area A5 on the right side that is visible through the window on the right side. A right rear right side mirror area A6 that is visible through the right side mirror and a speedometer area A7 located at the front of the vehicle are set.

前記視線データ生成部38では、視認エリア毎の時系列データとなる視線データが生成される。この視線データは、周辺環境情報検出部32での検出結果から特定された他車両、歩行者、信号、標識等の認識対象物の位置情報と、視認エリア特定部37で特定された運転者の視線方向とを各時刻で対応させてなる。換言すると、視線データは、各時刻における自車両の周辺の認識対象物の存在状況が視認エリア毎に区分され、各時刻における運転者の視線が存在する視認エリアを重畳することにより生成される。従って、この視線データにより、各視認エリアに存在する認識対象物を運転者が同時刻で視認できたか否かが推定可能になる。 The line-of-sight data generation unit 38 generates line-of-sight data that is time-series data for each visible area. This line-of-sight data includes position information of objects to be recognized such as other vehicles, pedestrians, traffic lights, and signs identified from the detection results of the surrounding environment information detection unit 32 and of the driver identified by the visibility area identification unit 37. The line of sight direction is made to correspond at each time. In other words, the line-of-sight data is generated by dividing the presence status of recognition objects around the own vehicle at each time into visibility areas, and superimposing the visibility areas where the driver's line of sight exists at each time. Therefore, based on this line of sight data, it is possible to estimate whether the driver was able to visually recognize the recognition target existing in each viewing area at the same time.

前記タスク特定手段16では、自車両操作情報検出部33で検出される自車両の操作状態に基づいて、これから運転者が行う運転タスクを特定するようになっている。ここでの運転タスクとしては、右左折、車線変更、直進、左右カーブ走行、合流、駐車、追い越し、停止、発進等を例示でき、各パターンの運転タスクが予め記憶されている。例えば、運転者による方向指示器の点滅操作により、記憶された各運転タスクの中から次の運転タスクが選択される。先ず、方向指示器が操作され、且つ、周辺環境情報検出部32で検出された道路情報から自車両の進行方向の直近に交差点が存在する場合には、方向指示器の点滅方向に自車両が右折若しくは左折する運転タスクが選択される。また、方向指示器の点滅操作がなされ、且つ、前記道路情報から直近で自車両が単路を進行する場合には、自車両が車線変更する運転タスクが選択される。一方、方向指示器の点滅操作がなされない場合には、自車両が直進する運転タスクが選択される。 The task specifying means 16 is configured to specify the driving task that the driver will perform from now on based on the operating state of the own vehicle detected by the own vehicle operation information detection section 33. Examples of driving tasks here include turning left and right, changing lanes, going straight, driving on left and right curves, merging, parking, overtaking, stopping, and starting, and each pattern of driving tasks is stored in advance. For example, the next driving task is selected from among the stored driving tasks by the driver's blinking operation of the direction indicator. First, if the turn signal is operated and there is an intersection in the immediate vicinity of the direction of travel of the vehicle based on the road information detected by the surrounding environment information detection unit 32, it is determined that the vehicle is in the direction in which the direction signal flashes. A driving task of turning right or turning left is selected. Furthermore, if the turn signal is blinked and the vehicle is traveling on a single road most recently based on the road information, a driving task in which the vehicle changes lanes is selected. On the other hand, if the direction indicator blinking operation is not performed, a driving task in which the own vehicle moves straight is selected.

前記認識判定手段17は、基準となる適切な状況認識に対応する運転者の視線モデルを運転タスク毎に生成する視線モデル生成部41と、視線モデル生成部41で生成された視線モデルが記憶され、当該視線モデルと視線データ生成部38で生成された実際の運転者の視線データとにより、運転者の状況認識が適切になされているか否かを判定する判定部42とを備えている。 The recognition determining means 17 includes a line-of-sight model generation unit 41 that generates a driver's line-of-sight model corresponding to appropriate situation recognition as a reference for each driving task, and a line-of-sight model generated by the line-of-sight model generation unit 41 is stored. , a determination unit 42 that determines whether the driver's situation recognition is appropriate based on the line-of-sight model and the actual driver's line-of-sight data generated by the line-of-sight data generation unit 38.

前記視線モデル生成部41では、各運転タスクについて、過去に、状況認識が適切とされた過去の多数の視線データを統計処理することで、運転タスク毎の視線モデルが生成される。 The line-of-sight model generation unit 41 generates a line-of-sight model for each driving task by statistically processing a large number of past line-of-sight data for which situation recognition was deemed appropriate in the past.

前記視線モデルは、各運転タスクそれぞれについて、運転タスクを構成するフェーズ単位で、運転者が認識対象物を視認すべき視認エリアと、自車両の周辺で視認すべき認識対象物に対する視認時間の基準値である基準時間と、直進時等の運転タスクの際に運転者がどの位の時間間隔で周辺の状況を確認すべきかを表す視認間隔とがそれぞれ設定されてなる。 The line of sight model determines, for each driving task, the visibility area in which the driver should see the recognition target and the standard of the viewing time for the recognition target to be seen in the vicinity of the driver's vehicle, in units of phases that make up the driving task. A reference time, which is a value, and a visual confirmation interval, which indicates the time interval at which the driver should check the surrounding situation during driving tasks such as driving straight ahead, are each set.

前記基準時間は、状況認識を行うのに必要となる運転者の視認時間に相当する時間であり、仮設定されたデフォルト時間に対して、判定部42での判定の際に実際取得した各種情報に関するデータに基づき更新されるようになっている。つまり、ここでは、当該データとして、自車両の周辺空間における光の伝達性に影響する光学要素、視認エリアに対する運転者の視覚上のアクセス容易性に影響する位置要素、及び/又は、同一のタイミングでターゲットとなる認識対象物に対する運転者の視認回数が挙げられる。本実施形態では、次式の通り、光学要素、位置要素、及び視認回数にそれぞれ対応するパラメータである光学要素項、位置要素項、及び視認回数項をデフォルト時間にそれぞれ乗ずることにより、基準時間が求められる。
基準時間=光学要素項×位置要素項×視認回数項×デフォルト時間
The reference time is a time corresponding to the driver's visual recognition time required for situation recognition, and is based on various information actually acquired during the determination by the determination unit 42 with respect to the temporarily set default time. It is updated based on data on That is, here, the relevant data includes optical elements that affect the transmission of light in the surrounding space of the own vehicle, positional elements that affect the visual accessibility of the driver to the visibility area, and/or the same timing. An example of this is the number of times the driver visually recognized the target recognition object. In this embodiment, the standard time is calculated by multiplying the default time by the optical element term, the positional element term, and the visibility count term, which are parameters corresponding to the optical element, the positional element, and the visibility count, respectively, as shown in the following equation. Desired.
Standard time = Optical element term × Position element term × Number of visibility terms × Default time

前記光学要素項は、降雨センサ25から取得した降雨量に基づく降雨要素項と光センサ26から取得した明るさに基づく明るさ要素項とを乗じてなる。前記降雨要素項は、判定部42での判定時に取得した降雨量を、予め設定された降雨量係数に乗じることにより求められ、降雨量に対し比例関係となる。また、前記明るさ要素項は、判定部42での判定時に取得した明るさを、予め設定された明るさ係数で除することにより求められ、明るさに対し反比例関係となる。 The optical element term is obtained by multiplying the rain element term based on the amount of rainfall obtained from the rain sensor 25 and the brightness element term based on the brightness obtained from the optical sensor 26. The rainfall element term is obtained by multiplying the amount of rainfall acquired at the time of determination by the determination unit 42 by a preset rainfall amount coefficient, and is proportional to the amount of rainfall. Further, the brightness element term is obtained by dividing the brightness obtained at the time of determination by the determination unit 42 by a preset brightness coefficient, and is inversely proportional to the brightness.

前記位置要素項は、視認すべき認識対象物が存在する視認エリアの位置に応じて、視認エリア毎に設定されたエリア係数からなる。例えば、運転者にとって、左ウインドウエリアA3は、前方エリアA1よりも見難い等、各視認エリアで運転者の見易さが異なることから、エリア係数は、各視認エリアでの運転者の見難さに対応して重み付けするための係数となっており、見難い視認エリアである程、高い数値を採る。 The position element term is composed of an area coefficient set for each visible area according to the position of the visible area where the recognition target object to be visually recognized exists. For example, the driver's visibility differs in each visibility area, such as the left window area A3 being harder to see than the front area A1, so the area coefficient is calculated based on the driver's visibility in each visibility area. This is a coefficient for weighting according to the visibility, and the harder it is to see the visible area, the higher the value is taken.

前記視認回数項は、視認回数に応じて定まる視認回数係数からなる。例えば、同一のフェーズにおいて、ある視認エリアで視認すべき認識対象物を視認した回数が2回に分割した場合には、1回目と2回目の視認の間に時間差が生じる。このことから、これら2回の合計時間は、1回のみの視認の場合の時間と変えた基準時間にする必要があり、視認回数に応じて定まる視認回数係数が設定されている。 The visibility number term is composed of a visibility frequency coefficient that is determined according to the number of visibility. For example, in the same phase, if the number of times a recognition target is viewed in a certain viewing area is divided into two times, there will be a time difference between the first and second viewings. For this reason, the total time of these two times needs to be a reference time that is different from the time in the case of only one visual recognition, and a visual recognition frequency coefficient that is determined according to the number of visual recognitions is set.

以上の視線モデルを生成する際において、各運転タスクのフェーズ毎に運転者が認識対象物を視認すべき視認エリアと、前述した各種係数の設定とが必要となる。これらの設定においては、様々な運転者が過去に実際に行った各種の運転タスクについて、当該運転タスクが適切な状況認識の下に行われたとき、つまり、安全運転と判断されたときに取得した前記視線データを集め、統計処理を行うことで求められる。 When generating the above line-of-sight model, it is necessary to set the visibility area in which the driver should visually recognize the recognition target object and the various coefficients described above for each phase of each driving task. In these settings, information is acquired regarding various driving tasks actually performed by various drivers in the past, when the relevant driving tasks were performed with appropriate situational awareness, that is, when it was determined that the driving was safe. It is obtained by collecting the line-of-sight data and performing statistical processing.

ここで、運転者による実際の運転が安全運転であったか否かは、情報取得手段14によって得られた検出結果に基づき自動的に判定される。すなわち、安全運転としては、無事故、無違反、自車両の移動軌跡が滑らかである等が挙げられ、運転タスクの前後で取得したデータにより安全運転か否かが判定される。例えば、アクセルペダルの操作状態が一定であるにも関わらず、急激に自車両の速度が低下した場合には、他車両との衝突等の何らかの事故が発生しており、その場合に得られた運転者の視線データは安全運転のものではないと判定される。また、ブレーキペダルを操作しているにも関わらず、急に加速度が増大した場合には、自車両が他車両に追突された等の何らかの事故が発生していると考えられ、その場合に得られた運転者の視線データは安全運転のものではないと判定される。換言すれば、ここでは、運転者における自車両への操作に関する入力値と、自車両からの出力値とが対比され、期待した出力値が得られないような場合に、その際の視線データが安全運転際のデータでない旨、判定される。従って、視線モデル生成部41では、それ以外の安全運転時の視線データのみが抽出されて統計処理される。ここで、前述の各種係数は、多数集めた安全運転時の視線データを使って、重回帰分析等の統計手法を用いて求められる。 Here, whether or not the actual driving by the driver was safe driving is automatically determined based on the detection result obtained by the information acquisition means 14. That is, examples of safe driving include no accidents, no violations, and a smooth movement trajectory of the own vehicle, and it is determined whether or not driving is safe based on data acquired before and after the driving task. For example, if the speed of your vehicle suddenly decreases even though the operating state of the accelerator pedal remains constant, this indicates that some type of accident, such as a collision with another vehicle, has occurred, and the information obtained in that case It is determined that the driver's line of sight data is not for safe driving. In addition, if the acceleration suddenly increases even though the brake pedal is being operated, it is likely that some sort of accident has occurred, such as your vehicle being rear-ended by another vehicle. It is determined that the driver's line-of-sight data obtained is not for safe driving. In other words, here, the input value related to the operation of the own vehicle by the driver is compared with the output value from the own vehicle, and when the expected output value is not obtained, the line of sight data at that time is It is determined that the data is not for safe driving. Therefore, the line-of-sight model generation unit 41 extracts only the other line-of-sight data during safe driving and statistically processes it. Here, the above-mentioned various coefficients are determined using a statistical method such as multiple regression analysis using a large number of collected line-of-sight data during safe driving.

また、前記視認間隔については、直進時等の運転タスク時における過去の安全運転時の視線データから、平均的にどの位の間隔でルームミラー、サイドミラー、窓を見ているかにより決定される。 Further, the visual recognition interval is determined based on line-of-sight data during past safe driving during driving tasks such as driving straight ahead, and based on the average interval at which the driver looks at the room mirror, side mirror, and window.

前記判定部42では、次のようにして状況認識の判定がなされる。すなわち、先ず、タスク特定手段16で特定された運転者がこれから行う運転タスクについて、当該運転タスクに係る視線モデルが抽出され、実際に得られた視線データと比較される。この際、運転者が、視線モデルで設定された適切な視認エリアについて、適切なタイミングにより、適切な視認時間で視認しているか否かが判断される。つまり、運転タスクの各フェーズで視認すべき視認エリア内に存在する認識対象物を十分な視認時間で運転者が視認しているか否かが判定される。ここでの視認時間は、自車両の周辺空間の降雨量及び明るさ、対象となる視認エリアの位置、及び各視認エリアでのフェーズ毎の視認回数に応じて定まる前述の基準時間により適否が判定される。すなわち、視認すべき視認エリアに存在する認識対象物に対する何れかの視認時間が基準時間に達しない場合には、当該運転タスクにおける認識対象物の状況認識が適切になされていないと推定される一方、そうでない場合には、状況認識が適切になされていると推定される。 The determination unit 42 determines situation recognition as follows. That is, first, for the driving task that the driver specified by the task specifying means 16 is about to perform, a line-of-sight model related to the driving task is extracted and compared with the actually obtained line-of-sight data. At this time, it is determined whether the driver is viewing the appropriate viewing area set by the line of sight model at an appropriate timing and for an appropriate viewing time. In other words, it is determined whether or not the driver has been able to visually recognize the recognition target object that is present in the visible area to be visually recognized in each phase of the driving task for a sufficient viewing time. The visibility time here is determined based on the above-mentioned standard time, which is determined according to the amount of rainfall and brightness of the space around the vehicle, the position of the target visibility area, and the number of times of visibility for each phase in each visibility area. be done. In other words, if the viewing time for any recognition target existing in the visibility area that should be visually recognized does not reach the reference time, it is presumed that the situation of the recognition target in the relevant driving task is not properly recognized. , if not, it is presumed that situational awareness is appropriate.

前記サポート手段12では、対象となる運転タスクにおける状況認識が適切でないと判定されたときに、運転者に正しい認識行動を適正なタイミングで促し、或いは、不十分とされた状況認識を十分に行うように、所定の伝達装置を通じて、運転者に注意喚起する運転支援情報を発するようになっている。 When it is determined that the situation recognition in the target driving task is not appropriate, the support means 12 prompts the driver to take the correct recognition action at an appropriate timing, or sufficiently performs the situation recognition that has been determined to be insufficient. In this way, driving support information to alert the driver is transmitted through a predetermined transmission device.

ここでの伝達装置としては、特に限定されるものではなく、運転者の視覚、聴覚、及び/又は触覚を通じて運転支援情報を伝達可能なディスプレイ、スピーカ、振動発生器等の機器類であれば何でも良く、各種の感覚を通じて各種の運転支援情報を伝達できる限りにおいて、他の様々なヒューマンインターフェースを適用可能である。 The transmission device here is not particularly limited, and can be any device such as a display, speaker, vibration generator, etc. that can transmit driving support information through the driver's visual, auditory, and/or tactile senses. Various other human interfaces are also applicable as long as various types of driving support information can be transmitted through various senses.

なお、サポート手段12によるサポートとしては、前述した注意喚起等により運転者に再度の視認を促すものの他に、状況認識の低下による事故等を抑制するための機器やシステムに対して動作指令する等の各種サポートが可能である。 Note that the support provided by the support means 12 includes, in addition to the above-mentioned warning and the like to urge the driver to re-visit the vehicle, operational commands to devices and systems to prevent accidents caused by a decline in situational awareness, etc. Various types of support are available.

次に、前記運転支援システム10による状況認識評価と当該評価に基づく運転支援の手順について、幾つかの運転タスク毎に例示的に設定したケースにより以下に説明する。 Next, the situation recognition evaluation by the driving support system 10 and the driving support procedure based on the evaluation will be described below using cases set as examples for several driving tasks.

先ず、第1のケースとして、図3に示される交通状況を想定し、その状況下で自車両Mが右車線に車線変更を行う運転タスクについて、次のように、状況認識評価と運転支援が行われる。 First, as a first case, assuming the traffic situation shown in Fig. 3, for a driving task in which the own vehicle M changes lanes to the right lane, situation recognition evaluation and driving support are performed as follows. It will be done.

先ず、このケースでの交通状況は次の通りである。自車両Mが、現時点で三車線の道路のうち中央車線を走行しており、同一車線において、自車両Mの前方に他車両Aが走行し、同後方に他車両Bが走行している。また、中央車線の左側に位置する左車線において、自車両Mの斜め左後方を他車両Cが走行している。更に、中央車線の右側に位置する右車線(追い越し車線)において、自車両Mの斜め右後方から、自車両Mよりも高速で他車両D及び他車両Eが順に走行している。そして、この交通状況下において、図3中1点鎖線で示されるように、自車両Mの運転者が、右車線に車線変更をしながら、他車両D及び他車両Eの間に入り込むシナリオとなっている。 First, the traffic situation in this case is as follows. The host vehicle M is currently traveling in the center lane of a three-lane road, and in the same lane, another vehicle A is running in front of the host vehicle M, and another vehicle B is running behind the same lane. Further, in the left lane located on the left side of the center lane, another vehicle C is running diagonally to the left rear of the host vehicle M. Furthermore, in the right lane (passing lane) located on the right side of the center lane, another vehicle D and another vehicle E are sequentially running at a higher speed than the own vehicle M from diagonally right behind the own vehicle M. Under this traffic situation, there is a scenario in which the driver of own vehicle M moves between another vehicle D and another vehicle E while changing lanes to the right lane, as shown by the dashed line in FIG. It has become.

ここで、前提として、情報取得手段14により、自車両Mの現在位置情報、自車両Mの周辺の各種環境情報、及び自車両Mに対する運転者の操作情報が、一定時間毎に取得されて図示しないメモリに記憶される。 Here, it is assumed that the current position information of the own vehicle M, various environmental information around the own vehicle M, and operation information of the driver regarding the own vehicle M are acquired by the information acquisition means 14 at regular intervals and are shown in the figure. Not stored in memory.

そして、視線状況把握手段15では、情報取得手段14で取得した各種情報から運転者の視線データが逐次生成されて前記メモリに記憶される。このケースにおける視線データは、図4に模式的に図示される構成となっている。すなわち、この図では、視線データについて、同図中縦軸を視認エリアA1~A6とし、同横軸を時間tとしたグラフとして表現しており、この視線データにより、視認エリアA1~A6毎に、運転者の視線が存在する視認時間帯Tm(同図中ハッチング部分)と他車両A~Eの存在する時間帯Ta~Teとが重畳して特定される。この視線データは、自車両Mの速度や道路の法定速度に応じて定まる対象範囲R(図3中破線部分)内で生成される。この対象範囲Rは、自車両Mを中心に前後左右の所定距離の範囲内となる。 Then, the line-of-sight situation understanding means 15 sequentially generates the driver's line-of-sight data from the various information acquired by the information acquisition means 14 and stores it in the memory. The line of sight data in this case has a configuration schematically illustrated in FIG. 4. That is, in this figure, line-of-sight data is expressed as a graph in which the vertical axis in the figure is the visible areas A1 to A6 and the horizontal axis is the time t. , the visibility time period Tm (hatched portion in the figure) in which the driver's line of sight exists and the time periods Ta to Te in which other vehicles A to E exist are identified as being superimposed. This line of sight data is generated within a target range R (dashed line in FIG. 3) that is determined according to the speed of the own vehicle M and the legal speed of the road. This target range R is within a predetermined distance around the own vehicle M in the front, rear, left and right directions.

次に、タスク特定手段16で運転タスクが特定される。第1のケースでは、情報取得手段14で取得した情報により、右折方向に方向指示器を点滅させる操作を行い、且つ、交差点でない単路を走行していることが検知されたときに、これからなされる運転タスクとして、右方向への車線変更と特定される。 Next, the task specifying means 16 specifies the driving task. In the first case, based on the information acquired by the information acquisition means 14, when it is detected that the turn signal flashes in the direction of a right turn and that the vehicle is traveling on a single road that is not an intersection, what will be done from now on? The driving task identified is changing lanes to the right.

そして、認識判定手段17において、右方向への車線変更に関する運転タスクにおける運転者の状況認識が適切にされているか否かを判定し、適切でない場合には、サポート手段12によりサポートがなされる。 Then, the recognition determining means 17 determines whether or not the driver's situation recognition in the driving task related to changing lanes to the right is appropriate, and if it is not appropriate, the support means 12 provides support.

すなわち、この第1のケースでは、右折の方向指示器の点滅を開始した方向指示器の入力時の前後の時間帯の視線データから、運転者の状況認識について判定される。具体的に、ここで用いる視線データとしては、方向指示器の入力時から予め設定された所定時間前(例えば3秒前)である車線変更計画開始時から、ハンドル操作の操舵角が所定角度(例えば5度)以上になった車線変更開始時までの間の時間帯のものが用いられる。 That is, in this first case, the driver's situational awareness is determined from the line-of-sight data of the time periods before and after the input of the turn signal that started flashing the right turn turn signal. Specifically, the line of sight data used here is such that the steering angle of the steering wheel is set at a predetermined angle ( For example, the period of time until the lane change starts when the lane change occurs (for example, 5 degrees) or more is used.

ここで、右方向への車線変更に関する運転タスクにおいては、次の状況認識が必要となる。先ず、車線変更計画開始時から方向指示器入力時までの第1のフェーズでは、ルームミラーを通じて後方車両を確認し、後方車両が追い越ししようとしている場合には、自車両Mの車線変更ができない。また、この第1のフェーズでは、右サイドミラーと右窓を通じて他車両の存在をある程度確認する必要がある。 Here, in a driving task related to changing lanes to the right, the following situational recognition is required. First, in the first phase from the start of the lane change plan to the time when the direction indicator is input, the driver checks the vehicle behind him through the rearview mirror, and if the vehicle behind him is about to overtake, the vehicle M cannot change lanes. Also, in this first phase, it is necessary to confirm the presence of other vehicles to some extent through the right side mirror and right window.

方向指示器入力時から車線変更開始時までの第2のフェーズでは、右サイドミラーや右窓を通じて、自車両M近傍における右車線に存在する他車両を確認し、何れの他車両の後方に入るのか等を想定する必要がある。 In the second phase, from when the turn signal is input to when the lane change starts, the driver checks other vehicles in the right lane near own vehicle M through the right side mirror and right window, and enters behind any other vehicle. It is necessary to assume that the

加えて、第1及び第2のフェーズでは、他の車線の他車両に気を取られて、同一車線を先行する前方の他車両Aと衝突しないように、前方確認も必要となる。 In addition, in the first and second phases, it is also necessary to check the front so that the driver does not get distracted by other vehicles in other lanes and collide with another vehicle A ahead in the same lane.

そこで、認識判定手段17の判定部42では、当該運転タスクにおいて必要となる前述の状況認識が視認エリア毎に設定された視線モデルにより、実際の視線データについての判定がなされる。つまり、運転者により、適切な視認エリアを適切なタイミング及び視認時間で視認がなされたか否かにより、状況認識が適切になされたか否かが判断される。そして、状況認識が適切になされていないと判断された場合に、サポート手段12による注意喚起がなされる。 Therefore, the determining unit 42 of the recognition determining means 17 makes a determination regarding the actual visual line data using a visual line model in which the above-mentioned situational recognition necessary for the driving task is set for each visual recognition area. In other words, it is determined whether the driver has properly recognized the situation based on whether the driver has visually recognized the appropriate visual area at the appropriate timing and for the appropriate viewing time. If it is determined that the situation is not properly recognized, the support means 12 alerts the user.

第1のケースでは、第1のフェーズにおいて、前方エリアA1に存在する他車両Aと、バックミラーエリアA2に存在する他車両Bと、右サイドミラーエリアA6に存在する他車両D、Eに対し、運転者の目視確認が必要となる。従って、判定部42では、これらの視認エリアにおいて、認識対象物である各他車両の目視確認の有無及び視認時間が視線データから抽出され、予め生成された視線モデルを使って判定される。視認時間としては、第1のフェーズにおける各視認エリアで視認すべき他車両を視認した合計時間が、視線モデルの基準時間に達しているか否かが判定される。ここでの基準時間は、情報取得手段14での情報取得結果から、前述の関係式により特定される。 In the first case, in the first phase, other vehicles A existing in the front area A1, other vehicles B existing in the rearview mirror area A2, and other vehicles D and E existing in the right side mirror area A6 are , visual confirmation by the driver is required. Therefore, the determination unit 42 extracts from the line-of-sight data the presence or absence of visual confirmation of each other vehicle, which is a recognition target object, and the visual confirmation time in these visual recognition areas, and determines it using a line-of-sight model generated in advance. As for the visual recognition time, it is determined whether the total time during which other vehicles to be viewed in each visual recognition area in the first phase were visually recognized has reached the reference time of the line-of-sight model. The reference time here is specified from the information acquisition result by the information acquisition means 14 using the above-mentioned relational expression.

図4の視線データの例では、第1のフェーズにおいて、前方エリアA1に存在する他車両Aを2回視認していると考えられるが、その合計時間が基準時間に達しているか否かが判定される。そして、当該基準時間に達していない場合には、方向指示器入力時の直後に、サポート手段12によって、前方の確認が不十分である旨のサポートがなされる。 In the example of line-of-sight data in FIG. 4, it is considered that the other vehicle A existing in the front area A1 is visually recognized twice in the first phase, but it is determined whether the total time has reached the reference time or not. be done. If the reference time has not yet been reached, immediately after the direction indicator is input, the support means 12 provides support to the effect that the confirmation of the front is insufficient.

また、バックミラーエリアA2に存在する他車両Bについては、第1のフェーズで運転者が一度も視認していないことから、基準時間に達しておらず、方向指示器入力時の直後に、サポート手段12によって、後方確認を要請する旨のサポートがなされる。 In addition, regarding other vehicle B existing in the rearview mirror area A2, since the driver has never seen it in the first phase, the reference time has not been reached, and immediately after the turn signal is input, support is provided. Means 12 provides support for requesting rear confirmation.

更に、第1のフェーズにおいて、右サイドミラーエリアA6に存在する他車両D、Eを1回視認していると考えられるが、その時間が基準時間に達しているか否かが判定される。そして、当該基準時間に達していない場合には、方向指示器入力時の直後に、サポート手段12によって、右側後方の確認が不十分である旨のサポートがなされる。更に、視線モデルにおいて、例えば、右サイドミラーエリアA6での視認後に右ウインドウエリアA5での認識対象物の確認も必要とされていれば、それがなされていないと、同様にサポート手段12によるサポートがなされる。 Further, in the first phase, it is considered that the other vehicles D and E present in the right side mirror area A6 are visually recognized once, and it is determined whether or not that time has reached a reference time. If the reference time has not yet been reached, immediately after inputting the direction indicator, the support means 12 provides support to the effect that confirmation of the right rear side is insufficient. Furthermore, in the line-of-sight model, for example, if it is necessary to confirm the recognition target in the right window area A5 after visual recognition in the right side mirror area A6, if this is not done, support by the support means 12 will also be required. will be done.

なお、第1のフェーズにおいて、例えば、運転者が所定の視認エリアを基準時間以上視認した時間帯があっても、当該時間帯が、同フェーズで視認すべき認識対象物である他車両が存在する同フェーズ内の何れかの時間帯とずれている場合には、適切な視認タイミングを外しているとして、前記サポートがなされる。このように、基準時間との対比は、適切な視認タイミングの評価の関係から、各フェーズにおける実際の視認エリア内での視認時間のうち、当該フェーズで存在する当該視認エリア内の他車両が存在する時間との重複時間について行われる。このことは、以下の全ての基準時間による評価について同様である。 In addition, in the first phase, for example, even if there is a time period in which the driver has visually observed a predetermined visibility area for more than a reference time, there is another vehicle that is a recognition target that should be visible in the same phase. If the timing is different from any time period within the same phase, it is assumed that the appropriate viewing timing has been missed, and the above-mentioned support is provided. In this way, the comparison with the reference time is based on the relationship between the evaluation of appropriate visibility timing, and the actual visibility time within the visibility area in each phase when other vehicles exist in the visibility area in that phase. This is done for the time that overlaps with the time. This also applies to all evaluations based on reference times below.

図4の例では、第2のフェーズにおいて、車線変更開始の直前に、前方エリアA1に存在する他車両Aと、右ウインドエリアA5及び右サイドミラーエリアA6に存在する他車両Eについて、運転者の目視確認が必要となる。そこで、車線変更開始時から所定時間(例えば3秒)前までの自車両Mの運転者の視線データから、第1のフェーズと同様にして、各視認エリアA1、A5、A6における他車両の視認時間が基準時間に達しているか否かが判定される。その結果、目視していない視認エリアがあれば、サポート手段12によって、当該視認エリアへの視認を促すサポートが車線変更開始時の直後になされ、目視をしていても基準時間に達していない視認エリアがあれば、当該視認エリアへの視認が不十分である旨のサポートがなされる。ここでのサポートは、第1のフェーズのサポートに比べ、運転者への働きかけをより強く行えるように設定される。 In the example shown in FIG. 4, in the second phase, immediately before starting to change lanes, the driver checks the other vehicle A existing in the front area A1 and the other vehicle E existing in the right window area A5 and right side mirror area A6. Visual confirmation is required. Therefore, from the line-of-sight data of the driver of the own vehicle M up to a predetermined period of time (for example, 3 seconds) before the start of the lane change, the visual recognition of other vehicles in each of the visual recognition areas A1, A5, and A6 is performed in the same way as in the first phase. It is determined whether the time has reached the reference time. As a result, if there is a visible area that has not been visually observed, the support means 12 will provide support immediately after the start of the lane change to encourage visual confirmation of the visible area, and if the visual area has not reached the reference time even if the lane change is being visually observed, If there is an area, support is provided to the effect that visibility to the visibility area is insufficient. The support here is set so that it can influence the driver more strongly than the support in the first phase.

なお、左への車線変更をする運転タスクについても、左右の視認エリアを変えて第1のケースと同様の処理により、状況認識評価と運転支援が行われるが、基準時間については、前述した位置要素による係数の関係から、右への車線変更の運転タスクの場合と異なることになる。 For the driving task of changing lanes to the left, situation recognition evaluation and driving support are performed using the same processing as in the first case by changing the left and right visibility areas, but the reference time is based on the position described above. Due to the relationship of coefficients depending on the elements, this is different from the case of the driving task of changing lanes to the right.

次に、第2のケースとして、図5に示される交通状況を想定し、その状況下で自車両Mが交差点を右折する運転タスクについて、次のように、状況認識評価と運転支援が行われる。このケースでの交通状況は次の通りである。自車両Mの後方右寄りから右側方に向かってバイクである他車両Bが走行し、対向車線を走行する対向車両となる他の自動車である他車両Cが交差点を通過しようとしている。更に、自車両Mが交差点を右折する際に、その横断歩道上を歩行者Hが歩行している。 Next, as a second case, assuming the traffic situation shown in Figure 5, situation recognition evaluation and driving support are performed as follows for a driving task in which the own vehicle M turns right at an intersection under that situation. . The traffic situation in this case is as follows. Another vehicle B, which is a motorcycle, is traveling from the rear right side of own vehicle M toward the right side, and another vehicle C, which is another automobile that is an oncoming vehicle traveling in the opposite lane, is about to pass through an intersection. Furthermore, when the own vehicle M turns right at an intersection, a pedestrian H is walking on the crosswalk.

この第2のケースにおいても、情報取得手段14により、各種情報が一定時間毎に取得されて記憶され、その情報により、視認状況把握手段15において、運転者の視線データが逐次生成されて記憶される。このケースにおける視線データは、図6に示されるように、各視認エリアA1~A6について、運転者の視認の有無及びその視認時間帯Tmと、自車両M周囲の他車両B、C及び歩行者Hの存在と、交差点における自車両Mの右折を判断する信号Sの存在及び灯色とを対応させた形で記憶される。なお、ここでの視線データについても、自車両Mを中心した前後左右の一定範囲R内で生成される。 In this second case as well, the information acquisition means 14 acquires and stores various pieces of information at regular intervals, and based on this information, the driver's line of sight data is sequentially generated and stored in the visibility situation grasping means 15. Ru. As shown in FIG. 6, the line-of-sight data in this case includes, for each visibility area A1 to A6, the presence or absence of the driver's visibility, the visibility time period Tm, and other vehicles B, C and pedestrians around the own vehicle M. The presence of signal H is stored in correspondence with the presence and light color of the signal S that determines whether the own vehicle M is turning right at the intersection. Note that the line of sight data here is also generated within a certain range R in the front, rear, left and right directions around the own vehicle M.

次に、タスク特定手段16で運転タスクが特定される。第2のケースでは、情報取得手段14で取得した情報から、右折方向の方向指示器を点滅させる操作を行い、且つ、これから交差点を通過することが検知されたときに、交差点の右折に関する運転タスクが特定される。 Next, the task specifying means 16 specifies the driving task. In the second case, based on the information acquired by the information acquisition means 14, when an operation is performed to blink the turn signal indicating the right turn direction, and it is detected that the intersection will be passed from now on, the driving task related to the right turn at the intersection is performed. is specified.

そして、認識判定手段17において、交差点の右折に関する運転タスクにおける運転者の状況認識が適切になされているか否かを判定した上で、適切になされていない場合には、サポート手段12でのサポートがなされる。 Then, the recognition determining means 17 determines whether or not the driver's situational recognition in the driving task regarding a right turn at an intersection is being performed appropriately, and if the driver is not properly recognizing the situation, the support means 12 provides support. It will be done.

すなわち、この第2のケースでも、情報取得手段14での検出結果によって特定されたフェーズ毎に、視線データから運転者の状況認識について判定される。 That is, in this second case as well, the driver's situation recognition is determined from the line of sight data for each phase specified by the detection result by the information acquisition means 14.

ここでのフェーズとしては、右折方向の方向指示器の点滅を開始した方向指示器の入力時から、停止線から所定距離(例えば30m)以内に自車両Mが侵入した停止線直前侵入時までの第1のフェーズと、停止線直前侵入時から自車両Mが発進し若しくは停止線を越える停止線通過時までの第2のフェーズと、停止線通過時から右折が完了する第3のフェーズそれぞれに対し、運転者の状況認識について判定される。 The phases here include the time from when the turn signal is inputted, when the right turn direction signal starts flashing, to when the own vehicle M enters just before the stop line, when it enters within a predetermined distance (for example, 30 m) from the stop line. The first phase, the second phase from when the vehicle M enters just before the stop line until the vehicle M starts or crosses the stop line, and the third phase from when the vehicle M passes the stop line to when the right turn is completed. On the other hand, the driver's situational awareness is determined.

ここで、交差点の右折に関する運転タスクにおいては、次の状況認識が必要となる。先ず、前記第1のフェーズにおいては、自車両Mを右方に幅寄せする前に、右サイドミラーや右窓を通じてバイク等の二輪車の存在を確認するとともに、前方を見て信号等を確認する必要がある。 Here, in a driving task related to a right turn at an intersection, the following situational recognition is required. First, in the first phase, before moving the own vehicle M to the right, the driver confirms the presence of a two-wheeled vehicle such as a motorcycle through the right side mirror and right window, and also looks ahead to check for traffic lights, etc. There is a need.

そして、前記第2のフェーズにおいては、信号の変化状況を把握するために、再度前方を見て信号等を確認する必要がある。また、この際にも、右サイドミラーや右窓を通じてバイク等の二輪車の存在を確認する必要がある。 In the second phase, it is necessary to look ahead again and check the signals, etc. in order to understand the change in the signals. Also, in this case, it is necessary to confirm the presence of two-wheeled vehicles such as motorcycles through the right side mirror or right window.

更に、前記第3のフェーズにおいては、赤信号により自車両Mが一時停止した場合、発進時にもう一度、信号確認を行うとともに、自車両Mの右側方のバイク等の二輪車の存在を確認する必要がある。一方、青信号で自車両Mが一時停止せずにそのまま右折する場合でも、もう一度、信号確認を行うとともに、自車両Mの右側方のバイク等の二輪車の存在を確認する必要がある。また、右折中は、前方から対向車両や歩行者を確認する必要がある。 Furthermore, in the third phase, if the vehicle M is temporarily stopped due to a red light, it is necessary to check the signal again when starting, and also to confirm the presence of a two-wheeled vehicle such as a motorcycle on the right side of the vehicle M. be. On the other hand, even if the own vehicle M turns right without stopping at a green light, it is necessary to check the signal again and to confirm the presence of a two-wheeled vehicle such as a motorcycle on the right side of the own vehicle M. Also, while turning right, it is necessary to check for oncoming vehicles and pedestrians from ahead.

そこで、認識判定手段17の判定部42では、第1のケースと同様に、得られた視線データについて、視線モデルに基づき、運転者が、適切な視認エリアを適切なタイミング及び視認時間で、運転者による視認が行われたか否かが判断され、状況認識が適切になされていないと判断された場合に、サポート手段12による注意喚起がなされる。 Therefore, similarly to the first case, the determination unit 42 of the recognition determination means 17 uses the obtained line-of-sight data to determine whether the driver is driving in an appropriate visual area at an appropriate timing and visual duration based on the line-of-sight model. It is determined whether or not the person has visually recognized the situation, and if it is determined that the situation is not recognized appropriately, the support means 12 alerts the user.

この第2のケースでは、第1のフェーズにおいて、前方エリアA1に存在する信号Sと、右ウインドエリアA5若しくは右サイドミラーエリアA6に存在する他車両Bに対し、運転者の目視確認が必要となる。従って、判定部42では、これらの視認エリアでの目視確認の有無及び視認時間が視線データから抽出され、予め生成された視線モデルの基準時間と対比される。ここでも、第1のケースと同様、視線データにおいて、視認すべき他車両を視認した視認時間の合計時間が基準時間に達しているか否かが判定される。 In this second case, in the first phase, the driver needs to visually check the signal S existing in the front area A1 and the other vehicle B existing in the right window area A5 or right side mirror area A6. Become. Therefore, the determination unit 42 extracts the presence or absence of visual confirmation in these visual recognition areas and the visual recognition time from the line-of-sight data, and compares it with the reference time of the line-of-sight model generated in advance. Here, as in the first case, it is determined in the line of sight data whether the total time of the visual recognition time of the other vehicle to be visually recognized has reached the reference time.

図6の視線データの例では、第1のフェーズにおいて、前方エリアA1に存在する信号Sを2回視認していると考えられるが、その合計時間が基準時間に達しているか否かが判定される。そして、当該基準時間に達していない場合には、自車両Mが停止線に達する前に、サポート手段12によって、前方の確認が不十分である旨のサポートがなされる。 In the example of line-of-sight data in FIG. 6, it is considered that the signal S present in the front area A1 is visually recognized twice in the first phase, but it is determined whether the total time reaches the reference time or not. Ru. If the reference time has not yet been reached, the support means 12 provides support to the effect that the front confirmation is insufficient before the own vehicle M reaches the stop line.

更に、前記第1のフェーズにおいて、右サイドミラーエリアA6に存在する他車両Bを1回視認していると考えられるが、その時間が基準時間に達しているか否かが判定される。そして、当該基準時間に達していない場合には、自車両Mが停止線に達する前に、サポート手段12によって、右側方の確認が不十分である旨のサポートがなされる。 Furthermore, in the first phase, it is considered that the other vehicle B present in the right side mirror area A6 is visually recognized once, and it is determined whether or not that time has reached a reference time. If the reference time has not yet been reached, the support means 12 provides support to the effect that confirmation of the right side is insufficient before the own vehicle M reaches the stop line.

また、停止線直前侵入時において、その前後で信号が変化した場合に、当該停止線直前侵入時に前方エリアA1に存在する信号を視認しているか否かが判定され、視認していない場合には、停止線直前侵入時の直後に、サポート手段12によって、前方の信号を再確認すべき旨のサポートがなされる。 In addition, when the signal changes before and after the time of entering just before the stop line, it is determined whether or not the signal existing in the front area A1 is visually recognized when the time of entering just before the stop line. Immediately after the vehicle enters just before the stop line, the support means 12 provides support for reconfirming the signal ahead.

図6の例では、第2のフェーズにおいて、停止線通過時の直前に、前方エリアA1に存在する信号S及び対向車両となる他車両Cと、右ウインドエリアA5若しくは右サイドミラーエリアA6に存在する他車両Bに対し、運転者の目視確認が必要となる。そこで、停止線通過時から所定時間(例えば1.5秒)前までの自車両Mの運転者の視線データから、第1のフェーズと同様にして、視認エリアA1と、視認エリアA5若しくはA6に存在する認識対象物に対する視認時間が基準時間に達しているか否かが判定される。この第2のフェーズにおいては、前方エリアA1に存在する信号S及び対向車両となる他車両Cを1回視認していると考えられる。そこで、その際の視認時間が、基準時間に達しているか否かが判定され、当該基準時間に達していない場合には、サポート手段12により、停止線通過時の直後に、基準時間に達していない視認エリアへの視認が不十分である旨のサポートがなされる。また、右ウインドウエリアA5への視認が行われておらず、右サイドミラーエリアA6に対する視認タイミングがずれていることから、これらエリアA5,A6に存在する他車両Bの視認がされていないと考えられる。そこで、サポート手段12により、停止線通過時の直後に、当該視認エリアへの視認を要請する旨のサポートがなされる。 In the example of FIG. 6, in the second phase, immediately before passing the stop line, a signal S existing in the front area A1 and another vehicle C, which is an oncoming vehicle, exist in the right window area A5 or right side mirror area A6. The driver must visually check the other vehicle B. Therefore, from the visual line data of the driver of the own vehicle M up to a predetermined time (for example, 1.5 seconds) before passing the stop line, in the same way as in the first phase, the visibility area A1 and the visibility area A5 or A6 are determined. It is determined whether the visual recognition time for the existing recognition target has reached the reference time. In this second phase, it is considered that the driver visually recognizes the signal S and the other vehicle C, which is an oncoming vehicle, present in the area A1 in front of him once. Therefore, it is determined whether the visual recognition time at that time has reached the reference time or not, and if it has not reached the reference time, the support means 12 determines whether the reference time has been reached immediately after passing the stop line. Support is provided to indicate that visibility is insufficient for areas where there is no visibility. In addition, since the right window area A5 is not visually recognized and the timing of the right side mirror area A6 is shifted, it is thought that other vehicles B existing in these areas A5 and A6 are not visually recognized. It will be done. Therefore, the support means 12 provides support for requesting visual recognition of the visual recognition area immediately after passing the stop line.

また、前記第3のフェーズでは、前方エリアA1に存在する対向車両である他車両C及び歩行者Hに対し、運転者の目視確認が必要となる。ところが、図6の例では、第3のフェーズにおける前方エリアA1には、他車両Cが既に通過して存在しておらず、また、歩行者Hが存在するのみである。従って、当該第3のフェーズにおける前方エリアA1での認識対象物は、歩行者Hのみであり、運転者は、歩行者Hが存在するタイミングで前方エリアA1を1回視認しており、その視認時間が基準時間に達しているか否かが判定される。そして、当該基準時間に達していない場合には、サポート手段12によって、前方の確認が不十分である旨のサポートがなされる。 Further, in the third phase, the driver needs to visually check the other vehicle C, which is an oncoming vehicle, and the pedestrian H, which are present in the front area A1. However, in the example of FIG. 6, the other vehicle C has already passed and does not exist in the front area A1 in the third phase, and only the pedestrian H exists. Therefore, the object to be recognized in the front area A1 in the third phase is only the pedestrian H, and the driver has visually recognized the front area A1 once at the timing when the pedestrian H is present. It is determined whether the time has reached the reference time. If the reference time has not yet been reached, the support means 12 provides support to the effect that the confirmation ahead is insufficient.

なお、交差点を左折する運転タスクについても、左右の視認エリアを変えて第2のケースと同様の処理により、状況認識評価と運転支援が行われるが、基準時間については、前述した位置要素による係数の関係から、右への車線変更の運転タスクの場合と異なることになる。 For the driving task of turning left at an intersection, situation recognition evaluation and driving support are performed by changing the left and right visibility areas and performing the same processing as in the second case, but for the reference time, the coefficients based on the position factors described above are used. This is different from the case of the driving task of changing lanes to the right.

次に、第3のケースとして、図7に示される交通状況を想定し、その状況下で自車両Mが直進する運転タスクについて、次のように運転支援が行われる。このケースでの交通状況は次の通りである。自車両Mが、現時点で3車線の道路のうち左車線を走行しており、同一車線において、自車両Mの前方に他車両Aが走行し、同後方に他車両Bが走行している。また、自車両Mの右側の車線には、自車両Mの斜め後方から、自車両Mよりも高速で他車両C及び他車両Dが順に走行している。 Next, as a third case, assuming the traffic situation shown in FIG. 7, driving assistance is performed as follows for a driving task in which the own vehicle M moves straight under that situation. The traffic situation in this case is as follows. The host vehicle M is currently traveling in the left lane of a three-lane road, and in the same lane, another vehicle A is running in front of the host vehicle M, and another vehicle B is running behind the same lane. Further, in the right lane of the own vehicle M, another vehicle C and another vehicle D are sequentially running at a higher speed than the own vehicle M from diagonally behind the own vehicle M.

この第3のケースにおいても、情報取得手段14により、各種情報が一定時間毎に取得されて記憶され、その情報により、視認状況把握手段15において、運転者の視線データが逐次生成されて記憶される。このケースにおける視線データは、図8に示されるように、各視認エリアA1~A6について、運転者の視認の有無及びその視認時間帯Tmと、他車両A~Dの存在とが対応した形で記憶される。なお、ここでの視線データについても、前述と同様に、自車両Mを中心した前後左右の一定範囲R内で生成される。 In this third case as well, the information acquisition means 14 acquires and stores various information at regular intervals, and based on this information, the driver's line of sight data is sequentially generated and stored in the visibility situation grasping means 15. Ru. As shown in FIG. 8, the line-of-sight data in this case is such that, for each visibility area A1 to A6, the presence or absence of the driver's visibility and the visibility time period Tm correspond to the presence of other vehicles A to D. be remembered. Note that the line of sight data here is also generated within a certain range R in the front, rear, left and right directions around the own vehicle M, as described above.

次に、タスク特定手段16で運転タスクが特定される。第3のケースでは、情報取得手段14で取得した情報から、右折の方向指示器を点滅させる操作が無く、且つ、交差点でない単路を今後走行することが検知されたときに、直進に関する運転タスクが特定される。 Next, the task specifying means 16 specifies the driving task. In the third case, from the information acquired by the information acquisition means 14, when there is no operation to flash the right turn turn signal and it is detected that the driver will be driving on a single road that is not an intersection, the driving task related to going straight is determined. is specified.

そして、認識判定手段17において、直進に関する運転タスクにおける運転者の状況認識が適切になされているか否かを判定し、適切になされていないと判定された場合には、サポート手段12でのサポートがなされる。 Then, the recognition determining means 17 determines whether or not the driver's situational recognition in the driving task related to driving straight ahead is being performed appropriately. If it is determined that the driver's situation recognition is not being performed appropriately, the support means 12 provides support. It will be done.

この第3のケースについては、視線モデルの生成時に設定された視認間隔毎に、視線データから運転者の状況認識について判定される。 In this third case, the driver's situational recognition is determined from the line-of-sight data at each visual recognition interval set when the line-of-sight model was generated.

ここで、直進に関する運転タスクにおいては、次の状況認識が必要となる。一定間隔毎に、ルームミラーやサイドミラー等により、運転者が一定範囲内に存在する他車両を確認することが必要となる。つまり、最も左側の車線を直進する第3のケースでは、視認間隔毎の時間帯において、運転者は、フロントガラスから前方車両を確認し、ルームミラーを通じて後方車両を確認し、更に、右サイドミラーを通じて、自車両Mの右側車線に存在する他車両を確認する必要がある。 Here, in the driving task related to straight driving, the following situation recognition is required. It is necessary for the driver to check other vehicles within a certain range by looking at the rearview mirror, side mirror, etc. at certain intervals. In other words, in the third case of driving straight in the leftmost lane, during each visibility interval, the driver checks the vehicle in front through the windshield, the vehicle behind through the rearview mirror, and the driver in the right side mirror. It is necessary to check other vehicles in the right lane of own vehicle M through the vehicle M.

すなわち、図7及び図8から、前方エリアA1と、バックミラーエリアA2と、右サイドミラーエリアA6とに存在する他車両A~Dに対し、運転者の目視確認が必要となる。従って、判定部42では、これらの視認エリアでの目視確認の有無及び視認時間が視線データから抽出され、予め生成された視線モデルの基準時間と対比される。ここでも、前述の各ケースのときと同様に、視線データにおいて、視認すべき他車両を視認した視認時間の合計時間が基準時間に達しているか否かが判定される。そして、当該基準時間に達していない場合には、運転者の状況認識が適切になされていないと判断され、サポート手段12により、その都度、必要な視認エリアでの視認がなされていない、若しくは、視認時間が不足している旨の注意喚起がなされる。 That is, from FIGS. 7 and 8, it is necessary for the driver to visually check other vehicles A to D that are present in the front area A1, the rearview mirror area A2, and the right side mirror area A6. Therefore, the determination unit 42 extracts the presence or absence of visual confirmation in these visual recognition areas and the visual recognition time from the line-of-sight data, and compares it with the reference time of the line-of-sight model generated in advance. Here, as in each case described above, it is determined whether or not the total time of visual recognition time of the other vehicle to be visually recognized has reached the reference time based on the line of sight data. If the reference time has not been reached, it is determined that the driver is not properly aware of the situation, and the support means 12 determines in each case that the driver is not visualizing in the necessary visual area, or A warning is issued to the effect that viewing time is insufficient.

なお、前記実施形態では、自動車の運転者を対象者として、注意喚起情報を含む各種の運転支援情報を提示する場合を図示説明したが、本発明はこれに限らず、所定の移動体等を操作しながら当該移動体とともに所定の環境中を移動する対象者が、その周辺環境の状況を適切に認識しているか否かを推定する状況認識推定システム11として利用可能である。つまり、本発明に係る状況認識推定システム11としては、対象者の周囲を相対移動する認識対象物について、その対象者が適切に認識しているか否かを推定するシステムとして、種々の態様での利用が可能である。 In the above embodiment, the case in which various types of driving support information including alerting information is presented to the driver of a car has been illustrated, but the present invention is not limited to this, and the present invention is not limited to this. The present invention can be used as a situation recognition estimation system 11 that estimates whether a subject who moves in a predetermined environment with a mobile object while operating the object appropriately recognizes the situation of the surrounding environment. In other words, the situation recognition estimation system 11 according to the present invention can be used in various ways as a system for estimating whether or not a target person appropriately recognizes a recognition target object that moves relatively around the target person. Available.

その他、本発明における装置各部の構成は図示構成例に限定されるものではなく、実質的に同様の作用を奏する限りにおいて、種々の変更が可能である。 In addition, the configuration of each part of the device according to the present invention is not limited to the illustrated configuration example, and various changes can be made as long as substantially the same effect is achieved.

10 運転支援システム
11 状況認識推定システム
12 サポート手段
14 情報取得手段
15 視認状況把握手段
16 タスク特定手段
17 認識判定手段
37 視認エリア特定部
38 視線データ生成部
41 視線モデル生成部
42 判定部
10 Driving support system 11 Situation recognition estimation system 12 Support means 14 Information acquisition means 15 Visibility situation understanding means 16 Task identification means 17 Recognition determination means 37 Visibility area identification section 38 Gaze data generation section 41 Gaze model generation section 42 Judgment section

Claims (6)

対象者の周囲を相対移動する認識対象物について、前記対象者が適切に認識しているか否かを推定する状況認識推定システムにおいて、
前記対象者の動作及び前記対象者の周辺環境に関係する各種情報を取得する情報取得手段と、当該情報取得手段からの情報により、前記対象者における前記認識対象物の視認状況を把握する視認状況把握手段と、前記情報に基づき、前記対象者によって近い将来行われるタスクを特定するタスク特定手段と、前記視認状況に基づき、前記タスクにおける前記対象者の状況認識について判定する認識判定手段とを備え、
前記視認状況把握手段は、前記対象者の視線方向を複数の視認エリア毎に分類する視認エリア特定部と、当該視認エリア特定部での分類結果から、前記視認エリア毎に、前記認識対象物の存在と前記視認状況を各時刻で対応させてなる時系列の視線データを生成する視線データ生成部とを備え、
前記認識判定手段は、基準となる状況認識に対応する視線モデルが前記タスク毎に記憶され、前記視線データと前記視線モデルから、前記認識対象物に対する状況認識が適切になされているか否かを判定する判定部を備え、
前記視線モデルは、前記タスクを構成するフェーズ単位で、前記対象者が前記認識対象物を視認すべき前記視認エリアと、視認すべき前記認識対象物に対する視認時間の基準値である基準時間とが設定され、
前記判定部では、前記対象者がこれから行う前記タスクが前記タスク特定手段で特定された際に、前記タスクに係る前記視線モデルが抽出され、実際に得られた前記視線データと比較し、前記フェーズにおいて前記視認エリアで前記認識対象物を視認した視認時間の合計時間が前記基準時間に達しているか否かにより、前記対象者が前記認識対象物を視認すべき前記各視認エリアにおいて前記認識対象物を視認するタイミングと、前記視認時間とが適切か否かを判定、前記状況認識の判定を行うことを特徴とする状況認識推定システム。
In a situational recognition estimation system that estimates whether or not the target person appropriately recognizes a recognition target that moves relatively around the target person,
information acquisition means for acquiring various information related to the target person's movements and the surrounding environment of the target person; and a visibility situation for understanding the visibility status of the recognition target by the target person based on the information from the information acquisition means. comprising a grasping means, a task specifying means for specifying a task to be performed by the subject in the near future based on the information, and a recognition determining means for determining the situational awareness of the subject in the task based on the visual recognition situation. ,
The visibility situation grasping means includes a visibility area specifying unit that classifies the target person's line of sight direction into a plurality of visibility areas, and a visibility area identifying unit that classifies the target person's line of sight for each of the visibility areas based on the classification results of the visibility area specifying unit. a line-of-sight data generation unit that generates time-series line-of-sight data by associating the presence and the visibility situation at each time;
The recognition determining means stores a line-of-sight model corresponding to reference situation recognition for each task, and determines from the line-of-sight data and the line-of-sight model whether or not the situation recognition for the recognition target is appropriately performed. It is equipped with a determination unit that
The line-of-sight model defines, in units of phases constituting the task, the viewing area in which the subject should visually recognize the recognition target, and a reference time that is a reference value of the viewing time for the recognition target to be visually recognized. set,
In the determination unit, when the task that the subject is about to perform is specified by the task specifying means, the gaze model related to the task is extracted, and compared with the actually obtained gaze data , and the phase Depending on whether the total viewing time of the recognition target object in the visibility area has reached the reference time, the recognition target object is displayed in each of the viewing areas where the target person should visually recognize the recognition target object. A situation recognition estimation system characterized in that the situation recognition is determined by determining whether the timing of visually recognizing the object and the viewing time are appropriate or not.
前記認識判定手段は、前記状況認識が適切とされた過去の前記視線データを使って前記視線モデルを生成する視線モデル生成部を更に備えたことを特徴とする請求項1記載の状況認識推定システム。 The situation recognition estimation system according to claim 1, wherein the recognition determining means further comprises a gaze model generation unit that generates the gaze model using the past gaze data in which the situation recognition was determined to be appropriate. . 前記基準時間は、前記状況認識の判定時における前記対象者の周辺空間の光の伝達性に影響する光学要素、前記各視認エリアに対する前記対象者の視覚上のアクセス容易性に影響する位置要素、及び/又は、同一のタイミングでターゲットとなる前記認識対象物に対する前記対象者の視認回数をパラメータとした所定の関係式により求められることを特徴とする請求項記載の状況認識推定システム。 The reference time includes an optical element that affects the transmittance of light in the surrounding space of the subject at the time of determining the situational awareness, a positional element that affects the visual accessibility of the subject to each of the visibility areas, 2. The situation recognition estimation system according to claim 1 , wherein the situation recognition estimation system is determined by a predetermined relational expression in which the number of times the target person visually recognizes the recognition target object at the same timing is used as a parameter. 前記関係式を構成する定数は、前記状況認識が適切とされた過去の前記視線データを統計処理することで求められることを特徴とする請求項記載の状況認識推定システム。 4. The situation recognition estimation system according to claim 3 , wherein the constants constituting the relational expression are obtained by statistically processing the past gaze data in which the situation recognition was deemed appropriate. 前記タスクは、前記対象者を移動体の運転者とした運転タスクであり、
前記情報取得手段では、前記移動体の現在位置情報と、前記移動体が走行する道路が交差点かそうでない単路かについての道路情報と、前記移動体に対する運転者の操作情報とを含む各種情報が取得され、
前記タスク特定手段では、前記現在位置情報、前記道路情報、及び前記操作情報に基づき、前記運転タスクについて予め記憶された複数のパターンの中から該当する前記運転タスクが選択されることを特徴とする請求項1記載の状況認識推定システム。
The task is a driving task in which the subject is a driver of a mobile object,
The information acquisition means obtains various information including current position information of the mobile object, road information regarding whether the road on which the mobile object is traveling is an intersection or a single road, and driver operation information for the mobile object. is obtained,
The task specifying means selects the corresponding driving task from among a plurality of patterns stored in advance for the driving task based on the current position information, the road information, and the operation information. The situation recognition estimation system according to claim 1.
請求項1~の何れかに記載の状況認識推定システムが適用され、前記対象者を移動体の運転者とし、前記状況認識推定システムによる前記移動体の周囲の状況認識の推定結果により、前記運転者への運転支援を行う運転支援システムにおいて、
前記認識判定手段で前記運転者の運転中の状況認識が適切になされていないと判定された場合に、前記運転者に対するサポートを行うサポート手段を備えたことを特徴とする運転支援システム。
The situation recognition estimation system according to any one of claims 1 to 5 is applied, wherein the target person is a driver of a moving object, and the situation recognition estimation system estimates the situation around the moving object by the situation recognition estimation system. In driving support systems that provide driving support to drivers,
A driving support system comprising: support means for providing support to the driver when the recognition determination means determines that the driver is not properly recognizing the driving situation.
JP2019104020A 2019-06-03 2019-06-03 Situation awareness estimation system and driving support system Active JP7432198B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019104020A JP7432198B2 (en) 2019-06-03 2019-06-03 Situation awareness estimation system and driving support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019104020A JP7432198B2 (en) 2019-06-03 2019-06-03 Situation awareness estimation system and driving support system

Publications (2)

Publication Number Publication Date
JP2020197952A JP2020197952A (en) 2020-12-10
JP7432198B2 true JP7432198B2 (en) 2024-02-16

Family

ID=73649245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019104020A Active JP7432198B2 (en) 2019-06-03 2019-06-03 Situation awareness estimation system and driving support system

Country Status (1)

Country Link
JP (1) JP7432198B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040977A (en) 2006-08-09 2008-02-21 Denso Corp Information providing device for vehicle
JP2016110449A (en) 2014-12-08 2016-06-20 富士通テン株式会社 Driving support system and driving support method
JP2017111469A (en) 2015-12-14 2017-06-22 富士通株式会社 Road sign visual recognition determination system, road sign visual recognition determination method, and program
JP6419401B1 (en) 2018-03-02 2018-11-07 三菱電機株式会社 Driving support device and driving support method
JP2019003312A (en) 2017-06-13 2019-01-10 株式会社デンソーアイティーラボラトリ Gazing object estimation device, gazing object estimation method and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008040977A (en) 2006-08-09 2008-02-21 Denso Corp Information providing device for vehicle
JP2016110449A (en) 2014-12-08 2016-06-20 富士通テン株式会社 Driving support system and driving support method
JP2017111469A (en) 2015-12-14 2017-06-22 富士通株式会社 Road sign visual recognition determination system, road sign visual recognition determination method, and program
JP2019003312A (en) 2017-06-13 2019-01-10 株式会社デンソーアイティーラボラトリ Gazing object estimation device, gazing object estimation method and program
JP6419401B1 (en) 2018-03-02 2018-11-07 三菱電機株式会社 Driving support device and driving support method

Also Published As

Publication number Publication date
JP2020197952A (en) 2020-12-10

Similar Documents

Publication Publication Date Title
WO2016186039A1 (en) Automobile periphery information display system
JP5160564B2 (en) Vehicle information display device
US9723243B2 (en) User interface method for terminal for vehicle and apparatus thereof
JP5718942B2 (en) Apparatus and method for assisting safe operation of transportation means
JP5171629B2 (en) Driving information providing device
EP3219568A1 (en) Auto driving control system
CN112771592B (en) Method for warning a driver of a motor vehicle, control device and motor vehicle
US20070126565A1 (en) Process for monitoring blind angle in motor vehicles
JP2013093013A (en) Image processing device and vehicle
US20190244515A1 (en) Augmented reality dsrc data visualization
CN111094095B (en) Method and device for automatically sensing driving signal and vehicle
KR101999079B1 (en) Display device control method and display device
WO2017145549A1 (en) Looking aside and oversight warning system and computer program
CN111354222A (en) Driving assisting method and system
CN107408338A (en) Driver assistance system
CN113022441A (en) Vehicle blind area detection method and device, electronic equipment and storage medium
CN112740220A (en) System and method for traffic light identification
JP7432198B2 (en) Situation awareness estimation system and driving support system
US20220292686A1 (en) Image processing apparatus, image processing method, and computer-readable storage medium storing program
CN116935695A (en) Collision warning system for a motor vehicle with an augmented reality head-up display
JP6471707B2 (en) Driving teaching device
CN114523905A (en) System and method for displaying detection and track prediction of targets around vehicle
CN113212451A (en) Rearview auxiliary system for intelligent driving automobile
CN114734993B (en) Dynamic traffic scene display system and display method
JP6681044B2 (en) Reverse running detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220520

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230502

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230505

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240126

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240126

R150 Certificate of patent or registration of utility model

Ref document number: 7432198

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150