JP7418683B2 - Evaluation device, evaluation method - Google Patents

Evaluation device, evaluation method Download PDF

Info

Publication number
JP7418683B2
JP7418683B2 JP2023116568A JP2023116568A JP7418683B2 JP 7418683 B2 JP7418683 B2 JP 7418683B2 JP 2023116568 A JP2023116568 A JP 2023116568A JP 2023116568 A JP2023116568 A JP 2023116568A JP 7418683 B2 JP7418683 B2 JP 7418683B2
Authority
JP
Japan
Prior art keywords
unit
display
data
evaluation
determination
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2023116568A
Other languages
Japanese (ja)
Other versions
JP2023126511A (en
Inventor
美玖 小村田
宙之 武井
修二 箱嶋
賢 二宮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2023116568A priority Critical patent/JP7418683B2/en
Publication of JP2023126511A publication Critical patent/JP2023126511A/en
Application granted granted Critical
Publication of JP7418683B2 publication Critical patent/JP7418683B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、評価装置、及び評価方法に関する。 The present invention relates to an evaluation device and an evaluation method.

自動車等の車両を運転する運転者を支援する運転支援装置が知られている。例えば、運転者の運転行動を検出し、安全確認動作が適切か否かを評価する運転行動評価装置が知られている(例えば、特許文献1参照)。 2. Description of the Related Art Driving support devices that support a driver driving a vehicle such as a car are known. For example, a driving behavior evaluation device is known that detects a driver's driving behavior and evaluates whether a safety confirmation operation is appropriate (see, for example, Patent Document 1).

特開2007-133692号公報Japanese Patent Application Publication No. 2007-133692

近年、追視能力及び位置予測能力等の能力が低下した高齢の運転者等による交通事故が多発している。このような事故を防ぐため、運転者の視覚による認識能力に応じた運転支援が求められている。 In recent years, many traffic accidents have been caused by elderly drivers who have deteriorated abilities such as tracking ability and position prediction ability. In order to prevent such accidents, there is a need for driving support that is tailored to the driver's visual recognition ability.

本発明は、上記に鑑みてなされたものであり、運転者の追視能力及び位置予測能力の評価が可能な、評価装置、及び評価方法を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an evaluation device and an evaluation method capable of evaluating a driver's tracking ability and position prediction ability.

本発明に係る評価装置は、表示部と、前記表示部上における被験者の注視点の位置を検出する注視点検出部と、被験者に注視させる対象物を前記表示部に表示して所定の移動経路に沿って移動させる第1表示動作と、前記第1表示動作の途中で前記対象物を所定期間非表示とする非表示動作と、前記非表示動作の後、前記対象物が前記非表示動作において前記第1表示動作から連続して前記移動経路に沿って前記所定期間移動した場合の位置に前記対象物を再び表示して前記移動経路に沿って移動させる第2表示動作と、を行わせる表示制御部と、前記移動経路を移動する前記対象物に対応した判定領域を前記表示部に設定する領域設定部と、前記注視点の位置データに基づいて、前記注視点が前記判定領域に存在するか否かの判定を行う判定部と、前記判定部の判定結果に基づいて、注視点データを算出する演算部と、前記注視点データに基づいて、前記被験者の評価データを求める評価部とを備える。 The evaluation device according to the present invention includes a display unit, a gaze point detection unit that detects a position of a subject's gaze point on the display unit, and a target object to be gazed at by the subject on the display unit, and a predetermined movement path. a first display operation in which the object is moved along the line; a non-display operation in which the object is hidden for a predetermined period during the first display operation; and after the non-display operation, the object is moved along the A second display operation in which the object is displayed again at a position where the object was moved for the predetermined period of time along the movement route continuously from the first display operation and moved along the movement route. a control unit; an area setting unit that sets a determination area on the display unit that corresponds to the object moving along the movement route; a determination unit that determines whether or not the determination is true; a calculation unit that calculates point-of-gaze data based on the determination result of the determination unit; and an evaluation unit that calculates evaluation data of the subject based on the point-of-gaze data. Be prepared.

本発明に係る評価方法は、被験者に注視させる対象物を表示部に表示して所定の移動経路に沿って移動させる第1表示動作と、前記第1表示動作の途中で前記対象物を所定期間非表示とする非表示動作と、前記非表示動作の後、前記対象物が前記非表示動作において前記第1表示動作から連続して前記移動経路に沿って前記所定期間移動した場合の位置に前記対象物を再び表示して前記移動経路に沿って移動させる第2表示動作と、を行わせ、前記移動経路を移動する前記対象物に対応した判定領域を前記表示部に設定し、前記表示部上における被験者の注視点の位置を検出し、前記注視点の位置データに基づいて、前記注視点が前記判定領域に存在するか否かを判定し、前記判定結果に基づいて算出した注視点データに基づいて、前記被験者の評価データを求めることを含む。 The evaluation method according to the present invention includes a first display operation in which an object to be gazed at by a subject is displayed on a display section and moved along a predetermined movement route, and a first display operation in which the object is displayed for a predetermined period in the middle of the first display operation. a non-display operation to perform a non-display operation, and after the non-display operation, the object is placed at a position when the object moves for the predetermined period of time along the movement path continuously from the first display operation in the non-display operation. a second display operation of displaying the object again and moving it along the moving route, setting a determination area corresponding to the object moving along the moving route on the display section, and Detecting the position of the subject's point of gaze at the top, determining whether or not the point of gaze exists in the determination area based on the position data of the point of gaze, and point of gaze data calculated based on the determination result. and obtaining evaluation data of the subject based on the test subject.

本発明によれば、運転者の追視能力及び位置予測能力の評価が可能となる。 According to the present invention, it is possible to evaluate a driver's tracking ability and position prediction ability.

図1は、本実施形態に係る運転支援装置の一例を示す機能ブロック図である。FIG. 1 is a functional block diagram showing an example of a driving support device according to this embodiment. 図2は、本実施形態に係る評価方法の一例を示すフローチャートである。FIG. 2 is a flowchart illustrating an example of the evaluation method according to this embodiment. 図3は、評価データを取得するための評価装置の一例を示す図である。FIG. 3 is a diagram illustrating an example of an evaluation device for acquiring evaluation data. 図4は、評価装置の一例を示す機能ブロック図である。FIG. 4 is a functional block diagram showing an example of the evaluation device. 図5は、表示部に表示する評価用画像の一例を示す図である。FIG. 5 is a diagram showing an example of an evaluation image displayed on the display unit. 図6は、表示部に表示する評価用画像の一例を示す図である。FIG. 6 is a diagram showing an example of an evaluation image displayed on the display unit. 図7は、本実施形態に係る評価方法の一例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of the evaluation method according to this embodiment. 図8は、表示部に表示する評価用画像の他の例を示す図である。FIG. 8 is a diagram showing another example of the evaluation image displayed on the display unit. 図9は、表示部に表示する評価用画像の他の例を示す図である。FIG. 9 is a diagram showing another example of the evaluation image displayed on the display unit. 図10は、本実施形態に係る評価方法の他の例を示すフローチャートである。FIG. 10 is a flowchart showing another example of the evaluation method according to this embodiment.

以下、本発明に係る運転支援装置、評価装置、運転支援方法、及び運転支援プログラムの実施形態を図面に基づいて説明する。なお、この実施形態によりこの発明が限定されるものではない。また、下記実施形態における構成要素には、当業者が置換可能かつ容易なもの、あるいは実質的に同一のものが含まれる。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a driving support device, an evaluation device, a driving support method, and a driving support program according to the present invention will be described based on the drawings. Note that the present invention is not limited to this embodiment. Furthermore, the constituent elements in the embodiments described below include those that can be easily replaced by those skilled in the art, or those that are substantially the same.

[運転支援装置]
図1は、本実施形態に係る運転支援装置1の一例を示す機能ブロック図である。図1に示す運転支援装置1は、例えば自動車等の車両に搭載され、当該車両を運転する運転者を支援する。運転支援装置1は、独立した車載装置として設けられてもよいし、例えばドライブレコーダ、カーナビゲーション等の車載機器の一部として設けられてもよい。
[Driving support device]
FIG. 1 is a functional block diagram showing an example of a driving support device 1 according to the present embodiment. The driving support device 1 shown in FIG. 1 is mounted on a vehicle such as a car, for example, and supports a driver who drives the vehicle. The driving support device 1 may be provided as an independent in-vehicle device, or may be provided as a part of in-vehicle equipment such as a drive recorder or a car navigation system.

図1に示すように、運転支援装置1は、運転者識別部2と、走行状況取得部3と、運転者データ取得部4と、評価データ取得部5と、イベント検出部6と、処理部7と、記憶部8とを備える。運転支援装置1は、出力部9を備えてもよい。以下、本実施形態では、運転支援装置1が出力部9を備える構成を例に挙げて説明する。 As shown in FIG. 1, the driving support device 1 includes a driver identification section 2, a driving situation acquisition section 3, a driver data acquisition section 4, an evaluation data acquisition section 5, an event detection section 6, and a processing section. 7 and a storage section 8. The driving support device 1 may include an output section 9. Hereinafter, in this embodiment, a configuration in which the driving support device 1 includes an output section 9 will be described as an example.

運転者識別部2は、車両を運転する運転者を識別する。運転者識別部2は、運転者識別データを取得する。運転者識別データの取得方法としては、各種方法により行うことができる。例えば、運転支援装置1に不図示の入力装置が設けられる場合、運転者が当該入力装置を介して自分の名前を入力してもよい。また、運転者を撮影可能な車載カメラが車両に装着される場合、当該車載カメラの映像データに対して画像処理等を行うことで、運転者を識別してもよい。この場合、車載カメラの映像データが運転者識別データとなる。また、運転免許証等の情報を検出する検出装置が車両に搭載される場合、運転者識別部2は、当該検出装置の検出結果を運転者識別データとして取得し、当該運転者識別データに基づいて運転者を識別する構成であってもよい。 The driver identification unit 2 identifies a driver who drives a vehicle. The driver identification unit 2 acquires driver identification data. The driver identification data can be obtained by various methods. For example, if the driving support device 1 is provided with an input device (not shown), the driver may input his or her name via the input device. Furthermore, when a vehicle is equipped with an on-vehicle camera capable of photographing the driver, the driver may be identified by performing image processing or the like on the video data of the on-vehicle camera. In this case, the video data from the in-vehicle camera becomes the driver identification data. Further, when a detection device that detects information such as a driver's license is installed in the vehicle, the driver identification unit 2 acquires the detection result of the detection device as driver identification data, and based on the driver identification data. The configuration may be such that the driver is identified by the driver.

走行状況取得部3は、走行状況データを取得する。走行状況データとしては、例えば車両の前方を撮影する前方カメラが搭載される場合、当該前方カメラの映像データを含む。また、走行状況データは、オンボードダイアグノーシス(On-board diagnostics:OBD)に用いられるデータ(OBDデータ)を含む。OBDデータは、車両の速度を示す速度データを含む。 The driving situation acquisition unit 3 acquires driving situation data. For example, when the vehicle is equipped with a front camera that photographs the front of the vehicle, the driving situation data includes video data of the front camera. Further, the driving situation data includes data (OBD data) used for on-board diagnostics (OBD). The OBD data includes speed data indicating the speed of the vehicle.

運転者データ取得部4は、運転者データを取得する。運転者データは、例えば運転者のバイタルデータを検出するバイタルデータ検出部が車両に搭載される場合、当該バイタルデータ検出部により検出されるバイタルデータを含む。また、例えば運転者の顔を撮影可能な車載カメラが車両に装着され、当該車載カメラの映像データに基づいて運転者の運転中の視線が測定可能である場合、運転者データは、当該視線データを含む。 The driver data acquisition unit 4 acquires driver data. The driver data includes, for example, vital data detected by the vital data detection section when the vehicle is equipped with a vital data detection section that detects the vital data of the driver. Furthermore, for example, if a vehicle is equipped with an in-vehicle camera capable of photographing the driver's face, and it is possible to measure the driver's line of sight while driving based on the video data of the in-vehicle camera, the driver data is the line-of-sight data. including.

評価データ取得部5は、運転者識別部2により識別された運転者についての評価データを取得する。評価データ取得部5は、例えばUSBメモリ等の記憶媒体を介して評価データを取得してもよいし、評価データを記憶する外部のサーバ等からネットワークを介して評価データを取得してもよい。 The evaluation data acquisition unit 5 acquires evaluation data regarding the driver identified by the driver identification unit 2. The evaluation data acquisition unit 5 may acquire evaluation data via a storage medium such as a USB memory, or may acquire evaluation data via a network from an external server that stores evaluation data.

本実施形態において、評価データは、運転者の能力を評価するデータである。本実施形態では、このような評価データとして、運転者の反応速度を評価する評価データ、及び、運転者の追視能力及び位置予測能力を評価する評価データを含む。運転者の反応速度を評価する評価データは、運転者の反応速度が速いか速くないかの2段階の評価とすることができる。また、運転者の追視能力及び位置予測能力を評価する評価データは、運転者の追視能力及び位置予測能力が高いか高くないかの2段階の評価とすることができる。なお、評価データは、2段階の評価に限定されず、3段階以上の評価としてもよい。 In this embodiment, the evaluation data is data for evaluating the driver's ability. In this embodiment, such evaluation data includes evaluation data for evaluating the driver's reaction speed, and evaluation data for evaluating the driver's tracking ability and position prediction ability. The evaluation data for evaluating the driver's reaction speed can be a two-level evaluation of whether the driver's reaction speed is fast or not. Furthermore, the evaluation data for evaluating the driver's tracking ability and position prediction ability can be a two-level evaluation of whether the driver's tracking ability and position prediction ability are high or not. Note that the evaluation data is not limited to two-stage evaluation, but may be three-stage or more evaluation.

イベント検出部6は、周辺情報データに基づいて、車両運転時にイベントを検出する。イベントは、運転者が運転する車両の周囲で発生する個別の状況又は事象を含む。イベントの例としては、走行する自車の前方の路肩に他の車両が停止している状況、走行する自車の前方に横断歩道を渡る歩行者が存在する状況、交差点に差し掛かる自車の前方を対向車が右折のため横切る状況、等が挙げられるが、これに限定されない。 The event detection unit 6 detects an event during vehicle operation based on surrounding information data. Events include individual situations or events that occur around a vehicle driven by a driver. Examples of events include situations in which another vehicle is stopped on the shoulder of the road in front of the own vehicle, a pedestrian crossing a crosswalk in front of the vehicle in front of the vehicle, and a situation in which the vehicle approaches an intersection. Examples include, but are not limited to, a situation where an oncoming vehicle crosses in front to make a right turn.

イベントは、例えば種類ごとに分類することができる。イベントの分類としては、例えば、停車車両及び障害物の存在、歩行者及び車の飛び出し、信号及び標識の存在、信号の切替わり、歩行者及び自転車とのすれ違い、対向車とのすれ違い(はみ出し運転等)、歩行者及び自転車の横断、交差点における対向車との位置関係(対向車の右折、自車の右折、等)、等のように設定することができる。なお、イベントの分類の仕方については、上記に限定されず、例えば指定自動車教習所における教習項目に沿った分類等、他の分類の仕方を採用してもよい。 Events can be classified, for example, by type. Event classifications include, for example, presence of parked vehicles and obstacles, pedestrians and cars running out, presence of traffic lights and signs, switching of traffic lights, passing pedestrians and bicycles, passing each other with oncoming vehicles (driving on the wrong side) etc.), pedestrian and bicycle crossing, positional relationship with oncoming vehicles at intersections (right turn for oncoming vehicle, right turn for own vehicle, etc.), etc. Note that the method of classifying events is not limited to the above method, and other methods of classification may be adopted, such as classification according to training items at a designated driving school.

また、イベントの分類項目としては、例えば信号の切り替わり、歩行者等の飛び出し、先行車のブレーキランプの点灯等、発生から比較的短時間で反応して対応することが求められる反応イベント等が挙げられる。また、イベントの分類項目としては、高速道路で合流する場合、交差点で右折する際の対向車との位置関係、自車が走行する道路に左側から合流しようとする他車との位置関係等、対象となる車又は歩行者等の動きの予測が求められる予測イベント等が挙げられる。 In addition, event classification items include reaction events that require a reaction and response within a relatively short period of time after their occurrence, such as a signal changing, a pedestrian running out, and the brake lights of a preceding vehicle turning on. It will be done. In addition, event classification items include when merging on a highway, positional relationship with oncoming vehicles when turning right at an intersection, positional relationship with other vehicles attempting to merge onto the road your own vehicle is traveling on from the left, etc. Examples include predictive events that require prediction of the movement of a target vehicle, pedestrian, or the like.

また、周辺情報データは、走行時における車両の周辺の状況に関するデータである。例えば車両の前方を撮影する前方カメラ、車両の側方を撮影する側方カメラ、車両の後方を撮影する後方カメラ等、車両の周囲を撮影する周囲カメラが当該車両に搭載される場合、周辺情報データは、当該周囲カメラの映像データを含む。また、例えば車両の周辺の状況を検出するセンサ又はレーザスキャナ等が当該車両に搭載される場合、周辺情報データは、これらのセンサ又はレーザスキャナ等の検出結果を含む。また、車両にカーナビゲーション等が搭載される場合、周辺情報データは、例えば交差点の位置、信号の位置、故障車又は障害物の位置等、カーナビゲーションからの情報を含んでもよい。 Further, the surrounding information data is data related to the surrounding situation of the vehicle when the vehicle is running. For example, if the vehicle is equipped with a peripheral camera that photographs the surroundings of the vehicle, such as a front camera that photographs the front of the vehicle, a side camera that photographs the side of the vehicle, and a rear camera that photographs the rear of the vehicle, surrounding information The data includes video data of the surrounding camera. Further, for example, if a sensor, a laser scanner, or the like that detects the surrounding situation of the vehicle is mounted on the vehicle, the surrounding information data includes detection results of these sensors, laser scanner, etc. Furthermore, when the vehicle is equipped with a car navigation system or the like, the surrounding information data may include information from the car navigation system, such as the position of an intersection, the position of a traffic light, the position of a broken vehicle, or an obstacle.

例えば、周囲カメラの映像データに基づいてイベントを検出する場合、イベント検出部6は、映像データに含まれる対象物の位置、大きさ、範囲等についてパターンマッチングを行い、予め算出された所定のパターンと同様のパターンが検出される場合に、当該所定のパターンに対応するイベントが発生したと検出することができる。なお、所定のパターンについては、当該イベントと同一のイベントを示す複数の画像データに基づいて予め算出しておくことができ、算出結果を記憶部8に記憶させておくことができる。イベントの検出方法は上記方法に限定されず、イベントを機械学習させたAIを用いて検出しても良い。 For example, when detecting an event based on video data from a surrounding camera, the event detection unit 6 performs pattern matching on the position, size, range, etc. of an object included in the video data, and selects a predetermined pattern calculated in advance. If a pattern similar to is detected, it can be detected that an event corresponding to the predetermined pattern has occurred. Note that the predetermined pattern can be calculated in advance based on a plurality of image data showing the same event as the event, and the calculation result can be stored in the storage unit 8. The method of detecting an event is not limited to the above-mentioned method, and it is also possible to detect the event using AI that has undergone machine learning.

処理部7は、イベント検出部6によりイベントが検出された場合、検出されたイベントに関する運転者の評価データに基づいて、出力部9から報知情報を出力するか否かを判定する。この場合、処理部7は、まず、検出されたイベントが上記の複数の分類のうちどの分類に属するかを判断し、当該イベントが属する分類に応じた評価データを取得する。 When an event is detected by the event detection section 6, the processing section 7 determines whether to output notification information from the output section 9 based on the driver's evaluation data regarding the detected event. In this case, the processing unit 7 first determines to which category the detected event belongs among the plurality of categories described above, and obtains evaluation data according to the category to which the event belongs.

例えば、検出されたイベントが反応イベントに属する場合、処理部7は、当該反応イベントに対応する評価データとして、例えば運転者の反応速度を評価する評価データを取得する。次に、処理部7は、取得した評価データにおいて、運転者の反応速度が速い旨の評価である場合、報知情報を出力しないと判定する。また、処理部7は、取得した評価データにおける評価内容が、運転者の反応速度が速くない旨の評価である場合、報知情報を出力すると判定する。 For example, when the detected event belongs to a reaction event, the processing unit 7 acquires, for example, evaluation data for evaluating the driver's reaction speed as evaluation data corresponding to the reaction event. Next, in the acquired evaluation data, if the evaluation indicates that the driver's reaction speed is fast, the processing unit 7 determines not to output the notification information. Furthermore, when the evaluation content in the acquired evaluation data indicates that the driver's reaction speed is not fast, the processing unit 7 determines to output notification information.

また、検出されたイベントが予測イベントに属する場合、処理部7は、当該予測イベントに対応する評価データとして、例えば運転者の追視能力及び位置予測能力を評価する評価データを取得する。次に、処理部7は、取得した評価データにおいて、運転者の追視能力及び位置予測能力が高い旨の評価である場合、報知情報を出力しないと判定する。また、処理部7は、取得した評価データにおける評価内容が、運転者の追視能力及び位置予測能力が高くない旨の評価である場合、報知情報を出力すると判定する。 Further, when the detected event belongs to a predicted event, the processing unit 7 acquires, for example, evaluation data for evaluating the driver's tracking ability and position prediction ability, as evaluation data corresponding to the predicted event. Next, in the acquired evaluation data, if the evaluation indicates that the driver's tracking ability and position prediction ability are high, the processing unit 7 determines not to output the notification information. Furthermore, when the evaluation content in the acquired evaluation data indicates that the driver's tracking ability and position prediction ability are not high, the processing unit 7 determines to output notification information.

処理部7は、報知情報を出力すると判定した場合、出力部9に報知情報を出力させる。評価データの評価内容が3段階以上の場合、評価内容に応じて出力部9に出力させる報知情報を変更してもよい。例えば、処理部7は、評価データの評価内容に応じて、音声出力装置9a、表示装置9b、及び振動発生装置9cのうち報知情報を出力する装置の数、組み合せ、出力内容(音量の大きさ、表示の明るさ、振動の強さ等の出力の程度、出力時間の長さ)等の報知態様を設定することができる。 When the processing unit 7 determines to output the notification information, the processing unit 7 causes the output unit 9 to output the notification information. When the evaluation content of the evaluation data is three or more levels, the notification information outputted to the output unit 9 may be changed depending on the evaluation content. For example, the processing unit 7 determines the number, combination, and output content (volume level, , the brightness of the display, the level of output such as the strength of vibration, and the length of output time), etc. can be set.

処理部7は、走行状況取得部3により取得される走行状況データに基づいて、報知情報の出力に関する判断を行ってもよい。例えば、処理部7は、車両の速度が所定の閾値以下の場合には、評価データに関わらず報知情報の出力を行わせないようにしたり、出力の程度を小さくしたり、出力時間の長さを短くするなどの判断を行うことができる。また、処理部7は、車両の速度が所定の閾値を超える場合には、評価データに関わらず報知情報の出力を行わせるようにしたり、報知情報の出力の程度を大きくしたり、出力時間の長さを長くするなどの判断を行うことができる。 The processing unit 7 may make a determination regarding the output of notification information based on the driving situation data acquired by the driving situation acquisition unit 3. For example, when the speed of the vehicle is below a predetermined threshold, the processing unit 7 may prevent the output of notification information regardless of the evaluation data, reduce the level of output, or set the length of output time. You can make decisions such as shortening the Further, when the speed of the vehicle exceeds a predetermined threshold, the processing unit 7 causes the notification information to be output regardless of the evaluation data, increases the degree of output of the notification information, or shortens the output time. You can make decisions such as increasing the length.

処理部7は、運転者データ取得部4により取得される運転者データに基づいて、報知情報の出力に関する判断を行ってもよい。例えば、処理部7は、運転者のバイタルデータにおいて体温が平熱を超える場合、脈拍、呼吸数が平常値を超える場合等、平常とは異なるバイタルデータが取得される場合には、評価データに関わらず報知情報の出力を行わせるようにしたり、報知情報の出力の程度を大きくしたり、出力時間の長さを長くするなどの判断を行うことができる。 The processing unit 7 may make a determination regarding the output of notification information based on the driver data acquired by the driver data acquisition unit 4. For example, if the driver's vital data differs from normal values, such as when the body temperature exceeds the normal temperature, when the pulse rate and the respiratory rate exceed normal values, etc., the processing unit 7 It is possible to make decisions such as outputting the notification information first, increasing the output level of the notification information, or lengthening the output time.

また、処理部7は、例えばイベント検出部6によりイベントが検出された場合に、運転者の視線データを取得し、運転者データを用いてイベントに対する運転者の反応速度を算出する。そして、処理部7は、算出結果と運転者の反応速度についての評価データとの比較に基づいて判定及び報知情報の出力の調整を行う。例えば、評価データに基づく反応速度が速いが、運転者データに基づく反応速度が速くなかった場合、運転者が疲れ又は集中力低下等により本来の反応速度を発揮できない状態にある可能性が想定される。そこで、処理部7は、このような場合に、運転者に休息を促す旨の情報を出力させるようにしてもよい。また、処理部7は、このような場合、評価データに関わらず運転者に警告又は注意喚起する旨の報知情報の出力を行わせるようにしたり、報知情報の出力の程度を大きくしたり、出力時間の長さを長くするなどの判断を行うことができる。 Further, for example, when an event is detected by the event detection unit 6, the processing unit 7 acquires the driver's line of sight data, and uses the driver data to calculate the driver's reaction speed to the event. Then, the processing unit 7 makes a determination and adjusts the output of the notification information based on a comparison between the calculation result and the evaluation data regarding the driver's reaction speed. For example, if the reaction speed based on the evaluation data is fast, but the reaction speed based on the driver data is not fast, it is assumed that the driver may be unable to demonstrate his or her original reaction speed due to fatigue or decreased concentration. Ru. Therefore, in such a case, the processing unit 7 may output information urging the driver to take a rest. In addition, in such a case, the processing unit 7 may cause the output of notification information to warn or call attention to the driver regardless of the evaluation data, increase the level of output of the notification information, or It is possible to make decisions such as increasing the length of time.

記憶部8は、各種データを記憶する。記憶部8は、上記の運転者識別データ、走行状況データ、運転者データ、評価データ、及びイベントを検出するために用いられるデータ等を記憶する。また、記憶部8は、車両を運転する運転者を識別する処理と、運転者の反応速度を評価する評価データを取得する処理と、車両の周辺の状況を示す周辺情報データに基づいて、車両運転時にイベントが発生したか否かを検出する処理と、イベントが検出された場合、運転者の評価データに基づいて出力部9から報知情報を出力するか否かを判定し、報知情報を出力すると判定した場合、出力部9に報知情報を出力させる処理とをコンピュータに実行させる運転支援プログラムを記憶する。また、記憶部8は、車両を運転する運転者を識別する処理と、運転者の追視能力及び位置予測能力を評価する評価データを取得する処理と、車両の周辺の状況を示す周辺情報データに基づいて、車両運転時にイベントが発生したか否かを検出する処理と、イベントが検出された場合、運転者の評価データに基づいて出力部9から報知情報を出力するか否かを判定し、報知情報を出力すると判定した場合、出力部9に報知情報を出力させる処理とをコンピュータに実行させる運転支援プログラムを記憶する。 The storage unit 8 stores various data. The storage unit 8 stores the above-mentioned driver identification data, driving situation data, driver data, evaluation data, data used to detect events, and the like. Furthermore, the storage unit 8 performs a process of identifying a driver who drives the vehicle, a process of acquiring evaluation data for evaluating the driver's reaction speed, and a process of determining the vehicle based on surrounding information data indicating the surrounding situation of the vehicle. A process for detecting whether an event has occurred during driving, and when an event is detected, determining whether or not to output notification information from the output unit 9 based on the driver's evaluation data, and outputting the notification information. When it is determined that this is the case, a driving support program that causes the computer to execute a process of causing the output unit 9 to output notification information is stored. The storage unit 8 also performs processing for identifying the driver who drives the vehicle, processing for acquiring evaluation data for evaluating the tracking ability and position prediction ability of the driver, and peripheral information data indicating the situation around the vehicle. A process of detecting whether or not an event has occurred during vehicle operation based on , a driving support program that causes the computer to execute a process of causing the output unit 9 to output the notification information when it is determined that the notification information is to be output is stored.

出力部9は、処理部7からの指令により、報知情報を出力する。報知情報は、運転者に対する警告を含む。出力部9としては、例えばスピーカ等の音声出力装置9a、画像を表示可能な表示装置9b、バイブレータ等の振動発生装置9c、等が挙げられる。出力部9として、例えば携帯電話、スマートフォン、タブレット等の外部の携帯端末装置が用いられてもよい。 The output unit 9 outputs notification information according to a command from the processing unit 7. The notification information includes a warning to the driver. Examples of the output unit 9 include an audio output device 9a such as a speaker, a display device 9b capable of displaying an image, and a vibration generator 9c such as a vibrator. As the output unit 9, for example, an external mobile terminal device such as a mobile phone, a smartphone, or a tablet may be used.

次に、本実施形態に係る運転支援方法の一例について、図2を参照しながら説明する。図2は、本実施形態に係る評価方法の一例を示すフローチャートである。本実施形態に係る運転支援方法において、図2に示すように、運転者識別部2は、運転者識別データに基づいて運転者を識別する(ステップS101)。評価データ取得部5は、識別された運転者の評価データを取得する(ステップS102)。 Next, an example of the driving support method according to the present embodiment will be described with reference to FIG. 2. FIG. 2 is a flowchart illustrating an example of the evaluation method according to this embodiment. In the driving support method according to this embodiment, as shown in FIG. 2, the driver identification unit 2 identifies the driver based on driver identification data (step S101). The evaluation data acquisition unit 5 acquires evaluation data of the identified driver (step S102).

評価データを取得した後、走行状況取得部3、運転者データ取得部4及びイベント検出部6は、それぞれ走行状況データ、運転者データ、周辺情報データを取得する(ステップS103)。イベント検出部6は、取得した周辺情報データに基づいて、イベントが発生しているか否かを解析する(ステップS104)。 After acquiring the evaluation data, the driving situation acquisition unit 3, driver data acquisition unit 4, and event detection unit 6 each acquire driving situation data, driver data, and surrounding information data (step S103). The event detection unit 6 analyzes whether an event has occurred based on the acquired peripheral information data (step S104).

イベントが発生している場合(ステップS105のYes)、処理部7は、出力部9から報知情報を出力させるか否かを判定する(ステップS106)。ステップS106の判定の結果、報知情報を出力させると判定した場合(ステップS106のYes)、処理部7は、報知態様を設定し(ステップS107)、設定した報知態様で出力部9に対して報知情報を出力させる(ステップS108)。 If an event has occurred (Yes in step S105), the processing unit 7 determines whether to output notification information from the output unit 9 (step S106). As a result of the determination in step S106, if it is determined that the notification information is to be output (Yes in step S106), the processing unit 7 sets a notification mode (step S107), and notifies the output unit 9 in the set notification mode. The information is output (step S108).

ステップS105においてイベントが発生していない場合(ステップS105のNo)、及び、ステップS106において報知情報を出力させないと判定した場合(ステップS106のNo)、処理部7は、車両の運転が終了したか否かを判定する(ステップS109)。車両の運転が終了した場合(ステップS109のYes)、処理を終了する。車両の運転が終了していない場合(ステップS109のNo)、ステップS103以降の処理を繰り返し行わせる。 If no event has occurred in step S105 (No in step S105), and if it is determined in step S106 that the notification information is not to be output (No in step S106), the processing unit 7 determines whether driving of the vehicle has ended or not. It is determined whether or not (step S109). If the driving of the vehicle has ended (Yes in step S109), the process ends. If the driving of the vehicle has not been completed (No in step S109), the process from step S103 onwards is repeated.

[評価データ、評価装置]
図3は、評価データを取得するための評価装置の一例を示す図である。本実施形態に係る評価装置100は、被験者の視線を検出し、検出結果を用いることで、車両走行中に発生するイベントに対する認識能力の評価を行う。評価装置100は、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方法、又は被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する方法等、各種の方法により被験者の視線を検出することができる。
[Evaluation data, evaluation device]
FIG. 3 is a diagram illustrating an example of an evaluation device for acquiring evaluation data. The evaluation device 100 according to the present embodiment detects the subject's line of sight and uses the detection results to evaluate the recognition ability for events that occur while the vehicle is running. The evaluation device 100 can perform various methods such as a method of detecting the line of sight based on the position of the subject's pupil and the position of the corneal reflection image, or a method of detecting the line of sight based on the position of the inner corner of the subject's eye and the position of the iris. The method allows the subject's line of sight to be detected.

図3に示すように、評価装置100は、表示装置10と、画像取得装置20と、コンピュータシステム30と、出力装置40と、入力装置50と、入出力インターフェース装置60とを備える。表示装置10、画像取得装置20、コンピュータシステム30、出力装置40及び入力装置50は、入出力インターフェース装置60を介してデータ通信を行う。表示装置10及び画像取得装置20は、それぞれ不図示の駆動回路を有する。 As shown in FIG. 3, the evaluation device 100 includes a display device 10, an image acquisition device 20, a computer system 30, an output device 40, an input device 50, and an input/output interface device 60. The display device 10, the image acquisition device 20, the computer system 30, the output device 40, and the input device 50 perform data communication via the input/output interface device 60. The display device 10 and the image acquisition device 20 each have a drive circuit (not shown).

表示装置10は、液晶ディスプレイ(liquid crystal display:LCD)又は有機ELディスプレイ(organic electroluminescence display:OLED)のようなフラットパネルディスプレイを含む。本実施形態において、表示装置10は、表示部11を有する。表示部11は、画像等の情報を表示する。表示部11は、XY平面と実質的に平行である。X軸方向は表示部11の左右方向であり、Y軸方向は表示部11の上下方向であり、Z軸方向は表示部11と直交する奥行方向である。表示装置10は、ヘッドマウント型ディスプレイ装置であってもよい。表示装置10がヘッドマウント型ディスプレイ装置である場合、ヘッドマウントモジュール内に画像取得装置20のような構成が配置されることになる。また、表示装置10は、例えば運転シミュレータに設置される表示装置であってもよい。 Display device 10 includes a flat panel display such as a liquid crystal display (LCD) or an organic electroluminescence display (OLED). In this embodiment, the display device 10 includes a display section 11. The display unit 11 displays information such as images. The display section 11 is substantially parallel to the XY plane. The X-axis direction is the left-right direction of the display section 11, the Y-axis direction is the up-down direction of the display section 11, and the Z-axis direction is the depth direction orthogonal to the display section 11. Display device 10 may be a head-mounted display device. If the display device 10 is a head-mounted display device, a configuration such as the image acquisition device 20 will be disposed within the head-mounted module. Further, the display device 10 may be a display device installed in a driving simulator, for example.

画像取得装置20は、被験者の左右の眼球EBの画像データを取得し、取得した画像データをコンピュータシステム30に送信する。画像取得装置20は、撮影装置21を有する。撮影装置21は、被験者の左右の眼球EBを撮影することで画像データを取得する。撮影装置21は、被験者の視線を検出する方法に応じた各種カメラを有する。例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、撮影装置21は、赤外線カメラを有し、例えば波長850[nm]の近赤外光を透過可能な光学系と、その近赤外光を受光可能な撮像素子とを有する。また、例えば被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する方式の場合、撮影装置21は、可視光カメラを有する。撮影装置21は、フレーム同期信号を出力する。フレーム同期信号の周期は、例えば20[msec]とすることができるが、これに限定されない。撮影装置21は、例えば第1カメラ21A及び第2カメラ21Bを有するステレオカメラの構成とすることができるが、これに限定されない。 The image acquisition device 20 acquires image data of the left and right eyeballs EB of the subject, and transmits the acquired image data to the computer system 30. The image acquisition device 20 includes a photographing device 21 . The photographing device 21 acquires image data by photographing the left and right eyeballs EB of the subject. The photographing device 21 includes various cameras depending on the method of detecting the subject's line of sight. For example, in the case of a method of detecting the line of sight based on the position of the subject's pupil and the position of the corneal reflection image, the imaging device 21 has an infrared camera and is capable of transmitting near-infrared light with a wavelength of 850 [nm], for example. It has an optical system and an image sensor that can receive the near-infrared light. Furthermore, for example, in the case of a method of detecting the line of sight based on the position of the inner corner of the subject's eye and the position of the iris, the photographing device 21 includes a visible light camera. The photographing device 21 outputs a frame synchronization signal. The period of the frame synchronization signal can be, for example, 20 [msec], but is not limited to this. The photographing device 21 can have, for example, a stereo camera configuration including a first camera 21A and a second camera 21B, but is not limited thereto.

また、例えば被験者の瞳孔の位置と角膜反射像の位置とに基づいて視線を検出する方式の場合、画像取得装置20は、被験者の眼球EBを照明する照明装置22を有する。照明装置22は、LED(light emitting diode)光源を含み、例えば波長850[nm]の近赤外光を射出可能である。なお、例えば被験者の目頭の位置と虹彩の位置とに基づいて視線を検出する方式の場合、照明装置22は設けられなくてもよい。照明装置22は、撮影装置21のフレーム同期信号に同期するように検出光を射出する。照明装置22は、例えば第1光源22A及び第2光源22Bを有する構成とすることができるが、これに限定されない。 Further, for example, in the case of a method of detecting the line of sight based on the position of the subject's pupil and the position of the corneal reflection image, the image acquisition device 20 includes an illumination device 22 that illuminates the subject's eyeball EB. The illumination device 22 includes an LED (light emitting diode) light source, and is capable of emitting near-infrared light with a wavelength of 850 [nm], for example. Note that, for example, in the case of a method of detecting the line of sight based on the position of the inner corner of the subject's eye and the position of the iris, the illumination device 22 may not be provided. The illumination device 22 emits detection light in synchronization with the frame synchronization signal of the photographing device 21. The illumination device 22 can have, for example, a first light source 22A and a second light source 22B, but is not limited thereto.

コンピュータシステム30は、評価装置100の動作を統括的に制御する。コンピュータシステム30は、演算処理装置30A及び記憶装置30Bを含む。演算処理装置30Aは、CPU(central processing unit)のようなマイクロプロセッサを含む。記憶装置30Bは、ROM(read only memory)及びRAM(random access memory)のようなメモリ又はストレージを含む。演算処理装置30Aは、記憶装置30Bに記憶されているコンピュータプログラム30Cに従って演算処理を実施する。 The computer system 30 centrally controls the operation of the evaluation device 100. Computer system 30 includes an arithmetic processing unit 30A and a storage device 30B. The arithmetic processing device 30A includes a microprocessor such as a CPU (central processing unit). The storage device 30B includes memory or storage such as ROM (read only memory) and RAM (random access memory). The arithmetic processing device 30A performs arithmetic processing according to the computer program 30C stored in the storage device 30B.

出力装置40は、フラットパネルディスプレイのような表示装置を含む。なお、出力装置40は、印刷装置を含んでもよい。入力装置50は、操作されることにより入力データを生成する。入力装置50は、コンピュータシステム用のキーボード又はマウスを含む。なお、入力装置50が表示装置である出力装置40の表示部に設けられたタッチセンサを含んでもよい。 Output device 40 includes a display device such as a flat panel display. Note that the output device 40 may include a printing device. The input device 50 generates input data when operated. Input device 50 includes a keyboard or mouse for a computer system. Note that the input device 50 may include a touch sensor provided on the display section of the output device 40, which is a display device.

本実施形態に係る評価装置100は、表示装置10とコンピュータシステム30とが別々の装置である。なお、表示装置10とコンピュータシステム30とが一体でもよい。例えば評価装置100がタブレット型パーソナルコンピュータを含んでもよい。この場合、当該タブレット型パーソナルコンピュータに、表示装置、画像取得装置、コンピュータシステム、入力装置、出力装置等が搭載されてもよい。 In the evaluation device 100 according to this embodiment, the display device 10 and the computer system 30 are separate devices. Note that the display device 10 and the computer system 30 may be integrated. For example, evaluation device 100 may include a tablet personal computer. In this case, the tablet personal computer may be equipped with a display device, an image acquisition device, a computer system, an input device, an output device, and the like.

図4は、評価装置100の一例を示す機能ブロック図である。図4に示すように、コンピュータシステム30は、表示制御部31と、注視点検出部32と、領域設定部33と、判定部34と、演算部35と、評価部36と、入出力制御部37と、記憶部38とを有する。コンピュータシステム30の機能は、演算処理装置30A及び記憶装置30B(図3参照)によって発揮される。なお、コンピュータシステム30は、一部の機能が評価装置100の外部に設けられてもよい。 FIG. 4 is a functional block diagram showing an example of the evaluation device 100. As shown in FIG. 4, the computer system 30 includes a display control section 31, a gaze point detection section 32, an area setting section 33, a determination section 34, a calculation section 35, an evaluation section 36, and an input/output control section. 37 and a storage section 38. The functions of the computer system 30 are performed by an arithmetic processing unit 30A and a storage device 30B (see FIG. 3). Note that some functions of the computer system 30 may be provided outside the evaluation device 100.

表示制御部31は、評価用画像を表示部11に表示する。本実施形態において、評価用画像は、被験者に表示する対象物を示す画像である。具体的には、表示制御部31は、被験者に注視させる対象物を表示部11に表示し、表示部11における対象物の表示位置を所定時間毎に変更する。また、表示制御部31は、被験者に注視させる対象物M3を表示部11に表示して所定の移動経路に沿って移動させる第1表示動作と、第1表示動作の途中で対象物M3を所定期間非表示とする非表示動作と、非表示動作の後、対象物M3が非表示動作において第1表示動作から連続して移動経路に沿って所定期間移動した場合の位置に対象物M3を再び表示して移動経路に沿って移動させる第2表示動作と、を行わせる。表示制御部31は、上記の評価用画像を、例えば動画として表示部11に表示することができるが、表示形態については動画に限定されず、静止画であってもよい。 The display control unit 31 displays the evaluation image on the display unit 11. In this embodiment, the evaluation image is an image showing the object to be displayed to the subject. Specifically, the display control unit 31 displays the target object to be gazed at by the subject on the display unit 11, and changes the display position of the target object on the display unit 11 at predetermined time intervals. The display control unit 31 also performs a first display operation in which the subject M3 is displayed on the display unit 11 and moved along a predetermined movement route, and a predetermined display operation in which the target object M3 is displayed in the middle of the first display operation. A non-display operation to hide the display for a period of time, and after the non-display operation, the object M3 is returned to the position where it would have been moved for a predetermined period of time along the movement route continuously from the first display operation in the non-display operation. A second display operation of displaying the image and moving it along the movement route is performed. The display control unit 31 can display the above evaluation image on the display unit 11 as a moving image, for example, but the display format is not limited to a moving image and may be a still image.

注視点検出部32は、被験者の注視点の位置データを検出する。本実施形態において、注視点検出部32は、画像取得装置20によって取得される被験者の左右の眼球EBの画像データに基づいて、三次元グローバル座標系で規定される被験者の視線ベクトルを検出する。注視点検出部32は、検出した被験者の視線ベクトルと表示装置10の表示部11との交点の位置データを、被験者の注視点の位置データとして検出する。つまり、本実施形態において、注視点の位置データは、三次元グローバル座標系で規定される被験者の視線ベクトルと、表示装置10の表示部11との交点の位置データである。注視点検出部32は、規定のサンプリング周期毎に被験者の注視点の位置データを検出する。このサンプリング周期は、例えば撮影装置21から出力されるフレーム同期信号の周期(例えば20[msec]毎)とすることができる。 The gaze point detection unit 32 detects position data of the subject's gaze point. In the present embodiment, the gaze point detection unit 32 detects the subject's gaze vector defined in a three-dimensional global coordinate system based on image data of the subject's left and right eyeballs EB acquired by the image acquisition device 20. The gaze point detection unit 32 detects position data of the intersection of the detected visual line vector of the subject and the display unit 11 of the display device 10 as position data of the subject's gaze point. That is, in this embodiment, the position data of the gaze point is the position data of the intersection of the subject's line of sight vector defined in the three-dimensional global coordinate system and the display unit 11 of the display device 10. The gaze point detection unit 32 detects position data of the subject's gaze point at every prescribed sampling period. This sampling period can be, for example, the period of the frame synchronization signal output from the photographing device 21 (for example, every 20 [msec]).

領域設定部33は、表示部11において、評価用画像の一部に判定領域を設定する。具体的には、領域設定部33は、対象物に対応した判定領域を表示部に設定する。本実施形態において、領域設定部33で設定される判定領域は、原則として表示部11には表示されない。なお、例えば表示制御部31の制御により、判定領域が表示部11に表示されるようにしてもよい。 The area setting unit 33 sets a determination area in a part of the evaluation image on the display unit 11. Specifically, the area setting unit 33 sets a determination area corresponding to the target object on the display unit. In this embodiment, the determination area set by the area setting section 33 is not displayed on the display section 11 in principle. Note that the determination area may be displayed on the display section 11 under the control of the display control section 31, for example.

判定部34は、注視点の位置データに基づいて、注視点が判定領域に存在するか否かをそれぞれ判定し、判定結果を判定データとして出力する。判定部34は、規定の判定周期毎に注視点が判定領域に存在するか否かを判定する。判定周期としては、例えば撮影装置21から出力されるフレーム同期信号の周期(例えば20[msec]毎)とすることができる。つまり、判定部34の判定周期は、注視点検出部32のサンプリング周期と同一である。判定部34は、注視点検出部32で注視点の位置がサンプリングされる毎に当該注視点について判定を行い、判定データを出力する。判定領域が複数設定される場合、判定部34は、注視点が存在するか否かを判定領域毎に判定して判定データを出力することができる。 The determination unit 34 determines whether or not the gaze point exists in the determination area based on the position data of the gaze point, and outputs the determination result as determination data. The determination unit 34 determines whether or not the gaze point exists in the determination area at each prescribed determination period. The determination period can be, for example, the period of the frame synchronization signal output from the photographing device 21 (for example, every 20 [msec]). That is, the determination period of the determination section 34 is the same as the sampling period of the gaze point detection section 32. The determining unit 34 makes a determination regarding the point of interest every time the position of the point of interest is sampled by the point of interest detecting unit 32, and outputs determination data. When a plurality of determination areas are set, the determination unit 34 can determine whether or not a gaze point exists for each determination area and output determination data.

演算部35は、判定部34の判定データに基づいて、上記の判定領域が設定される期間において注視点が判定領域内に存在する場合の注視点データを算出する。演算部35は、注視点データとして、例えば存在時間データを算出する。存在時間データは、イベントの表示期間に注視点が判定領域に存在した存在時間を示す。演算部35は、視線検出部32により注視点の検出が開始されてからの経過時間を検出するタイマ1と、対象物の表示位置が切り替わった時点から新たな対象物を注視するまでの反応時間を検出するタイマ2と、判定部34により判定領域に注視点が存在すると判定された判定回数をカウントするカウンタとを有する。 Based on the determination data of the determination unit 34, the calculation unit 35 calculates point-of-gaze data when the point of gaze exists within the determination area during the period in which the determination area is set. The calculation unit 35 calculates, for example, existence time data as the gaze point data. The existence time data indicates the existence time that the gaze point existed in the determination area during the event display period. The calculation unit 35 includes a timer 1 that detects the elapsed time after the gaze detection unit 32 starts detecting the gaze point, and a reaction time from the time when the display position of the object is switched until gazing at the new target. and a counter that counts the number of times the determination unit 34 determines that the gaze point exists in the determination area.

評価部36は、注視点の移動の経過に基づいて、被験者の評価データを求める。評価データは、表示部11に表示される対象物の位置の変化に被験者が素早く反応できているか否かを評価するデータを含む。 The evaluation unit 36 obtains evaluation data of the subject based on the progress of movement of the gaze point. The evaluation data includes data for evaluating whether or not the subject can quickly react to changes in the position of the object displayed on the display unit 11.

入出力制御部37は、画像取得装置20及び入力装置50の少なくとも一方からのデータ(眼球EBの画像データ、入力データ等)を取得する。また、入出力制御部37は、表示装置10及び出力装置40の少なくとも一方にデータを出力する。入出力制御部37は、被験者に対する課題をスピーカ等の出力装置40から出力してもよい。 The input/output control unit 37 acquires data (image data of the eyeball EB, input data, etc.) from at least one of the image acquisition device 20 and the input device 50. Further, the input/output control unit 37 outputs data to at least one of the display device 10 and the output device 40. The input/output control unit 37 may output the task for the subject from an output device 40 such as a speaker.

記憶部38は、上記の判定データ、注視点データ(到達時間データ、存在時間データ)、及び評価データを記憶する。 The storage unit 38 stores the above-mentioned determination data, gaze point data (arrival time data, existence time data), and evaluation data.

次に、本実施形態に係る評価方法について説明する。まず、上記の評価装置100を用いることにより、運転者の反応速度を評価する評価データを求める場合について説明する。 Next, an evaluation method according to this embodiment will be explained. First, a case will be described in which evaluation data for evaluating a driver's reaction speed is obtained by using the evaluation device 100 described above.

図5及び図6は、表示部11に表示する評価用画像の一例を示す図である。図5に示すように、表示制御部31は、被験者に注視させる対象物M1を表示部11に表示する。図5では、対象物M1を表示部11の中央部の位置P1に表示する場合を例に挙げているが、これに限定されず、他の位置に表示してもよい。また、対象物M1は、例えば円形であるが、これに限定されず、多角形、楕円形等、他の形状であってもよい。また、対象物M1は、幾何学形状に限定されず、動物、人物、物品等の画像であってもよい。 5 and 6 are diagrams showing examples of evaluation images displayed on the display unit 11. As shown in FIG. 5, the display control unit 31 displays on the display unit 11 the object M1 that the subject is to gaze at. Although FIG. 5 exemplifies the case where the object M1 is displayed at the position P1 in the center of the display unit 11, the object M1 is not limited to this, and may be displayed at other positions. Further, the target object M1 is, for example, circular, but is not limited to this, and may have other shapes such as a polygon or an ellipse. Moreover, the target object M1 is not limited to a geometric shape, and may be an image of an animal, a person, an article, or the like.

領域設定部33は、対象物M1に対応した判定領域A1を設定する。領域設定部33は、対象物M1の少なくとも一部を含む領域に判定領域A1を設定することができる。本実施形態において、領域設定部33は、対象物M1の全部を囲う円形の領域として判定領域A1を設定しているが、これに限定されない。領域設定部33は、多角形、楕円形等、他の形状の判定領域を設定してもよいし、対象物M1の一部に判定領域を設定してもよい。なお、判定領域A1は、実際には表示部11には表示されない。 The area setting unit 33 sets a determination area A1 corresponding to the target object M1. The area setting unit 33 can set the determination area A1 in an area that includes at least a portion of the target object M1. In the present embodiment, the area setting unit 33 sets the determination area A1 as a circular area surrounding the entire object M1, but the determination area A1 is not limited to this. The region setting unit 33 may set the determination region in another shape such as a polygon or an ellipse, or may set the determination region in a part of the object M1. Note that the determination area A1 is not actually displayed on the display unit 11.

表示制御部31は、対象物M1を表示部11に所定時間表示した後、表示部11における対象物M1の表示位置を変更する。表示制御部31は、対象物M1を所定時間表示した後、当該対象物M1を非表示とすると共に、例えば図6に示すように、位置P1から図中の左上方向に離れた位置P2に対象物M1を表示する。この動作により、対象物M1が瞬間的に位置P1から位置P2に移動したように被験者に認識させることができる。表示制御部31は、対象物M1を表示する位置P1と位置P2との距離が所定値以上離れるようにする。以降、表示制御部31は、上記同様、対象物M1を所定時間表示部11に表示した後、当該対象物M1を非表示とすると共に当該対象物M1を異なる位置に表示する。 After displaying the object M1 on the display section 11 for a predetermined period of time, the display control section 31 changes the display position of the object M1 on the display section 11. After displaying the target object M1 for a predetermined period of time, the display control unit 31 hides the target object M1, and displays the target object M1 at a position P2, which is away from the position P1 in the upper left direction in the figure, for example, as shown in FIG. Display object M1. This operation allows the subject to perceive that the object M1 has momentarily moved from the position P1 to the position P2. The display control unit 31 makes the distance between the position P1 and the position P2 where the target object M1 is displayed be a predetermined value or more. Thereafter, similarly to the above, the display control unit 31 displays the target object M1 on the display unit 11 for a predetermined period of time, then hides the target object M1 and displays the target object M1 at a different position.

対象物M1の表示位置が変更される場合、領域設定部33は、表示位置が変更された後の対象物M1に対応した判定領域を設定する。図5及び図6に示す例において、対象物M1が非表示となる場合、領域設定部33は、対象物M1に設定されていた判定領域A1の設定を解除する。また、領域設定部33は、新たに表示する対象物M1に対応した判定領域A2を設定する。領域設定部33は、対象物M1の少なくとも一部を含む領域に判定領域A2を設定することができる。本実施形態において、領域設定部33は、表示位置の変更前と同様に、対象物M1の全部を囲う円形の領域として判定領域A2を設定しているが、これに限定されず、多角形、楕円形等、他の形状の判定領域を設定してもよいし、対象物M1の一部に判定領域を設定してもよい。また、領域設定部33は、表示位置の変更前とは異なる形状及び寸法の判定領域を設定してもよい。なお、判定領域A2は、実際には表示部11には表示されない。 When the display position of the target object M1 is changed, the area setting unit 33 sets a determination area corresponding to the target object M1 after the display position has been changed. In the example shown in FIGS. 5 and 6, when the target object M1 is hidden, the area setting unit 33 cancels the setting of the determination area A1 set for the target object M1. Further, the area setting unit 33 sets a determination area A2 corresponding to the target object M1 to be newly displayed. The area setting unit 33 can set the determination area A2 in an area that includes at least a portion of the target object M1. In this embodiment, the area setting unit 33 sets the determination area A2 as a circular area that surrounds the entire object M1, as before changing the display position, but is not limited to this, and is not limited to a polygon, The determination area may be set in another shape, such as an ellipse, or may be set in a part of the object M1. Further, the area setting unit 33 may set a determination area having a different shape and size from before the display position is changed. Note that the determination area A2 is not actually displayed on the display unit 11.

注視点検出部32は、評価用画像が表示される期間において、規定のサンプリング周期(例えば20[msec])毎に、被験者の注視点の位置を検出する。被験者の注視点の位置が検出された場合、判定部34は、被験者の注視点が判定領域A1、A2に存在するかをそれぞれ判定し、判定データを出力する。したがって、判定部34は、注視点検出部32で注視点の位置がサンプリングされる毎に、上記のサンプリング周期と同一の判定周期毎に判定データを出力する。 The gaze point detection unit 32 detects the position of the subject's gaze point at every prescribed sampling period (for example, 20 [msec]) during the period in which the evaluation image is displayed. When the position of the subject's gaze point is detected, the determination unit 34 determines whether the subject's gaze point exists in the determination areas A1 and A2, and outputs determination data. Therefore, the determination unit 34 outputs determination data every time the position of the gaze point is sampled by the gaze point detection unit 32, and at the same determination cycle as the sampling cycle described above.

演算部35は、判定データに基づいて、判定領域A1、A2が設定される期間において注視点が判定領域A1、A2内に存在する場合の注視点データを算出する。演算部35は、注視点データとして、例えば反応時間データを算出する。 Based on the determination data, the calculation unit 35 calculates point-of-gaze data when the gaze point exists within the determination areas A1, A2 during the period in which the determination areas A1, A2 are set. The calculation unit 35 calculates, for example, reaction time data as the gaze point data.

反応時間データは、新たな対象物M1の表示開始の時点から、注視点が判定領域A1、A2に最初に到達した到達時点までの時間である反応時間を示す。したがって、演算部35は、新たな対象物M1の表示開始からの経過時間をタイマ2によって測定し、注視点が最初に判定領域A1、A2に到達した時点でタイマ2の測定値を検出することで、当該タイマ2の検出結果を反応時間データとすることができる。 The reaction time data indicates a reaction time that is the time from the start of display of the new target object M1 to the arrival time when the gaze point first reaches the determination areas A1 and A2. Therefore, the calculation unit 35 measures the elapsed time from the start of display of the new object M1 using the timer 2, and detects the measured value of the timer 2 when the gaze point first reaches the determination areas A1 and A2. Then, the detection result of the timer 2 can be used as reaction time data.

評価部36は、反応時間データに基づいて評価値を求め、評価値に基づいて評価データを求める。評価部36は、反応時間データに基づいて、被験者が対象物M1を注視したか否かを判断し、判断結果に基づいて反応速度を評価することができる。例えば、対象物M1の表示位置を複数回変更して注視点の検出を行う。そして、評価部36は、それぞれの表示位置について得られた反応時間データにおける反応時間の平均値が所定の閾値以下である場合に、被験者の反応速度が速いと評価することができる。また、評価部36は、それぞれの表示位置について得られた反応時間データにおける反応時間の平均値が所定の閾値を超える場合、被験者の反応速度が速くないと評価することができる。評価部36は、このような2段階の評価に限定されず、例えば反応時間の閾値を多段階に設定するなど、多段階で反応速度を評価してもよい。 The evaluation unit 36 obtains an evaluation value based on the reaction time data, and obtains evaluation data based on the evaluation value. The evaluation unit 36 can determine whether the subject gazed at the object M1 based on the reaction time data, and can evaluate the reaction speed based on the determination result. For example, the display position of the target object M1 is changed multiple times to detect the gaze point. The evaluation unit 36 can evaluate that the test subject's reaction speed is fast when the average value of reaction times in the reaction time data obtained for each display position is less than or equal to a predetermined threshold. Further, the evaluation unit 36 can evaluate that the test subject's reaction speed is not fast if the average value of reaction times in the reaction time data obtained for each display position exceeds a predetermined threshold. The evaluation unit 36 is not limited to such two-stage evaluation, and may evaluate the reaction speed in multiple stages, for example, by setting reaction time thresholds in multiple stages.

次に、運転者の反応速度を評価する評価データを得るための評価方法の一例について、図7を参照しながら説明する。図7は、本実施形態に係る評価方法の一例を示すフローチャートである。本実施形態に係る評価方法において、図7に示すように、まず注視点検出部32は、注視点の検出を開始する(ステップS201)。また、演算部35は、経過時間を検出するタイマ1をリセットする(ステップS202)。演算部35は、n=1、つまり1つ目の対象物M1について評価を開始する(ステップS203)。 Next, an example of an evaluation method for obtaining evaluation data for evaluating a driver's reaction speed will be described with reference to FIG. 7. FIG. 7 is a flowchart illustrating an example of the evaluation method according to this embodiment. In the evaluation method according to the present embodiment, as shown in FIG. 7, the point of interest detection unit 32 first starts detecting a point of interest (step S201). Furthermore, the calculation unit 35 resets the timer 1 that detects the elapsed time (step S202). The calculation unit 35 starts evaluating n=1, that is, the first object M1 (step S203).

演算部35は、反応時間を検出するタイマ2をリセットする(ステップS204)。その後、表示制御部31は、表示部11に評価用画像を表示する。これにより、表示部11に対象物M1が表示される(ステップS205)。ステップS205において、領域設定部33は、対象物M1に対応する領域に判定領域A1を設定する。 The calculation unit 35 resets the timer 2 that detects the reaction time (step S204). Thereafter, the display control section 31 displays the evaluation image on the display section 11. As a result, the target object M1 is displayed on the display unit 11 (step S205). In step S205, the area setting unit 33 sets the determination area A1 in the area corresponding to the target object M1.

その後、判定部34は、注視点が判定領域A1内に存在するか否か、つまり、被験者が対象物M1を注視できたか否かを判定する(ステップS206)。ステップS206において対象物M1を注視できないと判定される場合(ステップS206のNo)、演算部35は、タイマ1の検出結果に基づいて対象物M1の表示時間(一定時間)が経過したか否かを判定する(ステップS207)。表示時間が経過していないと判定される場合(ステップS207のNo)、ステップS206以降の処理を繰り返し行う。 After that, the determination unit 34 determines whether the gaze point exists within the determination area A1, that is, whether the subject was able to gaze at the target object M1 (step S206). If it is determined in step S206 that the target object M1 cannot be gazed at (No in step S206), the calculation unit 35 determines whether the display time (certain time period) of the target object M1 has elapsed based on the detection result of the timer 1. is determined (step S207). If it is determined that the display time has not elapsed (No in step S207), the processes from step S206 onwards are repeated.

ステップS206において対象物M1を注視できたと判定される場合(ステップS206のYes)、又は、ステップS207において一定時間が経過したと判定される場合(ステップS207のYes)、演算部35は、当該判定時点におけるタイマ2の検出結果に基づいて、反応時間データを算出する(ステップS208)。演算部35は、算出した反応時間データを記憶部38に記憶させる。なお、ステップS207のYesのフローを経て取得されるタイマ2の検出結果は、一定時間経過しても対象物M1を視認できなかった旨の検出結果となる。 If it is determined in step S206 that the target object M1 could be gazed upon (Yes in step S206), or if it is determined in step S207 that a certain period of time has elapsed (Yes in step S207), the calculation unit 35 Based on the detection result of timer 2 at the time point, reaction time data is calculated (step S208). The calculation unit 35 causes the storage unit 38 to store the calculated reaction time data. Note that the detection result of the timer 2 obtained through the Yes flow in step S207 is a detection result that the target object M1 cannot be visually recognized even after a certain period of time has elapsed.

その後、表示制御部31は、対象物M1を非表示とする(ステップS209)。演算部35は、対象物M1の表示位置の変更回数について規定回数が終了したか否かを判定し(ステップS210)、終了していないと判定した場合(ステップS210のNo)には、n=n+1、つまり次の対象物について検出を行う(ステップS211)。この場合、上記のステップS204以降の処理を繰り返し行う。 After that, the display control unit 31 hides the target object M1 (step S209). The calculation unit 35 determines whether or not the specified number of times the display position of the target object M1 has been changed has ended (step S210), and if it is determined that the number of times the display position of the target object M1 has not been changed (No in step S210), n= Detection is performed for n+1, that is, the next target object (step S211). In this case, the processes from step S204 onwards are repeated.

一方、ステップS210において表示位置の変更回数について規定回数が終了したと判定した場合(ステップS210のYes)、評価部36は、反応時間データに基づいて、運転者の反応速度を評価する(ステップS212)。 On the other hand, if it is determined in step S210 that the specified number of times the display position has been changed has ended (Yes in step S210), the evaluation unit 36 evaluates the driver's reaction speed based on the reaction time data (step S212). ).

上記実施形態では被験者の視覚による反応速度を評価する例を説明したが、この方法に限定されず異なる方法で反応速度を評価しても良い。例えば、評価用画像を表示する表示部をタッチパネルとし、対象物を被験者に指等でタッチさせることで反応速度を評価する方法でも良い。また、対象物の表示に対応させて足でボタンを押させることで反応速度を評価しても良い。 In the above embodiment, an example was explained in which the test subject's visual reaction speed was evaluated, but the method is not limited to this method, and the reaction speed may be evaluated using a different method. For example, a method may be used in which a touch panel is used as the display unit that displays the evaluation image, and the reaction speed is evaluated by having the subject touch the object with a finger or the like. Alternatively, the reaction speed may be evaluated by having the subject press a button with his/her foot in response to the display of the target object.

続いて、上記の評価装置100を用いることにより、運転者の追視能力及び位置予測能力を評価する評価データを評価する評価データを求める場合について説明する。図8は、表示部11に表示する評価用画像の他の例を示す図である。図8では、対象物M3の移動の経過を一図で示している。図8に示すように、表示制御部31は、被験者に注視させる対象物M3を表示部11に表示して所定の移動経路に沿って移動させる第1表示動作と、第1表示動作の途中で対象物M3を所定期間非表示とする非表示動作と、非表示動作の後、対象物M3が非表示動作において第1表示動作から連続して移動経路に沿って所定期間移動した場合の位置に対象物M3を再び表示して移動経路に沿って移動させる第2表示動作と、を行わせる。 Next, a case will be described in which evaluation data for evaluating the tracking ability and position prediction ability of the driver is obtained by using the evaluation device 100 described above. FIG. 8 is a diagram showing another example of the evaluation image displayed on the display unit 11. FIG. 8 shows the progress of movement of the object M3 in one diagram. As shown in FIG. 8, the display control unit 31 performs a first display operation in which the object M3 to be gazed at by the subject is displayed on the display unit 11 and moved along a predetermined movement route, and A non-display operation that hides the target object M3 for a predetermined period of time, and after the non-display operation, a position where the target object M3 moves for a predetermined period of time continuously from the first display operation in the non-display operation. A second display operation of displaying the object M3 again and moving it along the movement route is performed.

表示制御部31は、例えば対象物M3として例えば円形の対象物を表示する。なお、対象物M3は、例えば円形であるが、これに限定されず、多角形、楕円形等、他の形状であってもよい。また、対象物M3は、幾何学形状に限定されず、動物、人物、物品等の画像であってもよい。 The display control unit 31 displays, for example, a circular object as the object M3. Note that the object M3 is, for example, circular, but is not limited to this, and may have other shapes such as a polygon or an ellipse. Further, the object M3 is not limited to a geometric shape, and may be an image of an animal, a person, an article, or the like.

表示制御部31は、第1表示動作において、所定の移動経路として円状の移動経路R3に沿って対象物M3を移動させる。表示制御部31は、対象物M3を例えば等速で移動させる。なお、表示制御部31は、対象物M3を等速で移動させることに限定されず、所定の加速度で加速又は減速させてもよい。第1表示動作では、被験者が対象物M3に追従して注視点を移動させることが可能か否かを判別することができる。 In the first display operation, the display control unit 31 moves the object M3 along a circular movement route R3 as a predetermined movement route. The display control unit 31 moves the target object M3, for example, at a constant speed. Note that the display control unit 31 is not limited to moving the target object M3 at a constant speed, but may accelerate or decelerate it at a predetermined acceleration. In the first display operation, it can be determined whether or not the subject can move the point of gaze to follow the object M3.

また、第1表示動作において、領域設定部33は、移動経路R3を移動する対象物M3に対応した判定領域A3を表示部11に設定する。領域設定部33は、対象物M3の少なくとも一部を含む領域に判定領域A3を設定することができる。本実施形態において、領域設定部33は、対象物M3の全部を囲う円形の領域として判定領域A3を設定しているが、これに限定されない。領域設定部33は、多角形、楕円形等、他の形状の判定領域を設定してもよいし、対象物M3の一部に判定領域を設定してもよい。領域設定部33は、対象物M3が移動経路R3に沿って移動する場合、当該対象物M3に追従するように判定領域A3を移動させる。これにより、対象物M3と判定領域A3との相対的な位置関係が一定に保持される。 Further, in the first display operation, the area setting section 33 sets a determination area A3 corresponding to the object M3 moving on the movement route R3 on the display section 11. The area setting unit 33 can set the determination area A3 in an area that includes at least a portion of the target object M3. In the present embodiment, the area setting unit 33 sets the determination area A3 as a circular area surrounding the entire object M3, but the invention is not limited to this. The region setting unit 33 may set the determination region in another shape such as a polygon or an ellipse, or may set the determination region in a part of the object M3. When the target object M3 moves along the movement route R3, the area setting unit 33 moves the determination area A3 to follow the target object M3. Thereby, the relative positional relationship between the target object M3 and the determination area A3 is maintained constant.

表示制御部31は、非表示動作において、移動経路R3を移動する対象物M3を任意のタイミングで非表示とすることができる。なお、表示制御部31は、対象物M3を非表示とするタイミングを予め設定しておいてもよい。非表示動作を行うことにより、移動経路R3上の位置R3aにおいて対象物M3が表示部11から消えた状態となる。 In the non-display operation, the display control unit 31 can hide the object M3 moving on the movement route R3 at any timing. Note that the display control unit 31 may previously set the timing at which the target object M3 is hidden. By performing the non-display operation, the object M3 disappears from the display section 11 at the position R3a on the moving route R3.

また、非表示動作において、領域設定部33は、第1表示動作から引き続き移動経路R3に沿って移動すると仮定した場合の対象物M3の仮想位置R3bに判定領域A3を設定することができる。つまり、領域設定部33は、対象物M3が表示部11に非表示の状態である場合も、当該対象物M3が移動する移動経路R3に沿って判定領域A3を移動し続けた状態とする。非表示動作では、被験者が対象物M3の移動経路を予測して注視点を移動させることができるか否かを判別することができる。 Further, in the non-display operation, the area setting unit 33 can set the determination area A3 at the virtual position R3b of the object M3 assuming that the object M3 continues to move along the movement route R3 from the first display operation. That is, even when the target object M3 is not displayed on the display unit 11, the area setting unit 33 continues to move the determination area A3 along the moving route R3 along which the target object M3 moves. In the non-display operation, it is possible to determine whether or not the subject can predict the movement path of the object M3 and move the gaze point.

表示制御部31は、第2表示動作において、対象物M3を再度表示する。表示制御部31は、対象物M3を再表示する表示位置R3cを以下のように設定する。つまり、表示制御部31は、対象物M3が非表示動作において第1表示動作から連続して移動経路R3に従って所定期間移動した場合の仮想位置を算出する。本実施形態において、第1表示動作では、対象物M3の移動経路R3の半径が所定値の円周であり、対象物M3が等速で所定期間移動している。表示制御部31は、これらの条件に基づいて、上記仮想位置を算出する。その後、対象物M3を上記の仮想位置R3cに表示させる。 The display control unit 31 displays the target object M3 again in the second display operation. The display control unit 31 sets the display position R3c at which the target object M3 is to be redisplayed as follows. That is, the display control unit 31 calculates the virtual position when the target object M3 moves for a predetermined period of time following the movement route R3 continuously from the first display operation in the non-display operation. In the present embodiment, in the first display operation, the radius of the movement path R3 of the object M3 is a circumference of a predetermined value, and the object M3 is moving at a constant speed for a predetermined period of time. The display control unit 31 calculates the virtual position based on these conditions. Thereafter, the object M3 is displayed at the virtual position R3c.

また、第2表示動作において、領域設定部33は、第1表示動作と同様、移動経路R3を移動する対象物M3に対応した判定領域A3を表示部11に設定する。領域設定部33は、対象物M3が移動経路R3に沿って移動する場合、当該対象物M3に追従するように判定領域A3を移動させる。これにより、対象物M3と判定領域A3との相対的な位置関係が一定に保持される。 Furthermore, in the second display operation, the area setting unit 33 sets a determination area A3 corresponding to the object M3 moving on the movement route R3 on the display unit 11, as in the first display operation. When the target object M3 moves along the movement route R3, the area setting unit 33 moves the determination area A3 to follow the target object M3. Thereby, the relative positional relationship between the target object M3 and the determination area A3 is maintained constant.

なお、対象物の移動経路については、円形の移動経路R3に限定されない。図9は、表示部11に表示する評価用画像の他の例を示す図である。図9に示すように、所定の移動経路として、対象物M4が直線状の移動経路R4に沿って等速で移動し、表示部11の外枠に到達した場合には、当該外枠で反発して方向転換するように移動する移動経路R4とすることができる。 Note that the moving route of the object is not limited to the circular moving route R3. FIG. 9 is a diagram showing another example of the evaluation image displayed on the display unit 11. As shown in FIG. 9, when the target object M4 moves at a constant speed along a linear movement path R4 as a predetermined movement path and reaches the outer frame of the display unit 11, it is repulsed by the outer frame. The moving route R4 can be set as a moving route R4 in which the user moves so as to change direction.

この場合、表示制御部31は、被験者に注視させる対象物M4を表示部11に表示して移動経路R4に沿って移動させる第1表示動作と、第1表示動作の途中(経路R4a:図9に破線で表示)で対象物M4を所定期間非表示とする非表示動作と、非表示動作の後、対象物M4が非表示動作において第1表示動作から連続して移動経路に沿って所定期間移動した場合の位置R4bに対象物M4を再び表示して移動経路に沿って移動させる第2表示動作と、を行わせることができる。 In this case, the display control unit 31 performs a first display operation in which the subject M4 is displayed on the display unit 11 and is moved along the movement route R4, and an intermediate display operation (route R4a: FIG. (indicated by a broken line), the object M4 is hidden for a predetermined period of time, and after the non-display operation, the object M4 is continuously moved along the movement route from the first display operation in the non-display operation for a predetermined period of time. A second display operation of displaying the object M4 again at the position R4b where it was moved and moving it along the movement route can be performed.

第1表示動作及び第2表示動作において、領域設定部33は、移動経路R4を移動する対象物M4に対応した判定領域A4を表示部11に設定する。領域設定部33は、対象物M4が移動経路R4に沿って移動する場合、当該対象物M4に追従するように判定領域A4を移動させる。これにより、対象物M4と判定領域A4との相対的な位置関係が一定に保持される。また、非表示動作において、領域設定部33は、第1表示動作から引き続き移動経路R4に沿って移動すると仮定した場合の対象物M4の仮想位置R4cに判定領域A4を設定することができる。 In the first display operation and the second display operation, the area setting unit 33 sets a determination area A4 on the display unit 11 corresponding to the object M4 moving on the movement route R4. When the target object M4 moves along the movement route R4, the area setting unit 33 moves the determination area A4 to follow the target object M4. Thereby, the relative positional relationship between the target object M4 and the determination area A4 is maintained constant. Furthermore, in the non-display operation, the area setting unit 33 can set the determination area A4 at the virtual position R4c of the object M4 assuming that the object M4 continues to move along the movement route R4 from the first display operation.

注視点検出部32は、評価用画像が表示される期間において、規定のサンプリング周期(例えば20[msec])毎に、被験者の注視点の位置を検出する。被験者の注視点の位置が検出された場合、判定部34は、被験者の注視点が判定領域A3、A4に存在するかをそれぞれ判定し、判定データを出力する。したがって、判定部34は、注視点検出部32で注視点の位置がサンプリングされる毎に、上記のサンプリング周期と同一の判定周期毎に判定データを出力する。 The gaze point detection unit 32 detects the position of the subject's gaze point at every prescribed sampling period (for example, 20 [msec]) during the period in which the evaluation image is displayed. When the position of the subject's gaze point is detected, the determining unit 34 determines whether the subject's gaze point exists in the determination areas A3 and A4, and outputs determination data. Therefore, the determination unit 34 outputs determination data every time the position of the gaze point is sampled by the gaze point detection unit 32, and at the same determination cycle as the sampling cycle described above.

演算部35は、判定データに基づいて、判定領域A3、A4が設定される期間において注視点が判定領域A3、A4内に存在する場合の注視点データを算出する。演算部35は、注視点データとして、例えば存在時間データを算出する。 Based on the determination data, the calculation unit 35 calculates point-of-gaze data when the point of gaze exists within the determination areas A3, A4 during the period in which the determination areas A3, A4 are set. The calculation unit 35 calculates, for example, existence time data as the gaze point data.

存在時間データは、注視点が判定領域A3、A4に存在した存在時間を示す。本実施形態では、判定部34により注視点が判定領域A3、A4に存在すると判定された回数が多いほど、判定領域A3、A4に注視点が存在した存在時間が長いと推定することができる。したがって、存在時間データは、判定領域A3、A4に注視点が存在すると判定部34に判定された回数とすることができる。つまり、演算部35は、カウンタにおけるカウント値CNTA3、CNTA4を存在時間データとすることができる。なお、カウント値CNTA3は、注視点が判定領域A3に存在すると判定された回数である。また、カウント値CNTA4は、注視点が判定領域A4に存在すると判定された回数である。 The existence time data indicates the existence time that the gaze point existed in the determination areas A3 and A4. In this embodiment, it can be estimated that the more times the determination unit 34 determines that the gaze point exists in the determination areas A3 and A4, the longer the existence time that the gaze point existed in the determination areas A3 and A4. Therefore, the presence time data can be the number of times the determination unit 34 has determined that the gaze point exists in the determination areas A3 and A4. That is, the calculation unit 35 can use the count values CNTA3 and CNTA4 in the counter as existence time data. Note that the count value CNTA3 is the number of times it has been determined that the gaze point exists in the determination area A3. Further, the count value CNTA4 is the number of times it has been determined that the gaze point exists in the determination area A4.

評価部36は、存在時間データに基づいて評価値を求め、評価値に基づいて評価データを求める。評価部36は、存在時間データに基づいて、被験者が対象物M3を注視したか否かを判断し、判断結果に基づいて運転者の追視能力及び位置予測能力を評価することができる。例えば、評価部36は、存在時間データにおける存在時間が所定時間以上である場合に、被験者が対象物M3の追視及び位置予測を十分に行えたと判断する。また、評価部36は、存在時間データにおける存在時間が所定時間未満である場合に、被験者が対象物M3の追視及び位置予測が十分に行えなかったと判断する。評価部36は、例えば対象物M3の追視及び位置予測を十分に行えたと判断される場合、運転者の追視能力及び位置予測能力が高いと評価することができる。また、評価部36は、例えば被験者が対象物M3の追視及び位置予測が十分に行えなかったと判断される場合、運転者の追視能力及び位置予測能力が高くないと評価することができる。評価部36は、このような2段階の評価に限定されず、例えば被験者が対象物M3を注視したと判断される回数の閾値を多段階に設定するなど、多段階で運転者の追視能力及び位置予測能力を評価してもよい。 The evaluation unit 36 obtains an evaluation value based on the existence time data, and obtains evaluation data based on the evaluation value. The evaluation unit 36 can determine whether the subject has gazed at the object M3 based on the existence time data, and can evaluate the driver's tracking ability and position prediction ability based on the determination result. For example, the evaluation unit 36 determines that the subject was able to sufficiently track and predict the position of the target object M3 when the existence time in the existence time data is equal to or longer than a predetermined time. Furthermore, the evaluation unit 36 determines that the subject was unable to sufficiently track and predict the position of the target object M3 when the existence time in the existence time data is less than a predetermined time. For example, when it is determined that the tracking ability and position prediction ability of the target object M3 have been sufficiently performed, the evaluation unit 36 can evaluate that the driver's tracking ability and position prediction ability are high. Further, for example, when it is determined that the subject was unable to sufficiently track and predict the position of the object M3, the evaluation unit 36 can evaluate that the driver's tracking ability and position prediction ability are not high. The evaluation unit 36 is not limited to such a two-stage evaluation, but evaluates the driver's tracking ability in multiple stages, for example, by setting a multi-stage threshold for the number of times it is determined that the subject has gazed at the object M3. and position prediction ability may be evaluated.

次に、運転者の追視能力及び位置予測能力を評価する評価データを得るための評価方法の一例について、図10を参照しながら説明する。図10に示すように、まず注視点検出部32は、注視点の検出を開始する(ステップS301)。また、演算部35は、経過時間を検出するタイマ1をリセットする(ステップS302)。演算部35は、n=1、つまり1回目の動作について評価を開始する(ステップS303)。 Next, an example of an evaluation method for obtaining evaluation data for evaluating the driver's tracking ability and position prediction ability will be described with reference to FIG. 10. As shown in FIG. 10, first, the gaze point detection unit 32 starts detecting a gaze point (step S301). Furthermore, the calculation unit 35 resets the timer 1 that detects the elapsed time (step S302). The calculation unit 35 starts evaluating n=1, that is, the first operation (step S303).

表示制御部31は、表示部11に評価用画像を表示する。表示制御部31は、表示部11に対象物M3を表示し、対象物M3を移動経路R3に沿って移動する第1表示動作を行う(ステップS304)。ステップS304において、領域設定部33は、対象物M3に追従するように判定領域A3を移動させる。また、表示制御部31は、対象物M3を所定期間非表示とする非表示動作を行う(ステップS305)。ステップS305において、領域設定部33は、第1表示動作から引き続き移動経路R3に沿って移動すると仮定した場合の対象物M3の仮想位置に判定領域A3を設定する。非表示動作の後、表示制御部31は、対象物M3が非表示動作において第1表示動作から連続して移動経路に沿って所定期間移動した場合の位置に対象物M3を再び表示して移動経路に沿って移動させる第2表示動作を行う(ステップS306)。ステップS306において、領域設定部33は、対象物M3に追従するように判定領域A3を移動させる。ステップS304からステップS306を行う間、判定部34は、注視点が判定領域A3内に存在するか否かを判定する。演算部35は、判定結果に基づいて存在時間データを算出する。 The display control unit 31 displays the evaluation image on the display unit 11. The display control unit 31 performs a first display operation of displaying the target object M3 on the display unit 11 and moving the target object M3 along the movement route R3 (step S304). In step S304, the area setting unit 33 moves the determination area A3 to follow the target object M3. Further, the display control unit 31 performs a non-display operation to hide the target object M3 for a predetermined period of time (step S305). In step S305, the area setting unit 33 sets the determination area A3 at the virtual position of the object M3 assuming that the object M3 continues to move along the movement route R3 after the first display operation. After the non-display operation, the display control unit 31 displays and moves the target object M3 again at the position when the target object M3 continuously moves for a predetermined period along the movement route from the first display operation in the non-display operation. A second display operation of moving along the route is performed (step S306). In step S306, the area setting unit 33 moves the determination area A3 to follow the target object M3. While performing steps S304 to S306, the determination unit 34 determines whether the gaze point exists within the determination area A3. The calculation unit 35 calculates existence time data based on the determination result.

演算部35は、ステップS304からステップS306の動作を規定回数行ったか否かを判定し(ステップS307)、行っていないと判定した場合(ステップS307のNo)には、n=n+1、つまり第1表示動作、非表示動作及び第2表示動作を再度行う(ステップS308)。この場合、ステップS304以降の処理を繰り返し行う。一方、ステップS307においてステップS304からステップS306の動作を規定回数行ったと判定した場合(ステップS307のYes)、評価部36は、存在時間データに基づいて、運転者の追視能力及び位置予測能力を評価する(ステップS309)。 The calculation unit 35 determines whether or not the operations from step S304 to step S306 have been performed a specified number of times (step S307), and when it is determined that the operations have not been performed (No in step S307), n=n+1, that is, the first The display operation, non-display operation, and second display operation are performed again (step S308). In this case, the processing from step S304 onwards is repeated. On the other hand, if it is determined in step S307 that the operations from step S304 to step S306 have been performed a specified number of times (Yes in step S307), the evaluation unit 36 evaluates the driver's tracking ability and position prediction ability based on the presence time data. Evaluate (step S309).

以上のように、本実施形態に係る運転支援装置1は、車両を運転する運転者を識別する運転者識別部2と、運転者の反応速度を評価する評価データを取得する評価データ取得部5と、車両の周辺の状況を示す周辺情報データに基づいて、車両運転時にイベントが発生したか否かを検出するイベント検出部6と、イベントが検出された場合、運転者の評価データに基づいて出力部9から報知情報を出力するか否かを判定し、報知情報を出力すると判定した場合、出力部9に報知情報を出力させる処理部7とを備える。 As described above, the driving support device 1 according to the present embodiment includes the driver identification unit 2 that identifies the driver who drives the vehicle, and the evaluation data acquisition unit 5 that acquires evaluation data for evaluating the reaction speed of the driver. an event detection unit 6 that detects whether an event has occurred while driving the vehicle based on surrounding information data indicating the surrounding situation of the vehicle; The processing unit 7 determines whether or not to output notification information from the output unit 9 and causes the output unit 9 to output the notification information when it is determined to output the notification information.

本実施形態に係る運転支援方法は、車両を運転する運転者を識別することと、運転者の反応速度を評価する評価データを取得することと、車両の周辺の状況を示す周辺情報データに基づいて、車両運転時にイベントが発生したか否かを検出することと、イベントが検出された場合、運転者の評価データに基づいて出力部9から報知情報を出力するか否かを判定し、報知情報を出力すると判定した場合、出力部9に報知情報を出力させることとを含む。 The driving support method according to the present embodiment is based on identifying the driver who drives the vehicle, acquiring evaluation data for evaluating the reaction speed of the driver, and surrounding information data indicating the situation around the vehicle. Detecting whether or not an event has occurred while driving the vehicle; and if an event is detected, determining whether or not to output notification information from the output unit 9 based on the driver's evaluation data; If it is determined that the information should be output, this includes causing the output unit 9 to output the notification information.

本実施形態に係る運転支援プログラムは、車両を運転する運転者を識別する処理と、運転者の反応速度を評価する評価データを取得する処理と、車両の周辺の状況を示す周辺情報データに基づいて、車両運転時にイベントが発生したか否かを検出する処理と、イベントが検出された場合、運転者の評価データに基づいて出力部9から報知情報を出力するか否かを判定し、報知情報を出力すると判定した場合、出力部9に報知情報を出力させる処理とをコンピュータに実行させる。 The driving support program according to the present embodiment includes a process for identifying a driver who drives a vehicle, a process for acquiring evaluation data for evaluating the driver's reaction speed, and a process based on peripheral information data indicating the situation around the vehicle. The process detects whether or not an event has occurred while driving the vehicle, and when an event is detected, it is determined whether or not to output notification information from the output unit 9 based on the driver's evaluation data, and the notification is performed. If it is determined that the information should be output, the computer is caused to execute a process of causing the output unit 9 to output the notification information.

本実施形態によれば、車両運転時にイベントが発生した場合に、当該イベントに対する運転者の反応速度を評価した評価データに基づいて、運転者に対して報知情報を出力するか否かを判定するため、イベントが発生する度に報知情報を出力することを抑制し、運転者の反応速度に応じた運転支援が可能となる。 According to the present embodiment, when an event occurs while driving a vehicle, it is determined whether or not to output notification information to the driver based on evaluation data that evaluates the driver's reaction speed to the event. Therefore, it is possible to suppress the output of notification information every time an event occurs, and to provide driving support according to the driver's reaction speed.

本実施形態に係る運転支援装置1において、評価データは、視覚により反応速度を評価したものである。この構成では、運転者の視覚による反応速度に応じた運転支援が可能となる。 In the driving support device 1 according to the present embodiment, the evaluation data is visually evaluated reaction speed. With this configuration, it is possible to provide driving support according to the driver's visual reaction speed.

本実施形態に係る運転支援装置1は、取得される評価データを記憶する記憶部8を更に備え、処理部7は、記憶部8に記憶される評価データを用いて判定を行う。この構成では、処理部7における処理を効率的かつ迅速に行うことができる。 The driving support device 1 according to the present embodiment further includes a storage unit 8 that stores acquired evaluation data, and the processing unit 7 makes a determination using the evaluation data stored in the storage unit 8. With this configuration, processing in the processing section 7 can be performed efficiently and quickly.

本実施形態に係る運転支援装置1において、処理部7は、イベントが検出されてから報知情報を出力するまでの時間を評価データに基づいて調整する。これにより、運転者の反応速度に応じて当該時間を調整することができるため、運転者の反応速度に応じた運転支援が可能となる。 In the driving support device 1 according to the present embodiment, the processing unit 7 adjusts the time from when an event is detected until the notification information is output based on evaluation data. Thereby, the time can be adjusted according to the driver's reaction speed, so driving support can be provided according to the driver's reaction speed.

本実施形態に係る運転支援装置1は、運転者の視線を含む運転者データを取得する運転者データ取得部4を更に備え、処理部7は、運転者データを用いてイベントに対する運転者の反応速度を算出し、算出結果と評価データとの比較に基づいて判定及び報知情報の出力の調整を行う。これにより、運転者の運転時の状態に応じた判定及び報知情報を出力することができる。 The driving support device 1 according to the present embodiment further includes a driver data acquisition unit 4 that acquires driver data including the driver's line of sight, and a processing unit 7 that uses the driver data to determine the driver's reaction to an event. The speed is calculated, and the judgment and output of notification information are adjusted based on the comparison between the calculation result and the evaluation data. Thereby, it is possible to output determination and notification information according to the driving state of the driver.

本実施形態に係る運転支援装置1は、車両の走行状況を示す走行状況データを取得する走行状況取得部3を更に備え、処理部7は、評価データ及び走行状況データに基づいて判定を行う。この構成では、走行状況データから取得される車両の走行状況に応じた運転支援が可能となる。 The driving support device 1 according to the present embodiment further includes a driving situation acquisition unit 3 that acquires driving situation data indicating the driving situation of the vehicle, and the processing unit 7 makes a determination based on the evaluation data and the driving situation data. With this configuration, it is possible to provide driving assistance in accordance with the driving situation of the vehicle acquired from the driving situation data.

本実施形態に係る評価装置100は、表示部11と、表示部11上における被験者の注視点の位置を検出する注視点検出部32と、被験者に注視させる対象物を表示部11に表示し、表示部11における対象物の表示位置を所定時間毎に変更する表示制御部31と、対象物に対応した判定領域を表示部11に設定する領域設定部33と、注視点の位置データに基づいて、注視点が判定領域に存在するか否かの判定を行う判定部34と、判定部34の判定結果に基づいて、注視点データを算出する演算部35と、注視点データに基づいて、被験者の評価データを求める評価部36とを備える。これにより、運転者の反応速度についての評価データを高精度に取得することができる。 The evaluation device 100 according to the present embodiment includes a display unit 11, a gaze point detection unit 32 that detects the position of the subject's gaze point on the display unit 11, and displays an object to be gazed at by the subject on the display unit 11, A display control unit 31 that changes the display position of the object on the display unit 11 at predetermined time intervals, an area setting unit 33 that sets a determination area corresponding to the object on the display unit 11, and a , a determination unit 34 that determines whether or not the gaze point exists in the determination area; a calculation unit 35 that calculates gaze point data based on the determination result of the determination unit 34; and an evaluation section 36 that obtains evaluation data. Thereby, evaluation data regarding the driver's reaction speed can be acquired with high accuracy.

また、本実施形態に係る運転支援装置1は、車両を運転する運転者を識別する運転者識別部2と、運転者の追視能力及び位置予測能力を評価する評価データを取得する評価データ取得部5と、車両の周辺の状況を示す周辺情報データに基づいて、車両運転時にイベントが発生したか否かを検出するイベント検出部6と、イベントが検出された場合、運転者の評価データに基づいて出力部9から報知情報を出力するか否かを判定し、報知情報を出力すると判定した場合、出力部9に報知情報を出力させる処理部7とを備える。 The driving support device 1 according to the present embodiment also includes a driver identification unit 2 that identifies a driver who drives a vehicle, and an evaluation data acquisition unit that acquires evaluation data that evaluates the tracking ability and position prediction ability of the driver. 5, an event detection section 6 that detects whether an event has occurred while driving the vehicle based on peripheral information data indicating the surrounding situation of the vehicle; It is provided with a processing section 7 that determines whether or not to output notification information from the output section 9 based on the information, and causes the output section 9 to output the notification information when it is determined to output the notification information.

本実施形態に係る運転支援方法は、車両を運転する運転者を識別することと、運転者の追視能力及び位置予測能力を評価する評価データを取得することと、車両の周辺の状況を示す周辺情報データに基づいて、車両運転時にイベントが発生したか否かを検出することと、イベントが検出された場合、運転者の評価データに基づいて出力部9から報知情報を出力するか否かを判定し、報知情報を出力すると判定した場合、出力部9に報知情報を出力させることとを含む。 The driving support method according to the present embodiment includes identifying the driver driving the vehicle, acquiring evaluation data for evaluating the driver's tracking ability and position prediction ability, and indicating the surrounding situation of the vehicle. Detecting whether an event has occurred during vehicle operation based on surrounding information data, and determining whether to output notification information from the output unit 9 based on driver evaluation data when an event is detected. If it is determined that the notification information should be output, the output section 9 may output the notification information.

本実施形態に係る運転支援プログラムは、車両を運転する運転者を識別する処理と、運転者の追視能力及び位置予測能力を評価する評価データを取得する処理と、車両の周辺の状況を示す周辺情報データに基づいて、車両運転時にイベントが発生したか否かを検出する処理と、イベントが検出された場合、運転者の評価データに基づいて出力部9から報知情報を出力するか否かを判定し、報知情報を出力すると判定した場合、出力部9に報知情報を出力させる処理とをコンピュータに実行させる。 The driving support program according to the present embodiment includes a process for identifying a driver who drives a vehicle, a process for acquiring evaluation data for evaluating the driver's tracking ability and position prediction ability, and a process for indicating the surrounding situation of the vehicle. A process for detecting whether an event has occurred during vehicle operation based on surrounding information data, and whether to output notification information from the output unit 9 based on driver evaluation data when an event is detected. If it is determined that the notification information should be outputted, the computer is caused to execute a process of causing the output unit 9 to output the notification information.

本実施形態によれば、車両運転時にイベントが発生した場合に、当該イベントに対する運転者の追視能力及び位置予測能力を評価する評価データに基づいて、運転者に対して報知情報を出力するか否かを判定するため、イベントが発生する度に報知情報を出力することを抑制し、運転者の追視能力及び位置予測能力を評価するに応じた運転支援が可能となる。 According to the present embodiment, when an event occurs while driving a vehicle, notification information is output to the driver based on evaluation data that evaluates the driver's tracking ability and position prediction ability for the event. In order to determine whether or not the event occurs, it is possible to suppress the output of notification information every time an event occurs, and to provide driving support according to the evaluation of the driver's tracking ability and position prediction ability.

本実施形態に係る評価装置100は、表示部11と、表示部11上における被験者の注視点の位置を検出する注視点検出部32と、被験者に注視させる対象物を表示部11に表示して所定の移動経路に沿って移動させる第1表示動作と、第1表示動作の途中で対象物を所定期間非表示とする非表示動作と、非表示動作の後、対象物が非表示動作において第1表示動作から連続して移動経路に沿って所定期間移動した場合の位置に対象物を再び表示して移動経路に沿って移動させる第2表示動作と、を行わせる表示制御部31と、移動経路を移動する対象物に対応した判定領域を表示部11に設定する領域設定部33と、注視点の位置データに基づいて、注視点が判定領域に存在するか否かの判定を行う判定部34と、判定部34の判定結果に基づいて、注視点データを算出する演算部35と、注視点データに基づいて、被験者の評価データを求める評価部36とを備える。これにより、運転者の追視能力及び位置予測能力についての評価データを高精度に取得することができる。 The evaluation device 100 according to the present embodiment includes a display unit 11, a gaze point detection unit 32 that detects the position of the subject's gaze point on the display unit 11, and a display unit 11 that displays an object to be gazed at by the subject. A first display operation in which the object is moved along a predetermined movement route, a non-display operation in which the object is hidden for a predetermined period in the middle of the first display operation, and a first display operation in which the object is hidden in the non-display operation after the non-display operation. a display control unit 31 that performs a second display operation of displaying the object again at the position where the object was moved for a predetermined period of time along the movement route after the first display operation and moving the object along the movement route; An area setting unit 33 that sets a determination area corresponding to an object moving along a route on the display unit 11; and a determination unit that determines whether or not the gaze point exists in the determination area based on the position data of the gaze point. 34, an arithmetic unit 35 that calculates gaze point data based on the determination result of the determination unit 34, and an evaluation unit 36 that calculates evaluation data of the subject based on the gaze point data. Thereby, evaluation data regarding the driver's tracking ability and position prediction ability can be acquired with high accuracy.

本発明の技術範囲は上記実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。 The technical scope of the present invention is not limited to the above embodiments, and changes can be made as appropriate without departing from the spirit of the present invention.

A1,A2,A3,A4…判定領域、M1,M3,M4…対象物、P1,P2,R4b…位置、R3,R4…移動経路、R3b,R3c,R4c…仮想位置、1…運転支援装置、2…運転者識別部、3…走行状況取得部、4…運転者データ取得部、5…評価データ取得部、6…イベント検出部、7…処理部、8,38…記憶部、9…出力部、9a…音声出力装置、9b,10…表示装置、9c…振動発生装置、11…表示部、20…画像取得装置、21…撮影装置、21A…第1カメラ、21B…第2カメラ、22…照明装置、22A…第1光源、22B…第2光源、30…コンピュータシステム、30A…演算処理装置、30B…記憶装置、30C…コンピュータプログラム、31…表示制御部、32…注視点検出部,視線検出部、33…領域設定部、34…判定部、35…演算部、36…評価部、37…入出力制御部、40…出力装置、50…入力装置、60…入出力インターフェース装置、100…評価装置
A1, A2, A3, A4...judgment area, M1, M3, M4...object, P1, P2, R4b...position, R3, R4...movement route, R3b, R3c, R4c...virtual position, 1...driving support device, 2... Driver identification section, 3... Driving situation acquisition section, 4... Driver data acquisition section, 5... Evaluation data acquisition section, 6... Event detection section, 7... Processing section, 8, 38... Storage section, 9... Output Part, 9a...Audio output device, 9b, 10...Display device, 9c...Vibration generator, 11...Display unit, 20...Image acquisition device, 21...Photographing device, 21A...First camera, 21B...Second camera, 22 ...Illuminating device, 22A...First light source, 22B...Second light source, 30...Computer system, 30A...Arithmetic processing unit, 30B...Storage device, 30C...Computer program, 31...Display control unit, 32...Point of gaze detection unit, Line of sight detection unit, 33... Area setting unit, 34... Judgment unit, 35... Calculation unit, 36... Evaluation unit, 37... Input/output control unit, 40... Output device, 50... Input device, 60... Input/output interface device, 100 …Evaluation device

Claims (5)

表示部と、
前記表示部上における被験者の注視点の位置を検出する注視点検出部と、
被験者に注視させる対象物を前記表示部に表示して所定の移動経路に沿って移動させる第1表示動作と、前記第1表示動作の途中で前記対象物を所定期間非表示とする非表示動作と、前記非表示動作の後、前記対象物が前記非表示動作において前記第1表示動作から連続して前記移動経路に沿って前記所定期間移動した場合の位置に前記対象物を再び表示して前記移動経路に沿って移動させる第2表示動作と、を行わせる表示制御部と、
前記移動経路を移動する前記対象物に対応した判定領域を前記表示部に設定する領域設定部と、
前記注視点の位置データに基づいて、前記注視点が前記判定領域に存在するか否かの判定を行う判定部と、
前記判定部の判定結果に基づいて、注視点データを算出する演算部と、
前記注視点データに基づいて、前記被験者の評価データを求める評価部と
を備える評価装置。
A display section;
a gaze point detection unit that detects the position of the subject's gaze point on the display unit;
a first display operation in which an object to be gazed at by the subject is displayed on the display section and moved along a predetermined movement route; and a non-display operation in which the object is hidden for a predetermined period in the middle of the first display operation. and, after the non-displaying operation, displaying the object again at the position where the object was moved for the predetermined period of time along the movement path continuously from the first displaying operation in the non-displaying operation. a display control unit that performs a second display operation of moving the display along the movement route;
an area setting unit that sets a determination area on the display unit that corresponds to the object moving along the movement route;
a determination unit that determines whether or not the gaze point exists in the determination area based on position data of the gaze point;
a calculation unit that calculates gaze point data based on the determination result of the determination unit;
An evaluation device comprising: an evaluation unit that obtains evaluation data of the subject based on the gaze point data.
前記表示制御部は、前記対象物を円状の移動経路に沿って等速で移動させる、
請求項1に記載の評価装置。
The display control unit moves the object at a constant speed along a circular movement path.
The evaluation device according to claim 1.
前記表示制御部は、前記対象物を直線状の移動経路に沿って等速で移動させ、前記対象物が前記表示部の外枠に到達した場合には、当該外枠で反発して方向転換するように移動させる、
請求項1に記載の評価装置。
The display control unit moves the target object at a constant speed along a linear movement path, and when the target object reaches an outer frame of the display unit, it repels at the outer frame and changes direction. move it so that
The evaluation device according to claim 1.
前記評価部は、前記対象物が表示される期間において、前記注視点が前記判定領域に存在する時間が所定時間以上である場合に、被験者の追視能力及び位置予測能力が高いと評価する、
請求項1から3のいずれか1項に記載の評価装置。
The evaluation unit evaluates that the subject's tracking ability and position prediction ability are high if the time period during which the target object is displayed, the point of gaze exists in the determination area for a predetermined time or more,
The evaluation device according to any one of claims 1 to 3.
被験者に注視させる対象物を表示部に表示して所定の移動経路に沿って移動させる第1表示動作と、前記第1表示動作の途中で前記対象物を所定期間非表示とする非表示動作と、前記非表示動作の後、前記対象物が前記非表示動作において前記第1表示動作から連続して前記移動経路に沿って前記所定期間移動した場合の位置に前記対象物を再び表示して前記移動経路に沿って移動させる第2表示動作と、
を行わせ、
前記移動経路を移動する前記対象物に対応した判定領域を前記表示部に設定し、
前記表示部上における被験者の注視点の位置を検出し、
前記注視点の位置データに基づいて、前記注視点が前記判定領域に存在するか否かを判定し、
前記判定結果に基づいて算出した注視点データに基づいて、前記被験者の評価データを求める
評価方法。
a first display operation in which an object to be gazed at by the subject is displayed on the display section and moved along a predetermined movement route; and a non-display operation in which the object is hidden for a predetermined period in the middle of the first display operation. , after the non-display operation, displaying the object again at a position where the object was moved for the predetermined period of time continuously from the first display operation in the non-display operation along the movement path; a second display operation of moving along the movement route;
let them do it;
setting a determination area corresponding to the object moving along the movement route on the display unit;
detecting the position of the subject's gaze point on the display section;
determining whether the point of interest exists in the determination area based on position data of the point of interest;
An evaluation method that obtains evaluation data of the subject based on gaze point data calculated based on the determination result.
JP2023116568A 2019-10-31 2023-07-18 Evaluation device, evaluation method Active JP7418683B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023116568A JP7418683B2 (en) 2019-10-31 2023-07-18 Evaluation device, evaluation method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019198124A JP7363377B2 (en) 2019-10-31 2019-10-31 Driving support device, driving support method, and driving support program
JP2023116568A JP7418683B2 (en) 2019-10-31 2023-07-18 Evaluation device, evaluation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019198124A Division JP7363377B2 (en) 2019-10-31 2019-10-31 Driving support device, driving support method, and driving support program

Publications (2)

Publication Number Publication Date
JP2023126511A JP2023126511A (en) 2023-09-07
JP7418683B2 true JP7418683B2 (en) 2024-01-22

Family

ID=75713187

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2019198124A Active JP7363377B2 (en) 2019-10-31 2019-10-31 Driving support device, driving support method, and driving support program
JP2023116568A Active JP7418683B2 (en) 2019-10-31 2023-07-18 Evaluation device, evaluation method

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019198124A Active JP7363377B2 (en) 2019-10-31 2019-10-31 Driving support device, driving support method, and driving support program

Country Status (1)

Country Link
JP (2) JP7363377B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018192195A (en) 2017-05-22 2018-12-06 株式会社Jvcケンウッド Evaluation device, evaluation method and evaluation program
JP2019150253A (en) 2018-03-01 2019-09-12 株式会社Jvcケンウッド Visual function detection device, visual function detection method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002127780A (en) * 2000-08-15 2002-05-08 Nissan Motor Co Ltd Vehicle alarm system
JP6229376B2 (en) * 2013-09-02 2017-11-15 トヨタ自動車株式会社 Vehicle driving situation determination device and vehicle driving situation determination method
JP6235425B2 (en) * 2014-07-07 2017-11-22 株式会社デンソーアイティーラボラトリ Safety confirmation determination device and driving support device
JP6349002B1 (en) * 2017-03-10 2018-06-27 みこらった株式会社 Mobile terminal, automobile and communication system
JP6631570B2 (en) * 2017-03-14 2020-01-15 オムロン株式会社 Operating state determining apparatus, operating state determining method, and program for determining operating state

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018192195A (en) 2017-05-22 2018-12-06 株式会社Jvcケンウッド Evaluation device, evaluation method and evaluation program
JP2019150253A (en) 2018-03-01 2019-09-12 株式会社Jvcケンウッド Visual function detection device, visual function detection method, and program

Also Published As

Publication number Publication date
JP2023126511A (en) 2023-09-07
JP2021071915A (en) 2021-05-06
JP7363377B2 (en) 2023-10-18

Similar Documents

Publication Publication Date Title
US20200216078A1 (en) Driver attentiveness detection system
CN110892351B (en) Vehicle control device and vehicle control method
JP7352566B2 (en) Information processing device, mobile device, method, and program
JP6655036B2 (en) VEHICLE DISPLAY SYSTEM AND VEHICLE DISPLAY SYSTEM CONTROL METHOD
US9639990B2 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
US20220203996A1 (en) Systems and methods to limit operating a mobile phone while driving
CN110914884A (en) Vehicle controller and vehicle control method
KR101276770B1 (en) Advanced driver assistance system for safety driving using driver adaptive irregular behavior detection
KR20200113202A (en) Information processing device, mobile device, and method, and program
US9969266B2 (en) Display control device, projection device, and non-transitory storage medium for vehicle speed limit notifications
JP2004259069A (en) Alarm system for outputting alarm signal depending on vehicle hazard level
US11847840B2 (en) Visual notification of distracted driving
Louie et al. Towards a driver monitoring system for estimating driver situational awareness
US20230347903A1 (en) Sensor-based in-vehicle dynamic driver gaze tracking
WO2021085371A1 (en) Driving assistance device, driving assistance method, and driving assistance program
JP7418683B2 (en) Evaluation device, evaluation method
JP7363378B2 (en) Driving support device, driving support method, and driving support program
JP2018097479A (en) Driving support apparatus, driving support method, driving support program, and driving support system
WO2021085414A1 (en) Driving assistance device, evaluation device, driving assistance method, and driving assistance program
JP2022077001A (en) System and method for limiting driver distraction
US11926259B1 (en) Alert modality selection for alerting a driver
JP7238193B2 (en) Vehicle control device and vehicle control method
WO2022224173A1 (en) Systems and methods for determining driver control over a vehicle
JP2018097485A (en) Driving support apparatus, driving support method, driving support program, and driving support system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231211

R150 Certificate of patent or registration of utility model

Ref document number: 7418683

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150