JP7298510B2 - state estimator - Google Patents

state estimator Download PDF

Info

Publication number
JP7298510B2
JP7298510B2 JP2020030011A JP2020030011A JP7298510B2 JP 7298510 B2 JP7298510 B2 JP 7298510B2 JP 2020030011 A JP2020030011 A JP 2020030011A JP 2020030011 A JP2020030011 A JP 2020030011A JP 7298510 B2 JP7298510 B2 JP 7298510B2
Authority
JP
Japan
Prior art keywords
state
vehicle
driver
visual field
saccade
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020030011A
Other languages
Japanese (ja)
Other versions
JP2021133755A (en
Inventor
亜希子 福井
耕二 岩瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2020030011A priority Critical patent/JP7298510B2/en
Publication of JP2021133755A publication Critical patent/JP2021133755A/en
Application granted granted Critical
Publication of JP7298510B2 publication Critical patent/JP7298510B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Eye Examination Apparatus (AREA)

Description

ここに開示する技術は、対象者の状態を推定する状態推定装置に関する。 The technology disclosed herein relates to a state estimation device that estimates the state of a subject.

特許文献1には、車両の運転者の異常を検出する車両制御装置が開示されている。この車両制御装置は、車両の運転者の体温を計測する体温計測部と、車両の走行状態が異常であるか否かを判定する走行状態判定部と、体温計測部の計測結果および走行状態判定部の判定結果に基づいて、車両を制御する車両制御部とを有する。 Japanese Unexamined Patent Application Publication No. 2002-200000 discloses a vehicle control device that detects an abnormality of a vehicle driver. This vehicle control device includes a body temperature measurement unit that measures the body temperature of the driver of the vehicle, a running state determination unit that determines whether the running state of the vehicle is abnormal, a measurement result of the body temperature measurement unit and the running state determination. and a vehicle control unit that controls the vehicle based on the determination result of the unit.

特開2019-73105号公報JP 2019-73105 A

しかしながら、特許文献1の装置では、発熱を伴わない異常状態を推定することができない。そのため、同名半盲などの視野の左右の片側が異常となる視野異常状態を推定することができない。 However, the device of Patent Document 1 cannot estimate an abnormal state that does not involve heat generation. Therefore, it is not possible to estimate a visual field abnormality such as homonymous hemianopia, in which one side of the visual field is abnormal.

ここに開示する技術は、かかる点に鑑みてなされたものであり、その目的とするところは、視野の左右の片側が異常となる視野異常状態を推定することにある。 The technology disclosed herein has been made in view of this point, and its purpose is to estimate a visual field abnormality state in which one of the left and right sides of the visual field is abnormal.

ここに開示する技術は、対象者の状態を推定する状態推定装置に関する。この状態推定装置は、前記対象者のサッケードを検出するサッケード検出部と、予め定められた推定期間内における前記対象者の右視野内のサッケードの振幅と左視野内のサッケードの振幅との差が予め定められた振幅差閾値以上であるという第1条件および前記推定期間内における前記対象者の右視野内のサッケードの頻度と左視野内のサッケードの頻度との差が予め定められた頻度差閾値以上であるという第2条件の両方が成立する場合に、前記対象者の状態が視野の左右の片側が異常となる視野異常状態であると推定する推定部とを備える。 The technology disclosed herein relates to a state estimation device that estimates the state of a subject. This state estimation device includes a saccade detection unit that detects a saccade of the subject, and a difference between the amplitude of the saccade in the subject's right visual field and the amplitude of the saccade in the left visual field within a predetermined estimation period. A first condition of being equal to or greater than a predetermined amplitude difference threshold, and a frequency difference threshold in which the difference between the frequency of saccades in the right visual field and the frequency of saccades in the left visual field of the subject within the estimation period is predetermined. and an estimating unit for estimating that the state of the subject is a visual field abnormal state in which one of the left and right sides of the visual field is abnormal when both of the above second conditions are satisfied.

本願発明者は、鋭意研究の結果、対象者の状態が視野異常状態になると、推定期間内における対象者の右視野内のサッケードの振幅と左視野内のサッケードの振幅との差が正常時よりも大きくなり、且つ、推定期間内における対象者の右視野内のサッケードの頻度と左視野内のサッケードの頻度との差が正常時よりも大きくなることを見出した。したがって、第1条件および第2条件の両方の成立に基づいて、視野の左右の片側が異常となる視野異常状態を推定することができる。 As a result of intensive research, the inventor of the present application found that when the subject's condition becomes a visual field abnormality, the difference between the amplitude of the saccades in the right visual field and the amplitude of the saccades in the left visual field of the subject within the estimation period is greater than that in the normal state. Also, the difference between the frequency of saccades in the subject's right visual field and the frequency of saccades in the left visual field during the estimation period is greater than in normal times. Therefore, based on the establishment of both the first condition and the second condition, it is possible to estimate a visual field abnormal state in which one of the left and right sides of the visual field is abnormal.

前記状態推定装置において、前記推定部は、前記第1条件および前記第2条件の少なくとも一方が成立せず、前記推定期間内における前記対象者の全視野内のサッケードの振幅が予め定められた振幅閾値以下であるという第3条件および前記推定期間内における前記対象者の全視野内のサッケードの頻度が予め定められた頻度閾値以下であるという第4条件の少なくとも一方が成立する場合に、前記対象者の状態が注意機能低下状態であると推定するように構成されてもよい。 In the state estimating device, the estimating unit determines that at least one of the first condition and the second condition is not satisfied and the amplitude of the saccade within the entire visual field of the subject within the estimation period is a predetermined amplitude When at least one of a third condition that the frequency of saccades in the entire field of view of the subject within the estimation period is less than or equal to a threshold and a fourth condition that the frequency is less than or equal to a predetermined frequency threshold, the subject It may be configured to estimate that the state of the person is in a state of reduced attention function.

本願発明者は、鋭意研究の結果、対象者の状態が注意低下状態になると、推定期間内における対象者の全視野内のサッケードの振幅および頻度の少なくとも一方が正常時よりも低くなることを見出した。したがって、第1条件および第2条件の成立の可否と、第3条件および第4条件の成立の可否とに基づいて、突発性異常状態と注意機能低下状態とを区別して推定することができる。 As a result of intensive research, the inventor of the present application found that when the subject is in a state of reduced attention, at least one of the amplitude and frequency of saccades in the entire visual field of the subject within the estimation period becomes lower than in normal times. rice field. Therefore, based on whether the first and second conditions are satisfied and whether the third and fourth conditions are satisfied, it is possible to distinguish between a sudden abnormal state and a state of reduced attention function.

前記状態推定装置は、前記対象者の状態が前記視野異常状態であると推定された場合に、前記視野異常状態に応じた第1動作を行い、前記対象者の状態が前記注意機能低下状態であると推定された場合に、前記注意機能低下状態に応じた第2動作を行う制御部を備えてもよい。 When the state of the subject is estimated to be the abnormal visual field state, the state estimating device performs a first action according to the abnormal visual field state, and the state of the subject is the reduced attention function state. A control unit may be provided that, when it is estimated that there is, performs a second action in accordance with the state of impaired attention function.

前記の構成では、推定部により推定された対象者の状態に応じた動作を適切に行うことができる。 With the above configuration, it is possible to appropriately perform an action according to the state of the subject estimated by the estimation unit.

前記状態推定装置において、前記対象者は、車両を運転する運転者であってもよい。前記第1動作は、前記車両が安全領域に退避するように前記車両の走行を制御する動作を含んでもよい。前記第2動作は、前記運転者に休憩をとることを促すための情報を出力する動作を含んでもよい。 In the state estimation device, the subject may be a driver of a vehicle. The first action may include an action of controlling travel of the vehicle so that the vehicle retreats to a safe area. The second action may include an action of outputting information prompting the driver to take a rest.

前記の構成では、運転者の状態が視野異常状態であると推定される場合に、車両を安全領域に停車させることができる。これにより、自車両(運転者が運転する車両)および自車両の周囲にいる他車両の安全を確保することができる。また、運転者の状態が注意機能低下状態であると推定される場合に、運転者に休憩をとることを促すことができる。これにより、運転者の状態を注意機能低下状態から正常状態に回復させることができ、車両の走行安全性を確保することができる。 With the above configuration, the vehicle can be stopped in the safe area when it is estimated that the driver's condition is an abnormal visual field condition. As a result, the safety of the own vehicle (the vehicle driven by the driver) and other vehicles around the own vehicle can be ensured. Further, when the driver's state is estimated to be in a state of reduced attention function, it is possible to prompt the driver to take a rest. As a result, the condition of the driver can be recovered from the attention function deterioration condition to the normal condition, and the running safety of the vehicle can be ensured.

前記状態推定装置において、前記対象者は、車両を運転する運転者であってもよい。前記振幅差閾値および前記頻度差閾値は、前記車両の走行シーンが予め定められた走行シーンであるときの前記サッケードの振幅および頻度に基づいて設定されてもよい。 In the state estimation device, the subject may be a driver of a vehicle. The amplitude difference threshold and the frequency difference threshold may be set based on the amplitude and frequency of the saccade when the driving scene of the vehicle is a predetermined driving scene.

前記の構成では、運転者の特性を考慮して振幅差閾値および頻度差閾値を適切に設定することができる。これにより、運転者の状態推定の精度を向上させることができる。 With the above configuration, the amplitude difference threshold and the frequency difference threshold can be appropriately set in consideration of the characteristics of the driver. As a result, it is possible to improve the accuracy of estimating the state of the driver.

ここに開示する技術によれば、視野の左右の片側が異常となる視野異常状態を推定することができる。 According to the technology disclosed herein, it is possible to estimate a visual field abnormality state in which one of the left and right sides of the visual field is abnormal.

実施形態1の車両制御システムの構成を例示するブロック図である。1 is a block diagram illustrating the configuration of a vehicle control system according to Embodiment 1; FIG. サッケードについて説明するためのグラフである。It is a graph for explaining a saccade. 視野について説明するための概略図である。FIG. 4 is a schematic diagram for explaining a field of view; 状態推定部の構成を例示するブロック図である。4 is a block diagram illustrating the configuration of a state estimation unit; FIG. サッケード検出処理について説明するためのグラフである。7 is a graph for explaining saccade detection processing; サッケード検出処理について説明するためのフローチャートである。9 is a flowchart for explaining saccade detection processing; サッケードの抽出について説明するためのグラフである。7 is a graph for explaining extraction of saccades; ドライビングシミュレータを例示する斜視図である。1 is a perspective view illustrating a driving simulator; FIG. 健常者および同名半盲患者の各々の右視野および左視野のサッケードの振幅を示すグラフである。Fig. 10 is a graph showing the amplitude of saccades in the right and left visual fields of healthy subjects and homonymous hemianopia patients, respectively. 健常者および同名半盲患者の各々の右視野と左視野とのサッケードの振幅の差を示すグラフである。Fig. 3 is a graph showing the difference in amplitude of saccades between the right and left visual fields of healthy subjects and homonymous hemianopia patients, respectively. 健常者および同名半盲患者の各々の右視野および左視野のサッケードの頻度を示すグラフである。1 is a graph showing the frequency of right and left visual field saccades in healthy subjects and homonymous hemianopia patients, respectively. 健常者および同名半盲患者の各々の右視野と左視野とのサッケードの頻度の差を示すグラフである。2 is a graph showing the difference in frequency of saccades between right and left visual fields in healthy subjects and homonymous hemianopia patients, respectively. 状態推定処理について説明するためのフローチャートである。5 is a flowchart for explaining state estimation processing; 状態推定処理の変形例について説明するためのフローチャートである。FIG. 11 is a flowchart for explaining a modification of state estimation processing; FIG. 第1動作の一例について説明するためのフローチャートである。4 is a flowchart for explaining an example of a first operation; 第2動作の一例について説明するためのフローチャートである。9 is a flowchart for explaining an example of a second operation; 閾値設定処理について説明するためのフローチャートである。4 is a flowchart for explaining threshold setting processing; 実施形態2の表示機器の外観を例示する正面図である。FIG. 10 is a front view illustrating the appearance of the display device of Embodiment 2; 実施形態2の表示機器の構成を例示するブロック図である。FIG. 8 is a block diagram illustrating the configuration of a display device according to Embodiment 2;

以下、図面を参照して実施の形態を詳しく説明する。なお、図中同一または相当部分には同一の符号を付しその説明は繰り返さない。 Hereinafter, embodiments will be described in detail with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings, and the description thereof will not be repeated.

(実施形態1)
図1は、実施形態1の車両制御システム10の構成を例示する。車両制御システム10は、車両(具体的には自動四輪車)に設けられる。車両は、マニュアル運転とアシスト運転と自動運転とに切り換え可能である。マニュアル運転は、運転者の操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、運転者の操作を支援して走行する運転である。自動運転は、運転者の操作なしに走行する運転である。車両制御システム10は、アシスト運転および自動運転において、車両を制御する。具体的には、車両制御システム10は、車両に設けられたアクチュエータ11を制御することで車両の動作(特に走行)を制御する。なお、車両制御システム10は、移動体に設けられる移動体制御システムの一例である。
(Embodiment 1)
FIG. 1 illustrates the configuration of a vehicle control system 10 according to the first embodiment. A vehicle control system 10 is provided in a vehicle (specifically, a four-wheeled motor vehicle). The vehicle can be switched between manual driving, assisted driving, and automatic driving. Manual driving is driving in which the vehicle travels according to the driver's operation (for example, accelerator operation). Assisted driving is driving in which the vehicle travels while assisting the driver's operation. Autonomous driving is driving that runs without driver's operation. The vehicle control system 10 controls the vehicle during assist driving and automatic driving. Specifically, the vehicle control system 10 controls the operation of the vehicle (especially running) by controlling an actuator 11 provided in the vehicle. The vehicle control system 10 is an example of a mobile body control system provided in a mobile body.

この例では、車両制御システム10は、情報取得部20と、車両制御装置30と、通知部40とを備える。以下の説明では、車両制御システム10が設けられている車両を「自車両」と記載し、自車両の周囲に存在する他の車両を「他車両」と記載する。 In this example, the vehicle control system 10 includes an information acquisition section 20 , a vehicle control device 30 and a notification section 40 . In the following description, the vehicle provided with the vehicle control system 10 is referred to as "own vehicle", and other vehicles existing around the own vehicle are referred to as "other vehicles".

〔アクチュエータ〕
アクチュエータ11は、駆動系のアクチュエータ、操舵系のアクチュエータ、制動系のアクチュエータなどを含む。駆動系のアクチュエータの例としては、エンジン、トランスミッション、モータが挙げられる。制動系のアクチュエータの例としては、ブレーキが挙げられる。操舵系のアクチュエータの例としては、ステアリングが挙げられる。
[Actuator]
The actuator 11 includes a drive system actuator, a steering system actuator, a braking system actuator, and the like. Examples of drive system actuators include engines, transmissions, and motors. An example of a braking system actuator is a brake. Steering is an example of a steering system actuator.

〔情報取得部〕
情報取得部20は、車両の制御に用いられる各種情報を取得する。この例では、情報取得部20は、複数のカメラ21と、複数のレーダ22と、位置センサ23と、通信部24と、車両状態センサ25と、運転操作センサ26と、運転者状態センサ27とを含む。
[Information Acquisition Unit]
The information acquisition unit 20 acquires various types of information used for vehicle control. In this example, the information acquisition unit 20 includes a plurality of cameras 21, a plurality of radars 22, a position sensor 23, a communication unit 24, a vehicle state sensor 25, a driving operation sensor 26, and a driver state sensor 27. including.

〈カメラ〉
複数のカメラ21は、互いに同様の構成を有する。複数のカメラ21は、複数のカメラ21の撮像エリアが車両の周囲を囲うように車両に設けられる。複数のカメラ21は、車両の周囲に広がる環境(外部環境)を撮像することで、外部環境を示す画像データを取得する。複数のカメラ21の各々により得られた画像データは、車両制御装置30に送信される。
<camera>
A plurality of cameras 21 have the same configuration as each other. The plurality of cameras 21 are provided on the vehicle so that the imaging areas of the plurality of cameras 21 surround the vehicle. The plurality of cameras 21 acquires image data representing the external environment by capturing images of the environment (external environment) surrounding the vehicle. Image data obtained by each of the cameras 21 is transmitted to the vehicle control device 30 .

この例では、カメラ21は、広角レンズを有する単眼カメラである。例えば、カメラ21は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。なお、カメラ21は、狭角レンズを有する単眼カメラであってもよいし、広角レンズまたは狭角レンズを有するステレオカメラであってもよい。 In this example, camera 21 is a monocular camera with a wide-angle lens. For example, the camera 21 is configured using a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary metal-oxide-semiconductor). Note that the camera 21 may be a monocular camera having a narrow-angle lens, or a stereo camera having a wide-angle lens or a narrow-angle lens.

〈レーダ〉
複数のレーダ22は、互いに同様の構成を有する。複数のレーダ22は、複数のレーダ22の探索エリアが車両の周囲を囲うように車両に設けられる。複数のレーダ22は、外部環境を検出する。具体的には、レーダ22は、車両の外部環境へ向けて探索波を送信して外部環境からの反射波を受信することで外部環境を検出する。複数のレーダ22の検出結果は、車両制御装置30に送信される。
<Radar>
A plurality of radars 22 have the same configuration as each other. A plurality of radars 22 are provided in the vehicle so that search areas of the plurality of radars 22 surround the vehicle. A plurality of radars 22 detect the external environment. Specifically, the radar 22 detects the external environment by transmitting a search wave toward the external environment of the vehicle and receiving a reflected wave from the external environment. Detection results of the multiple radars 22 are transmitted to the vehicle control device 30 .

例えば、レーダ22は、ミリ波を送信するミリ波レーダであってもよいし、レーザ光を送信するライダ(Light Detection and Ranging)であってもよいし、赤外線を送信する赤外線レーダであってもよいし、超音波を送信する超音波センサであってもよい。 For example, the radar 22 may be a millimeter wave radar that transmits millimeter waves, a lidar (Light Detection and Ranging) that transmits laser light, or an infrared radar that transmits infrared rays. Alternatively, it may be an ultrasonic sensor that transmits ultrasonic waves.

〈位置センサ〉
位置センサ23は、車両の位置(例えば緯度および経度)を検出する。例えば、位置センサ23は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて車両の位置を検出する。位置センサ23により得られた情報(車両の位置)は、車両制御装置30に送信される。
<Position sensor>
The position sensor 23 detects the position (eg latitude and longitude) of the vehicle. For example, the position sensor 23 receives GPS information from the global positioning system and detects the position of the vehicle based on the GPS information. Information (vehicle position) obtained by the position sensor 23 is transmitted to the vehicle control device 30 .

〈通信部〉
通信部24は、車両の外部に設けられた車外ネットワーク(例えばインターネットなど)を通じて情報を受信する。例えば、通信部24は、車両の周囲に位置する他車両(図示省略)からの通信情報、ナビゲーションシステム(図示省略)からのカーナビゲーションデータ、交通情報、ダイナミックマップなどの高精度地図情報などを受信する。通信部24により得られた情報は、車両制御装置30に送信される。
<Communication part>
The communication unit 24 receives information through an external network (such as the Internet) provided outside the vehicle. For example, the communication unit 24 receives communication information from other vehicles (not shown) located around the vehicle, car navigation data from a navigation system (not shown), traffic information, and high-precision map information such as a dynamic map. do. Information obtained by the communication unit 24 is transmitted to the vehicle control device 30 .

〈車両状態センサ〉
車両状態センサ25は、車両の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、車両状態センサ25は、車両の速度を検出する車速センサ、車両の加速度を検出する加速度センサ、車両のヨーレートを検出するヨーレートセンサなどを含む。車両状態センサ25により得られた情報(車両の状態)は、車両制御装置30に送信される。
<Vehicle status sensor>
A vehicle state sensor 25 detects the state of the vehicle (for example, speed, acceleration, yaw rate, etc.). For example, the vehicle state sensor 25 includes a vehicle speed sensor that detects the speed of the vehicle, an acceleration sensor that detects the acceleration of the vehicle, a yaw rate sensor that detects the yaw rate of the vehicle, and the like. Information (state of the vehicle) obtained by the vehicle state sensor 25 is transmitted to the vehicle control device 30 .

〈運転操作センサ〉
運転操作センサ26は、車両に加えられる運転操作を検出する。例えば、運転操作センサ26は、アクセル開度センサ、操舵角センサ、ブレーキ油圧センサなどを含む。アクセル開度センサは、車両のアクセルの操作量を検出する。操舵角センサは、車両のハンドルの操舵角を検出する。ブレーキ油圧センサは、車両のブレーキの操作量を検出する。運転操作センサ26により得られた情報(車両の運転操作)は、車両制御装置30に送信される。
<Driving operation sensor>
The driving operation sensor 26 detects driving operations applied to the vehicle. For example, the driving operation sensor 26 includes an accelerator opening sensor, a steering angle sensor, a brake oil pressure sensor, and the like. The accelerator opening sensor detects the operation amount of the accelerator of the vehicle. The steering angle sensor detects the steering angle of the steering wheel of the vehicle. The brake oil pressure sensor detects the operation amount of the brake of the vehicle. Information (driving operation of the vehicle) obtained by the driving operation sensor 26 is transmitted to the vehicle control device 30 .

〈運転者状態センサ〉
運転者状態センサ27は、車両に搭乗する運転者の状態(例えば運転者の身体挙動や生体情報など)を検出する。運転者状態センサ27により得られた情報(運転者の状態)は、車両制御装置30に送信される。この例では、運転者状態センサ27は、車内カメラ28と、生体情報センサ29とを含む。
<Driver status sensor>
The driver state sensor 27 detects the state of the driver riding in the vehicle (for example, the driver's physical behavior, biological information, etc.). Information (state of the driver) obtained by the driver state sensor 27 is transmitted to the vehicle control device 30 . In this example, the driver state sensor 27 includes an in-vehicle camera 28 and a biological information sensor 29 .

《車内カメラ》
車内カメラ28は、車両の内部に設けられる。車内カメラ28は、運転者を含む領域を撮像することで運転者を含む画像データを取得する。車内カメラ28により得られた画像データは、車両制御装置30に送信される。この例では、車内カメラ28は、運転者の前方に配置され、運転者の顔(特に眼球)が撮像範囲内に位置するように撮像範囲が設定される。なお、車内カメラ28は、運転者に装着されるゴーグル(図示省略)に設けられてもよい。
《In-vehicle camera》
The in-vehicle camera 28 is provided inside the vehicle. The in-vehicle camera 28 acquires image data including the driver by capturing an area including the driver. Image data obtained by the in-vehicle camera 28 is transmitted to the vehicle control device 30 . In this example, the in-vehicle camera 28 is arranged in front of the driver, and the imaging range is set so that the driver's face (especially eyeballs) is positioned within the imaging range. Note that the in-vehicle camera 28 may be provided in goggles (not shown) worn by the driver.

《生体情報センサ》
生体情報センサ29は、車両の内部に設けられる。生体情報センサ29は、運転者の生体情報を検出する。なお、運転者の生体情報の例としては、発汗、心拍、血流量、皮膚温などが挙げられる。生体情報センサ29により得られた情報(運転者の生体情報)は、車両制御装置30に送信される。例えば、生体情報センサ29は、運転者の手と接触する箇所に配置されてもよいし、運転者の身体に装着される部材(図示省略)に設けられてもよい。
《Biological information sensor》
The biological information sensor 29 is provided inside the vehicle. The biological information sensor 29 detects biological information of the driver. Examples of the driver's biological information include perspiration, heartbeat, blood flow, skin temperature, and the like. Information (driver's biological information) obtained by the biological information sensor 29 is transmitted to the vehicle control device 30 . For example, the biometric information sensor 29 may be arranged at a location that comes into contact with the driver's hand, or may be provided on a member (not shown) attached to the driver's body.

〔車両制御装置〕
車両制御装置30は、アクチュエータ11および車両制御システム10の各部(この例では情報取得部20と通知部40など)と信号伝送可能に接続される。そして、車両制御装置30は、車両制御システム10の各部により得られた情報に基づいてアクチュエータ11および車両制御システム10の各部を制御する。具体的には、車両制御装置30は、アシスト運転または自動運転において、情報取得部20により取得された各種情報に基づいて、車両が走行すべき経路である目標経路を決定し、目標経路を走行するために必要となる車両の運動である目標運動を決定する。そして、車両制御装置30は、車両の運動が目標運動となるように、アクチュエータ11の動作を制御する。なお、車両制御装置30は、状態推定装置の一例である。
[Vehicle control device]
The vehicle control device 30 is connected to the actuator 11 and each part of the vehicle control system 10 (in this example, the information acquisition part 20, the notification part 40, etc.) so that signal transmission is possible. The vehicle control device 30 controls the actuator 11 and each part of the vehicle control system 10 based on the information obtained by each part of the vehicle control system 10 . Specifically, in assisted driving or automatic driving, the vehicle control device 30 determines a target route on which the vehicle should travel based on various information acquired by the information acquisition unit 20, and travels along the target route. Determine the target motion, which is the motion of the vehicle required to Then, the vehicle control device 30 controls the operation of the actuator 11 so that the motion of the vehicle becomes the target motion. Note that the vehicle control device 30 is an example of a state estimation device.

例えば、車両制御装置30は、1つまたは複数の電子制御ユニット(ECU)により構成される。電子制御ユニットは、単一のIC(Integrated Circuit)により構成されてもよいし、複数のICにより構成されてもよい。また、IC内には、単一のコアまたはダイが設けられてもよいし、連携する複数のコアまたはダイが設けられてもよい。コアまたはダイは、例えば、CPU(プロセッサ)と、CPUを動作させるためのプログラムやCPUでの処理結果などの情報を記憶するメモリとにより構成されてもよい。 For example, the vehicle control device 30 is composed of one or more electronic control units (ECUs). The electronic control unit may be composed of a single IC (Integrated Circuit), or may be composed of a plurality of ICs. Also, within an IC, a single core or die may be provided, or multiple cores or dies may be provided in conjunction. The core or die may be composed of, for example, a CPU (processor) and a memory that stores information such as programs for operating the CPU and results of processing by the CPU.

この例では、車両制御装置30は、車両挙動認識部31と、運転操作認識部32と、外部環境認識部33と、運転者状態認識部34と、車両制御部35とを有する。車両制御部35は、運転者(対象者)の状態に応じた動作を行う制御部の一例である。 In this example, the vehicle control device 30 has a vehicle behavior recognition section 31 , a driving operation recognition section 32 , an external environment recognition section 33 , a driver state recognition section 34 and a vehicle control section 35 . The vehicle control unit 35 is an example of a control unit that operates according to the state of the driver (subject).

〈車両挙動認識部〉
車両挙動認識部31は、車両状態センサ25の出力に基づいて車両の挙動(例えば速度や加速度やヨーレートなど)を推定する。例えば、車両挙動認識部31は、深層学習により生成された学習モデルを用いて、車両状態センサ25の出力から車両の挙動を示すデータを生成する。
<Vehicle behavior recognition unit>
The vehicle behavior recognition unit 31 estimates vehicle behavior (for example, speed, acceleration, yaw rate, etc.) based on the output of the vehicle state sensor 25 . For example, the vehicle behavior recognition unit 31 uses a learning model generated by deep learning to generate data indicating vehicle behavior from the output of the vehicle state sensor 25 .

〈運転操作認識部〉
運転操作認識部32は、運転操作センサ26の出力に基づいて車両に加えられる運転操作を認識する。例えば、運転操作認識部32は、深層学習により生成された学習モデルを用いて、運転操作センサ26の出力から車両に加えられる運転操作を示すデータを生成する。
<Driving operation recognition part>
The driving operation recognition unit 32 recognizes the driving operation applied to the vehicle based on the output of the driving operation sensor 26 . For example, the driving operation recognition unit 32 uses a learning model generated by deep learning to generate data representing the driving operation applied to the vehicle from the output of the driving operation sensor 26 .

〈外部環境認識部〉
外部環境認識部33は、複数のカメラ21の出力と、複数のレーダ22の出力と、位置センサ23の出力と、通信部24の出力と、車両挙動認識部31の出力に基づいて、車両の外部環境を認識する。
<External environment recognition part>
The external environment recognition unit 33 recognizes the vehicle behavior based on the outputs of the plurality of cameras 21, the outputs of the plurality of radars 22, the output of the position sensor 23, the output of the communication unit 24, and the output of the vehicle behavior recognition unit 31. Recognize the external environment.

例えば、外部環境認識部33は、深層学習により生成された学習モデルを用いて、上記の出力から車両の外部環境を示すデータを生成する。深層学習では、多層ニューラルネットワーク(Deep Neural Network)が用いられる。多層ニューラルネットワークの例としては、CNN(Convolutional Neural Network)が挙げられる。 For example, the external environment recognition unit 33 uses a learning model generated by deep learning to generate data representing the external environment of the vehicle from the above outputs. In deep learning, a multilayer neural network (Deep Neural Network) is used. Examples of multi-layer neural networks include CNNs (Convolutional Neural Networks).

具体的には、外部環境認識部33は、複数のカメラ21により得られた画像データに対して画像処理を行うことにより、車両が移動可能な道路を表す道路マップデータ(例えば三次元マップデータ)を生成する。また、外部環境認識部33は、複数のレーダ22の検出結果に基づいて、車両の周辺に存在する物体に関する情報である物体情報を取得する。物体情報には、物体の位置座標、物体の速度などが含まれる。なお、外部環境認識部33は、複数のカメラ21により得られた画像データに基づいて物体情報を取得してもよい。そして、外部環境認識部33は、道路マップデータと物体情報とを統合することで、外部環境を表す統合マップデータ(三次元マップデータ)を生成する。 Specifically, the external environment recognition unit 33 performs image processing on the image data obtained by the plurality of cameras 21 to generate road map data (for example, three-dimensional map data) representing roads on which the vehicle can travel. to generate Also, the external environment recognition unit 33 acquires object information, which is information about objects existing around the vehicle, based on the detection results of the plurality of radars 22 . The object information includes the position coordinates of the object, the speed of the object, and the like. Note that the external environment recognition unit 33 may acquire object information based on image data obtained by a plurality of cameras 21 . Then, the external environment recognition unit 33 integrates the road map data and the object information to generate integrated map data (three-dimensional map data) representing the external environment.

道路マップデータには、道路の形状、道路の構造、道路の勾配、区画線、路面標示などに関する情報が含まれる。物体情報には、静的物体情報と、動的物体情報とが含まれる。静的物体情報は、時間経過により変位しない静止体に関する情報である。静的物体情報には、静止体の形状、静止体の位置座標などに関する情報が含まれる。静止体の例としては、道路標識、構造物などが挙げられる。構造物の例としては、信号機、中央分離帯、センターポール、建物、看板、踏切、トンネル、軌道敷、バス停留所などが挙げられる。動的物体情報は、時間経過により変位する可能性がある動体に関する情報である。動的物体情報には、動体の形状、動体の位置座標、動体の速度などに関する情報が含まれる。動体の例としては、他車両、歩行者などが挙げられる。 Road map data includes information on road shape, road structure, road gradient, lane markings, road markings, and the like. The object information includes static object information and dynamic object information. Static object information is information about a stationary object that does not change over time. The static object information includes information about the shape of the stationary body, the positional coordinates of the stationary body, and the like. Examples of stationary objects include road signs and structures. Examples of structures include traffic lights, medians, center poles, buildings, signboards, railroad crossings, tunnels, railroad tracks, bus stops, and the like. Dynamic object information is information about a moving object that may change over time. The dynamic object information includes information about the shape of the moving object, the position coordinates of the moving object, the speed of the moving object, and the like. Examples of moving objects include other vehicles and pedestrians.

なお、通信部24により受信される高精度地図情報に、道路マップデータと物体情報が含まれていてもよい。この場合、外部環境認識部33は、高精度地図情報に含まれる道路マップデータと物体情報に基づいて統合マップデータを生成し、複数のカメラ21や複数のレーダ22などの情報取得部20の出力に基づいて統合マップデータを適宜補正するように構成されてもよい。例えば、外部環境認識部33は、複数のカメラ21の出力および複数のレーダ22の出力に基づいて認識された物体が統合マップデータに含まれていない場合に、その物体に関する物体情報を統合マップデータに追加してもよい。また、外部環境認識部33は、統合マップデータに含まれる物体が複数のカメラ21の出力および複数のレーダ22の出力に基づいて認識されない場合に、その物体に関する物体情報を統合マップデータから削除してもよい。 The high-precision map information received by the communication unit 24 may include road map data and object information. In this case, the external environment recognition unit 33 generates integrated map data based on the road map data and object information included in the high-precision map information, and outputs the information acquisition unit 20 such as the plurality of cameras 21 and the plurality of radars 22. may be configured to appropriately correct the integrated map data based on. For example, when an object recognized based on the outputs of the plurality of cameras 21 and the outputs of the plurality of radars 22 is not included in the integrated map data, the external environment recognition unit 33 stores the object information about the object in the integrated map data. may be added to Further, when an object included in the integrated map data is not recognized based on the outputs of the plurality of cameras 21 and the outputs of the plurality of radars 22, the external environment recognition unit 33 deletes the object information related to that object from the integrated map data. may

〈運転者状態認識部〉
運転者状態認識部34は、運転者状態センサ27の出力に基づいて運転者の状態(例えば運転者の健康状態や感情や姿勢など)を認識する。例えば、運転者状態認識部34は、深層学習により生成された学習モデルを用いて、運転者状態センサ27の出力から運転者の状態を示すデータを生成する。この例では、運転者状態認識部34は、状態推定部300を有する。状態推定部300については、後で詳しく説明する。
<Driver state recognition unit>
The driver state recognition unit 34 recognizes the state of the driver (for example, the driver's state of health, emotions, posture, etc.) based on the output of the driver state sensor 27 . For example, the driver state recognition unit 34 uses a learning model generated by deep learning to generate data indicating the state of the driver from the output of the driver state sensor 27 . In this example, the driver state recognizing section 34 has a state estimating section 300 . State estimator 300 will be described later in detail.

〈車両制御部〉
車両制御部35は、車両挙動認識部31の出力と、運転操作認識部32の出力と、外部環境認識部33の出力と、運転者状態認識部34の出力に基づいて、アクチュエータ11を制御する。この例では、車両制御部35は、走行制御と、通知制御とを行う。
<Vehicle control unit>
The vehicle control unit 35 controls the actuator 11 based on the output of the vehicle behavior recognition unit 31, the output of the driving operation recognition unit 32, the output of the external environment recognition unit 33, and the output of the driver state recognition unit 34. . In this example, the vehicle control unit 35 performs travel control and notification control.

《走行制御》
走行制御は、アシスト運転および自動運転において行われる。走行制御では、車両制御部35は、車両の走行を制御する。この例では、車両制御部35は、走行制御において、候補経路生成処理と、目標経路決定処理と、運動制御処理とを行う。
《Driving control》
Travel control is performed in assist driving and automatic driving. In travel control, the vehicle control unit 35 controls travel of the vehicle. In this example, the vehicle control unit 35 performs candidate route generation processing, target route determination processing, and motion control processing in the travel control.

候補経路生成処理では、車両制御部35は、外部環境認識部33の出力に基づいて1つまたは複数の候補経路を生成する。候補経路は、車両が走行可能な経路であり、目標経路の候補である。なお、この例では、候補経路生成処理により生成される候補経路には、安全経路が含まれる。安全経路は、安全領域(例えば路肩)へ向かう走行経路である。 In the candidate route generation process, the vehicle control unit 35 generates one or more candidate routes based on the output of the external environment recognition unit 33 . A candidate route is a route on which the vehicle can travel, and is a target route candidate. In this example, the candidate routes generated by the candidate route generation process include safe routes. A safe route is a driving route that leads to a safe area (eg, a road shoulder).

例えば、候補経路生成処理において、車両制御部35は、外部環境認識部33の出力(統合マップデータ)に基づいて、車両の進行方向前方の道路と道路上に存在する物体とを含む走行マップデータ(二次元マップデータ)を生成する。そして、車両制御部35は、ステートラティス法を用いて候補経路を生成する。具体的には、車両制御部35は、走行マップデータの道路上に多数のグリッド点からなるグリッド領域を設定し、車両の進行方向へ向けて複数のグリッド点を順に連結することで複数の走行経路を設定する。また、車両制御部35は、複数の走行経路の各々に経路コストを付与する。例えば、ある走行経路における車両の安全性が高くなるに連れて、その走行経路に付与される経路コストが小さくなる。そして、車両制御部35は、複数の走行経路の各々に付与された経路コストに基づいて、複数の走行経路の中から1つまたは複数の走行経路を候補経路として選択する。 For example, in the candidate route generation process, the vehicle control unit 35 generates travel map data including roads in front of the vehicle in the traveling direction and objects existing on the roads, based on the output (integrated map data) of the external environment recognition unit 33. (two-dimensional map data). Then, the vehicle control unit 35 generates candidate routes using the state lattice method. Specifically, the vehicle control unit 35 sets a grid area made up of a large number of grid points on the road of the travel map data, and sequentially connects the plurality of grid points in the traveling direction of the vehicle, thereby forming a plurality of travels. Set route. Also, the vehicle control unit 35 gives a route cost to each of the plurality of travel routes. For example, as the safety of a vehicle on a certain travel route increases, the route cost assigned to that travel route decreases. Then, the vehicle control unit 35 selects one or a plurality of travel routes as candidate routes from among the plurality of travel routes based on the route costs assigned to each of the plurality of travel routes.

目標経路決定処理では、車両制御部35は、運転操作認識部32の出力と、運転者状態認識部34の出力に基づいて、候補経路生成処理において生成された1つまたは複数の候補経路の中から目標経路となる候補経路を選択する。例えば、車両制御部35は、複数の候補経路のうち運転者が最も快適であると感じる候補経路を選択する。 In the target route determination process, the vehicle control unit 35 selects one or more candidate routes generated in the candidate route generation process based on the output of the driving operation recognition unit 32 and the output of the driver state recognition unit 34. Select a candidate route to be the target route from . For example, the vehicle control unit 35 selects a candidate route that the driver feels most comfortable from among the plurality of candidate routes.

運動制御処理では、車両制御部35は、目標経路決定処理において目標経路として選択された候補経路に基づいて目標運動を決定し、その決定された目標運動に基づいてアクチュエータ11を制御する。例えば、車両制御部35は、目標運動を達成するための駆動力と制動力と操舵量である目標駆動力と目標制動力と目標操舵量をそれぞれ導出する。そして、車両制御部35は、目標駆動力を示す駆動指令値と目標制動力を示す制動指令値と目標操舵量を示す操舵指令値とを、駆動系のアクチュエータと制動系のアクチュエータと操舵系のアクチュエータとにそれぞれ送信する。 In the motion control process, the vehicle control unit 35 determines the target motion based on the candidate route selected as the target route in the target route determination process, and controls the actuator 11 based on the determined target motion. For example, the vehicle control unit 35 derives a target driving force, a target braking force, and a target steering amount, which are the driving force, the braking force, and the steering amount for achieving the target motion. Then, the vehicle control unit 35 sets the drive command value indicating the target drive force, the braking command value indicating the target braking force, and the steering command value indicating the target steering amount to the actuator of the drive system, the actuator of the braking system, and the steering system. and to the actuators, respectively.

《通知制御》
通知制御では、車両制御部35は、運転者に通知するための各種情報を出力する。この例では、車両制御部35は、運転者に通知するための各種情報を通知部40に出力する。
《Notification control》
In notification control, the vehicle control unit 35 outputs various information for notifying the driver. In this example, the vehicle control unit 35 outputs various information to the notification unit 40 to notify the driver.

〔通知部〕
通知部40は、車両の内部に設けられる。そして、通知部40は、車両の運転者に各種情報を通知する。この例では、通知部40は、表示部41と、スピーカ42とを含む。表示部41は、各種情報を画像で出力する。スピーカ42は、各種情報を音声で出力する。
[Notification part]
The notification unit 40 is provided inside the vehicle. Then, the notification unit 40 notifies the driver of the vehicle of various information. In this example, the notification section 40 includes a display section 41 and a speaker 42 . The display unit 41 outputs various information as an image. The speaker 42 outputs various information by voice.

〔用語の説明〕
次に、以下において用いられる用語について説明する。以下の説明では、サッケード、全視野、右視野、左視野、視野異常状態、注意機能低下状態、正常状態という用語が用いられる。
[Explanation of terms]
Next, the terms used below will be explained. In the following description, the terms saccade, full field of view, right field of view, left field of view, abnormal visual field condition, impaired attention function condition and normal condition are used.

〈サッケード〉
サッケードは、人(例えば運転者)が意図的に視線を移動させる跳躍性眼球運動のことである。具体的には、サッケードは、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。図2は、人の視線の位置(角度)の時間的変化を示す。図2に示すように、隣り合う2つの注視期間の間に挟まれた期間がサッケード期間となる。なお、注視期間は、視線が停滞しているとみなされる期間である。サッケードの振幅dsは、サッケード期間における視線の移動距離である。
<Saccade>
A saccade is a jumping eye movement in which a person (eg, a driver) intentionally shifts the line of sight. Specifically, a saccade is an eyeball movement that moves the line of sight from a point of gaze at which the line of sight is stagnant for a predetermined time to the next point of gaze. FIG. 2 shows temporal changes in the position (angle) of a person's line of sight. As shown in FIG. 2, a period sandwiched between two adjacent gaze periods is a saccade period. Note that the gaze period is a period during which the line of sight is considered to be stagnant. The saccade amplitude ds is the moving distance of the line of sight during the saccade period.

例えば、視線の移動距離の変化に基づいて視線の移動速度を算出し、視線の移動速度が予め定められた速度閾値(例えば40deg/s)未満である状態が予め定められた停滞時間(例えば0.1秒間)継続する期間を「注視期間」として抽出してもよい。そして、隣り合う2つの注視期間の間に挟まれた期間における視線移動のうち、移動速度が速度閾値(例えば40deg/s)以上であり、且つ、移動距離が予め定められ距離閾値(例えば3deg)以上である視線移動を「サッケード」として抽出してもよい。 For example, the movement speed of the line of sight is calculated based on the change in the movement distance of the line of sight, and the state in which the movement speed of the line of sight is less than a predetermined speed threshold (for example, 40 deg / s) is a predetermined stagnation time (for example, 0 0.1 second) may be extracted as a "gazing period". Then, in the line-of-sight movement in the period sandwiched between two adjacent gaze periods, the movement speed is equal to or greater than a speed threshold (eg, 40 deg/s) and the movement distance is a predetermined distance threshold (eg, 3 deg). The line-of-sight movement described above may be extracted as a “saccade”.

〈全視野と右視野と左視野〉
全視野は、視野の左右方向の全領域のことである。図3に示すように、右視野VRは、全視野のうち左右の中心線よりも右側の視野領域のことである。左視野VLは、全視野のうち左右の中心線よりも左側の視野領域のことである。視野の左右の中心線は、運転者の両眼の中心点(例えば鼻の位置)から顔の真正面へ向けて延びる仮想線であり、運転者の顔の向きに基づいて導出することが可能である。
<Full field of view, right field of view, and left field of view>
The full field of view refers to the entire area of the field of view in the horizontal direction. As shown in FIG. 3, the right visual field VR is a visual field area on the right side of the left and right center lines in the entire visual field. The left visual field VL is a visual field area on the left side of the left and right center lines in the entire visual field. The left and right center lines of the visual field are imaginary lines that extend from the center point of the driver's eyes (for example, the position of the nose) toward the front of the face, and can be derived based on the orientation of the driver's face. be.

〈視野異常状態〉
視野異常状態は、視野の左右の片側が異常となる異常状態のことである。視野異常状態では、運転者による車両の運転操作の継続が困難となる。また、視野異常状態は、休憩などにより正常状態に回復することが困難である。視野異常状態の例としては、同名半盲が挙げられる。
<Visual field abnormal state>
The visual field abnormal state is an abnormal state in which one of the left and right sides of the visual field becomes abnormal. In the abnormal vision state, it becomes difficult for the driver to continue driving the vehicle. In addition, it is difficult to restore the abnormal visual field state to a normal state by taking a break or the like. Examples of visual field abnormal conditions include homonymous hemianopia.

〈注意機能低下状態〉
注意機能低下状態は、上記の視野異常状態とは異なる要因により人の注意機能が低下している状態のことである。注意機能低下状態では、運転者による車両の運転操作に支障がある。また、注意機能低下状態は、休憩などにより正常状態に回復することが可能である。注意機能低下状態の例としては、覚醒低下、疲労、漫然状態などが挙げられる。
<Caution function deterioration state>
The reduced attentional function state is a state in which a person's attentional function is reduced due to a factor different from the abnormal visual field state described above. In the attention function degraded state, the driver's operation of the vehicle is hindered. In addition, it is possible to restore the state of impaired attention function to a normal state by taking a break or the like. Examples of states of reduced attention function include decreased alertness, fatigue, and listlessness.

〈正常状態〉
正常状態は、上記の視野異常状態でも注意機能低下状態でもない状態であり、人が行うべき操作を正常に行うことが可能な状態のことである。正常状態では、運転者による車両の運転操作が正常に行われる。
<Normal state>
The normal state is neither the abnormal visual field state nor the reduced attention function state, and is a state in which a person can normally perform an operation that should be performed. In the normal state, the driver operates the vehicle normally.

〔状態推定部の構成〕
図4は、状態推定部300の構成を例示する。状態推定部300は、サッケード検出部301と、推定部302と、注意度検出部303と、設定部304とを有する。
[Configuration of State Estimation Unit]
FIG. 4 illustrates the configuration of state estimating section 300 . State estimation section 300 has saccade detection section 301 , estimation section 302 , attention level detection section 303 , and setting section 304 .

〔サッケード検出部〕
サッケード検出部301は、車両の運転者(対象者)のサッケードを検出する。この例では、サッケード検出部301は、車内カメラ28により得られた画像データに対して視線検出処理を行うことで、運転者の視線を検出する。なお、この視線検出処理は、深層学習により生成された学習モデル(視線を検出するための学習モデル)を用いて行われる処理であってもよいし、周知の視線検出技術を用いて行われる処理であってもよい。また、運転者の視線は、運転者の右眼の視線であってもよいし、運転者の左眼の視線であってもよいし、運転者の右眼の視線と左眼の視線とに基づいて導出される視線であってもよい。そして、サッケード検出部301は、運転者の視線の移動に基づいて運転者のサッケードを検出する。
[Saccade detector]
The saccade detection unit 301 detects saccades of the driver (subject) of the vehicle. In this example, the saccade detection unit 301 detects the line of sight of the driver by performing line-of-sight detection processing on image data obtained by the in-vehicle camera 28 . Note that this line-of-sight detection processing may be processing performed using a learning model (learning model for detecting line-of-sight) generated by deep learning, or processing performed using a known line-of-sight detection technique. may be Further, the line of sight of the driver may be the line of sight of the driver's right eye, the line of sight of the driver's left eye, or the line of sight of the driver's right eye and the line of sight of the left eye. It may be a line of sight derived based on. Then, the saccade detection unit 301 detects saccades of the driver based on the movement of the driver's line of sight.

また、サッケード検出部301は、予め定められた推定期間P1内におけるサッケードの振幅dsおよび頻度fsを算出する。 The saccade detection unit 301 also calculates the amplitude ds and the frequency fs of saccades within a predetermined estimation period P1.

〔サッケード検出処理〕
次に、図5および図6を参照して、サッケード検出部301において行われるサッケード処理について説明する。まず、図5に示すように、サッケード検出部301は、推定期間P1を設定する。具体的には、サッケード検出部301は、推定期間P1が所定時間ずつシフトするように推定期間P1を設定する。図5の例では、推定期間P1の長さは「30秒」であり、所定時間は「5秒」である。
[Saccade detection processing]
Next, the saccade processing performed in the saccade detector 301 will be described with reference to FIGS. 5 and 6. FIG. First, as shown in FIG. 5, the saccade detector 301 sets an estimation period P1. Specifically, the saccade detection unit 301 sets the estimation period P1 such that the estimation period P1 is shifted by a predetermined amount of time. In the example of FIG. 5, the length of the estimation period P1 is "30 seconds" and the predetermined time is "5 seconds".

また、サッケード検出部301は、周知の視野設定技術を用いて、運転者の右視野と左視野とを設定する。例えば、サッケード検出部301は、周知の顔向き検出技術を用いて運転者の顔の向きを検出し、運転者の両眼の中心点から顔の真正面へ向けて延びる仮想線を運転者の視野の左右の中心線に設定する。そして、サッケード検出部301は、運転者の顔の向きに基づいて運転者の全視野を設定し、運転者の全視野のうち運転者の視野の左右の中心線よりも右側の視野領域を右視野に設定し、運転者の全視野のうち運転者の視野の左右の中心線よりも左側の視野領域を左視野に設定する。この全視野と右視野と左視野の設定は、指定期間P1が設定される毎に行われてもよいし、予め定められた周期毎に行われてもよい。 Also, the saccade detector 301 sets the driver's right visual field and left visual field using a well-known visual field setting technique. For example, the saccade detection unit 301 detects the orientation of the driver's face using a well-known face orientation detection technique, and detects a virtual line extending from the center point of the driver's eyes toward the front of the driver's field of view. set to the left and right center lines of the Then, the saccade detection unit 301 sets the full field of view of the driver based on the orientation of the driver's face, and sets the visual field area on the right side of the left and right center lines of the driver's field of view to the right. The visual field is set to the left visual field, and the visual field area on the left side of the left and right center lines of the driver's visual field in the entire visual field of the driver is set as the left visual field. The setting of the entire field of view, the right field of view, and the left field of view may be performed each time the designated period P1 is set, or may be performed at each predetermined cycle.

そして、サッケード検出部301は、推定期間P1が設定される毎に、図6に示した処理(ステップST11~ST14)を行う。 Then, saccade detection section 301 performs the processing (steps ST11 to ST14) shown in FIG. 6 each time estimation period P1 is set.

〈ステップST11〉
まず、サッケード検出部301は、運転者(対象者)の視線を検出する。この例では、サッケード検出部301は、車内カメラ28により得られた画像データに対して視線検出処理を行うことで、運転者の視線を検出する。例えば、サッケード検出部301は、車内カメラ28により得られた画像(画像データ)の中から運転者の瞳孔を検出し、その検出された瞳孔に基づいて運転者の視線を検出する。次に、サッケード検出部301は、運転者の視線の移動距離を算出する。そして、サッケード検出部301は、運転者の視線の移動距離の時間的変化に基づいて、運転者の視線の速度を算出する。例えば、サッケード検出部301は、時間経過に応じて変化する視線の移動距離を微分することにより、運転者の視線の速度を算出する。
<Step ST11>
First, the saccade detection unit 301 detects the line of sight of the driver (subject). In this example, the saccade detection unit 301 detects the line of sight of the driver by performing line-of-sight detection processing on image data obtained by the in-vehicle camera 28 . For example, the saccade detection unit 301 detects the pupils of the driver in the image (image data) obtained by the in-vehicle camera 28, and detects the line of sight of the driver based on the detected pupils. Next, the saccade detector 301 calculates the moving distance of the line of sight of the driver. Then, the saccade detection unit 301 calculates the speed of the driver's line of sight based on the temporal change in the moving distance of the driver's line of sight. For example, the saccade detection unit 301 calculates the speed of the line of sight of the driver by differentiating the moving distance of the line of sight, which changes over time.

〈ステップST12〉
次に、サッケード検出部301は、視線の移動速度に基づいて、サッケードの候補となるサッケード候補を抽出する。例えば、サッケード検出部301は、視線の移動速度が予め定められた速度閾値(例えば40deg/s)未満である状態が予め定められた停滞時間(例えば0.1秒間)継続する期間を「注視期間」(図2参照)として抽出する。そして、サッケード検出部301は、隣り合う2つの注視期間の間に挟まれた期間における視線移動のうち、移動速度が速度閾値(例えば40deg/s)以上であり、且つ、移動距離が予め定められ距離閾値(例えば3deg)以上である視線移動を「サッケード候補」として抽出する。
<Step ST12>
Next, the saccade detection unit 301 extracts saccade candidates, which are saccade candidates, based on the movement speed of the line of sight. For example, the saccade detection unit 301 defines a period in which the line-of-sight movement speed is less than a predetermined speed threshold value (for example, 40 deg/s) for a predetermined stagnant time period (for example, 0.1 seconds) as a “gazing period. ” (see FIG. 2). Then, the saccade detection unit 301 detects that the movement speed of the line-of-sight movement in the period sandwiched between the two adjacent gaze periods is equal to or greater than the speed threshold value (for example, 40 deg/s) and that the movement distance is predetermined. A line-of-sight movement that is greater than or equal to a distance threshold (for example, 3 degrees) is extracted as a "saccade candidate."

〈ステップST13〉
次に、サッケード検出部301は、回帰曲線L10を基準とするサッケード範囲R10(図7参照)を読み込む。
<Step ST13>
Next, the saccade detector 301 reads a saccade range R10 (see FIG. 7) based on the regression curve L10.

例えば、サッケード範囲R10は、下記のように導出される。まず、サッケード検出部301は、複数のサッケード候補に基づいて回帰曲線L10を導出する。具体的には、サッケード検出部301は、最小自乗法により複数のサッケード候補から回帰曲線L10を導出する。次に、サッケード検出部301は、回帰曲線L10を移動速度が増加する方向(図7の縦軸における増加方向)に所定量だけシフトさせることで第1基準曲線L11を導出し、回帰曲線L10を移動速度が減少する方向(図7の縦軸における減少方向)に所定量だけシフトさせることで第2基準曲線L12を導出する。そして、サッケード検出部301は、第1基準曲線L11と第2基準曲線L12との間をサッケード範囲R10とする。なお、サッケード範囲R10の導出は、定期的に行われてもよい。 For example, the saccade range R10 is derived as follows. First, the saccade detector 301 derives a regression curve L10 based on a plurality of saccade candidates. Specifically, the saccade detection unit 301 derives a regression curve L10 from a plurality of saccade candidates by the method of least squares. Next, the saccade detection unit 301 derives the first reference curve L11 by shifting the regression curve L10 by a predetermined amount in the direction in which the moving speed increases (increasing direction on the vertical axis in FIG. 7), and shifts the regression curve L10 to A second reference curve L12 is derived by shifting a predetermined amount in the direction in which the moving speed decreases (decreasing direction on the vertical axis in FIG. 7). Then, the saccade detection unit 301 defines a saccade range R10 between the first reference curve L11 and the second reference curve L12. The derivation of the saccade range R10 may be performed periodically.

そして、サッケード検出部301は、複数のサッケード候補の各々とサッケード範囲R10とを比較してサッケードを抽出する。具体的には、サッケード検出部301は、複数のサッケード候補のうちサッケード範囲R10内に含まれるサッケード候補をサッケードとして抽出する。なお、サッケード検出部301は、複数のサッケード候補のうちサッケード範囲R10内に含まれないサッケード候補をサッケードとして抽出しない。 Then, saccade detection section 301 compares each of the plurality of saccade candidates with saccade range R10 to extract a saccade. Specifically, the saccade detection unit 301 extracts, as a saccade, a saccade candidate included in the saccade range R10 among the plurality of saccade candidates. Note that the saccade detection unit 301 does not extract, as a saccade, a saccade candidate that is not included in the saccade range R10 among the plurality of saccade candidates.

〈ステップST14〉
次に、サッケード検出部301は、推定期間P1内における運転者の全視野内のサッケードの振幅dsおよび頻度fsを算出する。以下では、運転者の全視野内のサッケードを「全サッケード」と記載する。具体的には、サッケード検出部301は、推定期間P1内に含まれる全サッケードの振幅dsの平均値を「推定期間P1内における全サッケードの振幅ds」として算出し、推定期間P1内に含まれる全サッケードの数を推定期間P1の時間で除算して得られる値を「推定期間P1内における全サッケードの頻度fs」として算出する。
<Step ST14>
Next, the saccade detector 301 calculates the amplitude ds and the frequency fs of saccades within the driver's entire visual field within the estimation period P1. In the following, saccades within the driver's full field of view are referred to as "full saccades". Specifically, the saccade detection unit 301 calculates the average value of the amplitudes ds of all saccades included in the estimation period P1 as "amplitude ds of all saccades in the estimation period P1", A value obtained by dividing the number of all saccades by the time of the estimation period P1 is calculated as the "frequency fs of all saccades within the estimation period P1".

また、サッケード検出部301は、推定期間P1内における運転者の全視野内のサッケードを、推定期間P1内における運転者の右視野内のサッケードと、推定期間P1内における運転者の左視野内のサッケードと分類する。以下では、運転者の右視野内のサッケードを「右サッケード」と記載し、運転者の左視野内のサッケードを「左サッケード」と記載する。例えば、サッケード検出部301は、サッケードの注視点における運転者の視線が右視野を向く場合に、そのサッケードを右サッケードに分類し、サッケードの注視点における運転者の視線が左視野を向く場合に、そのサッケードを左サッケードに分類する。 Further, the saccade detection unit 301 detects the saccades in the driver's entire visual field within the estimation period P1, the saccades in the driver's right visual field during the estimation period P1, and the saccades in the driver's left visual field during the estimation period P1. classified as saccades. Hereinafter, saccades in the driver's right visual field are referred to as "right saccades," and saccades in the driver's left visual field are referred to as "left saccades." For example, the saccade detection unit 301 classifies the saccade as a right saccade when the line of sight of the driver at the gazing point of the saccade is directed to the right visual field, and classifies the saccade as a right saccade when the driver's line of sight at the gazing point of the saccade is directed to the left visual field. , classifies that saccade as a left saccade.

そして、サッケード検出部301は、推定期間P1内における右サッケードの振幅dsおよび頻度fsを算出する。なお、推定期間P1内における右サッケードの振幅dsおよび頻度fsの算出は、推定期間P1内における全サッケードの振幅dsおよび頻度fsの算出と同様である。また、サッケード検出部301は、推定期間P1内における左サッケードの振幅dsおよび頻度fsを算出する。なお、推定期間P1内における左サッケードの振幅dsおよび頻度fsの算出は、推定期間P1内における全サッケードの振幅dsおよび頻度fsの算出と同様である。 Then, the saccade detector 301 calculates the amplitude ds and the frequency fs of the right saccade within the estimation period P1. The calculation of the amplitude ds and frequency fs of the right saccade within the estimation period P1 is the same as the calculation of the amplitude ds and frequency fs of all saccades within the estimation period P1. Further, the saccade detector 301 calculates the amplitude ds and the frequency fs of the left saccade within the estimation period P1. The calculation of the amplitude ds and frequency fs of the left saccade within the estimation period P1 is the same as the calculation of the amplitude ds and frequency fs of all saccades within the estimation period P1.

〔推定部〕
推定部302は、車両の運転者(対象者)の状態を推定する。この例では、推定部302は、サッケード検出部301により検出された運転者のサッケードに基づいて、運転者の状態を推定する。なお、推定部302の動作については、後で詳しく説明する。
[Estimation part]
The estimation unit 302 estimates the state of the vehicle driver (subject). In this example, the estimation unit 302 estimates the state of the driver based on the driver's saccades detected by the saccade detection unit 301 . The operation of estimation section 302 will be described later in detail.

〔注意度検出部〕
注意度検出部303は、車両の外部環境における注意度を検出する。注意度は、車両の外部環境における注意箇所(車両の運転者が走行中に確認すべき注意箇所)の多さを示す指標である。車両の外部環境において注意箇所が多くなるに連れて、車両の外部環境における注意度が高くなる。注意度検出部303により検出結果は、設定部304に供給される。注意箇所の例としては、動体の飛び出しが予測される箇所、自車両の障害物となり得る物体が存在する箇所などが挙げられる。
[Attention detection unit]
The caution level detection unit 303 detects the level of caution in the external environment of the vehicle. The degree of caution is an index that indicates the number of caution points (attention points that the driver of the vehicle should check while driving) in the external environment of the vehicle. As the number of places to be careful in the vehicle's external environment increases, the degree of caution in the vehicle's external environment increases. The detection result from the attention detection unit 303 is supplied to the setting unit 304 . Examples of caution points include a point where a moving object is expected to jump out and a point where there is an object that can be an obstacle to the vehicle.

例えば、注意度検出部303は、次のように車両の外部環境における注意度を検出してもよい。まず、注意度検出部303は、通信部24により得られた情報(高精度地図情報)を入力し、高精度地図情報の中から高注意度領域を検出する。高注意度領域とは、車両の運転者が走行中に確認すべき注意箇所が比較的に多い領域(例えば注意箇所の数が予め定められた閾値以上である領域)のことである。高注意度領域の例としては、T字路などの見通しの悪い道路環境を含む領域や、交差点などの障害物(例えば他車両)により自車両の走行が遮られる可能性がある道路環境を含む領域などが挙げられる。また、注意度検出部303は、位置センサ23により得られた情報(車両の位置)を入力する。そして、注意度検出部303は、車両の位置が高注意度領域に含まれている場合に、車両の外部環境における注意度が高注意度であることを検出し、車両の位置が高注意度領域に含まれていない場合に、車両の外部環境における注意度が低注意度であることを検出する。 For example, the caution level detection unit 303 may detect the level of caution in the external environment of the vehicle as follows. First, the attention detection unit 303 receives information (high-precision map information) obtained by the communication unit 24 and detects a high-precision area from the high-precision map information. A high caution area is an area where there are relatively many caution points that the driver of the vehicle should check while driving (for example, an area where the number of caution points is equal to or greater than a predetermined threshold value). Examples of high caution areas include road environments with poor visibility such as T-junctions, and road environments such as intersections where obstacles (for example, other vehicles) may block the vehicle's travel. area, etc. Also, the alertness detection unit 303 inputs information (vehicle position) obtained by the position sensor 23 . Then, when the position of the vehicle is included in the high caution level region, the caution level detection unit 303 detects that the level of caution in the external environment of the vehicle is a high caution level. When not included in the area, it is detected that the degree of caution in the external environment of the vehicle is low.

または、注意度検出部303は、次のように車両の外部環境における注意度を検出してもよい。まず、注意度検出部303は、外部環境認識部33により認識された車両の外部環境に中から注意箇所を検出する。そして、注意度検出部303は、車両の外部環境に含まれる注意箇所が比較的に多い場合(例えば注意箇所の数が予め定められた閾値以上である場合)に、車両の外部環境における注意度が高注意度であることを検出し、車両の外部環境に含まれる注意箇所が比較的に少ない場合(例えば注意箇所の数が予め定められた閾値よりも少ない場合)に、車両の外部環境における注意度が低注意度であることを検出する。 Alternatively, the caution level detection unit 303 may detect the level of caution in the external environment of the vehicle as follows. First, the caution level detection unit 303 detects caution points from within the external environment of the vehicle recognized by the external environment recognition unit 33 . Then, when there are relatively many caution points included in the vehicle's external environment (for example, when the number of caution points is equal to or greater than a predetermined threshold value), the caution level detection unit 303 detects the degree of caution in the vehicle's external environment. is a high degree of caution, and when the number of caution points included in the vehicle's external environment is relatively small (for example, when the number of caution points is less than a predetermined threshold value), in the vehicle's external environment Detect that attention level is low attention level.

なお、車両の外部環境における注意度が高注意度である走行シーンは、顕在化された注意箇所が比較的に多く、それらの注意箇所に視線を広範囲に向けることが要求される走行シーンであるといえる。また、車両の外部環境における注意度が低注意度である走行シーンは、顕在化された注意箇所が比較的に少なく、視線を頻繁に移動させて潜在的な注意箇所を探索することが要求される走行シーンであるといえる。以下では、車両の外部環境における注意度が高注意度である走行シーンを「危険確認シーン」と記載し、車両の外部環境における注意度が低注意度である走行シーンを「危険探索シーン」と記載する。 A driving scene in which the degree of caution in the external environment of the vehicle is high is a driving scene in which there are a relatively large number of caution points that have been revealed, and it is required to direct the line of sight to these caution points in a wide range. It can be said. In addition, in a driving scene in which the degree of caution in the external environment of the vehicle is low, there are relatively few caution points that have become obvious, and it is required to frequently move the line of sight to search for potential caution points. It can be said that it is a driving scene that Below, a driving scene with a high level of caution in the vehicle's external environment is referred to as a "danger confirmation scene", and a driving scene with a low level of caution in the vehicle's external environment is referred to as a "danger search scene". Describe.

〔設定部〕
設定部304は、推定部302における運転者(対象者)の状態の推定に用いられる異常条件を設定する。この例では、設定部304は、サッケード検出部301により検出された運転者のサッケードに基づいて、異常条件に含まれる閾値を設定する。なお、設定部304の動作については、後で詳しく説明する。
[Setting part]
The setting unit 304 sets an abnormal condition used for estimation of the state of the driver (subject) in the estimation unit 302 . In this example, the setting unit 304 sets the threshold included in the abnormal condition based on the driver's saccades detected by the saccade detection unit 301 . Note that the operation of the setting unit 304 will be described later in detail.

〔本願発明者により行われた実験〕
本願発明者は、運転者の状態と運転者の挙動(特に視線の動き)との関係を調べるために、下記のような実験を実施した。
[Experiments conducted by the inventor of the present application]
The inventors of the present application conducted the following experiments in order to investigate the relationship between the driver's state and the driver's behavior (particularly, movement of the line of sight).

まず、視野異常状態に関するデータを収集するために、同名半盲の症状を有する患者(以下では「同名半盲患者」と記載)を被験者として選出した。また、注意機能低下状態に関するデータを収集するために、注意機能障害を有する患者(以下では「注意障害患者」と記載)を被験者として選出した。また、正常状態に関するデータを収集するために、上記の症状を有さない健常者(以下では単に「健常者」と記載)を被験者として選出した。 First, patients with symptoms of homonymous hemianopsia (hereinafter referred to as "homonymous hemianopia patients") were selected as subjects in order to collect data on visual field abnormalities. In addition, patients with attentional dysfunction (hereinafter referred to as "attentionally impaired patients") were selected as subjects in order to collect data on states of attentional impairment. In addition, in order to collect data on normal conditions, healthy subjects without the above symptoms (hereinafter simply referred to as "healthy subjects") were selected as subjects.

そして、図8に示すように、ドライビングシミュレータ60を用いて車両の運転操作を被験者に擬似的に体験させた。具体的には、ドライビングシミュレータ60により車両の走行中の動画像(車内から見える車両の外部環境を示す動画像)を被験者に視聴させ、その被験者の実験中の挙動を観測することで、被験者の車両運転時の挙動を擬似的に観測した。この実験では、車両の走行中の動画像を視聴する被験者の前方にカメラを設置し、撮像範囲内に被験者の眼球が含まれるようにカメラを設定した。 Then, as shown in FIG. 8, a driving simulator 60 was used to allow the subjects to simulate driving operations of a vehicle. Specifically, the driving simulator 60 allows the test subject to view a moving image (a moving image showing the external environment of the vehicle that can be seen from inside the vehicle) while the vehicle is running, and observes the subject's behavior during the experiment. Behavior during vehicle driving was simulated. In this experiment, a camera was installed in front of a subject viewing moving images while the vehicle was running, and the camera was set so that the subject's eyeballs were included in the imaging range.

そして、カメラにより得られた画像データに対して視線検出処理を行うことで、被験者の視線を検出した。また、視線検出処理により得られた被験者の視線に対してサッケード検出処理を行うことで、被験者のサッケードを検出し、所定期間内におけるサッケードの振幅および頻度を算出した。これらの処理は、サッケード検出部301において行われる処理(図6参照)と同様である。 Then, by performing line-of-sight detection processing on the image data obtained by the camera, the subject's line of sight was detected. Further, by performing saccade detection processing on the subject's line of sight obtained by the line-of-sight detection processing, the saccade of the subject was detected, and the amplitude and frequency of the saccade within a predetermined period were calculated. These processes are the same as the processes performed in the saccade detector 301 (see FIG. 6).

以上の実験を複数の被験者に対して実施した。 The above experiments were performed on multiple subjects.

図9は、健常者および同名半盲患者の各々の右視野および左視野のサッケードの振幅を示し、図10は、健常者および同名半盲患者の各々の右視野と左視野とのサッケードの振幅の差を示す。図11は、健常者および同名半盲患者の各々の右視野および左視野のサッケードの頻度を示し、図12は、健常者および同名半盲患者の各々の右視野と左視野とのサッケードの頻度の差を示す。以下では、被験者の右サッケードと左サッケードとの振幅の差を「サッケード振幅左右差」と記載し、被験者の右サッケードと左サッケードとの頻度の差を「サッケード頻度左右差」と記載する。 FIG. 9 shows the saccade amplitudes in the right and left visual fields of a normal subject and a homonymous hemianopia patient, respectively, and FIG. shows the difference between FIG. 11 shows the frequency of saccades in the right and left visual fields in healthy subjects and homonymous hemianopia patients, respectively, and FIG. 12 shows the saccade frequencies in right and left visual fields in healthy subjects and homonymous hemianopia patients, respectively. shows the difference between Hereinafter, the difference in amplitude between right and left saccades of a subject is referred to as "saccade amplitude left-right difference", and the difference in frequency between right and left saccades of a subject is referred to as "saccade frequency difference".

図10に示すように、同名半盲患者のサッケード振幅左右差は、健常者のサッケード振幅左右差よりも大きい。図12に示すように、同名半盲患者のサッケード頻度左右差は、健常者のサッケード頻度左右差よりも大きい。これは、右視野および左視野のうち異常により見えていないところを補おうとする補償行動と推測される。 As shown in FIG. 10, the saccade amplitude laterality of the homonymous hemianopia patient is greater than the saccade amplitude laterality of the healthy subject. As shown in FIG. 12, the saccade frequency laterality of homonymous hemianopia patients is greater than that of healthy subjects. This is presumed to be a compensatory action to compensate for the part of the right visual field and left visual field that cannot be seen due to an abnormality.

また、注意障害患者は、全視野内のサッケードの振幅および頻度の少なくとも一方が健常者よりも少なくなる傾向があった。 Attention-impaired patients also tended to have less amplitude and/or frequency of saccades in the entire visual field than normal subjects.

〔本願発明者により得られた知見〕
上述の実験により、本願発明者は、以下の知見を得た。
[Knowledge obtained by the inventor of the present application]
The inventors of the present application obtained the following findings from the experiments described above.

(1)同名半盲患者のサッケード振幅左右差は、健常者のサッケード振幅左右差よりも大きく、且つ、同名半盲患者のサッケード頻度左右差は、健常者のサッケード頻度左右差よりも大きい。 (1) The saccade amplitude laterality of homonymous hemianopia patients is greater than that of healthy subjects, and the saccade frequency laterality of homonymous hemianopia patients is greater than that of healthy subjects.

(2)注意機能低下患者は、全視野内のサッケードの振幅および頻度の少なくとも一方が健常者よりも少なくなる。 (2) At least one of the amplitude and frequency of saccades in the entire visual field is lower in patients with attention deficits than in healthy subjects.

そして、本願発明者は、以上の知見から、以下のことを見出した。 Based on the above findings, the inventors of the present application have found the following.

(1)運転者の状態が視野異常状態になると、運転者のサッケード振幅左右差(右サッケードの振幅と左サッケードの振幅との差)が正常時よりも大きくなり、且つ、運転者のサッケード頻度左右差(右サッケードの頻度と左サッケードの頻度との差)が正常時よりも大きくなる。 (1) When the driver's condition is in the visual field abnormal state, the driver's saccade amplitude left-right difference (difference between the amplitude of the right saccade and the amplitude of the left saccade) becomes larger than that in the normal state, and the frequency of the driver's saccades. The left-right difference (the difference between the frequency of right saccades and the frequency of left saccades) becomes larger than normal.

(2)運転者の状態が注意低下状態になると、運転者の全視野内のサッケードの振幅および頻度の少なくとも一方が正常時よりも低くなる。 (2) When the driver's state becomes a state of reduced attention, at least one of the amplitude and frequency of saccades in the driver's entire visual field becomes lower than normal.

〔状態推定処理〕
次に、図13を参照して、推定部302の動作(状態推定処理)について説明する。推定部302は、予め定められた周期毎に、以下のステップST21~ST23の処理を行う。例えば、推定部302は、サッケード検出部301により推定期間P1内のサッケードの振幅dsおよび頻度fsが算出される毎に、以下の処理を行う。
[State estimation process]
Next, with reference to FIG. 13, the operation (state estimation processing) of estimation section 302 will be described. The estimating section 302 performs the following steps ST21 to ST23 for each predetermined cycle. For example, the estimation unit 302 performs the following processing every time the saccade detection unit 301 calculates the amplitude ds and the frequency fs of saccades within the estimation period P1.

〈ステップST21〉
推定部302は、推定期間P1内の右サッケードの振幅と推定期間P1内の左サッケードの振幅との差であるサッケード振幅左右差dLRが予め定められた振幅差閾値dLRth以上であるか否かを判定する。また、推定部302は、推定期間P1内の右サッケードの頻度と推定期間P1内の左サッケードの頻度との差であるサッケード頻度左右差fLRが予め定められた頻度差閾値fLRth以上であるか否かを判定する。
<Step ST21>
Estimating section 302 determines whether saccade amplitude left-right difference dLR, which is the difference between the amplitude of the right saccade within estimation period P1 and the amplitude of the left saccade within estimation period P1, is greater than or equal to a predetermined amplitude difference threshold value dLRth. judge. Further, the estimation unit 302 determines whether the saccade frequency left-right difference fLR, which is the difference between the frequency of the right saccade within the estimation period P1 and the frequency of the left saccade within the estimation period P1, is equal to or greater than a predetermined frequency difference threshold fLRth. determine whether

例えば、振幅差閾値dLRtは、運転者の状態が視野異常状態であるとみなせるときのサッケード振幅左右差dLRに設定される。具体的には、振幅差閾値dLRtは、0.8degに設定されてもよい。頻度差閾値fLRthは、運転者の状態が視野異常状態であるとみなせるときのサッケード頻度左右差fLRに設定される。具体的には、頻度差閾値fLRthは、0.21回/sに設定されてもよい。 For example, the amplitude difference threshold dLRt is set to the saccade amplitude left-right difference dLR when the driver's condition can be considered to be a visual field abnormal condition. Specifically, the amplitude difference threshold dLRt may be set to 0.8 deg. The frequency difference threshold value fLRth is set to the saccade frequency left-right difference fLR when the driver's condition can be considered to be the visual field abnormal condition. Specifically, the frequency difference threshold fLRth may be set to 0.21 times/s.

「サッケード振幅左右差dLRが振幅差閾値dLRth以上である」という第1条件および「サッケード頻度左右差fLRが頻度差閾値fLRth以上である」という第2条件の両方が成立する場合には、ステップST22の処理が行われ、そうでない場合には、ステップST23の処理が行われる。 If both the first condition that "the saccade amplitude left-right difference dLR is equal to or greater than the amplitude difference threshold dLRth" and the second condition that "the saccade frequency left-right difference fLR is equal to or greater than the frequency difference threshold fLRth" are established, step ST22. is performed, and if not, the process of step ST23 is performed.

〈ステップST22〉
第1条件および第2条件の両方が成立する場合、推定部302は、運転者の状態が視野異常状態であると推定する。この例では、推定部302は、視野異常状態であることを示すフラグを立てる。
<Step ST22>
When both the first condition and the second condition are satisfied, the estimating unit 302 estimates that the driver's condition is an abnormal visual field condition. In this example, the estimation unit 302 raises a flag indicating that the visual field is in an abnormal state.

〈ステップST23〉
第1条件および第2条件の少なくとも一方が成立しない場合、推定部302は、運転者の状態が視野異常状態であると推定しない。この例では、推定部302は、視野異常状態であることを示すフラグを立てない。
<Step ST23>
If at least one of the first condition and the second condition is not satisfied, the estimating unit 302 does not estimate that the driver's condition is the abnormal visual field condition. In this example, the estimation unit 302 does not raise a flag indicating that the visual field is abnormal.

〔実施形態1の効果〕
以上のように、第1条件および第2条件の両方の成立に基づいて、視野の左右の片側が異常となる視野異常状態を推定することができる。
[Effect of Embodiment 1]
As described above, based on the establishment of both the first condition and the second condition, it is possible to estimate a visual field abnormal state in which one of the left and right sides of the visual field is abnormal.

(状態推定処理の変形例)
なお、推定部302は、図14に示した状態推定処理を行うように構成されてもよい。図14に示した状態推定処理では、図13に示したステップST23に代えて、ステップST31~ST33の処理が行われる。
(Modified example of state estimation processing)
Note that the estimation unit 302 may be configured to perform the state estimation process shown in FIG. 14 . In the state estimation process shown in FIG. 14, steps ST31 to ST33 are performed instead of step ST23 shown in FIG.

〈ステップST31〉
ステップST21において第1条件および第2条件の少なくとも一方が成立しない場合、推定部302は、運転者の全視野内のサッケードの振幅dsが予め定められた振幅閾値dth1以下であるか否かを判定する。また、推定部302は、運転者の全視野内のサッケードの頻度fsが予め定められた頻度閾値fth1以下であるか否かを判定する。
<Step ST31>
If at least one of the first condition and the second condition is not satisfied in step ST21, the estimating section 302 determines whether or not the amplitude ds of the saccade within the driver's entire visual field is equal to or less than a predetermined amplitude threshold value dth1. do. The estimating unit 302 also determines whether or not the frequency fs of saccades in the driver's entire field of view is equal to or less than a predetermined frequency threshold fth1.

例えば,振幅閾値dth1は、運転者の状態が注意機能低下状態であるとみなせるときの運転者の全視野内のサッケードの振幅dsに設定される。頻度閾値fth1は、運転者の状態が注意機能低下状態であるとみなせるときの運転者の全視野内のサッケードの頻度fsに設定される。 For example, the amplitude threshold dth1 is set to the amplitude ds of saccades within the driver's entire field of view when the driver's condition can be considered to be in a state of impaired attention function. The frequency threshold fth1 is set to the frequency fs of saccades within the driver's entire field of view when the driver's condition can be considered to be in a state of reduced attention function.

「運転者の全視野内のサッケードの振幅dsが振幅閾値dth1以下である」という第3条件および「運転者の全視野内のサッケードの頻度fsが頻度閾値fth1以下である」という第4条件の少なくとも一方が成立する場合には、ステップST32へ進み、そうでない場合には、ステップST33へ進む。 The third condition that ``the amplitude ds of saccades in the driver's entire visual field is equal to or less than the amplitude threshold dth1'' and the fourth condition that ``the frequency fs of saccades in the driver's entire visual field is equal to or less than the frequency threshold fth1'' If at least one of them is satisfied, the process proceeds to step ST32; otherwise, the process proceeds to step ST33.

〈ステップST32〉
ステップST21において第1条件および第2条件の少なくとも一方が成立せず、ステップST31において第3条件および第4条件の少なくとも一方が成立する場合、推定部302は、運転者の状態が注意機能低下状態であると推定する。この例では、推定部302は、注意機能低下状態を示すフラグを立てる。
<Step ST32>
If at least one of the first condition and the second condition is not satisfied in step ST21, and if at least one of the third condition and the fourth condition is satisfied in step ST31, the estimating unit 302 determines that the state of the driver is a reduced attention function state. We assume that In this example, the estimating unit 302 raises a flag indicating a state of impaired attention function.

〈ステップST33〉
ステップST21において第1条件および第2条件の少なくとも一方が成立せず、ステップST31において第3条件および第4条件の両方が成立しない場合、推定部302は、運転者の状態が正常状態であると推定する。
<Step ST33>
If at least one of the first condition and the second condition is not satisfied in step ST21, and if both the third condition and the fourth condition are not satisfied in step ST31, the estimating section 302 determines that the driver's condition is normal. presume.

〔効果〕
以上のように、第1条件および第2条件の成立の可否と、第3条件および第4条件の成立の可否とに基づいて、突発性異常状態と注意機能低下状態とを区別して推定することができる。
〔effect〕
As described above, the sudden abnormal state and the reduced attention function state are distinguished and estimated based on whether the first and second conditions are met and whether the third and fourth conditions are met. can be done.

(車両制御部の動作)
車両制御部35は、推定部302により運転者の状態が視野異常状態であると推定されると、視野異常状態に応じた第1動作を行う。この例では、車両制御部35は、視野異常状態を示すフラグが立つと、第1動作を行う。第1動作の例としては、車両が安全領域で停車するように車両の走行を制御する動作、運転者の状態が視野異常状態であることを通知するための第1通知情報を出力する動作、運転者の状態が視野異常状態であることを車両の周囲に通知するための動作などが挙げられる。第1通知情報を出力する動作の例としては、第1通知情報を通知部40に出力する動作、通信部24を経由して第1通知情報を車外の情報端末(図示省略)に出力する動作などが挙げられる。運転者の状態が視野異常状態であることを車両の周囲に通知するための動作の例としては、車両のハザードランプ(図示省略)を点滅させる動作が挙げられる。
(Operation of vehicle control unit)
When the estimating unit 302 estimates that the driver is in an abnormal visual field state, the vehicle control unit 35 performs a first operation according to the abnormal visual field state. In this example, the vehicle control unit 35 performs the first operation when the flag indicating the abnormal visual field state is set. Examples of the first operation include an operation of controlling the running of the vehicle so that the vehicle stops in a safe area, an operation of outputting first notification information for notifying that the driver is in a visual field abnormal state, For example, an operation for notifying the surroundings of the vehicle that the driver's condition is an abnormal visual field condition is exemplified. Examples of the operation of outputting the first notification information include an operation of outputting the first notification information to the notification unit 40, and an operation of outputting the first notification information to an information terminal (not shown) outside the vehicle via the communication unit 24. etc. An example of the operation for notifying the surroundings of the vehicle that the driver is in the abnormal vision condition is the operation of blinking the hazard lamps (not shown) of the vehicle.

車両制御部35は、推定部302により運転者の状態が注意機能低下状態であると推定されると、注意機能低下状態に応じた第2動作を行う。この例では、車両制御部35は、注意機能低下状態を示すフラグが立つと、第2動作を行う。第2動作の例としては、運転者の注意機能低下状態を解消するための動作、運転者の状態が注意機能低下状態であることを通知するための第2通知情報を出力する動作などが挙げられる。運転者の注意機能低下状態を解消するための動作の例としては、運転者に休憩をとることを促すための警報情報を出力する動作、車両の運転に集中することを運転者に促すための注意喚起情報を出力する動作などが挙げられる。通知部40は、車両制御部35から出力された警報情報および/または注意喚起情報を入力する。これにより、通知部40は、警報情報および/または注意喚起情報を画像および/または音声で車内に出力する。第2通知情報を出力する動作の例としては、第2通知情報を通知部40に出力する動作、通信部24を経由して第2通知情報を車外の情報端末(図示省略)に出力する動作などが挙げられる。 When the estimation unit 302 estimates that the state of the driver is in the state of reduced attention function, the vehicle control unit 35 performs a second operation according to the state of reduced attention function. In this example, the vehicle control unit 35 performs the second operation when the flag indicating the attention function deterioration state is set. Examples of the second operation include an operation for resolving the driver's reduced attention function state, an operation for outputting second notification information for notifying that the driver is in a reduced attention function state, and the like. be done. Examples of actions for resolving the driver's attention function deterioration state include the action of outputting warning information to encourage the driver to take a break, and the action to encourage the driver to concentrate on driving the vehicle. For example, an operation of outputting alert information may be mentioned. The notification unit 40 receives warning information and/or attention information output from the vehicle control unit 35 . As a result, the notification unit 40 outputs the warning information and/or the alert information in the form of an image and/or sound inside the vehicle. Examples of the operation of outputting the second notification information include an operation of outputting the second notification information to the notification unit 40, and an operation of outputting the second notification information to an information terminal (not shown) outside the vehicle via the communication unit 24. etc.

〔第1動作〕
次に、図15を参照して、第1動作の一例について説明する。例えば、車両制御部35は、視野異常状態を示すフラグが立つと、以下のステップST101~ST103の処理を行う。
[First action]
Next, an example of the first operation will be described with reference to FIG. 15 . For example, the vehicle control unit 35 performs the processing of steps ST101 to ST103 below when a flag indicating an abnormal visual field state is set.

〈ステップST101〉
車両制御部35は、退避走行制御を行う。退避走行制御では、車両制御部35は、車両の進行方向前方の道路と道路上に存在する物体とを含む走行マップデータにおいて安全領域を設定し、その安全領域を目標位置とする走行経路(退避経路)を生成する。そして、車両制御部35は、車両が退避経路を走行して安全領域に停車するように、車両の走行を制御する。
<Step ST101>
The vehicle control unit 35 performs evacuation travel control. In evacuation control, the vehicle control unit 35 sets a safe area in the traveling map data including the road in front of the vehicle in the direction of travel and objects existing on the road, and determines a traveling route (evacuation route) whose target position is the safe area. route). Then, the vehicle control unit 35 controls the traveling of the vehicle so that the vehicle travels along the evacuation route and stops in the safe area.

〈ステップST102〉
車両制御部35は、車両が安全領域に停車したか否かを判定する。車両が安全領域に停車している場合には、ステップST103の処理が行われ、そうでない場合には、ステップST101の処理が継続される。
<Step ST102>
The vehicle control unit 35 determines whether or not the vehicle has stopped in the safe area. If the vehicle is stopped in the safe area, the process of step ST103 is performed, and if not, the process of step ST101 is continued.

〈ステップST103〉
車両が安全領域に停車すると、車両制御部35は、運転者の状態が視野異常状態であることを示す第1通知情報を通信部24に出力する。通信部24は、第1通知情報を医療機関の情報端末(図示省略)に送信する。この第1通知情報には、安全領域に停車している車両の位置を示す位置情報が含まれていてもよい。
<Step ST103>
When the vehicle stops in the safe area, the vehicle control unit 35 outputs to the communication unit 24 first notification information indicating that the driver's condition is the visual field abnormal condition. The communication unit 24 transmits the first notification information to an information terminal (not shown) of the medical institution. This first notification information may include position information indicating the position of the vehicle stopped in the safe area.

〔第2動作〕
次に、図16を参照して、第2動作の一例について説明する。例えば、車両制御部35は、注意機能低下状態を示すフラグが立つと、以下のステップST201~ST203の処理を行う。
[Second action]
Next, an example of the second operation will be described with reference to FIG. For example, the vehicle control unit 35 performs the processing of steps ST201 to ST203 below when the flag indicating the attention function deterioration state is set.

〈ステップST201〉
車両制御部35は、車両を停車させて休憩をとることを運転者に促すための警報情報を通知部40に出力する。通知部40は、警報情報を画像および/または音声で出力する。具体的には、表示部41は、警報情報を表示する。スピーカ42は、警報情報を音声で再生する。これにより、運転者は、車両を停車させるための運転操作を行う。
<Step ST201>
The vehicle control unit 35 outputs alarm information to the notification unit 40 to prompt the driver to stop the vehicle and take a rest. The notification unit 40 outputs warning information in the form of images and/or sounds. Specifically, the display unit 41 displays warning information. The speaker 42 reproduces the warning information by voice. Thereby, the driver performs a driving operation for stopping the vehicle.

〈ステップST202〉
車両制御部35は、車両が停車したか否かを判定する。車両が停車している場合には、ステップST203の処理が行われ、そうでない場合には、ステップST201の処理が継続される。
<Step ST202>
The vehicle control unit 35 determines whether or not the vehicle has stopped. If the vehicle is stopped, the process of step ST203 is performed, and if not, the process of step ST201 is continued.

〈ステップST203〉
車両が停車すると、車両制御部35は、通知部40による警報情報の出力が停止するように通知部40を制御する。
<Step ST203>
When the vehicle stops, the vehicle control unit 35 controls the notification unit 40 so that the output of the warning information by the notification unit 40 is stopped.

〔効果〕
以上のように、推定部302により推定された運転者の状態に応じた動作を適切に行うことができる。具体的には、運転者の状態が視野異常状態であると推定される場合に、車両を安全領域に停車させることができる。これにより、自車両(運転者が運転する車両)および自車両の周囲にいる他車両の安全を確保することができる。また、運転者の状態が注意機能低下状態であると推定される場合に、運転者に休憩をとることを促すことができる。これにより、運転者の状態を注意機能低下状態から正常状態に回復させることができ、車両の走行安全性を確保することができる。
〔effect〕
As described above, the operation corresponding to the state of the driver estimated by the estimation unit 302 can be performed appropriately. Specifically, the vehicle can be stopped in a safe area when the driver's condition is estimated to be an abnormal visual field condition. As a result, the safety of the own vehicle (the vehicle driven by the driver) and other vehicles around the own vehicle can be ensured. Further, when the driver's state is estimated to be in a state of reduced attention function, it is possible to prompt the driver to take a rest. As a result, the condition of the driver can be recovered from the attention function deterioration condition to the normal condition, and the running safety of the vehicle can be ensured.

(設定部の動作)
設定部304は、閾値設定処理を行う。閾値設定処理では、推定部302における運転者(対象者)の状態の推定に用いられる異常条件が設定される。この例では、振幅差閾値dLRthおよび頻度差閾値fLRthが設定される。具体的には、振幅差閾値dLRthおよび頻度差閾値fLRthは、車両の走行シーンが予め定められた走行シーンであるときのサッケードの振幅dsおよび頻度fsに基づいて設定される。
(Operation of setting section)
The setting unit 304 performs threshold setting processing. In the threshold setting process, an abnormal condition used for estimating the state of the driver (subject) in the estimating unit 302 is set. In this example, an amplitude difference threshold dLRth and a frequency difference threshold fLRth are set. Specifically, the amplitude difference threshold dLRth and the frequency difference threshold fLRth are set based on the amplitude ds and the frequency fs of saccades when the driving scene of the vehicle is a predetermined driving scene.

〔閾値設定処理〕
次に,図17を参照して、閾値設定処理について説明する。設定部304は、予め定められた周期毎に、以下のステップST301~ST303の処理を行う。なお、設定部304は、運転者の指示に応答して以下の処理を行うように構成されてもよい。
[Threshold setting process]
Next, the threshold setting process will be described with reference to FIG. Setting section 304 performs the processing of steps ST301 to ST303 below at predetermined intervals. Note that the setting unit 304 may be configured to perform the following processing in response to an instruction from the driver.

〈ステップST301〉
設定部304は、車両の走行シーンが予め定められた走行シーンに該当するか否かを判定する。この例では、予め定められた走行シーンは、危険探索シーンである。設定部304は、注意度検出部303により検出された車両の外部環境における注意度に基づいて、車両の走行シーンが危険探索シーンに該当するか否かを判定する。車両の走行シーンが予め定められた走行シーンに該当すると、ステップST302の処理が行われる。
<Step ST301>
The setting unit 304 determines whether or not the driving scene of the vehicle corresponds to a predetermined driving scene. In this example, the predetermined driving scene is a danger exploration scene. The setting unit 304 determines whether or not the driving scene of the vehicle corresponds to the danger search scene based on the degree of caution in the external environment of the vehicle detected by the caution level detection unit 303 . When the driving scene of the vehicle corresponds to a predetermined driving scene, the process of step ST302 is performed.

〈ステップST302〉
設定部304は、サッケード検出部301により検出されたサッケードの振幅dsおよび頻度fsを収集する。なお、ステップST302において収集されるサッケードの振幅dsおよび頻度fsは、運転者が正常状態であるとみなせる場合のサッケードの振幅dsおよび頻度fsであることが好ましい。
<Step ST302>
The setting unit 304 collects the amplitude ds and frequency fs of saccades detected by the saccade detection unit 301 . The amplitude ds and frequency fs of saccades collected in step ST302 are preferably the amplitude ds and frequency fs of saccades when the driver can be considered to be in a normal state.

〈ステップST303〉
次に、設定部304は、サッケードの振幅dsに基づいて、振幅差閾値dLRthを設定する。また、設定部304は、サッケードの頻度fsに基づいて、頻度差閾値fLRthを設定する。例えば、設定部304は、振幅差閾値dLRthを「ステップST302において収集されたサッケードの振幅dsの平均値の50%」に設定し、頻度差閾値fLRthを「ステップST302において収集されたサッケードの頻度fsの平均値の75%」に設定する。
<Step ST303>
Next, the setting unit 304 sets the amplitude difference threshold dLRth based on the saccade amplitude ds. The setting unit 304 also sets the frequency difference threshold fLRth based on the saccade frequency fs. For example, setting section 304 sets amplitude difference threshold dLRth to “50% of the average value of amplitudes ds of saccades collected in step ST302” and frequency difference threshold fLRth to “frequency fs of saccades collected in step ST302”. 75% of the average value of

〔効果〕
以上のように、運転者の特性を考慮して振幅差閾値dLRthおよび頻度差閾値fLRthを適切に設定することができる。これにより、運転者の状態推定の精度を向上させることができる。
〔effect〕
As described above, the amplitude difference threshold dLRth and the frequency difference threshold fLRth can be appropriately set in consideration of the characteristics of the driver. As a result, it is possible to improve the accuracy of estimating the state of the driver.

(実施形態2)
図18および図19は、実施形態2の表示機器100の外観および構成を例示する。この例では、表示機器100は、スマートフォンを構成する。具体的には、表示機器100は、筐体100aと、表示部110と、スピーカ111と、記憶部112と、情報取得部120と、制御装置130とを備える。
(Embodiment 2)
18 and 19 illustrate the appearance and configuration of the display device 100 of Embodiment 2. FIG. In this example, the display device 100 constitutes a smart phone. Specifically, the display device 100 includes a housing 100 a , a display section 110 , a speaker 111 , a storage section 112 , an information acquisition section 120 and a control device 130 .

〔筐体〕
筐体100aは、扁平な直方体型の箱状に形成される。筐体100aには、表示機器100の構成部品が収納される。
[Chassis]
The housing 100a is formed in the shape of a flat rectangular parallelepiped box. Components of the display device 100 are housed in the housing 100a.

〔表示部とスピーカと記憶部〕
表示部110は、画像を表示する。図18に示すように、表示部110は、矩形状に形成され、筐体100aの前面に設けられる。スピーカ111は、音を再生する。記憶部112は、各種の情報およびデータを記憶する。
[Display, speaker, and memory]
Display unit 110 displays an image. As shown in FIG. 18, the display unit 110 is formed in a rectangular shape and provided on the front surface of the housing 100a. The speaker 111 reproduces sound. The storage unit 112 stores various information and data.

〔情報取得部〕
情報取得部120は、表示機器100において用いられる各種情報を取得する。この例では、情報取得部120は、フロントカメラ121と、リアカメラ122と、操作部123と、通信部124と、マイクロフォン125と、位置センサ126と、状態センサ127と、環境センサ128とを含む。
[Information Acquisition Unit]
The information acquisition unit 120 acquires various information used in the display device 100 . In this example, information acquisition unit 120 includes front camera 121, rear camera 122, operation unit 123, communication unit 124, microphone 125, position sensor 126, state sensor 127, and environment sensor 128. .

〈フロントカメラとリアカメラ〉
フロントカメラ121は、筐体100aの前面に設けられ、リアカメラ122は、筐体100aの後面に設けられる。フロントカメラ121は、表示機器100の前方に広がる領域(前方領域)を撮像することで、表示機器100の前方領域を示す画像データを取得する。リアカメラ122は、表示機器100の後方に広がる領域(後方領域)を撮像することで、表示機器100の後方領域を示す画像データを取得する。フロントカメラ121およびリアカメラ122の各々により得られた画像データは、制御装置130に送信される。例えば、フロントカメラ121およびリアカメラ122は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。
<Front camera and rear camera>
The front camera 121 is provided on the front surface of the housing 100a, and the rear camera 122 is provided on the rear surface of the housing 100a. The front camera 121 acquires image data indicating the front area of the display device 100 by capturing an image of the area (front area) extending in front of the display device 100 . The rear camera 122 acquires image data indicating the rear area of the display device 100 by capturing an image of the area (rear area) extending behind the display device 100 . Image data obtained by each of front camera 121 and rear camera 122 is transmitted to control device 130 . For example, the front camera 121 and the rear camera 122 are configured using a solid-state imaging device such as a CCD (Charge Coupled Device) or CMOS (Complementary metal-oxide-semiconductor).

〈操作部〉
操作部123は、表示機器の利用者により操作される。操作部123は、利用者により与えられた操作に応じた信号を出力する。このような構成により、利用者は、操作部123を操作して情報を入力することができる。操作部123の出力は、制御装置130に送信される。この例では、操作部123は、表示部110とともにタッチパネルを構成するタッチパネル操作部を含む。なお、操作部123は、タッチパネル操作部の他に、操作ダイヤル、操作ボタンなどを含んでもよい。
<Operation unit>
The operation unit 123 is operated by the user of the display device. The operation unit 123 outputs a signal according to the operation given by the user. With such a configuration, the user can operate the operation unit 123 to input information. The output of the operation unit 123 is transmitted to the control device 130 . In this example, operation unit 123 includes a touch panel operation unit that forms a touch panel together with display unit 110 . Note that the operation unit 123 may include an operation dial, an operation button, etc. in addition to the touch panel operation unit.

〈通信部〉
通信部124は、表示機器100の外部に設けられた通信ネットワーク(例えばインターネットや携帯電話回線など)を通じて情報およびデータを受信する。例えば、通信部124は、他の情報端末(図示省略)からの音声データ、画像データ、地図情報などを受信する。通信部124により得られた情報およびデータは、制御装置130に送信される。
<Communication part>
The communication unit 124 receives information and data through a communication network provided outside the display device 100 (for example, the Internet, a mobile phone line, etc.). For example, the communication unit 124 receives audio data, image data, map information, etc. from another information terminal (not shown). Information and data obtained by communication unit 124 are transmitted to control device 130 .

〈マイクロフォン〉
マイクロフォン125は、音声を電気信号に変換する。マイクロフォン125により得られた電気信号(音声データ)は、制御装置130に送信される。
<microphone>
Microphone 125 converts sound into electrical signals. An electrical signal (audio data) obtained by the microphone 125 is transmitted to the control device 130 .

〈位置センサ〉
位置センサ126は、表示機器100の位置(例えば緯度および経度)を検出する。例えば、位置センサ126は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて表示機器100の位置を検出する。位置センサ126により得られた情報(表示機器100の位置)は、制御装置130に送信される。
<Position sensor>
Position sensor 126 detects the position (eg, latitude and longitude) of display device 100 . For example, the position sensor 126 receives GPS information from the global positioning system and detects the position of the display device 100 based on the GPS information. Information (the position of the display device 100 ) obtained by the position sensor 126 is transmitted to the control device 130 .

〈状態センサ〉
状態センサ127は、表示機器100の状態(例えば加速度や角速度や姿勢など)を検出する。例えば、状態センサ127は、加速度センサ、ジャイロセンサなどを含む。状態センサ127により得られた情報(表示機器100の状態)は、制御装置130に送信される。
<Status sensor>
The state sensor 127 detects the state of the display device 100 (eg, acceleration, angular velocity, attitude, etc.). For example, state sensor 127 includes an acceleration sensor, a gyro sensor, and the like. Information (the state of the display device 100 ) obtained by the state sensor 127 is transmitted to the control device 130 .

〈環境センサ〉
環境センサ128は、表示機器100の周囲に広がる環境に関する情報(例えば光や磁気など)を検出する。例えば、環境センサ128は、光センサ、磁気センサ、近接センサなどを含む。環境センサ128により得られた情報(表示機器100の周囲環境に関する情報)は、制御装置130に送信される。
<Environment sensor>
The environment sensor 128 detects information about the environment surrounding the display device 100 (for example, light, magnetism, etc.). For example, environmental sensors 128 include optical sensors, magnetic sensors, proximity sensors, and the like. Information obtained by the environment sensor 128 (information about the surrounding environment of the display device 100 ) is transmitted to the control device 130 .

〔制御装置〕
制御装置130は、表示機器100の各部(この例では表示部110とスピーカ111と記憶部112と情報取得部120)と信号伝送可能に接続される。そして、制御装置130は、表示機器100の各部により得られた情報に基づいて表示機器100の各部を制御する。なお、制御装置130は、状態推定装置の一例である。
〔Control device〕
The control device 130 is connected to each part of the display device 100 (in this example, the display part 110, the speaker 111, the storage part 112, and the information acquisition part 120) so that signal transmission is possible. Then, the control device 130 controls each part of the display device 100 based on the information obtained by each part of the display device 100 . Note that the control device 130 is an example of a state estimation device.

例えば、制御装置130は、1つまたは複数のIC(Integrated Circuit)により構成される。IC内には、単一のコアまたはダイが設けられてもよいし、連携する複数のコアまたはダイが設けられてもよい。コアまたはダイは、例えば、CPU(プロセッサ)と、CPUを動作させるためのプログラムやCPUでの処理結果などの情報を記憶するメモリとにより構成されてもよい。 For example, the control device 130 is composed of one or more ICs (Integrated Circuits). A single core or die may be provided within an IC, or multiple cores or dies may be provided in conjunction. The core or die may be composed of, for example, a CPU (processor) and a memory that stores information such as programs for operating the CPU and results of processing by the CPU.

この例では、制御装置130は、制御部131と、状態推定部300とを含む。制御部131は、利用者(対象者)の状態に応じた動作を行う制御部の一例である。 In this example, controller 130 includes controller 131 and state estimator 300 . The control unit 131 is an example of a control unit that operates according to the state of the user (subject).

〈制御部〉
制御部131は、表示機器100の各部により得られた情報に基づいて表示機器100の各部を制御する。例えば、制御部131は、情報取得部120により得られた情報およびデータを記憶部112に記憶する。
<Control unit>
The control unit 131 controls each unit of the display device 100 based on information obtained by each unit of the display device 100 . For example, the control unit 131 stores information and data obtained by the information acquisition unit 120 in the storage unit 112 .

この例では、制御部131は、表示制御、通話制御などを行う。表示制御では、制御部131は、画像データを表示部110に出力する。表示部110は、画像データに示された画像を再生する。通話制御では、制御部131は、通信部124により得られた音声データをスピーカ111に出力する。スピーカ111は、音声データに示された音声を再生する。また、制御部131は、マイクロフォン125により得られた音声データを、通信部124を経由して通信ネットワークに送信する。 In this example, the control unit 131 performs display control, call control, and the like. In display control, the control unit 131 outputs image data to the display unit 110 . Display unit 110 reproduces the image indicated by the image data. In call control, the control unit 131 outputs audio data obtained by the communication unit 124 to the speaker 111 . Speaker 111 reproduces the sound indicated by the sound data. Also, the control unit 131 transmits voice data obtained by the microphone 125 to the communication network via the communication unit 124 .

〈状態推定部〉
実施形態2における状態推定部300の構成は、実施形態1における状態推定部300の構成と同様である。状態推定部300は、利用者(対象者)の状態を推定する。
<State estimation unit>
The configuration of the state estimator 300 in the second embodiment is the same as the configuration of the state estimator 300 in the first embodiment. The state estimation unit 300 estimates the state of the user (subject).

実施形態2では、フロントカメラ121は、表示機器100の利用者の顔(特に眼球)を含む画像データを取得することが可能である。サッケード検出部301は、フロントカメラ121により得られた画像データに対して視線検出処理を行うことで、利用者の視線を検出する。推定部302は、サッケード検出部301により検出された利用者のサッケードに基づいて、利用者の状態を推定する。なお、実施形態2の推定部302の動作は、実施形態1の推定部302の動作(図13,図14参照)と同様である。 In the second embodiment, the front camera 121 can acquire image data including the face (especially eyeballs) of the user of the display device 100 . The saccade detection unit 301 detects the user's line of sight by performing line-of-sight detection processing on the image data obtained by the front camera 121 . The estimation unit 302 estimates the state of the user based on the user's saccades detected by the saccade detection unit 301 . The operation of the estimating unit 302 of the second embodiment is the same as the operation of the estimating unit 302 of the first embodiment (see FIGS. 13 and 14).

また、実施形態2では、制御部131は、推定部302により運転者の状態が視野異常状態であると推定されると、視野異常状態に応じた第1動作を行う。第1動作の例としては、利用者の状態が視野異常状態であることを通知するための第1通知情報を出力する動作、利用者の状態が視野異常状態であることを表示機器100の周囲に通知するための動作などが挙げられる。第1通知情報を出力する動作の例としては、第1通知情報を表示部110および/またはスピーカ111に出力する動作、通信部124を経由して第1通知情報を他の情報端末(図示省略)に出力する動作などが挙げられる。利用者の状態が視野異常状態であることを表示機器100の周囲に通知するための動作の例としては、表示機器100のライト(図示省略)を点滅させる動作が挙げられる。 Further, in the second embodiment, when the estimating unit 302 estimates that the driver's condition is an abnormal visual field condition, the control unit 131 performs the first operation according to the abnormal visual field condition. Examples of the first operation include an operation of outputting first notification information for notifying that the user is in the abnormal visual field, For example, an operation for notifying the Examples of the operation of outputting the first notification information include an operation of outputting the first notification information to the display unit 110 and/or the speaker 111, and an operation of outputting the first notification information to another information terminal (not shown) via the communication unit 124. ), and the like. An example of the operation for notifying the surroundings of the display device 100 that the user is in the abnormal visual field state is the operation of blinking a light (not shown) of the display device 100 .

また、実施形態2では、制御部131は、推定部302により運転者の状態が注意機能低下状態であると推定されると、注意機能低下状態に応じた第2動作を行う。第2動作の例としては、利用者の注意機能低下状態を解消するための動作、利用者の状態が注意機能低下状態であることを通知するための第2通知情報を出力する動作などが挙げられる。利用者の注意機能低下状態を解消するための動作の例としては、利用者に休憩をとることを促すための警報情報を出力する動作、表示機器100の操作に集中することを利用者に促すための注意喚起情報を出力する動作などが挙げられる。表示部110および/またはスピーカ111は、制御部131から出力された警報情報および注意喚起情報を入力する。これにより、警報情報および注意喚起情報が画像および/または音声で利用者に出力される。第2通知情報を出力する動作の例としては、第2通知情報を表示部110および/またはスピーカ111に出力する動作、通信部124を経由して第2通知情報を他の情報端末(図示省略)に出力する動作などが挙げられる。 Further, in the second embodiment, when the estimation unit 302 estimates that the state of the driver is in the state of reduced attention function, the control unit 131 performs the second action according to the state of reduced attention function. Examples of the second operation include an operation for resolving the user's attention function deterioration state, an operation for outputting second notification information for notifying that the user is in the attention function deterioration state, and the like. be done. Examples of the operation for resolving the user's attention function deterioration state include an operation of outputting warning information to prompt the user to take a break, and prompting the user to concentrate on operating the display device 100. For example, an operation of outputting alert information for Display unit 110 and/or speaker 111 receives alarm information and alert information output from control unit 131 . As a result, warning information and alert information are output to the user in the form of images and/or sounds. Examples of the operation of outputting the second notification information include an operation of outputting the second notification information to the display unit 110 and/or the speaker 111, and an operation of outputting the second notification information to another information terminal (not shown) via the communication unit 124. ), and the like.

〔実施形態2の効果〕
実施形態2の表示機器100では、実施形態1の効果と同様の効果を得ることが可能である。例えば、身体機能が急低下する視野異常状態を推定することができる。
[Effect of Embodiment 2]
The display device 100 of the second embodiment can obtain the same effects as those of the first embodiment. For example, it is possible to estimate a visual field abnormality state in which physical function suddenly deteriorates.

(その他の実施形態)
なお、以上の説明では、移動体の一例として車両を挙げたが、これに限定されない。例えば、移動体の他の例としては、船舶、飛行機などが挙げられる。
(Other embodiments)
In addition, in the above description, a vehicle is used as an example of a moving object, but the present invention is not limited to this. For example, other examples of moving bodies include ships and airplanes.

また、以上の説明では、表示機器100がスマートフォンである場合を例に挙げたが、これに限定されない。例えば、表示機器100は、テレビ受像機であってもよいし、ゲーム機であってもよいし、その他の機器であってもよい。 Also, in the above description, the case where the display device 100 is a smart phone was taken as an example, but the present invention is not limited to this. For example, the display device 100 may be a television receiver, a game machine, or other device.

また、以上の実施形態を適宜組み合わせて実施してもよい。以上の実施形態は、本質的に好ましい例示であって、この発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。 Also, the above embodiments may be combined as appropriate. The above embodiments are essentially preferable illustrations, and are not intended to limit the scope of the invention, its applications, or its uses.

以上説明したように、ここに開示する技術は、状態推定装置として有用である。 As described above, the technology disclosed herein is useful as a state estimation device.

10 車両制御システム
11 アクチュエータ
20 情報取得部
27 運転者状態センサ
28 車内カメラ(撮像部)
30 車両制御装置(状態推定装置)
35 車両制御部(制御部)
300 状態推定部
301 サッケード検出部
302 推定部
303 注意度検出部
304 設定部
40 通知部
41 表示部
42 スピーカ
100 表示機器
110 表示部
120 情報取得部
121 フロントカメラ(撮像部)
130 制御装置(状態推定装置)
131 制御部
10 vehicle control system 11 actuator 20 information acquisition unit 27 driver state sensor 28 in-vehicle camera (imaging unit)
30 vehicle control device (state estimation device)
35 vehicle control unit (control unit)
300 state estimation unit 301 saccade detection unit 302 estimation unit 303 caution level detection unit 304 setting unit 40 notification unit 41 display unit 42 speaker 100 display device 110 display unit 120 information acquisition unit 121 front camera (imaging unit)
130 control device (state estimation device)
131 control unit

Claims (5)

車両を運転する運転者である対象者の状態を推定する状態推定装置であって、
前記対象者の意図的に視線を移動させる跳躍性眼球運動であるサッケードを検出するサッケード検出部と、
前記対象者による前記車両の運転中に、予め定められた推定期間内における前記対象者の右視野内のサッケードの振幅と左視野内のサッケードの振幅との差が予め定められた振幅差閾値以上であるという第1条件および前記推定期間内における前記対象者の右視野内のサッケードの頻度と左視野内のサッケードの頻度との差が予め定められた頻度差閾値以上であるという第2条件の両方が成立する場合に、前記対象者の状態が視野の左右の片側が異常となる視野異常状態であると推定する推定部とを備える
ことを特徴とする状態推定装置。
A state estimation device for estimating the state of a subject who is a driver of a vehicle ,
a saccade detection unit that detects a saccade that is a jumping eye movement that intentionally moves the line of sight of the subject;
During the driving of the vehicle by the subject, the difference between the amplitude of the saccades in the right visual field and the amplitude of the saccades in the left visual field of the subject within a predetermined estimation period is equal to or greater than a predetermined amplitude difference threshold. and the second condition that the difference between the frequency of saccades in the right visual field and the frequency of saccades in the left visual field of the subject within the estimation period is equal to or greater than a predetermined frequency difference threshold. and an estimating unit for estimating that the subject's state is a visual field abnormality state in which one of the left and right sides of the visual field is abnormal when both conditions are satisfied.
請求項1において、
前記推定部は、前記第1条件および前記第2条件の少なくとも一方が成立せず、前記推定期間内における前記対象者の全視野内のサッケードの振幅が予め定められた振幅閾値以下であるという第3条件および前記推定期間内における前記対象者の全視野内のサッケードの頻度が予め定められた頻度閾値以下であるという第4条件の少なくとも一方が成立する場合に、前記対象者の状態が注意機能低下状態であると推定する
ことを特徴とする状態推定装置。
In claim 1,
The estimator determines that at least one of the first condition and the second condition is not satisfied and the amplitude of the saccade in the entire visual field of the subject within the estimation period is equal to or less than a predetermined amplitude threshold. When at least one of three conditions and a fourth condition that the frequency of saccades in the entire visual field of the subject within the estimation period is equal to or less than a predetermined frequency threshold is established, the subject's state is an attention function. A state estimating device characterized by estimating that it is in a lowered state.
請求項2において、
前記対象者の状態が前記視野異常状態であると推定された場合に、前記視野異常状態に応じた第1動作を行い、前記対象者の状態が前記注意機能低下状態であると推定された場合に、前記注意機能低下状態に応じた第2動作を行う制御部を備える
ことを特徴とする状態推定装置。
In claim 2,
When the state of the subject is estimated to be the abnormal visual field state, performing a first action according to the abnormal visual field state, and when the state of the subject is estimated to be the reduced attention function state (2) a state estimation device comprising: a control unit that performs a second action according to the attention function deterioration state;
請求項3において
前記第1動作は、前記車両が安全領域に退避するように前記車両の走行を制御する動作を含み、
前記第2動作は、前記運転者に休憩をとることを促すための情報を出力する動作を含む
ことを特徴とする状態推定装置。
In claim 3 ,
The first operation includes an operation of controlling travel of the vehicle so that the vehicle evacuates to a safe area;
The state estimation device, wherein the second action includes an action of outputting information for prompting the driver to take a rest.
請求項1~4のいずれか1つにおいて
前記振幅差閾値および前記頻度差閾値は、前記車両の走行シーンが予め定められた走行シーンであるときの前記サッケードの振幅および頻度に基づいて設定される
ことを特徴とする状態推定装置。
In any one of claims 1 to 4 ,
The state estimation device, wherein the amplitude difference threshold and the frequency difference threshold are set based on the amplitude and frequency of the saccade when the vehicle travels in a predetermined travel scene.
JP2020030011A 2020-02-26 2020-02-26 state estimator Active JP7298510B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020030011A JP7298510B2 (en) 2020-02-26 2020-02-26 state estimator

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020030011A JP7298510B2 (en) 2020-02-26 2020-02-26 state estimator

Publications (2)

Publication Number Publication Date
JP2021133755A JP2021133755A (en) 2021-09-13
JP7298510B2 true JP7298510B2 (en) 2023-06-27

Family

ID=77659919

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020030011A Active JP7298510B2 (en) 2020-02-26 2020-02-26 state estimator

Country Status (1)

Country Link
JP (1) JP7298510B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140152792A1 (en) 2011-05-16 2014-06-05 Wesley W. O. Krueger Physiological biosensor system and method for controlling a vehicle or powered equipment
JP2016523112A (en) 2013-05-31 2016-08-08 ディグニティー ヘルス System and method for detecting neurological diseases
JP2017023519A (en) 2015-07-24 2017-02-02 株式会社デンソー State estimation device and state estimation program
US20170215784A1 (en) 2016-02-02 2017-08-03 Robert Bosch Gmbh Method and apparatus for recognizing fatigue affecting a driver
JP2017224066A (en) 2016-06-14 2017-12-21 大学共同利用機関法人自然科学研究機構 Looking aside state determination device
JP2019195377A (en) 2018-05-07 2019-11-14 オムロン株式会社 Data processing device, monitoring system, awakening system, data processing method, and data processing program
JP2021077136A (en) 2019-11-11 2021-05-20 マツダ株式会社 Driver state detection device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140152792A1 (en) 2011-05-16 2014-06-05 Wesley W. O. Krueger Physiological biosensor system and method for controlling a vehicle or powered equipment
JP2016523112A (en) 2013-05-31 2016-08-08 ディグニティー ヘルス System and method for detecting neurological diseases
JP2017023519A (en) 2015-07-24 2017-02-02 株式会社デンソー State estimation device and state estimation program
US20170215784A1 (en) 2016-02-02 2017-08-03 Robert Bosch Gmbh Method and apparatus for recognizing fatigue affecting a driver
JP2017224066A (en) 2016-06-14 2017-12-21 大学共同利用機関法人自然科学研究機構 Looking aside state determination device
JP2019195377A (en) 2018-05-07 2019-11-14 オムロン株式会社 Data processing device, monitoring system, awakening system, data processing method, and data processing program
JP2021077136A (en) 2019-11-11 2021-05-20 マツダ株式会社 Driver state detection device

Also Published As

Publication number Publication date
JP2021133755A (en) 2021-09-13

Similar Documents

Publication Publication Date Title
JP5179686B2 (en) Driving behavior risk calculation device
JP7099037B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
JPWO2017195405A1 (en) Image processing apparatus, image processing method, and moving body
JP7342638B2 (en) Driver status detection device
JP7459634B2 (en) Driver Abnormality Judgment System
JP2020142652A (en) Vehicle driving control system
JP7210929B2 (en) Driving consciousness estimation device
JP2020131843A (en) Vehicular operation control system
WO2019155914A1 (en) Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium
WO2019155913A1 (en) Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium
JP7099036B2 (en) Data processing equipment, monitoring system, awakening system, data processing method, and data processing program
JP7331728B2 (en) Driver state estimation device
JP7331729B2 (en) Driver state estimation device
US20210316737A1 (en) Driver abnormality determination apparatus, method and computer program
JP7342637B2 (en) Vehicle control device and driver condition determination method
JP7298510B2 (en) state estimator
JP7298508B2 (en) state estimator
JP7298509B2 (en) state estimator
JP7318560B2 (en) state estimator
US20210316736A1 (en) Driver abnormality determination apparatus, method and computer program
JP7342636B2 (en) Vehicle control device and driver condition determination method
JP7384051B2 (en) Vehicle travel control device and travel control method
JP2022142984A (en) Driving assistance device and computer program
JP2023022410A (en) Driver state determination method and driver state determination system
JP2023022409A (en) Driver state determination method and driver state determination system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230516

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230529

R150 Certificate of patent or registration of utility model

Ref document number: 7298510

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150