JP7298510B2 - state estimator - Google Patents
state estimator Download PDFInfo
- Publication number
- JP7298510B2 JP7298510B2 JP2020030011A JP2020030011A JP7298510B2 JP 7298510 B2 JP7298510 B2 JP 7298510B2 JP 2020030011 A JP2020030011 A JP 2020030011A JP 2020030011 A JP2020030011 A JP 2020030011A JP 7298510 B2 JP7298510 B2 JP 7298510B2
- Authority
- JP
- Japan
- Prior art keywords
- state
- vehicle
- driver
- visual field
- saccade
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Eye Examination Apparatus (AREA)
Description
ここに開示する技術は、対象者の状態を推定する状態推定装置に関する。 The technology disclosed herein relates to a state estimation device that estimates the state of a subject.
特許文献1には、車両の運転者の異常を検出する車両制御装置が開示されている。この車両制御装置は、車両の運転者の体温を計測する体温計測部と、車両の走行状態が異常であるか否かを判定する走行状態判定部と、体温計測部の計測結果および走行状態判定部の判定結果に基づいて、車両を制御する車両制御部とを有する。 Japanese Unexamined Patent Application Publication No. 2002-200000 discloses a vehicle control device that detects an abnormality of a vehicle driver. This vehicle control device includes a body temperature measurement unit that measures the body temperature of the driver of the vehicle, a running state determination unit that determines whether the running state of the vehicle is abnormal, a measurement result of the body temperature measurement unit and the running state determination. and a vehicle control unit that controls the vehicle based on the determination result of the unit.
しかしながら、特許文献1の装置では、発熱を伴わない異常状態を推定することができない。そのため、同名半盲などの視野の左右の片側が異常となる視野異常状態を推定することができない。 However, the device of Patent Document 1 cannot estimate an abnormal state that does not involve heat generation. Therefore, it is not possible to estimate a visual field abnormality such as homonymous hemianopia, in which one side of the visual field is abnormal.
ここに開示する技術は、かかる点に鑑みてなされたものであり、その目的とするところは、視野の左右の片側が異常となる視野異常状態を推定することにある。 The technology disclosed herein has been made in view of this point, and its purpose is to estimate a visual field abnormality state in which one of the left and right sides of the visual field is abnormal.
ここに開示する技術は、対象者の状態を推定する状態推定装置に関する。この状態推定装置は、前記対象者のサッケードを検出するサッケード検出部と、予め定められた推定期間内における前記対象者の右視野内のサッケードの振幅と左視野内のサッケードの振幅との差が予め定められた振幅差閾値以上であるという第1条件および前記推定期間内における前記対象者の右視野内のサッケードの頻度と左視野内のサッケードの頻度との差が予め定められた頻度差閾値以上であるという第2条件の両方が成立する場合に、前記対象者の状態が視野の左右の片側が異常となる視野異常状態であると推定する推定部とを備える。 The technology disclosed herein relates to a state estimation device that estimates the state of a subject. This state estimation device includes a saccade detection unit that detects a saccade of the subject, and a difference between the amplitude of the saccade in the subject's right visual field and the amplitude of the saccade in the left visual field within a predetermined estimation period. A first condition of being equal to or greater than a predetermined amplitude difference threshold, and a frequency difference threshold in which the difference between the frequency of saccades in the right visual field and the frequency of saccades in the left visual field of the subject within the estimation period is predetermined. and an estimating unit for estimating that the state of the subject is a visual field abnormal state in which one of the left and right sides of the visual field is abnormal when both of the above second conditions are satisfied.
本願発明者は、鋭意研究の結果、対象者の状態が視野異常状態になると、推定期間内における対象者の右視野内のサッケードの振幅と左視野内のサッケードの振幅との差が正常時よりも大きくなり、且つ、推定期間内における対象者の右視野内のサッケードの頻度と左視野内のサッケードの頻度との差が正常時よりも大きくなることを見出した。したがって、第1条件および第2条件の両方の成立に基づいて、視野の左右の片側が異常となる視野異常状態を推定することができる。 As a result of intensive research, the inventor of the present application found that when the subject's condition becomes a visual field abnormality, the difference between the amplitude of the saccades in the right visual field and the amplitude of the saccades in the left visual field of the subject within the estimation period is greater than that in the normal state. Also, the difference between the frequency of saccades in the subject's right visual field and the frequency of saccades in the left visual field during the estimation period is greater than in normal times. Therefore, based on the establishment of both the first condition and the second condition, it is possible to estimate a visual field abnormal state in which one of the left and right sides of the visual field is abnormal.
前記状態推定装置において、前記推定部は、前記第1条件および前記第2条件の少なくとも一方が成立せず、前記推定期間内における前記対象者の全視野内のサッケードの振幅が予め定められた振幅閾値以下であるという第3条件および前記推定期間内における前記対象者の全視野内のサッケードの頻度が予め定められた頻度閾値以下であるという第4条件の少なくとも一方が成立する場合に、前記対象者の状態が注意機能低下状態であると推定するように構成されてもよい。 In the state estimating device, the estimating unit determines that at least one of the first condition and the second condition is not satisfied and the amplitude of the saccade within the entire visual field of the subject within the estimation period is a predetermined amplitude When at least one of a third condition that the frequency of saccades in the entire field of view of the subject within the estimation period is less than or equal to a threshold and a fourth condition that the frequency is less than or equal to a predetermined frequency threshold, the subject It may be configured to estimate that the state of the person is in a state of reduced attention function.
本願発明者は、鋭意研究の結果、対象者の状態が注意低下状態になると、推定期間内における対象者の全視野内のサッケードの振幅および頻度の少なくとも一方が正常時よりも低くなることを見出した。したがって、第1条件および第2条件の成立の可否と、第3条件および第4条件の成立の可否とに基づいて、突発性異常状態と注意機能低下状態とを区別して推定することができる。 As a result of intensive research, the inventor of the present application found that when the subject is in a state of reduced attention, at least one of the amplitude and frequency of saccades in the entire visual field of the subject within the estimation period becomes lower than in normal times. rice field. Therefore, based on whether the first and second conditions are satisfied and whether the third and fourth conditions are satisfied, it is possible to distinguish between a sudden abnormal state and a state of reduced attention function.
前記状態推定装置は、前記対象者の状態が前記視野異常状態であると推定された場合に、前記視野異常状態に応じた第1動作を行い、前記対象者の状態が前記注意機能低下状態であると推定された場合に、前記注意機能低下状態に応じた第2動作を行う制御部を備えてもよい。 When the state of the subject is estimated to be the abnormal visual field state, the state estimating device performs a first action according to the abnormal visual field state, and the state of the subject is the reduced attention function state. A control unit may be provided that, when it is estimated that there is, performs a second action in accordance with the state of impaired attention function.
前記の構成では、推定部により推定された対象者の状態に応じた動作を適切に行うことができる。 With the above configuration, it is possible to appropriately perform an action according to the state of the subject estimated by the estimation unit.
前記状態推定装置において、前記対象者は、車両を運転する運転者であってもよい。前記第1動作は、前記車両が安全領域に退避するように前記車両の走行を制御する動作を含んでもよい。前記第2動作は、前記運転者に休憩をとることを促すための情報を出力する動作を含んでもよい。 In the state estimation device, the subject may be a driver of a vehicle. The first action may include an action of controlling travel of the vehicle so that the vehicle retreats to a safe area. The second action may include an action of outputting information prompting the driver to take a rest.
前記の構成では、運転者の状態が視野異常状態であると推定される場合に、車両を安全領域に停車させることができる。これにより、自車両(運転者が運転する車両)および自車両の周囲にいる他車両の安全を確保することができる。また、運転者の状態が注意機能低下状態であると推定される場合に、運転者に休憩をとることを促すことができる。これにより、運転者の状態を注意機能低下状態から正常状態に回復させることができ、車両の走行安全性を確保することができる。 With the above configuration, the vehicle can be stopped in the safe area when it is estimated that the driver's condition is an abnormal visual field condition. As a result, the safety of the own vehicle (the vehicle driven by the driver) and other vehicles around the own vehicle can be ensured. Further, when the driver's state is estimated to be in a state of reduced attention function, it is possible to prompt the driver to take a rest. As a result, the condition of the driver can be recovered from the attention function deterioration condition to the normal condition, and the running safety of the vehicle can be ensured.
前記状態推定装置において、前記対象者は、車両を運転する運転者であってもよい。前記振幅差閾値および前記頻度差閾値は、前記車両の走行シーンが予め定められた走行シーンであるときの前記サッケードの振幅および頻度に基づいて設定されてもよい。 In the state estimation device, the subject may be a driver of a vehicle. The amplitude difference threshold and the frequency difference threshold may be set based on the amplitude and frequency of the saccade when the driving scene of the vehicle is a predetermined driving scene.
前記の構成では、運転者の特性を考慮して振幅差閾値および頻度差閾値を適切に設定することができる。これにより、運転者の状態推定の精度を向上させることができる。 With the above configuration, the amplitude difference threshold and the frequency difference threshold can be appropriately set in consideration of the characteristics of the driver. As a result, it is possible to improve the accuracy of estimating the state of the driver.
ここに開示する技術によれば、視野の左右の片側が異常となる視野異常状態を推定することができる。 According to the technology disclosed herein, it is possible to estimate a visual field abnormality state in which one of the left and right sides of the visual field is abnormal.
以下、図面を参照して実施の形態を詳しく説明する。なお、図中同一または相当部分には同一の符号を付しその説明は繰り返さない。 Hereinafter, embodiments will be described in detail with reference to the drawings. The same reference numerals are given to the same or corresponding parts in the drawings, and the description thereof will not be repeated.
(実施形態1)
図1は、実施形態1の車両制御システム10の構成を例示する。車両制御システム10は、車両(具体的には自動四輪車)に設けられる。車両は、マニュアル運転とアシスト運転と自動運転とに切り換え可能である。マニュアル運転は、運転者の操作(例えばアクセルの操作など)に応じて走行する運転である。アシスト運転は、運転者の操作を支援して走行する運転である。自動運転は、運転者の操作なしに走行する運転である。車両制御システム10は、アシスト運転および自動運転において、車両を制御する。具体的には、車両制御システム10は、車両に設けられたアクチュエータ11を制御することで車両の動作(特に走行)を制御する。なお、車両制御システム10は、移動体に設けられる移動体制御システムの一例である。
(Embodiment 1)
FIG. 1 illustrates the configuration of a
この例では、車両制御システム10は、情報取得部20と、車両制御装置30と、通知部40とを備える。以下の説明では、車両制御システム10が設けられている車両を「自車両」と記載し、自車両の周囲に存在する他の車両を「他車両」と記載する。
In this example, the
〔アクチュエータ〕
アクチュエータ11は、駆動系のアクチュエータ、操舵系のアクチュエータ、制動系のアクチュエータなどを含む。駆動系のアクチュエータの例としては、エンジン、トランスミッション、モータが挙げられる。制動系のアクチュエータの例としては、ブレーキが挙げられる。操舵系のアクチュエータの例としては、ステアリングが挙げられる。
[Actuator]
The
〔情報取得部〕
情報取得部20は、車両の制御に用いられる各種情報を取得する。この例では、情報取得部20は、複数のカメラ21と、複数のレーダ22と、位置センサ23と、通信部24と、車両状態センサ25と、運転操作センサ26と、運転者状態センサ27とを含む。
[Information Acquisition Unit]
The
〈カメラ〉
複数のカメラ21は、互いに同様の構成を有する。複数のカメラ21は、複数のカメラ21の撮像エリアが車両の周囲を囲うように車両に設けられる。複数のカメラ21は、車両の周囲に広がる環境(外部環境)を撮像することで、外部環境を示す画像データを取得する。複数のカメラ21の各々により得られた画像データは、車両制御装置30に送信される。
<camera>
A plurality of
この例では、カメラ21は、広角レンズを有する単眼カメラである。例えば、カメラ21は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。なお、カメラ21は、狭角レンズを有する単眼カメラであってもよいし、広角レンズまたは狭角レンズを有するステレオカメラであってもよい。
In this example,
〈レーダ〉
複数のレーダ22は、互いに同様の構成を有する。複数のレーダ22は、複数のレーダ22の探索エリアが車両の周囲を囲うように車両に設けられる。複数のレーダ22は、外部環境を検出する。具体的には、レーダ22は、車両の外部環境へ向けて探索波を送信して外部環境からの反射波を受信することで外部環境を検出する。複数のレーダ22の検出結果は、車両制御装置30に送信される。
<Radar>
A plurality of
例えば、レーダ22は、ミリ波を送信するミリ波レーダであってもよいし、レーザ光を送信するライダ(Light Detection and Ranging)であってもよいし、赤外線を送信する赤外線レーダであってもよいし、超音波を送信する超音波センサであってもよい。
For example, the
〈位置センサ〉
位置センサ23は、車両の位置(例えば緯度および経度)を検出する。例えば、位置センサ23は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて車両の位置を検出する。位置センサ23により得られた情報(車両の位置)は、車両制御装置30に送信される。
<Position sensor>
The position sensor 23 detects the position (eg latitude and longitude) of the vehicle. For example, the position sensor 23 receives GPS information from the global positioning system and detects the position of the vehicle based on the GPS information. Information (vehicle position) obtained by the position sensor 23 is transmitted to the
〈通信部〉
通信部24は、車両の外部に設けられた車外ネットワーク(例えばインターネットなど)を通じて情報を受信する。例えば、通信部24は、車両の周囲に位置する他車両(図示省略)からの通信情報、ナビゲーションシステム(図示省略)からのカーナビゲーションデータ、交通情報、ダイナミックマップなどの高精度地図情報などを受信する。通信部24により得られた情報は、車両制御装置30に送信される。
<Communication part>
The communication unit 24 receives information through an external network (such as the Internet) provided outside the vehicle. For example, the communication unit 24 receives communication information from other vehicles (not shown) located around the vehicle, car navigation data from a navigation system (not shown), traffic information, and high-precision map information such as a dynamic map. do. Information obtained by the communication unit 24 is transmitted to the
〈車両状態センサ〉
車両状態センサ25は、車両の状態(例えば速度や加速度やヨーレートなど)を検出する。例えば、車両状態センサ25は、車両の速度を検出する車速センサ、車両の加速度を検出する加速度センサ、車両のヨーレートを検出するヨーレートセンサなどを含む。車両状態センサ25により得られた情報(車両の状態)は、車両制御装置30に送信される。
<Vehicle status sensor>
A vehicle state sensor 25 detects the state of the vehicle (for example, speed, acceleration, yaw rate, etc.). For example, the vehicle state sensor 25 includes a vehicle speed sensor that detects the speed of the vehicle, an acceleration sensor that detects the acceleration of the vehicle, a yaw rate sensor that detects the yaw rate of the vehicle, and the like. Information (state of the vehicle) obtained by the vehicle state sensor 25 is transmitted to the
〈運転操作センサ〉
運転操作センサ26は、車両に加えられる運転操作を検出する。例えば、運転操作センサ26は、アクセル開度センサ、操舵角センサ、ブレーキ油圧センサなどを含む。アクセル開度センサは、車両のアクセルの操作量を検出する。操舵角センサは、車両のハンドルの操舵角を検出する。ブレーキ油圧センサは、車両のブレーキの操作量を検出する。運転操作センサ26により得られた情報(車両の運転操作)は、車両制御装置30に送信される。
<Driving operation sensor>
The driving operation sensor 26 detects driving operations applied to the vehicle. For example, the driving operation sensor 26 includes an accelerator opening sensor, a steering angle sensor, a brake oil pressure sensor, and the like. The accelerator opening sensor detects the operation amount of the accelerator of the vehicle. The steering angle sensor detects the steering angle of the steering wheel of the vehicle. The brake oil pressure sensor detects the operation amount of the brake of the vehicle. Information (driving operation of the vehicle) obtained by the driving operation sensor 26 is transmitted to the
〈運転者状態センサ〉
運転者状態センサ27は、車両に搭乗する運転者の状態(例えば運転者の身体挙動や生体情報など)を検出する。運転者状態センサ27により得られた情報(運転者の状態)は、車両制御装置30に送信される。この例では、運転者状態センサ27は、車内カメラ28と、生体情報センサ29とを含む。
<Driver status sensor>
The
《車内カメラ》
車内カメラ28は、車両の内部に設けられる。車内カメラ28は、運転者を含む領域を撮像することで運転者を含む画像データを取得する。車内カメラ28により得られた画像データは、車両制御装置30に送信される。この例では、車内カメラ28は、運転者の前方に配置され、運転者の顔(特に眼球)が撮像範囲内に位置するように撮像範囲が設定される。なお、車内カメラ28は、運転者に装着されるゴーグル(図示省略)に設けられてもよい。
《In-vehicle camera》
The in-
《生体情報センサ》
生体情報センサ29は、車両の内部に設けられる。生体情報センサ29は、運転者の生体情報を検出する。なお、運転者の生体情報の例としては、発汗、心拍、血流量、皮膚温などが挙げられる。生体情報センサ29により得られた情報(運転者の生体情報)は、車両制御装置30に送信される。例えば、生体情報センサ29は、運転者の手と接触する箇所に配置されてもよいし、運転者の身体に装着される部材(図示省略)に設けられてもよい。
《Biological information sensor》
The biological information sensor 29 is provided inside the vehicle. The biological information sensor 29 detects biological information of the driver. Examples of the driver's biological information include perspiration, heartbeat, blood flow, skin temperature, and the like. Information (driver's biological information) obtained by the biological information sensor 29 is transmitted to the
〔車両制御装置〕
車両制御装置30は、アクチュエータ11および車両制御システム10の各部(この例では情報取得部20と通知部40など)と信号伝送可能に接続される。そして、車両制御装置30は、車両制御システム10の各部により得られた情報に基づいてアクチュエータ11および車両制御システム10の各部を制御する。具体的には、車両制御装置30は、アシスト運転または自動運転において、情報取得部20により取得された各種情報に基づいて、車両が走行すべき経路である目標経路を決定し、目標経路を走行するために必要となる車両の運動である目標運動を決定する。そして、車両制御装置30は、車両の運動が目標運動となるように、アクチュエータ11の動作を制御する。なお、車両制御装置30は、状態推定装置の一例である。
[Vehicle control device]
The
例えば、車両制御装置30は、1つまたは複数の電子制御ユニット(ECU)により構成される。電子制御ユニットは、単一のIC(Integrated Circuit)により構成されてもよいし、複数のICにより構成されてもよい。また、IC内には、単一のコアまたはダイが設けられてもよいし、連携する複数のコアまたはダイが設けられてもよい。コアまたはダイは、例えば、CPU(プロセッサ)と、CPUを動作させるためのプログラムやCPUでの処理結果などの情報を記憶するメモリとにより構成されてもよい。
For example, the
この例では、車両制御装置30は、車両挙動認識部31と、運転操作認識部32と、外部環境認識部33と、運転者状態認識部34と、車両制御部35とを有する。車両制御部35は、運転者(対象者)の状態に応じた動作を行う制御部の一例である。
In this example, the
〈車両挙動認識部〉
車両挙動認識部31は、車両状態センサ25の出力に基づいて車両の挙動(例えば速度や加速度やヨーレートなど)を推定する。例えば、車両挙動認識部31は、深層学習により生成された学習モデルを用いて、車両状態センサ25の出力から車両の挙動を示すデータを生成する。
<Vehicle behavior recognition unit>
The vehicle behavior recognition unit 31 estimates vehicle behavior (for example, speed, acceleration, yaw rate, etc.) based on the output of the vehicle state sensor 25 . For example, the vehicle behavior recognition unit 31 uses a learning model generated by deep learning to generate data indicating vehicle behavior from the output of the vehicle state sensor 25 .
〈運転操作認識部〉
運転操作認識部32は、運転操作センサ26の出力に基づいて車両に加えられる運転操作を認識する。例えば、運転操作認識部32は、深層学習により生成された学習モデルを用いて、運転操作センサ26の出力から車両に加えられる運転操作を示すデータを生成する。
<Driving operation recognition part>
The driving operation recognition unit 32 recognizes the driving operation applied to the vehicle based on the output of the driving operation sensor 26 . For example, the driving operation recognition unit 32 uses a learning model generated by deep learning to generate data representing the driving operation applied to the vehicle from the output of the driving operation sensor 26 .
〈外部環境認識部〉
外部環境認識部33は、複数のカメラ21の出力と、複数のレーダ22の出力と、位置センサ23の出力と、通信部24の出力と、車両挙動認識部31の出力に基づいて、車両の外部環境を認識する。
<External environment recognition part>
The external environment recognition unit 33 recognizes the vehicle behavior based on the outputs of the plurality of
例えば、外部環境認識部33は、深層学習により生成された学習モデルを用いて、上記の出力から車両の外部環境を示すデータを生成する。深層学習では、多層ニューラルネットワーク(Deep Neural Network)が用いられる。多層ニューラルネットワークの例としては、CNN(Convolutional Neural Network)が挙げられる。 For example, the external environment recognition unit 33 uses a learning model generated by deep learning to generate data representing the external environment of the vehicle from the above outputs. In deep learning, a multilayer neural network (Deep Neural Network) is used. Examples of multi-layer neural networks include CNNs (Convolutional Neural Networks).
具体的には、外部環境認識部33は、複数のカメラ21により得られた画像データに対して画像処理を行うことにより、車両が移動可能な道路を表す道路マップデータ(例えば三次元マップデータ)を生成する。また、外部環境認識部33は、複数のレーダ22の検出結果に基づいて、車両の周辺に存在する物体に関する情報である物体情報を取得する。物体情報には、物体の位置座標、物体の速度などが含まれる。なお、外部環境認識部33は、複数のカメラ21により得られた画像データに基づいて物体情報を取得してもよい。そして、外部環境認識部33は、道路マップデータと物体情報とを統合することで、外部環境を表す統合マップデータ(三次元マップデータ)を生成する。
Specifically, the external environment recognition unit 33 performs image processing on the image data obtained by the plurality of
道路マップデータには、道路の形状、道路の構造、道路の勾配、区画線、路面標示などに関する情報が含まれる。物体情報には、静的物体情報と、動的物体情報とが含まれる。静的物体情報は、時間経過により変位しない静止体に関する情報である。静的物体情報には、静止体の形状、静止体の位置座標などに関する情報が含まれる。静止体の例としては、道路標識、構造物などが挙げられる。構造物の例としては、信号機、中央分離帯、センターポール、建物、看板、踏切、トンネル、軌道敷、バス停留所などが挙げられる。動的物体情報は、時間経過により変位する可能性がある動体に関する情報である。動的物体情報には、動体の形状、動体の位置座標、動体の速度などに関する情報が含まれる。動体の例としては、他車両、歩行者などが挙げられる。 Road map data includes information on road shape, road structure, road gradient, lane markings, road markings, and the like. The object information includes static object information and dynamic object information. Static object information is information about a stationary object that does not change over time. The static object information includes information about the shape of the stationary body, the positional coordinates of the stationary body, and the like. Examples of stationary objects include road signs and structures. Examples of structures include traffic lights, medians, center poles, buildings, signboards, railroad crossings, tunnels, railroad tracks, bus stops, and the like. Dynamic object information is information about a moving object that may change over time. The dynamic object information includes information about the shape of the moving object, the position coordinates of the moving object, the speed of the moving object, and the like. Examples of moving objects include other vehicles and pedestrians.
なお、通信部24により受信される高精度地図情報に、道路マップデータと物体情報が含まれていてもよい。この場合、外部環境認識部33は、高精度地図情報に含まれる道路マップデータと物体情報に基づいて統合マップデータを生成し、複数のカメラ21や複数のレーダ22などの情報取得部20の出力に基づいて統合マップデータを適宜補正するように構成されてもよい。例えば、外部環境認識部33は、複数のカメラ21の出力および複数のレーダ22の出力に基づいて認識された物体が統合マップデータに含まれていない場合に、その物体に関する物体情報を統合マップデータに追加してもよい。また、外部環境認識部33は、統合マップデータに含まれる物体が複数のカメラ21の出力および複数のレーダ22の出力に基づいて認識されない場合に、その物体に関する物体情報を統合マップデータから削除してもよい。
The high-precision map information received by the communication unit 24 may include road map data and object information. In this case, the external environment recognition unit 33 generates integrated map data based on the road map data and object information included in the high-precision map information, and outputs the
〈運転者状態認識部〉
運転者状態認識部34は、運転者状態センサ27の出力に基づいて運転者の状態(例えば運転者の健康状態や感情や姿勢など)を認識する。例えば、運転者状態認識部34は、深層学習により生成された学習モデルを用いて、運転者状態センサ27の出力から運転者の状態を示すデータを生成する。この例では、運転者状態認識部34は、状態推定部300を有する。状態推定部300については、後で詳しく説明する。
<Driver state recognition unit>
The driver state recognition unit 34 recognizes the state of the driver (for example, the driver's state of health, emotions, posture, etc.) based on the output of the
〈車両制御部〉
車両制御部35は、車両挙動認識部31の出力と、運転操作認識部32の出力と、外部環境認識部33の出力と、運転者状態認識部34の出力に基づいて、アクチュエータ11を制御する。この例では、車両制御部35は、走行制御と、通知制御とを行う。
<Vehicle control unit>
The
《走行制御》
走行制御は、アシスト運転および自動運転において行われる。走行制御では、車両制御部35は、車両の走行を制御する。この例では、車両制御部35は、走行制御において、候補経路生成処理と、目標経路決定処理と、運動制御処理とを行う。
《Driving control》
Travel control is performed in assist driving and automatic driving. In travel control, the
候補経路生成処理では、車両制御部35は、外部環境認識部33の出力に基づいて1つまたは複数の候補経路を生成する。候補経路は、車両が走行可能な経路であり、目標経路の候補である。なお、この例では、候補経路生成処理により生成される候補経路には、安全経路が含まれる。安全経路は、安全領域(例えば路肩)へ向かう走行経路である。
In the candidate route generation process, the
例えば、候補経路生成処理において、車両制御部35は、外部環境認識部33の出力(統合マップデータ)に基づいて、車両の進行方向前方の道路と道路上に存在する物体とを含む走行マップデータ(二次元マップデータ)を生成する。そして、車両制御部35は、ステートラティス法を用いて候補経路を生成する。具体的には、車両制御部35は、走行マップデータの道路上に多数のグリッド点からなるグリッド領域を設定し、車両の進行方向へ向けて複数のグリッド点を順に連結することで複数の走行経路を設定する。また、車両制御部35は、複数の走行経路の各々に経路コストを付与する。例えば、ある走行経路における車両の安全性が高くなるに連れて、その走行経路に付与される経路コストが小さくなる。そして、車両制御部35は、複数の走行経路の各々に付与された経路コストに基づいて、複数の走行経路の中から1つまたは複数の走行経路を候補経路として選択する。
For example, in the candidate route generation process, the
目標経路決定処理では、車両制御部35は、運転操作認識部32の出力と、運転者状態認識部34の出力に基づいて、候補経路生成処理において生成された1つまたは複数の候補経路の中から目標経路となる候補経路を選択する。例えば、車両制御部35は、複数の候補経路のうち運転者が最も快適であると感じる候補経路を選択する。
In the target route determination process, the
運動制御処理では、車両制御部35は、目標経路決定処理において目標経路として選択された候補経路に基づいて目標運動を決定し、その決定された目標運動に基づいてアクチュエータ11を制御する。例えば、車両制御部35は、目標運動を達成するための駆動力と制動力と操舵量である目標駆動力と目標制動力と目標操舵量をそれぞれ導出する。そして、車両制御部35は、目標駆動力を示す駆動指令値と目標制動力を示す制動指令値と目標操舵量を示す操舵指令値とを、駆動系のアクチュエータと制動系のアクチュエータと操舵系のアクチュエータとにそれぞれ送信する。
In the motion control process, the
《通知制御》
通知制御では、車両制御部35は、運転者に通知するための各種情報を出力する。この例では、車両制御部35は、運転者に通知するための各種情報を通知部40に出力する。
《Notification control》
In notification control, the
〔通知部〕
通知部40は、車両の内部に設けられる。そして、通知部40は、車両の運転者に各種情報を通知する。この例では、通知部40は、表示部41と、スピーカ42とを含む。表示部41は、各種情報を画像で出力する。スピーカ42は、各種情報を音声で出力する。
[Notification part]
The
〔用語の説明〕
次に、以下において用いられる用語について説明する。以下の説明では、サッケード、全視野、右視野、左視野、視野異常状態、注意機能低下状態、正常状態という用語が用いられる。
[Explanation of terms]
Next, the terms used below will be explained. In the following description, the terms saccade, full field of view, right field of view, left field of view, abnormal visual field condition, impaired attention function condition and normal condition are used.
〈サッケード〉
サッケードは、人(例えば運転者)が意図的に視線を移動させる跳躍性眼球運動のことである。具体的には、サッケードは、視線が所定時間停滞する注視点から次の注視点へ視線を移動させる眼球運動のことである。図2は、人の視線の位置(角度)の時間的変化を示す。図2に示すように、隣り合う2つの注視期間の間に挟まれた期間がサッケード期間となる。なお、注視期間は、視線が停滞しているとみなされる期間である。サッケードの振幅dsは、サッケード期間における視線の移動距離である。
<Saccade>
A saccade is a jumping eye movement in which a person (eg, a driver) intentionally shifts the line of sight. Specifically, a saccade is an eyeball movement that moves the line of sight from a point of gaze at which the line of sight is stagnant for a predetermined time to the next point of gaze. FIG. 2 shows temporal changes in the position (angle) of a person's line of sight. As shown in FIG. 2, a period sandwiched between two adjacent gaze periods is a saccade period. Note that the gaze period is a period during which the line of sight is considered to be stagnant. The saccade amplitude ds is the moving distance of the line of sight during the saccade period.
例えば、視線の移動距離の変化に基づいて視線の移動速度を算出し、視線の移動速度が予め定められた速度閾値(例えば40deg/s)未満である状態が予め定められた停滞時間(例えば0.1秒間)継続する期間を「注視期間」として抽出してもよい。そして、隣り合う2つの注視期間の間に挟まれた期間における視線移動のうち、移動速度が速度閾値(例えば40deg/s)以上であり、且つ、移動距離が予め定められ距離閾値(例えば3deg)以上である視線移動を「サッケード」として抽出してもよい。 For example, the movement speed of the line of sight is calculated based on the change in the movement distance of the line of sight, and the state in which the movement speed of the line of sight is less than a predetermined speed threshold (for example, 40 deg / s) is a predetermined stagnation time (for example, 0 0.1 second) may be extracted as a "gazing period". Then, in the line-of-sight movement in the period sandwiched between two adjacent gaze periods, the movement speed is equal to or greater than a speed threshold (eg, 40 deg/s) and the movement distance is a predetermined distance threshold (eg, 3 deg). The line-of-sight movement described above may be extracted as a “saccade”.
〈全視野と右視野と左視野〉
全視野は、視野の左右方向の全領域のことである。図3に示すように、右視野VRは、全視野のうち左右の中心線よりも右側の視野領域のことである。左視野VLは、全視野のうち左右の中心線よりも左側の視野領域のことである。視野の左右の中心線は、運転者の両眼の中心点(例えば鼻の位置)から顔の真正面へ向けて延びる仮想線であり、運転者の顔の向きに基づいて導出することが可能である。
<Full field of view, right field of view, and left field of view>
The full field of view refers to the entire area of the field of view in the horizontal direction. As shown in FIG. 3, the right visual field VR is a visual field area on the right side of the left and right center lines in the entire visual field. The left visual field VL is a visual field area on the left side of the left and right center lines in the entire visual field. The left and right center lines of the visual field are imaginary lines that extend from the center point of the driver's eyes (for example, the position of the nose) toward the front of the face, and can be derived based on the orientation of the driver's face. be.
〈視野異常状態〉
視野異常状態は、視野の左右の片側が異常となる異常状態のことである。視野異常状態では、運転者による車両の運転操作の継続が困難となる。また、視野異常状態は、休憩などにより正常状態に回復することが困難である。視野異常状態の例としては、同名半盲が挙げられる。
<Visual field abnormal state>
The visual field abnormal state is an abnormal state in which one of the left and right sides of the visual field becomes abnormal. In the abnormal vision state, it becomes difficult for the driver to continue driving the vehicle. In addition, it is difficult to restore the abnormal visual field state to a normal state by taking a break or the like. Examples of visual field abnormal conditions include homonymous hemianopia.
〈注意機能低下状態〉
注意機能低下状態は、上記の視野異常状態とは異なる要因により人の注意機能が低下している状態のことである。注意機能低下状態では、運転者による車両の運転操作に支障がある。また、注意機能低下状態は、休憩などにより正常状態に回復することが可能である。注意機能低下状態の例としては、覚醒低下、疲労、漫然状態などが挙げられる。
<Caution function deterioration state>
The reduced attentional function state is a state in which a person's attentional function is reduced due to a factor different from the abnormal visual field state described above. In the attention function degraded state, the driver's operation of the vehicle is hindered. In addition, it is possible to restore the state of impaired attention function to a normal state by taking a break or the like. Examples of states of reduced attention function include decreased alertness, fatigue, and listlessness.
〈正常状態〉
正常状態は、上記の視野異常状態でも注意機能低下状態でもない状態であり、人が行うべき操作を正常に行うことが可能な状態のことである。正常状態では、運転者による車両の運転操作が正常に行われる。
<Normal state>
The normal state is neither the abnormal visual field state nor the reduced attention function state, and is a state in which a person can normally perform an operation that should be performed. In the normal state, the driver operates the vehicle normally.
〔状態推定部の構成〕
図4は、状態推定部300の構成を例示する。状態推定部300は、サッケード検出部301と、推定部302と、注意度検出部303と、設定部304とを有する。
[Configuration of State Estimation Unit]
FIG. 4 illustrates the configuration of
〔サッケード検出部〕
サッケード検出部301は、車両の運転者(対象者)のサッケードを検出する。この例では、サッケード検出部301は、車内カメラ28により得られた画像データに対して視線検出処理を行うことで、運転者の視線を検出する。なお、この視線検出処理は、深層学習により生成された学習モデル(視線を検出するための学習モデル)を用いて行われる処理であってもよいし、周知の視線検出技術を用いて行われる処理であってもよい。また、運転者の視線は、運転者の右眼の視線であってもよいし、運転者の左眼の視線であってもよいし、運転者の右眼の視線と左眼の視線とに基づいて導出される視線であってもよい。そして、サッケード検出部301は、運転者の視線の移動に基づいて運転者のサッケードを検出する。
[Saccade detector]
The
また、サッケード検出部301は、予め定められた推定期間P1内におけるサッケードの振幅dsおよび頻度fsを算出する。
The
〔サッケード検出処理〕
次に、図5および図6を参照して、サッケード検出部301において行われるサッケード処理について説明する。まず、図5に示すように、サッケード検出部301は、推定期間P1を設定する。具体的には、サッケード検出部301は、推定期間P1が所定時間ずつシフトするように推定期間P1を設定する。図5の例では、推定期間P1の長さは「30秒」であり、所定時間は「5秒」である。
[Saccade detection processing]
Next, the saccade processing performed in the
また、サッケード検出部301は、周知の視野設定技術を用いて、運転者の右視野と左視野とを設定する。例えば、サッケード検出部301は、周知の顔向き検出技術を用いて運転者の顔の向きを検出し、運転者の両眼の中心点から顔の真正面へ向けて延びる仮想線を運転者の視野の左右の中心線に設定する。そして、サッケード検出部301は、運転者の顔の向きに基づいて運転者の全視野を設定し、運転者の全視野のうち運転者の視野の左右の中心線よりも右側の視野領域を右視野に設定し、運転者の全視野のうち運転者の視野の左右の中心線よりも左側の視野領域を左視野に設定する。この全視野と右視野と左視野の設定は、指定期間P1が設定される毎に行われてもよいし、予め定められた周期毎に行われてもよい。
Also, the
そして、サッケード検出部301は、推定期間P1が設定される毎に、図6に示した処理(ステップST11~ST14)を行う。
Then,
〈ステップST11〉
まず、サッケード検出部301は、運転者(対象者)の視線を検出する。この例では、サッケード検出部301は、車内カメラ28により得られた画像データに対して視線検出処理を行うことで、運転者の視線を検出する。例えば、サッケード検出部301は、車内カメラ28により得られた画像(画像データ)の中から運転者の瞳孔を検出し、その検出された瞳孔に基づいて運転者の視線を検出する。次に、サッケード検出部301は、運転者の視線の移動距離を算出する。そして、サッケード検出部301は、運転者の視線の移動距離の時間的変化に基づいて、運転者の視線の速度を算出する。例えば、サッケード検出部301は、時間経過に応じて変化する視線の移動距離を微分することにより、運転者の視線の速度を算出する。
<Step ST11>
First, the
〈ステップST12〉
次に、サッケード検出部301は、視線の移動速度に基づいて、サッケードの候補となるサッケード候補を抽出する。例えば、サッケード検出部301は、視線の移動速度が予め定められた速度閾値(例えば40deg/s)未満である状態が予め定められた停滞時間(例えば0.1秒間)継続する期間を「注視期間」(図2参照)として抽出する。そして、サッケード検出部301は、隣り合う2つの注視期間の間に挟まれた期間における視線移動のうち、移動速度が速度閾値(例えば40deg/s)以上であり、且つ、移動距離が予め定められ距離閾値(例えば3deg)以上である視線移動を「サッケード候補」として抽出する。
<Step ST12>
Next, the
〈ステップST13〉
次に、サッケード検出部301は、回帰曲線L10を基準とするサッケード範囲R10(図7参照)を読み込む。
<Step ST13>
Next, the
例えば、サッケード範囲R10は、下記のように導出される。まず、サッケード検出部301は、複数のサッケード候補に基づいて回帰曲線L10を導出する。具体的には、サッケード検出部301は、最小自乗法により複数のサッケード候補から回帰曲線L10を導出する。次に、サッケード検出部301は、回帰曲線L10を移動速度が増加する方向(図7の縦軸における増加方向)に所定量だけシフトさせることで第1基準曲線L11を導出し、回帰曲線L10を移動速度が減少する方向(図7の縦軸における減少方向)に所定量だけシフトさせることで第2基準曲線L12を導出する。そして、サッケード検出部301は、第1基準曲線L11と第2基準曲線L12との間をサッケード範囲R10とする。なお、サッケード範囲R10の導出は、定期的に行われてもよい。
For example, the saccade range R10 is derived as follows. First, the
そして、サッケード検出部301は、複数のサッケード候補の各々とサッケード範囲R10とを比較してサッケードを抽出する。具体的には、サッケード検出部301は、複数のサッケード候補のうちサッケード範囲R10内に含まれるサッケード候補をサッケードとして抽出する。なお、サッケード検出部301は、複数のサッケード候補のうちサッケード範囲R10内に含まれないサッケード候補をサッケードとして抽出しない。
Then,
〈ステップST14〉
次に、サッケード検出部301は、推定期間P1内における運転者の全視野内のサッケードの振幅dsおよび頻度fsを算出する。以下では、運転者の全視野内のサッケードを「全サッケード」と記載する。具体的には、サッケード検出部301は、推定期間P1内に含まれる全サッケードの振幅dsの平均値を「推定期間P1内における全サッケードの振幅ds」として算出し、推定期間P1内に含まれる全サッケードの数を推定期間P1の時間で除算して得られる値を「推定期間P1内における全サッケードの頻度fs」として算出する。
<Step ST14>
Next, the
また、サッケード検出部301は、推定期間P1内における運転者の全視野内のサッケードを、推定期間P1内における運転者の右視野内のサッケードと、推定期間P1内における運転者の左視野内のサッケードと分類する。以下では、運転者の右視野内のサッケードを「右サッケード」と記載し、運転者の左視野内のサッケードを「左サッケード」と記載する。例えば、サッケード検出部301は、サッケードの注視点における運転者の視線が右視野を向く場合に、そのサッケードを右サッケードに分類し、サッケードの注視点における運転者の視線が左視野を向く場合に、そのサッケードを左サッケードに分類する。
Further, the
そして、サッケード検出部301は、推定期間P1内における右サッケードの振幅dsおよび頻度fsを算出する。なお、推定期間P1内における右サッケードの振幅dsおよび頻度fsの算出は、推定期間P1内における全サッケードの振幅dsおよび頻度fsの算出と同様である。また、サッケード検出部301は、推定期間P1内における左サッケードの振幅dsおよび頻度fsを算出する。なお、推定期間P1内における左サッケードの振幅dsおよび頻度fsの算出は、推定期間P1内における全サッケードの振幅dsおよび頻度fsの算出と同様である。
Then, the
〔推定部〕
推定部302は、車両の運転者(対象者)の状態を推定する。この例では、推定部302は、サッケード検出部301により検出された運転者のサッケードに基づいて、運転者の状態を推定する。なお、推定部302の動作については、後で詳しく説明する。
[Estimation part]
The
〔注意度検出部〕
注意度検出部303は、車両の外部環境における注意度を検出する。注意度は、車両の外部環境における注意箇所(車両の運転者が走行中に確認すべき注意箇所)の多さを示す指標である。車両の外部環境において注意箇所が多くなるに連れて、車両の外部環境における注意度が高くなる。注意度検出部303により検出結果は、設定部304に供給される。注意箇所の例としては、動体の飛び出しが予測される箇所、自車両の障害物となり得る物体が存在する箇所などが挙げられる。
[Attention detection unit]
The caution
例えば、注意度検出部303は、次のように車両の外部環境における注意度を検出してもよい。まず、注意度検出部303は、通信部24により得られた情報(高精度地図情報)を入力し、高精度地図情報の中から高注意度領域を検出する。高注意度領域とは、車両の運転者が走行中に確認すべき注意箇所が比較的に多い領域(例えば注意箇所の数が予め定められた閾値以上である領域)のことである。高注意度領域の例としては、T字路などの見通しの悪い道路環境を含む領域や、交差点などの障害物(例えば他車両)により自車両の走行が遮られる可能性がある道路環境を含む領域などが挙げられる。また、注意度検出部303は、位置センサ23により得られた情報(車両の位置)を入力する。そして、注意度検出部303は、車両の位置が高注意度領域に含まれている場合に、車両の外部環境における注意度が高注意度であることを検出し、車両の位置が高注意度領域に含まれていない場合に、車両の外部環境における注意度が低注意度であることを検出する。
For example, the caution
または、注意度検出部303は、次のように車両の外部環境における注意度を検出してもよい。まず、注意度検出部303は、外部環境認識部33により認識された車両の外部環境に中から注意箇所を検出する。そして、注意度検出部303は、車両の外部環境に含まれる注意箇所が比較的に多い場合(例えば注意箇所の数が予め定められた閾値以上である場合)に、車両の外部環境における注意度が高注意度であることを検出し、車両の外部環境に含まれる注意箇所が比較的に少ない場合(例えば注意箇所の数が予め定められた閾値よりも少ない場合)に、車両の外部環境における注意度が低注意度であることを検出する。
Alternatively, the caution
なお、車両の外部環境における注意度が高注意度である走行シーンは、顕在化された注意箇所が比較的に多く、それらの注意箇所に視線を広範囲に向けることが要求される走行シーンであるといえる。また、車両の外部環境における注意度が低注意度である走行シーンは、顕在化された注意箇所が比較的に少なく、視線を頻繁に移動させて潜在的な注意箇所を探索することが要求される走行シーンであるといえる。以下では、車両の外部環境における注意度が高注意度である走行シーンを「危険確認シーン」と記載し、車両の外部環境における注意度が低注意度である走行シーンを「危険探索シーン」と記載する。 A driving scene in which the degree of caution in the external environment of the vehicle is high is a driving scene in which there are a relatively large number of caution points that have been revealed, and it is required to direct the line of sight to these caution points in a wide range. It can be said. In addition, in a driving scene in which the degree of caution in the external environment of the vehicle is low, there are relatively few caution points that have become obvious, and it is required to frequently move the line of sight to search for potential caution points. It can be said that it is a driving scene that Below, a driving scene with a high level of caution in the vehicle's external environment is referred to as a "danger confirmation scene", and a driving scene with a low level of caution in the vehicle's external environment is referred to as a "danger search scene". Describe.
〔設定部〕
設定部304は、推定部302における運転者(対象者)の状態の推定に用いられる異常条件を設定する。この例では、設定部304は、サッケード検出部301により検出された運転者のサッケードに基づいて、異常条件に含まれる閾値を設定する。なお、設定部304の動作については、後で詳しく説明する。
[Setting part]
The
〔本願発明者により行われた実験〕
本願発明者は、運転者の状態と運転者の挙動(特に視線の動き)との関係を調べるために、下記のような実験を実施した。
[Experiments conducted by the inventor of the present application]
The inventors of the present application conducted the following experiments in order to investigate the relationship between the driver's state and the driver's behavior (particularly, movement of the line of sight).
まず、視野異常状態に関するデータを収集するために、同名半盲の症状を有する患者(以下では「同名半盲患者」と記載)を被験者として選出した。また、注意機能低下状態に関するデータを収集するために、注意機能障害を有する患者(以下では「注意障害患者」と記載)を被験者として選出した。また、正常状態に関するデータを収集するために、上記の症状を有さない健常者(以下では単に「健常者」と記載)を被験者として選出した。 First, patients with symptoms of homonymous hemianopsia (hereinafter referred to as "homonymous hemianopia patients") were selected as subjects in order to collect data on visual field abnormalities. In addition, patients with attentional dysfunction (hereinafter referred to as "attentionally impaired patients") were selected as subjects in order to collect data on states of attentional impairment. In addition, in order to collect data on normal conditions, healthy subjects without the above symptoms (hereinafter simply referred to as "healthy subjects") were selected as subjects.
そして、図8に示すように、ドライビングシミュレータ60を用いて車両の運転操作を被験者に擬似的に体験させた。具体的には、ドライビングシミュレータ60により車両の走行中の動画像(車内から見える車両の外部環境を示す動画像)を被験者に視聴させ、その被験者の実験中の挙動を観測することで、被験者の車両運転時の挙動を擬似的に観測した。この実験では、車両の走行中の動画像を視聴する被験者の前方にカメラを設置し、撮像範囲内に被験者の眼球が含まれるようにカメラを設定した。
Then, as shown in FIG. 8, a driving
そして、カメラにより得られた画像データに対して視線検出処理を行うことで、被験者の視線を検出した。また、視線検出処理により得られた被験者の視線に対してサッケード検出処理を行うことで、被験者のサッケードを検出し、所定期間内におけるサッケードの振幅および頻度を算出した。これらの処理は、サッケード検出部301において行われる処理(図6参照)と同様である。 Then, by performing line-of-sight detection processing on the image data obtained by the camera, the subject's line of sight was detected. Further, by performing saccade detection processing on the subject's line of sight obtained by the line-of-sight detection processing, the saccade of the subject was detected, and the amplitude and frequency of the saccade within a predetermined period were calculated. These processes are the same as the processes performed in the saccade detector 301 (see FIG. 6).
以上の実験を複数の被験者に対して実施した。 The above experiments were performed on multiple subjects.
図9は、健常者および同名半盲患者の各々の右視野および左視野のサッケードの振幅を示し、図10は、健常者および同名半盲患者の各々の右視野と左視野とのサッケードの振幅の差を示す。図11は、健常者および同名半盲患者の各々の右視野および左視野のサッケードの頻度を示し、図12は、健常者および同名半盲患者の各々の右視野と左視野とのサッケードの頻度の差を示す。以下では、被験者の右サッケードと左サッケードとの振幅の差を「サッケード振幅左右差」と記載し、被験者の右サッケードと左サッケードとの頻度の差を「サッケード頻度左右差」と記載する。 FIG. 9 shows the saccade amplitudes in the right and left visual fields of a normal subject and a homonymous hemianopia patient, respectively, and FIG. shows the difference between FIG. 11 shows the frequency of saccades in the right and left visual fields in healthy subjects and homonymous hemianopia patients, respectively, and FIG. 12 shows the saccade frequencies in right and left visual fields in healthy subjects and homonymous hemianopia patients, respectively. shows the difference between Hereinafter, the difference in amplitude between right and left saccades of a subject is referred to as "saccade amplitude left-right difference", and the difference in frequency between right and left saccades of a subject is referred to as "saccade frequency difference".
図10に示すように、同名半盲患者のサッケード振幅左右差は、健常者のサッケード振幅左右差よりも大きい。図12に示すように、同名半盲患者のサッケード頻度左右差は、健常者のサッケード頻度左右差よりも大きい。これは、右視野および左視野のうち異常により見えていないところを補おうとする補償行動と推測される。 As shown in FIG. 10, the saccade amplitude laterality of the homonymous hemianopia patient is greater than the saccade amplitude laterality of the healthy subject. As shown in FIG. 12, the saccade frequency laterality of homonymous hemianopia patients is greater than that of healthy subjects. This is presumed to be a compensatory action to compensate for the part of the right visual field and left visual field that cannot be seen due to an abnormality.
また、注意障害患者は、全視野内のサッケードの振幅および頻度の少なくとも一方が健常者よりも少なくなる傾向があった。 Attention-impaired patients also tended to have less amplitude and/or frequency of saccades in the entire visual field than normal subjects.
〔本願発明者により得られた知見〕
上述の実験により、本願発明者は、以下の知見を得た。
[Knowledge obtained by the inventor of the present application]
The inventors of the present application obtained the following findings from the experiments described above.
(1)同名半盲患者のサッケード振幅左右差は、健常者のサッケード振幅左右差よりも大きく、且つ、同名半盲患者のサッケード頻度左右差は、健常者のサッケード頻度左右差よりも大きい。 (1) The saccade amplitude laterality of homonymous hemianopia patients is greater than that of healthy subjects, and the saccade frequency laterality of homonymous hemianopia patients is greater than that of healthy subjects.
(2)注意機能低下患者は、全視野内のサッケードの振幅および頻度の少なくとも一方が健常者よりも少なくなる。 (2) At least one of the amplitude and frequency of saccades in the entire visual field is lower in patients with attention deficits than in healthy subjects.
そして、本願発明者は、以上の知見から、以下のことを見出した。 Based on the above findings, the inventors of the present application have found the following.
(1)運転者の状態が視野異常状態になると、運転者のサッケード振幅左右差(右サッケードの振幅と左サッケードの振幅との差)が正常時よりも大きくなり、且つ、運転者のサッケード頻度左右差(右サッケードの頻度と左サッケードの頻度との差)が正常時よりも大きくなる。 (1) When the driver's condition is in the visual field abnormal state, the driver's saccade amplitude left-right difference (difference between the amplitude of the right saccade and the amplitude of the left saccade) becomes larger than that in the normal state, and the frequency of the driver's saccades. The left-right difference (the difference between the frequency of right saccades and the frequency of left saccades) becomes larger than normal.
(2)運転者の状態が注意低下状態になると、運転者の全視野内のサッケードの振幅および頻度の少なくとも一方が正常時よりも低くなる。 (2) When the driver's state becomes a state of reduced attention, at least one of the amplitude and frequency of saccades in the driver's entire visual field becomes lower than normal.
〔状態推定処理〕
次に、図13を参照して、推定部302の動作(状態推定処理)について説明する。推定部302は、予め定められた周期毎に、以下のステップST21~ST23の処理を行う。例えば、推定部302は、サッケード検出部301により推定期間P1内のサッケードの振幅dsおよび頻度fsが算出される毎に、以下の処理を行う。
[State estimation process]
Next, with reference to FIG. 13, the operation (state estimation processing) of
〈ステップST21〉
推定部302は、推定期間P1内の右サッケードの振幅と推定期間P1内の左サッケードの振幅との差であるサッケード振幅左右差dLRが予め定められた振幅差閾値dLRth以上であるか否かを判定する。また、推定部302は、推定期間P1内の右サッケードの頻度と推定期間P1内の左サッケードの頻度との差であるサッケード頻度左右差fLRが予め定められた頻度差閾値fLRth以上であるか否かを判定する。
<Step ST21>
例えば、振幅差閾値dLRtは、運転者の状態が視野異常状態であるとみなせるときのサッケード振幅左右差dLRに設定される。具体的には、振幅差閾値dLRtは、0.8degに設定されてもよい。頻度差閾値fLRthは、運転者の状態が視野異常状態であるとみなせるときのサッケード頻度左右差fLRに設定される。具体的には、頻度差閾値fLRthは、0.21回/sに設定されてもよい。 For example, the amplitude difference threshold dLRt is set to the saccade amplitude left-right difference dLR when the driver's condition can be considered to be a visual field abnormal condition. Specifically, the amplitude difference threshold dLRt may be set to 0.8 deg. The frequency difference threshold value fLRth is set to the saccade frequency left-right difference fLR when the driver's condition can be considered to be the visual field abnormal condition. Specifically, the frequency difference threshold fLRth may be set to 0.21 times/s.
「サッケード振幅左右差dLRが振幅差閾値dLRth以上である」という第1条件および「サッケード頻度左右差fLRが頻度差閾値fLRth以上である」という第2条件の両方が成立する場合には、ステップST22の処理が行われ、そうでない場合には、ステップST23の処理が行われる。 If both the first condition that "the saccade amplitude left-right difference dLR is equal to or greater than the amplitude difference threshold dLRth" and the second condition that "the saccade frequency left-right difference fLR is equal to or greater than the frequency difference threshold fLRth" are established, step ST22. is performed, and if not, the process of step ST23 is performed.
〈ステップST22〉
第1条件および第2条件の両方が成立する場合、推定部302は、運転者の状態が視野異常状態であると推定する。この例では、推定部302は、視野異常状態であることを示すフラグを立てる。
<Step ST22>
When both the first condition and the second condition are satisfied, the estimating
〈ステップST23〉
第1条件および第2条件の少なくとも一方が成立しない場合、推定部302は、運転者の状態が視野異常状態であると推定しない。この例では、推定部302は、視野異常状態であることを示すフラグを立てない。
<Step ST23>
If at least one of the first condition and the second condition is not satisfied, the estimating
〔実施形態1の効果〕
以上のように、第1条件および第2条件の両方の成立に基づいて、視野の左右の片側が異常となる視野異常状態を推定することができる。
[Effect of Embodiment 1]
As described above, based on the establishment of both the first condition and the second condition, it is possible to estimate a visual field abnormal state in which one of the left and right sides of the visual field is abnormal.
(状態推定処理の変形例)
なお、推定部302は、図14に示した状態推定処理を行うように構成されてもよい。図14に示した状態推定処理では、図13に示したステップST23に代えて、ステップST31~ST33の処理が行われる。
(Modified example of state estimation processing)
Note that the
〈ステップST31〉
ステップST21において第1条件および第2条件の少なくとも一方が成立しない場合、推定部302は、運転者の全視野内のサッケードの振幅dsが予め定められた振幅閾値dth1以下であるか否かを判定する。また、推定部302は、運転者の全視野内のサッケードの頻度fsが予め定められた頻度閾値fth1以下であるか否かを判定する。
<Step ST31>
If at least one of the first condition and the second condition is not satisfied in step ST21, the
例えば,振幅閾値dth1は、運転者の状態が注意機能低下状態であるとみなせるときの運転者の全視野内のサッケードの振幅dsに設定される。頻度閾値fth1は、運転者の状態が注意機能低下状態であるとみなせるときの運転者の全視野内のサッケードの頻度fsに設定される。 For example, the amplitude threshold dth1 is set to the amplitude ds of saccades within the driver's entire field of view when the driver's condition can be considered to be in a state of impaired attention function. The frequency threshold fth1 is set to the frequency fs of saccades within the driver's entire field of view when the driver's condition can be considered to be in a state of reduced attention function.
「運転者の全視野内のサッケードの振幅dsが振幅閾値dth1以下である」という第3条件および「運転者の全視野内のサッケードの頻度fsが頻度閾値fth1以下である」という第4条件の少なくとも一方が成立する場合には、ステップST32へ進み、そうでない場合には、ステップST33へ進む。 The third condition that ``the amplitude ds of saccades in the driver's entire visual field is equal to or less than the amplitude threshold dth1'' and the fourth condition that ``the frequency fs of saccades in the driver's entire visual field is equal to or less than the frequency threshold fth1'' If at least one of them is satisfied, the process proceeds to step ST32; otherwise, the process proceeds to step ST33.
〈ステップST32〉
ステップST21において第1条件および第2条件の少なくとも一方が成立せず、ステップST31において第3条件および第4条件の少なくとも一方が成立する場合、推定部302は、運転者の状態が注意機能低下状態であると推定する。この例では、推定部302は、注意機能低下状態を示すフラグを立てる。
<Step ST32>
If at least one of the first condition and the second condition is not satisfied in step ST21, and if at least one of the third condition and the fourth condition is satisfied in step ST31, the estimating
〈ステップST33〉
ステップST21において第1条件および第2条件の少なくとも一方が成立せず、ステップST31において第3条件および第4条件の両方が成立しない場合、推定部302は、運転者の状態が正常状態であると推定する。
<Step ST33>
If at least one of the first condition and the second condition is not satisfied in step ST21, and if both the third condition and the fourth condition are not satisfied in step ST31, the
〔効果〕
以上のように、第1条件および第2条件の成立の可否と、第3条件および第4条件の成立の可否とに基づいて、突発性異常状態と注意機能低下状態とを区別して推定することができる。
〔effect〕
As described above, the sudden abnormal state and the reduced attention function state are distinguished and estimated based on whether the first and second conditions are met and whether the third and fourth conditions are met. can be done.
(車両制御部の動作)
車両制御部35は、推定部302により運転者の状態が視野異常状態であると推定されると、視野異常状態に応じた第1動作を行う。この例では、車両制御部35は、視野異常状態を示すフラグが立つと、第1動作を行う。第1動作の例としては、車両が安全領域で停車するように車両の走行を制御する動作、運転者の状態が視野異常状態であることを通知するための第1通知情報を出力する動作、運転者の状態が視野異常状態であることを車両の周囲に通知するための動作などが挙げられる。第1通知情報を出力する動作の例としては、第1通知情報を通知部40に出力する動作、通信部24を経由して第1通知情報を車外の情報端末(図示省略)に出力する動作などが挙げられる。運転者の状態が視野異常状態であることを車両の周囲に通知するための動作の例としては、車両のハザードランプ(図示省略)を点滅させる動作が挙げられる。
(Operation of vehicle control unit)
When the
車両制御部35は、推定部302により運転者の状態が注意機能低下状態であると推定されると、注意機能低下状態に応じた第2動作を行う。この例では、車両制御部35は、注意機能低下状態を示すフラグが立つと、第2動作を行う。第2動作の例としては、運転者の注意機能低下状態を解消するための動作、運転者の状態が注意機能低下状態であることを通知するための第2通知情報を出力する動作などが挙げられる。運転者の注意機能低下状態を解消するための動作の例としては、運転者に休憩をとることを促すための警報情報を出力する動作、車両の運転に集中することを運転者に促すための注意喚起情報を出力する動作などが挙げられる。通知部40は、車両制御部35から出力された警報情報および/または注意喚起情報を入力する。これにより、通知部40は、警報情報および/または注意喚起情報を画像および/または音声で車内に出力する。第2通知情報を出力する動作の例としては、第2通知情報を通知部40に出力する動作、通信部24を経由して第2通知情報を車外の情報端末(図示省略)に出力する動作などが挙げられる。
When the
〔第1動作〕
次に、図15を参照して、第1動作の一例について説明する。例えば、車両制御部35は、視野異常状態を示すフラグが立つと、以下のステップST101~ST103の処理を行う。
[First action]
Next, an example of the first operation will be described with reference to FIG. 15 . For example, the
〈ステップST101〉
車両制御部35は、退避走行制御を行う。退避走行制御では、車両制御部35は、車両の進行方向前方の道路と道路上に存在する物体とを含む走行マップデータにおいて安全領域を設定し、その安全領域を目標位置とする走行経路(退避経路)を生成する。そして、車両制御部35は、車両が退避経路を走行して安全領域に停車するように、車両の走行を制御する。
<Step ST101>
The
〈ステップST102〉
車両制御部35は、車両が安全領域に停車したか否かを判定する。車両が安全領域に停車している場合には、ステップST103の処理が行われ、そうでない場合には、ステップST101の処理が継続される。
<Step ST102>
The
〈ステップST103〉
車両が安全領域に停車すると、車両制御部35は、運転者の状態が視野異常状態であることを示す第1通知情報を通信部24に出力する。通信部24は、第1通知情報を医療機関の情報端末(図示省略)に送信する。この第1通知情報には、安全領域に停車している車両の位置を示す位置情報が含まれていてもよい。
<Step ST103>
When the vehicle stops in the safe area, the
〔第2動作〕
次に、図16を参照して、第2動作の一例について説明する。例えば、車両制御部35は、注意機能低下状態を示すフラグが立つと、以下のステップST201~ST203の処理を行う。
[Second action]
Next, an example of the second operation will be described with reference to FIG. For example, the
〈ステップST201〉
車両制御部35は、車両を停車させて休憩をとることを運転者に促すための警報情報を通知部40に出力する。通知部40は、警報情報を画像および/または音声で出力する。具体的には、表示部41は、警報情報を表示する。スピーカ42は、警報情報を音声で再生する。これにより、運転者は、車両を停車させるための運転操作を行う。
<Step ST201>
The
〈ステップST202〉
車両制御部35は、車両が停車したか否かを判定する。車両が停車している場合には、ステップST203の処理が行われ、そうでない場合には、ステップST201の処理が継続される。
<Step ST202>
The
〈ステップST203〉
車両が停車すると、車両制御部35は、通知部40による警報情報の出力が停止するように通知部40を制御する。
<Step ST203>
When the vehicle stops, the
〔効果〕
以上のように、推定部302により推定された運転者の状態に応じた動作を適切に行うことができる。具体的には、運転者の状態が視野異常状態であると推定される場合に、車両を安全領域に停車させることができる。これにより、自車両(運転者が運転する車両)および自車両の周囲にいる他車両の安全を確保することができる。また、運転者の状態が注意機能低下状態であると推定される場合に、運転者に休憩をとることを促すことができる。これにより、運転者の状態を注意機能低下状態から正常状態に回復させることができ、車両の走行安全性を確保することができる。
〔effect〕
As described above, the operation corresponding to the state of the driver estimated by the
(設定部の動作)
設定部304は、閾値設定処理を行う。閾値設定処理では、推定部302における運転者(対象者)の状態の推定に用いられる異常条件が設定される。この例では、振幅差閾値dLRthおよび頻度差閾値fLRthが設定される。具体的には、振幅差閾値dLRthおよび頻度差閾値fLRthは、車両の走行シーンが予め定められた走行シーンであるときのサッケードの振幅dsおよび頻度fsに基づいて設定される。
(Operation of setting section)
The
〔閾値設定処理〕
次に,図17を参照して、閾値設定処理について説明する。設定部304は、予め定められた周期毎に、以下のステップST301~ST303の処理を行う。なお、設定部304は、運転者の指示に応答して以下の処理を行うように構成されてもよい。
[Threshold setting process]
Next, the threshold setting process will be described with reference to FIG. Setting
〈ステップST301〉
設定部304は、車両の走行シーンが予め定められた走行シーンに該当するか否かを判定する。この例では、予め定められた走行シーンは、危険探索シーンである。設定部304は、注意度検出部303により検出された車両の外部環境における注意度に基づいて、車両の走行シーンが危険探索シーンに該当するか否かを判定する。車両の走行シーンが予め定められた走行シーンに該当すると、ステップST302の処理が行われる。
<Step ST301>
The
〈ステップST302〉
設定部304は、サッケード検出部301により検出されたサッケードの振幅dsおよび頻度fsを収集する。なお、ステップST302において収集されるサッケードの振幅dsおよび頻度fsは、運転者が正常状態であるとみなせる場合のサッケードの振幅dsおよび頻度fsであることが好ましい。
<Step ST302>
The
〈ステップST303〉
次に、設定部304は、サッケードの振幅dsに基づいて、振幅差閾値dLRthを設定する。また、設定部304は、サッケードの頻度fsに基づいて、頻度差閾値fLRthを設定する。例えば、設定部304は、振幅差閾値dLRthを「ステップST302において収集されたサッケードの振幅dsの平均値の50%」に設定し、頻度差閾値fLRthを「ステップST302において収集されたサッケードの頻度fsの平均値の75%」に設定する。
<Step ST303>
Next, the
〔効果〕
以上のように、運転者の特性を考慮して振幅差閾値dLRthおよび頻度差閾値fLRthを適切に設定することができる。これにより、運転者の状態推定の精度を向上させることができる。
〔effect〕
As described above, the amplitude difference threshold dLRth and the frequency difference threshold fLRth can be appropriately set in consideration of the characteristics of the driver. As a result, it is possible to improve the accuracy of estimating the state of the driver.
(実施形態2)
図18および図19は、実施形態2の表示機器100の外観および構成を例示する。この例では、表示機器100は、スマートフォンを構成する。具体的には、表示機器100は、筐体100aと、表示部110と、スピーカ111と、記憶部112と、情報取得部120と、制御装置130とを備える。
(Embodiment 2)
18 and 19 illustrate the appearance and configuration of the
〔筐体〕
筐体100aは、扁平な直方体型の箱状に形成される。筐体100aには、表示機器100の構成部品が収納される。
[Chassis]
The
〔表示部とスピーカと記憶部〕
表示部110は、画像を表示する。図18に示すように、表示部110は、矩形状に形成され、筐体100aの前面に設けられる。スピーカ111は、音を再生する。記憶部112は、各種の情報およびデータを記憶する。
[Display, speaker, and memory]
〔情報取得部〕
情報取得部120は、表示機器100において用いられる各種情報を取得する。この例では、情報取得部120は、フロントカメラ121と、リアカメラ122と、操作部123と、通信部124と、マイクロフォン125と、位置センサ126と、状態センサ127と、環境センサ128とを含む。
[Information Acquisition Unit]
The
〈フロントカメラとリアカメラ〉
フロントカメラ121は、筐体100aの前面に設けられ、リアカメラ122は、筐体100aの後面に設けられる。フロントカメラ121は、表示機器100の前方に広がる領域(前方領域)を撮像することで、表示機器100の前方領域を示す画像データを取得する。リアカメラ122は、表示機器100の後方に広がる領域(後方領域)を撮像することで、表示機器100の後方領域を示す画像データを取得する。フロントカメラ121およびリアカメラ122の各々により得られた画像データは、制御装置130に送信される。例えば、フロントカメラ121およびリアカメラ122は、CCD(Charge Coupled Device)やCMOS(Complementary metal-oxide-semiconductor)などの固体撮像素子を用いて構成される。
<Front camera and rear camera>
The
〈操作部〉
操作部123は、表示機器の利用者により操作される。操作部123は、利用者により与えられた操作に応じた信号を出力する。このような構成により、利用者は、操作部123を操作して情報を入力することができる。操作部123の出力は、制御装置130に送信される。この例では、操作部123は、表示部110とともにタッチパネルを構成するタッチパネル操作部を含む。なお、操作部123は、タッチパネル操作部の他に、操作ダイヤル、操作ボタンなどを含んでもよい。
<Operation unit>
The operation unit 123 is operated by the user of the display device. The operation unit 123 outputs a signal according to the operation given by the user. With such a configuration, the user can operate the operation unit 123 to input information. The output of the operation unit 123 is transmitted to the
〈通信部〉
通信部124は、表示機器100の外部に設けられた通信ネットワーク(例えばインターネットや携帯電話回線など)を通じて情報およびデータを受信する。例えば、通信部124は、他の情報端末(図示省略)からの音声データ、画像データ、地図情報などを受信する。通信部124により得られた情報およびデータは、制御装置130に送信される。
<Communication part>
The
〈マイクロフォン〉
マイクロフォン125は、音声を電気信号に変換する。マイクロフォン125により得られた電気信号(音声データ)は、制御装置130に送信される。
<microphone>
〈位置センサ〉
位置センサ126は、表示機器100の位置(例えば緯度および経度)を検出する。例えば、位置センサ126は、全地球測位システムからのGPS情報を受信し、GPS情報に基づいて表示機器100の位置を検出する。位置センサ126により得られた情報(表示機器100の位置)は、制御装置130に送信される。
<Position sensor>
Position sensor 126 detects the position (eg, latitude and longitude) of
〈状態センサ〉
状態センサ127は、表示機器100の状態(例えば加速度や角速度や姿勢など)を検出する。例えば、状態センサ127は、加速度センサ、ジャイロセンサなどを含む。状態センサ127により得られた情報(表示機器100の状態)は、制御装置130に送信される。
<Status sensor>
The
〈環境センサ〉
環境センサ128は、表示機器100の周囲に広がる環境に関する情報(例えば光や磁気など)を検出する。例えば、環境センサ128は、光センサ、磁気センサ、近接センサなどを含む。環境センサ128により得られた情報(表示機器100の周囲環境に関する情報)は、制御装置130に送信される。
<Environment sensor>
The environment sensor 128 detects information about the environment surrounding the display device 100 (for example, light, magnetism, etc.). For example, environmental sensors 128 include optical sensors, magnetic sensors, proximity sensors, and the like. Information obtained by the environment sensor 128 (information about the surrounding environment of the display device 100 ) is transmitted to the
〔制御装置〕
制御装置130は、表示機器100の各部(この例では表示部110とスピーカ111と記憶部112と情報取得部120)と信号伝送可能に接続される。そして、制御装置130は、表示機器100の各部により得られた情報に基づいて表示機器100の各部を制御する。なお、制御装置130は、状態推定装置の一例である。
〔Control device〕
The
例えば、制御装置130は、1つまたは複数のIC(Integrated Circuit)により構成される。IC内には、単一のコアまたはダイが設けられてもよいし、連携する複数のコアまたはダイが設けられてもよい。コアまたはダイは、例えば、CPU(プロセッサ)と、CPUを動作させるためのプログラムやCPUでの処理結果などの情報を記憶するメモリとにより構成されてもよい。
For example, the
この例では、制御装置130は、制御部131と、状態推定部300とを含む。制御部131は、利用者(対象者)の状態に応じた動作を行う制御部の一例である。
In this example,
〈制御部〉
制御部131は、表示機器100の各部により得られた情報に基づいて表示機器100の各部を制御する。例えば、制御部131は、情報取得部120により得られた情報およびデータを記憶部112に記憶する。
<Control unit>
The
この例では、制御部131は、表示制御、通話制御などを行う。表示制御では、制御部131は、画像データを表示部110に出力する。表示部110は、画像データに示された画像を再生する。通話制御では、制御部131は、通信部124により得られた音声データをスピーカ111に出力する。スピーカ111は、音声データに示された音声を再生する。また、制御部131は、マイクロフォン125により得られた音声データを、通信部124を経由して通信ネットワークに送信する。
In this example, the
〈状態推定部〉
実施形態2における状態推定部300の構成は、実施形態1における状態推定部300の構成と同様である。状態推定部300は、利用者(対象者)の状態を推定する。
<State estimation unit>
The configuration of the
実施形態2では、フロントカメラ121は、表示機器100の利用者の顔(特に眼球)を含む画像データを取得することが可能である。サッケード検出部301は、フロントカメラ121により得られた画像データに対して視線検出処理を行うことで、利用者の視線を検出する。推定部302は、サッケード検出部301により検出された利用者のサッケードに基づいて、利用者の状態を推定する。なお、実施形態2の推定部302の動作は、実施形態1の推定部302の動作(図13,図14参照)と同様である。
In the second embodiment, the
また、実施形態2では、制御部131は、推定部302により運転者の状態が視野異常状態であると推定されると、視野異常状態に応じた第1動作を行う。第1動作の例としては、利用者の状態が視野異常状態であることを通知するための第1通知情報を出力する動作、利用者の状態が視野異常状態であることを表示機器100の周囲に通知するための動作などが挙げられる。第1通知情報を出力する動作の例としては、第1通知情報を表示部110および/またはスピーカ111に出力する動作、通信部124を経由して第1通知情報を他の情報端末(図示省略)に出力する動作などが挙げられる。利用者の状態が視野異常状態であることを表示機器100の周囲に通知するための動作の例としては、表示機器100のライト(図示省略)を点滅させる動作が挙げられる。
Further, in the second embodiment, when the
また、実施形態2では、制御部131は、推定部302により運転者の状態が注意機能低下状態であると推定されると、注意機能低下状態に応じた第2動作を行う。第2動作の例としては、利用者の注意機能低下状態を解消するための動作、利用者の状態が注意機能低下状態であることを通知するための第2通知情報を出力する動作などが挙げられる。利用者の注意機能低下状態を解消するための動作の例としては、利用者に休憩をとることを促すための警報情報を出力する動作、表示機器100の操作に集中することを利用者に促すための注意喚起情報を出力する動作などが挙げられる。表示部110および/またはスピーカ111は、制御部131から出力された警報情報および注意喚起情報を入力する。これにより、警報情報および注意喚起情報が画像および/または音声で利用者に出力される。第2通知情報を出力する動作の例としては、第2通知情報を表示部110および/またはスピーカ111に出力する動作、通信部124を経由して第2通知情報を他の情報端末(図示省略)に出力する動作などが挙げられる。
Further, in the second embodiment, when the
〔実施形態2の効果〕
実施形態2の表示機器100では、実施形態1の効果と同様の効果を得ることが可能である。例えば、身体機能が急低下する視野異常状態を推定することができる。
[Effect of Embodiment 2]
The
(その他の実施形態)
なお、以上の説明では、移動体の一例として車両を挙げたが、これに限定されない。例えば、移動体の他の例としては、船舶、飛行機などが挙げられる。
(Other embodiments)
In addition, in the above description, a vehicle is used as an example of a moving object, but the present invention is not limited to this. For example, other examples of moving bodies include ships and airplanes.
また、以上の説明では、表示機器100がスマートフォンである場合を例に挙げたが、これに限定されない。例えば、表示機器100は、テレビ受像機であってもよいし、ゲーム機であってもよいし、その他の機器であってもよい。
Also, in the above description, the case where the
また、以上の実施形態を適宜組み合わせて実施してもよい。以上の実施形態は、本質的に好ましい例示であって、この発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。 Also, the above embodiments may be combined as appropriate. The above embodiments are essentially preferable illustrations, and are not intended to limit the scope of the invention, its applications, or its uses.
以上説明したように、ここに開示する技術は、状態推定装置として有用である。 As described above, the technology disclosed herein is useful as a state estimation device.
10 車両制御システム
11 アクチュエータ
20 情報取得部
27 運転者状態センサ
28 車内カメラ(撮像部)
30 車両制御装置(状態推定装置)
35 車両制御部(制御部)
300 状態推定部
301 サッケード検出部
302 推定部
303 注意度検出部
304 設定部
40 通知部
41 表示部
42 スピーカ
100 表示機器
110 表示部
120 情報取得部
121 フロントカメラ(撮像部)
130 制御装置(状態推定装置)
131 制御部
10
30 vehicle control device (state estimation device)
35 vehicle control unit (control unit)
300
130 control device (state estimation device)
131 control unit
Claims (5)
前記対象者の意図的に視線を移動させる跳躍性眼球運動であるサッケードを検出するサッケード検出部と、
前記対象者による前記車両の運転中に、予め定められた推定期間内における前記対象者の右視野内のサッケードの振幅と左視野内のサッケードの振幅との差が予め定められた振幅差閾値以上であるという第1条件および前記推定期間内における前記対象者の右視野内のサッケードの頻度と左視野内のサッケードの頻度との差が予め定められた頻度差閾値以上であるという第2条件の両方が成立する場合に、前記対象者の状態が視野の左右の片側が異常となる視野異常状態であると推定する推定部とを備える
ことを特徴とする状態推定装置。 A state estimation device for estimating the state of a subject who is a driver of a vehicle ,
a saccade detection unit that detects a saccade that is a jumping eye movement that intentionally moves the line of sight of the subject;
During the driving of the vehicle by the subject, the difference between the amplitude of the saccades in the right visual field and the amplitude of the saccades in the left visual field of the subject within a predetermined estimation period is equal to or greater than a predetermined amplitude difference threshold. and the second condition that the difference between the frequency of saccades in the right visual field and the frequency of saccades in the left visual field of the subject within the estimation period is equal to or greater than a predetermined frequency difference threshold. and an estimating unit for estimating that the subject's state is a visual field abnormality state in which one of the left and right sides of the visual field is abnormal when both conditions are satisfied.
前記推定部は、前記第1条件および前記第2条件の少なくとも一方が成立せず、前記推定期間内における前記対象者の全視野内のサッケードの振幅が予め定められた振幅閾値以下であるという第3条件および前記推定期間内における前記対象者の全視野内のサッケードの頻度が予め定められた頻度閾値以下であるという第4条件の少なくとも一方が成立する場合に、前記対象者の状態が注意機能低下状態であると推定する
ことを特徴とする状態推定装置。 In claim 1,
The estimator determines that at least one of the first condition and the second condition is not satisfied and the amplitude of the saccade in the entire visual field of the subject within the estimation period is equal to or less than a predetermined amplitude threshold. When at least one of three conditions and a fourth condition that the frequency of saccades in the entire visual field of the subject within the estimation period is equal to or less than a predetermined frequency threshold is established, the subject's state is an attention function. A state estimating device characterized by estimating that it is in a lowered state.
前記対象者の状態が前記視野異常状態であると推定された場合に、前記視野異常状態に応じた第1動作を行い、前記対象者の状態が前記注意機能低下状態であると推定された場合に、前記注意機能低下状態に応じた第2動作を行う制御部を備える
ことを特徴とする状態推定装置。 In claim 2,
When the state of the subject is estimated to be the abnormal visual field state, performing a first action according to the abnormal visual field state, and when the state of the subject is estimated to be the reduced attention function state (2) a state estimation device comprising: a control unit that performs a second action according to the attention function deterioration state;
前記第1動作は、前記車両が安全領域に退避するように前記車両の走行を制御する動作を含み、
前記第2動作は、前記運転者に休憩をとることを促すための情報を出力する動作を含む
ことを特徴とする状態推定装置。 In claim 3 ,
The first operation includes an operation of controlling travel of the vehicle so that the vehicle evacuates to a safe area;
The state estimation device, wherein the second action includes an action of outputting information for prompting the driver to take a rest.
前記振幅差閾値および前記頻度差閾値は、前記車両の走行シーンが予め定められた走行シーンであるときの前記サッケードの振幅および頻度に基づいて設定される
ことを特徴とする状態推定装置。 In any one of claims 1 to 4 ,
The state estimation device, wherein the amplitude difference threshold and the frequency difference threshold are set based on the amplitude and frequency of the saccade when the vehicle travels in a predetermined travel scene.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020030011A JP7298510B2 (en) | 2020-02-26 | 2020-02-26 | state estimator |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020030011A JP7298510B2 (en) | 2020-02-26 | 2020-02-26 | state estimator |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021133755A JP2021133755A (en) | 2021-09-13 |
JP7298510B2 true JP7298510B2 (en) | 2023-06-27 |
Family
ID=77659919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020030011A Active JP7298510B2 (en) | 2020-02-26 | 2020-02-26 | state estimator |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7298510B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140152792A1 (en) | 2011-05-16 | 2014-06-05 | Wesley W. O. Krueger | Physiological biosensor system and method for controlling a vehicle or powered equipment |
JP2016523112A (en) | 2013-05-31 | 2016-08-08 | ディグニティー ヘルス | System and method for detecting neurological diseases |
JP2017023519A (en) | 2015-07-24 | 2017-02-02 | 株式会社デンソー | State estimation device and state estimation program |
US20170215784A1 (en) | 2016-02-02 | 2017-08-03 | Robert Bosch Gmbh | Method and apparatus for recognizing fatigue affecting a driver |
JP2017224066A (en) | 2016-06-14 | 2017-12-21 | 大学共同利用機関法人自然科学研究機構 | Looking aside state determination device |
JP2019195377A (en) | 2018-05-07 | 2019-11-14 | オムロン株式会社 | Data processing device, monitoring system, awakening system, data processing method, and data processing program |
JP2021077136A (en) | 2019-11-11 | 2021-05-20 | マツダ株式会社 | Driver state detection device |
-
2020
- 2020-02-26 JP JP2020030011A patent/JP7298510B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140152792A1 (en) | 2011-05-16 | 2014-06-05 | Wesley W. O. Krueger | Physiological biosensor system and method for controlling a vehicle or powered equipment |
JP2016523112A (en) | 2013-05-31 | 2016-08-08 | ディグニティー ヘルス | System and method for detecting neurological diseases |
JP2017023519A (en) | 2015-07-24 | 2017-02-02 | 株式会社デンソー | State estimation device and state estimation program |
US20170215784A1 (en) | 2016-02-02 | 2017-08-03 | Robert Bosch Gmbh | Method and apparatus for recognizing fatigue affecting a driver |
JP2017224066A (en) | 2016-06-14 | 2017-12-21 | 大学共同利用機関法人自然科学研究機構 | Looking aside state determination device |
JP2019195377A (en) | 2018-05-07 | 2019-11-14 | オムロン株式会社 | Data processing device, monitoring system, awakening system, data processing method, and data processing program |
JP2021077136A (en) | 2019-11-11 | 2021-05-20 | マツダ株式会社 | Driver state detection device |
Also Published As
Publication number | Publication date |
---|---|
JP2021133755A (en) | 2021-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5179686B2 (en) | Driving behavior risk calculation device | |
JP7099037B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
JPWO2017195405A1 (en) | Image processing apparatus, image processing method, and moving body | |
JP7342638B2 (en) | Driver status detection device | |
JP7459634B2 (en) | Driver Abnormality Judgment System | |
JP2020142652A (en) | Vehicle driving control system | |
JP7210929B2 (en) | Driving consciousness estimation device | |
JP2020131843A (en) | Vehicular operation control system | |
WO2019155914A1 (en) | Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium | |
WO2019155913A1 (en) | Data processing device, monitoring system, alertness system, data processing method, data processing program, and storage medium | |
JP7099036B2 (en) | Data processing equipment, monitoring system, awakening system, data processing method, and data processing program | |
JP7331728B2 (en) | Driver state estimation device | |
JP7331729B2 (en) | Driver state estimation device | |
US20210316737A1 (en) | Driver abnormality determination apparatus, method and computer program | |
JP7342637B2 (en) | Vehicle control device and driver condition determination method | |
JP7298510B2 (en) | state estimator | |
JP7298508B2 (en) | state estimator | |
JP7298509B2 (en) | state estimator | |
JP7318560B2 (en) | state estimator | |
US20210316736A1 (en) | Driver abnormality determination apparatus, method and computer program | |
JP7342636B2 (en) | Vehicle control device and driver condition determination method | |
JP7384051B2 (en) | Vehicle travel control device and travel control method | |
JP2022142984A (en) | Driving assistance device and computer program | |
JP2023022410A (en) | Driver state determination method and driver state determination system | |
JP2023022409A (en) | Driver state determination method and driver state determination system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230127 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230516 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230529 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7298510 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |