JP7466766B2 - 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法 - Google Patents
反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法 Download PDFInfo
- Publication number
- JP7466766B2 JP7466766B2 JP2023518565A JP2023518565A JP7466766B2 JP 7466766 B2 JP7466766 B2 JP 7466766B2 JP 2023518565 A JP2023518565 A JP 2023518565A JP 2023518565 A JP2023518565 A JP 2023518565A JP 7466766 B2 JP7466766 B2 JP 7466766B2
- Authority
- JP
- Japan
- Prior art keywords
- eye movement
- movement
- reflex
- reflex eye
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000004465 reflex eye movement Effects 0.000 title claims description 215
- 238000011156 evaluation Methods 0.000 title claims description 130
- 230000000007 visual effect Effects 0.000 claims description 120
- 238000005259 measurement Methods 0.000 claims description 102
- 230000004886 head movement Effects 0.000 claims description 77
- 230000004424 eye movement Effects 0.000 claims description 63
- 238000003384 imaging method Methods 0.000 claims description 35
- 230000003287 optical effect Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 description 11
- 230000015654 memory Effects 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 5
- 238000000034 method Methods 0.000 description 5
- 238000013479 data entry Methods 0.000 description 2
- 230000004462 vestibulo-ocular reflex Effects 0.000 description 2
- 101001139126 Homo sapiens Krueppel-like factor 6 Proteins 0.000 description 1
- 101000661807 Homo sapiens Suppressor of tumorigenicity 14 protein Proteins 0.000 description 1
- 206010062519 Poor quality sleep Diseases 0.000 description 1
- 206010041349 Somnolence Diseases 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1113—Local tracking of patients, e.g. in a hospital or private home
- A61B5/1114—Tracking parts of the body
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1126—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique
- A61B5/1128—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb using a particular sensing technique using image analysis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Veterinary Medicine (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Physiology (AREA)
- Psychology (AREA)
- Dentistry (AREA)
- Social Psychology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Psychiatry (AREA)
- Hospice & Palliative Care (AREA)
- Educational Technology (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Ophthalmology & Optometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Image Analysis (AREA)
- Eye Examination Apparatus (AREA)
Description
本開示は、反射性眼球運動評価技術に関する。
車両の運転者が眠気に襲われていないかを判定する技術が開発されている。例えば、特許文献1には、移動体に設置され、移動体中の人物の顔を撮影する撮像部と、その移動体に設置され、移動体の運動データを計測するジャイロセンサと、撮像部により撮影された顔の画像を用いてその人物の眼球運動を算出する第1の算出部と、センサにより計測された移動体の運動データ及び撮像部により撮影された顔の画像を用いてその人物の頭部運動を算出する第2の算出部と、第1の算出部によって算出された眼球運動、及び第2の算出部によって算出された頭部運動を用いて、その人物の覚醒に関する指標を算出する第3の算出部とを備えた算出システムに関する技術が開示されている。
しかしながら、特許文献1の算出システムによれば、移動体の外界の他の移動体の移動を直接評価していないので、反射性眼球運動を正確に評価できないという課題がある。
本開示は、このような課題を解決するためになされたものであり、移動体内の対象者の反射性眼球運動を正確に評価できる反射性眼球運動評価技術を提供することを目的とする。
本開示の実施形態による反射性眼球運動評価装置は、車両に備えて用いられる反射性眼球運動評価装置であって、撮像部により撮影される対象者の視対象を含む車外映像および前記対象者を含む車内映像を受け付けて、前記車外映像から前記車両を固定座標系とした前記対象者の視対象運動を、前記車内映像から前記対象者の頭部運動を測定して、前記対象者の反射性眼球運動を推定する反射性眼球運動推定部と、前記車内映像から前記対象者の眼球運動を測定する眼球運動測定部と、推定された反射性眼球運動と測定された眼球運動とから、前記反射性眼球運動の評価値を算出する評価値算出部と、を備える。
本開示の実施形態による反射性眼球運動評価装置は、移動体内の対象者の反射性眼球運動を正確に評価できる。
以下、図1から図5を参照して、本開示における種々の実施形態について詳細に説明する。なお、図面において同一または類似の符号を付された構成要素は、同一または類似の構成または機能を有するものとする。
実施の形態1.
<構成>
(反射性眼球運動評価システム)
図1は、本開示の実施の形態1による反射性眼球運動評価装置100A、および反射性眼球運動評価システムSYS.Aを示すブロック図である。反射性眼球運動評価システムSYS.Aは、不図示の移動可能な車両に備えて用いられる。車両は移動可能であればよく、従って車両は2輪車両でも、3輪車両でも、4輪車両でもよい。図1に示すように、対象者が注視している視対象を含む車外映像および車内の対象者(典型的には、車両の運転者)を撮影する撮像部10と、撮像部10により撮像された映像が入力される反射性眼球運動評価装置100Aとにより、反射性眼球運動評価システムSYS.Aが構成される。
<構成>
(反射性眼球運動評価システム)
図1は、本開示の実施の形態1による反射性眼球運動評価装置100A、および反射性眼球運動評価システムSYS.Aを示すブロック図である。反射性眼球運動評価システムSYS.Aは、不図示の移動可能な車両に備えて用いられる。車両は移動可能であればよく、従って車両は2輪車両でも、3輪車両でも、4輪車両でもよい。図1に示すように、対象者が注視している視対象を含む車外映像および車内の対象者(典型的には、車両の運転者)を撮影する撮像部10と、撮像部10により撮像された映像が入力される反射性眼球運動評価装置100Aとにより、反射性眼球運動評価システムSYS.Aが構成される。
なお、「車内」および「車外」との用語は、本開示においては、車両を現に操作し又は操作することが予定されている対象者を撮影するか否かという観点から区別される用語である。換言すれば、「車内」および「車外」との用語は、車内の空間か否かという観点から区別される用語でない。したがって、例えば、車両を現に操作し又は操作することが予定されている対象者を撮影する場合には、「車内映像」という用語を用いる。また、2輪車両のように車両の内部空間と外部空間の識別が困難である場合であっても、2輪車両を操作している対象者を撮影する場合は、「車内映像」という用語を用いる。「車両を操作することが予定されている対象者」には、自動走行車両の操作者が含まれる。
(撮像部)
撮像部10は、車内の対象者の顔映像を含む車内映像A1と、視対象を含む車外映像B1とを撮影し、撮影された車内映像A1および車外映像B1を出力する。車内映像A1および車外映像B1はそれぞれ単一のカメラを用いて撮影してもよいし、正確な三次元位置を計測するためにステレオカメラを用いて撮影してもよい。また、車内映像A1および車外映像B1は別々のカメラを用いて個別の映像として撮影してもよいし、全天球カメラのように広範囲の撮影を可能にするデバイスによって同一画像内にまとめて撮影してもよい。撮像部10は、反射性眼球運動推定部20Aに接続され、車内映像A1および車外映像B1を反射性眼球運動推定部20Aに出力する。また、撮像部10は、眼球運動測定部30にも接続され、車内映像A1を眼球運動測定部30に出力する。
撮像部10は、車内の対象者の顔映像を含む車内映像A1と、視対象を含む車外映像B1とを撮影し、撮影された車内映像A1および車外映像B1を出力する。車内映像A1および車外映像B1はそれぞれ単一のカメラを用いて撮影してもよいし、正確な三次元位置を計測するためにステレオカメラを用いて撮影してもよい。また、車内映像A1および車外映像B1は別々のカメラを用いて個別の映像として撮影してもよいし、全天球カメラのように広範囲の撮影を可能にするデバイスによって同一画像内にまとめて撮影してもよい。撮像部10は、反射性眼球運動推定部20Aに接続され、車内映像A1および車外映像B1を反射性眼球運動推定部20Aに出力する。また、撮像部10は、眼球運動測定部30にも接続され、車内映像A1を眼球運動測定部30に出力する。
(反射性眼球運動評価装置)
反射性眼球運動評価装置100Aは、視対象運動および頭部運動を測定し反射性眼球運動を推定する反射性眼球運動推定部20Aと、車内映像A1の顔映像から眼球運動を測定する眼球運動測定部30と、推定した反射性眼球運動と測定した眼球運動から前庭動眼反射のパフォーマンスを表す評価値を算出する評価値算出部40Aとを備える。
反射性眼球運動評価装置100Aは、視対象運動および頭部運動を測定し反射性眼球運動を推定する反射性眼球運動推定部20Aと、車内映像A1の顔映像から眼球運動を測定する眼球運動測定部30と、推定した反射性眼球運動と測定した眼球運動から前庭動眼反射のパフォーマンスを表す評価値を算出する評価値算出部40Aとを備える。
(反射性眼球運動推定部)
反射性眼球運動推定部20Aは、得られた撮像データとして車内映像A1および車外映像B1を入力として受け付け、車内映像A1および車外映像B1を視対象運動または頭部運動の測定に必要な撮像データに分類して出力するデータ入力部21Aと、車外映像B1から視対象の運動を測定する視対象運動測定部22Aと、車内映像A1から対象者の頭部運動を測定する頭部運動測定部23と、視対象運動と頭部運動から、対象者の反射性眼球運動を推定する反射性眼球運動算出部24Aとを備える。
反射性眼球運動推定部20Aは、得られた撮像データとして車内映像A1および車外映像B1を入力として受け付け、車内映像A1および車外映像B1を視対象運動または頭部運動の測定に必要な撮像データに分類して出力するデータ入力部21Aと、車外映像B1から視対象の運動を測定する視対象運動測定部22Aと、車内映像A1から対象者の頭部運動を測定する頭部運動測定部23と、視対象運動と頭部運動から、対象者の反射性眼球運動を推定する反射性眼球運動算出部24Aとを備える。
(データ入力部)
データ入力部21Aは、車内映像A1および車外映像B1を視対象運動の測定または頭部運動の測定に必要な撮像データに分類して、車内映像A1および車外映像B1を出力する。データ入力部21Aは、視対象運動測定部22Aに接続され、車外映像B1を視対象運動測定部22Aに出力する。また、データ入力部21Aは、頭部運動測定部23にも接続され、車内映像A1を頭部運動測定部23に出力する。
データ入力部21Aは、車内映像A1および車外映像B1を視対象運動の測定または頭部運動の測定に必要な撮像データに分類して、車内映像A1および車外映像B1を出力する。データ入力部21Aは、視対象運動測定部22Aに接続され、車外映像B1を視対象運動測定部22Aに出力する。また、データ入力部21Aは、頭部運動測定部23にも接続され、車内映像A1を頭部運動測定部23に出力する。
(視対象運動測定部)
視対象運動測定部22Aは、車外映像B1を入力として受け付け、車外映像B1から視対象領域を特定して、車両を固定座標系とした場合の視対象の運動の測定結果である視対象運動測定結果C1を出力する。視対象領域の特定においては、例えば車外映像B1内で人が視線を向けやすい特徴を推定する顕著性マップを生成して視対象領域を特定してもよいし、車外映像B1から物体の動き量を表すオプティカルフローを算出してオプティカルフローが消失した消失領域を視対象領域として特定してもよいし、顕著性マップまたはオプティカルフローの結果と一般物体認識の結果とを組み合わせて視対象領域を特定してもよい。このように車外映像B1全体の中から、注視されている領域の限定または注視されている対象物体の特定をすることで、車内の対象者の反射性眼球運動に影響を与える物体に限定した運動を計測することが可能となる。視対象運動測定部22Aは、反射性眼球運動算出部24Aに接続され、視対象運動測定結果C1を反射性眼球運動算出部24Aに出力する。
視対象運動測定部22Aは、車外映像B1を入力として受け付け、車外映像B1から視対象領域を特定して、車両を固定座標系とした場合の視対象の運動の測定結果である視対象運動測定結果C1を出力する。視対象領域の特定においては、例えば車外映像B1内で人が視線を向けやすい特徴を推定する顕著性マップを生成して視対象領域を特定してもよいし、車外映像B1から物体の動き量を表すオプティカルフローを算出してオプティカルフローが消失した消失領域を視対象領域として特定してもよいし、顕著性マップまたはオプティカルフローの結果と一般物体認識の結果とを組み合わせて視対象領域を特定してもよい。このように車外映像B1全体の中から、注視されている領域の限定または注視されている対象物体の特定をすることで、車内の対象者の反射性眼球運動に影響を与える物体に限定した運動を計測することが可能となる。視対象運動測定部22Aは、反射性眼球運動算出部24Aに接続され、視対象運動測定結果C1を反射性眼球運動算出部24Aに出力する。
(頭部運動測定部)
頭部運動測定部23は、車内映像A1を入力として受け付け、車両を固定座標系として車内映像A1から対象者の頭部の運動である頭部運動を測定し、対象者の頭部運動の測定結果である頭部運動測定結果D1を出力する。頭部運動の測定方法は、例えば特許文献1に記載されており公知であるので、説明を省略する。頭部運動測定部23は、反射性眼球運動算出部24Aに接続され、頭部運動測定結果D1を反射性眼球運動算出部24Aに出力する。
頭部運動測定部23は、車内映像A1を入力として受け付け、車両を固定座標系として車内映像A1から対象者の頭部の運動である頭部運動を測定し、対象者の頭部運動の測定結果である頭部運動測定結果D1を出力する。頭部運動の測定方法は、例えば特許文献1に記載されており公知であるので、説明を省略する。頭部運動測定部23は、反射性眼球運動算出部24Aに接続され、頭部運動測定結果D1を反射性眼球運動算出部24Aに出力する。
(反射性眼球運動算出部)
反射性眼球運動算出部24Aは、車両を固定座標系とした視対象運動測定結果C1と頭部運動測定結果D1を入力として受け付け、視対象運動測定結果C1と頭部運動測定結果D1から対象者の反射性眼球運動を算出して、算出結果を反射性眼球運動推定結果E1として出力する。反射性眼球運動算出部24Aは、視対象運動の方向と同方向かつ頭部運動の方向と逆方向に、車内映像A1における対象者の反射性眼球運動を推定する。車両内の対象者が知覚する視対象の運動は、車両を固定座標系とした視対象運動と頭部運動を組み合わせたものとなる。視界を安定させるために、反射性眼球運動は車両内の対象者が知覚する視対象の運動を打ち消すような動きとなる。そのため反射性眼球運動の推定値は、得られた視対象運動に対して方向が逆転した運動として推定される。頭部運動だけではなく、視対象運動を考慮することにより、対象者が注視している箇所に応じた反射性眼球運動の推定が可能となる。反射性眼球運動算出部24Aは、評価値算出部40Aに接続され、反射性眼球運動推定結果E1を評価値算出部40Aに出力する。
反射性眼球運動算出部24Aは、車両を固定座標系とした視対象運動測定結果C1と頭部運動測定結果D1を入力として受け付け、視対象運動測定結果C1と頭部運動測定結果D1から対象者の反射性眼球運動を算出して、算出結果を反射性眼球運動推定結果E1として出力する。反射性眼球運動算出部24Aは、視対象運動の方向と同方向かつ頭部運動の方向と逆方向に、車内映像A1における対象者の反射性眼球運動を推定する。車両内の対象者が知覚する視対象の運動は、車両を固定座標系とした視対象運動と頭部運動を組み合わせたものとなる。視界を安定させるために、反射性眼球運動は車両内の対象者が知覚する視対象の運動を打ち消すような動きとなる。そのため反射性眼球運動の推定値は、得られた視対象運動に対して方向が逆転した運動として推定される。頭部運動だけではなく、視対象運動を考慮することにより、対象者が注視している箇所に応じた反射性眼球運動の推定が可能となる。反射性眼球運動算出部24Aは、評価値算出部40Aに接続され、反射性眼球運動推定結果E1を評価値算出部40Aに出力する。
(眼球運動測定部)
眼球運動測定部30は、車内映像A1を入力として受け付け、車両を固定座標系として車内映像A1から対象者の眼球の運動である眼球運動を測定し、測定された対象者の眼球運動の測定結果である眼球運動測定結果F1を出力する。眼球運動の測定方法は、例えば特許文献1に記載されており公知であるので、説明を省略する。眼球運動測定部30は、評価値算出部40Aに接続され、眼球運動測定結果F1を評価値算出部40Aに出力する。
眼球運動測定部30は、車内映像A1を入力として受け付け、車両を固定座標系として車内映像A1から対象者の眼球の運動である眼球運動を測定し、測定された対象者の眼球運動の測定結果である眼球運動測定結果F1を出力する。眼球運動の測定方法は、例えば特許文献1に記載されており公知であるので、説明を省略する。眼球運動測定部30は、評価値算出部40Aに接続され、眼球運動測定結果F1を評価値算出部40Aに出力する。
(評価値算出部)
評価値算出部40Aは、反射性眼球運動推定結果E1および眼球運動測定結果F1を入力として受け付け、反射性眼球運動に関わる評価指標を算出する。評価指標の例には、反射性眼球運動の推定値に対する対象者の眼球運動の絶対値比であるゲイン値、並びに反射性眼球運動の推定値の波形(時系列データ)と対象者の眼球運動の波形(時系列データ)との位相差、残差標準偏差、および周期差が含まれる。評価指標の例はこれらに限られるものでなく、反射性眼球運動の推定値の波形と眼球運動の波形との相関に関する指標であればよい。2つの時系列データを比較するうえで、波形の相関に関わる指標を抽出することにより、2波形の類似性を評価することが可能となる。評価値算出部40Aは、少なくとも1つの指標を算出し、算出された1つの指標または算出された2つ以上の指標の組合せ(合算)で得られる評価値を、反射性眼球運動評価値G1として出力する。
評価値算出部40Aは、反射性眼球運動推定結果E1および眼球運動測定結果F1を入力として受け付け、反射性眼球運動に関わる評価指標を算出する。評価指標の例には、反射性眼球運動の推定値に対する対象者の眼球運動の絶対値比であるゲイン値、並びに反射性眼球運動の推定値の波形(時系列データ)と対象者の眼球運動の波形(時系列データ)との位相差、残差標準偏差、および周期差が含まれる。評価指標の例はこれらに限られるものでなく、反射性眼球運動の推定値の波形と眼球運動の波形との相関に関する指標であればよい。2つの時系列データを比較するうえで、波形の相関に関わる指標を抽出することにより、2波形の類似性を評価することが可能となる。評価値算出部40Aは、少なくとも1つの指標を算出し、算出された1つの指標または算出された2つ以上の指標の組合せ(合算)で得られる評価値を、反射性眼球運動評価値G1として出力する。
このように、反射性眼球運動評価装置100Aおよび反射性眼球運動評価システムSYS.Aによれば、対象者の反射性眼球運動は、対象者が注視している視対象を含む車外映像B1を用いて評価されるので、正確に評価される。
実施の形態2.
<構成>
(反射性眼球運動評価システム)
図2は、本開示の実施の形態2による反射性眼球運動評価装置100B、および反射性眼球運動評価システムSYS.Bを示すブロック図である。反射性眼球運動評価システムSYS.Bは、不図示の車両に備えられる。図2に示すように、視対象を含む車外映像および車内の運転者を撮影する撮像部10と、撮像部10により撮像された映像が入力される反射性眼球運動評価装置100Bとにより、反射性眼球運動評価システムSYS.Bが構成される。
<構成>
(反射性眼球運動評価システム)
図2は、本開示の実施の形態2による反射性眼球運動評価装置100B、および反射性眼球運動評価システムSYS.Bを示すブロック図である。反射性眼球運動評価システムSYS.Bは、不図示の車両に備えられる。図2に示すように、視対象を含む車外映像および車内の運転者を撮影する撮像部10と、撮像部10により撮像された映像が入力される反射性眼球運動評価装置100Bとにより、反射性眼球運動評価システムSYS.Bが構成される。
(撮像部)
撮像部10は、車内の対象者の顔映像を含む車内映像A1と、対象者が注視している視対象を含む車外映像B1とを撮影し、撮影された車内映像A1および車外映像B1を出力する。車内映像A1および車外映像B1はそれぞれ単一のカメラを用いて撮影してもよいし、正確な三次元位置を計測するためにステレオカメラを用いて撮影してもよい。また、車内映像A1および車外映像B1は別々のカメラを用いて個別の映像として撮影してもよいし、全天球カメラのように広範囲の撮影を可能にするデバイスによって同一画像内にまとめて撮影してもよい。撮像部10は、反射性眼球運動推定部20Bに接続され、車内映像A1および車外映像B1を反射性眼球運動推定部20Bに出力する。また、撮像部10は、眼球運動測定部30にも接続され、車内映像A1を眼球運動測定部30に出力する。また、撮像部10は、視線角度算出部50にも接続され、車内映像A1を視線角度算出部50に出力する。
撮像部10は、車内の対象者の顔映像を含む車内映像A1と、対象者が注視している視対象を含む車外映像B1とを撮影し、撮影された車内映像A1および車外映像B1を出力する。車内映像A1および車外映像B1はそれぞれ単一のカメラを用いて撮影してもよいし、正確な三次元位置を計測するためにステレオカメラを用いて撮影してもよい。また、車内映像A1および車外映像B1は別々のカメラを用いて個別の映像として撮影してもよいし、全天球カメラのように広範囲の撮影を可能にするデバイスによって同一画像内にまとめて撮影してもよい。撮像部10は、反射性眼球運動推定部20Bに接続され、車内映像A1および車外映像B1を反射性眼球運動推定部20Bに出力する。また、撮像部10は、眼球運動測定部30にも接続され、車内映像A1を眼球運動測定部30に出力する。また、撮像部10は、視線角度算出部50にも接続され、車内映像A1を視線角度算出部50に出力する。
(反射性眼球運動評価装置)
反射性眼球運動評価装置100Bは、視対象運動および頭部運動を測定し反射性眼球運動を推定する反射性眼球運動推定部20Bと、車内映像A1の顔映像から眼球運動を測定する眼球運動測定部30と、推定した反射性眼球運動と測定した眼球運動から前庭動眼反射のパフォーマンスを表す評価値を算出する評価値算出部40Bと、車内映像A1の顔映像から視線角度を算出する視線角度算出部50とを備える。
反射性眼球運動評価装置100Bは、視対象運動および頭部運動を測定し反射性眼球運動を推定する反射性眼球運動推定部20Bと、車内映像A1の顔映像から眼球運動を測定する眼球運動測定部30と、推定した反射性眼球運動と測定した眼球運動から前庭動眼反射のパフォーマンスを表す評価値を算出する評価値算出部40Bと、車内映像A1の顔映像から視線角度を算出する視線角度算出部50とを備える。
(視線角度算出部)
視線角度算出部50は、車内映像A1を入力とし、車両を固定座標系として対象者の視線角度を算出して、視線角度の算出結果である視線角度算出結果H1を出力する。視線角度は、所定の基準軸、例えば車両の固定座標系の前後方向の軸と、対象者の視線方向とがなす角の角度である。視線角度算出部50は、反射性眼球運動推定部20Bに接続され、視線角度算出結果H1を反射性眼球運動推定部20Bに出力する。対象者の視線角度を算出することにより、視線角度の算出結果を用いて、車外における視対象を細かく特定することが可能になる。そのため、対象者が実際に注視している視対象の運動を考慮した反射性眼球運動の推定をすることが可能となる。
視線角度算出部50は、車内映像A1を入力とし、車両を固定座標系として対象者の視線角度を算出して、視線角度の算出結果である視線角度算出結果H1を出力する。視線角度は、所定の基準軸、例えば車両の固定座標系の前後方向の軸と、対象者の視線方向とがなす角の角度である。視線角度算出部50は、反射性眼球運動推定部20Bに接続され、視線角度算出結果H1を反射性眼球運動推定部20Bに出力する。対象者の視線角度を算出することにより、視線角度の算出結果を用いて、車外における視対象を細かく特定することが可能になる。そのため、対象者が実際に注視している視対象の運動を考慮した反射性眼球運動の推定をすることが可能となる。
(反射性眼球運動推定部)
反射性眼球運動推定部20Bは、得られた撮像データとして車内映像A1および車外映像B1と視線角度算出結果H1とを入力として受け付け、視対象運動と頭部運動測定に必要な撮像データと視線角度を分類して出力するデータ入力部21Bと、車外映像B1と視線角度算出結果H1から視対象の運動を測定する視対象運動測定部22Bと、車内映像A1から対象者の頭部運動を測定する頭部運動測定部23と、視対象運動と頭部運動から、対象者の反射性眼球運動を推定する反射性眼球運動算出部24Bとを備える。
反射性眼球運動推定部20Bは、得られた撮像データとして車内映像A1および車外映像B1と視線角度算出結果H1とを入力として受け付け、視対象運動と頭部運動測定に必要な撮像データと視線角度を分類して出力するデータ入力部21Bと、車外映像B1と視線角度算出結果H1から視対象の運動を測定する視対象運動測定部22Bと、車内映像A1から対象者の頭部運動を測定する頭部運動測定部23と、視対象運動と頭部運動から、対象者の反射性眼球運動を推定する反射性眼球運動算出部24Bとを備える。
(データ入力部)
データ入力部21Bは、車内映像A1、車外映像B1および視線角度算出結果H1を、視対象運動の測定または頭部運動の測定に必要なデータに分類して、車内映像A1、車外映像B1または視線角度算出結果H1を出力する。データ入力部21Bは、視対象運動測定部22Bに接続され、車外映像B1および視線角度算出結果H1を視対象運動測定部22Bに出力する。また、データ入力部21Bは、頭部運動測定部23にも接続され、車内映像A1を頭部運動測定部23に出力する。
データ入力部21Bは、車内映像A1、車外映像B1および視線角度算出結果H1を、視対象運動の測定または頭部運動の測定に必要なデータに分類して、車内映像A1、車外映像B1または視線角度算出結果H1を出力する。データ入力部21Bは、視対象運動測定部22Bに接続され、車外映像B1および視線角度算出結果H1を視対象運動測定部22Bに出力する。また、データ入力部21Bは、頭部運動測定部23にも接続され、車内映像A1を頭部運動測定部23に出力する。
(視対象運動測定部)
視対象運動測定部22Bは、車外映像B1および視線角度算出結果H1を入力として受け付け、車外映像B1および視線角度から視対象領域を特定して、車両を固定座標系とした場合の視対象の運動の測定結果である視対象運動測定結果C2を出力する。視対象領域の特定においては、視線角度を用いて特定する。さらに、視線角度と一般物体認識の結果とを組み合わせて視対象を特定してもよい。視対象運動測定部22Bは、反射性眼球運動算出部24Bに接続され、視対象運動測定結果C2を反射性眼球運動算出部24Bに出力する。
視対象運動測定部22Bは、車外映像B1および視線角度算出結果H1を入力として受け付け、車外映像B1および視線角度から視対象領域を特定して、車両を固定座標系とした場合の視対象の運動の測定結果である視対象運動測定結果C2を出力する。視対象領域の特定においては、視線角度を用いて特定する。さらに、視線角度と一般物体認識の結果とを組み合わせて視対象を特定してもよい。視対象運動測定部22Bは、反射性眼球運動算出部24Bに接続され、視対象運動測定結果C2を反射性眼球運動算出部24Bに出力する。
(頭部運動測定部)
頭部運動測定部23は、車内映像A1を入力として受け付け、車両を固定座標系として車内映像A1から対象者の頭部の運動である頭部運動を測定し、対象者の頭部運動の測定結果である頭部運動測定結果D1を出力する。頭部運動測定部23は、反射性眼球運動算出部24Bに接続され、頭部運動測定結果D1を反射性眼球運動算出部24Bに出力する。
頭部運動測定部23は、車内映像A1を入力として受け付け、車両を固定座標系として車内映像A1から対象者の頭部の運動である頭部運動を測定し、対象者の頭部運動の測定結果である頭部運動測定結果D1を出力する。頭部運動測定部23は、反射性眼球運動算出部24Bに接続され、頭部運動測定結果D1を反射性眼球運動算出部24Bに出力する。
(反射性眼球運動算出部)
反射性眼球運動算出部24Bは、車両を固定座標系とした視対象運動測定結果C2と頭部運動測定結果D1を入力として受け付け、対象者の反射性眼球運動の推定結果である反射性眼球運動推定結果E2を出力する。反射性眼球運動算出部24Bは、視対象運動の方向と同方向かつ頭部運動の方向と逆方向に、車内映像A1における対象者の反射性眼球運動を推定する。車両内の対象者が知覚する視対象の運動は、車両を固定座標系とした視対象運動と頭部運動を組み合わせたものとなる。視界を安定させるために、反射性眼球運動は車両内の対象者が知覚する視対象の運動を打ち消すような動きとなる。そのため反射性眼球運動の推定値は、得られた視対象運動に対して方向が逆転した運動として推定される。頭部運動だけではなく、視対象運動を考慮することにより、対象者が注視している箇所に応じた反射性眼球運動の推定が可能となる。反射性眼球運動算出部24Bは、評価値算出部40Bに接続され、反射性眼球運動推定結果E2を評価値算出部40Bに出力する。
反射性眼球運動算出部24Bは、車両を固定座標系とした視対象運動測定結果C2と頭部運動測定結果D1を入力として受け付け、対象者の反射性眼球運動の推定結果である反射性眼球運動推定結果E2を出力する。反射性眼球運動算出部24Bは、視対象運動の方向と同方向かつ頭部運動の方向と逆方向に、車内映像A1における対象者の反射性眼球運動を推定する。車両内の対象者が知覚する視対象の運動は、車両を固定座標系とした視対象運動と頭部運動を組み合わせたものとなる。視界を安定させるために、反射性眼球運動は車両内の対象者が知覚する視対象の運動を打ち消すような動きとなる。そのため反射性眼球運動の推定値は、得られた視対象運動に対して方向が逆転した運動として推定される。頭部運動だけではなく、視対象運動を考慮することにより、対象者が注視している箇所に応じた反射性眼球運動の推定が可能となる。反射性眼球運動算出部24Bは、評価値算出部40Bに接続され、反射性眼球運動推定結果E2を評価値算出部40Bに出力する。
(眼球運動測定部)
眼球運動測定部30は、車内映像A1を入力として受け付け、車両を固定座標系として車内映像A1から対象者の眼球の運動である眼球運動を測定し、測定された対象者の眼球運動の測定結果である眼球運動測定結果F1を出力する。眼球運動測定部30は、評価値算出部40Bに接続され、眼球運動測定結果F1を評価値算出部40Bに出力する。
眼球運動測定部30は、車内映像A1を入力として受け付け、車両を固定座標系として車内映像A1から対象者の眼球の運動である眼球運動を測定し、測定された対象者の眼球運動の測定結果である眼球運動測定結果F1を出力する。眼球運動測定部30は、評価値算出部40Bに接続され、眼球運動測定結果F1を評価値算出部40Bに出力する。
(評価値算出部)
評価値算出部40Bは、反射性眼球運動推定結果E2および眼球運動測定結果F1を入力として受け付け、反射性眼球運動に関わる評価指標を算出する。評価指標の例には、反射性眼球運動の推定値に対する対象者の眼球運動の絶対値比であるゲイン値、並びに反射性眼球運動の推定値の波形(時系列データ)と対象者の眼球運動の波形(時系列データ)との位相差、残差標準偏差、および周期差が含まれる。評価指標の例はこれらに限られるものでなく、反射性眼球運動の推定値の波形と眼球運動の波形との相関に関する指標であればよい。評価値算出部40Bは、少なくとも1つの指標を算出し、算出された1つの指標または算出された2つ以上の指標の組合せで得られる評価値を、反射性眼球運動評価値G2として出力する。
評価値算出部40Bは、反射性眼球運動推定結果E2および眼球運動測定結果F1を入力として受け付け、反射性眼球運動に関わる評価指標を算出する。評価指標の例には、反射性眼球運動の推定値に対する対象者の眼球運動の絶対値比であるゲイン値、並びに反射性眼球運動の推定値の波形(時系列データ)と対象者の眼球運動の波形(時系列データ)との位相差、残差標準偏差、および周期差が含まれる。評価指標の例はこれらに限られるものでなく、反射性眼球運動の推定値の波形と眼球運動の波形との相関に関する指標であればよい。評価値算出部40Bは、少なくとも1つの指標を算出し、算出された1つの指標または算出された2つ以上の指標の組合せで得られる評価値を、反射性眼球運動評価値G2として出力する。
図3は、本開示の実施の形態1及び実施の形態2に関わる反射性眼球運動評価時に考える座標系の違いと、着目する運動を示す図である。図3では、車内映像A1を撮影するカメラとして内向きカメラが、車外映像B1を撮影するカメラとして外向きカメラが示されている。重力方向を鉛直方向に定めた世界座標系と、車両を固定座標系とした車両座標系とでは、車両自体に振動がある場合には異なる座標系と考えることができる。
車両に取り付けられたカメラおよび振動を計測するデバイスは、車両に固定されているために車両座標系における測定結果を出力していることになる。
一方で、車両に乗車している対象者が車外の対象を注視している状態では、対象者から見た視対象の運動は、自車両の振動が発生したことによる視界変動と、車両振動によって頭部運動が発生したことによる視界変動と、視対象自体の運動を合わせた結果として知覚される。車内映像からは、車両座標系における対象者の頭部運動と眼球運動を測定することができる。また車外映像からは、車両の振動による視界変動と、視対象自体の運動とを、車両座標系からみた相対運動として測定することができる。
本開示の反射性眼球運動評価装置100Aまたは100Bは、撮像部10により撮影された視対象を含む車外映像B1を受け付けて、対象者の反射性眼球運動を評価する。したがって、反射性眼球運動評価装置100Aまたは100Bによれば、車外の他の車両等の移動体の動きが考慮されるので、対象者の反射性眼球運動を正確に評価することができる。
次に、図4Aおよび図4Bを参照して、反射性眼球運動評価装置100Aおよび100Bのハードウェアの構成例について説明する。データ入力部21(21A;21B)、視対象運動測定部22(22A;22B)、頭部運動測定部23、反射性眼球運動算出部24(24A;24B)、眼球運動測定部30、評価値算出部40(40A;40B)、および視線角度算出部50の各機能は、処理回路(processing circuitry)により実現される。すなわち、反射性眼球運動評価装置100Aおよび100Bは、データ受付け、視対象運動測定、頭部運動測定、反射性眼球運動算出、評価値算出、視線角度算出などの種々の演算を行うための処理回路を備える。処理回路(processing circuitry)は、図4Aに示されているような専用の処理回路(processing circuit)100aであっても、図4Bに示されているようなメモリ100cに格納されるプログラムを実行するCPU100bであってもよい。
処理回路(processing circuitry)が専用の処理回路100aである場合、専用の処理回路100aは、例えば、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ASIC(application specific integrated circuit)、FPGA(field-programmable gate array)、またはこれらを組み合わせたものが該当する。データ入力部21(21A;21B)、視対象運動測定部22(22A;22B)、頭部運動測定部23、反射性眼球運動算出部24(24A;24B)、眼球運動測定部30、評価値算出部40(40A;40B)、および視線角度算出部50の各部の機能を別個の複数の処理回路(processing circuits)で実現してもよいし、各部の機能をまとめて単一の処理回路(processing circuit)で実現してもよい。
処理回路(processing circuitry)がCPU100bの場合、データ入力部21(21A;21B)、視対象運動測定部22(22A;22B)、頭部運動測定部23、反射性眼球運動算出部24(24A;24B)、眼球運動測定部30、評価値算出部40(40A;40B)、および視線角度算出部50の各機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアおよびファームウェアはプログラムとして記述され、メモリ100cに格納される。CPU100bは、メモリに記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。すなわち、データ受付けを行うステップ、視対象運動測定を行うステップ、頭部運動測定を行うステップ、反射性眼球運動算出を行うステップ、評価値算出を行うステップ、視線角度算出を行うステップ等のステップが、結果的に実行されることになるプログラムを格納するためのメモリ100Cを備える。また、これらのプログラムは、データ入力部21(21A;21B)、視対象運動測定部22(22A;22B)、頭部運動測定部23、反射性眼球運動算出部24(24A;24B)、眼球運動測定部30、評価値算出部40(40A;40B)、および視線角度算出部50の手順や方法をコンピュータに実行させるものであるともいえる。ここで、メモリ100cの例には、RAM(random access memory)、ROM(read-only memory)、フラッシュメモリ、EPROM(erasable programmable read only memory)、EEPROM(electrically erasable programmable read-only memory)等の、不揮発性または揮発性の半導体メモリや、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ミニディスク、DVDが含まれる。
なお、データ入力部21(21A;21B)、視対象運動測定部22(22A;22B)、頭部運動測定部23、反射性眼球運動算出部24(24A;24B)、眼球運動測定部30、評価値算出部40(40A;40B)、および視線角度算出部50の各機能について、一部を専用のハードウェアで実現し、一部をソフトウェアまたはファームウェアで実現するようにしてもよい。このように、処理回路は、ハードウェア、ソフトウェア、ファームウェア、またはこれらの組み合わせによって、上述の各機能を実現することができる。
(動作)
次に、図5を参照して、反射性眼球運動評価装置100Aおよび100Bの動作について説明する。
次に、図5を参照して、反射性眼球運動評価装置100Aおよび100Bの動作について説明する。
ステップST11において、反射性眼球運動推定部20(20A;20B)は、撮像部10により撮影される対象者の視対象を含む車外映像B1および対象者を含む車内映像A1を受け付ける。
ステップST12において、反射性眼球運動推定部20(20A;20B)は、車外映像B1から視対象運動を、車内映像A1から対象者の頭部運動を測定して、測定された視対象運動測定結果C1と頭部運動測定結果D1から対象者の反射性眼球運動を推定する。
車外映像B1から視対象運動を測定する際、視線角度算出部50が車内映像A1から対象者の視線角度を算出し、反射性眼球運動推定部20Bは算出された視線角度算出結果H1を視線角度算出部50から受け付けて、車外映像B1と視線角度算出結果H1から視対象運動を測定してもよい。この場合、反射性眼球運動推定部20Bは、視対象運動測定結果C2と頭部運動測定結果D1から対象者の反射性眼球運動を推定する。
ステップST13において、眼球運動測定部30は、車内映像A1から対象者の眼球運動を測定する。
ステップST14において、評価値算出部40(40A;40B)は、推定された反射性眼球運動推定結果E1またはE2と測定された眼球運動測定結果F1とから、前記反射性眼球運動の評価値G1またはG2を算出する。
<付記>
以上で説明した実施形態の種々の側面の一部を、以下にてまとめる。
以上で説明した実施形態の種々の側面の一部を、以下にてまとめる。
(付記1)
付記1の反射性眼球運動評価装置は、車両に備えて用いられる反射性眼球運動評価装置(100A;100B)であって、撮像部(10)により撮影される対象者の視対象を含む車外映像(B1)および前記対象者を含む車内映像(A1)を受け付けて、前記車外映像から前記車両を固定座標系とした前記対象者の視対象運動を、前記車内映像から前記対象者の頭部運動を測定して、前記対象者の反射性眼球運動を推定する反射性眼球運動推定部(20A;20B)と、前記車内映像から前記対象者の眼球運動を測定する眼球運動測定部(30)と、推定された反射性眼球運動と測定された眼球運動とから、前記反射性眼球運動の評価値を算出する評価値算出部(40A;40B)と、を備える。
付記1の反射性眼球運動評価装置は、車両に備えて用いられる反射性眼球運動評価装置(100A;100B)であって、撮像部(10)により撮影される対象者の視対象を含む車外映像(B1)および前記対象者を含む車内映像(A1)を受け付けて、前記車外映像から前記車両を固定座標系とした前記対象者の視対象運動を、前記車内映像から前記対象者の頭部運動を測定して、前記対象者の反射性眼球運動を推定する反射性眼球運動推定部(20A;20B)と、前記車内映像から前記対象者の眼球運動を測定する眼球運動測定部(30)と、推定された反射性眼球運動と測定された眼球運動とから、前記反射性眼球運動の評価値を算出する評価値算出部(40A;40B)と、を備える。
(付記2)
付記2の反射性眼球運動評価装置は、付記1の反射性眼球運動評価装置であって、前記反射性眼球運動推定部(20A)は、前記撮像部から入力される前記車内映像および前記車外映像を分配して出力するデータ入力部(21A)と、前記車外映像から前記視対象運動を測定する視対象運動測定部(22A)と、前記車内映像から前記頭部運動を測定する頭部運動測定部(23)と、前記視対象運動および前記頭部運動から前記反射性眼球運動を算出する反射性眼球運動算出部(24A)と、を備える。
付記2の反射性眼球運動評価装置は、付記1の反射性眼球運動評価装置であって、前記反射性眼球運動推定部(20A)は、前記撮像部から入力される前記車内映像および前記車外映像を分配して出力するデータ入力部(21A)と、前記車外映像から前記視対象運動を測定する視対象運動測定部(22A)と、前記車内映像から前記頭部運動を測定する頭部運動測定部(23)と、前記視対象運動および前記頭部運動から前記反射性眼球運動を算出する反射性眼球運動算出部(24A)と、を備える。
(付記3)
付記3の反射性眼球運動評価装置は、付記2の反射性眼球運動評価装置であって、前記視対象運動測定部は、前記車外映像の顕著性マップ、前記車外映像のオプティカルフロー、および前記車外映像から一般物体認識により検出される物体位置情報の少なくとも1つを用いて、前記視対象を含む領域を限定し又は前記視対象を特定する。
付記3の反射性眼球運動評価装置は、付記2の反射性眼球運動評価装置であって、前記視対象運動測定部は、前記車外映像の顕著性マップ、前記車外映像のオプティカルフロー、および前記車外映像から一般物体認識により検出される物体位置情報の少なくとも1つを用いて、前記視対象を含む領域を限定し又は前記視対象を特定する。
(付記4)
付記4の反射性眼球運動評価装置は、付記2の反射性眼球運動評価装置であって、前記反射性眼球運動算出部は、前記視対象運動の方向と同方向かつ前記頭部運動の方向と逆方向に、前記車内映像における前記対象者の前記反射性眼球運動を推定する。
付記4の反射性眼球運動評価装置は、付記2の反射性眼球運動評価装置であって、前記反射性眼球運動算出部は、前記視対象運動の方向と同方向かつ前記頭部運動の方向と逆方向に、前記車内映像における前記対象者の前記反射性眼球運動を推定する。
(付記5)
付記5の反射性眼球運動評価装置(100B)は、付記1の反射性眼球運動評価装置であって、前記車内映像から前記対象者の視線角度を算出する視線角度算出部(50)を更に備える。
付記5の反射性眼球運動評価装置(100B)は、付記1の反射性眼球運動評価装置であって、前記車内映像から前記対象者の視線角度を算出する視線角度算出部(50)を更に備える。
(付記6)
付記6の反射性眼球運動評価装置は、付記5の反射性眼球運動評価装置であって、前記反射性眼球運動推定部は、前記撮像部から入力される前記車内映像および前記車外映像並びに前記視線角度算出部から入力される視線角度を分配して出力するデータ入力部(21B)と、前記車外映像および前記視線角度から前記視対象運動を測定する視対象運動測定部(22B)と、前記車内映像から前記頭部運動を測定する頭部運動測定部(23)と、前記視対象運動および前記頭部運動から前記反射性眼球運動を算出する反射性眼球運動算出部(24B)と、を備える。
付記6の反射性眼球運動評価装置は、付記5の反射性眼球運動評価装置であって、前記反射性眼球運動推定部は、前記撮像部から入力される前記車内映像および前記車外映像並びに前記視線角度算出部から入力される視線角度を分配して出力するデータ入力部(21B)と、前記車外映像および前記視線角度から前記視対象運動を測定する視対象運動測定部(22B)と、前記車内映像から前記頭部運動を測定する頭部運動測定部(23)と、前記視対象運動および前記頭部運動から前記反射性眼球運動を算出する反射性眼球運動算出部(24B)と、を備える。
(付記7)
付記7の反射性眼球運動評価装置は、付記6の反射性眼球運動評価装置であって、前記視対象運動測定部は、前記車外映像の顕著性マップ、前記車外映像のオプティカルフロー、前記車外映像から一般物体認識により検出される物体位置情報、および前記視線角度の少なくとも1つを用いて、前記視対象を含む領域を限定し又は前記視対象を特定する。
付記7の反射性眼球運動評価装置は、付記6の反射性眼球運動評価装置であって、前記視対象運動測定部は、前記車外映像の顕著性マップ、前記車外映像のオプティカルフロー、前記車外映像から一般物体認識により検出される物体位置情報、および前記視線角度の少なくとも1つを用いて、前記視対象を含む領域を限定し又は前記視対象を特定する。
(付記8)
付記8の反射性眼球運動評価装置は、付記6の反射性眼球運動評価装置であって、前記反射性眼球運動算出部は、前記視対象運動の方向と同方向かつ前記頭部運動の方向と逆方向に、前記車内映像における前記対象者の前記反射性眼球運動を推定する。
付記8の反射性眼球運動評価装置は、付記6の反射性眼球運動評価装置であって、前記反射性眼球運動算出部は、前記視対象運動の方向と同方向かつ前記頭部運動の方向と逆方向に、前記車内映像における前記対象者の前記反射性眼球運動を推定する。
(付記9)
付記9の反射性眼球運動評価装置は、付記1から8のいずれか1つの反射性眼球運動評価装置であって、前記評価値算出部は、推定された反射性眼球運動の時系列データと、測定された眼球運動の時系列データとを比較し、2つの時系列データ間のゲイン、位相差、残差標準偏差、および周期差を含む少なくとも1つの指標に関する算出結果の合算値を前記反射性眼球運動の評価値として算出する。
付記9の反射性眼球運動評価装置は、付記1から8のいずれか1つの反射性眼球運動評価装置であって、前記評価値算出部は、推定された反射性眼球運動の時系列データと、測定された眼球運動の時系列データとを比較し、2つの時系列データ間のゲイン、位相差、残差標準偏差、および周期差を含む少なくとも1つの指標に関する算出結果の合算値を前記反射性眼球運動の評価値として算出する。
(付記10)
付記10の反射性眼球運動評価システムは、前記撮像部と、付記1から9のいずれか1つの反射性眼球運動評価装置と、を備える。
付記10の反射性眼球運動評価システムは、前記撮像部と、付記1から9のいずれか1つの反射性眼球運動評価装置と、を備える。
(付記11)
付記11の反射性眼球運動評価方法は、反射性眼球運動評価装置(100A;100B)による反射性眼球運動評価方法であって、反射性眼球運動推定部(20)により、撮像部により撮影される対象者の視対象を含む車外映像および前記対象者を含む車内映像を受け付けて、前記車外映像から視対象運動を、前記車内映像から前記対象者の頭部運動を測定して、前記対象者の反射性眼球運動を推定するステップ(ST11、ST12)と、眼球運動測定部(23)により、前記車内映像から前記対象者の眼球運動を測定するステップ(ST13)と、評価値算出部(40)により、推定された反射性眼球運動と測定された眼球運動とから、前記反射性眼球運動の評価値を算出するステップ(ST14)と、を備える。
付記11の反射性眼球運動評価方法は、反射性眼球運動評価装置(100A;100B)による反射性眼球運動評価方法であって、反射性眼球運動推定部(20)により、撮像部により撮影される対象者の視対象を含む車外映像および前記対象者を含む車内映像を受け付けて、前記車外映像から視対象運動を、前記車内映像から前記対象者の頭部運動を測定して、前記対象者の反射性眼球運動を推定するステップ(ST11、ST12)と、眼球運動測定部(23)により、前記車内映像から前記対象者の眼球運動を測定するステップ(ST13)と、評価値算出部(40)により、推定された反射性眼球運動と測定された眼球運動とから、前記反射性眼球運動の評価値を算出するステップ(ST14)と、を備える。
なお、実施形態を組み合わせたり、各実施形態を適宜、変形、省略したりすることが可能である。
本開示の反射性眼球運動評価装置は、車両に搭載されて運転支援システムの一部として用いることができる。
10 撮像部、20 反射性眼球運動推定部、21(21A;21B) データ入力部、22(22A;22B) 視対象運動測定部、23 頭部運動測定部、24(24A;24B) 反射性眼球運動算出部、30 眼球運動測定部、40(40A;40B) 評価値算出部、50 視線角度算出部、100(100A;100B) 反射性眼球運動評価装置、A1 車内映像、B1 車外映像、C1 視対象運動測定結果、D1 頭部運動測定結果、E1 反射性眼球運動推定結果、F1 眼球運動測定結果、G1 反射性眼球運動評価値、H1 視線角度算出結果、C2 視対象運動測定結果、E2 反射性眼球運動推定結果、G2 反射性眼球運動評価値。
Claims (11)
- 車両に備えて用いられる反射性眼球運動評価装置であって、
撮像部により撮影される対象者の視対象を含む車外映像および前記対象者を含む車内映像を受け付けて、前記車外映像から前記車両を固定座標系とした前記対象者の視対象運動を、前記車内映像から前記対象者の頭部運動を測定して、前記対象者の反射性眼球運動を推定する反射性眼球運動推定部と、
前記車内映像から前記対象者の眼球運動を測定する眼球運動測定部と、
推定された反射性眼球運動と測定された眼球運動とから、前記反射性眼球運動の評価値を算出する評価値算出部と、
を備える、反射性眼球運動評価装置。 - 前記反射性眼球運動推定部は、
前記撮像部から入力される前記車内映像および前記車外映像を分配して出力するデータ入力部と、
前記車外映像から前記視対象運動を測定する視対象運動測定部と、
前記車内映像から前記頭部運動を測定する頭部運動測定部と、
前記視対象運動および前記頭部運動から前記反射性眼球運動を算出する反射性眼球運動算出部と、
を備える、
請求項1に記載の反射性眼球運動評価装置。 - 前記視対象運動測定部は、前記車外映像の顕著性マップ、前記車外映像のオプティカルフロー、および前記車外映像から一般物体認識により検出される物体位置情報の少なくとも1つを用いて、前記視対象を含む領域を限定し又は前記視対象を特定する、
請求項2に記載の反射性眼球運動評価装置。 - 前記反射性眼球運動算出部は、前記視対象運動の方向と同方向かつ前記頭部運動の方向と逆方向に、前記車内映像における前記対象者の前記反射性眼球運動を推定する、
請求項2に記載の反射性眼球運動評価装置。 - 前記車内映像から前記対象者の視線角度を算出する視線角度算出部を更に備える、
請求項1に記載の反射性眼球運動評価装置。 - 前記反射性眼球運動推定部は、
前記撮像部から入力される前記車内映像および前記車外映像並びに前記視線角度算出部から入力される視線角度を分配して出力するデータ入力部と、
前記車外映像および前記視線角度から前記視対象運動を測定する視対象運動測定部と、
前記車内映像から前記頭部運動を測定する頭部運動測定部と、
前記視対象運動および前記頭部運動から前記反射性眼球運動を算出する反射性眼球運動算出部と、
を備える、
請求項5に記載の反射性眼球運動評価装置。 - 前記視対象運動測定部は、前記車外映像の顕著性マップ、前記車外映像のオプティカルフロー、前記車外映像から一般物体認識により検出される物体位置情報、および前記視線角度の少なくとも1つを用いて、前記視対象を含む領域を限定し又は前記視対象を特定する、
請求項6に記載の反射性眼球運動評価装置。 - 前記反射性眼球運動算出部は、前記視対象運動の方向と同方向かつ前記頭部運動の方向と逆方向に、前記車内映像における前記対象者の前記反射性眼球運動を推定する、
請求項6に記載の反射性眼球運動評価装置。 - 前記評価値算出部は、推定された反射性眼球運動の時系列データと、測定された眼球運動の時系列データとを比較し、2つの時系列データ間のゲイン、位相差、残差標準偏差、および周期差を含む少なくとも1つの指標に関する算出結果の合算値を前記反射性眼球運動の評価値として算出する、
請求項1に記載の反射性眼球運動評価装置。 - 前記撮像部と、
請求項1から9のいずれか1項に記載の反射性眼球運動評価装置と、
を備える、反射性眼球運動評価システム。 - 反射性眼球運動推定部により、撮像部により撮影される対象者の視対象を含む車外映像および前記対象者を含む車内映像を受け付けて、前記車外映像から視対象運動を、前記車内映像から前記対象者の頭部運動を測定して、前記対象者の反射性眼球運動を推定するステップと、
眼球運動測定部により、前記車内映像から前記対象者の眼球運動を測定するステップと、
評価値算出部により、推定された反射性眼球運動と測定された眼球運動とから、前記反射性眼球運動の評価値を算出するステップと、
を備える、反射性眼球運動評価装置による反射性眼球運動評価方法。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2021/017437 WO2022234632A1 (ja) | 2021-05-07 | 2021-05-07 | 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2022234632A1 JPWO2022234632A1 (ja) | 2022-11-10 |
JP7466766B2 true JP7466766B2 (ja) | 2024-04-12 |
Family
ID=83932668
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023518565A Active JP7466766B2 (ja) | 2021-05-07 | 2021-05-07 | 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20240206729A1 (ja) |
JP (1) | JP7466766B2 (ja) |
DE (1) | DE112021007613T5 (ja) |
WO (1) | WO2022234632A1 (ja) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008079737A (ja) | 2006-09-26 | 2008-04-10 | Toyota Motor Corp | 集中度評価装置及びこれを用いた車両用表示装置 |
WO2018070330A1 (ja) | 2016-10-11 | 2018-04-19 | 三菱電機株式会社 | 乗り物酔い推定装置、乗り物酔い防止装置および乗り物酔い推定方法 |
JP2019154929A (ja) | 2018-03-15 | 2019-09-19 | オムロン株式会社 | 算出システム、指標算出方法、およびコンピュータプログラム |
JP2019195377A (ja) | 2018-05-07 | 2019-11-14 | オムロン株式会社 | データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム |
JP2021053240A (ja) | 2019-09-30 | 2021-04-08 | トヨタ紡織株式会社 | 眠気又は覚醒レベル評価装置及び評価プログラム |
-
2021
- 2021-05-07 US US18/288,574 patent/US20240206729A1/en active Pending
- 2021-05-07 JP JP2023518565A patent/JP7466766B2/ja active Active
- 2021-05-07 DE DE112021007613.2T patent/DE112021007613T5/de active Pending
- 2021-05-07 WO PCT/JP2021/017437 patent/WO2022234632A1/ja active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008079737A (ja) | 2006-09-26 | 2008-04-10 | Toyota Motor Corp | 集中度評価装置及びこれを用いた車両用表示装置 |
WO2018070330A1 (ja) | 2016-10-11 | 2018-04-19 | 三菱電機株式会社 | 乗り物酔い推定装置、乗り物酔い防止装置および乗り物酔い推定方法 |
JP2019154929A (ja) | 2018-03-15 | 2019-09-19 | オムロン株式会社 | 算出システム、指標算出方法、およびコンピュータプログラム |
JP2019195377A (ja) | 2018-05-07 | 2019-11-14 | オムロン株式会社 | データ処理装置、モニタリングシステム、覚醒システム、データ処理方法、及びデータ処理プログラム |
JP2021053240A (ja) | 2019-09-30 | 2021-04-08 | トヨタ紡織株式会社 | 眠気又は覚醒レベル評価装置及び評価プログラム |
Also Published As
Publication number | Publication date |
---|---|
DE112021007613T5 (de) | 2024-02-29 |
WO2022234632A1 (ja) | 2022-11-10 |
JPWO2022234632A1 (ja) | 2022-11-10 |
US20240206729A1 (en) | 2024-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2020064046A (ja) | 車両位置決定方法及び車両位置決定装置 | |
US8213677B2 (en) | Motion measuring device, motion measuring system, in-vehicle device, motion measuring method, motion measurement program, and computer-readable storage medium | |
EP2657644B1 (en) | Positioning apparatus and positioning method | |
WO2018154709A1 (ja) | 動作学習装置、技能判別装置および技能判別システム | |
JP6479272B1 (ja) | 視線方向較正装置、視線方向較正方法および視線方向較正プログラム | |
EP4001844A1 (en) | Method and apparatus with localization | |
JP2016115117A (ja) | 判定装置および判定方法 | |
US20220351400A1 (en) | Information processing apparatus, information processing method, and information processing program | |
KR20230137221A (ko) | 이미지 검증 방법, 그를 수행하는 진단 시스템 및 그를 수행하는 방법이 기록된 컴퓨터로 판독가능한 기록매체 | |
JP2021051347A (ja) | 距離画像生成装置及び距離画像生成方法 | |
JP7466766B2 (ja) | 反射性眼球運動評価装置、反射性眼球運動評価システム、および反射性眼球運動評価方法 | |
JP2007304721A (ja) | 画像処理装置及び画像処理方法 | |
JP2018149990A (ja) | 運転者の着座判定装置 | |
JP2016115120A (ja) | 開閉眼判定装置および開閉眼判定方法 | |
JP6572538B2 (ja) | 下方視判定装置および下方視判定方法 | |
JP7003335B2 (ja) | 操作者判定装置および操作者判定方法 | |
JP7267467B2 (ja) | 注意方向判定装置および注意方向判定方法 | |
US20230300290A1 (en) | Information display system, information display method, and non-transitory recording medium | |
JP4676375B2 (ja) | 車両運転者の視線方向の検出方法又は同装置 | |
JP6847323B2 (ja) | 視線検出装置および視線検出方法 | |
KR102486161B1 (ko) | 차량, 차량의 제어 방법 및 영상 탐색 장치 | |
JP6770488B2 (ja) | 注視対象物推定装置、注視対象物推定方法、およびプログラム | |
WO2020059064A1 (ja) | 算出装置、情報処理方法および記憶媒体 | |
JP7483060B2 (ja) | 手検出装置、ジェスチャー認識装置および手検出方法 | |
JP7416276B2 (ja) | 不安全運転検出装置、方法、及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240305 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240402 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7466766 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |