JP7602706B2 - 立体認知能力評価システム、立体認知能力評価装置、立体認知能力評価プログラム、および立体認知能力評価方法 - Google Patents
立体認知能力評価システム、立体認知能力評価装置、立体認知能力評価プログラム、および立体認知能力評価方法 Download PDFInfo
- Publication number
- JP7602706B2 JP7602706B2 JP2023513771A JP2023513771A JP7602706B2 JP 7602706 B2 JP7602706 B2 JP 7602706B2 JP 2023513771 A JP2023513771 A JP 2023513771A JP 2023513771 A JP2023513771 A JP 2023513771A JP 7602706 B2 JP7602706 B2 JP 7602706B2
- Authority
- JP
- Japan
- Prior art keywords
- moving object
- ability
- stereoscopic
- subject
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/02—Subjective types, i.e. testing apparatus requiring the active assistance of the patient
- A61B3/08—Subjective types, i.e. testing apparatus requiring the active assistance of the patient for testing binocular or stereoscopic vision, e.g. strabismus
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/02—Simulators for teaching or training purposes for teaching control of vehicles or other craft
- G09B9/04—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B9/00—Simulators for teaching or training purposes
- G09B9/02—Simulators for teaching or training purposes for teaching control of vehicles or other craft
- G09B9/04—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles
- G09B9/052—Simulators for teaching or training purposes for teaching control of vehicles or other craft for teaching control of land vehicles characterised by provision for recording or measuring trainee's performance
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/162—Testing reaction times
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Heart & Thoracic Surgery (AREA)
- Aviation & Aerospace Engineering (AREA)
- Educational Administration (AREA)
- Biophysics (AREA)
- Business, Economics & Management (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Educational Technology (AREA)
- Ophthalmology & Optometry (AREA)
- Veterinary Medicine (AREA)
- Primary Health Care (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Pathology (AREA)
- Epidemiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Description
図1は、実施の形態1に係る立体認知能力評価システム100の構成を示すブロック図である。図1に示されるように、立体認知能力評価システム100は、情報処理装置110(立体認知能力評価装置)と、被測定者Sb1の端末装置800と、自動車Cs1(移動オブジェクト)に搭載されたドライブレコーダ900(移動記録装置)とを備える。情報処理装置110と、端末装置800と、自動車Cs1と、ドライブレコーダ900とは、ネットワークNWを介して互いに接続されている。ネットワークNWは、たとえばインターネット、LAN(Local Area Network)、あるいはクラウドシステムを含む。
実施の形態1においては、情報処理装置110が立体認知能力の評価機能、および評価モデルを学習済みとする学習機能の両方を有している構成について説明した。実施の形態1の変形例においては、立体認知能力の評価機能を有する装置と、学習機能を有する装置とが別である構成について説明する。
実施の形態1および変形例においては、現実の世界において被測定者によって操作される移動オブジェクトの位置の変化に基づいて当該被測定者の立体認知能力を評価する構成について説明した。実施の形態2においては、仮想現実(仮想空間)において被測定者によって操作される移動オブジェクトの位置の変化に基づいて当該被測定者の立体認知能力を評価する構成について説明する。なお、実施の形態2においても実施の形態1と同様に移動オブジェクトが自動車である場合について説明するが、移動オブジェクトは自動車に限定されない。被測定者の操作に応じて移動オブジェクトの位置が変化すれば移動オブジェクトはどのようなものであってもよく、たとえばバイク、自転車、飛行機、あるいは船であってもよい。
実施の形態1においては、ドライブレコーダの位置測定部によって測定された移動オブジェクトの位置から特徴量を演算する構成について説明した。実施の形態3においては、ドライブレコーダの加速度センサによって特徴量を直接に測定する構成について説明する。
図33は、実施の形態3の変形例に係る立体認知能力評価システム300Aのハードウェア構成を示す図である。図33のドライブレコーダ930は、図2のドライブレコーダ900に図30の加速度センサ937が追加された構成である。これら以外の立体認知能力評価システム300Aの構成は、立体認知能力評価システム100の構成と同様であるため、同様の構成についての説明を繰り返さない。
実施の形態3の変形例においては、自動車に設置されたドライブレコーダの加速度センサまたは位置測定部によって測定されるデータを用いる構成について説明したが、実施の形態4では、スマートフォン等の携帯可能なモバイル端末に含まれる、カメラ、加速度センサ、あるいは位置測定部によって測定されるデータを用いる構成について説明する。なお、各種プログラムを格納する情報処理装置は、モバイル端末に含まれていてもよいし、通信部を介してモバイル端末と通信する、モバイル端末とは別個の装置であってもよい。
Claims (20)
- 被測定者に操作されて移動する移動オブジェクトの位置の変化に基づいて前記被測定者の立体認知能力を評価するための立体認知能力評価システムであって、
前記移動オブジェクトの位置に関する情報を取得する位置取得部と、
学習済みの特定モデルを用いて前記立体認知能力を判定する立体認知能力判定部とを備え、
前記特定モデルの説明変数は、前記移動オブジェクトの進行方向において前記移動オブジェクトよりも先行する基準オブジェクトと前記移動オブジェクトとの間の第1距離を少なくとも1回時間微分した値から導かれる第1特徴量、および前記移動オブジェクトの進行方向に沿う基準線と前記移動オブジェクトとの間の第2距離から導かれる第2特徴量の少なくとも1つを含み、
前記特定モデルは、前記移動オブジェクトの操作者の立体認知能力によって予めラベル付けされた、当該操作者によって操作されて移動する前記移動オブジェクトの位置に関する情報を教師データとする機械学習によって学習済みモデルとされる、立体認知能力評価システム。 - 前記第2特徴量は、前記第2距離を少なくとも1回時間微分した値から導かれる特徴量を含む、請求項1に記載の立体認知能力評価システム。
- 前記第2特徴量は、前記第2距離を少なくとも2回時間微分した値から導かれる特徴量を含む、請求項1に記載の立体認知能力評価システム。
- 前記第1特徴量は、前記第1距離を少なくとも2回時間微分した値から導かれる特徴量を含む、請求項1に記載の立体認知能力評価システム。
- 前記特定モデルは、前記立体認知能力を目的変数とする決定木を含む、請求項4に記載の立体認知能力評価システム。
- 前記説明変数は、前記被測定者の属性に関する情報をさらに含む、請求項5に記載の立体認知能力評価システム。
- 前記移動オブジェクトに搭載された移動記録装置をさらに備え、
前記移動記録装置は、前記移動オブジェクトから前記移動オブジェクトの進行方向を見た場合の動画データを生成するカメラと、
前記移動オブジェクトの位置を測定する位置測定部とを含み、
前記位置取得部は、前記基準オブジェクトおよび前記基準線の少なくとも1つを含む前記動画データおよび前記位置測定部の測定結果から前記移動オブジェクトの位置に関する情報を取得する、請求項1に記載の立体認知能力評価システム。 - 前記移動オブジェクトは仮想現実によって提供され、
前記立体認知能力評価システムは、
前記仮想現実の動画像を表示するための電子ディスプレイを含む仮想現実ヘッドセットと、
前記仮想現実において移動する前記移動オブジェクトの動画像を前記電子ディスプレイに表示させる移動オブジェクト表示部とをさらに備え、
前記位置取得部は、前記移動オブジェクト表示部で表示される前記仮想現実における前記移動オブジェクトの位置を取得する、請求項1に記載の立体認知能力評価システム。 - 被測定者に操作されて移動する移動オブジェクトの挙動の変化に基づいて前記被測定者の立体認知能力を評価するための立体認知能力評価システムであって、
前記移動オブジェクトの挙動に関する情報を取得する挙動取得部と、
学習済みの特定モデルを用いて前記立体認知能力を判定する立体認知能力判定部とを備え、
前記特定モデルの説明変数は、前記移動オブジェクトの進行方向において前記移動オブジェクトよりも先行する基準オブジェクトと前記移動オブジェクトとの間の第1距離を少なくとも1回時間微分した値から導かれる第1特徴量、および前記移動オブジェクトの進行方向に沿う基準線と前記移動オブジェクトとの間の第2距離に関する第2特徴量の少なくとも1つを含み、
前記特定モデルは、前記移動オブジェクトの操作者の立体認知能力によって予めラベル付けされた、当該操作者によって操作されて移動する前記移動オブジェクトの位置に関する情報を教師データとする機械学習によって学習済みモデルとされる、立体認知能力評価システム。 - 前記挙動取得部は、前記移動オブジェクトの位置に関する情報を取得し、
前記第1特徴量および/または前記第2特徴量は、前記移動オブジェクトの位置に関する情報から導かれる、請求項9に記載の立体認知能力評価システム。 - 前記挙動取得部は、前記移動オブジェクトの加速度に関する情報を取得し、
前記立体認知能力判定部は、前記第2特徴量から前記立体認知能力を判定する、請求項9に記載の立体認知能力評価システム。 - 前記第2特徴量は、前記移動オブジェクトの加速度から導かれる、請求項11に記載の立体認知能力評価システム。
- 前記移動オブジェクトに搭載された移動記録装置をさらに備え、
前記移動記録装置は、前記移動オブジェクトから前記移動オブジェクトの進行方向を見た場合の動画データを生成するカメラと、
前記移動オブジェクトの加速度を測定する加速度センサとを含み、
前記挙動取得部は、前記動画データおよび前記加速度センサの測定結果から前記移動オブジェクトの加速度に関する情報を取得する、請求項11に記載の立体認知能力評価システム。 - 前記被測定者の端末装置と、
前記立体認知能力判定部の判定結果を前記端末装置に送信する通信部とをさらに備える、請求項1~13のいずれか1項に記載の立体認知能力評価システム。 - 被測定者に操作されて移動する移動オブジェクトの位置の変化に基づいて前記被測定者の立体認知能力を評価するための立体認知能力評価装置であって、
前記移動オブジェクトの位置に関する情報を取得する位置取得部と、
学習済みの特定モデルを用いて前記立体認知能力を判定する立体認知能力判定部と、
前記位置取得部および前記立体認知能力判定部を収容する筐体とを備え、
前記特定モデルの説明変数は、前記移動オブジェクトの進行方向において前記移動オブジェクトよりも先行する基準オブジェクトと前記移動オブジェクトとの間の第1距離を少なくとも1回時間微分した値から導かれる第1特徴量、および前記移動オブジェクトの進行方向に沿う基準線と前記移動オブジェクトとの間の第2距離から導かれる第2特徴量の少なくとも1つを含み、
前記特定モデルは、前記移動オブジェクトの操作者の立体認知能力によって予めラベル付けされた、当該操作者によって操作されて移動する前記移動オブジェクトの位置に関する情報を教師データとする機械学習によって学習済みモデルとされる、立体認知能力評価装置。 - 被測定者に操作されて移動する移動オブジェクトの挙動の変化に基づいて前記被測定者の立体認知能力を評価するための立体認知能力評価装置であって、
前記移動オブジェクトの挙動に関する情報を取得する挙動取得部と、
学習済みの特定モデルを用いて前記立体認知能力を判定する立体認知能力判定部と、
前記挙動取得部および前記立体認知能力判定部を収容する筐体とを備え、
前記特定モデルの説明変数は、前記移動オブジェクトの進行方向において前記移動オブジェクトよりも先行する基準オブジェクトと前記移動オブジェクトとの間の第1距離を少なくとも1回時間微分した値から導かれる第1特徴量、および前記移動オブジェクトの進行方向に沿う基準線と前記移動オブジェクトとの間の第2距離に関する第2特徴量の少なくとも1つを含み、
前記特定モデルは、前記移動オブジェクトの操作者の立体認知能力によって予めラベル付けされた、当該操作者によって操作されて移動する前記移動オブジェクトの位置に関する情報を教師データとする機械学習によって学習済みモデルとされる、立体認知能力評価装置。 - コンピュータによって実行されることにより、前記コンピュータに、被測定者に操作されて移動する移動オブジェクトの位置の変化に基づいて前記被測定者の立体認知能力を評価するための立体認知能力評価装置を構成させるための立体認知能力評価プログラムであって、前記立体認知能力評価装置は、
前記移動オブジェクトの位置に関する情報を取得する位置取得部と、
学習済みの特定モデルを用いて前記立体認知能力を判定する立体認知能力判定部とを備え、
前記特定モデルの説明変数は、前記移動オブジェクトの進行方向において前記移動オブジェクトよりも先行する基準オブジェクトと前記移動オブジェクトとの間の第1距離を少なくとも1回時間微分した値から導かれる第1特徴量、および前記移動オブジェクトの進行方向に沿う基準線と前記移動オブジェクトとの間の第2距離から導かれる第2特徴量の少なくとも1つを含み、
前記特定モデルは、前記移動オブジェクトの操作者の立体認知能力によって予めラベル付けされた、当該操作者によって操作されて移動する前記移動オブジェクトの位置に関する情報を教師データとする機械学習によって学習済みモデルとされる、立体認知能力評価プログラム。 - コンピュータによって実行されることにより、前記コンピュータに、被測定者に操作されて移動する移動オブジェクトの挙動の変化に基づいて前記被測定者の立体認知能力を評価するための立体認知能力評価装置を構成させるための立体認知能力評価プログラムであって、前記立体認知能力評価装置は、
前記移動オブジェクトの挙動に関する情報を取得する挙動取得部と、
学習済みの特定モデルを用いて前記立体認知能力を判定する立体認知能力判定部とを備え、
前記特定モデルの説明変数は、前記移動オブジェクトの進行方向において前記移動オブジェクトよりも先行する基準オブジェクトと前記移動オブジェクトとの間の第1距離を少なくとも1回時間微分した値から導かれる第1特徴量、および前記移動オブジェクトの進行方向に沿う基準線と前記移動オブジェクトとの間の第2距離に関する第2特徴量の少なくとも1つを含み、
前記特定モデルは、前記移動オブジェクトの操作者の立体認知能力によって予めラベル付けされた、当該操作者によって操作されて移動する前記移動オブジェクトの位置に関する情報を教師データとする機械学習によって学習済みモデルとされる、立体認知能力評価プログラム。 - コンピュータによって実行されることにより、前記コンピュータに、被測定者に操作されて移動する移動オブジェクトの位置の変化に基づいて前記被測定者の立体認知能力を評価させるための立体認知能力評価方法であって、
前記移動オブジェクトの位置に関する情報を取得するステップと、
学習済みの特定モデルを用いて前記立体認知能力を判定するステップとを含み、
前記特定モデルの説明変数は、前記移動オブジェクトの進行方向において前記移動オブジェクトよりも先行する基準オブジェクトと前記移動オブジェクトとの間の第1距離を少なくとも1回時間微分した値から導かれる第1特徴量、および前記移動オブジェクトの進行方向に沿う基準線と前記移動オブジェクトとの間の第2距離から導かれる第2特徴量の少なくとも1つを含み、
前記特定モデルは、前記移動オブジェクトの操作者の立体認知能力によって予めラベル付けされた、当該操作者によって操作されて移動する前記移動オブジェクトの位置に関する情報を教師データとする機械学習によって学習済みモデルとされる、立体認知能力評価方法。 - コンピュータによって実行されることにより、前記コンピュータに、被測定者に操作されて移動する移動オブジェクトの挙動の変化に基づいて前記被測定者の立体認知能力を評価させるための立体認知能力評価方法であって、
前記移動オブジェクトの挙動に関する情報を取得するステップと、
学習済みの特定モデルを用いて前記立体認知能力を判定するステップとを含み、
前記特定モデルの説明変数は、前記移動オブジェクトの進行方向において前記移動オブジェクトよりも先行する基準オブジェクトと前記移動オブジェクトとの間の第1距離を少なくとも1回時間微分した値から導かれる第1特徴量、および前記移動オブジェクトの進行方向に沿う基準線と前記移動オブジェクトとの間の第2距離に関する第2特徴量の少なくとも1つを含み、
前記特定モデルは、前記移動オブジェクトの操作者の立体認知能力によって予めラベル付けされた、当該操作者によって操作されて移動する前記移動オブジェクトの位置に関する情報を教師データとする機械学習によって学習済みモデルとされる、立体認知能力評価方法。
Applications Claiming Priority (5)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| JP2021141500 | 2021-08-31 | ||
| JP2021141500 | 2021-08-31 | ||
| JP2022030855 | 2022-03-01 | ||
| JP2022030855 | 2022-03-01 | ||
| PCT/JP2022/032035 WO2023032806A1 (ja) | 2021-08-31 | 2022-08-25 | 立体認知能力評価システム、立体認知能力評価装置、立体認知能力評価プログラム、および立体認知能力評価方法 |
Publications (3)
| Publication Number | Publication Date |
|---|---|
| JPWO2023032806A1 JPWO2023032806A1 (ja) | 2023-03-09 |
| JPWO2023032806A5 JPWO2023032806A5 (ja) | 2023-08-09 |
| JP7602706B2 true JP7602706B2 (ja) | 2024-12-19 |
Family
ID=85412661
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| JP2023513771A Active JP7602706B2 (ja) | 2021-08-31 | 2022-08-25 | 立体認知能力評価システム、立体認知能力評価装置、立体認知能力評価プログラム、および立体認知能力評価方法 |
Country Status (5)
| Country | Link |
|---|---|
| US (1) | US20240377192A1 (ja) |
| EP (1) | EP4398261A4 (ja) |
| JP (1) | JP7602706B2 (ja) |
| CA (1) | CA3230535A1 (ja) |
| WO (1) | WO2023032806A1 (ja) |
Families Citing this family (1)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| WO2025121417A1 (ja) * | 2023-12-07 | 2025-06-12 | 株式会社do.Sukasu | 立体認知能力評価システム、立体認知能力評価装置、立体認知能力評価プログラム、および立体認知能力評価方法 |
Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018124789A (ja) | 2017-01-31 | 2018-08-09 | 富士通株式会社 | 運転評価装置、運転評価方法及び運転評価システム |
| WO2020035996A1 (ja) | 2018-08-17 | 2020-02-20 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
| CN112434573A (zh) | 2020-11-10 | 2021-03-02 | 易显智能科技有限责任公司 | 一种评价驾驶员空间感知能力的方法及装置 |
Family Cites Families (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JPH1165418A (ja) * | 1997-08-26 | 1999-03-05 | Tasuku Net Kk | 運転シミュレータ装置および運転シミュレート方法 |
| WO2012071544A2 (en) | 2010-11-24 | 2012-05-31 | Digital Artefacts, Llc | Systems and methods to assess cognitive function |
| JP2015502238A (ja) | 2011-12-20 | 2015-01-22 | アイチェック ヘルス コネクション, インコーポレイテッド | 緑内障における視野欠損を監視するためのビデオゲーム |
-
2022
- 2022-08-25 US US18/688,259 patent/US20240377192A1/en active Pending
- 2022-08-25 EP EP22864390.4A patent/EP4398261A4/en active Pending
- 2022-08-25 WO PCT/JP2022/032035 patent/WO2023032806A1/ja not_active Ceased
- 2022-08-25 CA CA3230535A patent/CA3230535A1/en active Pending
- 2022-08-25 JP JP2023513771A patent/JP7602706B2/ja active Active
Patent Citations (3)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP2018124789A (ja) | 2017-01-31 | 2018-08-09 | 富士通株式会社 | 運転評価装置、運転評価方法及び運転評価システム |
| WO2020035996A1 (ja) | 2018-08-17 | 2020-02-20 | ソニー株式会社 | 情報処理装置、情報処理システム、および情報処理方法、並びにプログラム |
| CN112434573A (zh) | 2020-11-10 | 2021-03-02 | 易显智能科技有限责任公司 | 一种评价驾驶员空间感知能力的方法及装置 |
Also Published As
| Publication number | Publication date |
|---|---|
| CA3230535A1 (en) | 2023-03-09 |
| US20240377192A1 (en) | 2024-11-14 |
| WO2023032806A1 (ja) | 2023-03-09 |
| EP4398261A4 (en) | 2025-08-13 |
| EP4398261A1 (en) | 2024-07-10 |
| JPWO2023032806A1 (ja) | 2023-03-09 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Kashevnik et al. | Driver distraction detection methods: A literature review and framework | |
| US10568502B2 (en) | Visual disability detection system using virtual reality | |
| JP7324716B2 (ja) | 情報処理装置、移動装置、および方法、並びにプログラム | |
| US10937334B2 (en) | Information providing system | |
| CN109074748A (zh) | 图像处理设备、图像处理方法和可移动体 | |
| CN114261394A (zh) | 用于确定交通场景的方法、系统和计算机可读存储介质 | |
| Rahman et al. | Automated detection approaches to autism spectrum disorder based on human activity analysis: A review | |
| JP2019043496A (ja) | 自動運転調整装置、自動運転調整システム、及び自動運転調整方法 | |
| WO2019208450A1 (ja) | 運転支援装置、運転支援方法及びプログラム | |
| US20210316736A1 (en) | Driver abnormality determination apparatus, method and computer program | |
| CN120681155B (zh) | 一种智能驾驶系统、方法及电子设备 | |
| JP7602706B2 (ja) | 立体認知能力評価システム、立体認知能力評価装置、立体認知能力評価プログラム、および立体認知能力評価方法 | |
| CN116595429B (zh) | 驾驶员状态评估方法和系统 | |
| Biswas et al. | Characterizing drivers’ peripheral vision via the functional field of view for intelligent driving assistance | |
| CN119898191A (zh) | 基于人因智能的ar-hud显示控制方法以及相关设备 | |
| Kono et al. | Suppression of vestibulo-ocular reflex with increased mental workload while driving | |
| CN117882147A (zh) | 立体认知能力评价系统、立体认知能力评价装置、立体认知能力评价程序以及立体认知能力评价方法 | |
| HK40105013A (zh) | 立体认知能力评价系统、立体认知能力评价装置、立体认知能力评价程序以及立体认知能力评价方法 | |
| WO2025121417A1 (ja) | 立体認知能力評価システム、立体認知能力評価装置、立体認知能力評価プログラム、および立体認知能力評価方法 | |
| KR102597068B1 (ko) | 인공 지능을 이용하여 운전자의 주시 상태를 판단하는 차량 장치 및 그 제어 방법 | |
| US20240362951A1 (en) | Augmented reality device for providing guide for user's activity, and operating method thereof | |
| Bulygin et al. | Methodology for in-the-Wild Driver Monitoring Dataset Formation | |
| CN116890949B (zh) | 基于眼动数据的多感通道骑行导航交互控制系统、交互控制方法 | |
| Biswas | Eye Gaze for Intelligent Driving | |
| Çeven et al. | Young Driver Gaze (YDGaze): Dataset for driver gaze analysis |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230227 |
|
| A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230227 |
|
| A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |
|
| A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20240705 |
|
| A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240708 |
|
| TRDD | Decision of grant or rejection written | ||
| A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240910 |
|
| A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20240927 |
|
| A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20241010 |
|
| R150 | Certificate of patent or registration of utility model |
Ref document number: 7602706 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
