JP6694233B2 - 眼輻輳に基づいた視覚不注意の検出 - Google Patents
眼輻輳に基づいた視覚不注意の検出 Download PDFInfo
- Publication number
- JP6694233B2 JP6694233B2 JP2015000682A JP2015000682A JP6694233B2 JP 6694233 B2 JP6694233 B2 JP 6694233B2 JP 2015000682 A JP2015000682 A JP 2015000682A JP 2015000682 A JP2015000682 A JP 2015000682A JP 6694233 B2 JP6694233 B2 JP 6694233B2
- Authority
- JP
- Japan
- Prior art keywords
- distance
- user
- eye
- determining
- binocular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000000007 visual effect Effects 0.000 title description 9
- 238000001514 detection method Methods 0.000 title description 3
- 238000000034 method Methods 0.000 claims description 56
- 238000012545 processing Methods 0.000 claims description 19
- 238000005259 measurement Methods 0.000 claims description 13
- 210000001747 pupil Anatomy 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 9
- 230000036626 alertness Effects 0.000 claims description 3
- 210000003128 head Anatomy 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 14
- 238000004891 communication Methods 0.000 description 6
- 239000011521 glass Substances 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 206010057315 Daydreaming Diseases 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 230000005684 electric field Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001179 pupillary effect Effects 0.000 description 1
- 238000002366 time-of-flight method Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B3/00—Apparatus for testing the eyes; Instruments for examining the eyes
- A61B3/10—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
- A61B3/113—Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/18—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K28/00—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions
- B60K28/02—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver
- B60K28/06—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver
- B60K28/066—Safety devices for propulsion-unit control, specially adapted for, or arranged in, vehicles, e.g. preventing fuel supply or ignition in the event of potentially dangerous conditions responsive to conditions relating to the driver responsive to incapacity of driver actuating a signalling device
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/08—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S11/00—Systems for determining distance or velocity not using reflection or reradiation
- G01S11/12—Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/597—Recognising the driver's state or behaviour, e.g. attention or drowsiness
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B21/00—Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
- G08B21/02—Alarms for ensuring the safety of persons
- G08B21/06—Alarms for ensuring the safety of persons indicating a condition of sleep, e.g. anti-dozing alarms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
- A61B5/0015—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by features of the telemetry system
- A61B5/002—Monitoring the patient using a local or closed circuit, e.g. in a room or building
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor, mobility of a limb
- A61B5/1112—Global tracking of patients, e.g. by using GPS
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/7455—Details of notification to user or communication with user or patient ; user input means characterised by tactile indication, e.g. vibration or electrical stimulation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/746—Alarms related to a physiological condition, e.g. details of setting alarm thresholds or avoiding false alarms
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2540/00—Input parameters relating to occupants
- B60W2540/221—Physiology, e.g. weight, heartbeat, health or special needs
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Human Computer Interaction (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Pathology (AREA)
- Psychology (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Ophthalmology & Optometry (AREA)
- Child & Adolescent Psychology (AREA)
- Social Psychology (AREA)
- Combustion & Propulsion (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Emergency Management (AREA)
- Business, Economics & Management (AREA)
- Chemical & Material Sciences (AREA)
- Mathematical Physics (AREA)
- Traffic Control Systems (AREA)
- Eye Examination Apparatus (AREA)
Description
本発明の態様は、一般に視線追跡に、より具体的には、眼輻輳に基づいて視覚不注意を検出することに関する
例えば、本願発明は以下の項目を提供する。
(項目1)
眼輻輳に基づいて使用者が注意していない時を検出するためのコンピュータ実行方法であって:
上記使用者から第1の対象までの第1の距離を決定すること;
上記使用者の左眼に関連する第1の両眼共同運動角度を決定すること;
上記使用者の右眼に関連する第2の両眼共同運動角度を決定すること;
上記第1の両眼共同運動角度、上記第2の両眼共同運動角度、および上記左眼と上記右眼との間の眼間距離に基づいて第1の眼輻輳距離を決定すること;および、
上記第1の距離を上記第1の眼輻輳距離と比較して第1の結果を生成すること、
を含む方法。
(項目2)
上記第1の距離を上記第1の眼輻輳距離と比較することは、上記第1の距離が上記第1の眼輻輳距離に実質的に類似であるかどうか決定することを含む、上記項目の方法。
(項目3)
上記第1の距離は、上記第1の眼輻輳距離に実質的に類似しておらず、および上記第1の結果に基づいて使用者のために不注意警報を生成することをさらに含む、上記項目のいずれかの方法。
(項目4)
上記第1の距離を決定することは、飛行時間型深さセンサおよび光学的深さセンサの少なくとも1つで第1の対象に対する深さ測定を取得することを含む、上記項目のいずれかの方法。
(項目5)
上記項目のいずれかの方法であって、上記第1の距離を決定することは、地球測位システム(GPS)データ、乗り物体乗り物通信プロトコル、ピアツーピア通信プロトコルおよび地理情報データベースの少なくとも1つにアクセスして距離値を読み込むことを含む、方法。
(項目6)
上記項目のいずれかの方法であって:
上記使用者の視線方向を決定すること;
上記使用者から視線方向に関連する第2の対象までの第2の距離を決定すること;
上記視線方向に基づいて使用者の左眼に関連する第3の両眼共同運動角度を決定すること;
上記視線方向に基づいて使用者の右眼に関連する第4の両眼共同運動角度を決定すること;
上記第3の両眼共同運動角度、上記第4の両眼共同運動角度および眼間距離に基づいて第2の眼輻輳距離を決定すること;および、
上記第2の距離を上記第2の眼輻輳距離と比較して第2の結果を生成すること、
をさらに含む、方法。
(項目7)
上記項目のいずれかの方法であって、上記第2の距離を決定する前に、上記視線方向および使用者頭部方向の少なくとも1つに基づいて深さセンサの位置を定めることをさらに含み、および上記第1の対象に対する第1の距離を決定することは、深さセンサで上記第1の対象に対する深さ測定を取得することを含む、方法。
(項目8)
上記項目のいずれかの方法であって、上記第1の両眼共同運動角度を決定することは、使用者の左瞳孔を追跡することを含み、上記第2の両眼共同運動角度を決定することは、使用者の右瞳孔を追跡することを含む、方法。
(項目9)
上記項目のいずれかの方法であって、上記第1の両眼共同運動角度を決定することは、使用者の左瞳孔に関連する第1の3次元ベクトルを決定することを含み、および上記第2の両眼共同運動角度を決定することは、使用者の右瞳孔に関連する第2の3次元ベクトルを決定することを含む、方法。
(項目10)
使用者の注意深さを追跡するためのシステムであって:
上記使用者から第1の対象までの第1の距離を決定するように構成された深さセンサ;
上記使用者の1つまたは複数のイメージを取得するように構成されたイメージセンサ;および、
上記1つまたは複数のイメージに基づいて上記使用者の左眼に関連する第1の両眼共同運動角度を決定する;
上記1つまたは複数のイメージに基づいて上記使用者の右眼に関連する第2の両眼共同運動角度を決定する;
上記第1の両眼共同運動角度、上記第2の両眼共同運動角度および上記左眼と上記右眼との間の眼間距離に基づいて第1の眼輻輳距離を決定する;および、
上記第1の距離が上記第1の眼輻輳距離に実質的に類似するかどうかを決定して第1の結果を生成する
ように構成されたプロセシングユニット、
を含む、システム。
(項目11)
上記項目のシステムであって、上記第1の距離は、上記第1の眼輻輳距離に実質的に類似でなく、および上記プロセシングユニットは、上記第1の結果に基づいて上記使用者のために不注意警報を生成させるようにさらに構成される、システム。
(項目12)
上記項目のいずれかのシステムであって、不注意警報を生成するように構成された警報装置をさらに含み、上記警報装置は、スピーカー、光放射装置および振動モーターのうちの少なくとも1つを含む、システム。
(項目13)
上記項目のいずれかのシステムであって、上記深さセンサは、飛行時間型深さ測定および光学的深さ測定の少なくとも1つを行うことによって第1の対象までの第1の距離を決定するように構成される、システム。
(項目14)
上記項目のいずれかのシステムであって、上記深さセンサは、全地球測位システム(GPS)データ、乗り物対乗り物通信プロトコル、ピアツーピア通信プロトコルおよび地理情報データベースの少なくとも1つにアクセスすることによって第1の距離を決定して距離値を読み込むように構成される、システム。
(項目15)
上記項目のいずれかのシステムであって:
上記深さセンサは、上記使用者から視線方向に関連する第2の対象までの第2の距離を決定するようにさらに構成されて;および、
上記プロセシングユニットは:
上記1つまたは複数のイメージに基づいて上記使用者の視線方向を決定する;
上記1つまたは複数のイメージに基づいて上記使用者の左眼に関連する第3の両眼共同運動角度を決定する;
上記1つまたは複数のイメージに基づいて上記使用者の右眼に関連する第4の両眼共同運動角度を決定する;
上記第3の両眼共同運動角度、上記第4の両眼共同運動角度、および眼間距離に基づいて、第2の眼輻輳距離を決定する;および、
上記第2の距離を上記第2の眼輻輳距離と比較して第2の結果を生成する、
ように構成される、システム。
(項目16)
上記項目のいずれかのシステムであって、上記深さセンサは、上記第2の距離を決定する前に、視線方向および使用者頭部方向の少なくとも1つに基づいて再び位置を定めるように構成される、システム。
(項目17)
上記項目のいずれかのシステムであって、上記深さセンサは、第1の対象までの第1の距離を飛行時間型深さ測定および光学的深さ測定の少なくとも1つを行うことによって決定するように構成される、システム。
(項目18)
上記項目のいずれかのシステムであって、上記プロセシングユニットは、1つまたは複数のイメージに基づいて使用者の左瞳孔を解析することによって第1の両眼共同運動角度を決定する、および上記1つまたは複数のイメージに基づいて使用者の右瞳孔を解析することによって第2の両眼共同運動角度を決定するように構成される、システム。
(項目19)
上記項目のいずれかのシステムであって、上記プロセシングユニットは、使用者の左瞳孔に関連する第1の3次元ベクトルを決定することによって第1の両眼共同運動角度を決定するように、および使用者の右瞳孔に関連する第2の3次元ベクトルを決定することによって第2の両眼共同運動角度を決定するようにさらに構成される、システム。
(項目20)
プロセシングユニットによって実行されるときに、プロセシングユニットに、以下のステップを実行することにより、眼輻輳に基づいて使用者が注意していないときを検出するようにさせる命令を含む、非一時コンピュータ読み出し可能格納媒体:
使用者から第1の対象までの第1の距離を決定する工程;
使用者の左眼に関連する第1のベクトルを決定する工程;
使用者の右眼に関連する第2のベクトルを決定する工程;
第1のベクトル、第2のベクトルおよび左眼と右眼との間の眼間距離に基づいて第1の眼輻輳距離を決定する工程;
第1の距離を第1の眼輻輳距離と比較して第1の結果を生成する工程;および、
第1の結果に基づいて不注意警報を生成させる工程。
(摘要)
本発明の一つの態様は、眼輻輳に基づいて使用者が注意していないときを検出するための技術を述べる。本技術は、使用者から第1の対象までの第1の距離を決定することを含む。第1の距離は、深さセンサを使用して決定してもよい。本技術は、使用者の左眼に関連する第1の両眼共同運動角度を決定すること、および使用者の右眼に関連する第2の両眼共同運動角度を決定することをさらに含む。本技術は、第1の両眼共同運動角度、第2の両眼共同運動角度および左眼と右眼との間の眼間距離に基づいて第1の眼輻輳距離を決定することをさらに含む。本技術は、第1の距離を第1の眼輻輳距離と比較して第1の結果を生成することをさらに含む。不注意警報、第1の結果に基づいて生成してもよい。
(eq. 1) D眼=(d/2*sinα’)/sin(ε’/2)。
Claims (11)
- 眼輻輳に基づいて使用者が注意していないときを検出するための方法であって、前記方法は、コンピュータによって実行され、前記方法は、
前記使用者の第1の視線方向を決定することと、
前記第1の視線方向に基づいて深さセンサを動かすことと、
前記深さセンサを動かした後に、前記深さセンサを介して、車両に関連する位置と前記車両の外に位置する第1の対象との間の第1の距離を決定することと、
前記第1の距離に基づいて前記使用者から前記第1の対象までの第2の距離を決定することと、
前記使用者の左眼に関連する第1の両眼共同運動角度を決定することと、
前記使用者の右眼に関連する第2の両眼共同運動角度を決定することと、
前記第1の両眼共同運動角度、前記第2の両眼共同運動角度、および前記左眼と前記右眼との間の眼間距離に基づいて第1の眼輻輳距離を決定することと、
前記第2の距離を前記第1の眼輻輳距離と比較して第1の結果を生成することであって、前記第1の結果は、前記第2の距離が前記第1の眼輻輳距離に実質的に類似でないときに、前記使用者が前記第1の対象に注意を払っていないことを示す、ことと
を含む、方法。 - 前記第2の距離が前記第1の眼輻輳距離に実質的に類似でないときに、前記第1の結果に基づいて前記使用者のために不注意警報を生成することをさらに含む、請求項1に記載の方法。
- 前記深さセンサを介して、前記第1の距離を決定することは、飛行時間型深さ測定または光学的深さ測定のうちの少なくとも1つを使用して前記第1の対象に対する深さを決定することを含む、請求項1に記載の方法。
- 前記第1の両眼共同運動角度を決定することは、前記使用者の左瞳孔を追跡することを含み、前記第2の両眼共同運動角度を決定することは、前記使用者の右瞳孔を追跡することを含む、請求項1に記載の方法。
- 使用者の注意深さを追跡するためのシステムであって、前記システムは、
車両に関連する位置と前記車両の外に位置する第1の対象との間の第1の距離を決定するように構成された深さセンサと、
使用者の1つまたは複数のイメージを取得するように構成されたイメージセンサと、
プロセシングユニットと
を含み、
前記プロセシングユニットは、
前記使用者の第1の視線方向を決定することと、
前記第1の距離を決定する前に前記第1の視線方向に基づいて前記深さセンサを動かすことと、
前記第1の距離に基づいて前記使用者から前記第1の対象までの第2の距離を決定することと、
前記1つまたは複数のイメージに基づいて前記使用者の左眼に関連する第1の両眼共同運動角度を決定することと、
前記1つまたは複数のイメージに基づいて前記使用者の右眼に関連する第2の両眼共同運動角度を決定することと、
前記第1の両眼共同運動角度、前記第2の両眼共同運動角度および前記左眼と前記右眼との間の眼間距離に基づいて第1の眼輻輳距離を決定することと、
前記第2の距離が前記第1の眼輻輳距離に実質的に類似するかどうかを決定して第1の結果を生成することであって、前記第1の結果は、前記第2の距離が前記第1の眼輻輳距離に実質的に類似でないときに、前記使用者が前記第1の対象に注意を払っていないことを示す、ことと
を行うように構成される、システム。 - 前記プロセシングユニットは、前記第2の距離が前記第1の眼輻輳距離に実質的に類似でないときに、前記第1の結果に基づいて前記使用者のために不注意警報を生成させるようにさらに構成される、請求項5に記載のシステム。
- 前記不注意警報を生成するように構成された警報装置をさらに含み、前記警報装置は、スピーカー、ライトまたは振動モーターのうちの少なくとも1つを含む、請求項6に記載のシステム。
- 前記深さセンサは、飛行時間型深さ測定または光学的深さ測定のうちの少なくとも1つを行うことによって前記第1の距離を決定するように構成される、請求項5に記載のシステム。
- 前記深さセンサは、前記第1の距離を飛行時間型深さ測定または光学的深さ測定のうちの少なくとも1つを行うことによって決定するように構成される、請求項5に記載のシステム。
- 前記プロセシングユニットは、前記1つまたは複数のイメージに基づいて前記使用者の左瞳孔を解析することによって前記第1の両眼共同運動角度を決定することと、前記1つまたは複数のイメージに基づいて前記使用者の右瞳孔を解析することによって前記第2の両眼共同運動角度を決定することとを行うように構成される、請求項5に記載のシステム。
- 命令を含むコンピュータ読み出し可能格納媒体であって、前記命令は、プロセシングユニットによって実行されるときに、前記プロセシングユニットに、眼輻輳に基づいて使用者が注意していないときを、
前記使用者の第1の視線方向を決定する工程と、
前記第1の視線方向に基づいて深さセンサを動かす工程と、
前記深さセンサを動かした後に、前記深さセンサを介して、車両に関連する位置と前記車両の外に位置する第1の対象との間の第1の距離を決定する工程と、
前記第1の距離に基づいて前記使用者から前記第1の対象までの第2の距離を決定する工程と、
前記使用者の左眼に関連する第1の両眼共同運動角度を決定する工程と、
前記使用者の右眼に関連する第2の両眼共同運動角度を決定する工程と、
前記第1の両眼共同運動角度、前記第2の両眼共同運動角度および前記左眼と前記右眼との間の眼間距離に基づいて第1の眼輻輳距離を決定する工程と、
前記第2の距離を前記第1の眼輻輳距離と比較して第1の結果を生成する工程であって、前記第1の結果は、前記第2の距離が前記第1の眼輻輳距離に実質的に類似でないときに、前記使用者が前記第1の対象に注意を払っていないことを示す、工程と、
前記第1の結果に基づいて不注意警報を生成させる工程と
を実行することによって、検出させる、コンピュータ読み出し可能格納媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/151,670 US9298994B2 (en) | 2014-01-09 | 2014-01-09 | Detecting visual inattention based on eye convergence |
US14/151,670 | 2014-01-09 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020041608A Division JP2020095748A (ja) | 2014-01-09 | 2020-03-11 | 眼輻輳に基づいた視覚不注意の検出 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015133113A JP2015133113A (ja) | 2015-07-23 |
JP6694233B2 true JP6694233B2 (ja) | 2020-05-13 |
Family
ID=52449932
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015000682A Active JP6694233B2 (ja) | 2014-01-09 | 2015-01-06 | 眼輻輳に基づいた視覚不注意の検出 |
JP2020041608A Withdrawn JP2020095748A (ja) | 2014-01-09 | 2020-03-11 | 眼輻輳に基づいた視覚不注意の検出 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020041608A Withdrawn JP2020095748A (ja) | 2014-01-09 | 2020-03-11 | 眼輻輳に基づいた視覚不注意の検出 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9298994B2 (ja) |
EP (1) | EP2893867B1 (ja) |
JP (2) | JP6694233B2 (ja) |
CN (1) | CN104771132B (ja) |
Families Citing this family (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10115164B1 (en) | 2013-10-04 | 2018-10-30 | State Farm Mutual Automobile Insurance Company | Systems and methods to quantify and differentiate individual insurance risk based on actual driving behavior and driving environment |
US9189692B2 (en) | 2014-02-14 | 2015-11-17 | GM Global Technology Operations LLC | Methods and systems for detecting driver attention to objects |
DE102014213422A1 (de) * | 2014-07-10 | 2016-01-14 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Vermeidung eines Tunnelblicks |
US9423669B2 (en) * | 2014-11-04 | 2016-08-23 | Qualcomm Incorporated | Method and apparatus for camera autofocus based on Wi-Fi ranging technique |
US9911395B1 (en) * | 2014-12-23 | 2018-03-06 | Amazon Technologies, Inc. | Glare correction via pixel processing |
JP6319350B2 (ja) * | 2015-04-03 | 2018-05-09 | 株式会社デンソー | 情報提示装置 |
US10503265B2 (en) * | 2015-09-08 | 2019-12-10 | Microvision, Inc. | Mixed-mode depth detection |
US20170161950A1 (en) * | 2015-12-08 | 2017-06-08 | GM Global Technology Operations LLC | Augmented reality system and image processing of obscured objects |
US20170161949A1 (en) * | 2015-12-08 | 2017-06-08 | GM Global Technology Operations LLC | Holographic waveguide hud side view display |
US20170210289A1 (en) * | 2016-01-22 | 2017-07-27 | Arjun Kundan Dhawan | Driver Focus Analyzer |
US11462301B2 (en) * | 2016-06-07 | 2022-10-04 | BlyncSync Technologies, LLC | System and method for fleet driver biometric tracking |
US11102567B2 (en) | 2016-09-23 | 2021-08-24 | Apple Inc. | Foldable headphones |
CN113596667A (zh) * | 2016-09-23 | 2021-11-02 | 苹果公司 | 耳机 |
KR101896790B1 (ko) * | 2016-11-08 | 2018-10-18 | 현대자동차주식회사 | 운전자 집중도 판정 장치, 그를 포함한 시스템 및 그 방법 |
US10474145B2 (en) | 2016-11-08 | 2019-11-12 | Qualcomm Incorporated | System and method of depth sensor activation |
US10346697B2 (en) * | 2016-12-21 | 2019-07-09 | Hyundai America Technical Center, Inc | Driver state monitoring using corneal reflection detection |
US10747859B2 (en) * | 2017-01-06 | 2020-08-18 | International Business Machines Corporation | System, method and computer program product for stateful instruction-based dynamic man-machine interactions for humanness validation |
JP7057893B2 (ja) * | 2017-03-07 | 2022-04-21 | マツダ株式会社 | 視認状態判定装置 |
CN111316664A (zh) | 2017-11-20 | 2020-06-19 | 苹果公司 | 耳机 |
US10267960B1 (en) | 2018-02-05 | 2019-04-23 | GM Global Technology Operations LLC | Cloaking device and apparatus |
US11042156B2 (en) * | 2018-05-14 | 2021-06-22 | Honda Motor Co., Ltd. | System and method for learning and executing naturalistic driving behavior |
CN108932825A (zh) * | 2018-07-11 | 2018-12-04 | 重庆第二师范学院 | 一种儿童智能防近视警示装置及方法 |
US10552986B1 (en) * | 2018-07-20 | 2020-02-04 | Banuba Limited | Computer systems and computer-implemented methods configured to track multiple eye-gaze and heartrate related parameters during users' interaction with electronic computing devices |
US10869128B2 (en) | 2018-08-07 | 2020-12-15 | Pangissimo Llc | Modular speaker system |
US10627901B2 (en) * | 2018-09-14 | 2020-04-21 | Facebook Technologies, Llc | Vergence determination |
SE543249C2 (en) * | 2018-12-12 | 2020-11-03 | Lincoding Ab | Alcolock device using mapping gaze and motion parameters |
CN113994403B (zh) * | 2019-03-13 | 2023-12-29 | 联邦快递公司 | 缓解飞行器的操作风险 |
WO2020209491A1 (en) | 2019-04-11 | 2020-10-15 | Samsung Electronics Co., Ltd. | Head-mounted display device and operating method of the same |
US11055864B2 (en) * | 2019-05-24 | 2021-07-06 | Nanjing Polagis Technology Co. Ltd | Method and apparatus for determining a geographic position of a target object on a street view map |
JP7309480B2 (ja) * | 2019-06-27 | 2023-07-18 | フォルシアクラリオン・エレクトロニクス株式会社 | 車載装置、及び車載装置の制御方法 |
EP3822931B1 (en) * | 2019-11-12 | 2023-12-27 | Aptiv Technologies Limited | A vehicle alert system for notifying a potentially dangerous driving situation to a driver |
JPWO2021246141A1 (ja) | 2020-06-01 | 2021-12-09 | ||
CN111914784B (zh) * | 2020-08-10 | 2022-02-08 | 北京大成国测科技有限公司 | 轨旁障碍物入侵实时检测方法、装置及电子设备 |
SE2030301A1 (en) * | 2020-09-30 | 2022-03-31 | Chadalavada Ravi Teja | Method and system for driving skill feedback |
US11539762B2 (en) | 2020-10-06 | 2022-12-27 | Harman International Industries, Incorporated | Conferencing based on driver state and context |
US11269420B1 (en) * | 2020-11-05 | 2022-03-08 | Harman International Industries, Incorporated | Techniques for detecting acknowledgment from a driver of a vehicle |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002274302A (ja) * | 2001-03-21 | 2002-09-25 | Mitsubishi Electric Corp | 障害物検知システム |
US7460940B2 (en) * | 2002-10-15 | 2008-12-02 | Volvo Technology Corporation | Method and arrangement for interpreting a subjects head and eye activity |
US6989754B2 (en) * | 2003-06-02 | 2006-01-24 | Delphi Technologies, Inc. | Target awareness determination system and method |
JP4760113B2 (ja) * | 2005-04-27 | 2011-08-31 | トヨタ自動車株式会社 | 運転者状態推定装置 |
JP4918807B2 (ja) * | 2006-04-06 | 2012-04-18 | トヨタ自動車株式会社 | 車両位置演算装置、車両選定方法 |
US7571048B2 (en) * | 2006-08-18 | 2009-08-04 | Google Inc. | Providing routing information based on ambiguous locations |
US8344894B2 (en) | 2009-04-02 | 2013-01-01 | GM Global Technology Operations LLC | Driver drowsy alert on full-windshield head-up display |
JP5613025B2 (ja) * | 2009-11-18 | 2014-10-22 | パナソニック株式会社 | 視線検出装置、視線検出方法、眼電位計測装置、ウェアラブルカメラ、ヘッドマウントディスプレイ、電子めがねおよび眼科診断装置 |
BR112012012635A2 (pt) * | 2009-12-18 | 2016-07-12 | Honda Motor Co Ltd | sistema e método para fornecer alerta de aviso de acidente em veículo |
US8552850B2 (en) * | 2010-02-17 | 2013-10-08 | Honeywell International Inc. | Near-to-eye tracking for adaptive operation |
JP5488105B2 (ja) * | 2010-03-26 | 2014-05-14 | マツダ株式会社 | 車両の運転支援装置 |
JP2012085746A (ja) * | 2010-10-18 | 2012-05-10 | Panasonic Corp | 注意状態判別システム、方法、コンピュータプログラムおよび注意状態判別装置 |
JP5644414B2 (ja) * | 2010-11-22 | 2014-12-24 | アイシン精機株式会社 | 覚醒度判定装置、覚醒度判定方法及びプログラム |
US20120215403A1 (en) * | 2011-02-20 | 2012-08-23 | General Motors Llc | Method of monitoring a vehicle driver |
EP2696588B1 (en) * | 2011-04-01 | 2019-09-04 | Panasonic Corporation | Three-dimensional image output device and method of outputting three-dimensional image |
EP2564766B1 (en) * | 2011-09-02 | 2018-03-21 | Volvo Car Corporation | Visual input of vehicle operator |
ES2589000T3 (es) * | 2012-04-24 | 2016-11-08 | Universitat De Barcelona | Sistema y procedimiento de medir la atención |
JP6047318B2 (ja) * | 2012-07-06 | 2016-12-21 | 矢崎総業株式会社 | ドライバ状態検出装置及びドライバ状態報知装置 |
-
2014
- 2014-01-09 US US14/151,670 patent/US9298994B2/en active Active
-
2015
- 2015-01-06 JP JP2015000682A patent/JP6694233B2/ja active Active
- 2015-01-08 EP EP15150488.3A patent/EP2893867B1/en active Active
- 2015-01-09 CN CN201510011698.1A patent/CN104771132B/zh active Active
-
2020
- 2020-03-11 JP JP2020041608A patent/JP2020095748A/ja not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
CN104771132A (zh) | 2015-07-15 |
US20150193664A1 (en) | 2015-07-09 |
EP2893867B1 (en) | 2019-10-09 |
EP2893867A1 (en) | 2015-07-15 |
JP2015133113A (ja) | 2015-07-23 |
JP2020095748A (ja) | 2020-06-18 |
US9298994B2 (en) | 2016-03-29 |
CN104771132B (zh) | 2018-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6694233B2 (ja) | 眼輻輳に基づいた視覚不注意の検出 | |
US10958896B2 (en) | Fusing measured multifocal depth data with object data | |
JP6608137B2 (ja) | ディスプレイ上の両眼転導検出 | |
EP2774022B1 (en) | Amplifying audio-visual data based on user's head orientation | |
FR2986198A1 (fr) | Appareil et programme de commande de champ acoustique | |
KR20160113666A (ko) | 오디오 탐색 지원 | |
WO2018120033A1 (zh) | 一种辅助用户寻物的方法及装置 | |
WO2018077218A1 (zh) | 一种深度测量方法及系统 | |
WO2016145789A1 (zh) | 一种提示方法、终端及计算机存储介质 | |
CN106991376B (zh) | 结合深度信息的侧脸验证方法及装置与电子装置 | |
KR102319437B1 (ko) | 거리 결정 방법 및 디바이스 | |
KR20210150881A (ko) | 전자 장치 및 그 동작 방법 | |
JP6482431B2 (ja) | 表示制御装置、表示装置および表示制御方法 | |
RU2681346C2 (ru) | Способ и система точной локализации слабовидящего или слепого человека | |
TWI792106B (zh) | 資訊顯示方法及其處理裝置與顯示系統 | |
JP6481357B2 (ja) | 電子機器 | |
WO2016202111A1 (zh) | 一种基于拍照的音频输出方法和装置 | |
KR101417478B1 (ko) | 시각 정보 변환 장치 및 방법 | |
US11080874B1 (en) | Apparatuses, systems, and methods for high-sensitivity active illumination imaging | |
ES2478091A1 (es) | Dispositivo y método para la detección de obstáculos aéreos para invidentes | |
JP2015162897A5 (ja) | 撮像装置、携帯機器、撮像システム、連結判定方法、プログラムおよび通信方法 | |
JP2015164498A (ja) | 視覚障害者用補視骨導眼鏡 | |
TW202008184A (zh) | 電子裝置及行車安全提醒方法 | |
JP2019032747A (ja) | 電子機器、及び運転状態判定プログラム | |
JP2018106288A (ja) | 撮像状態検出装置、撮像状態検出方法、プログラム、および非一時的記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171213 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181221 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190327 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191112 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200311 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20200323 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200401 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200417 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6694233 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |