JP2021530069A - 状況的ドライバ監視システム - Google Patents

状況的ドライバ監視システム Download PDF

Info

Publication number
JP2021530069A
JP2021530069A JP2021521746A JP2021521746A JP2021530069A JP 2021530069 A JP2021530069 A JP 2021530069A JP 2021521746 A JP2021521746 A JP 2021521746A JP 2021521746 A JP2021521746 A JP 2021521746A JP 2021530069 A JP2021530069 A JP 2021530069A
Authority
JP
Japan
Prior art keywords
driver
vehicle
road
attention
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021521746A
Other languages
English (en)
Other versions
JPWO2020006154A5 (ja
Inventor
カッツ,イテイ
アナビ,タミル
シュタインベルグ,エルツ
Original Assignee
カッツ,イテイ
アナビ,タミル
シュタインベルグ,エルツ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カッツ,イテイ, アナビ,タミル, シュタインベルグ,エルツ filed Critical カッツ,イテイ
Publication of JP2021530069A publication Critical patent/JP2021530069A/ja
Publication of JPWO2020006154A5 publication Critical patent/JPWO2020006154A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R21/00Arrangements or fittings on vehicles for protecting or preventing injuries to occupants or pedestrians in case of accidents or other traffic risks
    • B60R21/01Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents
    • B60R21/015Electrical circuits for triggering passive safety arrangements, e.g. airbags, safety belt tighteners, in case of vehicle accidents or impending vehicle accidents including means for detecting the presence or position of passengers, passenger seats or child seats, and the related safety parameters therefor, e.g. speed or timing of airbag inflation in relation to occupant position or seat belt use
    • B60R21/01512Passenger detection systems
    • B60R21/01552Passenger detection systems detecting position of specific human body parts, e.g. face, eyes or hands
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W40/09Driving style or behaviour
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W50/16Tactile feedback to the driver, e.g. vibration or force feedback to the driver on the steering wheel or the accelerator pedal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3697Output of additional, non-guidance related information, e.g. low fuel level
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0818Inactivity or incapacity of driver
    • B60W2040/0827Inactivity or incapacity of driver due to sleepiness
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • B60W2040/0872Driver physiology
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/01Occupants other than the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/221Physiology, e.g. weight, heartbeat, health or special needs
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/229Attention level, e.g. attentive to driving, reading or sleeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/30Driving style
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2552/00Input parameters relating to infrastructure
    • B60W2552/05Type of road, e.g. motorways, local streets, paved or unpaved roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4048Field of view, e.g. obstructed view or direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/801Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • B60W2554/802Longitudinal distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/20Ambient conditions, e.g. wind or rain
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/10Historical data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2754/00Output or target parameters relating to objects
    • B60W2754/10Spatial relation or speed relative to objects
    • B60W2754/20Lateral distance
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2754/00Output or target parameters relating to objects
    • B60W2754/10Spatial relation or speed relative to objects
    • B60W2754/30Longitudinal distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)

Abstract

状況的ドライバモニタリングのための、システムと方法が開示される。1つの実装では、1以上の第1入力が、車両内にいるドライバの状態を判定するために、受信かつ処理される。1以上の第2入力が、車両に関連するナビゲーション条件を判定するために、受信かつ処理され、前記ナビゲーション条件は、クラウドリソースから受信される一時的な道路条件またはドライバの挙動を含む。ナビゲーション条件に基づいて、ドライバの注意力閾値が計算される。1以上のアクションが、ドライバの状態およびドライバの注意力閾値に関連して開始される。【選択図】図1

Description

本出願は、2018年10月26日に出願された米国特許出願第62/247,193号、2018年2月8日に出願された米国特許出願第62/295,578号、および2019年4月16日に出願された米国特許出願第62/323,703号に関し、それらの利益を主張し、各出願はその全体を引用することによって本明細書に組み込まれる。
本の開示の態様およびimplementationsはデータ処理に関する、そして、より詳細にはしかし文脈のドライバ監視への限定を用いることなく。
自動車両を安全に操作するために、そのような車両のドライバは旅慣れた道路または経路にその人の注意を集中しなければならない。定期的に、ドライバの注意はするかもしれない、変化(例えば車両の鏡を注視する場合)。
本開示の態様と実施は、以下に与えられる詳細な記載や本開示の様々な態様と実施の添付図面からより完全に理解されるが、しかしながら、これらが本開示を特定の態様または実施に限定するものと考慮してはならず、説明と理解を促すためのものに過ぎないと考慮しなければならない。
例示的な実施形態に合わせて、例システムを例示する。 例示的な実施形態に合わせて、例システムのさらなる側面を例示する。 例示的な実施形態に合わせて、本明細書に記載された例シナリオを図示する。 文脈のドライバ監視のための、例示的な実施形態に合わせて、方法を例示するフローチャートである。 文脈のドライバ監視のための、例示的な実施形態に合わせて、方法を例示するフローチャートである。 文脈のドライバ監視のための、例示的な実施形態に合わせて、方法を例示するフローチャートである。 文脈のドライバ監視のための、例示的な実施形態に合わせて、方法を例示するフローチャートである。 機械可読媒体からの読取り命令に有能な機械の成分を例示するブロック図である、また方法のうちのどれでも行なう、例示的な実施形態によって、本明細書に議論した。
本の開示の態様およびimplementationsは文脈のドライバ監視に対象とされる。
それはそうでありえる、理解する、その様々な視標追跡技術、ユーザー熟視(例えばユーザーの目が対象とされるか集中する方向/位置)の測定を可能とする。しかしながら、そのような手法は、ユーザーの目と別の物体の間を相関が識別される/決定されることを必要とする。例えば、ユーザーの目を認めるカメラに加えて、あるテクノロジーは、外へ(つまりユーザーが見ている方角に)対象とされる第2のカメラを利用する。それぞれのカメラ(例えばユーザー熟視を反射するもの、およびユーザーが注視している物体を図示するもの)によってそのとき捕らえられた画像が関連させられるに違いない。あるいは、他の溶液は、既知の位置/デバイスで、アイコン(指標)をユーザーに等の提示する。その後、ユーザーは、参照が付けられたアイコン(そのポイントでは較正を行なうことができる)を注視しなければならない。しかしながら、参照が付けられた溶液は両方とも多数の欠点を伴う。例えば、両方の溶液は、高価かもしれないか、インストールする/構成するのが難しいか、他の方法で実行不可能かもしれない補足ハードウェアを要求する。
様々なimplementationsに本明細書に述べられて、それに応じて、システム(方法)で、ドライバ監視にテクノロジーを関連づけた。本明細書で記載されるように、開示されたテクノロジーは設ける、既存の溶液に対する、多数の利点および改善
記載されたトラッキングは、限定されないが、安全な、目技術、およびマシン・ビジョンを含む複数の技術的な領域における特定の技術的な課題および長年の欠陥を対象とする、および対処することが理解されうる。本明細書において詳細に記載されるように、開示された技術は、参照された技術的な課題、および参照された技術分野における未解決のニーズ に対する特定の技術的解決法を提供し、多数の利点および従来の手法の改善をもたらす。さらに、様々な実施において、本明細書において言及されるハードウェア要素、コンポーネント等の1つ以上、等は、本明細書において記載される方式などで、記載された技術を可能にする、改善する、および/または強化するように動作する。
図1はあるimplementationsに合わせて、例システム100を例示する。示されるように、システム100は画像取得装置(例えばカメラ)、画像センサ、IRセンサあるいは本明細書に記載された他のあらゆるセンサになりえるセンサ130が挙げられる。センサ130は、車両120(例えば自動車、バス、飛行機、車両を飛ばすこと、あるいは他のあらゆる、輸送に使用されたそのような車両)内に位置づけるか方向付けすることができる。あるimplementationsでは、センサ130は1つ以上のプロセッサ132が挙げられるか他の方法で統合することができる、そのプロセスイメージおよび/または、センサによって捕らえられた他のそのような内容物。他のimplementationsでは、センサ130はおよび/またはを接続するように構成することができる、他の方法で連通する、他のデバイス(本明細書で記載されるように)、また、そのようなデバイスは受けて、参照が付けられた画像を処理することができる。
車両は自己駆動車両自律性乗物、半自律性乗物が挙げられるかもしれない;グラウンドの車両走行は自動車、バス、トラック、列車、軍隊関連の車両が挙げられる;飛行機(ヘリコプター)を含み、これらに限定されずに、車両を飛ばすこと、雄バチ、飛ぶこと」cars’Vtaxis(半自律の助走をつけた車両);自転車、quadcopter、個人の車両あるいは非個人的な車両が挙げられるモーターを備えた、あるいはモーターのない車両;船、船を含み、これらに限定されない任意の海の車両、ヨット、スキー噴出口、潜水艦。
センサ130(例えばカメラ)は、例えば、環境の視覚的な特色をセンスすることができるCCD画像センサ、CMOS画像センサ、光センサ、IRセンサ、超音波センサ、近接センサ、短波の赤外線(SWIR)画像センサ、反射率センサ、RGBカメラ、白黒カメラあるいは他のあらゆるデバイスが挙げられるかもしれない。さらに、センサ130は、例えば、走査することができる単一の光検出器または1つのDラインセンサが挙げられるかもしれない、例えば、複数の2つのDイメージセンサが挙げられる領域、2つのDセンサあるいは立体鏡のセンサ。あるimplementationsでは、カメラは、例えば、画像センサ上に光の特別の領域を集中させることのためのレンズに関係しているかもしれない。レンズは狭くなりえるかあるいは広くなりえる。広いレンズは広い視野を得るために使用されてもよい。しかし、これは、よい認知距離を得ることを高分解能センサに要求するかもしれない。あるいは、2つのセンサが、視界の重複フィールドがある、より狭いレンズと共に使用されてもよい;ともに、それらは、視界の広視野を提供する。しかし、2つのそのようなセンサのコストは高分解能センサおよび広いレンズより低いかもしれない。
センサ130は、例えば、空間の円錐形かピラミッド形の量を見るか認めるかもしれない。センサ130には定位置(例えば車両120内の)があるかもしれない。センサ130によって捕らえられた画像はディジタル化されるかもしれない、そして少なくとも1つのプロセッサ132への入力、あるいはアナログ方式の少なくとも1つのプロセッサ132への入力かもしれない、また少なくとも1つのプロセッサによってディジタル化された。
図1に記載されるようなセンサ(複数可)(130)、同様に他の図面に記載され且つ本明細書に記載及び/又は言及される他の様々なセンサは、例えば、三次元(3−D)視聴空間の画像を得るように構成される画像センサを含み得ることに、注意されたい。画像センサは、例えば、カメラ、光センサ、infiared(IR)センサ、超音波センサ、近接センサ、CMOS画像センサ、短波の赤外線(SWIR)画像センサあるいは反射率センサの1つ以上、単一の光検出器あるいは走査することができる1つのDラインセンサが挙げられるどんな画像取得装置も挙げられるかもしれない、領域、CCD画像センサ、反射率センサ、3D画像センサあるいは2以上を具備する二次元(2つのD)深さビデオシステム、環境の視覚的な特色をセンスすることができる、立体鏡のイメージセンサおよび他のあらゆるデバイス。センサ(複数可)の視聴空間に位置するユーザー又はポインティング要素は、センサ(複数可)により得られた画像に現れる場合がある。センサ(複数可)は、センサに統合される又は有線又は無線式通信チャネルによりセンサ(複数可)に接続され得る演算処理装置に、2−D又は3−Dモノクロ、カラー、又はIRの映像を出力する場合がある。
図1に記載されるようなプロセッサ(132)、同様に他の図面に記載され且つ本明細書に記載及び/又は言及される他の様々なプロセッサは、例えば、入力上で論理演算を実行する電気回路を含み得る。例えば、そのようなプロセッサは、1以上の集積回路、マイクロチップ、マイクロコントローラ、マイクロプロセッサ、中央処理装置(CPU)の全て又は一部、グラフィック処理装置(GPU)、デジタル信号プロセッサ(DSP)、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向けICに(ASIC)、又は、命令の実効又は論理演算の実効に適している他の回路を含む場合がある。少なくとも1つのプロセッサは、とりわけ、画像センサにより得られる画像を保存するためのプロセッサ及びメモリを含み得る処理装置などの、処理装置の一部に一致するか、或いはそれを構成し得る。処理装置は、とりわけ、センサにより得られた画像の保存に使用され得るプロセッサ及びメモリを含む場合がある。処理装置及び/又はプロセッサは、プロセッサ及び/又はメモリに存在する1以上の命令を実行するように構成されてもよい。そのような記憶(例えば図12に示されるような記憶1230)は、例えば、持続的な記憶、ROM、EEPROM、EAROM、SRAM、DRAM、DDR SDRAM、フラッシュメモリ素子、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、ブルーレイなどが挙げられるかもしれないし、命令(つまりソフトウェアまたはファームウェア)あるいは他のデータを含んでいるかもしれない。通常は、少なくとも1つのプロセッサは、記憶によって保存された命令とデータを受けるかもしれない。したがって、いくつかの実施形態では、少なくとも1つのプロセッサは、入力データ上で動作し出力の生成により機能を行なうためにソフトウェアまたはファームウェアを実行する。しかしながら、少なくとも1つのプロセッサは、さらに例えば入力データ上で動作し出力の生成によりプロセスを行なう専用ハードウェアあるいは特定用途向けIC(ASIC)かもしれない。少なくとも1つのプロセッサは、専用ハードウェア、1つ以上のASIC、1台以上のメインプロセッサ、1つ以上のDSP、1つ以上のGPUあるいはディジタル情報を処理することができる1つ以上の他のプロセッサの任意の組み合わせかもしれない。
センサ(130)により捕捉された画像は、センサ(130)によりデジタル化され、プロセッサ(132)へと入力されるか、又は、アナログ方式でプロセッサ(132)へと入力され、プロセッサ(132)によりデジタル化される場合もある。センサは近接センサになりえる。典型的な近接センサは、とりわけ、容量性センサ、容量性変位センサ、レーザー距離計、飛行時間(TOF)技術を使用するセンサ、IRセンサ、磁気の変形を検出するセンサ、又は、近接センサ付近の物体の存在を示す情報を生成することが可能な他のセンサを含む場合がある。幾つかの実施形態において、近接センサにより生成された情報は、物体の近接センサまでの距離を含む場合もある。近接センサは、単一センサでも、又は1セットのセンサでもよい。単一センサ()は図1に示されているが、システム(100)は、複数のタイプのセンサ()及び/又は同じタイプの多重センサ(130)を含んでもよい。例えば、多センサは、データ入力デバイス・ハウジングのような単一デバイス内に配されるかもしれない。システム100の他の成分の外の単一デバイス、あるいはシステム100の別の成分(例えばプロセッサ132あるいはディスプレイ)に少なくとも1つの外界センサおよび少なくとも1つのセンサを組み込む様々な他の構成中のシステム100の一部または全て成分。
プロセッサ(132)は、1以上の有線又は無線式の通信回線を介してセンサ(130)に繋げられ、且つ、画像などのセンサ(130)からのデータ、又は本明細書に記載されるものなどセンサ(130)により収集可能な任意のデータを受信し得る。そのようなセンサ・データは、例えば、ユーザーのヘッドのセンサ・データが挙げられることができ注視する、等の顔画像は、センサ(130)により捕捉されたアナログ画像、センサ(130)により捕捉又は判定されたデジタル画像、センサ(130)により捕捉されたデジタル画像又はアナログ画像のサブセット、プロセッサ(132)により更に処理されたデジタル情報、センサ(130)により感知されたデータに関連した情報の情報の数学的表示又は変形、画像を表す度数データなどの視覚的情報として提示される情報、センサの視界における物体の存在などの概念的情報を含み得る。画像はさらに情報が挙げられるかもしれない、表示する、センサの状態、あるいは、画像取り込(例えば曝露、フレーム率、画像の解像度)の間のそのパラメーターは、ビット分解を着色する、深さ分解能、センサ130の視野、画像の捕捉の間の他のセンサからの情報が挙げられること、例えば、近接センサ情報、加速度センサ(例えば加速度計)情報、情報、記述するさらなる処理、それは捕捉するのにさらなるところで起こった、画像、画像取り込の間の照射条件、センサ130によってデジタル画像から抽出された特徴あるいは他のあらゆる情報は、センサ130によって感じられたセンサ・データと会合した。更に、言及された画像は、静止画像、モーション画像(すなわち映像)、又は他の視覚に基づくデータに関連した情報を含み得る。特定の実施において、1以上のセンサ(130)から受信されたセンサデータは、モーションデータ、GPS位置座標及び/又は方向ベクトル、視線情報、音データ、及び、様々なタイプのセンサにより測定可能な任意のタイプのデータを含み得る。加えて、特定の実施において、センサデータは、2以上のセンサからのデータの組み合わせを分析することにより得られたメトリクスを含み得る。
あるimplementationsでは、プロセッサ132はするかもしれない、1以上による複数のセンサからの受信データ、配線された、あるいは、無線通信はリンクする。あるimplementationsでは、プロセッサ132もディスプレイに接続されるかもしれないし、記載されたもののように、1つ以上の画像を表示することのためのディスプレイに命令を送るかもしれない、および/またはは参照を付けた、本明細書に。様々なimplementationsでは、記載されたもの、センサ、プロセッサとディスプレイが単一デバイス内に組込まれるかもしれないか、センサ、プロセッサとディスプレイの様々な組み合わせがある倍数デバイスを横切って分布するかもしれないことが理解されるに違いない。
ある実施では、センサから、埋め込まれたデバイス・マザーボード、プロセッサ、アプリケーションプロセッサ、GPU、アプリケーションプロセッサによって制御されたプロセッサ、あるいは他のプロセッサへのデータ転送を減らすために、によるシステムは、センサへ部分的にあるいは完全に統合されることもある。センサ、ISPあるいはセンサユニットへの部分的な統合しか生じない場合、あらかじめ定められたオブジェクトに関連するオブジェクトの特徴を抽出する画像前処理は、センサ、ISPあるいはセンサユニットの一部として統合されてもよい。映像/画像および/またはオブジェクトの特徴の数学的表現は、専用の有線接続あるいはバスによる外部CPUのさらなる処理のために転送されてもよい。システム全体がセンサ、ISPまたは、センサユニット統合される場合、メッセージあるいはコマンド(例えば、本明細書で参照されたメッセージとコマンドを含む)は、外部CPUに送信されてもよい。さらに、いくつかの実施形態において、システムが立体画像センサを組み込む場合、環境の深度マップは、2D画像センサまたは画像センサISP中での映像/画像の前処理によって作成され、および、映像/画像、オブジェクトの特徴、および/または、他の集約された情報の数学的な表現は外部CPUでさらに処理されることもある。
図1に示されるように、センサ130は捕捉する態勢を整えることができる。あるいは、他の方法で、画像あるいはユーザー110(例えば車両120のドライバまたはオペレーターかもしれない、ヒト・ユーザー)の他のそのような入力が受ける。そのような画像は様々なフレーム率(FPS)中で捕らえることができる。本明細書で記載されるように、そのような画像は、例えば、ユーザーの死者、ユーザー110の目111の熟視または、方向、位置(空間の位置)と、ユーザー110の顔の方向付けの位置を含み、これらに限定されずに、ユーザー110の様々な生理学の特色あるいは態様を等の反射する場合がある。1例において、システムはユーザー熟視を検出するための様々な照射線量率中の画像を捕らえるように構成することができる。別の例において、システムは、ユーザー熟視を検出するための取得画像のFPSを変更するか調節することができる。別の例において、システムは、ユーザーを摩損する眼鏡および/またはの検出に関しての曝露および/またはフレーム率を変更するか調節することができる、眼鏡(のぞき窓、等のサングラス)のタイプ。
図1に図示されたシナリオが例を経由して設けられることが理解されるに違いない。それに応じて、記載されたテクノロジーも、様々な他の配置(構成)で等の構成するか実行することができる。例えば、センサ130は位置づけるか、あるいは他の位置(例えば車両120内の)の任意数に位置することができる。あるimplementationsセンサ130に、例えば、側面に、ユーザー110(例えば、車両110のダッシュボード上の位置づけられたか、ダッシュボード内に統合された)の前に、ユーザー110上に位置することができる、に、ユーザー110(ユーザーの目が側面からのセンサに見える/見えるそのようなもの、効果的になりえ、摩損するユーザーによって引き起こされた挑戦を克服することができる、眼鏡)の、および他の位置/位置の任意数中で。さらに、あるimplementationsでは、記載されたテクノロジーは多センサ(それらは様々な位置の中で構成されるかもしれない)を使用して実行することができる。
あるimplementationsの中で、画像、映像、および/または、他の入力はそうでありえる、捕捉する/センサ130で受けた、またユーザー110の目111の存在を検出するために処理された(例えば、顔検出技術を使用して)。ユーザーの目を検出する際、ユーザーの熟視は決定することができる(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)。あるimplementationsでは、ユーザーの熟視は、車両120内のセンサ130の位置のような断固とした使用情報になりえる。他のimplementationsの中で、ユーザーの熟視はさらに決定することができる、車両(それはユーザーの高さによって異なってもよい)内のユーザー110の顔の位置のような追加情報の使用、ユーザー材齢、性別、顔構造体、他のセンサからの入力、カメラが挙げられること、車両中の様々な場所に位置づけた、センサ、それは、ユーザー(TOFセンサのような)の顔の3D情報を設ける、IRセンサ、物理的センサ(車両のシート内にある圧力検出器のような)、等の近接センサ他のimplementationsでは、ユーザーの熟視または熟視方向は識別するか、あるいは他のデバイスによって決定されるか、抽出することができる、等の(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)システム、また記載されたシステムに送信された/設けられた。ユーザーの熟視を検出する/決定する際、ユーザー110の目111の様々な特徴はさらに抽出することができる、本明細書で記載されるように。
開示されたシステムおよび関連するテクノロジーの様々な態様は機械学習が挙げられるか含むことができる。機械学習は1つ以上の技術、アルゴリズム、実行されたおよび/または型(例えば数学的モデル)、と処理装置上で走ることが挙げられることができる。システムは、ややヒト・エキスパートの事前に定義されたルール上のその統計的特性に基づいたデータから機械学習システムで実行される型によって学習し、改善することができることができる。機械学習はコンピュータープログラムの開発に注目する、アクセス情報、またそれら自身がある作業を行なうことを学ぶためにそれを使用する。
機械学習型は監督されて、機械学習システムの構造体によって形作られるかもしれない、あるいはunsupervised、システム内のデータの流れ、入力データと外部トリガー。
機械学習は、設ける人工知能(AI)の適用として関連づけることができる、システム、自動的に明示的にプログラムされずに、データ入力から学習し改善する性能。
機械学習は、レコメンデーションシステムのための特徴学習、希薄な辞書学習、異常検出、結合ルール学習と協力的なフィルタ濾過のような様々な作業に付与するかもしれない。機械学習は、特徴抽出、次元の数減少、クラスター化、分類、退行あるいはメートルの学習に使用されてもよい。機械学習システムは監督され半監督されるかもしれない、強化されたunsupervised。機械学習システムは、線形・ロジスティックスの退行、線形の判別分析、サポートベクトルマシン(SVM)、デシジョンツリー、無作為の森林、シダ、ベイズのネットワーク、ブースティング、遺伝的アルゴリズム、シミュレートされたアニーリングあるいは回旋状のニューラル・ネットワーク(CNN)が挙げられるいろいろな状態の中で実行されるかもしれない。
深い学習は機械学習システムの特別な実装である。1例において、より高いレベルおよびより多くののアブストラクト特徴が下位レベル特徴を使用して抽出されて、深い学習アルゴリズムは、表現の多重レベル、あるいは特徴の階層を発見する。深い学習は、多層パーセプトロン、回旋状のニューラル・ネットワーク、深いニューラル・ネットワーク、深い確信ネットワーク、自動エンコーダ、長い短期記憶(LSTM)ネットワーク、発生力のある敵のネットワークと深い強化材ネットワークが挙げられる、様々なフィード・フォワードまたは再発するアーキテクチャ中で実行されるかもしれない。
上に言及されたアーキテクチャは相互排除でなく、組み合わせることができるか、他のタイプの深いネットワークの実行のためのビルディングブロックとして使用することができる。例えば、深い確信ネットワークは自動エンコーダを使用して実行されるかもしれない。順番に、自動エンコーダは多層パーセプトロンあるいは回旋状のニューラル・ネットワークを使用して実行されるかもしれない。
深いニューラル・ネットワークのトレーニングは、定義済みの対物鏡(ロス)機能を最小限に抑えることを含んでいる最適化問題のように鋳込まれているかもしれない。それは、ネットワーク・パラメーター、その実際の予測と所望の予測の機能である。ゴールは、ネットワークのパラメーターの調節により実際の予測と所望の予測の間の差を最小限に抑えることである。そのような最適化プロセスの多くのimplementationsが、逆伝播アルゴリズムを使用して実現することができる確率的な勾配降下法方法に基づく。しかしながら、オンライン学習シナリオ中でのようにいくつかの動作する政権のために、確率的な勾配降下法、様々な欠点および他の最適化方式に提案させた。
深いニューラル・ネットワークは、スチル画像、映像、音とスピーチのような入力センサ・データからの様々なヒト特性、挙動と作用の予言のための使用されてもよい。
別の実装例において、深い再発するLSTMネットワークはそれが起こるわずかの秒前に、映像、触覚センサとGPSのようなセンサ・データのコレクションに基づいて、ドライバの挙動あるいは作用を予想するために使用される。
いくつかの実施形態では、プロセッサは挙動に関連するユーザー変数の検出/予測を促進する、1つ以上の機械学習技術およびアルゴリズムを実行するように構成されるかもしれない。項「機械学習」は非リミッティングで、システムの作用中にコンピュータービジョン学習、深い機械学習、深い学習と深いニューラル・ネットワークを含み、これらに限定されない技術、ニューラル・ネットワーク、人工知能とオンライン学習(つまり学習)が挙げられてもよい。機械学習アルゴリズムは、本明細書に開示された他のタイプのセンサからのイメージデータ、近接センサ・データとデータのような収集だったセンサ・データ中の1つ以上のパターンを検出するかもしれない。プロセッサによって実行された機械学習成分は、収集だったセンサ・データあるいは保存データとの間の相関に基づいた、1つ以上の組み立てるデータ・セットを使用して、訓練されるかもしれない。また、ユーザー挙動は興味のある変数を関連づけた。保存データは、センサ入力(システムによって観察される物体に関連したデータ)中の分析を前処理して、他の機械学習システムによって生成されたデータが挙げられるかもしれない。機械学習成分は、新しい訓練データ・セットおよびフィードバック・ループに基づいて、常にあるいは定期的に更新されるかもしれない。
機械学習成分は身振りを検出するか予言するために使用することができる、運動、車体姿勢、特徴、ユーザー敏捷に関係していた、ドライバ敏捷、疲労、道路への注意深さ、気晴らし、特徴、ユーザーの発現あるいは情動に関係していた、特徴、ユーザーの熟視方向に関係していた、ドライバまたは乗客。機械学習成分は作用を検出するか予言するために使用することができる、挙げられること、話すこと、叫ぶこと、歌うこと、動かすこと、眠ること、休止、煙を出すこと、読むこと、メールを書くこと、モバイルデバイスの保持、チークに対するモバイルデバイスの保持、あるいはスピーカー呼出、見る内容物、デジタル・ゲームをすること、スマートな眼鏡のようなヘッド・マウントデバイスの使用、VR、AR、デバイス学習、車両内のデバイスと相互に作用すること安全ベルトの固定、摩損、シート・ベルト、摩損するシート・ベルト、不正確に、開口部、ウィンドウ、得ること、の中で、あるいは車両から、物体を取ること、物体を捜すこと、他の乗客と相互に作用すること、眼鏡の修理、固定/置く目、接触、髪/服の固定、縁部を置くこと、突き刺さる、ドレッシングまたは衣服を脱がせること、性活動への関与、暴力的な活性への関与、鏡を注視すること、さらに1人以上の人/システム/AIと伝達すること、ディジタル素子の使用、ユーザー挙動、環境との対話、もう一人の人との対話、活性、感情の状態、以下に対する情緒的な反応に関連した特徴:内容物、出来事、より大きな、車両内部を学習するもう一人の人、1つ以上の物体。
機械学習成分はヘッド姿勢、熟視、顔と、顔のatributes 3D位置、顔の表情、次のものが挙げられる顔の境界標が挙げられる顔のatributesを検出するために使用することができる:口、目、ネック、ノーズ、まぶた、絞り、瞳、次のものが挙げられる付属物:眼鏡/サングラス、イアリング、メークアップ;次のものが挙げられる顔の作用:あくびをして、話すこと、明滅、驚いている瞳孔拡張;他の本体パーツ(手、フィンガーのような)を備えた顔の閉塞、他の物体で、ユーザー(キャップ、食物、電話)によって保持された、他の人(他の人手)あるいは物体(車両の一部)によって、ユーザーのユニークな発現(Toureteの症候群のような、発現を関連づけた)。
機械学習システムは、ADAS、車速測定値、離れられたかまたは正しい方向指示灯、ステアリングホイール動作と位置が挙げられる車両、ホイール方角、自動車動作経路、自動車のまわりの環境を示す入力、SFMと3D reconstuctionの中で1つ以上のシステムからの入力を使用するかもしれない。
機械学習成分は車両のキャビン、検出しトラッキング人々と物体の占有を検出するために使用することができ、それらの存在によって作用する、位置づける、姿勢、同一性、材齢、性別、物理的な寸法、状態、情動、健康(ヘッド姿勢)、凝視する、身振り、顔の特徴と発現。機械学習成分は1人以上の人を検出するために使用することができる、人認識/材齢/性別、人エスニシティー、人高さ、人重量、妊娠状態、姿勢、位置からはずれて(例えば、脚体、を上へ、等の横になること)、妥当性(シート・ベルトのアベイラビリテイ)を据え付ける、人骨組姿勢、シート・ベルトfiting、物体、車両中の動物存在、車両中の1つ以上の物体、車両内部の学習、異常、車両中の子ども/赤ん坊シート、車両中の人の数、車両(例えば後方シートの4人の子ども、一方、3だけ、可能とされた)中のあまりにも多くの人、他の人の膝の上の人を置くこと
機械学習成分はユーザー挙動、作用、環境との対話、もう一人の人との対話、活性、感情の状態、以下に対する情緒的な反応に関連した特徴を検出するか予言するために使用することができる:内容物(出来事)、もう一人の人を引き起こす、1つ以上の物体、結局自動車中の子ども存在を検出すること、大人は離れた、自動車、車両の監視背面シート、識別する攻撃行動、破壊行為、くん煙のような作用を検出するか、食べて飲むか、それらの熟視によってユーザーの意図を理解するか、他の本体特徴、噴出あるいは物理的または、精神的苦痛。
それはそのthe’gazeを理解されるに違いない、ユーザー、「目熟視。」記載されたおよび/またはが参照を付けたので、等の、本明細書に、ヒト・ユーザーの目が位置づける様式を参照することができる/注目した。例えばthe’gaze」or’eye熟視」ユーザー110の、ユーザー110の目111が対象とされるか集中する方向を参照することができる、例えば、期間上の特別のインスタンスおよび/またはで。さらに次の例を経由して、ユーザーのthe’gaze」ありえるか、ユーザーが注視する位置を参照することができる、特別のモーメント。さらにさらに次の例を経由して、ユーザーのthe’gaze」ありえるか、ユーザーが注視する方向を参照することができる、特別のモーメント。
記載されたテクノロジーはできる(さらに、あるimplementationsでは)決定/抽出物、様々な技術(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによる)を使用するユーザーの参照が付けられた熟視。例えば、あるimplementationsでは、センサ(例えば画像センサ、カメラ、等のIRカメラ)は、目(例えば1あるいは両方のヒト目)の画像を捕らえることができる。その後、そのような画像は例えば、目、IRソースなど(例えば閃光)の反射の瞳孔輪郭のような様々な特徴を抽出するために処理することができる。熟視、あるいは凝視する、その後、ベクトルは計算することができる、目の熟視ポイント(それらは特定方向(位置)に相当することができる、等の物体)を示す/出力。
さらに、あるimplementationsでは、記載されたテクノロジーは計算することができる、等の、ユーザーの熟視が特別のアイテム(物体)の方へ(あるいは対象とされるであろう)等の対象とされることを決める、例えば、ある状況の下で。例えば本明細書で記載されるように、ユーザーがハイウェイ上で直接に動かしていようと決心しているシナリオでは、図1に示されるようなユーザー110の熟視が前方の道路の方へ(あるいは対象とされるであろう)対象とされることは決意するかもしれない/計画対象期間。それは前方の道路の方へthat’lookingして、理解されるに違いない」ここで参照が付けられたとともに、その熟視/焦点が対象とされる車両のドライバのようなユーザーに言及することができる/動かされている(順方向で動かす場合)車両の正面の風よけによって可視道路/経路の方へ整列した。
記載されたシステムのさらなる態様は様々な図の中で図示される。例えば、図1は、決定して、抽出する態様を図示する、等の、ユーザー(例えば自動車中のカメラの位置が挙げられる使用情報、自動車(それは広くユーザー高さを与えて変わることができる)中のユーザー顔の位置、ユーザー材齢、性別、顔構造体(等の)、本明細書で記載されるように)(例えば自動車のドライバ)の目熟視。図1に示されるように、ドライバ110は自動車120(実際に任意の車両(例えばバス(等の))に関して記載されたシステムを同様に使用することができることが理解されるに違いない。)に座ることができる。また、ユーザー位置の目の熟視/位置は、自動車内に位置づけるようなカメラ130によって捕らえられた画像に基づいて決定することができる。さらに、それは有名なthat’carであるべきである」本明細書に使用されたとともに、実際に車両を飛ばして、車輪の付いた自家動力の自動車両のような輸送に使用された任意の自動車両を等の参照することができる。
他のシナリオでは、記載されたテクノロジーは、車両の外側で位置づけたobj ect(例えば、道路標識(車両)、等の目印にする)のようなobj ectの方へ(あるいは対象とされるであろう)図1に示されるようなユーザー110の熟視が対象とされることを決めることができる。あるimplementationsでは、そのような物体は、他のソースから始まる情報からの車両および/または内で埋め込まれた1つ以上のセンサから始まる入力に基づいて識別することができる。
まだ他のシナリオでは、記載されたテクノロジーは、ユーザー(例えば車両のドライバ)の様々な状態を決定することができる。そのような状態は態様あるいはドライバの注意深さまたは意識に関連した特色が挙げられるか反射することができる。あるimplementationsでは、そのような状態は、車両(例えば他の乗客、道路標識、境界標、等の他の車両)の内部の、あるいはその車両の外側で物体のような物体に相当する場合がある。
あるimplementationsでは、プロセッサ132は態様に関連したもののような様々な作用を始めるように構成される、捕捉された画像あるいは受けられた画像内に等の識別された特色、現象。プロセッサによって行なわれた作用は、例えばコマンド(それは対応付けられるかもしれない、検出された態様、特色、等の現象)のメッセージまたは実行の生成かもしれない。例えば、生成されたメッセージまたはコマンドは、オペレーティングシステム、1つ以上のサービス、1つ以上の適用、1つ以上のデバイス、1つ以上の遠隔の適用、1つ以上のリモート・サービスあるいは1つ以上の遠隔装置を含み、これらに限定されない任意のタイプの宛先へアドレス指定されるかもしれない。
それは明記されるべきである、本明細書に使用されたとともに、a’command」そして/or’message」命令および/または内容物を参照することができる、1を含み、これらに限定されない任意のタイプの宛先によって受けることができる/処理されるおよび/またはを対象とするか。次のより多くの物:オペレーティングシステム、1つ以上のサービス、1つ以上の適用、1つ以上のデバイス、1つ以上の遠隔の適用、1つ以上のリモート・サービスあるいは1つ以上の遠隔装置。
本明細書で基準化された構成要素は、特定の実施形態に従って、一緒に組み合わせることが可能であるか、または、さらなる構成要素へ分離可能であることを理解されたい。さらに、あるimplementationsでは、様々な成分は走るか、あるいは別々の機械上で具体化されるかもしれない。さらに、あるコンポーネントの複数の操作はに詳細に記載されている。
まもなく開示されたsubj ect問題もグラフィカルな(あるいは他のもの)要素のセレクションに応じてのように外部装置またはウェブサイトとの通信を可能とするように構成することができる。そのような通信は挙げられることができる、適用へメッセージを送ること、外部装置上で走ること、サービス、外部装置上で走ること、オペレーティングシステム、外部装置上で走ること、プロセス、外部装置上で走ること、1つ以上の適用、外部装置のプロセッサ上で走ること、ソフトウェアプログラム、外部装置のバックグラウンドの中で走ること、あるいは1つ以上のサービスに、外部装置上で走ることさらに、あるimplementationsの中で、メッセージは適用に送信することができる、デバイス上で走ること、サービス、デバイス上で走ること、オペレーティングシステム、デバイス上で走ること、プロセス、デバイス上で走ること、1つ以上の適用、デバイスのプロセッサ上で走ること、ソフトウェアプログラム、デバイスのバックグラウンドの中で走ること、あるいは1つ以上のサービスに、デバイス上で走ることあるimplementationsでは、デバイスは車両の内部で、あるいはその車両の外側で埋め込まれる。
「画像情報」は、本明細書に使用されたとともに、センサ130(捕捉されたか、センサ130によって決定されたデジタル画像)によって捕らえられたアナログ画像の1つ以上かもしれない、センサ130によって捕らえられたデジタルまたはアナログ画像にサブセット化する、ディジタル情報、さらなる、ISPによって処理された、情報の数学的な表現あるいは変換、データに関係していた、センサ130によって感じられた、画像中の周波数、センサ130によって捕らえられた、センサ130の視野の物体の存在のような概念の情報、捕捉する場合画像センサあるいはそのパラメーターの状態を示す情報、画像(例えば曝露、フレーム率、画像の解像度、画像センサのビット分解、深さ分解能あるいは視野を着色する)および情報、センサ130が捕捉している場合、他のセンサから、画像(e.g.近接センサ情報、あるいは加速度計情報)および情報、画像の後に起こったさらなる処理を記載されたことはそうだった、捕捉する、画像がそうである場合、照射は条件付ける、捕捉する、センサ130によるデジタル画像から抽出された特徴、あるいはセンサ130によって感じられたデータに関連した他のあらゆる情報。更に、言及された画像情報は、静止画像、モーション画像(すなわち映像)、又は他の視覚に基づく画像センサに関連した情報を含み得る。
センサ130に加えて、1つ以上のセンサ140は内で統合するか、あるいは他の方法で、参照が付けられた車両に関して構成することができる。そのようなセンサは、センサ(例えばイメージセンサ)、本明細書で記載されるように130の諸特性を共有することができる。あるimplementationsでは、参照が付けられたセンサ140は、アドバンスト・ドライバ支援システム150(ADAS)、あるいはドライブの間車両ドライバを援助する、他のあらゆるシステムと連絡する展開することができる。ADASは、例えば安全性およびよりよい駆動用車系を自動化し、適応させて、向上させるシステムになりえる。ADASは、さらに潜在的な問題にドライバに警報することができる、および/または、インプリメントにより衝突を回避する、車両のコントロールを引き継ぐように保護する。あるimplementationsの中で、ADASは、つく自動化のような特徴を組込むことができる、適応性のあるクルーズコントロールおよび衝突防止、他の自動車あるいは危険へのドライバへの警報、レーン出発警告、自動的なレーン心出、盲点、ナビゲーション命令用スマートフォンに接続するおよび/またはにあるものを示すこと
1つのシナリオ・センサ140に、イラストを経由して、車両(例えば、道路で、あるいはその道路の近くで、どれ、車両旅行)の外側で様々な物体を識別することができ、センサ130は、車両(例えば等のドライバ/乗客(s)の挙動)の内部で生じる現象を識別することができる。様々なimplementationsでは、それぞれのセンサ130および140から始まる内容物は、倍数プロセッサ(例えばADAS 150の一部として合併したプロセッサ)のシングル・プロセッサ(例えばプロセッサ132)および/またはで処理することができる。
さらなるように詳細に本明細書に記載されたように、記載されたテクノロジーはおよび/またはを利用するように構成することができる、情報反射物あるいは現象を説明する、車両のドライバの状態を反射する情報と一緒に車両の外側で示す。そうする際に、様々な測定(s)は、ドライバ(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによる)の注意深さに関して計算することができる。例えば、あるimplementationsでは、ドライバ(例えばトリップ/駆動中の1つ以上の区間での)の本注意深さは計算することができる。他のimplementationsでは、様々な示唆されたおよび/またはは、注意深さの程度を決定することができる(例えば、ドライバは、安全に車両を運転するために特別の区間または位置である程度の注意深さを示すに違いない)ことを必要とした。
物体、のように、本明細書に引用されるかもしれない、as’first物体(s)、「第二目的語」(s)。等の、道路標識、交通信号灯、移動車両、止められた車両、道路、断面または正方形に接近する車両、ヒトあるいは歩道、あるいは路上上の動物ウォーキング/放置の横の止められた車両あるいは交差が挙げられることができる、道路および自転車ライダー、そのドアが開かれる車両、道路の横に止められた自動車、ヒト、徒歩、あるいは道路に沿って走ること、道路および/またはに署名すること(例えば、警官またはトラフィックは労働者を関連づけた)についてのヒトを動かすことあるいは放置、車両停止、ドライバの視野の車両の赤灯、物体、の隣りに、あるいは道路上で、目印にする、建築物、広告、物体、ドライバ(そのように、レーンは閉じている、明かりを等の明滅する道路に置かれたコーン)へのその信号。
あるimplementationsでは、記載されたテクノロジーは、ドライバ支援システムとして展開することができる。そのようなシステムはドライバの意識を検出するように構成することができできる、さらなる開始様々な作用使用情報、会合された、様々、環境上/ドライブ条件。
例えば、あるimplementationsでは、参照が付けられた示唆されたおよび/またはは程度を要求した。あるいは、注意深さのレベルは1つ以上の注意深さ閾値として反射される場合がある。そのような閾値は反射するために調整された、計算されたおよび/またはになりえる、示唆された、あるいはドライバが持つことである注意深さ/意識を要求した/車両を安全に(例えば、等の環境条件に/基づいた)運転するために示す。閾値は作用あるいはドライバ意識(例えば、ドライバ意識および/または環境条件のレベルに基づいた)を高める設ける刺激によってのように応答を実行するためにさらに利用することができる。さらに、あるimplementationsの中で、計算された閾値は調節することができる、様々な現象あるいは条件に基づいた、例えば、道路条件の変動、道路構造の変動、新しい出口あるいは交換のように、前例と比較して、ドライバは、ドライバの宛先に関してのその道路および/またはの中で動かした、ドライバ注意深さ、ナビゲーション・システムinstruction(s)(例えば、ドライバはナビゲーション命令に従うことと一致するやり方で車両を操作しない)へのドライバによる応答の不足、他の挙動あるいは発生、等の
それは明記されるべきである、一方、あるシナリオでは、設けることは効果的かもしれない、様々な届出(警戒)、他のシナリオ中で、ユーザーに等の、また設けること、多くの警戒が逆効果かもしれない(例えばそのような警戒を無視するかあるいはシステムを非活性化するようにユーザーを条件付けることによって)。さらに、それはそうでありえる、理解する、単一の閾値は個体/特定ユーザに関して正確でないかもしれないし効果的ではないかもしれない。それに応じて、あるimplementationsでは、記載された閾値はこれによりダイナミックに構成することができる、警戒体制/届出がシナリオ中で中へ設けられるのを防ぐこと、どれ、ドライバ、だろう、他のシナリオにいる間、必ずしもそうではないがそれらを必要とする、必要かもしれない警戒体制、だろう、必ずしもそうではないがドライバ(単一の静的な閾値が使用される場合、それは他の方法で発生するかもしれない)に設けられる。図2は、記載されたシステムのさらなる態様を図示する。図2に示されるように、記載されたテクノロジーは挙げられるか合同することができる。様々なモジュール。例えば、モジュール230Aは、ドライバの生理学のおよび/または身体的状態を決定することができる、モジュール230Bは、ドライバの心理学か感情の状態を決定することができる、モジュール230Cは、ドライバの作用を決定することができる、モジュール230Dは、ドライバの挙動を決定することができる、各々、どれが詳細に本明細書に記載されているかの。詳細に本明細書に記載されたように、ドライバ状態モジュールはドライバの状態を決定することができる。詳細に本明細書に記載されたように、モジュール23 OFはドライバの注意深さを決定することができる。モジュール230Gは、等の、本明細書で記載されるようにを動かす環境条件および/またはを決定することができる。
あるimplementationsでは、モジュールは受けることができる、入力および/または、設ける、様々な外部デバイスへの出力、システム、リソース、等の、210、デバイス220 A(適用220B)のように、システム220C、データ(例えば「雲」からの)220D、ADAS 220E、DMS 220F、等のOMS 220Gさらに、前の駆動間隔に関連したデータ(例えば、レポジトリー240に保存された)、運転パターン、ドライバ状態も等の、利用することができる、本明細書で記載されるように。さらに、あるimplementationsでは、参照が付けられたモジュールは受けることができる、画像センサ260A、バイオ・センサ260B、運動センサ260C、環境センサ260D、ポジション・センサ260Eのような様々なセンサ250からの入力、および/または、他のセンサ、詳細に本明細書に記載されたとして。
環境条件(参照が付けられた注意深さの態様を決定する際に利用された)は挙げられることができるが、以下に制限されていない:道路条件(例えば、急カーブ、道路の制限のある視界あるいは妨害された視界、上の、ドライバはそうである、旅行、ドライバが車両あるいは他の物体が同じ側面のおよび/またはから接近するのを見る性能を制限してもよい、回転あるいは他の現象による道路の反対側面の、狭い道路、悪い道路条件、道路の部分、上の、どの事故あるいは他の出来事が起こったか、等の)、天候状況(例えば、降る、フォグ、等の風)。
あるimplementationsでは、記載されたテクノロジーは決定するべき道路条件を分析するように構成することができる:注意の1レベルまたは閾値は、ドライバが安全にナビゲートするために要求した。さらに、あるimplementationsでは、道路(反射は、道路に輪郭を等の湾曲させる)の経路は次のように決めると(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)分析することができる:最小の/可能性時間期間あるいは道路で移動するドライバまで区間、できる、第1、道路で移動するドライバが道路の反対側に移動する自動車がそのレーン中で動かしていないシナリオ中の側面への/停止/演習を遅くすることができるまで、同じ側あるいは道路、最小時間期間あるいは区間の別の横で自動車が旅行するのを見る、あるいはドライバのための安全に特別の部分をナビゲートするかあるいは道路に区分けするのに必要な注意の1レベル。
さらに、あるimplementationsの中で、記載されたテクノロジーは様々なポイントで存在する急カーブのような道路経路を分析するように構成することができる、一部、あるいは道路のセグメントのような道路に区分けする、上の、ドライバは今後(例えば、道路の一部、直ちに、道路の一部より進んで、ドライバは現在、上の旅行である)旅行するであろうために期待されるか決定される。この分析は、回転の存在を説明することができるか、あるいはドライバが同じ向き(道路の様々なレーン、あるいは同じレーン中でも)の中で動かす正反対方向または自動車から自動車が到達するのに気づく性能のような様々な観察条件を密着させるか制限するかもしれない道路または、経路(車両内に埋め込まれたセンサから始まる入力に基づいて決定されるようにマップ/ナビゲーション・データ、および/または、他の情報)で湾曲させる、道路の狭いセグメント、事故が従来起こった道路の悪い道路条件あるいは部分。
さらなるイラストを経由して、あるimplementationsでは、記載されたテクノロジーは分析するように構成することができる、環境上、ドライバが車両を安全に運転するために、示唆されたかまたは要求された注意レベル(閾値)を等の(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)決定する/道路条件。環境上または道路条件は挙げられることができる、しかし以下に制限されていない。道路経路(例えば、等の湾曲させる)、環境(例えばドライバの光景を妨害する山脈、建築物(等の)の存在)、軽荷状態(例えばドライバ(突然の暗さ(等のトンネルを入力する場合の))の目の方へ対象とされた日光あるいは車両光)のおよび/または変動・分析環境上あるいは道路条件は説明することができる、のための、最小時間区間および/または可能性時間を決定する際に、それは、車両走行を認めることができるドライバのためのとるかもしれない、上の同じ側面あるいは道路の(例えばそのような車両がドライバが近似しているが、妨害または急カーブによりドライバにまもなく見えてはならない道路の一部上で存在するシナリオ中で)別の側面。さらに次の例を経由して、conditionは道路の反対側の車両走行がそのレーン中で動かしていないシナリオ、あるいは同じ向きおよび同じレーンの中で動かす車両中でドライバ/車両が操作する必要があるかもしれない(例えば、遅くなり、停止する、側面に等の移る)必要な注意および/または時(例えば最小時間)を決定する際に説明することができるが、多くでより低速になりえる。
図3は、記載されたシステムが実行される例シナリオを図示する。図3に示されるように、ドライバ(「X」)は一方向に動かす。その一方で別の車両(*’)は正反対方向で動かしている。山(示されたように)の存在はシナリオを作成する、どの中で、vehicle’Xのドライバ」車両*’をそれと見なしてはならない、手法/パス、山。セグメントATでは、示されるように、ドライバは最初に図3に示されると、位置Yiの対向車線で車両Yを見なすかもしれない。ポイント/セグメントで、どのX2で= Y2」(示されたように)(それはポイントをthe’meetingしている)。ドライバは、車両Yがドライバのレーンを入力する場合に、車両を操作するためにATMを持つだろう。それに応じて、記載されたシステムは、ATMに関してのドライバの注意深さ閾値を修正するか調節することができる、例えば、ATMがより低いように、グザイのドライバの必要な注意深さはより高くなる。それに応じて、本明細書に記載されたように、必要な注意深さ閾値は環境条件に関して修正することができる。図3に示されたように、vehicle’Xのドライバの光景」山およびドライバの必要な注意深さによって制限することができる、位置グザイ(この位置でところで、ドライバは高度に注意深いに違いないし、道路に面しているに違いない)に達する場合、増加させることができる。そうするために、システムは、ドライバ注意深さレベルを以前に(Xo)決定し、その場合に到着で要求される限界を越えない、位置グザイ、システムは位置グザイに達する時ドライバ注意深さが必要な注意深さ閾値上にあることを確実にするために、処置(例えば、介入をする)を講ずる。
さらに、あるimplementationsでは、環境条件は、等の雨センサ、光センサ(例えば、ドライバの方へ輝く日光に対応する)、感震装置(例えば反射する道路条件あるいは氷)、カメラ・センサ、ADASを含み、これらに限定されずに他のセンサから始まる断固とした使用情報になりえる。
あるimplementationsでは、記載されたテクノロジーはさらにおよび/またはを決定することができる、情報を示すことあるいはドライバ、本ドライブ状態(車両が道路の中間あるいは側面の方へ変わっていると考えて、ADASから、例えば抽出されたとともに)、および/または車両状況(速度、加速/減速、路上(例えば、追いつく/通す間に、回転中に、別の車両)の方向付けを含む。)の反射する運転技術を他の方法で説明する。
車両内のセンサから始まる情報を利用する代わりにおよび/またはに加えて、あるimplementationsでは、記載されたテクノロジーは、次のものが挙げられる外部ソースから抽出された記載された環境条件に関係する情報を利用することができる:インターネットor’cloudから」サービス(例えばextemal/雲サービス180(図1に示されるように、それはインターネット160のようなネットワークによってアクセスすることができる))、ローカル装置(例えば図1に示されるようにスマートフォンのようなデバイス122)の店舗情報、あるいは外部装置(例えば図1に示されるようなデバイス170)の店舗情報。例えば天候状況を反射する情報、事故が起こった道路の部分、急カーブ(等の)、様々な外部データ・ソース(例えば、等のサードパーティー・サービスを設ける天候またはナビゲーション情報)から受け取られたおよび/またはを得させることができる。
さらに、あるimplementationsでは、記載されたテクノロジーは、ドライバ意識(例えば1つ利用するニューラル・ネットワークおよび/またはによる)を決定する際にドライバによって示された様々な現象を利用するか説明することができる。あるいはより多くの機械学習技術。例えば、あるimplementationsの中で、様々な生理的現象は説明することができる、のための、ドライバのヘッドの運動のように、ドライバの目の熟視、特徴、ドライバの目あるいはまぶたによって示された、ドライバ(例えば、ドライバは道路に面しているか)の熟視の方向、ドライバは穿たれるか。それとも、白日夢にふけているか、ドライバの姿勢、等のさらに、あるimplementationsでは、ドライバが等のまた緩められる(例えば道路の次の部分上の来たる急カーブまたは氷のような来たる条件に関して)も、他の現象は、ドライバの感情の状態のように説明することができる。
さらに、あるimplementationsでは、記載されたテクノロジーは、ドライバのbehaviorsのような、様々なbehaviorsあるいは発生を利用するか説明することができる。イラストを経由して、出来事、車両中のとる場所、乗客へのドライバの注意、乗客(例えば子ども)注意を求めること、出来事、最近、ドライバ/ユーザー(例えば、受けた、SMS、ボイス、ビデオメッセージ、等の、届出)のデバイスに関して生じること、ドライバ(例えばデバイスへの)の注意の可能性のある変化を示すことができる。
それに応じて、本明細書で記載されるように、開示されたテクノロジーは必要な/suggestedされた注意/注意深さレベル(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによる)およびドライバ(始められる(例えば、自律の駆動装置は車両を管理する)および/または作用)に設けられる警戒体制を決定するように構成することができる。あるimplementationsでは、そのような測定あるいは作用は以下のような態様に/基づいて、計算するか始めることができる:ドライバ(例えばドライバ注意深さ状態、生理学的状態、等の感情の状態)、同一性あるいはドライバ(例えば、オンライン学習あるいは他の技術を使用して)の歴史に関連した状態、道路に関連した状態、一時的なドライブ条件(例えば天候、等の路上の車両密度)、他の車両、ヒト、物体、道路で、あるいは道路(運動でも(で)も、)の近辺で等の駐車された、等の歴史/統計学は、等の道路(例えばそのような出来事に等の関連して、道路条件、気象通報のような関連情報と一緒に、道路のある部分で以前に起こった事故に対応する統計学)の部分に関連づけられた。
1つの例実装では、記載されたテクノロジーは、状況での必要なドライバ注意深さ閾値を調節することができる(例えば増大)。あるいは、ドライバが、呼量が高いおよび/または天候状況である道路で旅行のシナリオは貧弱である(例えば雨またはフォグ)。別の例シナリオでは、記載されたテクノロジーは、路上のトラフィックが低い状況の下の必要なドライバ注意深さ閾値を調節することができる(例えば減少)、道路の部分は高品質である、道路の部分は直線である、道路の2つの側面間にフェンスおよび/または距離がある、路上のおよび/または可視性条件は明らかである。
さらに、あるimplementationsでは、必要な注意深さ閾値の測定はさらに説明するか、あるいは他の方法で、ドライバの感情の状態に関して計算することができる。例えば、ドライバが妨害されてより情緒的であるとわかるシナリオでは、道路(ドライバ熟視方向、ドライバ挙動あるいは作用のような)へのドライバ注意深さを示すパラメーターは例えば、交差より高い閾値(あるいは逆に)を要求するために調節することができる。あるimplementationsでは、注意深さ閾値あるいはドライバの感情の状態の測定の1つ以上は、1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって行なうことができる。
さらに、あるimplementationsでは、一時的な道路条件は外部ソース(例えば「雲」)から得るか受け取ることができる。そのような一時的な道路条件の例は挙げられるが、天候event(s)、前方の路上の氷、事故あるいは他の出来事(例えば前方の道路上の)により道路条件の変動に制限されていない、車両は前方に止まった、道路の横に止められた車両、等の構造
図4は、ドライバ支援のための、例示的な実施形態によって、方法400を例示するフローチャートである。該方法は、ハードウェア(回路、専用ロジックなど)、ソフトウェア(本明細書に記載されるものなどのコンピューティングデバイス上で実行されるものなど)、又はその両方の組み合せを含み得るロジックの処理により、実行される。1つの実装では、方法400(また本明細書に記載された他の方法)はそうである/1つ以上の要素によって行なわれる、図1(デバイス・センサ130および/またはを含み、これらに限定されずに、統合されたかまたは接続されたコンピューティングデバイス、本明細書で記載されるように)に関して記載されたおよび/またはを図示した。他のあるimplementationsでは、図4の1つ以上のブロックは別の機械あるいは機械によって行なうことができる。さらに、あるimplementationsでは、記載された作用の1つ以上は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって行なうことができる。
説明の簡潔さのために、方法は、一連の行為として描かれ且つ記載される。しかしながら、本開示に従った行為は、様々な順序で、および/または同時に発生し、他の行為は本明細書には提示も記載もされていない。更に、例示された行為全てが、開示された主題に従い方法を実施するよう要求されるものではない。加えて、当業者は、該方法を状態図または事象によって一連の相互関係状態として代替的に表わすことができると理解および認識するであろう。さらに、本明細書で開示された方法は、そのような方法をコンピュータ装置に運び、および移すことを促すために1つの製品に保存され得ることを認識されたい。本明細書で使用されるように、製品との用語は、任意のコンピュータ可読デバイスあるいは記憶媒体からアクセス可能なコンピュータープログラムを包含することを意図している。
作用410では、1つ以上の第1の入力が受け取られる。あるimplementationsでは、そのような入力は、他のソースからのセンサ130および/またはから受け取ることができる。
作用420では、1つ以上の第1の入力(例えば、それらは410で受けた)は処理される。そうする際に、ユーザー(例えば車両内に存在するドライバ)の状態は決定することができる。あるimplementationsでは、ドライバ/ユーザーの状態の測定は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって行なうことができる.
あるimplementationsでは、「ドライバ/ユーザーの状態」は反射することができ、相当する、および/または、他の方法で等の様々な識別(測定)を説明する。例えば、あるimplementationsの中で、ドライバの状態の決定、ドライバのヘッドの識別する運動あるいは決定する(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)運動が挙げられることができる、ドライバの目の特徴、ドライバの精神状態、ドライバの感情の状態、ドライバの精神状態、ドライバの生理学的状態、ドライバの身体的状態、等の
ドライバ/ユーザーの状態は、ドライバの1以上behaviors、ドライバ、1つ以上の生理学あるいはドライバの身体的状態の心理学か感情の1以上州、あるいはドライバがか元あった1つ以上の活性に関してもよい、係合する、で。
さらに、ドライバ状態は、ドライバが存在するコンテキストに関してもよい。コンテキスト、の中で、ドライバはそうである、本、他のヒト/乗客の存在が挙げられてもよい、1人以上の乗客の1つ以上の活性あるいは挙動、1人以上の乗客の心理学か感情の1以上州、あるいは、より生理学、あるいは1人以上の乗客の身体的状態、1人以上の乗客間の1人以上の乗客あるいは通信との通信、車両中の動物の存在、車両(1つ以上の物体が、どこで車両中で示すか、画定される、として)中の1つ以上の物体ディスプレイのような壊れやすい物体のような感知可能な物体、ガラスのような繊細な材料からの物体、芸術関連の物体、駆動モード(マニュアル運転、運転の自律モード)の位相、運転の位相、駐車、得ること、の中で/駐車から、動かすこと、止まること(ブレーキで)、車両中の乗客の数、路上の1つ以上の車両の運動/運転パターン、環境条件。さらに、ドライバ状態は挙げられているドライバの外観に関してもよい、散髪、散髪の変動、服、摩損する付属物(眼鏡/サングラス、イアリング、穿孔加工、ハットのような)、メークアップ。
さらに、ドライバ状態は、顔の特徴および発現に位置からはずれて(例えば、脚体、を上へ、等の横になること)関してもよい、もう一人の人の膝、物理的または、精神的苦痛、もう一人の人との対話、内容物に対する情緒的なレスポンスあるいは車両中で、あるいは車両の外側で行なわれる出来事(s)に座る人、
さらに、ドライバ状態は材齢に関してもよい、性別、物理的な寸法、健康(ヘッド姿勢)、凝視する、身振り、顔の特徴と発現、高さ、重量、妊娠状態、姿勢、妥当性(シート・ベルトのアベイラビリテイ)(環境との相互作用)を据え付ける。
ドライバの心理学か感情の状態は、喜びの情動を含み、これらに限定されないドライバの任意の心理学か感情の状態かもしれない、恐れ、幸福、怒り、フラストレーション、絶望的、穿たれて、楽しませられる(圧迫された)ことはストレスに悩んだ、あるいはノイローゼの自己憐憫、飢え、または疼痛の状態で。心理学か感情の状態は対応付けられるかもしれない、ドライバがどれに先立って係合されたか中の出来事、あるいはドライバが本動かすセッションに中へ係合される出来事、以下を含み、これらに限定されずに活性(社会事業のような、スポーツ活性、ワーク関連の活性、娯楽関連の活性、物理的なことに関連する活性、のように、性、本体処置、あるいは医療用活性)、本動かすセッションに先立って、あるいはそのセッションの間に生じるドライバ(パッシブもアクティブも)に関する通信。さらに次の例を経由して、通信(それらはドライバに関連した応力の程度を決定する際に説明される)は、劇的な発生、トラウマチン酸発生、あるいは失望させる発生(例えば、ドライバはその人の仕事から解雇された、親しい友達/関係詞の死のことを知られた、がっかりさせるニュースの学習、家族または友達に関係していた、がっかりさせる金融情報の学習、等の)を反射する通信が挙げられることができる。ドライバがどれに先立って係合されたか中の出来事、あるいは本動かすセッション中のドライバが促進する出来事は、車両に、あるいは車両の外側で他のヒトの情動に対する情緒的な反応が挙げられる、それが1人以上の人との通信中にあっても、ドライバに提示されているか、その性質(無線通信のような)の中で放送された内容物。精神状態は、路上、または天候状況の他のドライバが挙げられて動かすことと関係する出来事に対する1つ以上の情緒的な反応に関係しているかもしれない。心理学か感情の状態は促進してもよい、対応付けられる、個人の/自己情緒的な状態(例えば、低下して失望させられて)に過度に敏感に反応する自己の外見観察にふけること、そして個人/自己身体的状態(苦しんで空腹である)。
心理学か情緒的な状態情報は画像センサおよび/またはから抽出されるかもしれない、様々な心理学の発生、情緒的な発生あるいは生理学の発生を測定することができるか決定する人々が挙げられる外部ソース、等の(例えばドライバ、血圧の心拍数)現象、および/またはの外部オンライン・サービス、適用またはシステム(データfrom’the雲を含む」)。
ドライバの生理学または身体的状態は次のものが挙げられるかもしれない:睡眠の質および/または量(例えば時間の数)ドライバ、取られた、の中で、画定された年代順の区間(例えば昨夜、等の最後の24時間)中に、車体姿勢、骨組姿勢、感情の状態、ドライバ敏捷、道路への疲労あるいは注意深さ、目赤色の1レベル、ドライバに関係していた、心拍数、ドライバに関係していた、温度、ドライバに関係していた、1つ以上の音、ドライバによって作られた。ドライバの生理学または身体的状態はさらに次のものが挙げられるかもしれない:以下に関連した情報:ドライバの飢えの1レベル、ドライバの最後の食事以来の時間、食事(食べられた食物の量)のサイズ、食事(軽食、重い食事、食肉/脂肪/砂糖を含んでいる食事)の性質、ドライバは疼痛または物理的な応力に苦しんでいるか、ドライバは叫んでいる、身体活動、ドライバは係合された、で、運転(体育館のように)に先立って泳いで、走ること、他の人々(そのようなサッカーまたはバスケットボール)とスポーツ・ゲームをすること、性質、の活性(活性(軽い活性、培地あるいは高度に強度活性のような)、埋込物の機能不全、目、ヘッド・モーション、ヘッド姿勢、熟視方向パターン、車体姿勢のまわりの筋肉の応力の強さのレベル。)
生理学の情報または身体的状態情報は画像センサおよび/またはから抽出されるかもしれない、様々な生理学の発生を測定することができるか決定する人々が挙げられる外部ソース、等の(例えばドライバ、血圧の心拍数)現象、および/またはの外部オンライン・サービス、適用またはシステム(データfrom’the雲を含む」)。
他のimplementationsでは、「ドライバ/ユーザーの状態」は反射することができ、相当する、および/または、他の方法で、様々な識別を説明する、測定、等の、競技(s)に関して、車両内に生じること、車両内の乗客に関してのドライバの注意、発生、車両内の乗客によって始められた、競技(s)車両内に存在するデバイスに関して生じること、届出、車両内に存在するデバイスで受け取られた、競技(s)、それは車両内に存在するデバイスへのドライバの注意の変化を等の反射する。あるimplementationsでは、これらの識別(測定)は、等の1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって行なうことができる。
「ドライバ/ユーザーの状態」はさらに反射することができる、一致する、および/または、他の方法で以下のような競技または発生を説明する。1つの、乗客とドライバとの間の通信、1人以上の乗客間の通信、乗客、シート・ベルトの留め金を外すこと、乗客、デバイスと相互に作用すること、車両に関係していた、車両内の1人以上の乗客の挙動、非言語的相互作用、乗客によって始められた、あるいは物理的な相互作用、ドライバの方へ対象とされた。
さらに、あるimplementationsでは、「ドライバ/ユーザーの状態」は反射することができる、一致する、および/または、車両へのエントリーの後におよび/またはに先立って他の方法でドライバの状態の原因となる。例えば、車両のドライバに関連した、以前に決定された状態は識別することができる。また、そのような以前に決定された状態は、ドライバの現在状況を決定する(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)際に利用することができる。そのような以前に決定された状態は、例えば、本動かす区間(例えばドライバが係合される本トリップ中の)および/またはに関連した、以前に決定された状態が挙げられることができる、他の区間(例えば、ドライバはよい夜の睡眠を得たか。それとも、カレントドライブを始める前に他の方法で十分に休止させられたか)。さらに、あるimplementationsでは、本動かすセッションに前時刻に関して決定されたか検出された敏捷または疲労の状態も説明することができる。
「ドライバ/ユーザーの状態」はさらに反射することができる、一致する、および/または、他の方法で様々な環境条件を説明する、車両の外側で内部のおよび/またはを提示する。
作用430では、1つ以上の第2の入力が受け取られる。あるimplementationsでは、そのような第2の入力から受けることができる、内で埋め込まれたか、他の方法で車両(例えばセンサ140(本明細書で記載されるように))に関して構成されたセンサ。例えば、そのような入力はADASから始まるか、あるいはアドバンスト・ドライバ支援システム(ADAS)を構築するセンサにサブセット化することができる。
作用440では、1つ以上の第2の入力(例えば、それらは430で受けた)は処理することができる。そうする際に、1つ以上のナビゲーションが車両に関連して、条件付ける、決定されるか他の方法で識別することができる。あるimplementationsでは、そのような処理は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって行なうことができる。さらに、ナビゲーションは条件付ける、外部ソース(例えば別のデバイス、等の「雲」サービス)から始まることができる。
あるimplementationsでは、「ナビゲーション条件」(s)は反射することができる、一致する、および/または、車両が車両(車両に隣接する他の車両の存在)に隣接する旅行の環境条件である領域または領域に関連した道路条件(例えば一時的な道路条件)を他の方法で説明する、1つの、一時的道路条件、外部ソースから受け取られた、気象による道路条件の変動、車両に先立つ路上の氷の存在、車両に先立つ路上の事故、車両、車両より進んで止められた、車両、道路の横に止められた、路上の構造の存在、道路経路、上の、車両はそうである、旅行、路上の曲線の存在、上の、車両はそうである、旅行、車両が旅行の道路、車両が旅行の道路に関しての建築物の存在あるいは発光状態の変動に関しての山の存在。
他のimplementationsでは、ナビゲーションは条件付ける、反射することができる、一致する、および/または、他の方法でドライバの様々な挙動を説明する。
ドライバの挙動は1つ以上の作用に関するかもしれない、1つ以上の本体身振り、1つ以上の姿勢、1つ以上の活性。ドライバ挙動は、自動車(1人以上の乗客(注意を求めるバックの1人以上の子供)への注意)中で行なわれる1つ以上の出来事に関するかもしれない。さらに、ドライバの挙動は攻撃行動、破壊行為あるいは噴出に関するかもしれない。
活性は活性になりえる、ドライバは係合される、の中で、本動かす区間中に、あるいは動かす区間あるいは活性に先立って、ドライバは係合された、の中で、また時間の量が挙げられてもよい、ドライバは、画定された年代順の区間(例えば過去の24時間)に関する本動かすセッションおよび/またはに動かしている、周波数、で、ドライバは、動かすセッションの期間に匹敵する時間の量のための動かす際に係合する、ドライバは本である、取られた、の中で。
車体姿勢は、運転、運転(ダッシュボード上の脚体を置くように)に適さないものとして、法則によって画定される車体姿勢が挙げられること、あるいは事故が起こるために危険を増加させる車体姿勢の間にドライバの任意の車体姿勢に関することができる。
本体身振りは、手、ヘッドあるいは目によって行なわれた身振りが挙げられる1つ以上の身体部分によるドライバによって行なわれた任意の身振りに関する。
ドライバの挙動は組み合わせになりえる、1つ以上の作用、1つ以上の本体身振り、1つ以上の姿勢あるいは1つ以上の活性。例えば、動作、くん煙の間の電話、バッグ中のアイテムを捜す間のバックの乗客に話しかけること、あるいはアイテムを探索する間の車両中のライトをつける間のドライバに話しかけること、それは、車両の床に降りかかった。
作用は、顔の食べることあるいは飲用に適したタッチする部分が挙げられる、顔の引っ掻く部分、眼鏡の位置の調節、ユーザーによって摩損された、あくび、ユーザーの髪の固定、ストレッチング、ユーザー、それらのバッグあるいは別の容器の探索、鏡の位置あるいは方向付けの調節、自動車に位置した、移動1つ以上の携帯型の物体、ユーザー関係していた、動作、スマートフォンまたはタブレットコンピュータのようなハンドヘルド装置、シート・ベルトの調節、シート・ベルトを締めるか留め金を外すこと、温度のような修正する車内パラメーター、空気調和、スピーカボリューム、風防ワイパ設定、自動車シート位置あるいは加熱/冷却機能の調節、ウィンドウからのフォグをクリアーするウィンドウ霜落しデバイスの活性化、ドライバまたは前部座席シートの乗客、後方シートの物体への最前列の後ろに達すること、活性化する方向指示灯用の1つ以上のレバーの操作、トーキング、叫ぶこと、歌うこと、動かすこと、眠ること、1つ以上の休止し、煙を出し、食べて、飲み、読み、メールを書き、移動する携帯型の物体、ユーザーに関係していた、動作、スマートフォンまたはタブレットコンピュータのような携帯端末、モバイルデバイスの保持、チークに対するモバイルデバイスの保持、あるいはメールを書くための手によってそれを保持すること、あるいはスピーカフォン・モード中で、見る内容物、見ること、映像/フィルム、映像/フィルムの性質、見られること、音楽/無線通信を聞くこと、動作、デバイス、動作、ディジタル素子、動作、イン車両マルチメディア装置、動作、車両(ウィンドウを開けるように、あるいは空調を取り付ける)のデバイスあるいはデジタルconrol、温度のような修正する車内パラメーター、空気調和、スピーカボリューム、風防ワイパ設定、自動車シート位置あるいは加熱/冷却機能の調節、ウィンドウからのフォグをクリアーするウィンドウ霜落しデバイスの活性化、手で、ウィンドウからのワイプ/削除フォグあるいは他の障害物への可動アームおよび手、ドライバあるいは乗客、ダッシュボード上の上げて置く脚体、ドライバあるいは乗客、注視、を下って、ドライバあるいは他の乗客、変わること、据え付ける、幼児用座席の赤ん坊を置くこと、幼児用座席からの赤ん坊を連れて行くことチャイルド・シートの中への子どもを置くこと、チャイルド・シートからの子どもを連れて行くこと、車両へのモバイルデバイスの接続、あるいは車両のマルチメディア・システムに、車両中の受け台の中のモバイルデバイス(例えば携帯電話)を置くこと、動作、モバイルデバイス上の適用、あるいは車両マルチメディア・システムで、動作、音声コマンドによる適用、タッチによるおよび/または、車両(ボタンのような)中のI/Oモジュールの使用によるディジタル素子および/または、動作、ドライバの前のヘッドマウントディスプレイ中のそのディスプレイを出力する適用/デバイス、動作するストリーミング・アプリケーション(Spotifyまたはユーチューブのような)、動作、ナビゲーション適用またはサービス、動作、視覚的な出力(マップ上の位置のような)を出力する適用、電話/ビデオ通話をすること、会/電話会議への出席、電話会議中にアドレス指定されることに話しかける/答えること、車両中のデバイスを探索すること、車両中の携帯電話/通信装置を探索すること、車両フロアの物体を探索すること、バッグ内の物体の探索、バックシートからの物体/バッグをつかむこと、動作、両方の手を備えた物体、動作、物体、ドライバの膝に置かれた、活性に含まれていること、バッグ/持ち帰り用の箱からのとる食物のように食べることに関係していた、1つ以上の物体と相互に作用すること、開口部のような食物に関係していた、食品上のサンドイッチ/ハンバーガーあるいは置くソース(ケチャップ)のカバー、動作、1つ以上の物体、1つの手を備えた食物に関係していた、他の身体部分(歯のような)を備えた1つあるいは2つの手の2つの手あるいは組み合わせ、食品を注視すること、食べられること、あるいは物体で、それ(ソースのような)に関係していた。ナプキン、等の、活性に含まれていること、飲酒に関係していた、開口部、缶、それを開く脚体間の缶を置くこと、物体と相互に作用すること、1つあるいは2つの手で飲むことに関係していた、ホット・ドリンクを飲むこと、活性が邪魔をする様式の吸収、道路への光景、食物/飲料によって阻まれること、飲用に適したアルコール、くん煙物質、それは駆動能力を損なうか影響を及ぼす、バックシート中の乗客の支援、デバイス/ディジタル素子あるいは物体への身振りの上演、達することの方へ、あるいはグローブボックスへ、開口部ドア/天盤、物体を捨てる、ウィンドウ、誰かに話しかけること、自動車の外側で、広告を注視すること、信号/兆候を注視すること、自動車の外側で人/動物を注視すること、物体/建築物/道路標識を注視すること、道路標識(シートの位置/位置を制御するステアリングホイール(音楽/駆動モードを等の制御して)上の、I/Oボタンを注視するlocationj/パーキング・プレース、運転/固定、車両の1つ以上の鏡)を探索すること設けること、背面シート上の他の乗客/乗客への物体、鏡を連通するために注視すること、バックシート中の乗客、連通するために回転すること、バックシート中の乗客、伸張する本体パーツ、ピルを服用して、疼痛(首の疼痛のような)を発売する伸張する本体パーツ、対話し車両中のペット/動物で演奏すること、投げること、を上へ、「ダンスをすること」シートで、デジタル・ゲームをすること、動作、1つ以上の数字表示/賢いウィンドウ、車両中の明かりの変更、スピーカーの量の制御、スマートな眼鏡のようなヘッド・マウントデバイスの使用、VR、AR、デバイス学習、車両内のデバイスと相互に作用すること安全ベルトの固定、シート・ベルトの摩損、摩損するシート・ベルト、不正確に、シート・ベルト取付け部、ウィンドウを開けること、ウィンドウの外側で、手あるいは他の身体部分を置くこと、得ること、の中で、あるいは車両から、物体を取ること、物体を捜すこと、他の乗客と相互に作用すること、固定/清浄化眼鏡、固定/コンタクトレンズを入れること、固定髪/服、口紅を着ること、ドレッシングまたは衣服を脱がせること、性活動で含まれていること、暴力活性に含まれていること鏡を注視する、伝達する、あるいは1つ以上の乗客罪と相互に作用すること、ディジタル素子を使用して、1つ以上のヒト/システム/AIと伝達する車両、ユーザー挙動に関連した特徴、環境との相互作用、活性、情緒的な反応(内容物または出来事に対する情緒的な反応のような)、1つ以上の物体に関しての活性、ドライバによって制御されるか使用されるかもしれない車両中のどんなインタフェイス機器の操作あるいは乗客。
作用は作用あるいは次のものが挙げられるその本体に関してのドライバ/乗客によって上演された活性が挙げられるかもしれない:あくび、驚いている明滅、瞳孔拡張のような顔の関連する作用/活性;ドライバ(キャップ、食物、電話)によって保持された物体(眼鏡の位置を固定して、ドライバ/ユーザー(例えばドライバ/ユーザーの手でない手によって上演される身振り)の方へ他のヒト/乗客によって上演される身振り)を備えた顔への身振りを上演して、他の本体パーツ(手、フィンガーのような)を備えた顔への身振りを上演すること、眼鏡あるいは顔(顔(ドライバの目のようなドライバ注意深さの検出にとって重要かもしれない特徴)の特徴を備えた手の閉塞症)にそれらの位置を固定することの上に/置かれた;あるいは別の手に関しての1つの手の身振り、ドライブ(例えば、開口部、ドリンク缶あるいは瓶(ハンドリング食物))と関しない2つの手に関する活性を予言するために別の実装で、他の物体、近似、ユーザーは含めてもよい、マルチメディア・システムの制御、モバイルデバイスへの身振り、それはユーザーの隣りに置かれる、適用への身振り、ディジタル素子上で走ること、自動車中の鏡への身振り、あるいは側鏡を固定すること
作用はさらにどんなそれらの組み合わせも挙げられるかもしれない。
ナビゲーションは条件付ける、さらに反射することができる、一致する、および/または、車両の突出される後の位置に関して以前に生じた1つ以上の出来事に関しての車両の本位置に関して以前に生じた出来事を他の方法で説明する。
作用450では、ドライバ注意深さ閾値のような閾値は調整された、計算されたおよび/またはになりえる。あるimplementationsでは、そのような閾値は1つ以上のナビゲーションに/基づいて、計算することができる、条件付ける(例えば440で決定されたもの)。あるimplementationsでは、そのような計算は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって上演することができる。そのようなドライバ注意深さ閾値は反射することができる、一致する、および/または、ドライバの車両あるいはドライバの車両に近接するあるのに突出される他の車両への近接の中で他の車両の1つ以上の他のドライバとのドライバ(例えば現在車両を動かすユーザー)および/またはに関連した断固とした注意深さレベルを他の方法で説明する。あるimplementationsでは、近接または突出される近接の画定は上の基づくかもしれない、限定されないが、車両とドライバの車両との間の一定距離未満である、あるいは車両とドライバの車両との間の一定距離未満である、で、画定された時間窓の中で。
参照が付けられたドライバ注意深さ閾値は、1つ以上の係数(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによる)に/基づいて、さらに決定することができる/計算することができる。例えば、あるimplementationsでは、参照が付けられたドライバ注意深さ閾値は以下に/基づいて計算することができる:1つの、突出される/見積時間はドライバまでに道路の車両と同じ側に存在する別の車両を見ることができる、1つの、突出される/見積時間はドライバまでに道路の対向する側で存在する別の車両を車両と見なすことができる、1つの、突出される、別の車両の存在を説明するために、/見積時間は、ドライバまでに等の車両の速度を調節することができる。
作用460では、1つ以上の作用は始めることができる。あるimplementationsでは、そのような作用は始めることができる、ドライバ(例えば420で決定されたとともに)および/またはの状態に/基づいた、ドライバ注意深さ閾値(例えば450と見積もられたとともに)。作用は、以下のように車両または駆動と関係する、変わるパラメーターが挙げられることができる:自動車の明かり(例えば、車両の明るいヘッドライトをつける/、車両の警戒灯または方向指示灯をつける/、車両の速度を落とす/増加させる)の制御。
図5は、ドライバ支援のための、例示的な実施形態によって、方法500を例示するフローチャートである。該方法は、ハードウェア(回路、専用ロジックなど)、ソフトウェア(本明細書に記載されるものなどのコンピューティングデバイス上で実行されるものなど)、又はその両方の組み合せを含み得るロジックの処理により、実行される。一実施では、方法500(また本明細書に記載された他の方法)はそうである/1つ以上の要素によって上演される、図1(デバイス・センサ130および/またはを含み、これらに限定されずに、統合されたかまたは接続されたコンピューティングデバイス、本明細書で記載されるように)に関して記載されたおよび/またはを図示した。他のあるimplementationsでは、図5の1つ以上のブロックは別の機械あるいは機械によって上演することができる。さらに、あるimplementationsでは、記載された作用の1つ以上は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって上演することができる。
作用510では、1つ以上の第1の入力が受け取られる。あるimplementationsでは、そのような入力から受けることができる、内で埋め込まれたか、他の方法で車両(例えばセンサ140(本明細書で記載されるように))に関して構成されたセンサ。例えば、そのような入力は、アドバンスト・ドライバ支援システム(ADAS)を構築するADASあるいは1つ以上のセンサから始まることができる。例えば、図1は、ADAS 150の一部として統合されるか挙げられられているセンサ140を図示する。
作用520では、1つ以上の第1の入力(例えば、それらは510で受けた)は処理される(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)。そうする際に、第1の物体は識別することができる。あるimplementationsでは、そのような物体は車両(例えばユーザー/ドライバが旅行している車両)に関して識別することができる。等の、物体の例は挙げられるが、道路標識、道路構造に制限されていない。
作用530では、1つ以上の第2の入力が受け取られる。
作用540では、1つ以上の第2の入力(例えば、それらは530で受けた)は処理される。そうする際に、車両のユーザー/ドライバの注意深さの状態は決定することができる。あるimplementationsでは、注意深さのそのような状態は物体(例えば520で識別された物体)に関して決定することができる。さらに、あるimplementationsでは、注意深さの状態は、車両の(例えば第1の物体に関連した物体に関して)ドライバに関連した注意深さの以前に決定された状態に/基づいて決定することができる。あるimplementationsでは、ユーザー/ドライバの注意深さの状態の測定は、1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって上演することができる。
あるimplementationsでは、注意深さの以前に決定された状態は、本動かす区間(例えば、同じトリップ(駆動)中に等の)および/または内で先のインスタンスに関して決定されたものでありえる、先の動かす区間(例えば前のトリップ/駆動装置/フライト中の)。あるimplementationsでは、注意深さの以前に決定された状態は、1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
さらに、あるimplementationsでは、注意深さの以前に決定された状態は反射することができる、一致する、および/または、他の方法でダイナミックなまたは他ののためのそのようなパターンを説明する、曲がる、あるいは第1の物体(例えば520で識別された物体)に関連した物体に関しての車両のドライバに関連した注意深さの以前に決定された状態によって反射された傾向。例えば、そのような原動力は、挙げられているabentivenessの以前に決定された状態を反射する場合がある:周波数、で、ドライバは注視する、第1の物体(例えば520で識別された物体)、周波数、で、ドライバは注視する、第二目的語(例えば別の物体)、1つ以上の状況、の下で、ドライバは注視する、1つ以上の物体、1つ以上の状況、の下で、ドライバは注視しない、1つ以上の物体、1つ以上の環境条件、等の
さらなるillusbationを経由して、原動力は反射することができ、相当する、および/または、他の方法で周波数を説明する、どれで、ある物体(例えば道路標識、明かりを妨げる、移動車両、止められた車両、車両を止められた、道路、交差または正方形、ヒトあるいは歩道、あるいは路上上の動物ウォーキング/放置に接近する車両あるいは交差に賛成する、道路、道路および/またはに署名すること(例えば警官あるいはfrafficな関連する労働者)に取り組むか立っているヒト)へのドライバ注視車両停止、ドライバの視野の車両の赤灯、道路の隣の、あるいはその道路における物体、目印にする、建築物および広告、任意の物体、ドライバ(等の)(レーンが閉じていることを示すように、明かりを等の明滅する道路に置かれたコーン)へのその信号、ドライバが注視するどんな物体およびsign(s)、等の、ドライバは注視している、で、ドライバがある物体(例えば、を注視する状況既知の経路上で動かす場合、ドライバは、兆候の情報についての彼の熟知によりある道路標識(一時停止標識あるいは速度限界兆候のような)を注視しない、道路および周囲、未知の道路を動かす間に、ドライバは、速度限界兆候の80%の率/周波数で注視する、また一時停止標識の92%の率/周波数で、ドライバ(例えば自動車の速度に関しての兆候をドライバが注視する率/周波数、道路条件、天候状況、その日(等の)の回)の運転パターン、等の
さらに、あるimplementationsでは、原動力は反射することができる、一致する、および/または、他の方法でドライバおよび/またはの生理学的状態のための他の関連情報を説明する。例えば本明細書に記載された様々な他の測定を計算するドライバおよび/またはの本注意深さを決定する際にドライバ(例えば様々な物体に関しての)の注意深さに関係する他のパターンのための説明することができるドライバ(例えばその日の異なる時間の)および/またはによって示された、前の動かすまたは行動型。あるimplementationsでは、ドライバの本注意深さは1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
さらに、あるimplementationsでは、注意深さの以前に決定された状態は反射することができる、一致する、および/または、他の方法で車両の(例えば第1の物体(例えば520で識別された物体)に関連した物体に関して)ドライバに関連した注意深さの以前に決定された1以上州によって反射された原動力の統計モデルを説明する。
注意深さの現在状況を決定して、あるimplementationsの中で、できる、さらなる、1つ以上の第2の入力(例えば、それらは530で受けた)を備えた、車両および第1の物体のドライバに関連した注意深さの関連以前に決定された状態が挙げられる。あるimplementationsでは、ドライバの本注意深さは1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
さらに、あるimplementationsの中で、記載されたテクノロジーはドライバの注意深さを決定するように構成することができる、基づいた、上の/データ反射を考慮して、あるいは、ドライバの駆動、およびドライバによって示された注意深さの態様に対応する、に、前の動かすセッションのキューあるいは物体(例えば道路標識)に様々。例えばドライバがある物体を注視しているインスタンスに対応する使用データ、1つの、ダイナミック、パターン、等の、それは、前の動かすセッションに関して計算された原動力とドライバのそのような物体への本注意深さが相関になりえると考える。ドライバの注意深さの多数の面以下のように、原動力が挙げられるか反射することができることが理解されるに違いない:ドライバがある物体(例えば道路標識)を注視する周波数、ドライバが注視しているどんな物体(例えば等の、署名し、目印にする)および状況、その下ではドライバは、そのような物体(例えば、既知の経路上で動かす場合、ドライバは、速度限界兆候に頻繁に不注意かもしれない、道路標識、等の、道路を持ったドライバの親しさにより)を注視している。一方、未知の道路をドライバを動かすことは、いつ80%の率/周波数で速度限界兆候を注視するかもしれないか。また、92%の周波数を備えた一時停止標識を注視するかもしれないか、等のドライバ(例えば自動車の速度に関しての兆候をドライバが注視する率/周波数、道路条件、天候状況、その日(等の)の回)の運転パターンあるimplementationsでは、ドライバの注意深さは1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
さらに、あるimplementationsでは、ドライバの注意深さの状態はさらに、第1の物体(例えば520で識別された物体)をドライバが注視する周波数、ドライバが第二目的語を注視する周波数、動かすpattem(s)、ナビゲーションinstruction(s)を含み、これらに限定されない動かす関連情報に関してのドライバに関連した運転パターン(s)、環境条件あるいは時刻に/基づいて決定することができる。あるimplementationsでは、ドライバの注意深さの状態は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
あるimplementationsでは、ドライバの注意深さの状態はさらに次の最小の1つで視界に/基づいて決定することができる:旅慣れた道路に関してのドライバの親しさの程度、旅慣れた道路を旅行する周波数、経過時間、以来、前、旅慣れた道路の旅行。あるimplementationsでは、ドライバの注意深さの状態は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
さらに、あるimplementationsでは、ドライバの注意深さの状態はさらにドライバ(ドライバ(ドライバが係合しうと決心している睡眠の量)の生理学的状態)の精神状態に/基づいて、決定することができる(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)、ドライバを動かす量は係合したとわかる、の中で、等のドライバに関連した目赤色の1レベル例えば、ドライバ(ドライバが道路および/またはに注意する程度を反射して、他の環境)の注意深さの状態は、ドライバ(例えば、受け取られたとともに、得た、あるいは他の方法でセンサで親情報から計算された)の生理学の特色に関連したデータをドライバ(例えば、適用または外部データのソースから受け取られたか得られたとともに、そのようなas’the雲」)に関連した他の生理学の情報と関連させることにより決定することができる。本明細書で記載されるように、生理学の特色、情報などは、ドライバに等の関連して、疲労、応力、健康/病気の態様が挙げられることができる。
あるimplementationsの中で、さらに、生理学の特色、情報(等の)はおよび/またはを画定するために利用することができる、図4に関して上に記載されたもののようなドライバ注意深さ閾値を調節する。例えば、生理学のデータは受けた、あるいは外部のソース(例えば他のセンサ」、別の適用、from’the雲。等の)に使用することができる画像センサおよび/またはから得られた、および/またはを画定する、必要か十分な程度の注意深さ(例えばドライバが安全に航海すること)および/またはを反射する閾値を調節する、他のレベル、注意深さ、応力の疲労または測定、健康/病気、等の
さらなるイラストを経由して、記載されたテクノロジーは、ドライバに関連した疲労の程度または測定を反射する情報あるいは他の測定に/基づいたドライバの注意深さの状態を決定することができる(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)。あるimplementationsでは、そのような程度の疲労は、および/またはから他の方法で得るか受け取ることができる、他のソースあるいはシステムで親情報に基づいて、決定された(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)。そのような情報あるいは測定は挙げられることができる、例えば、睡眠の断固とした質および/または量(例えば時間の数)ドライバ、取られた、の中で、画定された年代順の区間(例えば昨夜、等の最後の24時間)中に、時間の量、ドライバは、画定された年代順の区間例えば過去の24時間)に関する本動かすセッションおよび/またはに動かしている、周波数、で、ドライバは、動かすセッションの期間に匹敵する時間の量のための動かす際に係合する。ドライバはそうである、本、等の従事された。記載されたテクノロジーはできる(さらに、あるimplementationsでは)さらなる相関物、情報を持ったドライバの注意深さの状態に関連した測定(s)抽出された/画像センサ(例えばドライバのそれらの画像取り込)および/またはから始まること、測定する様々な生理学の発生あるいは決定する発生に有能な他のセンサ、現象、等の(例えばドライバの心拍数)および/またはの外部オンライン・サービス、ドライバ監視システム(DMS)あるいは占有監視システム(OMS)のような、適用あるいはシステム。
DMSは、ドライバを追跡し、ドライバの検出された状態、物理的状態、情緒的な条件、作用、behaviors、駆動性能、注意深さあるいは敏捷によって作用するシステムである。DMSはモジュールが挙げられることができる、それは身振りを検出するか予言する、運動、車体姿勢、特徴、ユーザー敏捷に関係していた、ドライバ敏捷、疲労、道路への注意深さ、気晴らし、特徴、ユーザーの発現あるいは情動に関係していた、あるいは特徴、ユーザーの熟視方向に関係していた、ドライバまたは乗客。他のモジュールはドライバ/乗客作用および/または挙動を検出するか予言する。
別の実装では、DMSは、ヘッド姿勢、熟視、顔と、顔の属性、三次元の位置、顔の表情、次のものが挙げられる顔の要素が挙げられる顔の属性を検出することができる:口、目、ネック、ノーズ、まぶた、絞り、瞳、次のものが挙げられる付属物:眼鏡/サングラス、イアリング、メークアップ;次のものが挙げられる顔の作用:あくびをして、話すこと、明滅、驚いている瞳孔拡張;他の本体パーツ(手またはフィンガーのような)を備えた顔の閉塞、他の物体で、ユーザー(キャップ、食物、電話)によって保持された、もう一人の人(もう一人の人の手)あるいは物体(車両の部品)によって、あるいはユーザー(トゥーレット症候群関連の発現のような)に特有の発現。
OMSはシステムである、モニター、車両のキャビンの占有、検出し後退する人々および物体、またそれらの存在によって作用する、位置づける、姿勢、同一性、材齢、性別、物理的な寸法、状態、情動、健康、ヘッド姿勢、凝視する、身振り、顔の特徴および発現。OMSは、1つ以上の人および/またはを検出するモジュールが挙げられることができる、同一性、材齢、性別、エスニシティー、高さ、重量、妊娠状態、姿勢、位置からはずれて(例えば、等の横になって、脚体は上がっている。)、人の妥当性(シート・ベルトのアベイラビリテイ)、骨組姿勢あるいはシート・ベルトfibingを据え付ける;物体、動物あるいは車両中の1つ以上の物体の存在;車両内部の学習;異常;車両中の子ども/赤ん坊シート、車両中の多くの人、車両(例えば後方シートの4人の子どもその一方で3だけが可能とした)中のあまりにも多くの人あるいは他の人の膝の上の人羽目板。
OMSは、ユーザー挙動、作用、環境との対話、もう一人の人との対話、活性、感情の状態、以下に対する情緒的な反応に関連した特徴を検出するか予言するモジュールが挙げられることができる:内容物、出来事、抗夫、もう一人の人、1つ以上の物体、自動車中の子どもの存在を結局検出すること、大人は離れた、自動車、車両の監視背面シート、識別する攻撃行動、破壊行為、それらの熟視あるいは他の本体特徴によってユーザーの意図を食べるか、飲むか、理解するくん煙のような作用を検出する、噴出あるいは物理的または、精神的苦痛。
あるimplementationsでは、ドライバの注意深さの状態はさらに、様々な時刻のある物体を注視することに関してドライバによって示された挙動のpaternsに関連した情報に/基づいて決定することができる。さらに、あるimplementationsでは、ドライバの注意深さの状態は、さらにドライバに、疲労、応力、病気のようなドライバに関して生理学のデータあるいは測定に/等の基づいて決定することができる。あるimplementationsでは、ドライバの注意深さの状態は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
あるimplementationsの中で、さらに、態様反射、あるいは単位あるいは疲労の程度に対応する、および/またはから他の方法で得られるか受け取ることができる、他のソースあるいはシステムで親情報に基づいて、決定された(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)。そのような情報あるいは測定は挙げられることができる、例えば、睡眠の断固とした質および/または量(例えば時間の数)ドライバ、取られた、の中で、画定された年代順の区間(例えば昨夜、等の最後の24時間)中に、時間の量、ドライバは、画定された年代順の区間例えば過去の24時間)に関する本動かすセッションおよび/またはに動かしている、周波数、で、ドライバは、動かすセッションの期間に匹敵する時間の量のための動かす際に係合する。ドライバはそうである、本、等の従事された。さらに、特定の実施では、テクノロジーはできる、さらなる相関物、情報を持ったドライバの注意深さの状態に関連した測定(s)抽出された/画像センサ(例えばドライバのそれらの画像取り込)および/またはから様々な生理学の発生(現象)を等の(例えばドライバの心拍数)測定することができるか決定する他のセンサ(ドライバ監視システムおよび/またはを上へ占有監視システムを作るもののような)を起こすこと
さらに、あるimplementationsでは、記載されたテクノロジーは、ドライバおよび/またはの注意深さの状態を決定することができる、ドライバに関して得られたおよび/またはと関係する情報に/基づいたドライバの疲労の程度、目に関係するそのような情報、まぶた、瞳孔、目赤色レベル(例えば標準液面に対する)、目のまわりの筋肉の応力、ヘッド・モーション、ヘッド姿勢、熟視方向パターン、車体姿勢は等の、ドライバに記載されたdetermination(s)を計算する際に説明することができる。さらに、あるimplementationsでは、測定は、さらに先の測定(s)(例えば、前の動かすセッション(s)にドライバの本検出された車体姿勢をドライバの検出された車体姿勢と関連させて)と相関になりえる。あるimplementationsの中で、ドライバの疲労の程度によって決定することができるドライバおよび/またはの注意深さの状態、1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/または。
態様反射、あるいは単位あるいは応力の程度に対応する、および/またはから他の方法で得られるか受け取ることができる、他のソースあるいはシステムから始まる情報に/基づいて、決定された(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)。そのような情報あるいは測定は、例えば、ドライバ(ドライバ(本動かすセッション(本動かすセッションに先立って、あるいはそのセッションの間に生じるドライバ(パッシブもアクティブも)に関する通信に等の関連したデータ)に先立って、あるいはそのセッションの間にドライバによって従事された出来事に関連した情報)によって示されたbehaviorsに関連した情報)に関連した生理学の情報が挙げられることができる。さらに次の例を経由して、通信(それらはドライバに関連した応力の程度を決定する際に説明される)は、劇的な発生、トラウマチン酸発生、あるいは失望させる発生(例えば、ドライバはその人の仕事から解雇された、親しい友達/関係詞の死のことを知られた、がっかりさせるニュースの学習、家族または友達に関係していた、がっかりさせる金融情報の学習、等の)を反射する通信が挙げられることができる。応力測定は他のソースあるいはシステム(例えばfrom’the雲。」デバイス(外部サービス)から、等のユーザーの応力レベルを決定することができるおよび/または適用)から始まる情報に/基づいて、計算するか決定することができる。
それはそうでありえる、理解する、ドライバが応力あるいは他の情動を経験している場合、様々な運転パターンあるいはbehaviorsは変わるかもしれない。例えば、ドライバは、道路自体で依然として注意深いこと(過度に注目した)一方キューあるいは物体(例えば道路標識)を囲むことにそれほど注意してはならない。この(また他のもの)現象は様々な条件の下のドライバの注意深さレベルを決定する(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)際に説明することができる。
さらに、あるimplementationsでは、記載されたテクノロジーは、ドライバの健康を反射する情報あるいは他の測定に/基づいたドライバ(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによる)の注意深さの状態を決定することができる。例えば、程度あるいはドライバ(例えば、重症度、1つの、寒い、ドライバは現在苦しんでいる、から)の病気のレベルは決定することができる、画像センサおよび/またはから抽出されたデータに/基づいた、他のセンサ、その様々な測定、生理学、驚異的(例えばドライバ、咳のようなドライバによって出された音(等の)あるいはくしゃみをすることの温度)。注意されるように、健康/病気測定はあるimplementationsの中の他のソースあるいはシステム(例えばfrom’the雲。」デバイス(外部サービス)から、等のユーザーの健康水準を決定することができるおよび/または適用)・から始まる情報に/基づいて、計算するか決定することができる、ドライバの健康/病気は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
記載されたテクノロジーもドライバ(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによる)および/またはの注意深さの状態を決定するように構成することができる、ドライバによって示されて、様々な他の活性(behaviors)に/等の基づいた、他の関連する計算/作用を行なう。例えば、ドライバが様々な物体(例えば等の道路標識)を注視する様式の態様は、ドライバによって示された他の活性あるいはbehaviorsと相関になりえる、そのようなもの、ドライバは無線通信/音楽を等の聞いて、通話の中で会話で係合されるか。そのような測定(s)は、さらに車両(例えば、そのような乗客は叫んで、話しているか、等の叫ぶこと)および/またはに他の乗客によって示された挙動のように他の活性あるいは発生に関連した情報またはパラメーターと相関になりえる、車両(例えば音楽/音のレベル)の他の環境条件。さらに、あるimplementationsでは、測定(s)は、さらに天候状況(光/照射条件(例えば霧、および雨(ドライバの視力を妨げる物体の方向から始まる日光)の存在))のような、他の環境条件(例えば車両の外側で)に対応する情報と等の相関になりえる。さらに、あるimplementationsでは、測定(s)は、さらに情報またはパラメーターと相関になりえる、対応する、に、あるいは様々な道路条件を反射すること、車両の速度、道路運転状況、他の自動車動作(例えば、別の車両は急に止まるか。それとも、迅速に)、時刻、等の物体(例えば、どれくらいよく、道路標識、あるいは目印にする、照らされる)上に存在する光/照射(変化)さらなるイラストを経由して、様々な複合の挙動は、例えば、パラメーターの1つ以上に関しての兆候をドライバが注視する様式に関する倍数態様を反射して、識別するか計算することができる。あるimplementationsでは、記載されたテクノロジーはさらにおよび/またはを決定することができる、他の方法で複合のbehaviors(様々な運転状況(s)に関してのある物体および/またはを注視する間に、ドライバが振る舞う様式の反射する倍数態様)の部分集合を説明する。情報および/またはは測定を関連づけた、ドライバが等の疲れているかどうか判断して、注意深さ閾値(安全に考えられた注意深さの最低段階を反射して)に関して、ドライバが多かれ少なかれ注意深いかどうか判断する際に(例えば注意深さの彼の標準液面と比較して)さらに利用することができる、本明細書で記載されるように。例えば、得られた歴史あるいは統計学、あるいはドライバに関連した、先の動かすインスタンスに関して決定した、ドライバに関連した注意深さの標準液面を決定するために使用することができる。注意深さのそのような標準液面は例えば反射することができる、ドライバが様々な物体をおよび/またはと分かる諸特性あるいは方法は、他の方法で運転の間作用する。イラストを経由して、注意深さの標準液面は、運転(例えば兆候が可視だった後5秒; 兆候(等の)からの30メートルの距離で。)の間道路標識におよび/またはが応答するのに気づくために、それがドライバにとる時間および/または距離の量を反射する場合があるか挙げられる場合がある。駆動によってまもなく示されたBehaviorsは、ドライバが、彼/彼女が通常行う様式で現在動かしているか、ドライバが現在それほど注意深くないかどうか判断するために注意深さのそのような標準液面と比較することができる。あるimplementationsでは、ドライバの注意深さの標準液面は平均かもしれない。あるいは、断固とした値のメジアンは、ドライバの注意深さのレベルを反射した、の中で、前、動かすこと、内部あるimplementationsでは、ドライバの注意深さの標準液面は、ドライバ、ドライバ(動かす区間中のドライバの心理学か感情の状態)の生理学または身体的状態の挙動の少なくとも1つを反射する情報が挙げられる1つ以上のセンサからの断固とした使用情報かもしれない。
あるimplementationsでは、記載されたテクノロジーは、利用されたおよび/またはにさらに他の方法で構成することができる、ドライバの注意深さを決定する際にドライバの熟視を説明する。例えば物体缶識別される(車両の内部で、あるいはその車両の外側でも)、本明細書で記載されるように、およびドライバの目の熟視方向は検出することができる。そのような物体は、例えば、車両の外側で、あるいはその車両の内部で面するカメラ、レーダーによって検出された物体あるいはLIDARから、画像センサ情報からの物体に検出された使用データが挙げられることができる、等のADASによって検出された物体さらに、様々な技術および/またはテクノロジー(例えばDMSまたはOMS)はドライバおよび/またはの熟視方向を検出するか決定するために利用することができる、特別の物体に/目を向けるドライバもドライバが識別された物体に/目を向けていることを決める際、ドライバの注意深さは計算することができる(例えば、一旦物体が見えれば物体を認識しようとドライバが決心している速度のような、そのような物体をドライバが注視する様式の態様に基づいた)。あるimplementationsの中で、さらに、測定、できる、さらなる、ドライバの注意深さを示すデータを利用するか説明する、に関して、関連させる/関連オブジェクト(例えば、同じ動かすセッションの初めに前の動かすセッションおよび/またはの中で)。
あるimplementationsでは、注意深さあるいはドライバの疲労の状態はさらに決定することができる、時間持続時間に関連した情報に/基づいた、どれに、ドライバ変更、第1の物体(例えば、520で識別された物体)への彼の熟視。
さらに、あるimplementationsでは、注意深さあるいはドライバの疲労の状態はさらに、第1の物体(例えば520で識別された物体)へのドライバの熟視の変更に関連した情報に/基づいて決定することができる。
注意深さまたは疲労の現在状況を決定して、あるimplementationsの中で、できる、さらなる、処理が挙げられる、以前に年代順の区間(例えば、前の動かすセッション)を決定した、どれに、車両変更のドライバ、年代順の区間に関しての第1の物体に関連した物体への彼の熟視、どれに、ドライバ変更、第1の物体(例えば520で識別された物体)への彼の熟視。そうする際に、注意深さあるいはドライバの疲労の現在状況は決定することができる。
さらに、あるimplementationsでは、ドライバの目熟視はさらにドライバ(ドライバによって上演されてまばたきする、様々な見る光線に基づいて決定されたとともに、および/または、他の技術)の断固とした優位眼に/基づいて決定することができる。優位眼は、他のデバイス、適用、オンライン・サービスあるいはシステムによって抽出された断固とした使用情報になりえて、デバイスあるいは別のデバイス(ネットワークによってデバイスに接続されたサーバーのような)上に格納した。さらに、そのような情報は雲に店舗情報が挙げられるかもしれない。
注意深さあるいはドライバの疲労の現在状況を決定して、あるimplementationsの中で、さらに、できる、さらなる、第1の物体へのドライバの熟視の変更と関係する運動特徴に関連した情報に基づいた注意深さまたは疲労の状態を決定することが挙げられる。
作用550では、1つ以上の作用は始めることができる、例えば、ドライバ(540で決定されるように)の注意深さの状態に基づいた。そのような作用は、以下のように車両または駆動と関係する、変わるパラメーターが挙げられることができる:自動車の明かり(例えば、車両の明るいヘッドライトをつける/、車両の警戒灯または方向指示灯をつける/、車両の速度を落とす/増加させる)の制御。
図4は、ドライバ支援のための、例示的な実施形態によって、方法400を例示するフローチャートである。該方法は、ハードウェア(回路、専用ロジックなど)、ソフトウェア(本明細書に記載されるものなどのコンピューティングデバイス上で実行されるものなど)、又はその両方の組み合せを含み得るロジックの処理により、実行される。1つの実装では、方法400(また本明細書に記載された他の方法)はそうである/1つ以上の要素によって上演される、図1(デバイス・センサ130および/またはを含み、これらに限定されずに、統合されたかまたは接続されたコンピューティングデバイス、本明細書で記載されるように)に関して記載されたおよび/またはを図示した。他のあるimplementationsでは、図4の1つ以上のブロックによって上演することができる。別の機械あるいは機械。さらに、あるimplementationsでは、記載された作用の1つ以上は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって上演することができる。
作用610では、1つ以上の第1の入力が受け取られる。あるimplementationsでは、そのような入力から受けることができる、内で埋め込まれたか、他の方法で車両(例えばセンサ140(本明細書で記載されるように))に関して構成されたセンサ。例えば、そのような入力は、アドバンスト・ドライバ支援システム(ADAS)を構築する、高度なドライバ支援システム(ADAS)あるいはセンサが挙げられる外部システムから始まることができる。
作用620では、1つ以上の第1の入力(例えば、それらは610で受けた)は処理される。そうする際に、第1の物体は識別される。あるimplementationsでは、そのような物体は、車両(例えばユーザー/ドライバが旅行している車両)に関して識別される。等の、参照が付けられた物体の例は挙げられるが、道路標識、道路構造に制限されていない。
作用630では、1つ以上の第2の入力が受け取られる。
作用640では、1つ以上の第2の入力(例えば、それらは630で受けた)は処理される。そうする際に、車両のドライバの注意深さの状態は決定される。あるimplementationsでは、注意深さのそのような状態は、第1の物体(例えば620で識別された物体)に関してユーザー/ドライバの注意深さの状態が挙げられるか反射することができる。さらに、あるimplementationsでは、注意深さの状態は計算することができる、第1の物体(例えば620で識別された物体)および/またはに関してのドライバの熟視の方向に/基づいた、第1の物体がドライバによって認められる1つ以上は条件付ける。あるimplementationsでは、ドライバの注意深さの状態は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
あるimplementationsでは、条件は、例えば、ドライバに関しての第1の物体の位置が挙げられることができる、ドライバ(等の)からの第1の物体の距離、他のimplementationsの中で、「条件」は、可視性レベルのような環境条件が挙げられることができる、第1の物体に関係していた、動かす注意レベル、車両の状態、車両内に出席している乗客の1以上behaviors、等の
あるimplementationsの中で、ドライバに関しての第1の物体の断固とした位置、および/または、ドライバからの第1の物体の距離はADASシステムおよび/またはによって利用することができる、様々な技術、LIDARと突出されるパターンのようなその測定距離。あるimplementationsでは、ドライバに関しての第1の物体の位置は、1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
例えば、「可視性レベル」は決定することができる(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)、雨に関連した使用情報、霧、雪、ダスト、日光、等の第1の物体に関連した発光状態あるimplementationsでは、「動かす注意レベル」は、車両が旅行の道路に関連したロードのような道路関連情報、および車両が旅行の道路に関連した条件に関連した断固とした(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)使用情報でありえる、車両が旅行の道路に関連した発光状態、降る、霧、雪、風、日光、薄明かり時間、他の自動車の動かす挙動、車線変更、車両の回避、道路構造の変動、前例以来生じること、の中で、ドライバは動かした、同じ道路、道路構造の変動、前例以来生じること、の中で、ドライバはドライバの本宛先まで飛ばした、様式、の中で、ドライバは1つ以上のナビゲーション命令に答える、等のドライバ注意レベルを決定するさらなる態様は、注意深さの状態の決定に関して本明細書に記載されている。
車両内の乗客のThe’behavior」ドライバとの乗客の通信が挙げられるか反射する車両中の1人以上の乗客の任意のタイプの挙動に言及する、1との間の通信あるいはより多くの乗客、乗客、シート・ベルトの留め金を外すこと、乗客、デバイスと相互に作用すること、車両に関係していた、車両の背面シートの乗客の挙動、乗客とドライバとの間の非言語的相互作用、物理的な相互作用、ドライバに関係していた、および/または、他のあらゆる挙動はおよび/またはを記載された、本明細書に参考文献として載せた。
あるimplementationsでは、ドライバの注意深さの状態はさらにドライバ(ドライバ(ドライバが係合しうと決心している睡眠の量)の生理学的状態)の精神状態に/基づいて、決定することができる(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)、ドライバを動かす量はそれを係合したとわかる、ドライバに関連した目赤色の1レベル、ドライバに関連した睡眠の断固とした質、ドライバに関連した心拍数、ドライバに関連した温度、等のドライバによって作られた1つ以上の音
作用650では、1つ以上の作用が始められる。あるimplementationsでは、そのような作用は、ドライバ(例えば440で決定されたとともに)の注意深さの状態に/基づいて始めることができる。そのような作用は、以下のように車両または駆動と関係する、変わるパラメーターが挙げられることができる:自動車の明かり(例えば、車両の明るいヘッドライトをつける/、車両の警戒灯または方向指示灯をつける/、車両の速度を落とす/増加させる)の制御。
図7は、ドライバ支援のための、例示的な実施形態によって、方法700を例示するフローチャートである。該方法は、ハードウェア(回路、専用ロジックなど)、ソフトウェア(本明細書に記載されるものなどのコンピューティングデバイス上で実行されるものなど)、又はその両方の組み合せを含み得るロジックの処理により、実行される。1つの実装では、方法700(また本明細書に記載された他の方法)はそうである/1つ以上の要素によって上演される、図1(デバイス・センサ130および/またはを含み、これらに限定されずに、統合されたかまたは接続されたコンピューティングデバイス、本明細書で記載されるように)に関して記載されたおよび/またはを図示した。他のあるimplementationsでは、図7の1つ以上のブロックは別の機械あるいは機械によって上演することができる。さらに、あるimplementationsでは、記載された作用の1つ以上は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって上演することができる。
作用710では、1つ以上の第1の入力が受け取られる。あるimplementationsでは、そのような入力は1つ以上の第1のセンサから受け取ることができる。そのような第1のセンサは、車両(例えばセンサ130(本明細書で記載されるように))内のデータを集めるセンサが挙げられることができる。
作用720では、1つ以上の第1の入力は処理することができる。そうする際に、熟視方向は識別される、例えば、車両のドライバに関して。あるimplementationsでは、熟視方向は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって識別することができる。
作用730では、1つ以上の第2の入力が受け取られる。あるimplementationsでは、そのような入力から受けることができる、車両(例えば、ADASの一部として、センサ140のように、それはADAS 150の一部である、として、図1に示された)の外側でデータを集めるように構成されたセンサのような1つ以上の第2のセンサ。
あるimplementationsでは、ADASは正確に車両の外側で等の物体、ヒトの距離を検出するか、決定する(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)ように構成することができる。そのようなADASシステムは、LIDARおよび突出されるパターンが挙げられる測定距離への様々な技術を利用することができる。あるimplementationsでは、ADASによって計算されたそのような距離測量をさらに確認することは効果的かもしれない。
ADASシステムも識別するように構成することができ検出する、および/またはローカライズ交通標識、歩行者、等の他の障害そのようなデータは、さらにドライバ監視システム(DMS)から始まるデータと提携する場合がある。そうする際に、数える基づいた測定は実行することができる、ために、シーンの詳細を備えた断固としたドライバ意識の関連する態様。
あるimplementationsでは、DMSシステムは設けることができる、熟視方向に関する連続的情報、ヘッド姿勢、目開放、ドライバに等の。さらに、運転の間の注意深さの計算されたレベルは、前向きのADASシステムからの情報を備えた様々な可視詳細にドライバの注意と相関になりえる。推定値は注意の出来事、機械学習あるいは他の手段時間の間を道路キューへの注意の周波数に基づくことができる。
作用740では、1つ以上の第2の入力(例えば、それらは730で受けた)は処理される。そうする際に、1つ以上の物体(例えば道路標識、等の境界標)の位置は決定することができる。あるimplementationsでは、そのような物体の位置は、第2のセンサの少なくとも1つの視野に関して決定することができる。あるimplementationsでは、1つ以上の物体の位置は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
あるimplementationsでは、ADASシステムによって計算された測定は、1つ以上の事前に定義された物体(例えば交通標識)に関して上演されて確認することができる。定義済みの物体は、次の少なくとも1つを反射する基準に関係しているかもしれない:交通標識物体、物体、定義済みのサイズ未満の物理的サイズを持っていること、物体、1つ以上のセンサによって認められるようなそのサイズは定義済みのサイズ未満である、あるいは物体、車両(例えば、物体、それは車両に面している、距離に対する車両からの同じ距離かもしれない、自動車に測定された、次のレーン上で動かすこと、車両からの自動車の正面からの距離に一致することができる、そして)に関しての定義済みの方向付けに位置づけた。車両からの自動車の背面部分およびすべての他の中間のポイント。
あるimplementationsでは、車両に関しての物体の定義済みの方向付けは、車両に面している物体に関することができる。さらに、あるimplementationsでは、ADASシステムによって計算された測定が、事前に定義された物体に関してある場合がある。
あるimplementationsでは、ADASシステムによって計算された測定は、ドライバに関連した断固とした特徴に関してのシステムの信頼度に関して確認することができる。これらの特徴は挙げられることができるが、センサの少なくとも1つに関してのドライバの位置、1つ以上のセンサに関してのドライバの目の位置あるいはドライバ熟視検出から抽出されるような照準線ベクトルに制限されていない。
さらに、あるimplementationsの中で、処理、1つ以上の第2の入力、さらなる、具備する、センサからの物体の距離の計算、ADASシステムに関係していた、また距離測量への統計バリデーションとして計算された距離を使用すること、ADASシステムによって決定された。
作用750では、ドライバ(例えば720で識別されたとともに)の熟視方向は、1つ以上の物体(例えば740で決定されたとともに)の位置と相関になりえる。あるimplementationsでは、ドライバの熟視方向は、第2のセンサの視野に関しての物体の位置と相関になりえる。そうする際に、ドライバが1つ以上の物体を注視しているかどうかは決定されるかもしれない(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)。
さらなるイラストを経由して、あるimplementationsでは、記載されたテクノロジーは注意深さ率を計算するか決定するように構成することができる、例えば、ドライバの。目および/またはの既知の位置を備えたモニタリングされた熟視指示を使用して、例えば、ADASシステムからの出来事を報告した、ドライバが識別された出来事に目を向ける場合、記載されたテクノロジーはインスタンスを検出するか数えることができる。距離(方向および/またはタイプの検出された出来事)は重みにさらにそのような出来事(s)に加えることができる(例えばそれらの重要を反射すること)。そのような結合点は、例えば、行う/行う道路標識、ドライバによる作用を指示しない、歩行者放置、に近い、あるいは道路(路上(等の道路に近い動物動作)の障害)に沿って、あるいはその道路の方へ歩くことあるimplementationsでは、ドライバの注意深さ率は1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
さらに、あるimplementationsでは、記載されたテクノロジーは様々なイン車両基準点/アンカーに関してドライバの注意深さを計算するか決定するように構成することができる。例えば等の接合/回転へ移行するレーンを変更する場合に車両の鏡を注視することに関してのドライバの注意深さあるimplementationsでは、ドライバの注意深さは1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって決定することができる。
作用(760)では、1以上の作用が提示され得る。あるimplementationsでは、そのような作用は、1つ以上の物体(例えば750で決定されたとともに)をドライバが注視しているかどうかに関して測定に基づいて始めることができる。
あるimplementationsでは、作用は、車両に関する物体の位置を等の計算して、車両と1つ以上の物体の間の距離を計算することが挙げられることができる。
さらに、あるimplementationsでは、ADASによって検出された/報告されたもののような様々な出来事の三次元の位置は決定することができる(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)使用/ドライバの断固とした熟視および/または視点に関して。例えば、ADASカメラの位置および断固としたドライバ目の位置に基づいて、検出された障害にカメラを接続するそれぞれの光線の交差、および障害への位置へのドライバの目は計算することができる。
他のimplementationsでは、作用はADASシステムによって計算された測定を確認することが挙げられることができる。
例えば、あるimplementationsでは、検出されたobj ect(例えば車両に関しての)の距離の測定値は決定し(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)、ADASシステムによって計算された測定を確認するために使用されてさらなることができる。
イラストを経由して、ドライバの熟視は決定することができる(例えば運転の間のドライバの姿のベクトル)。あるimplementationsでは、そのような熟視は、例えば、ドライバの目の画像を捕らえるために車両の内部環境の方へ対象とされたセンサを使用して、決定することができる(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)。車両(それはの外側で注視する間に少なくともドライバの視野の一部が挙げられる)の外部環境の方へ対象とされたセンサからのデータは処理することができる/分析することができる(例えば、ニューラル・ネットワークの使用が挙げられるコンピューター/マシン・ビジョンおよび/または機械学習技術を使用して)。そうする際に、物体または物体は検出することができる/識別することができる。そのような物体は、捕捉してもよいか捕捉するべき物体が挙げられることができる、道路標識のようなドライバの注意は目印にする、自動車を移動させるか立てる明かり、等の人々第2のセンサの視野に関しての検出された物体の位置を示すデータは、ドライバが物体を、あるいはその物体の方へ注視しているかどうか判断するためにドライバ熟視方向(例えば照準線ベクトル)と関係するデータと相関になりえる。実装の1つの例で、センサからの幾何学的なデータ、センサの視野、センサに関してのドライバの位置、また照準線ベクトル、として、ドライバ熟視検出から抽出された、それを決定するために使用することができる、ドライバは物体を注視している、識別された、あるいは第2のセンサのデータから検出した。
ドライバが物体を注視していることを決めたこと、第2のセンサ・データに/基づいて、検出された、記載されたテクノロジーは、物体(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによる)の距離をさらに投影するか推定することができる。あるimplementationsでは、そのような予測/推定値は幾何学的な操作を使用して、センサの位置の見える所にデータに基づいて、計算することができる、センサの傾斜と関係するパラメーター、センサの視野、センサに関してのドライバの位置、等のドライバ熟視検出から抽出されるような照準線ベクトル1つの例実装、X、Y、Zの座標の位置でドライバの目の、第2のセンサおよびドライバに関して決定することができる、第2のセンサの視野に関してのドライバの姿のベクトルを決定するために(例えば1つ以上の機械学習技術を利用するニューラル・ネットワークおよび/またはによって)凝視する。
車両(および/または、第2のセンサ)からの物体の距離を抽出する際に利用されたデータは不正確な距離計算のエラーを還元するために利用されて、(例えば様々な統計的手法と一緒に)さらなると格納することができる/主張することができる。例えば、そのようなデータは、ドライバが注視していようと決心している物体の距離測量に関連したADASシステム・データと相関になりえる。実装の1つの例では、ADASシステムのセンサからの物体の距離は計算することができる。また、そのようなデータはADASシステムによって決定されるような距離尺度への統計バリデーションとしてADASシステムによって使用することができる。
さらに、あるimplementationsでは、作用は、設けるような介入作用(s)が挙げられることができる、視覚的な刺激(例えば、回転、上の/から、あるいは車両中の、あるいは車両の外側で光を増加させる)のような1つ以上の刺激、聴覚の刺激、触覚型の(触覚)刺激、嗅覚の刺激、温度刺激、気流刺激(例えばそよ風)、酸素レベル刺激、要件に基づいた情報システムとの相互作用は要求する、あるいは等のドライバの必要
介入作用(s)は促進するかもしれない、短周期(自動車(ドライバに応力パルスを作成すること)の外部の光)の間、別れて、自動車中の明かりを変更する座席位置を変更することが挙げられるドライバを刺激するという様々な作用である、作成、1つの、自動車を打つ強風の方向の音をエミュレートする自動車(あるいは、音をシミュレートして、来ること、の外から)の内部で正常、縮小化/増加、自動車中の音楽、自動車の外側で録音音声と自動車の内部で運転席を変更して、それらを演奏することは位置づける、設けること、ある位置へのドライバの注意を引く、賢い風よけにおける指示、設けること、危険な道路区間/tumの賢い風よけにおける指示。
さらに、あるimplementationsの中で、その作用は、ドライバの注意深さの高さに関連づけることができる、断固とした要求される注意深さレベル、予言された危険(ドライバ(他のドライバ)への、乗客、等の車両)の1レベル、情報、本動かすセッション中の先の作用に関連づけられた、情報、前の動かすセッション中の先の作用に関連づけられた、等の
以下を含み、これらに限定されずに、任意のディジタル素子のような各種機器または成分と協力するおよび/または内で記載されたテクノロジーが実行されるかもしれないことが注目されるべきである:パーソナルコンピュータ(PC)、娯楽装置、セットトップ・ボックス、テレビ(TV)、モバイルゲーム機、携帯電話又はタブレット、電子書籍リーダー、携帯ゲーム機、ラップトップ又はウルトラブックなどのポータブルコンピュータ、オール・イン・ワン、TV、コネクテッドTV、ディスプレイ装置、家電、通信装置、エアコン、ドッキングステーション、、、ゲーム・マシン、デジタルカメラ、時計、対話型の表面、3Dディスプレイ、娯楽装置、スピーカー、賢いホーム・デバイス、IoTデバイス、IoTモジュール、賢いウィンドウ、賢いガラス、賢い光バルブ、キッチン装具、メディア・プレイヤーあるいは無線媒体システム(位置に基づいたデバイス);そしてモバイルのゲーム・マシン、ピコ・プロジェクターあるいは埋込み型プロジェクター(医療機器)、医療用ディスプレイ・デバイス(着用可能なデバイス)、拡張現実感はデバイス、着用可能なゴーグル、仮想現実デバイス、位置に基づいたデバイス、ロボット、社会ロボット、アンドロイド(登録商標)、対話型のデジタル・サイネージ、デジタル・キオスク、ベンディングマシン、自動預金受払機(ATM)、車両、雄バチを可能とした、自律の自動車、自己を動かす自動車、浮動の車両、車内の/イン空気情報娯楽システム、アドバンスト・ドライバ支援システム(ADAS)、占有監視システム(OMS)、任意のタイプのデバイス/システム/センサ、ドライバ支援あるいは動かす安全性に関係していた、任意のタイプのデバイス/システム/センサ、車両に埋め込まれていた、ナビゲーション・システム、および/または、他のあらゆる、そのようなデバイス、それは受けることができる、出力および/または工程データ。
詳細な記載のうちいくつかの部分は、コンピュータメモリ内のデータビットに対する操作のアルゴリズムおよび記号表現に関して表されている。あるimplementationsでは、そのようなアルゴリズムはおよび/またはが挙げられることができる、他の方法でニューラル・ネットワークおよび/または機械学習技術の使用を組込む。これらのアルゴリズム的な記述および表現は、データ処理分野の当業者によって使用される、他の当業者へと仕事の内容を最も有効に伝えるための手段である。アルゴリズムは、本明細書で及び一般に、望ましい結果に結びつく自己矛盾がない一連の工程であると考えられている。これらのステップは、物理量の物理的操作を必要とするものである。通常、必ずしもではないが、これらの量は、保存される、移される、組み合わせられる、比較される、および他に操作されることが可能な電気信号または磁気信号の形態をとる。これらの信号をビット、値、要素、記号、文字、用語、数字などとして参照することが、主に共通使用の理由で、時々好都合であると証明された。
しかしながら、これらの用語および類似の用語は全て、適切な物理量に関連し、これらの量に適用される便利な標識に過ぎないことに留意すべきである。上記の議論から明白であるとして特に別記されない限り、明細書の全体にわたって、「受信する」、「処理する」、「提供する」、「特定する」などの用語を利用する議論は、コンピューターシステムのレジスターおよびメモリ内の物理(例えば、電子)量として表わされるデータを、コンピューターシステムのメモリまたはレジスターの情報記憶装置、送信装置内の物理量として同様に表わされる他のデータへと操作し、変換する、コンピューターシステム、または類似した電子計算装置の動作およびプロセスを指すことが理解される。あるいは他のそのような情報記憶、送信あるいは表示装置。
本開示の態様および実装は、本明細書の動作を実行するための装置にも関する。したがって、コンピューティング装置を起動または構成するためのコンピュータープログラムは、限定されないが、フロッピーディスク、光ディスク、CD−ROM、および光磁気ディスクを含むあらゆるタイプのディスク、読み取り専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、磁気カード、光カード、または電子命令を保存するのにハード適したあらゆるタイプの媒体などの、コンピューター可読記憶媒体に保存され得る。
本開示は、いかなる特定のプログラミング言語にも関連して記載されていない。本明細書に記述される開示の教示を実装するために、様々なプログラミング言語が使用されてもよいことが理解される。
本明細書で使用されるように、句「例えば(for example)」、「など」、「例えば(for instance)、およびそれらの変形は、本明細書に開示された主題のしない実施形態を記載する。本明細書における「1つの場合」、「幾つかの場合」、「他の場合」ま、たはそれらの変形に対する引用は、実施形態に関して記載された特定の特徴、構造または特性が、本明細書に開示された主題の少なくとも1つの実施形態に含まれることを意味する。したがって、句「1つの場合」、「幾つかの場合」、「他の場合」、またはそれらの変形の出現は、必ずしも同じ実施形態を指さない。
明瞭さのために、別の実施形態に関連して本明細書に記載される特定の特徴も、単一の実施形態における組み合わせで提供されてもよい。逆に、単一の実施形態に関連して記載される様々な特徴も、別々に複数の実施形態において又は適切な部分的組み合わせで提供されてもよい。さらに、特徴は特定の組み合わせで、あるいは当初そのようなものとして主張されたように作用するとして上に記載されることもあるが、主張された組み合わせからの1つ以上の特徴は、場合によってはその組み合わせから削除されることが可能であり、主張された組み合わせは、サブコンビネーションあるいはサブコンビネーションの変更形態に向けられることもある。
特定の実施形態が記載されている。他の実施形態は以下の請求項の範囲内にある。
あるimplementationsは、論理、多くの成分、モジュールあるいは機構が挙げられると本明細書に評される。モジュールはソフトウェア・モジュール(例えば、機械可読媒体上で具体化されてコード化する)あるいはハードウェアモジュールのいずれかを引き起こすことができる。「ハードウェアモジュール」はある作用を行なうことができる明確な単位で、ある物理的なやり方で構成されるか、構成することができる。様々な例implementationsでは、1つ以上のコンピュータシステム(例えばスタンド・アロンのコンピュータシステム、クライアントコンピュータシステムあるいはサーバコンピュータシステム)あるいはコンピュータシステム(例えばプロセッサあるいは一群のプロセッサ)の1つ以上のハードウェアモジュールは、ある作用本明細書で記載されるようにを行なうために動作するハードウェアモジュールとしてソフトウェア(例えば適用または塗布部分)によって構成することができる。
あるimplementationsでは、ハードウェアモジュールは機械的に電子的に実行することができる、あるいはそれらの任意の適切な組み合わせ。例えば、ハードウェアモジュールは、ある作用を行なうように恒久的に構成される専用回路あるいは論理が挙げられることができる。例えば、ハードウェアモジュールは、フィールドプログラマブルゲートアレイ(FPGA)あるいは特定用途向けIC(ASIC)のような特別目的プロセッサになりえる。ハードウェアモジュールは、さらにある作用を行なうためにソフトウェアによって一時的に構成されるプログラマブルロジックあるいは回路が挙げられることができる。例えば、ハードウェアモジュールは、メインプロセッサあるいは他のプログラマブルプロセッサによって実行されたソフトウェアが挙げられることができる。一旦そのようなソフトウェアによって構成されたならば、ハードウェアモジュールは、構成された機能を行なうためにユニークに調整された特定の機械(あるいは機械の特定成分)になり、もはやメインプロセッサ・フィートではない、だろう、理解する、ハードウェアモジュールを機械的に、専用で、恒久的に構成された回路、あるいは一時的に構成された回路(例えば、ソフトウェアによって構成された)中で実行する決定は、コストと時間の考察によって駆り立てることができる。
それに応じて、句「ハードウェアモジュール」は明確な実体を包含するために了解されるに違いない、それである、あるやり方で動作するかあるいは本明細書に記載されたある作用を行なうために物理的に構築されるか、恒久的に構成されるか一時的に構成される(例えば、プログラムされた)(例えば、ハードワイヤード)実体。本明細書で使用されるように、「ハードウェアに実行されたモジュール」はハードウェアモジュールを指す。ハードウェアモジュールが一時的に構成される(例えば、プログラムされた)implementationsを考えれば、各々、ハードウェアモジュールの、どんなオンでも構成されないか実証される必要はない、インスタンス、そのうちに。例えば、ハードウェアモジュールが特別目的プロセッサになるためにソフトウェアによって構成されたメインプロセッサを具備するところで、メインプロセッサは異なる時間でそれぞれ様々な特別目的プロセッサ(例えば具備する様々なハードウェアモジュール)として構成することができる。ソフトウェアはそれに応じて例えば、時間の1つのインスタンスで特別のハードウェアモジュールを引き起こし、かつ時間の様々なインスタンスで様々なハードウェアモジュールを引き起こすために特別のプロセッサ(複数可)を構成する。
ハードウェアモジュールは設けることができる、情報、に、また受ける、情報、から、他のハードウェアモジュール。それに応じて、記載されたハードウェアモジュールは通信で結合されると見なすことができる。倍数ハードウェアモジュールが同時に存在するところで、通信はハードウェアモジュールの2つ以上の間を、あるいはその2つの中に信号送信(例えば適切な回路およびバス上の)を通じて達成することができる。倍数ハードウェアモジュールが異なる時間で構成されるか実証されるimplementationsでは、そのようなハードウェアモジュール間の通信は、複数のハードウェアモジュールがアクセスするメモリ構造の中の情報の保存と検索を通って、例えば達成することができる。例えば、1つのハードウェアモジュールは作用を行ない、それが通信でつながれるメモリ素子にその作用の出力を保存することができる。その後、さらなるハードウェアモジュールは、後で、保存された出力を検索し処理するためにメモリ素子にアクセスすることができる。ハードウェアモジュールは、さらに入力または出力デバイスとの通信を始めることができ、リソース(例えば情報のコレクション)上で動作することができる。
本明細書に記載された例方法の各種業務は、関連する作用を行なうために一時的に構成されるか恒久的に構成される(例えばソフトウェアによって)1つ以上のプロセッサによって少なくとも部分的に行なうことができる。かどうか、あるいは一時的に恒久的に構成された、そのようなプロセッサは、本明細書に記載された1つ以上の作用あるいは機能を行なうために動作する、プロセッサに実行されたモジュールを引き起こすことができる。本明細書で使用されるように、」プロセッサに実行されたモジュール」1つ以上のプロセッサを使用して実行されたハードウェアモジュールを参照する。
同様に、本明細書に記載された方法は、ハードウェアの例である特別のプロセッサまたはプロセッサと共に、少なくとも部分的にプロセッサ実現することができる。例えば、少なくとも方法の作用のうちのいくつかは1つ以上のプロセッサあるいはプロセッサに実行されたモジュールによって行なうことができる。さらに、1つ以上のプロセッサはさらに「クラウド・コンピューティング」環境中で、あるいは「サービスとしてのソフトウェア」(SaaS)として関連する作用の性能を支持するために動作することができる。例えば、少なくとも作用のうちのいくつかはネットワーク(例えばインターネット)、および1つ以上の適切なインターフェース(例えばAPI)によって入手可能なこれらの作用と共に一群のコンピューター(プロセッサが挙げられる機械の例としての)によって行なうことができる。
若干数の作用の性能はプロセッサ中に分布することができる、単一の機械内に駐在するだけではなく、しかし多くの機械を横切って展開した。ある例implementationsでは、プロセッサあるいはプロセッサに実行されたモジュールは、一つの地理的な位置(例えば家庭環境、オフィス環境あるいはサーバ・ファーム内の)に位置することができる。他の例implementationsでは、プロセッサあるいはプロセッサに実行されたモジュールは多くの地理的な位置を横切って分布することができる。
モジュール、方法、適用など、伴う図と共に記載された、機械および関連するソフトウェア・アーキテクチャのコンテキスト中のあるimplementationsの中で実行される。下記の部分は、開示されたimplementationsの用途に適している、代表的なソフトウェア・アーキテクチャと機械(例えばハードウェア)アーキテクチャを記載されている。
特別の目的に適合したデバイスと機械を作成するために、ソフトウェア・アーキテクチャはハードウェアアーキテクチャと共に使用される。例えば、特別のソフトウェア・アーキテクチャと結び付けられた特別のハードウェアアーキテクチャは、携帯電話(錠剤デバイス)のような、モバイルデバイスを作成するだろう、程度、前へ。わずかに様々なハードウェアおよびソフトウェア・アーキテクチャは、「事態のインターネット」で使用されるスマートなデバイスを産出することができる。その一方でしかし、別の組み合わせは、クラウド・コンピューティング・アーキテクチャ内の使用用のサーバーコンピュータを生成している。芸術のスキルのものが本明細書に含まれていた開示とは異なったコンテキスト中の創造性のある主題を実行する方法を容易に理解する場合があるので、そのようなソフトウェアおよびハードウェアアーキテクチャのすべての組み合わせはここで提示されるとは限らない。
図8は、ある例implementations(機械可読媒体(例えば、―判読可能な機械、記憶媒体)からの読取り命令に有能)によって、機械800の成分を例示するブロック図である、また本明細書に議論された方法のうちのいずれか1つ以上を行なう。具体的には、図8は、コンピュータシステム(機械800に本明細書に議論された方法のうちのいずれか1つ以上を行なわせるための命令816(例えばソフトウェア、プログラム、適用、アプレット、appあるいは他の実行可能コード)は、それ内で実行することができる)の例形態で機械800の図式表示を示す。命令816は一般的でプログラムされなかった機械を実行するようにプログラムされた特別の機械に転換する、様式の記載されて例示された機能は記述した。代替のimplementationsでは、機械800はスタンド・アロンのデバイスとして動作するか、あるいは他の機械につなぐことができる(例えば、ネットワーク化された)。ネットワーク化された配置では、機械800は、サーバー・クライアントネットワーク環境中の、あるいはピア・ツー・ピア(あるいは分布した)ネットワーク環境中の仲間機械としてのサーバーマシンあるいはクライアント・マシンの容量中で動作することができる。機械800は具備することができるが、制限することができない、サーバーコンピュータ、クライアントコンピュータ、PC、タブレットコンピュータ、ラップトップ・コンピューター、ネットブック、セットトップ・ボックス(STB)、携帯情報端末(PDA)、娯楽伝達機関システム、携帯電話、スマートフォン、モバイルデバイス、ウェアラブルのデバイス(例えばスマートな時計)、スマートなホーム・デバイス(例えば、)スマートなアプライアンス、他のスマートなデバイス、ウェブ・アプライアンス、ネットワーク・ルーター、ネットワークスイッチ、ネットワークブリッジ、あるいは命令816を実行することができる任意の機械、連続して、あるいは、他の方法で、それは、機械800によって講じられる処置を指定する。さらに、1つの機械800だけが図示されているが、用語「機械」は、本明細書で議論されるやり方の任意の1つ以上を行うために、命令816のを個々にまたは共同で実行する機械800の集団も含めるものと解釈されることになる。
機械800はプロセッサ810、記憶/保存830とI/O成分850が挙げられることができる。それはバス802によってのように互いと通信するように構成することができる。一実施例では、実装、プロセッサ810(例えば中央処理装置(CPU)、還元された命令セット演算(RISC)プロセッサ、複合体命令セット演算(CISC)プロセッサ、グラフィック処理装置(GPU)、デジタルシグナルプロセッサー(DSP)、ASIC、無線周波数集積回路(RFIC)、別のプロセッサあるいはそれらの任意の適切な組み合わせ)は、例えば、命令816を実行することができるプロセッサ812およびプロセッサ814が挙げられることができる。項「プロセッサ」は、命令を同時に実行することができる2つ以上の独立プロセッサ(時々「芯」と呼ばれた)を具備することができる、マルチコア・プロセッサが挙げられるように意図される。図8は倍数プロセッサ810を示すが、機械800は単心を備えたシングル・プロセッサ、倍数芯(例えばマルチコア・プロセッサ)を備えたシングル・プロセッサ、単心を備えた倍数プロセッサ、倍数芯を備えた倍数プロセッサあるいは任意のそれらの組み合わせが挙げられることができる。
記憶/保存830は、メインメモリのような記憶832、あるいは他のメモリー、ならびに記憶装置836が挙げられることができる、両方、バス802によってのようにプロセッサ810に入手可能。記憶装置836および記憶832は、本明細書に記載された方法または機能のうちのいずれか1つ以上を具体化する命令816を保存する。命令816は、さらに機械800によってそれらの実行の間に、プロセッサ810(例えばプロセッサのキャッシュメモリー内の)の少なくとも1つ、あるいはそれらの任意の適切な組み合わせ内で、記憶装置836内に、記憶832内に、完全にあるいは部分的に存在することができる。それに応じて、記憶832、記憶装置836とプロセッサ810の記憶は、機械可読媒体の例である。
本明細書で使用されるように、」機械可読媒体」ストア命令(例えば命令816)およびデータに有能なデバイスを一時的にあるいは恒久的に意味し、挙げられることができるが、制限されない、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、バッファーメモリ、フラッシュ・メモリー、光学的な無線媒体、磁気媒体、キャッシュメモリー、他のタイプの保存(例えば消去可能PROM(EEPROM))、および/または、それらの任意の適切な組み合わせ。項「機械可読媒体」は命令816を保存することができる単一の培地または、倍数無線媒体(例えば集中型または分散型データベース、あるいは関連するキャッシュとサーバー)が挙げられるために得られるべきである。項」機械可読媒体」さらにどんな培地も挙げられるために得られるものとする、あるいは倍数無線媒体の組み合わせ、それは、機械(例えば機械800)による実行のための貯蔵命令(例えば命令816)ができる、そのようなもの、命令、機械(例えばプロセッサ810)の1つ以上のプロセッサによって実行された時、機械に方法のうちのいずれか1つ以上を行なわせる、本明細書に記載された。それに応じて、「機械可読媒体」は「雲ベースの」ストレージシステム、あるいは倍数記憶装置あるいはデバイスが挙げられるストレージネットワークと同様に単一の記憶装置またはデバイスも指す。項「機械可読媒体」は信号をそれ自体で除外する。
I/O成分850は、受けるために種々様々の成分が挙げられることができる、入力、設ける、出力、出力、送信情報、交換機情報、取り込み測定値などを生成する。特別の機械に挙げられられている特定のI/O成分850は、機械のタイプに依存するだろう。例えば、携帯電話のような携帯機は恐らくタッチ入力装置あるいは他のそのような入力機構が挙げられるだろう。一方、無知なサーバーマシンは恐らくそのようなタッチ入力装置が挙げられないだろう。ことが理解されよう、I/O成分850は、図8に示されない他の多くの成分が挙げられることができる。I/O成分850は単に以下の説明を単純化するための機能性によってグループ化される。また、グルーピングは全く制限ではない。様々な例implementationsでは、I/O成分850は出力構成要素852および入力成分854が挙げられることができる。出力構成要素852は視覚的な成分(例えばプラズマディスプレーパネル(PDP)、発光ダイオード(LED)ディスプレイ、液晶ディスプレイ(LCD)、プロジェクターあるいは陰極線管(CRT)のようなディスプレイ)、音響部品(例えばスピーカー)、触覚型の成分(例えば震動性のモーター、抵抗機構)、他の信号発生器などが挙げられることができる。入力成分854は文字数字入力成分(例えばキーボード、受けるように構成されたタッチ・スクリーン、文字数字入力、写真光学的なキーボードあるいは他の文字数字入力成分)、およびポイント・ベースの入力成分(例えばマウス、タッチパッド、トラックボール、ジョイスティック、運動センサあるいは別の指す機器)(触覚の入力成分(例えば物理的なボタン、設けるタッチ・スクリーン、タッチあるいはタッチ身振りの位置および/または力))が挙げられることができる。あるいは他の触覚の入力成分、音声入力成分など(例えばマイクロフォン)。
さらなる例implementationsでは、I/O成分850は多くの他の成分中に、生物測定の成分856、運動成分858、環境上の成分860あるいは位置成分862が挙げられる任意のタイプの1つ以上のセンサが挙げられることができる。例えば、生物測定の成分856は、発現(例えば手発現、顔の表情、音声の発現、本体身振りあるいは目トラッキング)を検出するために成分が挙げられることができる、測定バイオ信号(例えば血圧、心拍数、体温、汗あるいは脳波、フェロモン)は、人など(例えばボイス識別、網膜の識別、顔の識別、指紋認識あるいは脳波図ベースの識別)を識別する。別の例において、生物測定の成分856は、フェロモン(生理学のおよび/または精神的ストレスを反射する生化学の信号を検出する成分)のようなヒトの生化学の信号を検出するために成分が挙げられることができる。運動成分858は加速度センサ成分(例えば加速度計)、重力センサ成分、回転センサ成分など(例えばジャイロスコープ)が挙げられることができる。環境上の成分860は例えば、照射センサ成分(例えば測光器)、および温度センサ成分(例えば周囲温度を検出する1つ以上の温度計)、湿度センサ成分、圧力検出器成分(例えばバロメーター)、音響センサ成分(例えば暗騒音を検出する1つ以上のマイクロフォン)、近接センサ成分(例えば近くの物体を検出する赤外線センサ)、ガスセンサ(例えば、)が挙げられることができる。安全性用、あるいは大気中の測定汚染物質への有害ガスの濃度を検出する、ガス検知センサ、あるいは設けることができる他の成分、周囲の物理的環境に対応する指示、測定値あるいは信号。位置成分862は位置センサ成分(例えば広域の位置方式(GPS)受信器成分)、高度センサ成分(例えば高度が由来する場合がある気圧を検出する高度計あるいはバロメーター)、方向付けセンサ成分など(例えば磁力計)が挙げられることができる。
通信は種々様々のテクノロジーを使用して実行することができる。I/O成分850はネットワーク880あるいは(結合する、1つの)882によるデバイス870への機械800および(結合する、1つの)872を結合するのに操作可能なコミュニケーション構成要因864がそれぞれ挙げられることができる。例えば、コミュニケーション構成要因864は網インタフェース成分あるいはネットワーク880と接続するべき他の適切なデバイスが挙げられることができる。lurther例において、コミュニケーション構成要因864は、他のmodalitiesによって通信を提供するためにワイヤード・コミュニケーション構成要因、無線通信成分、移動体通信成分、短距離無線通信(NFC)成分、BluetoothR成分(例えばBluetoothR低いエネルギー)、Wi−FiR成分と他のコミュニケーション構成要因が挙げられることができる。デバイス870は、別の機械あるいは種々様々の周辺機器(例えばUSBによってつながれた周辺機器)のいずれかになりえる。
さらに、コミュニケーション構成要因864は識別子を検出するか、あるいは識別子を検出するのに操作可能な成分が挙げられることができる。例えば、コミュニケーション構成要因864は無線周波数識別(RFID)タグ読取鑽孔機成分およびNFCのスマートなタグ検出成分(光学式文字読取装置成分(例えば符号超、統一商品コード(UPC)バーコード、迅速対応(QR)符号、アステカの符号、データ行列、Dataglyph、MaxiCode、PDF417のような多次元のバーコードのような一次元のバーコードを検出する光センサおよびUCC RSS−2Dバーコード))が挙げられることができる。また他の光符号、あるいは音響の検出成分(例えば札を付けられた可聴信号を識別するマイクロフォン)。加えて、各種情報は、インターネット・プロトコル(IP)地理的位置特定による位置、Wi−FiR信号三角測量による位置、特別の位置を示すことができるNFC無線標識信号の検出による位置などのようなコミュニケーション構成要因864によって引き出すことができる。
様々な例implementationsの中で、ネットワーク880の1つ以上の一部がアドホックネットワークになりえる、イントラネット、extranet、仮想プライベート・ネットワーク(VPN)、ローカルエリアネットワーク(LAN)、無線LAN(WLAN)、WAN、無線WAN(WWAN)、都市内ネットワーク(MAN)、インターネット、インターネットの一部、公衆スイッチ電話ネットワーク(PSTN)の一部、平易な古い電話サービス(POTS)ネットワーク、携帯電話ネットワーク、無線ネットワーク、Wi−FiRネットワーク、別のタイプのネットワークあるいは2つ以上のそのようなものの組み合わせはネットワーキングする。例えば、ネットワーク880あるいはネットワーク880の一部はワイヤレスまたはセルラー・ネットワークが挙げられることができる。また、結合する882は、符号分割多重アクセス方式(CDMA)接続、移動通信(GSM)接続用の広域のシステムあるいは別のタイプの細胞か無線カップリングでありえる。この例において、結合する882は、単一のキャリア電波送信テクノロジー(lxRTT)のようなデータ転送テクノロジーの様々なタイプのうちの何かおよび発展データ最適化された(EVDO)テクノロジーを実行することができる、一般的なパケット無線サービス(GPRS)テクノロジー、GSM発展(EDGE)テクノロジー用の向上させられたデータ率、3Gが挙げられる第3世代パートナーシップ・プロジェクト(3GPP)、第四世代ワイヤレス(4G)ネットワーク、一般的な移動体通信システム(UMTS)、高速パケット・アクセス(HSPA)、マイクロ波アクセス(WiMAX)用の世界的なインタオペラビリティ、長期発展(LTE)基準、他のもの、様々な標準のセットする構成、他の長い範囲プロトコルあるいは他のデータ転送テクノロジーによって画定された。
命令816は、ネットワークインターフェース装置(例えば網インタフェース成分はコミュニケーション構成要因864に挙げられられていた)によって送信媒体を使用し、多くの有名な転送プロトコル(例えばHTTP)のうちのいずれか1つを利用して、ネットワーク880を通して送信するか受け取ることができる。同様に、命令816は、デバイス870への結合する872(例えばピア・ツー・ピア・カップリング)によって送信媒体を使用して、送信するか受け取ることができる。項「送信媒体」は貯蔵、符号化あるいは機械800による実行用の命令816の搬送ができて、デジタルまたはアナログ通信の信号が挙げられる、あらゆる無形の培地あるいはそのようなソフトウェアの通信を促進する他の無形の無線媒体が挙げられるために得られるものとする。
次の節および/または例はさらなる実施形態あるいは例に関係する。例における詳細は、1つ以上の実施形態のいかなる場所にも使用されてもよい。様々な実施形態あるいは例の様々な特徴は、種々に挙げられられたいくつかの特徴と結合するかもしれない。また、他のものは様々な様々な適用に適するために除外した。例は、方法のような主題が挙げられるかもしれない、方法の行為を行なうための手段、少なくとも1つの機械可読媒体、命令が挙げられること、機械によって行なわれた時、機械に方法の行為を行なわせる、あるいは実施形態と例による文脈のドライバ監視用の装置あるいはシステムの、本明細書に記載された。
1。システムであって、該システムは:処理デバイスは、また、処理装置によって実行された時、システムに次のものを具備する作用を行なわせる処理装置と貯蔵命令につながれた記憶:1つ以上の第1の入力を受け取ること;ドライバの状態を決定する、1つ以上の第1の入力が、車両内に提示する処理;1秒以上受けることは入力する;処理、車両に関連した1つ以上のナビゲーション条件を決定する、1つ以上の第2の入力、次の少なくとも1つを具備する1つ以上のナビゲーション条件:雲リソースあるいはドライバの挙動から受け取られた一時的な道路条件;1つ以上のナビゲーション条件に基づいて、計算すること、ドライバ注意深さ閾値;また(A)で相関中の1つ以上の作用を始めること、ドライバと(B)の状態、ドライバ注意深さ閾値。
例1のシステム、そこで、1つ以上のナビゲーション条件を決定する1つあるいはより多くの第2の入力が具備する処理、処理、ニューラル・ネットワークによる1つ以上の第2の入力。
ドライバの状態を決定するために1つ以上の第1の入力を処理することが、ニューラル・ネットワークによって1つ以上の第1の入力を処理することを具備する例1のシステム。
例1(そこではドライバの挙動は次の少なくとも1つを具備する)のシステム:出来事、車両内に生じること、車両内の乗客に関してのドライバの注意、1つ以上の発生、車両内の1人以上の乗客によって始められた、1つ以上の出来事、車両内に存在するデバイスに関して生じること車両内に存在するデバイスで受け取られた1つ以上の届出;車両内に存在するデバイスへのドライバの注意の変化を反射する1つ以上の出来事。
例1(そこではさらなる一時的な道路条件は次の少なくとも1つを具備する)のシステム:車両が旅行の道路経路、車両が旅行の路上の1本以上の曲線の存在あるいは車両が旅行の間、ドライバの光景を妨害する位置の物体の存在。
例5(そこでは物体は次の少なくとも1つを具備する)のシステム:山、建築物、車両あるいは歩行者。
例5(そこでは車両が旅行の道路の一部に関して物体の存在はドライバの光景を妨害する)のシステム。
例5(そこでは物体の存在は次の少なくとも1つを具備する)のシステム:位置の物体の存在、それは、道路に関してのドライバの光景を妨害する、上の、車両はそうである、旅行、位置の物体の存在、それは、1つ以上の車両に関してのドライバの光景を妨害する、道路で示す、上の、車両はそうである、旅行、位置の物体の存在、それは出来事に関してのドライバの光景を妨害する、道路に生じること、上の、車両はそうである、旅行、あるいは車両が旅行の道路に隣接する1人以上の歩行者の存在に関してのドライバの光景を妨害する位置の物体の存在。
例1(そこではドライバ注意深さ閾値の計算は次の少なくとも1つを計算することを具備する)のシステム:突出される時間はドライバまでに道路の車両と同じ側に存在する別の車両を見ることができる。あるいは、突出される時間はドライバまで道路の対向する側で存在する別の車両を車両と見なすことができる。あるいは、別の車両の存在を説明するために、断固とした見積時間は、ドライバまで車両の速度を調節することができる。
例1のシステム、そこではさらなる一時的な道路条件は、後発事象(事故を具備する後発事象)に先立って車両の本位置に関して以前に生じた1つ以上の出来事と関係する統計学を具備する。
例10(そこでは旅行するために車両が投影される道路の1つ以上の部分に生じた1つ以上の出来事に統計学は関する)のシステム。
例10のシステム、そこで、1つ以上の出来事、次の少なくとも1つを具備する。1つ以上の天候状況、1つ以上のトラフィック状況、路上の呼量、速度、で、1つ以上の車両が、道路に関連した速度限界に関しての後発事象旅行で含んでいた、あるいは後発事象に先立った損傷を引き起こすであろう物質の消費。
例1(そこでは1つあるいはより多くの第1の入力が以前に決定された1以上州を識別して具備する処理は、車両のドライバと会合した)のシステム。
例1(そこでは1つあるいはより多くの第1の入力が以前に決定された1以上州を識別して具備する処理は、本動かす区間中に車両のドライバと会合した)のシステム。
例1(そこではドライバの状態は次の1つ以上を具備する)のシステム:ドライバのヘッド・モーション、ドライバの目の1つ以上の特徴、ドライバの精神状態あるいはドライバの感情の状態。
例1のシステム、そこで、さらなる車両に関連した1つ以上のナビゲーション条件、次の1つ以上を具備する。車両が移動する道路の条件、車両に隣接する環境条件あるいは車両に隣接する1つ以上の他の車両の存在。
例1のシステム、1つ以上の第2の入力は、どこで受けられるか、車両内に埋め込まれた1つ以上のセンサ。
例1のシステム、1つ以上の第2の入力は、どこで受けられるか、アドバンスト・ドライバ支援システム(ADAS)。
例1(そこではドライバ注意深さ閾値の計算はドライバ注意深さ閾値を調節することを具備する)のシステム。
例1(そこでは1つ以上の第1の入力の処理は車両へのエントリーに先立ってドライバの状態を決定するために1つ以上の第1の入力を処理することを具備する)のシステム。
例1のシステム、そこで、1つあるいはより多くの第1の入力が具備する処理、処理、車両へのエントリーの後にドライバの状態を決定する、1つ以上の第1の入力。
例1(そこではさらなるドライバの状態は次の1つ以上を具備する)のシステム:車両内に存在する環境条件、あるいは環境条件は車両の外側で示す。
例1(そこではさらなるドライバの状態は次の1つ以上を具備する)のシステム:ドライバを持った乗客の通信、1人以上の乗客間の通信、乗客、シート・ベルトの留め金を外すこと、乗客、デバイスと相互に作用すること、車両に関係していた、車両内の1人以上の乗客の挙動、非言語的相互作用、乗客によって始められた、あるいは物理的な相互作用、ドライバの方へ対象とされた。
例1(そこではドライバ注意深さ閾値はドライバに関連した断固とした注意深さレベルを具備する)のシステム。
例24(そこではさらなるドライバ注意深さ閾値は1つ以上の他のドライバに関連した断固とした注意深さレベルを具備する)のシステム。
例26はシステム具備が挙げられる:
処理装置;および、
処理装置によって実行された時、システムに次のものを具備する作用を行なわせる処理装置と貯蔵命令につながれた記憶:
1つ以上の第1の入力を受け取ること;
車両に関しての第1の物体を識別するために1つ以上の第1の入力を処理すること;
1秒以上受けることは入力する;
第1の物体(第1の物体に関しての車両のドライバの注意深さの状態)に、1つ以上の物体に関しての車両のドライバに関連した注意深さの以前に決定された1以上州に基づいて決定する、1つ以上の第2の入力が関連させた処理;および、
ドライバの注意深さの状態に基づいた1つ以上の作用を始めること。
例26(そこでは第1の物体は次の少なくとも1つを具備する)のシステム:道路標識または道路構造。
例26(そこでは本動かす区間内の先のインスタンスに関して注意深さの以前に決定された1以上州は決定される)のシステム。
例26(そこでは1つ以上の先の駆動間隔内の先のインスタンスに関して注意深さの以前に決定された1以上州は決定される)のシステム。
例26のシステム、そこでは1つあるいは車両のドライバに関連した注意深さの以前に決定された状態は、第1の物体に関連した1つ以上の物体に関しての車両のドライバに関連した注意深さの以前に決定された1以上州によって反射された原動力を具備する。
例30(そこでは注意深さの以前に決定された1以上州によって反射された原動力は、次の少なくとも1つを具備する)のシステム:周波数、で、ドライバは注視する、第1の物体、周波数、で、ドライバは注視する、第二目的語、1つ以上の状況、の下で、ドライバは注視する、1つ以上の物体、1つ以上の状況、の下で、ドライバは注視しない、1つ以上の物体、1つ以上の環境条件。
例26のシステム、そこでは1つあるいは車両のドライバに関連した注意深さの以前に決定された状態は、第1の物体に関連した1つ以上の物体に関しての車両のドライバに関連した注意深さの以前に決定された1以上州によって反射された原動力の統計モデルを具備する。
例26のシステム、そこで、1つあるいはより多くの第2の入力が具備する処理、処理、第1の物体に関して車両のドライバの注意深さの状態を決定するために、第二目的語を車両のドライバが注視する周波数。
例26(そこでは注意深さの現在状況を決定するために、1秒以上が入力する処理は、次のものを具備する:)のシステム:(a)注意深さの以前に決定された1以上州を関連させることは、(b)1つ以上の第2の入力を備えた、車両および第1の物体のドライバと会合した。
例26、30、あるいは32のうちのいずれか1つのシステム、第1の入力の処理の少なくとも1つ、第2の入力の処理、計算するドライバ注意深さ閾値、計算、ダイナミック、注意深さの以前に決定された1以上州によって反射された、車両および第1の物体のドライバに関係していた、あるいは第二目的語、注意深さの以前に決定された1以上州を関連させること、車両および第1の物体のドライバに関係していた、あるいは第二目的語はニューラル・ネットワークによって行なわれる。
例26(そこではドライバの注意深さの状態は次の少なくとも1つとの相関中でさらに決定される)のシステム:ドライバが第1の物体を注視する周波数、ドライバが第二目的語を注視する周波数、1つ以上の運転パターン、1あるいはもっと動かすpaternsは、ナビゲーション命令、1つ以上の環境条件あるいは1つの時刻に関してのドライバと会合した。
例26(そこではドライバの注意深さの状態は次の少なくとも1つに基づいて、さらに決定される)のシステム:旅慣れた道路、旅慣れた道路を旅行する周波数あるいは旅慣れた道路を旅行する前例以来の経過時間に関しての親しさの程度。
例26(そこではドライバの注意深さの状態は次の少なくとも1つに基づいて、さらに決定される)のシステム:ドライバの精神状態、ドライバの生理学的状態、睡眠の量、ドライバは係合したために決定される、の中で、ドライバを動かす量は係合したために決定される、の中で、あるいは目赤色の1レベル、ドライバに関係していた。
例26のシステム、そこではドライバの注意深さの状態は第1の物体へのドライバの熟視の変更に関連した情報に基づいて、さらに決定される。
例39のシステム、ドライバの注意深さの状態はどこでさらに決定されるか、時間持続時間に関連した情報に基づいた、どれに、ドライバ変更、第1の物体への彼の熟視。
例39のシステム、そこではドライバの注意深さの状態は第1の物体へのドライバの熟視の変更と関係する運動特徴に関連した情報に基づいて、さらに決定される。
例26(そこでは1秒以上が入力する処理は次のものを具備する:)のシステム:処理(a)、車両のドライバの注意深さの現在状況を決定するために(b)第1の物体への彼の熟視を変えるドライバの本インスタンスに関連した、1つ以上の抽出された特徴に関しての第1の物体に関連した1つ以上の物体へのドライバの熟視の変更に関連した、1つ以上の抽出された特徴。
例43はシステム具備が挙げられる:
処理デバイスは、および、
処理装置によって実行された時、システムに次のものを具備する作用を行なわせる処理装置と貯蔵命令につながれた記憶:
1つ以上の第1の入力を受け取ること;
車両に関しての第1の物体を識別するために1つ以上の第1の入力を処理すること;
1秒以上受けることは入力する;
処理、第1の物体に関しての車両のドライバの注意深さの状態を決定する、1つ以上の第2の入力、(a)第1の物体に関してのドライバの熟視の方向および(b)1つ以上の条件に基づいた、の下で、第1の物体は認められる、ドライバ;および、
ドライバの注意深さの状態に基づいた1つ以上の作用を始めること。
例43のシステム、そこで、1つ以上の条件、次の少なくとも1つを具備する。位置、ドライバあるいはドライバからの第1の物体の距離に関しての第1の物体。
例43のシステム、そこで、1つ以上のさらなる条件、次の少なくとも1つが挙げられる1つ以上の環境条件を具備する。可視性レベルは、第1の物体、動かす注意レベル、車両の状態あるいは車両内に出席している乗客の1人以上の挙動と会合した。
例45(そこでは可視性レベルは次の少なくとも1つに関連した断固とした使用情報である)のシステム:雨、フォグ、降ること、ダスト、日光、第1の物体に関連した発光状態。
例45(そこでは動かす注意レベルは少なくとも次の少なくとも1つを具備する道路関連情報に関連した断固とした使用情報である)のシステム:車両が旅行の道路に関連したロード、車両が旅行の道路に関連した条件、車両が旅行の道路、およびドライバの視覚を妨害する様式、ドライバが同じ道路を動かした前例以来生じる道路構造の変動、、ドライバがドライバの本宛先へ動かした前例以来生じる道路構造の変動において輝く日光に関連した発光状態、ドライバが1つ以上のナビゲーション命令に応答する様式。
例45(そこでは車両内の1人以上の乗客の挙動は次の少なくとも1つを具備する)のシステム:ドライバとの乗客の通信、1人以上の乗客間の通信、シート・ベルトの留め金を外す乗客、車両に関連したデバイスと相互に作用する乗客、車両の背面シートの乗客の挙動、乗客とドライバとの間の非言語的相互作用、ドライバに関連した物理的な相互作用。
例43(そこでは第1の物体は次の少なくとも1つを具備する)のシステム:道路標識または道路構造。
例43(そこではドライバの注意深さの状態は次の少なくとも1つに基づいて、さらに決定される)のシステム:ドライバの精神状態、ドライバの生理学的状態、睡眠の量、ドライバは係合したために決定される、の中で、ドライバを動かす量はそれを係合したために決定される、目赤色の1レベル、ドライバに関係していた、睡眠の断固とした質、ドライバに関係していた、心拍数、ドライバに関係していた、温度、ドライバに関係していた、あるいは1つ以上の音、ドライバによって作られた。
例50(そこではドライバの生理学的状態は次の少なくとも1つを具備する)のシステム:夜のドライバ、ドライバが眠った時間、ドライバが1つ以上を動かしている時の量あるいは画定された時限中にもっと動かすことの数あるいはドライバはカレントドライブの時間期間を駆り立てるためにどれくらい頻繁に使用されるかの睡眠の断固とした質。
例51(そこでは次の少なくとも1つから受け取られたデータから抽出された情報とドライバの生理学的状態は相関である)のシステム:ドライバの画像センサの捕捉する画像、あるいはデータが挙げられる、生理学に関連する測定データが次の少なくとも1つに関連づけた1つ以上のセンサ:ドライバの目、ドライバのまぶた、ドライバの瞳孔、ドライバの目赤色の標準液面に対するドライバの赤色レベルを注視する、ドライバの目のまわりの筋肉応力、ドライバのヘッドの運動、ドライバのヘッドにポーズする、凝視する、ドライバの方向パターン、あるいはドライバの車体姿勢。
例43(そこではドライバの精神状態はドライバ応力を具備する)のシステム。
例53(そこではドライバ応力は次の少なくとも1つに基づいて計算される)のシステム:抽出された生理学はデータを関連づけた、データ、ドライバ挙動に関連づけられた、データ、出来事に関連づけられた、ドライバは係合された、の中で、本動かす区間中に、データ、出来事に関連づけられた、ドライバは係合された、の中で、本動かす区間に先立って、データ、通信に関係していた、本動かす区間の前のドライバに関連づけられた、あるいはデータ、通信に関係していた、ドライバに関連づけられた、の前に、あるいは本動かす区間中に。
例54(そこでは通信に関連したデータはショッキングな出来事を具備する)のシステム。
例53(そこではドライバ応力は次の少なくとも1つからの抽出された使用データである)のシステム:ユーザー応力レベルを抽出する雲、1つ以上のデバイス、外部サービスあるいは適用。
例50(そこではドライバの生理学的状態はドライバに関連した病気の1レベルに基づいて計算される)のシステム。
例57(そこでは病気のレベルは次の1つ以上に基づいて決定される)のシステム:データは、1つ以上のセンサからドライバ温度、ドライバ(ドライバに関して咳をする検出)によって生成された音が挙げられる、測定生理学に関連するそのデータを抽出した。
例57(そこでは病気のレベルは次の少なくとも1つから始まる断固とした使用データである)のシステム:1つ以上のセンサ、雲、1つ以上のデバイス、1つ以上の外部サービスあるいは1つ以上の適用(それはユーザー応力レベルを抽出する)。
例43(そこでは1つ以上の作用がニューラル・ネットワークによって行なわれる)のシステム。
例61はシステム具備が挙げられる:
処理デバイスは、および、
処理装置によって実行された時、システムに次のものを具備する作用を行なわせる処理装置と貯蔵命令につながれた記憶:
車両内のデータを集める1つ以上の第1のセンサから1つ以上の第1の入力を受け取ること;
車両のドライバの熟視方向を識別するために1つ以上の第1の入力を処理すること;
車両の外側でデータを集める1つ以上の第2のセンサから1つ以上の第2の入力を受け取ること;
処理、第2のセンサの少なくとも1つの視野に関しての1つ以上の物体の位置を決定する、1つ以上の第2の入力;
ドライバの熟視方向を1つ以上の物体の少なくとも1つをドライバが注視しているかどうか判断する、第2のセンサの少なくとも1つの視野に関しての1つ以上の物体の位置と関連させること;および、
測定に基づいた1つ以上の作用を始めること。
例61(そこでは1つ以上の作用を始めることは車両と1つ以上の物体の間の距離を計算することを具備する)のシステム。
例62(そこでは距離の計算は次の少なくとも1つを使用する車両と1つ以上の物体の間の距離の推定値を計算することを具備する)のシステム:幾何学的な操作、それは、第1のセンサあるいは第2のセンサの少なくとも1つの位置を説明する、1つ以上のパラメーター、センサの少なくとも1つの傾斜に関連づけられた、センサの少なくとも1つの視野、センサの少なくとも1つに関してのドライバの位置、あるいは照準線ベクトル、として、ドライバ熟視検出から抽出された。
例62(そこではさらなる距離の計算は距離の計算に関連したエラーを還元する、統計工具を使用することを具備する)のシステム。
例61のシステム、そこでは1つ以上の作用を始めることは第2のセンサおよびドライバの1つ以上に関してのドライバの目の位置を反射する1つ以上の座標を決定することを具備する、第2のセンサの1つ以上の視野に関してのドライバの光景のベクトルを決定するために凝視する。
例61(そこでは1つ以上の作用を始めることは車両に関連のある1つ以上の物体の位置を計算することを具備する)のシステム。
例66(そこでは車両に関連のある1つ以上の物体の計算された位置は、ADASへの入力として設けられる)のシステム。
例61(そこでは1つ以上の作用を始めることはADASシステムによって計算された測定を確認することを具備する)のシステム。
例68のシステム、処理、1つ以上の第1の入力、さらなる、具備する、センサからの物体の距離の計算、ADASシステムに関係していた、また距離測量への統計バリデーションとして計算された距離を使用すること、ADASシステムによって決定された。
例68(そこではADASシステムによって計算された測定の確認は1つ以上の事前に定義された物体に関して行なわれる)のシステム。
例70(そこでは定義済みの物体は交通標識が挙げられる)のシステム。
例70(そこでは定義済みの物体は次の少なくとも1つを反射する基準に関係している)のシステム:交通標識物体、物体、定義済みのサイズ未満の物理的サイズを持っていること、物体、1つ以上のセンサによって認められるようなそのサイズは定義済みのサイズ未満である、あるいは物体、車両に関しての定義済みの方向付けに位置づけた。
例72(そこでは車両に関しての物体の定義済みの方向付けは、車両に面している物体に関する)のシステム。
例70(そこではADASシステムによって計算された測定は事前に定義された物体に関してある)のシステム。
例68(そこではADASシステムによって計算された測定の確認はドライバに関連した断固とした特徴に関してのシステムの信頼度に関してある)のシステム。
例75(そこではドライバに関連した断固とした特徴は次の少なくとも1つが挙げられる)のシステム:センサの少なくとも1つに関してのドライバの位置、1つ以上のセンサに関してのドライバの目の位置あるいはドライバ熟視検出から抽出されるような照準線ベクトル。
例68のシステム、処理、1つ以上の第2の入力、さらなる、具備する、センサからの物体の距離の計算、ADASシステムに関係していた、また距離測量への統計バリデーションとして計算された距離を使用すること、ADASシステムによって決定された。
例61(そこではドライバの熟視方向を関連させることは熟視方向をドライバが注視したとわかる物体の距離測量に関連したADASシステムから始まるデータと関連させることを具備する)のシステム。
例61(そこでは1つ以上の作用を始めることは次の少なくとも1つを具備する1つ以上の刺激を提供することを具備する)のシステム:視覚的な刺激、聴覚の刺激、触覚型の刺激、嗅覚の刺激、温度刺激、気流刺激あるいは酸素は、刺激を水平にする。
例61(そこでは1つ以上の作用は次の少なくとも1つに関連づけられる)のシステム:ドライバの注意深さの1レベル、断固とした必要な注意深さレベル、予言された危険の1レベル、本動かすセッションに先の作用と関係する情報あるいは情報は、他の動かすセッションに先の作用に関した。
例61(そこでは1つ以上の作用がニューラル・ネットワークによって行なわれる)のシステム。
例61(そこではドライバの熟視方向を関連させることは次の少なくとも1つを使用して、ドライバの熟視方向を関連させることを具備する)のシステム:第1のセンサあるいは第2のセンサの少なくとも1つの幾何学的なデータ、第1のセンサあるいは第2のセンサの少なくとも1つの視野、第1のセンサの少なくとも1つに関してのドライバの位置あるいは第2のセンサ、ドライバの熟視の検出から抽出されるような照準線ベクトル。
例61のシステム、そこでは1つ以上のさらなる物体の少なくとも1つをドライバが注視しているかどうか判断するためにドライバの熟視方向を関連させることは、ドライバが注視していることを決めることを具備する、1つ以上の物体の少なくとも1つ、それはデータから検出される、1つ以上の第2のセンサから始まること
このスペックの全体にわたって、複数インスタンスは成分、作用あるいは単一のインスタンスと評された構造体を実行することができる。1つ以上の方法の単独運転は例示され、別々の作用と評されるが、単独運転の1つ以上は同時に行なうことができる。また、何も、作用が例示された順序に行なわれることを必要としない。構造体、および例構成中の別々の成分として提示された機能性は結合した構造体または成分として実行することができる。同様に、構造体と単一成分として提示された機能性は、別々の成分として実行することができる。これらおよび他の変化、変更、追加分と改善は、主題の範囲以内に本明細書にある。
創造性のある主題の概観は特定の例implementationsに関して記載されているが、様々な変更および変化は、本の開示のimplementationsのより広いスコープから外れずに、これらのimplementationsに行なうことができる。単に利便性のための、および1つ以上が実際、開示される場合に、任意の単一の開示あるいは発明概念へのこの適用のスコープを任意に制限するつもりののない項「発明」によって、創造性のある主題のそのようなimplementationsを本明細書に、個々にあるいは集団的に引用することができる。
本明細書に例示されたimplementationsは、当業者が開示された教示を実行することを可能とするために十分に詳細に記載されている。この開示のスコープから外れずに、構造的・論理的な置換および変化を行なうことができるように、他のimplementationsはそこから使用し引き出すことができる。詳細な説明はしたがって、制限する意味中で得ることができない。また、様々なimplementationsのスコープはそのような請求項が与えられる同義語の全領域に加えてアペンドされた請求項によってのみ画定される。
本明細書に使用されたとともに、項」あるいは”包括的か排他的な意味中で解釈することができる。さらに、複数インスタンスはリソース作用、あるいは単一のインスタンスと本明細書に評された構造体のための設けることができる。さらに、様々なリソース作用とモジュール、エンジンとデータ・ストアとの間の境界は、多少任意である。また、特別の作用は特定の例示の構成のコンテキストにおいて例示されている。機能性の他のアロケーションは構想を描かれ、本の開示の様々なimplementationsの範囲以内にありえる。一般的に、構造体、および例構成中の別々のリソースとして提示された機能性は、結合した構造体またはリソースとして実行することができる。同様に、構造体、および単一のリソースとして提示された機能性は別々のリソースとして実行することができる。これらおよび他の変化、変更、追加分と改善は、アペンドされた請求項によって表わされるような本の開示のimplementationsの範囲以内にある。このため、明細書と図面は限定的な意味ではなくむしろ、例証的な意味としてみなされるものである。

Claims (85)

  1. システムであって、
    処理デバイスは、および、
    処理装置によって実行された時、システムに次のものを具備する作用を行なわせる処理装置と貯蔵命令につながれた記憶:
    1つ以上の第1の入力を受け取ること;
    ドライバの状態を決定する、1つ以上の第1の入力が、車両内に提示する処理;
    1秒以上受けることは入力する;
    処理、車両に関連した1つ以上のナビゲーション条件を決定する、1つ以上の第2の入力、次の少なくとも1つを具備する1つ以上のナビゲーション条件:
    雲リソースあるいはドライバの挙動から受け取られた一時的な道路条件;
    1つ以上のナビゲーション条件に基づいて、計算すること、ドライバ注意深さ閾値;および、
    (A)で相関中の1つ以上の作用を始めること、ドライバと(B)の状態、ドライバ注意深さ閾値。
  2. 請求項1のシステム、そこで、1つ以上のナビゲーション条件を決定する1つあるいはより多くの第2の入力が具備する処理、処理、ニューラル・ネットワークによる1つ以上の第2の入力。
  3. 請求項1のシステム、そこで、処理、ドライバの状態を決定する、1つ以上の第1の入力ニューラル・ネットワークによって1つ以上の第1の入力を処理することを具備する。
  4. 請求項1のシステム(そこではドライバの挙動は次の少なくとも1つを具備する):出来事、車両内に生じること、車両内の乗客に関してのドライバの注意、1つ以上の発生、車両内の1人以上の乗客によって始められた、1つ以上の出来事、車両内に存在するデバイスに関して生じること、車両内に存在するデバイスで受け取られた1つ以上の届出;車両内に存在するデバイスへのドライバの注意の変化を反射する1つ以上の出来事。
  5. 請求項1のシステム(そこではさらなる一時的な道路条件は次の少なくとも1つを具備する):車両が旅行の道路経路、車両が旅行の路上の1本以上の曲線の存在あるいは車両が旅行の間、ドライバの光景を妨害する位置の物体の存在。
  6. 請求項5のシステム(そこでは物体は次の少なくとも1つを具備する):山、建築物、車両あるいは歩行者。
  7. 請求項5のシステム(そこでは車両が旅行の道路の一部に関して物体の存在はドライバの光景を妨害する)。
  8. 請求項5のシステム(そこでは物体の存在は次の少なくとも1つを具備する):位置の物体の存在、それは、道路に関してのドライバの光景を妨害する、上の、車両はそうである、旅行、位置の物体の存在、それは、1つ以上の車両に関してのドライバの光景を妨害する、道路で示す、上の、車両はそうである、旅行、位置の物体の存在、それは、出来事に関してのドライバの光景を妨害する、道路に生じること、上の、車両はそうである、旅行、あるいは物体の存在、の中で、車両が旅行の道路に隣接する1人以上の歩行者の存在に関してのドライバの光景を妨害する位置。
  9. 請求項1のシステム(そこではドライバ注意深さ閾値の計算は次の少なくとも1つを計算することを具備する):突出される時間はドライバまでに道路の車両と同じ側に存在する別の車両を見ることができる。あるいは、突出される時間はドライバまで道路の対向する側で存在する別の車両を車両と見なすことができる。あるいは、別の車両の存在を説明するために、断固とした見積時間は、ドライバまで車両の速度を調節することができる。
  10. 請求項1のシステム。(そこではさらなる一時的な道路条件は後発事象(事故を具備する後発事象)に先立って車両の本位置に関して以前に生じた1つ以上の出来事と関係する統計学を具備する)
  11. 請求項10のシステム(そこでは旅行するために車両が投影される道路の1つ以上の部分に生じた1つ以上の出来事に統計学は関する)。
  12. 請求項10のシステム、そこで、1つ以上の出来事、次の少なくとも1つを具備する。1つ以上の天候状況、1つ以上のトラフィック状況、路上の呼量、速度、で、1つ以上の車両が、道路に関連した速度限界に関しての後発事象旅行で含んでいた、あるいは後発事象に先立った損傷を引き起こすであろう物質の消費。
  13. 請求項1のシステム(そこでは1つあるいはより多くの第1の入力が以前に決定された1以上州を識別して具備する処理は、車両のドライバと会合した)。
  14. 請求項1のシステム(そこでは1つあるいはより多くの第1の入力が以前に決定された1以上州を識別して具備する処理は、本動かす区間中に車両のドライバと会合した)。
  15. 状態励振器は、ドライバのヘッド・モーション、ドライバの目の1つ以上の特徴、ドライバの精神状態あるいはドライバの感情の状態。
  16. 請求項1のシステム、そこで、さらなる車両に関連した1つ以上のナビゲーション条件、次の1つ以上を具備する。車両が移動する道路の条件、車両に隣接する環境条件あるいは車両に隣接する1つ以上の他の車両の存在。
  17. 請求項1のシステム、1つ以上の第2の入力は、どこで受けられるか、1つ以上のセンサ車両内に埋め込まれた。
  18. 請求項1のシステム、1つ以上の第2の入力は、どこで受けられるか、アドバンスト・ドライバ支援システム。(ADAS)
  19. 請求項1のシステム(そこではドライバ注意深さ閾値の計算はドライバ注意深さ閾値を調節することを具備する)。
  20. 請求項1のシステム(そこでは1つ以上の第1の入力の処理は車両へのエントリーに先立ってドライバの状態を決定するために1つ以上の第1の入力を処理することを具備する)。
  21. 請求項1のシステム、そこで、1つあるいはより多くの第1の入力が具備する処理、処理、車両へのエントリーの後にドライバの状態を決定する、1つ以上の第1の入力。
  22. 請求項1のシステム(そこではさらなるドライバの状態は次の1つ以上を具備する):車両内に存在する環境条件、あるいは環境条件は車両の外側で示す。
  23. 請求項1のシステム(そこではさらなるドライバの状態は次の1つ以上を具備する):ドライバとの乗客の通信、1人以上の乗客間の通信、乗客、シートの留め金を外すこと−ベルト、乗客、デバイスと相互に作用すること、車両に関係していた、車両内の1人以上の乗客の挙動、非言語的相互作用、乗客によって始められた、あるいは物理的な相互作用、ドライバの方へ対象とされた。
  24. 請求項1のシステム。(そこではドライバ注意深さ閾値はドライバに関連した断固とした注意深さレベルを具備する)
  25. 請求項24のシステム、さらなるドライバ注意深さ閾値はどこで具備するか、1つの、決定された。注意深さレベルは1つ以上の他のドライバと会合した。
  26. システムであって、
    処理装置;および、
    処理装置によって実行された時、システムに次のものを具備する作用を行なわせる処理装置と貯蔵命令につながれた記憶:
    1つ以上の第1の入力を受け取ること;
    車両に関しての第1の物体を識別するために1つ以上の第1の入力を処理すること;
    1秒以上受けることは入力する;
    第1の物体(第1の物体に関しての車両のドライバの注意深さの状態)に、1つ以上の物体に関しての車両のドライバに関連した注意深さの以前に決定された1以上州に基づいて決定する、1つ以上の第2の入力が関連させた処理;および、
    ドライバの注意深さの状態に基づいた1つ以上の作用を始めること。
  27. 第1の物体は少なくとも1つのを含む、請求項26に記載のシステム。道路標識または道路構造。
  28. 請求項26のシステム(そこでは本動かす区間内の先のインスタンスに関して注意深さの以前に決定された1以上州は決定される)。
  29. 請求項26のシステム(そこでは1つ以上の先の駆動間隔内の先のインスタンスに関して注意深さの以前に決定された1以上州は決定される)。
  30. 請求項26のシステム、そこでは1つあるいは車両のドライバに関連した注意深さの以前に決定された状態は、第1の物体に関連した1つ以上の物体に関しての車両のドライバに関連した注意深さの以前に決定された1以上州によって反射された原動力を具備する。
  31. 請求項30のシステム、そこで、以前に決定された1以上州によって反射された原動力、の注意深さは、次の少なくとも1つを具備する:周波数、で、ドライバは注視する、第1の物体、周波数、で、ドライバは注視する、第二目的語、1つ以上の状況、の下で、ドライバは注視する、1つ以上の物体、1つ以上の状況、の下で、ドライバは注視しない、1つ以上の物体、1つ以上の環境条件。
  32. 請求項26のシステム、そこでは1つあるいは車両のドライバに関連した注意深さの以前に決定された状態は、第1の物体に関連した1つ以上の物体に関しての車両のドライバに関連した注意深さの以前に決定された1以上州によって反射された原動力の統計モデルを具備する。
  33. 請求項26のシステム、そこで、1つあるいはより多くの第2の入力が具備する処理、処理、第1の物体に関して車両のドライバの注意深さの状態を決定するために、第二目的語を車両のドライバが注視する周波数。
  34. 請求項26のシステム(そこでは注意深さの現在状況を決定するために、1秒以上が入力する処理は、次のものを具備する:):(a)注意深さの以前に決定された1以上州を関連させることは、(b)1つ以上の第2の入力を備えた、車両および第1の物体のドライバと会合した。
  35. 請求項26、30、あるいは32のうちのいずれか1つのシステム、第1の入力の処理の少なくとも1つ、第2の入力の処理、計算するドライバ注意深さ閾値、計算、ダイナミック、注意深さの以前に決定された1以上州によって反射された、車両および第1の物体のドライバに関係していた、あるいは第二目的語、注意深さの以前に決定された1以上州を関連させること、車両および第1の物体のドライバに関係していた、あるいは第二目的語はニューラル・ネットワークによって行なわれる。
  36. 請求項26のシステム(そこではドライバの注意深さの状態は次の少なくとも1つとの相関の中でさらに決定される):周波数、で、ドライバは注視する、第1の物体、周波数、で、ドライバは注視する、第二目的語、1つ以上の運転パターン、1つ以上の運転パターン、ナビゲーション命令に関してのドライバに関係していた、1つ以上の環境条件、あるいは時刻。
  37. 請求項26のシステム(そこではドライバの注意深さの状態は次の少なくとも1つに基づいて、さらに決定される):旅慣れた道路、旅慣れた道路を旅行する周波数あるいは旅慣れた道路を旅行する前例以来の経過時間に関しての親しさの程度。
  38. 請求項26のシステム(そこではドライバの注意深さの状態は次の少なくとも1つに基づいて、さらに決定される):
    ドライバの精神状態、ドライバの生理学的状態、睡眠の量、ドライバは係合したために決定される、の中で、ドライバを動かす量は係合したために決定される、の中で、あるいは目赤色の1レベル、ドライバに関係していた。
  39. 請求項26のシステム(そこではドライバの注意深さの状態は上の基づいて、さらに決定される)情報は、第1の物体へのドライバの熟視の変更と会合した。
  40. 請求項39のシステム(そこではドライバの注意深さの状態は上の基づいて、さらに決定される)情報は、ドライバが第1の物体への彼の熟視を変える時間持続時間と会合した。
  41. 請求項39のシステム(そこではドライバの注意深さの状態は上の基づいて、さらに決定される)運動特徴に関連した情報は、第1の物体へのドライバの熟視の変更に関した。
  42. 請求項26のシステム(そこでは1秒以上が入力する処理は次のものを具備する:):処理(a)、車両のドライバの注意深さの現在状況を決定するために(b)第1の物体への彼の熟視を変えるドライバの本インスタンスに関連した、1つ以上の抽出された特徴に関しての第1の物体に関連した1つ以上の物体へのドライバの熟視の変更に関連した、1つ以上の抽出された特徴。
  43. システムであって、
    処理デバイスは、
    および、
    処理装置によって実行された時、システムに次のものを具備する作用を行なわせる処理装置と貯蔵命令につながれた記憶:
    1つ以上の第1の入力を受け取ること;
    車両に関しての第1の物体を識別するために1つ以上の第1の入力を処理すること;
    1秒以上受けることは入力する;
    処理、第1の物体に関しての車両のドライバの注意深さの状態を決定する、1つ以上の第2の入力、(a)第1の物体に関してのドライバの熟視の方向および(b)1つ以上の条件に基づいた、の下で、第1の物体は認められる、ドライバ;および、
    ドライバの注意深さの状態に基づいた1つ以上の作用を始めること。
  44. 請求項43のシステム、そこで、1以上の疾患、次の少なくとも1つを含む。位置、ドライバあるいはドライバからの第1の物体の距離に関しての第1の物体。
  45. 請求項43のシステム、そこで、1つ以上のさらなる条件、次の少なくとも1つが挙げられる1つ以上の環境条件を具備する。可視性レベルは、第1の物体、動かす注意レベル、車両の状態あるいは車両内に出席している乗客の1人以上の挙動と会合した。
  46. 請求項45のシステム(そこでは可視性レベルは次の少なくとも1つに関連した断固とした使用情報である):雨、霧、降ること、ダスト、日光、第1の物体に関連した発光状態。
  47. 請求項45のシステム(そこでは動かす注意レベルは少なくとも次の少なくとも1つを具備する道路関連情報に関連した断固とした使用情報である):車両が旅行の道路に関連したロード、車両が旅行の道路に関連した条件、車両が旅行の道路、およびドライバの視覚を妨害する様式、ドライバが同じ道路を動かした前例以来生じる道路構造の変動、ドライバがドライバの本宛先へ動かした前例以来生じる道路構造の変動において輝く日光に関連した発光状態、ドライバが1つ以上のナビゲーション命令に応答する様式。
  48. 請求項45のシステム(そこでは車両内の1人以上の乗客の挙動は次の少なくとも1つを具備する):ドライバとの乗客の通信、1人以上の乗客間の通信、シート・ベルトの留め金を外す乗客、車両に関連したデバイスと相互に作用する乗客、車両の背面シートの乗客の挙動、乗客とドライバとの間の非言語的相互作用、ドライバに関連した物理的な相互作用。
  49. 第1の物体は少なくとも1つのを含む、請求項43に記載のシステム。道路標識または道路構造。
  50. 請求項43のシステム(そこではドライバの注意深さの状態は次の少なくとも1つに基づいて、さらに決定される):ドライバの精神状態、ドライバの生理学的状態、睡眠の量、ドライバは係合したために決定される、の中で、ドライバを動かす量はそれを係合したために決定される、目赤色の1レベル、ドライバに関係していた、睡眠の断固とした質、ドライバに関係していた、心拍数、ドライバに関係していた、温度、ドライバに関係していた、あるいは1つ以上の音、ドライバによって作られた。
  51. 請求項50のシステム(そこではドライバの生理学的状態は次の少なくとも1つを具備する):夜のドライバ、ドライバが眠った時間、ドライバが1つ以上を動かしている時の量あるいは画定された時限中にもっと動かすことの数あるいはドライバはカレントドライブの時間期間を駆り立てるためにどれくらい頻繁に使用されるかの睡眠の断固とした質。
  52. 請求項51のシステム(そこでは次の少なくとも1つから受け取られたデータから抽出された情報とドライバの生理学的状態は相関である):ドライバの画像センサの捕捉する画像、あるいはデータが挙げられる、生理学に関連する測定データが次の少なくとも1つに関連づけた1つ以上のセンサ:ドライバの目、ドライバのまぶた、ドライバの瞳孔、ドライバの目赤色の標準液面に対するドライバの赤色レベルを注視する、ドライバの目のまわりの筋肉応力、ドライバのヘッドの運動、ドライバのヘッドにポーズする、凝視する、ドライバの方向パターン、あるいはドライバの車体姿勢。
  53. 請求項43のシステム(そこではドライバの精神状態はドライバ応力を具備する)。
  54. 請求項53のシステム(そこではドライバ応力は次の少なくとも1つに基づいて計算される):抽出された生理学はデータを関連づけた、データ、ドライバ挙動に関連づけられた、データ、出来事に関連づけられた、ドライバは係合された、の中で、本動かす区間中に、データ、出来事に関連づけられた、ドライバは係合された、の中で、本動かす区間に先立って、データ、通信に関係していた、本動かす区間の前のドライバに関連づけられた、あるいはデータ、通信に関係していた、ドライバに関連づけられた、の前に、あるいは本動かす区間中に。
  55. 請求項54のシステム。(そこでは通信に関連したデータはショッキングな出来事を具備する)
  56. 請求項53のシステム(そこではドライバ応力は次の少なくとも1つからの抽出された使用データである):ユーザー応力レベルを抽出する雲、1つ以上のデバイス、外部サービスあるいは適用。
  57. 請求項50のシステム。(そこではドライバの生理学的状態はドライバに関連した病気の1レベルに基づいて計算される)
  58. 請求項57のシステム(そこでは病気のレベルは次の1つ以上に基づいて決定される):データは、1つ以上のセンサからドライバ温度、ドライバ(ドライバに関して咳をする検出)によって生成された音が挙げられる、測定生理学に関連するそのデータを抽出した。
  59. 請求項57のシステム(そこでは病気のレベルは次の少なくとも1つから始まる断固とした使用データである):1つ以上のセンサ、雲、1つ以上のデバイス、1つ以上の外部サービスあるいは1つ以上の適用(それはユーザー応力レベルを抽出する)。
  60. 請求項43のシステム(そこでは1つ以上の作用がニューラル・ネットワークによって行なわれる)。
  61. システムであって、
    処理デバイスは、および、
    処理装置によって実行された時、システムに次のものを具備する作用を行なわせる処理装置と貯蔵命令につながれた記憶:
    車両内のデータを集める1つ以上の第1のセンサから1つ以上の第1の入力を受け取ること;
    車両のドライバの熟視方向を識別するために1つ以上の第1の入力を処理すること;
    車両の外側でデータを集める1つ以上の第2のセンサから1つ以上の第2の入力を受け取ること;
    処理、第2のセンサの少なくとも1つの視野に関しての1つ以上の物体の位置を決定する、1つ以上の第2の入力;
    ドライバの熟視方向を1つ以上の物体の少なくとも1つをドライバが注視しているかどうか判断する、第2のセンサの少なくとも1つの視野に関しての1つ以上の物体の位置と関連させること;および、
    測定に基づいた1つ以上の作用を始めること。
  62. 請求項61のシステム(そこでは1つ以上の作用を始めることは車両と1つ以上の物体の間の距離を計算することを具備する)。
  63. 請求項62のシステム(そこでは距離の計算は次の少なくとも1つを使用する車両と1つ以上の物体の間の距離の推定値を計算することを具備する):幾何学的な操作、それは、第1のセンサあるいは第2のセンサの少なくとも1つの位置を説明する、1つ以上のパラメーター、センサの少なくとも1つの傾斜に関連づけられた、センサの少なくとも1つの視野、センサの少なくとも1つに関してのドライバの位置、あるいは照準線ベクトル、として、ドライバ熟視検出から抽出された。
  64. 請求項62のシステム。(そこではさらなる距離の計算は距離の計算に関連したエラーを還元する、統計工具を使用することを具備する)
  65. 請求項61のシステム(そこでは1つ以上の作用を始めることは1つ以上を決定することを具備する)第2のセンサおよびドライバの1つ以上に関してのドライバの目の位置を反射する座標は、第2のセンサの1つ以上の視野に関してのドライバの光景のベクトルを決定するために凝視する。
  66. 請求項61のシステム(そこでは1つ以上の作用を始めることは車両に関連のある1つ以上の物体の位置を計算することを具備する)。
  67. 請求項66のシステム。(そこでは車両に関連のある1つ以上の物体の計算された位置は、ADASへの入力として設けられる)
  68. 請求項61のシステム(そこでは1つ以上の作用を始めることは測定を確認することを具備する)ADASシステムによって計算された。
  69. 請求項68のシステム、処理、1つ以上の第1の入力、さらなる、具備する、センサからの物体の距離の計算、ADASシステムに関係していた、また距離測量への統計バリデーションとして計算された距離を使用すること、ADASシステムによって決定された。
  70. 請求項68のシステム(そこではADASシステムによって計算された測定の確認は1つ以上の事前に定義された物体に関して行なわれる)。
  71. 請求項70のシステム(そこでは定義済みの物体は交通標識が挙げられる)。
  72. 請求項70のシステム(そこでは定義済みの物体は次の少なくとも1つを反射する基準に関係している):交通標識物体、物体、定義済みのサイズ未満の物理的サイズを持っていること、物体、1つ以上のセンサによって認められるようなそのサイズは定義済みのサイズ未満である、あるいは物体、車両に関しての定義済みの方向付けに位置づけた。
  73. 請求項72のシステム(そこでは車両に関しての物体の定義済みの方向付けは、車両に面している物体に関する)。
  74. 請求項70のシステム(そこではADASシステムによって計算された測定は事前に定義された物体に関してある)。
  75. 請求項68のシステム。(そこではADASシステムによって計算された測定の確認はドライバに関連した断固とした特徴に関してのシステムの信頼度に関してある)
  76. 請求項75のシステム(そこではドライバに関連した断固とした特徴は次の少なくとも1つが挙げられる):センサの少なくとも1つに関してのドライバの位置、1つ以上のセンサに関してのドライバの目の位置あるいはドライバ熟視検出から抽出されるような照準線ベクトル。
  77. 請求項68のシステム、処理、1つ以上の第2の入力、さらなる、具備する、センサからの物体の距離の計算、ADASシステムに関係していた、また距離測量への統計バリデーションとして計算された距離を使用すること、ADASシステムによって決定された。
  78. 請求項61のシステム。(そこではドライバの熟視方向を関連させることは熟視方向をドライバが注視したとわかる物体の距離測量に関連したADASシステムから始まるデータと関連させることを具備する)
  79. 請求項61のシステム(そこでは1つ以上の作用を始めることは次の少なくとも1つを具備する1つ以上の刺激を提供することを具備する):視覚的な刺激、聴覚の刺激、触覚型の刺激、嗅覚の刺激、温度刺激、気流刺激あるいは酸素は、刺激を水平にする。
  80. 請求項61のシステム(そこでは1つ以上の作用は次の少なくとも1つに関連づけられる):1レベル、のドライバ、断固とした要求される注意深さレベル、予言された危険の1レベル、本動かすセッションに先の作用と関係する情報あるいは情報の注意深さは、他の動かすセッションに先の作用に関した。
  81. 請求項61のシステム(そこでは1つ以上の作用がニューラル・ネットワークによって行なわれる)。
  82. 請求項61のシステム(そこではドライバの熟視方向を関連させることは次の少なくとも1つを使用して、ドライバの熟視方向を関連させることを具備する):第1のセンサあるいは第2のセンサの少なくとも1つの幾何学的なデータ、第1のセンサあるいは第2のセンサの少なくとも1つの視野、第1のセンサの少なくとも1つに関してのドライバの位置あるいは第2のセンサ、ドライバの熟視の検出から抽出されるような照準線ベクトル。
  83. 請求項61のシステム、そこでは1つ以上のさらなる物体の少なくとも1つをドライバが注視しているかどうか判断するためにドライバの熟視方向を関連させることは、ドライバが注視していることを決めることを具備する、1つ以上の物体の少なくとも1つ、それはデータから検出される、1つ以上の第2のセンサから始まること
  84. エンコードされた命令を有する非一時的なコンピュータ可読媒体であって、該命令が処理デバイスによって実行されたとき、該命令によって処理デバイスは:
    1つ以上の第1の入力を受け取ること;
    ドライバの状態を決定する、1つ以上の第1の入力が、車両内に提示する処理;
    1秒以上受けることは入力する;
    処理、車両に関連した1つ以上のナビゲーション条件を決定する、1つ以上の第2の入力、次の少なくとも1つを具備する1つ以上のナビゲーション条件:
    雲リソースあるいはドライバの挙動から受け取られた一時的な道路条件;
    1つ以上のナビゲーション条件に基づいて、計算すること、ドライバ注意深さ閾値;および、
    (A)で相関中の1つ以上の作用を始めること、ドライバと(B)の状態、ドライバ注意深さ閾値。
  85. 方法であって、
    1つ以上の第1の入力を受け取ること;
    ドライバの状態を決定する、1つ以上の第1の入力が、車両内に提示する処理;
    1秒以上受けることは入力する;
    処理、車両に関連した1つ以上のナビゲーション条件を決定する、1つ以上の第2の入力、次の少なくとも1つを具備する1つ以上のナビゲーション条件:雲リソースあるいはドライバの挙動から受け取られた一時的な道路条件;
    1つ以上のナビゲーション条件に基づいて、計算すること、ドライバ注意深さ閾値;および、
    (A)で相関中の1つ以上の作用を始めること、ドライバと(B)の状態、ドライバ注意深さ閾値。
JP2021521746A 2018-06-26 2019-06-26 状況的ドライバ監視システム Pending JP2021530069A (ja)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201862690309P 2018-06-26 2018-06-26
US62/690,309 2018-06-26
US201862757298P 2018-11-08 2018-11-08
US62/757,298 2018-11-08
US201962834471P 2019-04-16 2019-04-16
US62/834,471 2019-04-16
PCT/US2019/039356 WO2020006154A2 (en) 2018-06-26 2019-06-26 Contextual driver monitoring system

Publications (2)

Publication Number Publication Date
JP2021530069A true JP2021530069A (ja) 2021-11-04
JPWO2020006154A5 JPWO2020006154A5 (ja) 2022-07-05

Family

ID=68987299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021521746A Pending JP2021530069A (ja) 2018-06-26 2019-06-26 状況的ドライバ監視システム

Country Status (5)

Country Link
US (3) US20210269045A1 (ja)
EP (1) EP3837137A4 (ja)
JP (1) JP2021530069A (ja)
CN (1) CN113056390A (ja)
WO (1) WO2020006154A2 (ja)

Families Citing this family (143)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12076149B2 (en) * 2010-06-07 2024-09-03 Affectiva, Inc. Vehicle manipulation with convolutional image processing
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
DE102017208159B4 (de) * 2017-05-15 2024-05-29 Vitesco Technologies GmbH Verfahren zum Betreiben einer Fahrerassistenzvorrichtung eines Kraftfahrzeugs, Fahrerassistenzvorrichtung und Kraftfahrzeug
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US20220001869A1 (en) * 2017-09-27 2022-01-06 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Authenticated traffic signs
JP6963632B2 (ja) * 2017-12-27 2021-11-10 パイオニア株式会社 記憶装置及び興奮抑制装置
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US10592747B2 (en) * 2018-04-26 2020-03-17 Fyusion, Inc. Method and apparatus for 3-D auto tagging
DE102018209440A1 (de) * 2018-06-13 2019-12-19 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Beeinflussung von Systemen zur Aufmerksamkeitsüberwachung
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
CN109242251B (zh) * 2018-08-03 2020-03-06 百度在线网络技术(北京)有限公司 行车行为安全性检测方法、装置、设备及存储介质
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
EP3849865A4 (en) 2018-09-11 2022-06-29 Netradyne, Inc. Inward/outward vehicle monitoring for remote reporting and in-cab warning enhancements
US11040714B2 (en) * 2018-09-28 2021-06-22 Intel Corporation Vehicle controller and method for controlling a vehicle
US11205093B2 (en) 2018-10-11 2021-12-21 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US10962381B2 (en) * 2018-11-01 2021-03-30 Here Global B.V. Method, apparatus, and computer program product for creating traffic information for specialized vehicle types
US11059492B2 (en) * 2018-11-05 2021-07-13 International Business Machines Corporation Managing vehicle-access according to driver behavior
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11373402B2 (en) * 2018-12-20 2022-06-28 Google Llc Systems, devices, and methods for assisting human-to-human interactions
JP7207434B2 (ja) * 2018-12-27 2023-01-18 日本電気株式会社 余所見判定装置、余所見判定システム、余所見判定方法、プログラム
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
EP4011739A1 (en) * 2018-12-28 2022-06-15 The Hi-Tech Robotic Systemz Ltd System and method for engaging a driver during autonomous driving mode
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11624630B2 (en) * 2019-02-12 2023-04-11 International Business Machines Corporation Using augmented reality to present vehicle navigation requirements
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US11325591B2 (en) * 2019-03-07 2022-05-10 Honda Motor Co., Ltd. System and method for teleoperation service for vehicle
US10913428B2 (en) * 2019-03-18 2021-02-09 Pony Ai Inc. Vehicle usage monitoring
EP3712896B1 (en) * 2019-03-19 2022-01-12 2HFutura SA Technique for efficient retrieval of personality data
KR20210151089A (ko) * 2019-04-09 2021-12-13 하만인터내셔날인더스트리스인코포레이티드 차량 시스템의 음성 제어
GB2583742B (en) * 2019-05-08 2023-10-25 Jaguar Land Rover Ltd Activity identification method and apparatus
CN110263641A (zh) * 2019-05-17 2019-09-20 成都旷视金智科技有限公司 疲劳检测方法、装置及可读存储介质
US11661055B2 (en) 2019-05-24 2023-05-30 Preact Technologies, Inc. Close-in collision detection combining high sample rate near-field sensors with advanced real-time parallel processing to accurately determine imminent threats and likelihood of a collision
US11485368B2 (en) * 2019-06-27 2022-11-01 Intuition Robotics, Ltd. System and method for real-time customization of presentation features of a vehicle
US11572731B2 (en) * 2019-08-01 2023-02-07 Ford Global Technologies, Llc Vehicle window control
US11144754B2 (en) 2019-08-19 2021-10-12 Nvidia Corporation Gaze detection using one or more neural networks
US11590982B1 (en) * 2019-08-20 2023-02-28 Lytx, Inc. Trip based characterization using micro prediction determinations
US11741704B2 (en) * 2019-08-30 2023-08-29 Qualcomm Incorporated Techniques for augmented reality assistance
KR20210032766A (ko) * 2019-09-17 2021-03-25 현대자동차주식회사 차량 및 그 제어방법
US11295148B2 (en) * 2019-09-24 2022-04-05 Ford Global Technologies, Llc Systems and methods of preventing removal of items from vehicles by improper parties
US20210086715A1 (en) * 2019-09-25 2021-03-25 AISIN Technical Center of America, Inc. System and method for monitoring at least one occupant within a vehicle using a plurality of convolutional neural networks
US11587461B2 (en) * 2019-10-23 2023-02-21 GM Global Technology Operations LLC Context-sensitive adjustment of off-road glance time
KR20210051054A (ko) * 2019-10-29 2021-05-10 현대자동차주식회사 뇌파 신호를 이용한 모빌리티 탑승자의 승차감 판단 장치
US11308921B2 (en) * 2019-11-28 2022-04-19 Panasonic Intellectual Property Management Co., Ltd. Information display terminal
US11775010B2 (en) * 2019-12-02 2023-10-03 Zendrive, Inc. System and method for assessing device usage
US11470265B2 (en) 2019-12-16 2022-10-11 Plusai, Inc. System and method for sensor system against glare and control thereof
US11754689B2 (en) 2019-12-16 2023-09-12 Plusai, Inc. System and method for detecting sensor adjustment need
US11077825B2 (en) 2019-12-16 2021-08-03 Plusai Limited System and method for anti-tampering mechanism
US11738694B2 (en) 2019-12-16 2023-08-29 Plusai, Inc. System and method for anti-tampering sensor assembly
US11724669B2 (en) 2019-12-16 2023-08-15 Plusai, Inc. System and method for a sensor protection system
US11340701B2 (en) * 2019-12-16 2022-05-24 Nvidia Corporation Gaze determination using glare as input
US11313704B2 (en) * 2019-12-16 2022-04-26 Plusai, Inc. System and method for a sensor protection assembly
US11650415B2 (en) 2019-12-16 2023-05-16 Plusai, Inc. System and method for a sensor protection mechanism
US11485231B2 (en) * 2019-12-27 2022-11-01 Harman International Industries, Incorporated Systems and methods for providing nature sounds
US11802959B2 (en) * 2020-01-22 2023-10-31 Preact Technologies, Inc. Vehicle driver behavior data collection and reporting
US11538259B2 (en) * 2020-02-06 2022-12-27 Honda Motor Co., Ltd. Toward real-time estimation of driver situation awareness: an eye tracking approach based on moving objects of interest
WO2021156989A1 (ja) * 2020-02-06 2021-08-12 三菱電機株式会社 予兆検知装置、運転支援制御装置及び予兆検知方法
US11580984B2 (en) * 2020-03-20 2023-02-14 At&T Intellectual Property I, L.P. Virtual assistant-initiated conversations
US11611587B2 (en) 2020-04-10 2023-03-21 Honda Motor Co., Ltd. Systems and methods for data privacy and security
US11494865B2 (en) 2020-04-21 2022-11-08 Micron Technology, Inc. Passenger screening
US11091166B1 (en) 2020-04-21 2021-08-17 Micron Technology, Inc. Driver screening
US11414087B2 (en) * 2020-06-01 2022-08-16 Wipro Limited Method and system for providing personalized interactive assistance in an autonomous vehicle
JP7347342B2 (ja) * 2020-06-16 2023-09-20 トヨタ自動車株式会社 情報処理装置、提案システム、プログラム、及び提案方法
AT523641B1 (de) * 2020-06-16 2021-10-15 Avl List Gmbh System zum Testen eines Fahrerassistenzsystems eines Fahrzeugs
DE102020207990B4 (de) * 2020-06-29 2022-05-05 Volkswagen Aktiengesellschaft Verfahren zum Betreiben eines Fahrerassistenzsystems und Fahrerassistenzsystem
US11720869B2 (en) 2020-07-27 2023-08-08 Bank Of America Corporation Detecting usage issues on enterprise systems and dynamically providing user assistance
KR20220014579A (ko) * 2020-07-29 2022-02-07 현대자동차주식회사 개인별 감정 인식 기반 차량 서비스 제공 장치 및 그의 차량 서비스 제공 방법
US11505233B2 (en) * 2020-08-25 2022-11-22 Ford Global Technologies, Llc Heated vehicle steering wheel having multiple controlled heating zones
US11617941B2 (en) * 2020-09-01 2023-04-04 GM Global Technology Operations LLC Environment interactive system providing augmented reality for in-vehicle infotainment and entertainment
KR20220042886A (ko) * 2020-09-28 2022-04-05 현대자동차주식회사 스마트 운전 자세 제어 시스템 및 방법
DE102020126953B3 (de) 2020-10-14 2021-12-30 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
DE102020126954A1 (de) * 2020-10-14 2022-04-14 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zum Erfassen einer räumlichen Orientierung einer tragbaren Vorrichtung
US11978266B2 (en) 2020-10-21 2024-05-07 Nvidia Corporation Occupant attentiveness and cognitive load monitoring for autonomous and semi-autonomous driving applications
US11341786B1 (en) 2020-11-13 2022-05-24 Samsara Inc. Dynamic delivery of vehicle event data
US11352013B1 (en) 2020-11-13 2022-06-07 Samsara Inc. Refining event triggers using machine learning model feedback
US11999356B2 (en) 2020-11-13 2024-06-04 Toyota Research Institute, Inc. Cognitive heat map: a model for driver situational awareness
US11643102B1 (en) 2020-11-23 2023-05-09 Samsara Inc. Dash cam with artificial intelligence safety event detection
CN112455452A (zh) * 2020-11-30 2021-03-09 恒大新能源汽车投资控股集团有限公司 驾驶状态的检测方法、装置及设备
US11753029B1 (en) * 2020-12-16 2023-09-12 Zoox, Inc. Off-screen object indications for a vehicle user interface
US11854318B1 (en) 2020-12-16 2023-12-26 Zoox, Inc. User interface for vehicle monitoring
CN112528952B (zh) * 2020-12-25 2022-02-11 合肥诚记信息科技有限公司 一种电力营业厅人员的工作状态智能识别系统
US12005922B2 (en) * 2020-12-31 2024-06-11 Honda Motor Co., Ltd. Toward simulation of driver behavior in driving automation
US20220204013A1 (en) * 2020-12-31 2022-06-30 Gentex Corporation Driving aid system
AT524616A1 (de) * 2021-01-07 2022-07-15 Christoph Schoeggler Dipl Ing Bsc Bsc Ma Dynamisches optisches Signalprojektionssystem für Straßenverkehrsfahrzeuge
CN112506353A (zh) * 2021-01-08 2021-03-16 蔚来汽车科技(安徽)有限公司 车辆交互系统、方法、存储介质和车辆
KR20220101837A (ko) * 2021-01-12 2022-07-19 한국전자통신연구원 개인 맞춤형 인터페이스 적용 장치 및 방법
CN112829754B (zh) * 2021-01-21 2023-07-25 合众新能源汽车股份有限公司 车载智能机器人和车载智能机器人的运行方法
US20220234501A1 (en) * 2021-01-25 2022-07-28 Autobrains Technologies Ltd Alerting on Driving Affecting Signal
US11878695B2 (en) * 2021-01-26 2024-01-23 Motional Ad Llc Surface guided vehicle behavior
US11862175B2 (en) * 2021-01-28 2024-01-02 Verizon Patent And Licensing Inc. User identification and authentication
US11887384B2 (en) 2021-02-02 2024-01-30 Black Sesame Technologies Inc. In-cabin occupant behavoir description
US20230404456A1 (en) * 2021-02-03 2023-12-21 Mitsubishi Electric Corporation Adjustment device, adjustment system, and adjustment method
US11760318B2 (en) * 2021-03-11 2023-09-19 GM Global Technology Operations LLC Predictive driver alertness assessment
JP2022159732A (ja) * 2021-04-05 2022-10-18 キヤノン株式会社 表示制御装置、表示制御方法、移動体、プログラムおよび記憶媒体
DE102021002301A1 (de) * 2021-04-30 2021-07-22 Daimler Ag Verfahren zur Benutzerbewertung, Steuervorrichtung zur Durchführung eines solchen Verfahrens, Bewertungsvorrichtung mit einer solchen Steuervorrichtung und Kraftfahrzeug mit einer solchen Bewertungsvorrichtung
US11687155B2 (en) * 2021-05-13 2023-06-27 Toyota Research Institute, Inc. Method for vehicle eye tracking system
WO2022266209A2 (en) * 2021-06-16 2022-12-22 Apple Inc. Conversational and environmental transcriptions
DE102021117326A1 (de) * 2021-07-05 2023-01-05 Ford Global Technologies, Llc Verfahren zur Ermüdungsprävention eines Fahrers eines Kraftfahrzeugs
CN113569699B (zh) * 2021-07-22 2024-03-08 上汽通用五菱汽车股份有限公司 注意力分析方法、车辆及存储介质
CN113611007B (zh) * 2021-08-05 2023-04-18 北京百姓车服网络科技有限公司 一种数据处理方法及数据采集系统
US12073634B2 (en) 2021-08-06 2024-08-27 Rockwell Collins, Inc. Cockpit display ambient lighting information for improving gaze estimation
US11800065B2 (en) 2021-08-19 2023-10-24 Geotab Inc. Mobile image surveillance systems and methods
KR20230033358A (ko) * 2021-09-01 2023-03-08 현대자동차주식회사 차량의 hmi 모드 제공방법 및 장치
US11898871B2 (en) * 2021-09-15 2024-02-13 Here Global B.V. Apparatus and methods for providing a map layer of one or more temporary dynamic obstructions
US20230088573A1 (en) * 2021-09-22 2023-03-23 Ford Global Technologies, Llc Enhanced radar recognition for automated vehicles
US20220242452A1 (en) * 2021-09-23 2022-08-04 Fabian Oboril Vehicle occupant monitoring
US11827213B2 (en) * 2021-10-01 2023-11-28 Volvo Truck Corporation Personalized notification system for a vehicle
US11861916B2 (en) * 2021-10-05 2024-01-02 Yazaki Corporation Driver alertness monitoring system
US11352014B1 (en) 2021-11-12 2022-06-07 Samsara Inc. Tuning layers of a modular neural network
US11386325B1 (en) * 2021-11-12 2022-07-12 Samsara Inc. Ensemble neural network state machine for detecting distractions
KR20230087631A (ko) * 2021-12-08 2023-06-19 현대모비스 주식회사 사각지대 충돌을 예방하는 방법, 장치, 기록매체 및 차량
FR3130229A1 (fr) * 2021-12-10 2023-06-16 Psa Automobiles Sa Procédé et dispositif de contrôle de trajectoire d’un véhicule autonome
CN114194110A (zh) * 2021-12-20 2022-03-18 浙江吉利控股集团有限公司 乘客化妆预警方法、系统、介质、设备及程序产品
US12036996B2 (en) * 2021-12-21 2024-07-16 Gm Cruise Holdings Llc Automated method to detect road user frustration due to autonomous vehicle driving behavior
US11840145B2 (en) * 2022-01-10 2023-12-12 GM Global Technology Operations LLC Driver state display
US12071141B2 (en) * 2022-01-27 2024-08-27 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for predicting driver visual impairment with artificial intelligence
WO2023152729A1 (en) * 2022-02-14 2023-08-17 Gentex Corporation Imaging system for a vehicle
US12094273B2 (en) * 2022-02-24 2024-09-17 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods to improve the performance of anomaly detection
US11628863B1 (en) * 2022-03-30 2023-04-18 Plusai, Inc. Methods and apparatus for estimating and compensating for wind disturbance force at a tractor trailer of an autonomous vehicle
US12065145B2 (en) 2022-04-14 2024-08-20 Ford Global Technologies, Llc Systems and methods for vehicle occupant preparation for certain acceleration modes
CN114931297B (zh) * 2022-05-25 2023-12-29 广西添亿友科技有限公司 一种新能源房车的颠簸约束方法及系统
CN115019832A (zh) * 2022-05-27 2022-09-06 中国第一汽车股份有限公司 一种车辆用基于情感分析的免唤醒交互方法及装置
US11772667B1 (en) 2022-06-08 2023-10-03 Plusai, Inc. Operating a vehicle in response to detecting a faulty sensor using calibration parameters of the sensor
CN115167688B (zh) * 2022-09-07 2022-12-16 唯羲科技有限公司 一种基于ar眼镜的会议模拟系统及方法
US20230007914A1 (en) * 2022-09-20 2023-01-12 Intel Corporation Safety device and method for avoidance of dooring injuries
CN117292505B (zh) * 2022-11-08 2024-04-05 南宁桂港程锦科技有限公司 基于数据处理的智慧交通疲劳驾驶监控系统及监控方法
US11868736B1 (en) * 2022-11-09 2024-01-09 Moonbeam, Inc. Approaches to deriving and surfacing insights into conversations in virtual environments and systems for accomplishing the same
US11975728B1 (en) * 2022-11-15 2024-05-07 GM Global Technology Operations LLC Vehicle system and method for providing feedback based on occupant behavior and emotion
CN116022158B (zh) * 2023-03-30 2023-06-06 深圳曦华科技有限公司 多域控制器协作的驾驶安全控制方法及装置
CN116142188B (zh) * 2023-04-14 2023-06-20 禾多科技(北京)有限公司 一种基于人工智能的自动驾驶车辆控制决策确定方法
CN116653979B (zh) * 2023-05-31 2024-01-05 钧捷智能(深圳)有限公司 一种驾驶员视场范围光线追踪方法及dms系统
CN116468526A (zh) * 2023-06-19 2023-07-21 中国第一汽车股份有限公司 基于车载oms摄像头的食谱生成方法、装置及车辆
US12111797B1 (en) 2023-09-22 2024-10-08 Storytellers.ai LLC Schema inference system
US11961005B1 (en) * 2023-12-18 2024-04-16 Storytellers.ai LLC System for automated data preparation, training, and tuning of machine learning models
CN117850602B (zh) * 2024-03-08 2024-06-21 厦门精图信息技术有限公司 一种ai电子地图系统及其智能应用方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150360697A1 (en) * 2014-06-13 2015-12-17 Hyundai Mobis Co., Ltd System and method for managing dangerous driving index for vehicle
JP2017199279A (ja) * 2016-04-28 2017-11-02 トヨタ自動車株式会社 運転意識推定装置
US20180012085A1 (en) * 2016-07-07 2018-01-11 Ants Technology (Hk) Limited. Computer Vision Based Driver Assistance Devices, Systems, Methods and Associated Computer Executable Code
JP2018067198A (ja) * 2016-10-20 2018-04-26 矢崎総業株式会社 走行支援装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004039305A1 (de) * 2004-08-12 2006-03-09 Bayerische Motoren Werke Ag Vorrichtung zur Auswertung der Aufmerksamkeit eines Fahrers bei einem Kollisionsvermeidungssystem in Kraftfahrzeugen
US8965685B1 (en) * 2006-04-07 2015-02-24 Here Global B.V. Method and system for enabling precautionary actions in a vehicle
US7880621B2 (en) * 2006-12-22 2011-02-01 Toyota Motor Engineering & Manufacturing North America, Inc. Distraction estimator
US20120215403A1 (en) * 2011-02-20 2012-08-23 General Motors Llc Method of monitoring a vehicle driver
EP2564766B1 (en) * 2011-09-02 2018-03-21 Volvo Car Corporation Visual input of vehicle operator
US20160267335A1 (en) * 2015-03-13 2016-09-15 Harman International Industries, Incorporated Driver distraction detection system
US9505413B2 (en) * 2015-03-20 2016-11-29 Harman International Industries, Incorporated Systems and methods for prioritized driver alerts
EP3535646A4 (en) * 2016-11-07 2020-08-12 Nauto, Inc. SYSTEM AND METHOD FOR DETERMINING DRIVER DISTRACTION

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150360697A1 (en) * 2014-06-13 2015-12-17 Hyundai Mobis Co., Ltd System and method for managing dangerous driving index for vehicle
JP2017199279A (ja) * 2016-04-28 2017-11-02 トヨタ自動車株式会社 運転意識推定装置
US20180012085A1 (en) * 2016-07-07 2018-01-11 Ants Technology (Hk) Limited. Computer Vision Based Driver Assistance Devices, Systems, Methods and Associated Computer Executable Code
JP2018067198A (ja) * 2016-10-20 2018-04-26 矢崎総業株式会社 走行支援装置

Also Published As

Publication number Publication date
EP3837137A2 (en) 2021-06-23
US20200216078A1 (en) 2020-07-09
WO2020006154A3 (en) 2020-02-06
WO2020006154A2 (en) 2020-01-02
CN113056390A (zh) 2021-06-29
US20210269045A1 (en) 2021-09-02
US20200207358A1 (en) 2020-07-02
EP3837137A4 (en) 2022-07-13

Similar Documents

Publication Publication Date Title
JP2021530069A (ja) 状況的ドライバ監視システム
US20220203996A1 (en) Systems and methods to limit operating a mobile phone while driving
US12032730B2 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
US20210357670A1 (en) Driver Attention Detection Method
US11249555B2 (en) Systems and methods to detect a user behavior within a vehicle
US10922566B2 (en) Cognitive state evaluation for vehicle navigation
US20230347903A1 (en) Sensor-based in-vehicle dynamic driver gaze tracking
US20160378112A1 (en) Autonomous vehicle safety systems and methods
US20170287217A1 (en) Preceding traffic alert system and method
US20190087668A1 (en) Electronic device and control method thereof
JPWO2020054458A1 (ja) 情報処理装置、移動装置、および方法、並びにプログラム
KR20240074777A (ko) 차량 탑승자 보조를 위한 차량 및 모바일 디바이스 인터페이스
CN113015984A (zh) 卷积神经网络中的错误校正
KR20240067906A (ko) 차량 탑승자 보조를 위한 차량 및 모바일 디바이스 인터페이스
US20230166743A1 (en) Devices and methods for assisting operation of vehicles based on situational assessment fusing expoential risks (safer)
WO2022224173A1 (en) Systems and methods for determining driver control over a vehicle
US20200064912A1 (en) Eye gaze tracking of a vehicle passenger
KR20190027657A (ko) 차량의 주행을 보조하는 장치 및 방법
EP4042322A1 (en) Methods and systems for using artificial intelligence to evaluate, correct, and monitor user attentiveness
US11926259B1 (en) Alert modality selection for alerting a driver
WO2022124164A1 (ja) 注目対象共有装置、注目対象共有方法
US20240362931A1 (en) Systems and methods for determining driver control over a vehicle
JP7238193B2 (ja) 車両制御装置および車両制御方法
Mihai et al. Using dual camera smartphones as advanced driver assistance systems: Navieyes system architecture
US20240112570A1 (en) Moving body prediction device, learning method, traffic safety support system, and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220826

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230517

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230522

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230809

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20231020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240131