JP7223758B2 - 車両の望ましくない動作を決定すること - Google Patents

車両の望ましくない動作を決定すること Download PDF

Info

Publication number
JP7223758B2
JP7223758B2 JP2020531033A JP2020531033A JP7223758B2 JP 7223758 B2 JP7223758 B2 JP 7223758B2 JP 2020531033 A JP2020531033 A JP 2020531033A JP 2020531033 A JP2020531033 A JP 2020531033A JP 7223758 B2 JP7223758 B2 JP 7223758B2
Authority
JP
Japan
Prior art keywords
vehicle
user
determining
determiner
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020531033A
Other languages
English (en)
Other versions
JP2021506011A (ja
Inventor
ホセ アラウーホ,
ソマ タヤモン,
Original Assignee
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エルエム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Publication of JP2021506011A publication Critical patent/JP2021506011A/ja
Application granted granted Critical
Publication of JP7223758B2 publication Critical patent/JP7223758B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • B60W60/0015Planning or execution of driving tasks specially adapted for safety
    • B60W60/0016Planning or execution of driving tasks specially adapted for safety of the vehicle or its occupants
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/161Decentralised systems, e.g. inter-vehicle communication
    • G08G1/162Decentralised systems, e.g. inter-vehicle communication event-triggered
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/163Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/168Evaluating attention deficit, hyperactivity
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/18Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state for vehicle drivers or machine operators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/08Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to drivers or passengers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/02Ensuring safety in case of control system failures, e.g. by diagnosing, circumventing or fixing failures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/22Psychological state; Stress level or workload
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/15Biometric patterns based on physiological signals, e.g. heartbeat, blood flow

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Developmental Disabilities (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Hospice & Palliative Care (AREA)
  • Child & Adolescent Psychology (AREA)
  • Educational Technology (AREA)
  • Social Psychology (AREA)
  • Dermatology (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Mathematical Physics (AREA)
  • Ophthalmology & Optometry (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両の望ましくない動作を決定するための方法、車両動作決定器、コンピュータプログラムおよびコンピュータプログラム製品に関する。
現在、自律推進能力をもつ車両の分野において多くの研究および開発がある。適用例は、バスおよびタクシーサービスなど乗客輸送から、重量級車両によって実行される商品輸送に及ぶ。近年、多くの企業が実道路において自社の自律重量級車両を検証している。Google無人車は、2012年以来、米国におけるいくつかのエリアにおいて運転している。2014年、Googleは、自社の車がカリフォルニアにおいて自律モードで合計110万kmを完走したことを報告した。さらに、ドローンなど、空中車両が自律車両であり得る。
時間経過に伴う運転能力を改善するために多くの自律車両において機械学習が使用される。そのような機械学習モデルの性能はフィードバックの量と質の両方から恩恵を受ける。しかしながら、フィードバックの量は常に限られ、フィードバックの新しいソースが機械学習ベースの運転の性能に大いに恩恵を与えるであろう。
本明細書で提示される実施形態の目的は、望ましくない動作を実行している車両に基づいて、自律車両に改善されたフィードバックを与えることである。
第1の態様によれば、第1の車両の望ましくない動作と、結果的に生じる動作とを決定するための方法が提示される。本方法は、車両動作決定器において実行され、第1のユーザが第1の車両に焦点を合わせていることを検出することによって、ユーザ焦点を検出するステップと、第1のユーザの脳活動データを収集するステップと、脳活動データに基づいて第1のユーザの否定的反応を決定するステップと、第1の車両に焦点を合わせている第1のユーザと第1のユーザの否定的反応とに基づいて、第1の車両が望ましくない動作を実行しているときを決定するステップと、望ましくない動作を実行している第1の車両に基づいて、自律車両によって取られるべき結果的に生じる動作を決定するステップと、結果的に生じる動作を実行するために自律車両をトリガするステップとを含む。
ユーザ焦点を検出するステップ、脳活動データを収集するステップは第2のユーザについて繰り返され得る。そのような場合、第1の車両が望ましくない動作を実行しているときを決定するステップはさらに、第1の車両に焦点を合わせている第2のユーザと第2のユーザの否定的反応とに基づく。
本方法はさらに、第1の車両の制御パラメータを収集するステップを含み得る。そのような場合、第1の車両が望ましくない動作を実行しているときを決定するステップはさらに第1の車両の制御パラメータに基づく。
制御パラメータは、第1の車両の現在の動きを記述する少なくとも1つのパラメータを含み得る。
制御パラメータは、第1の車両によって運転される道路の道路特性に関係する少なくとも1つのパラメータを含み得る。
結果的に生じる動作を決定するステップは、第1の車両の制御パラメータを考慮することを含み得る。
ユーザ焦点を検出するステップは注視追跡に基づき得る。
脳活動データを収集するステップにおいて、脳活動データは脳波記録(EEG)に基づき得る。
ユーザ焦点を検出するステップは、第1のユーザからの特定の距離内の第1の車両のみを考慮することを含み得る。
第1の車両が望ましくない動作を実行しているときを決定するステップはさらに、第1の車両の現在の地理的ロケーションに基づき得る。
第1の車両が望ましくない動作を実行しているときを決定するステップはさらに、第1の車両の履歴運転データに基づき得る。
結果的に生じる動作を決定するステップにおいて、結果的に生じる動作は自律車両の修正制御動作であり得る。
本方法はさらに、第1の車両が望ましくない動作を実行していないとき、第1の車両が望ましくない動作を実行していないことを示すフィードバックを第1のユーザに与えるステップを含み得る。
第2の態様によれば、第1の車両の望ましくない動作と、結果的に生じる動作とを決定するための車両動作決定器が提示される。車両動作決定器は、プロセッサと、プロセッサによって実行されたとき、車両動作決定器に、第1のユーザが第1の車両に焦点を合わせていることを検出することによって、ユーザ焦点を検出することと、第1のユーザの脳活動データを収集することと、脳活動データに基づいて第1のユーザの否定的反応を決定することと、第1の車両に焦点を合わせている第1のユーザと第1のユーザの否定的反応とに基づいて、第1の車両が望ましくない動作を実行しているときを決定することと、望ましくない動作を実行している第1の車両に基づいて、自律車両によって取られるべき結果的に生じる動作を決定することと、結果的に生じる動作を実行するために自律車両をトリガすることとを行わせる命令を記憶するメモリとを備える。
ユーザ焦点を検出する命令、脳活動データを収集する命令は、第2のユーザについて繰り返され得る。そのような場合、第1の車両が望ましくない動作を実行しているときを決定する命令はさらに、第1の車両に焦点を合わせている第2のユーザと第2のユーザの否定的反応とに基づき得る。
車両動作決定器はさらに、プロセッサによって実行されたとき、車両動作決定器に、第1の車両の制御パラメータを収集することを行わせる命令を含み得る。そのような場合、第1の車両が望ましくない動作を実行しているときを決定する命令はさらに、第1の車両の制御パラメータに基づく。
制御パラメータは、第1の車両の現在の動きを記述する少なくとも1つのパラメータを含み得る。
制御パラメータは、第1の車両によって運転される道路の道路特性に関係する少なくとも1つのパラメータを含み得る。
結果的に生じる動作を決定する命令は、プロセッサによって実行されたとき、車両動作決定器に、第1の車両の制御パラメータを考慮することを行わせる命令を含み得る。
検出する命令は、プロセッサによって実行されたとき、車両動作決定器に、注視追跡に基づいてユーザ焦点を検出することを行わせる命令を含み得る。
脳活動データを収集する命令において、脳活動データは脳波記録(EEG)に基づき得る。
ユーザ焦点を検出する命令は、プロセッサによって実行されたとき、車両動作決定器に、第1のユーザからの特定の距離内の第1の車両のみを考慮することを行わせる命令を含み得る。
第1の車両が望ましくない動作を実行しているときを決定する命令は、プロセッサによって実行されたとき、車両動作決定器に、さらに第1の車両の現在の地理的ロケーションに基づいて、第1の車両が望ましくない動作を実行していることを決定することを行わせる命令を含み得る。
第1の車両が望ましくない動作を実行しているときを決定する命令は、プロセッサによって実行されたとき、車両動作決定器に、さらに第1の車両の履歴運転データに基づいて、第1の車両が望ましくない動作を実行しているときを決定することを行わせる命令を含み得る。
結果的に生じる動作を決定する命令において、結果的に生じる動作は自律車両の修正制御動作であり得る。
車両動作決定器はさらに、プロセッサによって実行されたとき、車両動作決定器に、第1の車両が望ましくない動作を実行していないとき、第1の車両が望ましくない動作を実行していないことを示すフィードバックを第1のユーザに与えることを行わせる命令を含み得る。
第3の態様によれば、第1のユーザが第1の車両に焦点を合わせていることを検出することによって、ユーザ焦点を検出するための手段と、第1のユーザの脳活動データを収集するための手段と、脳活動データに基づいて第1のユーザの否定的反応を決定するための手段と、第1の車両に焦点を合わせている第1のユーザと、第1のユーザの否定的反応とに基づいて、第1の車両が望ましくない動作を実行しているときを決定するための手段と、望ましくない動作を実行している第1の車両に基づいて、自律車両によって取られるべき結果的に生じる動作を決定するための手段と、結果的に生じる動作を実行するために自律車両をトリガするための手段とを備える車両動作決定器が提示される。
第4の態様によれば、第1の車両の望ましくない動作と、結果的に生じる動作とを決定するためのコンピュータプログラムが提示される。コンピュータプログラムは、車両動作決定器上で実行されたとき、車両動作決定器に、第1のユーザが第1の車両に焦点を合わせていることを検出することによって、ユーザ焦点を検出することと、第1のユーザの脳活動データを収集することと、脳活動データに基づいて第1のユーザの否定的反応を決定することと、第1の車両に焦点を合わせている第1のユーザと、第1のユーザの否定的反応とに基づいて、第1の車両が望ましくない動作を実行しているときを決定することと、望ましくない動作を実行している第1の車両に基づいて、自律車両によって取られるべき結果的に生じる動作を決定することと、結果的に生じる動作を実行するために自律車両をトリガすることとを行わせるコンピュータプログラムコードを含む。
第5の態様によれば、第4の態様によるコンピュータプログラムと、コンピュータプログラムが記憶されるコンピュータ可読手段とを備えるコンピュータプログラム製品が提示される。
一般に、特許請求の範囲において使用されるすべての用語は、本明細書で別段に明記されていない限り、技術分野におけるそうした用語の通常の意味に従って解釈されるべきである。「要素、装置、構成要素、手段、ステップなど」へのすべての参照は、別段に明記されていない限り、要素、装置、構成要素、手段、ステップなどの少なくとも1つのインスタンスを参照するものとして、オープンに解釈されるべきである。本明細書で開示される方法のステップは、明記されていない限り、開示された厳密な順序で実行される必要はない。
次に、例として、添付の図面を参照しながら、本発明について説明する。
本明細書で提示される実施形態が適用され得る環境を示す概略図である。 本明細書で提示される実施形態が適用され得る環境を示す概略図である。 図1A~図1Bの環境において適用され得る2つの実施形態による、脳活動感知を示す概略図である。 図1A~図1Bの環境において使用され得る車両動作決定器の構成要素を示す概略図である。 図3の車両動作決定器がどのように実装され得るかの実施形態を示す概略図である。 第1の車両の望ましくない動作と、結果的に生じる動作とを決定するための方法であって、図3の車両動作決定器において実行される方法を示すフローチャートである。 第1の車両の望ましくない動作と、結果的に生じる動作とを決定するための方法であって、図3の車両動作決定器において実行される方法を示すフローチャートである。 第1の車両の望ましくない動作と、結果的に生じる動作とを決定するための方法であって、図3の車両動作決定器において実行される方法を示すフローチャートである。 一実施形態による、図3の車両動作決定器の機能モジュールを示す概略図である。 コンピュータ可読手段を備えるコンピュータプログラム製品の1つの例を示す図である。
次に、本発明のいくつかの実施形態が示されている添付の図面を参照しながら、本発明について以下でより十分に説明する。本発明は、しかしながら、多くの異なる形態において実施され得、本明細書に記載された実施形態に限定されるものと解釈されるべきでない。そうではなく、これらの実施形態は、本開示が徹底的で完全であり、本発明の範囲を当業者に十分に伝達するように、例として与えられる。同様の番号は説明全体にわたって同様の要素を指す。
本明細書で提示される実施形態は、車両動作に関するフィードバックを与えるためにユーザの反応が利用され得るという認識に基づく。特に、フィードバックは、ユーザが否定的反応を有するときを見つけ出すためにユーザからの脳活動データを検出することに基づく。これがユーザの焦点である車両に結合され、それによって、自律車両がその状況から学習するための否定的なフィードバックを与える。フィードバックは脳感知に基づくので、ユーザは、ユーザインターフェースを使用してフィードバックを与える必要がなく、それにより、システムは、自律車両のパフォーマンスについての大量の極めて有益なフィードバックデータを蓄積するためにユーザ入力なしに動作することができる。
図1A~図1Bは、本明細書で提示される実施形態が適用され得る環境を示す概略図である。ここに4つの車両2a~2dがある(そのうちの3つが図1Aに示されている)。少なくとも第1の車両2aおよび第4の車両2dは、少なくとも一部の時間の間、自律推進が可能である自律車両である。第2の車両2bおよび第3の車両2cも自律車両であり得るか、または人間によって制御される車両であり得る。たとえば、自律車両は、自律運転能力をもつ車であり得るか、または自律飛行能力をもつ空中車両(たとえばドローン)であり得る。自律車両は、車両の環境を分析し、これに応じて車両を制御するために使用される1つまたは複数のカメラと他のセンサーとを備える。車両の制御は機械学習モデルに基づき得る。機械学習モデルは、結果的に生じる動作を含む適切なフィードバックをモデルに供給することによって改善され得る。機械学習モデルをトレーニングするために利用可能であるフィードバックが多いほど、パフォーマンスは良くなる。言い換えれば、入力(たとえば、下述の制御パラメータのうちの1つまたは複数)としての特徴の特定の集合の各インスタンス、および望ましくない動作から決定される結果的に生じる動作など、既知の出力が、機械学習モデルをさらにトレーニングするために使用され得る。ユーザ対話が必要とされないので、本明細書で提示される実施形態によって可能にされるように、入力と出力とのそのような組合せが多数蓄積するとき、これにより機械学習モデルが連続的に改善される。車両2a~2cはまた、オーディオ、車両の動き、車両速度、道路条件、空中ルート条件など、車両を制御するために関連がある制御パラメータを収集するための追加のセンサーを備えることができる。車両2a~2cはまた、近接する車両および/またはサーバと通信することによって、交通条件、道路事故/建設ゾーン、天候条件などの外部制御パラメータを収集することができる。車両2a~2cは、たとえば機械学習モデルに基づいて、車両が自律モードでどのように動作させられるべきであるかを定義する制御ユニットを収容する。
本明細書のシナリオにおいて、ローカル規制は右側交通を明記する。図1Aのシナリオにおいて、ユーザ5が第1の自律車両2a中で移動している。第2の自律車両2bが反対方向に移動している。しかしながら、第3の車両2cが、第1の自律車両2a、したがってユーザ5にとって危険である形で、第2の自律車両2bを追い越している。第3の車両2cは、自律車両、または旧来の、人間によって制御される車両であり得る。本明細書で提示される実施形態によれば、ユーザ5は自律車両2cの動作に気づき、脳活動収集器が、ユーザ5の脳からのデータをキャプチャし、そのデータから、ユーザ5が否定的反応を有することが推論され得る。否定的反応は、検出され得るユーザの否定的情動反応である。人間が、エラーを犯す他の人間を観測するとき、彼らの脳は、これらのエラーに応答して、たとえば不安、怒り、嫌悪感などの感覚を反映し得る、特定のアクティブ化パターンを示す。これは、システムが状況から学習することを可能にするために使用され、このシナリオにおける第3の車両2cと同様に動作している自律車両の危険を低減する。
図1Bには、第4の自律車両2dのユーザ5も第3の車両2cの望ましくない動作に気づき、より多い重みを状況に与えるシナリオが示されている。
図2A~図2Bは、図1A~図1Bの環境において適用され得る2つの実施形態による脳活動感知を示す概略図である。
図2Aには、自律車両、たとえば図1A~図1Bの第1の自律車両2aのシートに座っているユーザ5が示されている。ユーザは頭部装着型センサー構成の形態の脳活動収集器7を着用している。それ自体当技術分野で知られているように、カメラ4が、注視追跡を可能にするためにユーザの目に向けられる。注視追跡を使用して、ユーザ5が見ている場所、たとえば特定の車両などが決定され得る。
次に、脳センサーデバイス7を参照する。脳型コンピュータインターフェース(BCI)としても知られる脳センサーデバイスは、一般に脳波記録(EEG)によって、ユーザの脳活動を測定することが可能であるデバイスである。これらの脳センサーデバイス7は、ウェアラブル脳センサーデバイス7と考えられ得る外部装着型頭部装着型デバイス、外耳または内耳装着型デバイスの形態であり得る。脳センサーデバイス7はまた、ユーザ頭部に埋め込まれるデバイスであり得るであろう。
脳センサーデバイス7は、ユーザ脳活動の様々な態様を検出するために使用され得る。1つのそのような活動は、ユーザが否定的反応を体験するときを検出することである。脳活動検出の他の視覚的使用と比較すると、否定的反応検出は、今日利用可能な脳センサーデバイス7によって与えられるデータを使用して、はるかに簡単で、実現可能である。たとえば、本願の出願時点において、https://arxiv.org/ftp/arxiv/papers/1708/1708.01465.pdfにおいて利用可能な、Welkeら、「Brain Responses During Robot-Error Observation」には、人がロボットの正しい動作対誤った動作を観測するときを区別するために、EEGがどのように使用されるかが開示されている。
図2Bにおいて、脳センサーデバイス7は、ユーザ5のシートのヘッドレストの一部として実装される。このようにして、デバイスは、ユーザによって装着される必要がない。
図3は、図1A~図1Bの環境において使用され得る車両動作決定器1の構成要素を示す概略図である。車両動作決定器がホストデバイスの一部として実装されるとき(図4A~図4Cおよび以下の説明参照)、これらの構成要素のうちの1つまたは複数はホストデバイスと共有され得る。メモリ64に記憶される、したがってコンピュータプログラム製品であり得るソフトウェア命令67を実行することが可能な、好適な中央処理ユニット(CPU)、マルチプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、特定用途向け集積回路などのうちの1つまたは複数の任意の組合せを使用して、プロセッサ60が与えられる。プロセッサ60は、以下で図5A~図5Cに関して説明する方法を実行するように構成され得る。
メモリ64はランダムアクセスメモリ(RAM)と読取り専用メモリ(ROM)との任意の組合せであり得る。メモリ64はまた、持続性、すなわち非一時的ストレージを備え、これは、たとえば、磁気メモリ、光学メモリ、ソリッドステートメモリ、またはさらにはリモートに取り付けられたメモリのうちのいずれか1つまたは組合せであり得る。
プロセッサ60におけるソフトウェア命令の実行中にデータを読み取り、および/または記憶するためのデータメモリ66も与えられる。データメモリ66はランダムアクセスメモリ(RAM)と読取り専用メモリ(ROM)の任意の組合せであり得る。
車両動作決定器1は、他の外部エンティティと通信するためのI/Oインターフェース62をさらに備える。随意に、I/Oインターフェース62はユーザインターフェースをさらに含む。
車両動作決定器1の他の構成要素は、本明細書で提示される概念を不明瞭にしないために省略される。
車両動作決定器1は脳センサーデバイス7に接続することができ、脳センサーデバイス7は、それぞれ図2A~図2Bの脳センサーデバイス7のいずれかであり得る。車両動作決定器1はまた、サーバ8に接続することができる。
その上、車両動作決定器1は、ユーザがその中で移動している自律車両であり得る、自律車両2に接続することができる。車両動作決定器1はまた、ユーザの注視追跡を可能にするためにカメラ4に接続することができる。
図4A~図4Dは、図3の車両動作決定器1がどのように実装され得るかの実施形態を示す概略図である。車両動作決定器1は、スタンドアロンデバイスとして実装され得るか、または図4A~図4Cに示されているように、ホストデバイスの一部を形成し得る。
図4Aにおいて、車両動作決定器1は、自律車両2中に実装されるように示されている。自律車両2は、したがって車両動作決定器1のためのホストデバイスである。この場合、自律車両は、ユーザがその時にその中で移動している自律車両であり得るが、そうである必要はない。
図4Bにおいて、車両動作決定器1は、脳センサーデバイス7中に実装されるように示されている。脳センサーデバイス7は、したがって車両動作決定器1のためのホストデバイスである。この実施形態では、脳センサーデバイスは、ユーザの焦点が検出され得るどこかにいるユーザの脳データを取得する。たとえば、ユーザは、ユーザ焦点を検出するために使用される外部カメラがある道路の側のそばに位置し得る。代替的に、脳センサーデバイスはまた、ユーザの視線を検出するためのカメラを備える。脳センサーデバイス7は、次いで、ユーザの脳データとユーザの視線とを使用して、観測される車両の望ましくない動作が行われるかどうかを決定する。
図4Cには、車両動作決定器1が、サーバ8中に実装されるように示されている。サーバ8は、したがって、車両動作決定器1のためのホストデバイスである。この実施形態では、サーバ8は、ユーザの焦点が検出され得るどこかにいるユーザの脳データを取得するための脳活動収集器に接続され得る。たとえば、ユーザは、ユーザ焦点を検出するために使用される外部カメラがある道路の側のそばに位置し得る。サーバは、次いで、ユーザの脳データとユーザの視線とを使用して、観測される車両の望ましくない動作が行われるかどうかを決定する。
図4Dには、スタンドアロンデバイスとして実装される車両動作決定器1が示されている。この実施形態では、車両動作決定器1のためのホストデバイスがない。
図5A~図5Cは、第1の車両の望ましくない動作と、自律車両のための結果的に生じる動作とを決定するための方法であって、図3の車両動作決定器において実行される方法を示すフローチャートである。ユーザは自律車両中で移動している。第1の車両は、ユーザがその中で移動している自律車両と同じであり得る。代替的に、第1の車両は、ユーザがその中で移動している自律車両の外部にある。第1の車両は、自律車両または旧来の、人間によって制御される車両であり得る。
ユーザ焦点を検出するステップ40において、車両動作決定器は、第1のユーザが第1の車両に焦点を合わせていることを検出することによってユーザ焦点を検出する。ここで第1のという用語は、以下のテキスト中の第1の車両の参照を可能にするために使用されるのみである。第1のという用語は、いかなる形でもいかなる順序または優先順位をも暗示しない。第1の車両に対するユーザ焦点は、たとえば(図2A~図2Bに示されたカメラ4を使用する)注視追跡に基づき得る。また、ユーザが、それ自体の自律車両、すなわち、ユーザがその中で移動している自律車両に焦点を合わせているときが決定され得る。
随意に、遠くの車両は、ユーザが適切に分析することが困難であり得るので、第1のユーザからの特定の距離内の車両のみが第1の車両であり得ると考えられる。
ユーザが位置する車両の別のカメラ(たとえば、ダッシュボードカメラ)、ユーザに近いユーザデバイス(たとえば、自律車両によって使用される頭部装着型ディスプレイ)上のカメラ、代替または追加として、車両の外部のカメラが利用され得る。ユーザ視線は、既知であり得る(たとえば、ユーザがシートに座っており、高さXを有する)か、またはサーバ8との通信を伴うオンライン様式で検出され得る(たとえば、車の内側を向いている別のカメラが、ユーザの頭と目が位置する場所を検出し、ユーザの目のロケーションとカメラとの間の位置と方向との変換を計算する)、カメラと現在のユーザロケーションとの間の相対位置を知ることによって、カメラによって収集された画像中で、識別される。
脳活動データを収集するステップ42において、車両動作決定器は第1のユーザの脳活動データを収集する。これは、図2A~図2Bに示された脳センサーデバイス7を使用して実行され得る。たとえば、脳活動データは脳波記録(EEG)に基づき得る。
否定的反応を決定するステップ44において、車両動作決定器は、脳活動データに基づいて第1のユーザの否定的反応を決定する。上述のように、脳活動検出の他の視覚的使用と比較すると、否定的反応検出は、今日利用可能な脳センサーデバイスによって与えられるデータを使用して、はるかに簡単で、実現可能である。否定的反応の決定は、たとえば、機械学習に基づき得る。
条件付きの望ましくない動作ステップ46において、車両動作決定器は、第1の車両に焦点を合わせている第1のユーザと、第1のユーザの否定的反応とに基づいて、第1の車両が望ましくない動作を実行しているかどうかを決定する。言い換えれば、ユーザが特定の車両に焦点を合わせており、脳波が、ユーザが否定的反応を有していることを示すとき、これは、第1の車両が望ましくない動作を実行していることとして解釈される。
この決定は、随意に、第1の車両(または自律車両)の現在の地理的ロケーションに基づき得る。容認できる運転挙動は異なる国の間で著しく異なり得、これは、動作が望ましくないか否かを決定するときに考慮され得る。
さらに、決定は、随意に、第1の車両の履歴運転データに基づく。たとえば、履歴データが、多くの同様の動作が何万キロメートル間の望ましくない挙動に関連していないことを示す場合、これは、望ましくない動作であると考えられないように動作の重みをシフトする。
望ましくない動作が行われるとき、本方法は、結果的に生じる動作を決定するステップ48に進む。他の場合、本方法は終了する。
結果的に生じる動作を決定するステップ48において、車両動作決定器は、望ましくない動作を実行する第1の車両に基づいて、自律車両によって取られるべき結果的に生じる動作を決定する。結果的に生じる動作は、自律車両のための機械学習モデルをトレーニングするために使用され得、モデルの入力は1つまたは複数の制御パラメータを含んでおり、出力は、結果的に生じる動作またはその結果を含んでいる。機械学習モデルのそのようなトレーニングは、共有される学習の一部として使用され得、いくつかの車両のための機械学習モデルを改善することに広がる。たとえば、他の車両から学習するための許可を与える所有者をもつすべての自律車両は、そのような共有される学習を使用して、将来の同様のコンテキストにおける望ましくない動作を学習し、回避し得る。そのような共有される学習は、サーバを介してまたは直接車両動作決定器から当該の自律車両に通信され得る。
結果的に生じる動作は自律車両の修正制御動作であり得る。修正制御動作は、望ましくないと決定された、現在の状況における自律車両の挙動に影響を及ぼすリアルタイム制御動作であり得る。そのようなリアルタイム修正制御動作は、たとえば、第1の車両(すなわち観測される車両)もトレーニングされる車両であるときに適用され得る。代替または追加として、修正制御動作は、対応する望ましくない動作が、将来の同様のコンテキストにおいて回避され得るように、自律車両のメモリに記憶される。
一実施形態では、結果的に生じる動作は、自律車両が将来の同様の状況に備えて学習するために人間ドライバに追加の情報を要求することである。人間ドライバは、望ましくない動作の状況において機械学習モデルに入力を与えるために、自律車両内かまたはリモートに位置し得る。自律車両は、以前に記録された、望ましくない動作の状況に対応するデータを供給する。これにより、自律車両はそのような動作の補正のし方を学習することが可能になる。
一実施形態では、結果的に生じる動作は、自律車両が、たとえば、望ましくない動作が行われる状況をシミュレートするシミュレータから追加のトレーニングを受けることが義務づけられることである。随意に、このトレーニングは、そのような望ましくない動作の数があるしきい値を超えるときにのみトリガされ得る。この結果的に生じる動作は、望ましくない動作を実行する自律車両が、同様の状況が将来起きたときに、そのような動作を実行するという危険を低減する。
一実施形態では、結果的に生じる動作は、望ましくない動作として同様の状況が将来起きたときに、自律車両が支援のために人間ドライバに追加の情報を要求することである。自律車両は、次いで、自律車両がドライバから学習することができるように、(自律車両内かまたはリモートにいる)人間ドライバに、交代し、車両を運転するように求める。
一実施形態では、結果的に生じる動作は、自律車両が将来の望ましくない動作の状況に再び遭遇したときに、自律車両が望ましくない動作の代替動作を実行させられることである。例として、自律車両は、動作Aおよび動作Bとして、状況において実行され得る2つの潜在的な動作を有し得、自律車両は、動作Aが望ましくないとして報告された場合、動作Bを使用する。
一実施形態では、結果的に生じる動作は、自律車両が望ましくない動作発生を累積し、望ましくない動作発生の数が所与のしきい値を超える場合、追加の情報を要求することか、または望ましくない動作の状況において実行されるべき動作を変更することのいずれかによって、自律車両が状況に作用することを判断することである。同様に、自律車両のセットによって実行される同じ状況における動作のための望ましくない動作の発生が、所定のしきい値を超える望ましくない動作発生に累積するとき、同じブランド、所有者の残っている自律車両、またはある地理的ロケーションにある自律車両も、その状況における自身の動作を修正する。
一実施形態では、結果的に生じる動作は、自律車両が、自律車両の性能目標に重み付けされる、上述の結果的に生じる動作のうちの少なくとも1つを実行することである。例として、車両が、赤に変わる前の黄色の交通信号を横切るために加速されていないことが、望ましくないと決定され得る。しかしながら、そのような加速は、車両が所有者によってもしくは製造業者によって最適化するように設定されたより大きいエネルギー消費量を車両に費やさせるか、または所有者もしくは製造業者によって車両に課される最大加速度制限を超えるであろう。同様に、自律車両はまた、モーター状態、破損など、自身の物理的状態を最適化することを望み得る。したがって、すべてのこれらのファクタを考慮する重み付けされる機能は、結果的に生じる動作の修正が実行されるべきであるかどうかを判断するときに使用され得る。
結果的に生じる動作により、自律車両が経験から学習することになるとき、結果的に生じる動作のフィードバックはより多くの自律車両に共有され得、車両のそれぞれの機械学習モデルがトレーニングされることが可能になる。
結果的に生じる動作をトリガするステップ49において、車両動作決定器は、結果的に生じる動作を実行するために自律車両をトリガする。
脳活動データを使用することによって、望ましくない動作の認識が明示的なユーザ入力の必要なしに達成される。これは、自律車両が望ましくない動作から学習するために使用され得る。ユーザからのフィードバックは、自律車両によって実行されている現在の活動に容易に相関させられ得る。
本明細書で提示される実施形態は、ユーザがその中で移動している自律車両のためだけでなく、いくつかの自律車両へのフィードバックを可能にする。これらの実施形態は、車両の望ましくない動作の迅速でロバストな決定を可能にする。フィードバックはユーザ対話なしに行われ得るので、大量のフィードバックデータが蓄積されて、自律車両の性能を大いに改善し得る。
次に、図5Bを参照しながら、図5Aのステップと比較される新規のまたは変更されたステップのみについて説明する。
随意の、制御パラメータを収集するステップ45において、車両動作決定器は第1の車両の制御パラメータを収集する。
制御パラメータは、第1の車両の現在の動きを記述する少なくとも1つのパラメータを備える。現在の動きは、ここでは、速度、加速度、方向などのいずれか1つまたは複数として解釈されるべきである。
代替または追加として、制御パラメータは、第1の車両によって運転される道路の道路特性に関係する少なくとも1つのパラメータを備える。道路特性は、たとえば、曲率、傾斜、レーンの数、幅、速度制限、交通規制、運転方向に沿った加速/減速に関する制限、横加速度など、道路の性質に関係するだけでなく、交通条件、道路閉鎖、雪、氷もしくは葉の量、ならびに/または温度、雨、雪、日光および太陽角などの天候条件など、道路の一時的条件にも関係し得る。さらに、第1の車両の活動識別は、直進、別の車両の追い越しおよび元の車線への戻り、黄色交通信号の通過など、制御パラメータの一部を形成し得る。随意に、制御パラメータはまた、自律車両によって収集され得るデータである、周囲についての情報、たとえば、他の車両、歩行者、自転車運転者などを備える。
制御パラメータが利用可能であるとき、条件付きの望ましくない動作ステップ46はまた、第1の車両の制御パラメータのいずれか1つまたは複数に基づき得る。
制御パラメータが利用可能であるとき、結果的に生じる動作を決定するステップ48はまた、第1の車両の制御パラメータのうちの1つまたは複数に基づき得る。
随意の、フィードバックを与えるステップ54において、ステップ46において決定される望ましくない動作がないとき、車両動作決定器は、第1の車両が望ましくない動作を実行していないことを示すフィードバックを第1のユーザに与える。
次に、図5Cを参照すると、ここに示されている方法は、図5Aの方法に類似するが、少なくとも2人のユーザに基づく。
ここで、ステップ40、42および44は、1つは第1のユーザのための、1つは第2のユーザのための、2つの別個の経路中で実行される。ここでは、両方のユーザが同じ第1の車両に焦点を合わせている。ステップ44の各インスタンスでは、否定的反応があるか否かのバイナリ分類がある。否定的反応か否かは、上記でより詳細に説明したようにステップ44の各インスタンスにおいて決定される。
条件付きの望ましくない動作ステップ46において、両方のユーザからの否定的反応およびユーザ焦点は、第1の車両が望ましくない動作を実行しているかどうかを決定するために使用される。
したがって、少なくとも2人のユーザの脳活動データが分析され、ステップ44における否定的反応か否かのバイナリ分類が得られる。これらのバイナリ分類は、第1の車両が望ましくない動作を実行しているか否かの決定において、ステップ46において組み合わせられる。バイナリ分類は、いくつかの異なる方法において組み合わせられ得る。
一実施形態では、決定は、現在第1の車両に焦点を合わせているすべてのユーザから得られたバイナリ分類の平均に基づく。
一実施形態では、決定は、第1の車両から一定の距離よりも近くにいて、現在第1の車両に焦点を合わせているすべてのユーザから得られた分類の平均に基づく。
一実施形態では、決定は、現在第1の車両に焦点を合わせているユーザから得られた分類の平均に基づくが、現在の地理的エリア内のその土地の人であるこうしたユーザのみが考慮される。これは、ある挙動がある国では望ましくないが、別の国ではそうではないと考えられ得る、望ましくない動作の文化的(たとえば、欧州人対アジア人対アメリカ人、南欧州人対北欧州人)解釈および地理的解釈を考慮する。
一実施形態では、決定は、現在第1の車両に焦点を合わせているすべてのユーザから得られた分類の平均に基づき、記憶された同じ動作の以前の分類にも基づく。例として、第1の車両は様々なユーザの間で共有され得、こうした様々なユーザは、現在第1の車両によって実行されている同じ動作を以前に分類しており、記憶された結果は望ましくない挙動の決定のために使用される。
一実施形態では、決定は、現在第1の車両に焦点を合わせているすべてのユーザから得られた分類の平均に基づき、動作についての第1の車両からの以前の知識にも基づく。動作についての以前の知識は、たとえば、以前のトレーニング(実際の人間のドライバもしくはシミュレーション)によって、および/またはドライバのマニュアルによって得られ得る。例として、第1の車両は、そのような動作が以前の知識により望ましくないものではないという強い信念を有し得る。
一実施形態では、決定は、第1の車両に焦点を合わせているすべてのユーザから得られた分類の平均、ならびに運転コード規制から取り出され得る道路規制に基づく。
したがって、少なくとも2人のユーザからのEEG記録が与えられると、複数の車両によって実行されている現在の動作は、望ましくないものとして分類される。例として、複数の車両が望ましくない動作に関与する(たとえば、車両Aと車両Bの両方に焦点を合わせているユーザが望ましくない動作を報告する)場合、望ましくない動作が特定の車両に自明に割り当てられないことがある。したがって、複数のユーザからの分類が考慮されなければならない。例として、車両AおよびBが望ましくない動作に関与することについて考える。車両Aまたは車両Bに焦点を合わせているユーザからの分類は、たとえば、より多数の望ましくない分類が車両Bよりも車両Aに割り振られているかまたはその逆であるかを区別するために考慮される。この実施形態はサーバ(図3および図4Cの8)において実装され得る。
ステップ46の後、本方法は、図5Aおよび図5Bに示されたものと類似する形で実行される。
図6は、一実施形態による、図3の車両動作決定器1の機能モジュールを示す概略図である。モジュールは、車両動作決定器1において実行するコンピュータプログラムなど、ソフトウェア命令を使用して実装される。代替または追加として、モジュールは、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、またはディスクリート論理回路のうちのいずれか1つまたは複数など、ハードウェアを使用して実装される。モジュールは、図5A~図5Cに示された方法におけるステップに対応する。
ユーザ焦点検出器70はステップ40に対応する。脳活動データ収集器72はステップ42に対応する。否定的反応決定器74はステップ44に対応する。制御データ収集器75はステップ45に対応する。望ましくない動作決定器76はステップ46に対応する。結果的に生じる動作決定器78はステップ48に対応する。動作トリガ79はステップ49に対応する。フィードバックプロバイダ84はステップ54に対応する。
図7は、コンピュータ可読手段を備えるコンピュータプログラム製品90の1つの例を示す。このコンピュータ可読手段には、コンピュータプログラム91が記憶され得、そのコンピュータプログラムは、プロセッサに、本明細書で説明する実施形態による方法を実行させ得る。この例では、コンピュータプログラム製品は、CD(コンパクトディスク)またはDVD(デジタルバーサタイルディスク)またはブルーレイディスクなど、光ディスクである。上記で説明したように、図3のコンピュータプログラム製品67など、コンピュータプログラム製品はまた、デバイスのメモリ中で実施され得る。コンピュータプログラム91は、ここでは、描かれている光ディスク上のトラックとして概略的に示されているが、コンピュータプログラムは、リムーバブルソリッドステートメモリ、たとえばユニバーサルシリアルバス(USB)ドライブなど、コンピュータプログラム製品のために好適である形で記憶され得る。
本発明について、主に、いくつかの実施形態に関して上記で説明した。しかしながら、当業者によって容易に諒解されるように、上記で開示した実施形態以外の実施形態が、添付の特許請求の範囲によって定義されているように、本発明の範囲内で等しく可能である。

Claims (22)

  1. 第1の車の望ましくない動作と、結果的に生じる動作とを決定するための方法であって、車両動作決定器(1)において実行され、
    自律車両中の第1のユーザ(5)が前記第1の車に焦点を合わせていることを検出することによって、ユーザ焦点を検出するステップ(40)と、
    前記第1のユーザ(5)の脳活動データを収集するステップ(42)と、
    前記脳活動データに基づいて前記第1のユーザ(5)の否定的反応を決定するステップ(44)と、
    前記第1の車に焦点を合わせている前記第1のユーザ(5)と、前記第1のユーザ(5)の前記否定的反応とに基づいて、前記第1の車が望ましくない動作を実行しているときを決定するステップ(46)と、
    前記望ましくない動作を実行している前記第1の車に基づいて、自律車によって取られるべき前記結果的に生じる動作を決定するステップ(48)と、
    前記結果的に生じる動作を実行するために前記自律車をトリガするステップ(49)と
    を含み、
    前記結果的に生じる動作を決定するステップ(48)は、異なる自律車両中の前記第1のユーザ(5)の数に応じた重み付けを用いて、前記結果的に生じる動作を決定することを含む、方法。
  2. ユーザ焦点を検出する前記ステップ(40)、脳活動データを収集する前記ステップ(42)が第2のユーザについて繰り返され、前記第1の車両が望ましくない動作を実行しているときを決定する前記ステップ(46)がさらに、前記第1の車両に焦点を合わせている前記第2のユーザと前記第2のユーザの否定的反応とに基づく、請求項1に記載の方法。
  3. 前記第1の車の制御パラメータを収集するステップ(45)をさらに含み、
    前記第1の車が望ましくない動作を実行しているときを決定する前記ステップ(46)がさらに、前記第1の車の前記制御パラメータに基づく、請求項1または2に記載の方法。
  4. 前記制御パラメータが、前記第1の車の現在の動きを記述する少なくとも1つのパラメータを含む、請求項に記載の方法。
  5. 前記制御パラメータが、前記第1の車によって運転される道路の道路特性に関係する少なくとも1つのパラメータを含む、請求項またはに記載の方法。
  6. 結果的に生じる動作を決定する前記ステップ(48)が、前記第1の車の制御パラメータを考慮することを含む、請求項からのいずれか一項に記載の前記方法。
  7. ユーザ焦点を検出する前記ステップ(40)が注視追跡に基づく、請求項1からのいずれか一項に記載の方法。
  8. 第1の車の望ましくない動作と、結果的に生じる動作とを決定するための車両動作決定器(1)であって、
    プロセッサ(60)と、
    前記プロセッサによって実行されたとき、前記車両動作決定器(1)に、
    自律車両中の第1のユーザ(5)が前記第1の車に焦点を合わせていることを検出することによって、ユーザ焦点を検出することと、
    前記第1のユーザ(5)の脳活動データを収集することと、
    前記脳活動データに基づいて前記第1のユーザ(5)の否定的反応を決定することと、
    前記第1の車に焦点を合わせている前記第1のユーザ(5)と、前記第1のユーザ(5)の前記否定的反応とに基づいて、前記第1の車が望ましくない動作を実行しているときを決定することと、
    前記望ましくない動作を実行している前記第1の車に基づいて、自律車によって取られるべき前記結果的に生じる動作を決定することと、
    前記結果的に生じる動作を実行するために前記自律車をトリガすることと
    を行わせる命令(67)を記憶するメモリ(64)と
    を含み、
    前記結果的に生じる動作を決定することは、異なる自律車両中の前記第1のユーザ(5)の数に応じた重み付けを用いて、前記結果的に生じる動作を決定することを含む、車両動作決定器(1)。
  9. ユーザ焦点を検出するための前記命令、および脳活動データを収集するための前記命令が第2のユーザについて繰り返され、前記第1の車両が望ましくない動作を実行しているときを決定するための前記命令がさらに、前記第1の車両に焦点を合わせている前記第2のユーザと前記第2のユーザの否定的反応とに基づく、請求項8に記載の車両動作決定器(1)。
  10. 前記プロセッサによって実行されたとき、前記車両動作決定器(1)に、
    前記第1の車の制御パラメータを収集すること
    を行わせる命令(67)をさらに含み、
    前記第1の車が望ましくない動作を実行しているときを決定するための前記命令がさらに、前記第1の車の前記制御パラメータに基づく、請求項8または9に記載の車両動作決定器(1)。
  11. 前記制御パラメータが、前記第1の車の現在の動きを記述する少なくとも1つのパラメータを含む、請求項10に記載の車両動作決定器(1)。
  12. 前記制御パラメータが、前記第1の車によって運転される道路の道路特性に関係する少なくとも1つのパラメータを含む、請求項10または11に記載の車両動作決定器(1)。
  13. 結果的に生じる動作を決定する前記命令が、前記プロセッサによって実行されたとき、前記車両動作決定器(1)に前記第1の車の制御パラメータを考慮することを行わせる命令(67)を含む、請求項10から12のいずれか一項に記載の車両動作決定器(1)。
  14. 検出するための前記命令が、前記プロセッサによって実行されたとき、前記車両動作決定器(1)に、注視追跡に基づいてユーザ焦点を検出することを行わせる命令(67)を含む、請求項から13のいずれか一項に記載の車両動作決定器(1)。
  15. 脳活動データを収集する前記命令において、前記脳活動データが脳波記録(EEG)に基づく、請求項から14のいずれか一項に記載の車両動作決定器(1)。
  16. ユーザ焦点を検出する前記命令が、前記プロセッサによって実行されたとき、前記車両動作決定器(1)に、前記第1のユーザ(5)からの特定の距離内の第1の車両のみを考慮することを行わせる命令(67)を含む、請求項から15のいずれか一項に記載の車両動作決定器(1)。
  17. 前記第1の車が望ましくない動作を実行しているときを決定する前記命令が、前記プロセッサによって実行されたとき、前記車両動作決定器(1)に、さらに前記第1の車の現在の地理的ロケーションに基づいて、前記第1の車が望ましくない動作を実行していることを決定することを行わせる命令(67)を含む、請求項から16のいずれか一項に記載の車両動作決定器(1)。
  18. 前記第1の車が望ましくない動作を実行しているときを決定する前記命令が、前記プロセッサによって実行されたとき、前記車両動作決定器(1)に、さらに前記第1の車の履歴運転データに基づいて、前記第1の車が望ましくない動作を実行しているときを決定することを行わせる命令(67)を含む、請求項から17のいずれか一項に記載の車両動作決定器(1)。
  19. 結果的に生じる動作を決定する前記命令において、前記結果的に生じる動作が前記自律車の修正制御動作である、請求項から18のいずれか一項に記載の車両動作決定器(1)。
  20. 前記プロセッサによって実行されたとき、前記車両動作決定器(1)に、前記第1の車両が望ましくない動作を実行していないとき、前記第1の車が望ましくない動作を実行していないことを示すフィードバックを前記第1のユーザ(5)に与えることを行わせる命令(67)をさらに含む、請求項から19のいずれか一項に記載の車両動作決定器(1)。
  21. 第1の車の望ましくない動作と、結果的に生じる動作とを決定するためのコンピュータプログラム(67、91)であって、車両動作決定器(1)上で実行されたとき、前記車両動作決定器(1)に、
    自律車両中の第1のユーザ(5)が前記第1の車に焦点を合わせていることを検出することによって、ユーザ焦点を検出することと、
    前記第1のユーザ(5)の脳活動データを収集することと、
    前記脳活動データに基づいて前記第1のユーザ(5)の否定的反応を決定することと、
    前記第1の車に焦点を合わせている前記第1のユーザ(5)と、前記第1のユーザ(5)の前記否定的反応とに基づいて、前記第1の車が望ましくない動作を実行しているときを決定することと、
    前記望ましくない動作を実行している前記第1の車に基づいて、自律車によって取られるべき前記結果的に生じる動作を決定することと、
    前記結果的に生じる動作を実行するために前記自律車をトリガすることと
    を行わせるコンピュータプログラムコードを含み、
    前記結果的に生じる動作を決定するステップは、異なる自律車両中の前記第1のユーザ(5)の数に応じた重み付けを用いて、前記結果的に生じる動作を決定することを含む、コンピュータプログラム(67、91)。
  22. 請求項21に記載のコンピュータプログラムが記憶されたコンピュータ可読手段。
JP2020531033A 2017-12-08 2017-12-08 車両の望ましくない動作を決定すること Active JP7223758B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/SE2017/051235 WO2019112501A1 (en) 2017-12-08 2017-12-08 Determining an undesired action of a vehicle

Publications (2)

Publication Number Publication Date
JP2021506011A JP2021506011A (ja) 2021-02-18
JP7223758B2 true JP7223758B2 (ja) 2023-02-16

Family

ID=66751114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020531033A Active JP7223758B2 (ja) 2017-12-08 2017-12-08 車両の望ましくない動作を決定すること

Country Status (5)

Country Link
US (1) US11634159B2 (ja)
EP (1) EP3720748A4 (ja)
JP (1) JP7223758B2 (ja)
CN (1) CN111527014B (ja)
WO (1) WO2019112501A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113015981A (zh) * 2018-11-16 2021-06-22 华为技术有限公司 利用第一原则和约束进行有效、连续和安全学习的系统和方法
EP3969344A1 (en) * 2019-07-08 2022-03-23 Huawei Technologies Co., Ltd. System and method for improving interaction of a plurality of autonomous vehicles with a driving environment including said vehicles
KR102664123B1 (ko) * 2019-09-09 2024-05-09 현대자동차주식회사 차량 데이터 생성 장치 및 방법, 그리고 시스템
US11635758B2 (en) * 2019-11-26 2023-04-25 Nissan North America, Inc. Risk aware executor with action set recommendations
US20230166765A1 (en) * 2021-12-01 2023-06-01 Waymo Llc Operational Response Model based on Operational Parameters
US20240010230A1 (en) * 2022-07-05 2024-01-11 GM Global Technology Operations LLC Method of determining a continuous driving path in the absence of a navigational route for autonomous vehicles

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004220348A (ja) 2003-01-15 2004-08-05 Nissan Motor Co Ltd 車両走行状態検出装置及び車両走行制御装置
WO2017177128A1 (en) 2016-04-08 2017-10-12 The Trustees Of Columbia University In The City Of New York Systems and methods for deep reinforcement learning using a brain-artificial intelligence interface
JP2017204015A (ja) 2016-05-09 2017-11-16 株式会社東海理化電機製作所 運転支援装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8384534B2 (en) * 2010-01-14 2013-02-26 Toyota Motor Engineering & Manufacturing North America, Inc. Combining driver and environment sensing for vehicular safety systems
JP2011198247A (ja) * 2010-03-23 2011-10-06 Toyota Motor Corp 運転支援装置
US9994228B2 (en) * 2010-05-14 2018-06-12 Iarmourholdings, Inc. Systems and methods for controlling a vehicle or device in response to a measured human response to a provocative environment
US8698639B2 (en) * 2011-02-18 2014-04-15 Honda Motor Co., Ltd. System and method for responding to driver behavior
US9517776B2 (en) * 2011-12-29 2016-12-13 Intel Corporation Systems, methods, and apparatus for controlling devices based on a detected gaze
US20130325202A1 (en) * 2012-06-01 2013-12-05 GM Global Technology Operations LLC Neuro-cognitive driver state processing
CA3187490A1 (en) * 2013-03-15 2014-09-18 Interaxon Inc. Wearable computing apparatus and method
US9936916B2 (en) * 2013-10-09 2018-04-10 Nedim T. SAHIN Systems, environment and methods for identification and analysis of recurring transitory physiological states and events using a portable data collection device
US10405786B2 (en) * 2013-10-09 2019-09-10 Nedim T. SAHIN Systems, environment and methods for evaluation and management of autism spectrum disorder using a wearable data collection device
JP6520506B2 (ja) * 2014-09-03 2019-05-29 株式会社デンソー 車両の走行制御システム
JP6287728B2 (ja) 2014-09-25 2018-03-07 株式会社デンソー 車載システム、車両制御装置、および車両制御装置用のプログラム
US10046618B2 (en) * 2014-10-15 2018-08-14 Honda Motor Co., Ltd. System and method for vehicle control integrating environmental conditions
US9399430B2 (en) 2014-12-02 2016-07-26 Honda Motor Co., Ltd. System and method for vehicle control integrating health priority alerts of vehicle occupants
US20160362111A1 (en) * 2015-06-12 2016-12-15 Jaguar Land Rover Limited Driver awareness sensing and indicator control
US10618521B2 (en) * 2015-09-21 2020-04-14 Ford Global Technologies, Llc Wearable in-vehicle eye gaze detection
KR102137213B1 (ko) 2015-11-16 2020-08-13 삼성전자 주식회사 자율 주행을 위한 모델 학습 장치 및 방법과 자율 주행 장치
JP6699831B2 (ja) * 2016-04-28 2020-05-27 トヨタ自動車株式会社 運転意識推定装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004220348A (ja) 2003-01-15 2004-08-05 Nissan Motor Co Ltd 車両走行状態検出装置及び車両走行制御装置
WO2017177128A1 (en) 2016-04-08 2017-10-12 The Trustees Of Columbia University In The City Of New York Systems and methods for deep reinforcement learning using a brain-artificial intelligence interface
JP2017204015A (ja) 2016-05-09 2017-11-16 株式会社東海理化電機製作所 運転支援装置

Also Published As

Publication number Publication date
CN111527014B (zh) 2024-04-16
WO2019112501A1 (en) 2019-06-13
EP3720748A1 (en) 2020-10-14
CN111527014A (zh) 2020-08-11
EP3720748A4 (en) 2020-12-16
JP2021506011A (ja) 2021-02-18
US11634159B2 (en) 2023-04-25
US20200346665A1 (en) 2020-11-05

Similar Documents

Publication Publication Date Title
JP7223758B2 (ja) 車両の望ましくない動作を決定すること
US10791979B2 (en) Apparatus and method to train autonomous driving model, and autonomous driving apparatus
US11181921B2 (en) System and method for hierarchical planning in autonomous vehicles
JP6832421B2 (ja) シミュレーションに基づく自動運転車の感知要求の評価方法
US20230418299A1 (en) Controlling autonomous vehicles using safe arrival times
Van Brummelen et al. Autonomous vehicle perception: The technology of today and tomorrow
US11231717B2 (en) Auto-tuning motion planning system for autonomous vehicles
JP7191843B2 (ja) 自律車両用の行動計画システム及び方法
CN113165652B (zh) 使用基于网格的方法检验预测轨迹
JP2020187754A (ja) 課せられる責任の制約を伴うナビゲーションシステム
CN108334077B (zh) 确定自动驾驶车辆的速度控制的单位增益的方法和系统
JP6846624B2 (ja) 画像表示システム、画像表示方法及びプログラム
CN107985313B (zh) 用于自主车辆的基于弹簧系统的变换车道方法
JP2019185783A (ja) シミュレーションプラットフォームに配置された、機械学習モデルを訓練するためのシステム及び方法
JP2020125106A (ja) V2xが可能な多様な応用プログラムを利用して自律走行車両の現在の走行意図を人に対してシグナリングする方法及び装置
JP2020004402A (ja) ニューラルネットワークに基づく自動運転車両用の安全監視システム
CN111258217A (zh) 实时对象行为预测
EP2884424A1 (en) Method of programming a neural network computer
KR102166811B1 (ko) 심층강화학습과 운전자보조시스템을 이용한 자율주행차량의 제어 방법 및 장치
CN116209611B (zh) 在自动驾驶中使用其他道路使用者对自我交通工具行为的反应的方法和系统
EP4316935A1 (en) Method and apparatus for obtaining lane change area
JPWO2018162521A5 (ja)
JP2019189213A (ja) 自動運転車における車線後処理
WO2021090897A1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2018063476A (ja) 運転支援装置、運転支援方法及び運転支援用コンピュータプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200813

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200813

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210922

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211012

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20211223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220407

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221013

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230206

R150 Certificate of patent or registration of utility model

Ref document number: 7223758

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150