JP2023541322A - 低信頼度の物体検出条件における車両動作のための注釈及びマッピング - Google Patents

低信頼度の物体検出条件における車両動作のための注釈及びマッピング Download PDF

Info

Publication number
JP2023541322A
JP2023541322A JP2023519434A JP2023519434A JP2023541322A JP 2023541322 A JP2023541322 A JP 2023541322A JP 2023519434 A JP2023519434 A JP 2023519434A JP 2023519434 A JP2023519434 A JP 2023519434A JP 2023541322 A JP2023541322 A JP 2023541322A
Authority
JP
Japan
Prior art keywords
flow control
control device
traffic flow
vehicle
type
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2023519434A
Other languages
English (en)
Other versions
JP7462837B2 (ja
Inventor
ルイス ロレンツォ ビル、
デビッド イルストラップ、
ステファン ウィトウィッキ、
カイル ホリンズ レイ、
Original Assignee
ニッサン ノース アメリカ,インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ニッサン ノース アメリカ,インク filed Critical ニッサン ノース アメリカ,インク
Publication of JP2023541322A publication Critical patent/JP2023541322A/ja
Application granted granted Critical
Publication of JP7462837B2 publication Critical patent/JP7462837B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18154Approaching an intersection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/582Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of traffic signs
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/095Traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/146Display means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/21Voice
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/215Selection or confirmation of options
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/223Posture, e.g. hand, foot, or seat position, turned or inclined
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2540/00Input parameters relating to occupants
    • B60W2540/225Direction of gaze
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2555/00Input parameters relating to exterior conditions, not covered by groups B60W2552/00, B60W2554/00
    • B60W2555/60Traffic rules, e.g. speed limits or right of way
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/20Data confidence level
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/40High definition maps

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)

Abstract

車両は、交差点に接近すると、少なくとも1つのセンサからセンサデータを受信し、交差点の交通流制御デバイスが検出されたかどうかを決定する。検出された場合、交通流制御デバイスの検出されたタイプ、検出された状態、又はその両方が決定される。交差点のタイプを使用して、交通流制御デバイスが検出されていないか、又は検出されたタイプ、検出された状態、又はその両方が、検出信頼度の定義されたレベルより低い検出信頼度によって決定された場合に、交通流制御デバイスの既存のタイプ又は既存の状態の少なくとも1つが決定される。交通流制御デバイスは、車両の少なくとも1つの制御システム内で、その位置及び既存のタイプ、既存の状態、又はその両方を含むラベルによってタグ付けされる。車両は、ラベルが組み込まれた制御システムを使用して、車両交通網内で動作させられる。

Description

本開示は、全般的には車両動作管理及び運転に関連し、特に、低信頼度の物体検出条件における車両動作のための注釈及びマッピングの使用に関連する。
自律走行車等の車両は、車両交通網の一部(例えば、道路)を移動する場合がある。車両交通網の一部を移動することは、車両のセンサ等によって、車両の動作環境又はその一部を表すデータ等のデータを生成又はキャプチャすることを含む場合がある。車両交通網の一部を移動することは、キャプチャされたデータに応じてアクションを実行することを含む場合がある。アクションは、人工知能(例えば、訓練された機械学習モデル)又はその他の意思決定モデルを使用して選択される場合がある。
本明細書には、低信頼度の物体検出条件における車両動作のための注釈及びマッピングのための態様、特徴、要素、実装、及び実施形態が開示されている。本開示により、入力データが存在しない場合又は不完全な場合でも動作を決定することが可能になる。
開示された実施形態の一態様は、車両を動作させる方法であって、車両が車両交通網内の交差点に接近すると、前記車両のプロセッサにおいて、少なくとも1つの車載センサからセンサデータを受信するステップと、前記センサデータを使用して、前記交差点に関する交通流制御デバイスが検出されたかどうかを決定するステップと、前記交通流制御デバイスが検出された場合に、前記交通流制御デバイスの検出されたタイプ又は検出された状態の少なくとも1つを決定するステップとを含む方法である。また、この方法は、前記プロセッサ及び前記交差点のタイプを使用して、前記交通流制御デバイスの既存のタイプ又は既存の状態の少なくとも1つを決定するステップであって、前記交通流制御デバイスの少なくとも1つが検出されないか、又は前記交通流制御デバイスの前記検出されたタイプ又は前記検出された状態の少なくとも1つが、検出信頼度の定義されたレベルより低い検出信頼度により決定されるステップと、前記車両用の少なくとも1つの制御システム内で、前記交通流制御デバイスの位置、及び前記交通流制御デバイスの前記既存のタイプ又は前記既存の状態の少なくとも1つを含むラベルによって前記交通流制御デバイスをタグ付けするステップと、前記交通流制御デバイスに関する前記ラベルが組み込まれた前記少なくとも1つの制御システムを使用して、前記車両交通網内で前記車両を動作させるステップとを含む。
開示された実施形態の別の態様は、車両を動作させるための装置である。この装置は、車両が車両交通網内の交差点に接近すると、少なくとも1つの車載センサからセンサデータを受信すること、前記センサデータを使用して、前記交差点に関する交通流制御デバイスが検出されたかどうかを決定すること、前記交通流制御デバイスが検出された場合に、前記交通流制御デバイスの検出されたタイプ又は検出された状態の少なくとも1つを決定することを行うように構成されるプロセッサを含む。また、前記プロセッサは、前記交差点のタイプを使用して、前記交通流制御デバイスの既存のタイプ又は既存の状態の少なくとも1つを決定することであって、前記交通流制御デバイスの少なくとも1つが検出されないか、又は前記交通流制御デバイスの前記検出されたタイプ又は前記検出された状態の少なくとも1つが、検出信頼度の定義されたレベルより低い検出信頼度により決定されること、及び前記車両用の少なくとも1つの制御システム内で、前記交通流制御デバイスの位置、及び前記交通流制御デバイスの前記既存のタイプ又は前記既存の状態の少なくとも1つを含むラベルによって前記交通流制御デバイスをタグ付けすることを行うように構成される。前記車両は、前記交通流制御デバイスに関する前記ラベルが組み込まれた前記少なくとも1つの制御システムを使用して、前記車両交通網内で動作するように構成される。
開示された実施形態の別の態様は、少なくとも1つの車載センサ、少なくとも1つの制御システム、及びプロセッサを含む車両である。前記プロセッサは、車両が車両交通網内の交差点に接近すると、前記少なくとも1つの車載センサからセンサデータを受信すること、前記センサデータを使用して、前記交差点に関する交通流制御デバイスが検出されたかどうかを決定すること、前記交通流制御デバイスが検出された場合に、前記交通流制御デバイスの検出されたタイプ又は検出された状態の少なくとも1つを決定することを行うように構成される。また、前記プロセッサは、前記交差点の識別を使用して、前記交通流制御デバイスの既存のタイプ又は既存の状態の少なくとも1つを決定することであって、前記交通流制御デバイスの少なくとも1つが前記センサデータによって検出されないか、又は前記交通流制御デバイスの前記検出されたタイプ又は前記検出された状態の少なくとも1つが、検出信頼度の定義されたレベルより低い検出信頼度により決定されること、及び前記少なくとも1つの制御システム内で、前記交通流制御デバイスの位置、及び前記交通流制御デバイスの前記既存のタイプ又は前記既存の状態の少なくとも1つを含むラベルによって前記交通流制御デバイスをタグ付けすることを行うように構成される。前記車両は、前記交通流制御デバイスに関する前記ラベルが組み込まれた前記少なくとも1つの制御システムを使用して、前記車両交通網内で前記車両を動作させるように構成される。
以下では、本明細書に開示された方法、装置、プロシージャ及びアルゴリズムのこうした及び他の態様、特徴、要素、実装及び実施形態の変形がさらに詳細に記載される。
本明細書に開示された方法及び装置の様々な態様は、以下の記載及び図面において提供される例示を参照することでより明らかになるであろう。ここで同じ参照番号は同じ要素を指している。
本明細書に開示の態様、特徴及び要素が実装され得る車両の例を示す図である。
本明細書に開示の態様、特徴及び要素が実装され得る車両交通及び通信システムの一部の例示の図面である。
本開示の実施形態による車両動作管理システムの一例の図である。
本明細書の教示に従って低信頼度の物体検出条件に対処する車両を動作させる方法のフローチャートである。
本明細書の教示に従って交通流制御デバイスを検出する方法のフローチャートである。
図4の方法に従って交通流制御デバイスの既存のタイプ、既存の状態、又はその両方を決定する方法のフローチャートである。
図6の方法に従った車両とのユーザの相互作用の一例の図である。
自律走行車(AV)、半自律走行車、その他の車両等の車両が、車両交通網の一部を移動する場合がある。車両は1つ以上のセンサを含んでもよく、車両交通網を移動することは、センサが車両の動作環境又はその一部に対応するセンサデータ等のセンサデータを生成又はキャプチャすることを含んでもよい。例えば、センサデータは、車両動作環境の中の歩行者、リモート車両、他の物体等の1つ以上の外部物体、車両交通網の形状、又はこれらの組み合わせに対応する情報を識別してもよい。これは、本明細書では車両物体検出、又は単に物体検出と呼ばれ得る。
物体検出は、車両交通網の交差点で車両の動作中にアクションを提案し又はアクションを実行するために、ローカルに保存された1つ以上のマップ、又は車両が使用できる1つ以上のリモートマップと組み合わせて使用されてもよい。例えば、車両は、リモートで生成され且つ一般的に車両によって使用され得る全ての交通標識及び道路の場所を含む高精細マップに依存している場合がある。マップがあらかじめ組み込まれている(つまり、車両内でローカルに保存されている)場合、そこでの更新間のデータの静的な性質のためにナビゲーション及び意思決定が妨げられ得る。代替的に、マップは、例えば、リモート車両サポートシステムから動的に提供される場合がある。しかしながら、この場合、通信の問題等によって時々マップが利用できない場合がある。さらに、あらかじめ組み込まれているマップを使用する場合よりも更新頻度が速くなる場合があるが、新しい場所又は更新された場所の修正は直ちには利用可能とならない。いずれの場合も、このようなマップへの過度の依存は望ましくない可能性がある。詳細度の低いマップには、特定の場所に関連する全ての情報が含まれていない場合がある。
上記は、物体の検出が正確であることを示唆している。物体の検出自体は、様々な精度を有する。これは、センサデータによって識別された物体が、多数の既知の物体の中の1つの物体とどの程度一致するかを示す確率又はその他の尺度によって示されてもよい。センサは、異なる感度を有する。さらに、車両交通システムで動作するときの条件は、特にマップが利用できない場合又は不完全なデータを有する場合に、センサの有効性又は精度を所望のレベル以下に低下させる場合がある。交差点に関しては、例えば、交通流制御デバイスが部分的に又は完全に遮蔽されている場合があり、その結果、交通流制御デバイスを識別するためのセンサデータの信頼性が低下する。
本開示は、車両が車両交通網内で正常に動作するためのこのような低信頼度の物体検出条件に対処するものである。交通流制御デバイス等の物体を正確に識別し、その後注釈を付けてマッピングすることで、リモートで生成された(例えば、高精細)マップへの依存を減らすことができる。以下に記載する詳細について、最初に本発明が使用され得る車両を説明する。本教示は、一例として、一般的にAVの動作に関して記載される。記載から明らかなように、本教示は、AV、半自律走行車、又は物体検出のためにセンサデータを使用するその他の任意の車両で使用されてもよい。
図1は、本明細書に開示の態様、特徴及び要素が実装され得る車両の例を示す図である。図示のように、車両100は、シャーシ110と、パワートレイン120と、コントローラ130と、車輪140とを含む。簡潔のため、車両100は4つの車輪140を含むように示されているが、プロペラ又はトレッド等の1つ以上の任意の他の推進装置が使用されてもよい。図1において、パワートレイン120、コントローラ130及び車輪140等の要素を相互接続する線は、データ又は制御信号等の情報、電力又はトルク等の力、又は情報及び電力の両方が各要素間で伝達され得ることを示している。例えば、コントローラ130は、パワートレイン120から電力を受信して、パワートレイン120、車輪140、又はその両方と通信して、車両100を制御してもよく、これは、車両100を加速、減速、操縦又は他のやり方で制御することを含み得る。
図示のように、パワートレイン120は、電源121と、トランスミッション122と、ステアリング装置123と、アクチュエータ124とを含む。サスペンション、駆動シャフト、車軸、又は排気システム等のパワートレインの他の要素又は要素の組み合わせが含まれてもよい。別々に示されているが、車輪140は、パワートレイン120に含まれてもよい。
電源121は、エンジン、バッテリ、又はこれらの組み合わせを含んでもよい。電源121は、電気エネルギ、熱エネルギ又は運動エネルギ等のエネルギを提供するように動作する任意のデバイス又はデバイスの組み合わせであってもよい。例えば、電源121は、内燃エンジン、電気モータ又は内燃エンジン及び電気モータの組み合わせ等のエンジンを含んでもよく、1つ以上の車輪140に原動力としての運動エネルギを提供するように動作してもよい。電源121は、ニッケルカドミウム(NiCd)、ニッケル亜鉛(NiZn)、ニッケル水素(NiMH)、リチウムイオン(Li-ion)等の1つ以上の乾電池、太陽電池、燃料電池、又はエネルギを提供することが可能な任意の他のデバイス等のポテンシャルエネルギ装置を含んでもよい。
トランスミッション122は、電源121から運動エネルギ等のエネルギを受信してもよく、原動力を提供するために車輪140にエネルギを送ってもよい。トランスミッション122は、コントローラ130、アクチュエータ124又はその両方によって制御されてもよい。ステアリング装置123は、コントローラ130、アクチュエータ124又はその両方によって制御され、車両を操縦するために車輪140を制御してもよい。アクチュエータ124は、コントローラ130から信号を受信してもよく、車両100を動作させるために電源121、トランスミッション122、ステアリング装置123又はこれらの任意の組み合わせを作動又は制御してもよい。
図示のように、コントローラ130は、位置決め装置131、電子通信装置132、プロセッサ133、メモリ134、ユーザインターフェース135、センサ136、電子通信インターフェース137又はこれらの任意の組み合わせを含んでもよい。単一の装置として示されているが、コントローラ130の任意の1つ以上の要素が任意の数の分離した物理装置に組み込まれてもよい。例えば、ユーザインターフェース135及びプロセッサ133は、第1の物理装置に組み込まれてもよく、メモリ134は、第2の物理装置に組み込まれてもよい。図1には示されていないが、コントローラ130は、バッテリ等の電源1210を含んでもよい。個別の要素として示されているが、位置決め装置131、電子通信装置132、プロセッサ133、メモリ134、ユーザインターフェース135、センサ136、電子通信インターフェース137、又はこれらの任意の組み合わせは、1つ以上の電子装置、回路又はチップに組み込まれてもよい。
プロセッサ133は、光プロセッサ、量子プロセッサ、分子プロセッサ又はこれらの組み合わせを含む現存する又は今後開発される信号又は他の情報を操作又は処理することが可能な任意のデバイス又はデバイスの組み合わせを含んでもよい。例えば、プロセッサ133は、1つ以上の専用プロセッサ、1つ以上のデジタル信号プロセッサ、1つ以上のマイクロプロセッサ、1つ以上のコントローラ、1つ以上のマイクロコントローラ、1つ以上の集積回路、1つ以上の特定用途向け集積回路、1つ以上のフィールドプログラマブルゲートアレイ、1つ以上のプログラマブルロジックアレイ、1つ以上のプログラマブルロジックコントローラ、1つ以上の状態機械、又はこれらの任意の組み合わせを含んでもよい。プロセッサ133は、位置決め装置131、メモリ134、電子通信インターフェース137、電子通信装置132、ユーザインターフェース135、センサ136、パワートレイン120、又はこれらの任意の組み合わせと動作可能に結合されてもよい。例えば、プロセッサは、通信バス138を介してメモリ134と動作可能に結合されてもよい。
メモリ134は、プロセッサ133によって使用される又はそれと接続される、機械可読命令又はそれに関連付けられる任意の情報を、例えば、保持、記憶、伝達又は搬送することが可能な任意の有形の非一時的なコンピュータ使用可能又はコンピュータ可読媒体を含んでもよい。メモリ134は、例えば、1つ以上の半導体ドライブ、1つ以上のメモリカード、1つ以上のリムーバブル媒体、1つ以上の読み取り専用メモリ、1つ以上のランダムアクセスメモリ、ハードディスク、フロッピーディスク、光学ディスクを含む1つ以上のディスク、磁気若しくは光学カード、又は電子情報を記憶するのに適した任意のタイプの非一時的な媒体、又はこれらの任意の組み合わせであってもよい。
通信インターフェース137は、図示のような無線アンテナ、有線通信ポート、光学通信ポート、又は有線若しくは無線電子通信媒体150とインターフェース接続することが可能な任意の他の有線若しくは無線装置であってもよい。図1は単一の通信リンクを介して通信を行う通信インターフェース137が示されているが、通信インターフェースは、複数の通信リンクを介して通信を行うように構成されてもよい。図1は単一の通信インターフェース137を示しているが、車両は、任意の数の通信インターフェースを含んでもよい。
通信装置132は、通信インターフェース137等を介して、有線又は無線電子通信媒体150を介して信号を送信又は受信するように構成されてもよい。図1に明示されていないが、通信装置132は、無線周波数(RF)、紫外線(UV)、可視光、光ファイバ、有線回線、又はこれらの組み合わせ等の任意の有線又は無線通信媒体を介して送信、受信又は両方を行うように構成されてもよい。図1は、単一の通信装置132及び単一の通信インターフェース137を示しているが、任意の数の通信装置及び任意の数の通信インターフェースが使用されてもよい。いくつかの実施形態では、通信装置132は、狭域通信(DSRC)装置、車載装置(OBU)、又はこれらの組み合わせを含んでもよい。
位置決め装置131は、車両100の経度、緯度、高度、進行方向又は速さ等の地理情報を決定してもよい。例えば、位置決め装置は、広域補強システム(Wide Area Augmentation System;WAAS)対応米国海洋電子機器協会(National Marine-Electronics Association;NMEA)装置、無線三角測量装置、又はこれらの組み合わせ等の全地球測位システム(GPS)装置を含んでもよい。位置決め装置131は、例えば、車両100の現在の向き、2次元又は3次元での車両100の現在地、車両100の現在の角度方向、又はこれらの組み合わせを表す情報を取得するために使用され得る。
ユーザインターフェース135は、仮想又は物理キーパッド、接触パッド、ディスプレイ、接触ディスプレイ、ヘッドアップディスプレイ、仮想ディスプレイ、拡張現実ディスプレイ、触覚ディスプレイ、視線追跡装置等の特徴追跡デバイス、スピーカ、マイクロホン、ビデオカメラ、センサ、プリンタ、又はこれらの任意の組み合わせ等、人物とインターフェースすることが可能な任意の装置を含んでもよい。ユーザインターフェース135は、図示のようにプロセッサ133と、又はコントローラ130の任意の他の要素と動作可能に結合されてもよい。単一の装置として示されているが、ユーザインターフェース135は、1つ以上の物理装置を含んでもよい。例えば、ユーザインターフェース135は、人物との音声通信を行うためのオーディオインターフェース、及び人物との視覚及びタッチに基づく通信を行うためのタッチディスプレイを含んでもよい。ユーザインターフェース135は、複数の物理的に分離した装置、単一の物理装置の中の複数の定義部分、又はこれらの組み合わせ等の複数のディスプレイを含んでもよい。
センサ136は、車両を制御するために使用され得る情報を提供するように動作し得るセンサの配列等の1つ以上のセンサを含んでもよい。センサ136は、車両100の現在の動作特徴に関する情報を提供してもよい。センサ136は、例えば、速度センサ、加速度センサ、ステアリング角センサ、トラクション関連センサ、ブレーキ関連センサ、ハンドル位置センサ、視線追跡センサ、着座位置センサ、又は車両100の現在の動的状況の何らかの態様に関する情報を報告するように動作可能な任意のセンサ若しくはセンサの組み合わせを含み得る。
センサ136は、車両100を取り囲む物理環境に関する情報を取得するように動作可能な1つ以上のセンサを含んでもよい。例えば、1つ以上のセンサが、車線等の道路の特徴及び形状、及び固定障害物、車両及び歩行者等の障害物を検出してもよい。センサ136は、既知の又は後に開発される、1つ以上のビデオカメラ、レーザ感知システム、赤外線感知システム、音響感知システム、又は任意の他の適切なタイプの車載環境感知デバイス、又はデバイスの組み合わせであるか、又はこれらを含み得る。いくつかの実施形態では、センサ136及び位置決め装置131は、結合された装置であってもよい。
別に示されてはいないが、車両100は、軌道コントローラを含んでもよい。例えば、コントローラ130が、軌道コントローラを含んでもよい。軌道コントローラは、車両100の現在の状態及び車両100に対して計画された経路を記述する情報を取得し、この情報に基づいて、車両100に対する軌道を決定及び最適化するように動作可能であってもよい。いくつかの実施形態では、軌道コントローラは、車両100が軌道コントローラによって決定される軌道に従うように、車両100を制御するように動作可能な信号を出力してもよい。例えば、軌道コントローラの出力は、パワートレイン120、車輪140又はその両方に供給され得る最適化された軌道であり得る。いくつかの実施形態において、最適化された軌道は、一組のステアリング角等の制御入力であってもよく、各ステアリング角は1つの時点又は位置に対応する。いくつかの実施形態において、最適化された軌道は、1つ以上の経路、線、曲線、又はこれらの組み合わせであり得る。
1つ以上の車輪140は、ステアリング装置123の制御下でステアリング角に枢動され得る操縦された車輪、トランスミッション122の制御下で車両100を推進するためのトルクを与えられ得る推進された車輪、又は車両100を操縦及び推進し得る操縦及び推進された車輪であってもよい。
車両は、エンクロージャ、ブルートゥース(登録商標)モジュール、周波数変調(FM)ラジオ装置、近距離無線通信(NFC)モジュール、液晶ディスプレイ(LCD)ディスプレイ装置、有機発光ダイオード(OLED)ディスプレイ装置、スピーカ、又はこれらの任意の組み合わせ等の図1に明示されていない装置又は要素を含んでもよい。
車両100は、交通網の一部を移動するように、直接的な人間の介入なしで、自律的に制御される自律走行車であってもよい。図1に別に示されていないが、自律走行車は、自律走行車の経路指定、ナビゲーション及び制御を行い得る自律走行車制御装置を含んでもよい。自律走行車制御装置は、車両の別の装置と一体化されてもよい。例えば、コントローラ130は、自律走行車制御装置を含んでもよい。本明細書の教示は、半自律走行車、又は他の車両にも適用可能である。
自律走行車制御装置は、現在の車両動作パラメータに従って車両交通網の一部を移動するように車両100を制御し又は動作させてもよい。自律走行車制御装置は、車両の駐車等の定義された動作又は操縦を行うように車両100を制御し又は動作させてもよい。自律走行車制御装置は、車両情報、環境情報、車両交通網を表す車両交通網データ、又はこれらの組み合わせに基づいて車両100の現在地等の出発地から目的地への移動経路を生成してもよく、経路に従って車両交通網を移動するように車両100を制御し又は動作させてもよい。例えば、自律走行車制御装置は、軌道コントローラに移動経路を出力してもよく、軌道コントローラは、生成された経路を使用して出発点から目的地に移動するように車両100を動作させてもよい。
図2は、本明細書に開示の態様、特徴及び要素が実装され得る車両交通及び通信システムの一部の例示の図面である。車両交通及び通信システム200は、図1に示される車両100等の1つ以上の車両210/211を含んでもよく、これは1つ以上の車両交通網220の1つ以上の部分を移動してもよく、1つ以上の電子通信ネットワーク230を介して通信を行ってもよい。図2には明示されていないが、車両は、オフロード領域等の車両交通網に明示的に又は完全には含まれていない領域を移動してもよい。
電子通信ネットワーク230は、例えば、多重アクセスシステムであってもよく、車両210/211と1つ以上の通信デバイス240との間の音声通信、データ通信、映像通信、メッセージング通信、又はこれらの組み合わせ等の通信を提供してもよい。例えば、車両210/211は、ネットワーク230を介して通信デバイス240から車両交通網220を表す情報等の情報を受信してもよい。
いくつかの実施形態では、車両210/211は、有線通信リンク(図示せず)、無線通信リンク231/232/237、又は任意の数の有線若しくは無線通信リンクの組み合わせを介して通信してもよい。例えば、図示のように、車両211/211は、陸上無線通信リンク231を介して、非陸上無線通信リンク232を介して、又はこれらの組み合わせを介して通信してもよい。陸上無線通信リンク231は、イーサネット(登録商標)リンク、シリアルリンク、ブルートゥース(登録商標)リンク、赤外線(IR)リンク、UVリンク、又は電子通信を提供可能な任意のリンクを含んでもよい。
車両210/211は、別の車両210/2110と通信してもよい。例えば、ホスト又は対象の車両(HV)210が、直接通信リンク237を介して又はネットワーク230を介して、遠隔又は目標車両(RV)211から基本安全メッセージ(basic safety message;BSM)等の1つ以上の自律走行車間メッセージを受信してもよい。例えば、リモート車両211は、300メートル等の定義されたブロードキャスト範囲内のホスト車両にメッセージをブロードキャストしてもよい。いくつかの実施形態では、ホスト車両210は、信号リピータ(図示せず)又は別のリモート車両(図示せず)等のサードパーティを介してメッセージを受信してもよい。車両210/211は、例えば、100ミリ秒等の定義された間隔に基づいて周期的に1つ以上の自動車両間メッセージを送信してもよい。
自動車両間メッセージは、車両識別情報、経度、緯度若しくは高度情報等の地理空間状態情報、地理空間位置精度情報、車両加速度情報、ヨーレート情報、速度情報、車両方位情報、制動システム状態情報、スロットル情報、ハンドル角度情報若しくは車両経路情報等の運動状態情報、又は送信車両状態に関連する車両サイズ情報、ヘッドライト状態情報、方向指示器情報、ワイパー状態情報、トランスミッション情報若しくは任意の他の情報若しくは情報の組み合わせ等の車両動作状態情報を含んでもよい。例えば、トランスミッション状態情報は、送信車両のトランスミッションがニュートラル状態、駐車状態、前進状態又は後退状態に有るかどうかを示してもよい。
車両210は、アクセスポイント233を介して通信ネットワーク230と通信してもよい。コンピュータ装置を含み得るアクセスポイント233は、無線又は有線通信リンク231/234を介して、車両210と、通信ネットワーク230と、1つ以上の通信デバイス240と、又はこれらの組み合わせと通信するように構成されてもよい。例えば、アクセスポイント233は、基地局、BTS(base transceiver station)、Node-B、eNode-B(enhanced Node-B)、HNode-B(Home Node-B)、無線ルータ、有線ルータ、ハブ、リレー、スイッチ、又は任意の類似の有線若しくは無線デバイスであってもよい。図2には単一の装置として示されているが、アクセスポイントは、任意の数の相互接続要素を含んでもよい。
車両210は、衛星235又は他の非陸上通信デバイスを介して通信ネットワーク230と通信してもよい。コンピュータデバイスを含み得る衛星235は、1つ以上の通信リンク232/236を介して、車両210と、通信ネットワーク230と、1つ以上の通信デバイス240と、又はこれらの組み合わせと通信するように構成されてもよい。図2には単一の装置として示されているが、衛星は、任意の数の相互接続要素を含んでもよい。
電子通信ネットワーク230は、音声、データ、又は任意の他のタイプの電子通信装置を提供するように構成される任意のタイプのネットワークであってもよい。例えば、電子通信ネットワーク230は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、仮想プライベートネットワーク(VPN)、モバイル若しくはセルラ電話ネットワーク、インターネット、又は任意の他の電子通信システムを含んでもよい。電子通信ネットワーク230は、トランスミッションコントロールプロトコル(TCP)、ユーザデータグラムプロトコル(UDP)、インターネットプロトコル(IP)、リアルタイムトランスポートプロトコル(RTP)、ハイパーテキストトランスポートプロトコル(HTTP)、又はこれらの組み合わせ等の通信プロトコルを使用してもよい。図2には単一の装置として示されているが、電子通信ネットワークは、任意の数の相互接続要素を含んでもよい。
車両210は、車両交通網220の一部又は状態を識別してもよい。例えば、車両210は、速度センサ、車輪速度センサ、カメラ、ジャイロスコープ、光学センサ、レーザセンサ、レーダセンサ、音響センサ、又は車両交通網220の一部若しくは状態を決定若しくは識別することが可能な任意の他のセンサ若しくは装置又はこれらの組み合わせを含み得る図1に示されたセンサ136等の1つ以上の車載センサを含んでもよい。センサデータは、車線データ、リモート車両位置データ、又はその両方を含んでもよい。
車両210は、交通網220を表す情報、1つ以上の車載センサ、又はこれらの組み合わせ等のネットワーク230を介して伝達される情報を使用して、1つ以上の車両交通網220の一部又は複数の部分を移動してもよい。
簡潔のため、図2は2つの車両210、211、1つの車両交通網220、1つの電子通信ネットワーク230及び1つの通信ネットワーク240を示しているが、任意の数のネットワーク又はコンピュータデバイスが使用されてもよい。車両交通及び通信システム200は、図2に示されていないデバイス、装置又は要素を含んでもよい。車両210は単一の装置として示されているが、車両は、任意の数の相互接続要素を含んでもよい。
ネットワーク230を介して通信デバイス240と通信する車両210が示されているが、車両210は、任意の数の直接又は間接通信リンクを介して通信デバイス240と通信してもよい。例えば、車両210は、ブルートゥース(登録商標)通信リンク等の直接通信リンクを介して通信デバイス240と通信してもよい。
いくつかの実施形態では、車両210/211は、車両の運転者、オペレータ、又は所有者等のエンティティ250/260に関連付けられてもよい。いくつかの実施形態では、車両210/211に関連付けられるエンティティ250/260は、スマートフォン252/262又はコンピュータ254/264等の1つ以上のパーソナル電子デバイス252/254/262/264に関連付けられてもよい。いくつかの実施形態では、パーソナル電子デバイス252/254/262/264は、直接又は間接通信リンクを介して対応する車両210/211と通信してもよい。1つのエンティティ250/260が図2の各車両210/211に関連付けられるように示されているが、任意の数の車両が、エンティティに関連付けられてもよく、任意の数のエンティティが、車両に関連付けられてもよい。
車両交通網220は通行可能エリア(例えば、道路)のみを示しているが、車両交通網は、建物等の1つ以上の通行不能エリア、駐車エリア又は歩行者用の歩道等の1つ以上の部分的通行可能エリア、又はそれらの組み合わせを含んでもよい。車両交通網220は、1つ以上の通行可能又は部分的通行可能エリアの間に1つ以上のインターチェンジを含んでもよい。道路等の車両交通網220の一部は、1つ以上の車線を含んでもよく、1つ以上の進行方向に関連付けられてもよい。
車両交通網又はその一部は、車両交通網データとして表されてもよい。例えば、車両交通網データは、マークアップ言語要素等の要素の階層として表されてもよく、これはデータベース又はファイルに記憶されてもよい。簡単のために、本明細書の図面は、車両交通網の一部を図又はマップとして表す車両交通網データを示している。しかしながら、車両交通網データは、車両交通網又はその一部を表すことが可能な任意のコンピュータ使用可能な形式で表されてもよい。進行方向情報、速度制限情報、料金所情報、傾斜又は角度情報等の勾配情報、表面材料情報、審美的情報、定義された危険情報又はこれらの組み合わせ等の車両交通網データを含んでもよい。
車両交通網220の一部又は部分の組み合わせは、特定の場所又は目的地として識別されてもよい。例えば、車両交通網データは、建物を特定の場所又は目的地として識別してもよい。特定の場所又は目的地は、個別の一意に識別可能な地理的位置を使用して識別されてもよい。例えば、車両交通網220は、目的地に関する所在地住所、住所、車両交通網アドレス、GPSアドレス、又はこれらの組み合わせ等の定義された場所を含んでもよい。
図3は、本開示の実施形態による自律走行車の動作管理システム300の例の図である。自律走行車の動作管理システム300は、図1に示される車両100、図2に示される車両210/211、半自律走行車、又は自律走行を実装する任意の他の車両等の自律走行車において実装されてもよい。
自律走行車は、車両交通網又はその一部を移動してもよく、これは個別の車両動作シナリオを移動することを含んでもよい。個別の車両動作シナリオは、自律走行車の定義された時空的エリア又は動作環境内の自律走行車の動作に影響を及ぼし得る動作条件の任意の明確に識別可能な集合を含んでもよい。例えば、個別の車両動作シナリオは、自律走行車が定義された時空距離内を移動し得る道路、道路区分又は車線の数又は濃度に基づいてもよい。別の例では、個別の車両動作シナリオは、自律走行車の定義された時空的エリア又は動作環境内の自律走行車の動作に影響を及ぼし得る1つ以上の交通制御デバイスに基づいてもよい。別の例では、個別の車両動作シナリオは、自律走行車の定義された時空的エリア又は動作環境内の自律走行車の動作に影響を及ぼし得る1つ以上の識別可能な規則、規制又は法律に基づいてもよい。別の例では、個別の車両動作シナリオは、自律走行車の定義された時空的エリア又は動作環境内の自律走行車の動作に影響を及ぼし得る1つ以上の識別可能な外部物体に基づいてもよい。
簡潔性及び明瞭性のために、車両動作シナリオのタイプ又はクラスを参照して類似の車両動作シナリオが本明細書に記載されてもよい。車両動作シナリオのタイプ又はクラスは、シナリオの定義されたパターン又は定義されたパターンの集合を参照してもよい。例えば、交差点シナリオは、交差点を移動する自律走行車を含んでもよく、歩行者シナリオは、歩行者が自律走行車の予測経路を移動している、又は接近している等、1人以上の歩行者を含む、又は歩行者の定義された近接内にある車両交通網の一部を移動する自律走行車を含んでもよい。車線変更シナリオは、自律走行車が車線変更によって車両交通網の一部を移動することを含んでもよい。合流シナリオは、自律走行車が第1の車線から合流車線に合流することによって車両交通網の一部を移動することを含んでもよい。障害物通過シナリオは、自律走行車が妨害物又は障害物を通過することによって車両交通網の一部を移動することを含んでもよい。本明細書には歩行者の車両動作シナリオ、交差点の車両動作シナリオ、車線変更の車両動作シナリオ、合流の車両動作シナリオ、及び障害物通過の車両動作シナリオが記載されているが、任意の他の車両動作シナリオ又は車両動作シナリオのタイプが使用されてもよい。
図3に示されているように、自律走行車の動作管理システム300は、自律走行車の動作管理コントローラ(AVOMC)310、動作環境モニタ320、及び動作制御評価モジュール(モデルとも呼ばれる)330を含む。
AVOMC310は、現在の動作環境又は予測動作環境、又はこれらの1つ以上の側面等、自律走行車に関する動作環境を表す動作環境データを受信し、識別し、又は他のやり方でアクセスしてもよい。自律走行車の動作環境は、自律走行車の定義された時空的エリアの中で、自律走行車に関して識別された経路の定義された時空的エリアの中で、又はこれらの組み合わせで、自律走行車の動作に影響を及ぼし得る動作条件の明確に識別可能な集合を含んでもよい。例えば、自律走行車の動作に影響を及ぼし得る動作条件は、センサデータ、車両交通網データ、経路データ、又は車両について定義又は決定された動作環境を表す任意の他のデータ又はデータの組み合わせに基づいて識別されてもよい。
動作環境データは、自律走行車の地理空間的位置を示す情報、自律走行車の地理空間的位置を車両交通網を表す情報と相関させる情報、自律走行車の経路、自律走行車の速度、自律走行車の加速状態、自律走行車の乗客情報、又は自律走行車若しくは自律走行車の動作に関する任意の他の情報等の自律走行車に関する車両情報を含んでもよい。動作環境データは、自律走行車に近接する車両交通網、自律走行車の識別された経路、又はその両方を表す情報を含んでもよい。例えば、これは、識別された経路に沿った車両交通網の一部の300メートル等の自律走行車の定義された空間距離内等の自律走行車に関して識別された経路に近接する車両交通網を表す情報、車両交通網の1つ以上の側面の形状を示す情報、車両交通網の表面状態等の状態を示す情報、又はこれらの任意の組み合わせを含んでもよい。
動作環境データは、歩行者、非ヒト動物、自転車若しくはスケートボード等の非動力式移動手段、リモート車両等の動力式移動手段、又は自律走行車の動作に影響を及ぼす任意の他の外部物体若しくはエンティティを表す情報等の自律走行車の動作環境内の外部物体を表す情報を含んでもよい。
自律走行車の動作環境の側面が、それぞれ個別の車両動作シナリオの中で表されてもよい。例えば、相対的方向、軌道、予測経路又は外部物体が、それぞれの個別の車両動作シナリオの中で表されてもよい。別の例では、車両交通網の相対的形状が、それぞれ個別の車両動作シナリオの中で表されてもよい。
一例として、第1の個別の車両動作シナリオは、歩行者が横断歩道で道路を横断していることに対応してもよく、右から左に横断することに対して、左から右に横断すること等、歩行者の相対的方向及び予測経路が第1の個別の車両動作シナリオの中で表されてもよい。第2の個別の車両動作シナリオは、歩行者が横断歩道のないところで道路を横断していることに対応してもよく、右から左に横断することに対して、左から右に横断すること等、歩行者の相対的方向及び予測経路が第2の個別の車両動作シナリオの中で表されてもよい。
自律走行車が動作環境の中で複数の個別の車両動作シナリオを移動してもよく、これは複合車両動作シナリオの側面であってもよい。例えば、歩行者が、交差点を移動する自律走行車に関する予測経路に接近してもよい。
自律走行車動作管理システム300は、自律走行車の動作のために定義され又は生成され得る、安全制約、法的制約、物理的制約、ユーザ受容制約、又は任意の他の制約若しくは制約の組み合わせ等、定義された制約を受けて個別の車両動作シナリオを移動するように自律走行車を動作又は制御してもよい。
AVOMC310は、自律走行車の動作環境又はその定義された側面を監視してもよい。自律走行車の動作環境を監視することは、外部物体を識別及び追跡すること、個別の車両動作シナリオを識別すること、又はこれらの組み合わせを含んでもよい。例えば、AVOMC310は、自律走行車の動作環境で外部物体を識別及び追跡してもよい。外部物体を識別及び追跡することは、自律走行車に対するものであり得る各外部物体の時空的位置を識別すること、外部物体に関する速さ、軌道又は両方を識別することを含み得る各外部物体に関する1つ以上の予測経路を識別することを含んでもよい。簡潔性及び明瞭性のために、本明細書における位置、予測位置、経路、予測経路等の記載は、対応する位置及び経路が地理空間的及び時間的なコンポーネントを指しているという明示的な表示を省略する場合がある。しかしながら、本明細書で明示的に示されていない限り、又は文脈から一義的に明確でない限り、本明細書に記載されている位置、予測位置、経路、予測経路等は、地理空間的なコンポーネント、時間的なコンポーネント、又はその両方を含んでもよい。自律走行車の動作環境を監視することは、動作環境モニタ320から受信した動作環境データを使用することを含んでもよい。
動作環境モニタ320は、シナリオ非依存のモニタ、シナリオ固有のモニタ、又はこれらの組み合わせを含んでもよい。ブロックモニタ321等のシナリオ非依存のモニタは、以下で詳細に検討されるように、自律走行車の動作環境を監視し、自律走行車の動作環境の側面を表す動作環境データを生成し、動作環境データを1つ以上のシナリオ固有のモニタ、AVOMC310、又はそれらの組み合わせに出力してもよい。歩行者モニタ322、交差点モニタ323、車線変更モニタ324、合流モニタ325、又は前方障害物モニタ326等のシナリオ固有のモニタは、自律走行車の動作環境をモニタし、自律走行車の動作環境のシナリオ固有の側面を表す動作環境データを生成し、動作環境データを1つ以上の動作制御評価モデル330、AVOMC310、又はこれらの組み合わせに出力してもよい。
例えば、歩行者モニタ322は歩行者を監視するための動作環境モニタであってもよく、交差点モニタ323は交差点を監視するための動作環境モニタであってもよく、車線変更モニタ324は車線変更を監視するための動作環境モニタであってもよく、合流モニタ325は合流のための動作環境モニタであってもよく、前方障害物モニタ326は前方障害物を監視するための動作環境モニタであってもよい。自律走行車の動作管理システム300が任意の数の動作環境モニタ320を含み得ることを示すために、動作環境モニタ327は破線を使用して示されている。
動作環境モニタ320は、自律走行車の1つ以上のセンサによって生成された又はキャプチャされた動作環境データ、車両交通網データ、車両交通網の形状データ、経路データ、又はそれらの組合せ等の動作環境データを受信するか、又は他のやり方でそれにアクセスしてもよい。例えば、歩行者モニタ322は、センサ情報等の情報を受信し又は他のやり方でアクセスしてもよく、これは自律走行車の動作環境における1人以上の歩行者を示し、それに対応し又は他のやり方で関連付けられてもよい。動作環境モニタ320は、動作環境データ又はその一部を動作環境、又はその側面と、例えば、歩行者、リモート車両等の外部物体、又は車両交通網の形状の側面と関連付けてもよい。
動作環境モニタ320は、歩行者、リモート車両等の外部物体、又は車両交通網の形状の側面等によって、動作環境の1つ以上の側面を表す情報を生成し又は識別してもよく、これは、動作環境データのフィルタリング、抽象化又は他の処理を含んでもよい。動作環境モニタ320は、例えば、AVOMC310によってアクセス可能な自律走行車のメモリ、例えば、図1に示されるメモリ134に動作環境の1つ以上の側面を表す情報を記憶すること、AVOMC310に動作環境の1つ以上の側面を表す情報を送ること、又はこれらの組み合わせによって、動作環境の1つ以上の側面を、AVOMC310に出力し、又はそれがアクセスするために出力してもよい。動作環境モニタ320は、AVOMC310等の自律走行車動作管理システム300の1つ以上の要素に動作環境データを出力してもよい。図3には示されていないが、シナリオ固有の動作環境モニタ322、323、324、325、326は、動作環境データを、ブロックモニタ321等のシナリオ非依存の動作環境モニタに出力してもよい。
歩行者モニタ322は、1人以上の歩行者のアクションを識別、追跡又は予測するために、動作環境データを相関させ、関連付け又は他のやり方で処理してもよい。例えば、歩行者モニタ322は、1つ以上のセンサからセンサデータ等の情報を受信してもよく、これは1人以上の歩行者に対応してもよく、歩行者モニタ322は、1人以上の識別された歩行者とセンサデータを関連付けてもよく、これは1人以上の識別された歩行者の各々に関する進行方向、予測経路等の経路、現在の又は予測される速度、現在の又は予測される加速度又はこれらの組み合わせを識別することを含んでもよく、歩行者モニタ322は、識別された、関連付けられた又は生成された歩行者情報を、AVOMC310に出力し又はそれがアクセスするために出力してもよい。
交差点モニタ323は、自律走行車の動作環境における1つ以上のリモート車両のアクションを識別、追跡又は予測すること、自律走行車の動作環境における交差点又はその側面を識別すること、車両交通網の形状を識別すること、又はこれらの組み合わせを行うように、動作環境データを相関させ、関連付け、又は他のやり方で処理してもよい。例えば、交差点モニタ323は、1つ以上のセンサからセンサデータ等の情報を受信してもよく、これは、自律走行車の動作環境における1つ以上のリモート車両、自律走行車の動作環境における交差点又はその1つ以上の側面、車両交通網の形状、又はこれらの組み合わせに対応してもよく、交差点モニタ323は、自律走行車の動作環境における1つ以上の識別されたリモート車両、自律走行車の動作環境における交差点又はその1つ以上の側面、車両交通網の形状、又はこれらの組み合わせとセンサデータを関連付けてもよく、これは1つ以上の識別されたリモート車両の各々に関する現在の又は予測される進行方向、予測経路等の経路、現在の又は予測される速度、現在の又は予測される加速度又はこれらの組み合わせを識別することを含んでもよい。交差点モニタ323は、識別された、関連付けられた又は生成された交差点情報を、AVOMC310に出力し又はそれがアクセスするために出力してもよい。
車線変更モニタ324は、地理空間的に車線変更動作に対応して、自律走行車の予測経路に沿って遅い又は静止しているリモート車両を示す情報等、自律走行車の動作環境における1つ以上のリモート車両のアクションを識別、追跡又は予測すること、自律走行車の動作環境における車両交通網の形状等の自律走行車の動作環境の1つ以上の側面を識別すること、又はこれらの組み合わせを行うように動作環境データを相関させ、関連付け又は他のやり方で処理してもよい。例えば、車線変更モニタ324は、1つ以上のセンサからセンサデータ等の情報を受信してもよく、これは地理空間的に車線変更動作に対応して、自律走行車の動作環境における1つ以上のリモート車両、自律走行車の動作環境における自律走行車の動作環境の1つ以上の側面、又はこれらの組み合わせに対応してもよく、車線変更モニタ324は、地理空間的に車線変更動作に対応して、自律走行車の動作環境における交差点又はその1つ以上の識別されたリモート車両、自律走行車の動作環境の1つ以上の側面、又はこれらの組み合わせとセンサ情報を関連付けてもよく、これは1つ以上の識別されたリモート車両の各々に関する現在の又は予測される進行方向、予測経路等の経路、現在の又は予測される速度、現在の又は予測される加速度又はこれらの組み合わせを識別することを含んでもよい。車線変更モニタ324は、識別された、関連付けられた又は生成された車線変更情報を、AVOMC4100に出力し又はそれがアクセスするために出力してもよい。
合流モニタ325は、地理空間的に合流動作に対応して、自律走行車の動作環境における1つ以上のリモート車両のアクションを識別、追跡又は予測すること、自律走行車の動作環境における車両交通網の形状等の自律走行車の動作環境の1つ以上の側面を識別すること、又はこれらの組み合わせを行うように動作環境情報を相関させ、関連付け又は他のやり方で処理してもよい。例えば、合流モニタ325は、1つ以上のセンサからセンサデータ等の情報を受信してもよく、これは地理空間的に合流動作に対応して、自律走行車の動作環境における1つ以上のリモート車両、自律走行車の動作環境における自律走行車の動作環境の1つ以上の側面、又はこれらの組み合わせに対応してもよく、合流モニタ325は、地理空間的に合流動作に対応して、自律走行車の動作環境における交差点又はその1つ以上の識別されたリモート車両、自律走行車の動作環境の1つ以上の側面、又はこれらの組み合わせとセンサ情報を関連付けてもよく、これは1つ以上の識別されたリモート車両の各々に関する現在の又は予測される進行方向、予測経路等の経路、現在の又は予測される速度、現在の又は予測される加速度又はこれらの組み合わせを識別することを含んでもよい。合流モニタ325は、識別された、関連付けられた又は生成された合流情報を、AVOMC310に出力し又はそれがアクセスするために出力してもよい。
前方障害物モニタ326は、前方障害物通過動作に地理空間的に対応する自律走行車の動作環境の1つ以上の態様を識別するために、動作環境情報を相関させ、関連付け、又は他のやり方で処理してもよい。例えば、前方障害物モニタ326は、自律走行車の動作環境における車両交通網の形状を識別してもよい。前方障害物モニタ326は、自律車両の予測経路に沿った、又は自律車両の識別された経路に沿った低速又は静止したリモート車両等、自律車両の動作環境における1つ以上の妨害物又は障害物を識別してもよい。また、前方障害物モニタ326は、自律走行車の動作環境における1つ以上のリモート車両のアクションを識別、追跡、又は予測してもよい。前方障害物モニタ326は、1つ以上のセンサからセンサデータ等の情報を受信してもよく、これは、自律走行車の動作環境における1つ以上のリモート車両、自律走行車の動作環境における自律走行車の動作環境の1つ以上の側面、又は前方障害物通過動作に地理空間的に対応するそれらの組み合わせに対応してもよい。前方障害物モニタ326は、センサデータを、自律走行車の動作環境における1つ以上の識別されたリモート車両、自律走行車の動作環境の1つ以上の側面、又は前方障害物通過動作に地理空間的に対応するそれらの組み合わせに関連付けてもよく、これは、現在の又は予測される進行方向、予測経路等の経路、現在又は予測される速度、現在の又は予測される加速度、又はそれらの組み合わせを、それぞれの識別されたリモート車両の1つ以上について識別することを含んでもよい。前方障害物モニタ326は、識別された、関連付けられた、又は生成された前方障害物情報を、AVOMC310に、又はAVOMCによるアクセスのために出力してもよい。
動作環境モニタ320として表示されているが、ブロックモニタ321は別の監視デバイスであってもよい。ブロックモニタ321は、自律走行車に関する動作環境又はその側面を表す動作環境データを受信してもよい。例えば、ブロックモニタ321は、AVOMC310から、車両のセンサから、リモート車両又はインフラストラクチャデバイス等の外部デバイスから、又はこれらの組み合わせから動作環境情報を受信してもよい。ブロックモニタ321は、図1に示されるメモリ134等の自律走行車のメモリ等のメモリから動作環境情報又はその一部を読み取ってもよい。
ブロックモニタ321は、この入力を使用して、自律走行車に近接する車両交通網の一部等の車両交通網の1つ以上の部分に関する各可用性確率(probability of availability;POA)又は対応するブロック確率を決定してもよく、部分は自律走行車の現在の経路に基づいて識別される予測経路等の自律走行車の予測経路に対応する車両交通網の一部を含んでもよい。可用性確率又は対応するブロック確率は、自律走行車が、リモート車両又は歩行者等の外部物体によって妨げられない等、安全に交通網の一部又はその中の空間的位置を移動し得る確率又は可能性を示してもよい。例えば、車両交通網の一部は、静止物体等の障害物を含んでもよく、車両交通網の一部に関する可用性確率は、0%等のように低くてもよく、これは、車両交通網の一部に関する100%等のような高いブロック確率として表されてもよい。ブロックモニタ321は、自律走行車の300メートル以内等の動作環境内の車両交通網の複数の部分の各々に関する各可用性確率を識別してもよい。ブロックモニタ321は、継続的に又は周期的に可用性確率を決定又は更新してもよい。ブロックモニタ321は、可用性確率又は対応するブロック確率をAVOMC310に伝達してもよい。
可用性確率は、自律走行車の動作環境における各外部物体に対応するブロックモニタ321によって示されてもよく、地理空間的エリアは、複数の外部物体に対応する複数の可用性確率に関連付けられてもよい。合計可用性確率は、歩行者の可用性確率及びリモート車両に関する可用性確率等の自律走行車の動作環境における外部物体の各タイプに対応するブロックモニタ321によって示されてもよく、地理空間的エリアは、複数の外部物体タイプに対応する複数の可用性確率に関連付けられてもよい。
ブロックモニタ321は、外部物体を識別し、外部物体を追跡し、外部物体に関する位置情報、経路情報若しくは両方を推定し、又はこれらの組み合わせを行ってもよい。例えば、ブロッキングモニタ321は、動作環境情報(例えば、外部物体の現在位置)、外部物体の現在の軌道及び/又は速度を示す情報、外部物体(例えば、歩行者又はリモート車両)の分類のタイプを示す情報、車両交通網情報(例えば、外部物体に近い横断歩道)、外部物体に関連する過去に識別又は追跡された情報、又はそれらの任意の組み合わせに基づいて、外部物体を識別し、外部物体の予測経路を識別してもよい。予測経路は、一連の予測される空間的位置、予測される時間的位置、及び対応する確率を示してもよい。
ブロックモニタ321は、可用性確率又は対応するブロック確率をAVOMC310に伝達してもよい。AVOMC310は、可用性確率又は対応するブロック確率をシナリオ固有の動作制御評価モジュール330の生成された各インスタンスに伝達してもよい。
AVOMC310は、動作環境データによって表される動作環境の1つ以上の側面に基づいて1つ以上の個別の車両動作シナリオを識別してもよい。例えば、AVOMC310は、1つ以上の動作環境モニタ320によって示される動作環境データに基づいて又はそれを識別することに応答して、個別の車両動作シナリオを識別してもよい。個別の車両動作シナリオは、経路データ、センサデータ、又はそれらの組み合わせに基づいて識別されてもよい。例えば、AVOMC310は、経路の識別に応答して、識別された経路に対応するマップデータ等に基づいて、車両に関して識別された経路に対応する1つ以上の個別の車両動作シナリオを識別してもよい。動作環境データによって表される動作環境の1つ以上の側面に基づいて、複数の個別の車両動作シナリオが識別されてもよい。例えば、動作環境データは、歩行者が自律走行車に関する予測経路に沿って交差点に接近していることを表す情報を含んでもよく、AVOMC310は、歩行者の車両動作シナリオ、交差点の車両動作シナリオ、又はその両方を識別してもよい。
AVOMC310は、今後のシナリオの識別等、動作環境データによって表される動作環境の1つ以上の側面に基づいて、1つ以上の動作制御評価モデル330のそれぞれのインスタンスをインスタンス化してもよい。今後のシナリオは、自律走行車がその経路を継続する場合に遭遇する可能性が高いとAVOMC310が判断する、個別の車両動作シナリオであってもよい。今後のシナリオは、予測されてもよく(例えば、自律走行車の経路から判断できる)、又は予想外であってもよい。予想外の今後のシナリオは、車両のセンサによって検出され得るが、センサデータなしでは決定され得ないシナリオであってもよい。
動作制御評価モデル330は、歩行者SSOCEM331、交差点SSOCEM332、車線変更SSOCEM333、合流SSOCEM334、障害物通過SSOCEM335、又はこれらの組み合わせ等のシナリオ固有の動作制御評価モデル(SSOCEM)を含んでもよい。自律走行車の動作管理システム300が任意の数のSSOCEM330を含み得ることを示すために、SSOCEM336は破線を使用して示されている。例えば、AVOMC310は、個別の車両動作シナリオを識別することに応答してSSOCEM330のインスタンスをインスタンス化してもよい。AVOMC310は、動作環境データによって表される動作環境の1つ以上の側面に基づいて1つ以上のAVOMC330の複数のインスタンスをインスタンス化してもよい。例えば、動作環境データは、自律走行車の動作環境における2人の歩行者を示してもよく、AVOMC310は、各歩行者に関する歩行者SSOCEM331の各インスタンスをインスタンス化してもよい。
AVOMC310は、ブロックモニタ321等の自律走行車の別の装置又はSSOCEM330の1つ以上のインスタンスに動作環境データ又はその1つ以上の側面を送信してもよい。例えば、AVOMC310は、ブロックモニタ321から受信した可用性確率、又は対応するブロック確率を、SSOCEM330のインスタンス化された各インスタンスに伝達してもよい。AVOMC310は、動作環境データ又はその1つ以上の側面を、図1に示されるメモリ134等の自律走行車のメモリ等に記憶してもよい。
図3に明示されてはいないが、自律走行車の動作管理システム300は、予測情報を生成してブロックモニタ321に送信してもよく、ブロックモニタ321は、1つ以上の他の動作環境モニタ320に可用性確率情報を出力してもよい。
SSOCEM330は、インスタンス化されると、センサデータを含む動作環境情報を受信して、ここでは候補アクションとも呼ばれる候補車両制御アクションを決定して出力することができる。候補アクションは、特定のシナリオを処理する車両が実行する可能性のある最適なアクションとして、特定のSSOCEM330によって識別される車両制御アクションである。例えば、交差点を処理するように構成されるSSOCEM330(例えば、交差点SSOCEM332)は、交差点を進行することを提案する候補アクションである「進行」を出力してもよい。同時に、車線変更を処理するSSOCEM330(例えば、車線変更SSOCEM333)は、車両が2度左に合流するべきことを示す「左折」候補アクションを出力してもよい。いくつかの実装では、各SSOCEM330は、SSOCEM330によって決定された候補アクションの信頼度を示す信頼スコアを出力する。例えば、信頼スコアが0.95より大きい場合は候補アクションの信頼度が非常に高いことを示し、信頼スコアが0.5より小さい場合は候補アクションの信頼度が比較的低いことを示してもよい。SSOCEM330の詳細については、以下で説明する。
AVOMC310は、SSOCEM330の各インスタンスから1つ以上の候補アクションを受信してもよい。AVOMC310は、候補車両制御アクションから車両制御アクションを識別してもよく、車両制御アクションに従って車両交通網を移動するために、車両を制御してもよく、又は識別された車両制御アクションを別の車両制御デバイスに提供してもよい。
車両制御アクションは、車両交通網の一部を移動することと併せて自律走行車によって行われ得る、加速、減速、旋回、停止、又は任意の他の車両動作若しくは車両動作の組み合わせ等、車両制御アクション又は操縦を示してもよい。
いくつかの実装では、AVOMC310は候補アクションから車両制御アクションを決定するためにハードコードされた論理を利用する。例えば、AVOMC310は、最も高い信頼スコアを有する候補アクションを選択してもよい。他の実装では、AVOMC310は衝突に至る可能性が最も低い候補アクションを選択してもよい。他の実装では、AVOMC310は、複数の矛盾しない候補アクションに基づいて複合アクションを生成してもよい(例えば、「進行」及び「2度左折」の制御アクションを複合させて、車両を左に逸らして交差点を進行させる車両制御動作を発生させる)。いくつかの実装では、AVOMC310は、機械学習アルゴリズムを利用して、複数の異なる候補アクションに基づいて車両制御アクションを決定してもよい。
例えば、候補アクションから車両制御アクションを識別することは、分類問題の教師あり学習等の機械学習コンポーネントを実装すること、及び対応する車両動作シナリオの1000例等の例示を使用して機械学習コンポーネントを訓練することを含んでもよい。別の例では、候補アクションから車両制御アクションを識別することは、マルコフ決定過程(MDP)又は部分観測マルコフ決定過程(POMDP)を実装することを含んでもよく、これは各候補アクションが後続の候補アクションに影響するかを記述してもよく、各車両制御アクションに関する正の又は負の報酬を出力する報酬関数を含んでもよい。
AVOMC310は、SSOCEM330のインスタンスを非インスタンス化してもよい。例えば、AVOMC310は、自律走行車に関する個別の車両動作シナリオを示すように動作条件の個別集合を識別し、個別の車両動作シナリオに関するSSOCEMモジュール330のインスタンスをインスタンス化し、動作条件を監視し、その後で1つ以上の動作条件は満了している又は定義された閾値より低い自律走行車の動作に影響を及ぼす可能性を有することを決定し、AVOMC310は、SSOCEM330のインスタンスを非インスタンス化してもよい。
簡単に上述したように、SSOCEM330は、それぞれ個別の車両動作シナリオをモデル化してもよい。自律走行車動作管理システム300は、任意の数のSSOCEM330を含み、各SSOCEMは、それぞれ個別の車両動作シナリオをモデル化する。個別の車両動作シナリオをモデル化することは、個別の車両動作シナリオに対応する車両の動作環境の側面を表す状態情報を生成及び/又は維持すること、対応する状態のそれぞれのモデル化された側面の中から潜在的相互作用を識別すること、及びモデルを解決する候補アクションを決定することを含んでもよい。より簡単に言えば、SSOCEM330は、一連の入力が与えられたシナリオを処理するための1つ以上の車両制御アクションを決定するように構成される1つ以上のモデルを含んでもよい。モデルは、限定されないが、POMDPモデル、MDPモデル、古典的計画(CP)モデル、部分観測可能確率ゲーム(POSG)モデル、分散型部分観測可能マルコフ決定過程(Dec-POMDP)モデル、強化学習(RL)モデル、人工ニューラルネットワーク、ハードコーディングされたエキスパート論理、又はその他の任意の適切なタイプのモデルを含んでもよい。各SSOCEM330は、モデルが動作する方法及びモデルが利用される態様を定義するコンピュータ実行可能命令を含む。
自律走行車の動作管理システム300は、任意の数又は組み合わせのモデルのタイプを含んでもよい。例えば、歩行者SSOCEM331、交差点SSOCEM332、車線変更SSOCEM333、合流SSOCEM334、及び障害物通過SSOCEM335は、POMDPモデルであってもよい。別の例では、歩行者SSOCEM331はMDPモデルであってもよく、交差点SSOCEM332はPOMDPモデルであってもよい。AVOMC310は、動作環境データに基づいてSSOCEM330の任意の数のインスタンスをインスタンス化してもよい。自律走行車の動作管理システム300が任意の数又は追加のタイプのSSOCEM330を含み得ることを示すために、モジュール336は破線を使用して示されている。
AVOMC310、動作環境モニタ320、又はSSOCEM330のうちの1つ以上は、継続的に、又は10ヘルツ(10Hz)の周波数等で周期的に動作してもよい。例えば、AVOMC310は、毎秒10回等、複数回の車両制御アクションを識別してもよい。自律車両動作管理システム300の各コンポーネントの動作周波数は同期又は非同期であってもよく、AVOMC310、動作環境モニタ320、又はSSOCEM330のうちの1つ以上の動作レートは、他の動作レートから独立していてもよい。
上記の説明から明らかなように、これらのモデルは複雑であり、車両制御アクションを適切に選択するためには、物体の正確な検出及び識別が重要である。精度は、半自動又は従来の車両での車両制御アクションを提案するための同様の懸念事項である。本明細書における教示は、部分的又は完全に遮蔽されている場合であっても、車両に利用可能なマップにその物体が含まれているかに関わらず、交通流制御デバイス等の物体の識別を可能にする。物体の位置及び識別は、注釈を付けてマッピングされてもよい。つまり、この情報を含むラベルは、車両動作のための1つ以上の制御システム内でタグ付けされてもよい。
図4は、本明細書の教示に従って低信頼度の物体検出条件に対処する車両を動作させる方法400のフローチャートである。方法400は、ソフトウェアの有無に関わらず、コンピュータ、コントローラ、又はハードウェアの任意の組み合わせの中に組み込まれたプロセッサによって実行されてもよい。方法400は、プロセッサ133等によって車両で実行されてもよい。方法400は、通信デバイス240を組み込んだ遠隔支援サポート等のリモート車両サポートシステムにおいて、プロセッサ又は他のハードウェア及び選択的にソフトウェア等によって、少なくとも部分的にリモートで実行されてもよい。
ステップ402において、図2に示すT字型の交差点等の車両交通網内の交差点に車両が近づくと、少なくとも1つの車載センサからセンサデータが受信される。車載センサは、車両100又は車両210/211のいずれか等、車両外部の状態を検出する、前述のセンサ136のような任意のセンサであってもよい。
ステップ404において、センサデータを使用して、交差点に対する交通流制御デバイスが検出されたかどうかを判断する。ステップ406において、交通流制御デバイスが検出されたときに、交通流制御デバイスの検出されたタイプ又は検出された状態の少なくとも1つを判断する。ステップ404及び406での処理については、本明細書での教示に従って交通流制御デバイスを検出する方法500のフローチャートである図5を参照して、より詳細に検討され得る。
ステップ502において、検出に使用される車両のハードウェアが同期されてもよい。ハードウェアは、車両外部の物体を検出するために使用され得る複数のセンサを含む。望ましくは、必須ではないが、センサは異なるタイプのセンサである。図5において、方法500は、LIDARユニットのような画像センサ504A及び距離センサ504Bを使用する。また、ハードウェアは、車両交通網内の検出された物体の位置を識別するために使用され得るGPSユニット506のような位置決め装置を含んでもよい。接近する交差点に対してステップ402で受信されるセンサデータは、センサのタイプによって異なる。図5において、画像センサ504Aは第1のセンサデータとしてデータストリーム508を送信し、距離センサ504は第2のセンサデータとして点群514を送信する。受信された第1及び第2のセンサデータ、データストリーム508及び点群514は、車両のプロセッサ133等のプロセッサによるアクセスのために、メモリ134等のメモリに記憶されてもよい。ハードウェアの同期により、データストリーム508の画像は点群514に幾何学的に位置合わせされる。
ステップ510から始まって、第1のセンサデータを使用して交差点内で物体が検出される。ステップ510において、空間的特徴抽出器を使用して、データストリーム508のセンサデータから空間的特徴を抽出する。空間的特徴抽出器は、ステップ510において、畳み込みニューラルネットワーク等の訓練された機械学習モデルにデータストリーム508を入力することによって実装されてもよく、その推論された出力は空間的特徴を備えている。空間的特徴は、車線ライン、停止線、歩行者、他の車両、交通流制御デバイス等を表し得る多次元座標系(例えば、二次元又は三次元)のそれぞれの値を持つピクセルのグループを含んでもよい。
ステップ510において抽出された空間的特徴は、ステップ512において物体検出器への入力として使用される。物体検出器は、空間的特徴を可能性の高い物体に解析し、それらは、例えば、任意の所望の手法に従って、それぞれの境界ボックスによって識別される。ステップ512における処理から出力される物体検出器の出力は、多次元座標系内の位置、境界ボックスがノイズではなく物体に関連付けられているという信頼度のレベル、境界ボックスが物体の全体を包含するという信頼度のレベル、物体の識別を支援するその他の情報、又はそれらの何らかの組み合わせも含んでもよい。この実装において、物体は、交差点内に有るものであり、ここで、交差点内という表現は、交差点の上(ぶら下がっている交通信号機等)、交差点について定義された範囲内、交差点から定義された距離内、又はそれらの何らかの組み合わせを含む。
ステップ516から始まると、第2のセンサデータを使用して交差点内で物体が検出される。この例では、点群514のセンサデータは、データストリーム508のセンサデータと同様に処理される。ステップ516において、空間的特徴抽出器を使用して空間的特徴を抽出する。ステップ516において実装された空間的特徴抽出器は、ステップ510において実装された空間的特徴抽出器と同様に、畳み込みニューラルネットワーク等の訓練された機械学習モデルであってもよい。点群514は、モデルに入力されてもよく、これは空間的特徴を出力する。この例において、データストリーム508の画像が点群514に幾何学的に位置合わせされているため、空間的特徴はデータストリーム508から抽出されたものと同じ多次元座標系で定義される。他の実装では、データストリーム508及び点群514の空間的特徴は、それぞれの多次元座標系におけるステップ510及びステップ516において抽出され、その後、後述のステップ520における物体出力一致処理の前に、同じ多次元座標系に変換、再マッピング、又はその他のやり方で調整されてもよい。
ステップ516において抽出された空間的特徴は、ステップ518において物体検出器への入力として使用される。物体検出器は、空間的特徴を可能性の高い物体に解析し、それらは、例えば、任意の所望の手法に従って、それぞれの境界ボックスによって識別される。ステップ512における処理からの物体検出器の出力と同様に、ステップ516における処理からの物体検出器の出力も、多次元座標系内の位置、境界ボックスがノイズではなく物体に関連付けられているという信頼度のレベル、境界ボックスが物体の全体を包含するという信頼度のレベル、交差点内の物体の識別を支援するその他の情報、又はそれらの何らかの組み合わせも含んでもよい。
ステップ520において、方法500は物体出力一致処理を含む。物体出力一致処理では、第1のセンサデータを使用して検出された物体が、第2のセンサデータを使用して検出された物体と比較される。データが物体に対して一貫性がある(例えば、それらの特性又はパラメータが一致する)場合、方法500は物体が検出されたと結論付ける。図示のように、ステップ512における物体検出器の出力が、ステップ518における物体検出器の出力と比較される。ステップ522において一致を決定するために、境界ボックスの(例えば、多次元空間における)サイズ及び位置が比較されてもよい。例えば、ステップ512における物体検出器の出力からの境界ボックスがステップ518における物体検出器の出力からの境界ボックスと重なっており、且つ境界ボックスが定義されたサイズマージン内にある場合、ステップ520においてその物体は一致していると見なされてもよい。
図5では、ステップ520からの一致する物体は、それぞれの位置を含めて、ステップ522における物体分類器に提供される。ステップ522における物体分類は、物体を交通流制御デバイス又は交差点内の別の物体として分類する、パターン認識ソフトウェア又はその他の手段を使用してもよい。例えば、物体分類器は、ステップ522において一致する物体を交通信号機、停止標識、譲れ標識、単一の点滅灯等の交通流制御デバイスのタイプとして分類してもよい。いくつかの実装において、物体が交通流制御デバイスのタイプであり、そのタイプの交通流制御デバイスが複数の状態に関連付けられている場合、交通制御デバイスの状態もステップ522における物体分類の一部であってもよい。例えば、交通流制御デバイスのタイプの交通信号機は、一般に赤、黄、又は緑の3つの状態に関連付けられている。単一の点滅灯は、赤の状態又は黄の状態のいずれかに関連付けられてもよい。
ステップ522における物体分類は、ステップ520における一致処理の後に行われるように記載されているが、いくつかの実装では、第1及び第2のセンサデータのそれぞれの処理は、ステップ520における物体出力一致処理の前に、それぞれの物体分類ステップを含んでもよい。より一般的には、第1のセンサデータを使用して検出された物体の少なくとも1つ、又は第2のセンサデータを使用して検出された物体の少なくとも1つは、一致処理の前又は後のいずれかで、本明細書の教示に従って分類されてもよい。
分類された物体は、ステップ524においてラベル(例えば、そのタイプ及び選択的にその状態)及び位置でタグ付けされ、その後、例えば、1つ以上のマップ及び交通量制御デバイス(標識と呼ばれる場合もある)を含むデータベース526に記憶される。位置は、GPSユニット506、データベース526に記憶されているマップ及びマップの座標系、又はその両方を使用して、多次元座標系内の分類された物体の位置を地理空間的位置に変換することによって決定されてもよい。
上記の方法500の説明によれば、第1のセンサデータを使用して検出された物体又は第2のセンサデータを使用して検出された物体の少なくとも1つの物体のいずれもが、交通流制御デバイスのタイプとして分類されない場合、ステップ404において交通流制御デバイスが検出されないとの判断が行われてもよい。これに対して、第1のセンサデータを使用して検出された複数の物体の中の1つの物体の特性が、第2のセンサデータを使用して検出された複数の物体の中の1つの物体の特性と一致し、且つ、第1のセンサデータを使用して検出された複数の物体の中の物体又は第2のセンサデータを使用して検出された複数の物体の中の物体のうちの少なくとも1つが、交通流制御デバイスのタイプとして分類される場合、ステップ404においてセンサデータによって交通流制御デバイスが検出されたとの判断が行われてもよい。
上記の図5の説明は、少なくとも検出信頼度の定義されたレベルによって、センサデータを使用して交通流制御デバイスが検出されたかどうかを明示的に解決していない。検出信頼度のレベルは、センサデータを使用して検出されたタイプ及び/又は検出された状態の決定の精度に対する信頼度のレベルを反映する任意の値であってもよい。例えば、検出信頼度のレベルは、ステップ522における分析の結果として、検出された物体がその分類とどの程度類似しているかを示すパーセンテージ又はその他の値であってもよい。検出信頼度のレベルは、ステップ520における一致処理における重複の量等、他の値を含むか、他の値と組み合わされてもよい。比較的小さな重複は検出信頼度のレベルが低いことを示し、比較的大きな重複は検出信頼度のレベルが高いことを示してもよい。検出信頼度のレベルは、画像センサ504及び距離センサ504B等のセンサの相対的な精度又は感度に関する値、又は各センサの空間的特徴抽出(例えば、ステップ510,516)及び物体検出(例えば、ステップ512,518)の相対的な精度及び感度に関する値等の他の値を含むか、又は他の値と組み合わされてもよい。その入力を使用した物体検出又はセンサにおけるより高いレベルの精度は、例えば、ステップ520における一致処理において、そのセンサのデータを他よりも高く重み付けするために使用されてもよい。
検出信頼度の定義されたレベルは、検出されたタイプ及び/又は検出された状態の決定が十分に正確であるかどうかを示す値であり、これは交差点内の他の条件又は物体に依存してもよい。例えば、交通流制御デバイスの検出されたタイプが停止標識であるという結論の検出信頼度のレベルは、80%であってもよい。検出信頼度の定義されたレベルは、例えば、デフォルトで85%であってもよい。したがって、交通流制御デバイスの検出されたタイプは、検出信頼度の定義されたレベル未満で決定される。交差点内に歩行者又は他の車両と識別された物体がない場合、検出信頼度の定義されたレベルは75%に下げられてもよいが、そのような存在が、検出信頼度の定義されたレベルを上昇させてもよい。多くの腕、車線、又はその両方を含む複雑な交差点の形状(4方向の交差点等)によって、3方向の交差点等の単純な交差点よりも高い検出信頼度の定義されたレベルが高くなってもよい。
いくつかの実装では、複数の検出信頼度の定義されたレベルが使用されてもよい。例えば、検出信頼度のレベルが第1の定義されたレベルを下回った場合に、ステップ404において交通流制御デバイスが検出されないという結論に達してもよく、又は、第2の定義されたレベルを使用して、交通流制御デバイスの検出されたタイプ又は検出された状態のうちの少なくとも1つが、ステップ406において検出信頼度の定義されたレベル未満において決定されるという結論に達してもよく、ここで、第2の定義されたレベルは、第1の定義されたレベルよりも物体分類の精度に関して高いレベルの信頼度である。また、交通流制御デバイスの検出されたタイプと比較して、検出された状態に関して、検出信頼度の定義されたレベルが異なることも可能である。
いずれの場合も、図4を再度参照して、ステップ404において交通流制御デバイスが検出されないか、又は交通流制御デバイスの少なくとも1つがステップ406において検出信頼度の定義されたレベル未満で判断された場合、ステップ408において交差点のタイプを使用して、交通流制御デバイスの既存のタイプ又は既存の状態の少なくとも1つが決定されてもよい。図6を参照すると、ステップ408における処理の例が示されており、これは交差点のタイプを使用して交通流制御デバイスの既存のタイプ、既存の状態、又はその両方を判断する方法600のフローチャートである。
ステップ602において、交差点のタイプが識別又は決定される。交差点のタイプは、交差点の形状、マッピングされた交差点又はマッピングされていない交差点としての交差点の状態、又はその両方によって示されてもよい。交差点のタイプに加えて、後で詳細に説明するように、ステップ408における決定には、交差点内の又は交差点に近づいている他の検出された物体の状態が使用されてもよい。
ステップ604から始めると、検出信頼度の定義されたレベルは、検出されたタイプを実際の既存のタイプとして受け入れるかどうか、検出された状態がある場合は実際の既存の状態として受け入れるかどうか、又は実際の既存の交通流制御デバイスの決定でさらに処理を実行するかどうかを決定するための検出信頼度のレベルと比較されてもよい。
この例では、ステップ604において、検出されたタイプが既存のタイプであるか又は既存のタイプとして受け入れられるかどうか等、交通流制御デバイスの検出されたタイプが比較的正確であるかどうかについての決定が行われる。交通流制御デバイスの検出されたタイプが、検出信頼度の定義されたレベル未満において決定された場合(例えば、定義されたレベルよりも検出信頼度のレベルが低い)、又は検出されたタイプが存在しない等、交通流制御デバイスが検出されなかった場合は、ステップ606に処理が進む。ステップ606において、ステップ602において決定された交差点のタイプに基づいて、交通流制御デバイスの候補タイプ又は交通流制御デバイスの候補状態の少なくとも1つが決定される。例えば、交通流制御デバイスの候補タイプが状態(停止標識等)を有していない場合、ステップ606において候補タイプのみが決定される。ステップ606において決定された交通流制御デバイスの候補タイプが、状態(交通信号等)も有するものである場合、この例では、606において交通流制御デバイスの候補状態も決定される。これは、交通流制御デバイスの検出されたタイプの検出信頼度のレベルが、検出信頼度の定義されたレベルよりも低い場合、交通流制御デバイスの検出された状態が、存在する場合、正確である可能性は低いという仮定に基づいている。
(複数の)候補タイプ及び(複数の)候補状態は、存在する場合、その後、ステップ612において、検討のために車両の乗客に提示される。これについては後述する。ステップ606における候補タイプの決定の例、及び選択的に、交差点のタイプを使用した候補状態の決定についても後述する。
ステップ604に戻って、交通流制御デバイスの検出されたタイプが存在し、且つ、検出されたタイプが既存のタイプであるか又は既存のタイプとして許容可能であり得る等、比較的正確である決定がステップ604において行われた場合、処理は選択的にステップ608に進み、選択的にステップ610に進む。ステップ608における処理は、検出された状態が既存の状態であるか又は既存の状態として許容可能であり得る等、交通流制御デバイスの検出された状態が比較的正確であるかどうかの決定を含む。状態が検出されない場合、又は交通流制御デバイスの検出された状態が検出信頼度の定義されたレベル未満である(例えば、定義されたレベルよりも検出信頼度のレベルが低い)と判断された場合、処理はステップ610に進む。
ステップ610において、ステップ602において決定された交差点のタイプに基づいて、交通流制御デバイスの候補状態が決定される。例えば、検出されたタイプがステップ604において十分な検出信頼度によって、複数の可能な状態を有するタイプであると決定された場合、交通流制御デバイスの候補状態は、交通流制御デバイスのタイプの可能な状態の1つであってもよい。このシーケンスは、例えば、ステップ522において分類された物体が、検出されたタイプ、例えば、交通信号機が少なくとも定義されたレベル検出信頼度にあるが、検出された状態が、存在する場合、検出信頼度の定義されたレベルを下回っているような、1つ以上のセンサから少なくとも部分的に遮蔽されている場合に発生し得る。候補状態の決定については以下でさらに詳述する。
ステップ608及び610は、それぞれ任意選択として記載されている。例えば、交通流制御デバイスの検出されたタイプが、ステップ604における十分な検出信頼度によって、複数の可能な状態のないタイプであると判断された場合(停止標識等)、方法600は、交通流制御デバイスの検出されたタイプが交通流制御デバイスの既存のタイプとして許容可能である結果として、ステップ604で終了してもよい。さらに、交通流制御デバイスの検出されたタイプが状態を有する場合(交通信号機等)、方法600は、交通流制御デバイスの検出された状態が、ステップ608における十分な検出信頼度によって、交通流制御デバイスの既存の状態として受け入れられると判断された結果として、ステップ608で終了してもよい。
方法600をステップ604又は608で終了すると、図4のステップ408の処理時間が短くなる。これは、車両が乗客のいないAVである場合に必要とされてもよい。しかしながら、車両に乗客がいる場合は、車両がAVであるかどうかに関わらず、追加の精度を得るためにステップ612及び614を含むことがより望ましい場合があり、特に車両で利用可能な既存のマップで交差点がマッピングされていない場合である。この変化形態では、ステップ408において交通流制御デバイスの既存のタイプ又は既存の状態の少なくとも1つを決定することは、ステップ612において、車両のビジュアル又はオーディオインターフェースの少なくとも1つによって、交通流制御デバイスの候補タイプ、交通流制御デバイスの候補状態、又は交通流制御デバイスの候補タイプ及び候補状態の両方を車両の乗客に提示すること、並びにステップ614において、候補タイプが交通流制御デバイスの既存のタイプであるか、候補状態が交通流制御デバイスの既存の状態であるか、又は候補タイプが交通流制御デバイスの既存のタイプであり且つ候補状態が交通流制御デバイスの既存の状態であるかを示すフィードバックを乗客から受信することを含む。
ステップ612における提示の内容は、ステップ604における決定又はステップ604における決定及びステップ608における決定の両方に依存してもよい。交通流制御デバイスの検出されたタイプが存在し、検出されたタイプが既存のタイプとして許容可能であるか又は既存のタイプとして許容可能であり得る等、比較的正確である判断がステップ604において行われた場合(例えば、検出されたタイプの検出信頼度のレベルが、検出信頼度の定義されたレベルと少なくとも同等である)、検出されたタイプはステップ612において提示された候補タイプとして指定される。検出されたタイプが複数の状態に関連付けられた交通流制御デバイスのタイプではない場合、候補状態は、ステップ612における乗客への提示から省略されてもよい。その代わりに、検出されたタイプが複数の状態に関連付けられた交通流制御デバイスのタイプであり、交通流制御デバイスの検出された状態が存在し、且つ検出された状態が既存の状態であるか又は既存の状態として許容可能であり得る等、比較的正確であるという判断がステップ608で行われた場合(例えば、検出された状態の検出信頼度のレベルが、検出信頼度の定義されたレベルと少なくとも同程度に高い)、検出された状態は、ステップ612において提示された候補状態として指定される。その代わりに、ステップ610で判断された交通流制御デバイスの候補状態が発生するように、検出信頼度の定義されたレベル未満で交通流制御デバイスの検出された状態が判断された場合(例えば、それが定義されたレベルよりも低い検出信頼度のレベルを有する)、候補状態はステップ612において乗客への提示に含まれる。
上記とは対照的に、また前述のように、交通流制御デバイスの検出されたタイプの検出信頼度が検出信頼度の定義されたレベル未満であるとステップ604において判断された場合、ステップ612における提示の内容は、ステップ606において決定された1つ以上の候補タイプ、又はステップ606において決定された1つ以上の候補タイプ及び1つ以上の候補状態を含んでもよい。
ここまでの説明では、ステップ604及び608における判断は、一般的に、定義されたレベルの検出精度、及び検出された交通流制御デバイスの検出精度(例えば、検出されたタイプ又は検出された状態)に基づいて行われる。いくつかの実装では、例えば、交差点が車両に利用可能な既存のマップ内でマッピングされているか又はマッピングされていないか、交差点の検出された形状、又はその両方、及び選択的に交差点内で検出された他の物体の特性等、ステップ604における決定、ステップ608における決定、又はその両方の決定において、ステップ602からの交差点のタイプを考慮することが望ましい場合がある。
交差点のタイプが考慮された変化形態では、ステップ602において識別された交差点のタイプに関連する特定の条件の下で、方法600は常にステップ604からステップ606に進んでもよい。例えば、これは、交差点が車両に利用可能な既存のマップ内でマッピングされていない場合、交通流制御デバイスが車両に利用可能な既存のマップ内にない場合(例えば、交差点がマッピングされているが、交通流制御デバイスが交差点のマッピングされた交通流制御デバイスと一致しない場合)、又は交差点がマッピングされているかどうかに関わらず、交通流制御デバイスの検出されたタイプが交差点の形状と一致しない場合に発生してもよい。いくつかの実装では、ステップ604におけるこの決定が実行されてもよく、交通流制御デバイスの検出されたタイプが検出信頼度の定義されたレベルと少なくとも同じ高さの検出信頼度を有する場合、これらの条件のいずれかが検出されると、方法600は、ステップ608又は612ではなくステップ606に進むことを強制される。他の実装では、これらの条件のいずれかが検出されると、ステップ604における決定によってそれ以上の処理を行わずに方法600がステップ606に進むように、交通流制御デバイスの検出されたタイプの検出信頼度のレベルが定義されたレベルの信頼度よりも低くなるように低下されてもよい。
これらの各シナリオでは、既存のタイプの決定は、ステップ606における処理によって生成され、検出されたタイプを含んでも含まなくてもよい1つ以上の候補タイプが利用可能性から利益を受け得る。候補タイプに基づいて、より多くの又は異なる状態が考慮され得るため、既存の状態の判定も利益を受け得る。
交差点のタイプが考慮されたさらに別の変化形態では、交差点の形状が比較的複雑である場合、例えば、各アームに2つの車線がある4方向の交差点よりも複雑である場合、方法600は常にステップ604から606に進んでもよい。交差点のタイプが比較的単純な交差点の形状を含む実装であっても、交差点に他の物体が存在すると、常にステップ604から606に進んでもよい。
ステップ606における決定を行うために、交差点の形状、交差点内で検出された他の物体、又はその両方が、検出精度のレベルと組み合わせて考慮されてもよい。例えば、ステップ604における決定は、検出されたタイプの検出精度のレベルと定義された検出精度のレベルとの差を決定して、その差を差分閾値と比較してもよい。検出されたタイプの検出精度のレベルが定義されたレベルよりも高く、差が差分閾値よりも小さい場合、方法600はステップ604から606に進んでもよく、それ以外の場合は前述のようにステップ608又は612に進み得る。差分閾値は、形状の複雑さが高いほど、及び/又は検出された物体の数、検出された物体のタイプ、又は交差点の移動の困難さを増加させ得る交差点内の配置が多いほど、差分閾値が高くなるように、交差点の形状及び/又は交差点内の他の検出された物体に依存してもよい。方法600を終了するか、又はステップ612に進むかのステップ608での判断のために、同様の分析が交通流制御デバイスの検出された状態を使用して行われてもよい。
前述のように、ステップ602において識別又は決定された交差点のタイプは、ステップ606において、1つ以上の候補タイプ、1つ以上の候補状態、又はその両方を決定するために使用されてもよい。次に、交差点のタイプを使用して、ステップ612における提示の候補を決定する例について説明する。
一例では、方法600は、交差点が車両に使用可能な既存のマップ内でマッピングされていないことを決定してもよい。交通流制御デバイスの候補タイプは、交通流制御デバイスの検出されたタイプが交差点のタイプと一致する場合に、検出されたタイプであってもよい。交通流制御デバイスの検出されたタイプは、検出されたタイプが少なくとも1つのセンサによって検出された交差点の形状と一致する場合に、交差点のタイプと一致してもよい。例えば、停止標識又は譲れ標識の交通流制御デバイスのタイプはT字型の交差点と一致し、停止標識又は交通信号はT字型ではない3方向の交差点と一致し、交通信号は4つより多くのアームを持つ交差点と一致する等である。これらは単なる例であり、交通流制御デバイスのタイプが交差点の形状と一致するかどうかは異なってもよい。さらに、交通流制御デバイスの候補タイプは、交通流制御デバイスの検出されたタイプが交差点のタイプと一致するかどうかに関わらず、及び交通流制御デバイスが検出されなかった場合に、交差点のタイプと一致する交通流制御デバイスのタイプであってもよい。
候補タイプが決定されると、その候補タイプが候補状態と関連付けられてもよい。上記の例において、交差点がマッピングされていない場合、交通流制御デバイスの候補状態は、交通流制御デバイスの検出されたタイプが交差点のタイプと一致する場合に、検出された状態として決定されてもよい。交通流制御デバイスが検出されない場合等、検出された状態が存在しない場合、候補状態は、交差点のタイプ、交差点内の少なくとも1つの物体の状態、又はその両方に基づいてもよい。例えば、交差点のタイプがその形状を参照している場合、候補タイプは前述のようにその形状と一致してもよい。候補タイプが複数の状態を有し得る場合、候補状態はこれらの状態のいずれかに対応する交通流制御デバイスの状態である。また、候補タイプの可能な状態のそれぞれを候補状態として決定されてもよい。しかしながら、センサデータを使用して検出される交差内の少なくとも1つの物体の状態を考慮することによって、追加の精度が達成され得る。
具体的には、交差点の他の少なくとも1つの車両の状態が停止しているか、減速しているか、減速せずに前進しているか、角を曲がっているか等を考慮することにより、候補タイプの1つ以上の可能な状態としてステップ606又は610において候補状態が決定されてもよい。候補タイプが交通信号である場合、例えば、4方向の交差点において車両に隣接する車線で停止している車両は、信号が赤色である可能性が高いことを示し得るため、赤色が既存の状態に対する可能な候補状態となるが、隣接する車線で同じ車両が減速していることは、信号が黄色又は赤色であることを示しているため、再び赤色が候補状態となり、また、黄色も既存の状態に対する可能な候補状態となる。他の交差点のタイプ及び検出された物体が、候補状態を決定する際に同様に考慮されてもよい。別の例では、候補タイプは旋回矢印であってもよく、候補状態はオフ状態又はオン状態であってもよい。他の車両を観察することによって、これらの候補状態のいずれかがより可能性が高くなり、例えば、検出された状態がない候補タイプを最初に提示されてもよい。
ステップ606において候補タイプを決定する他の例では、方法600は、交差点が車両に利用可能な既存のマップ内にマッピングされていることを決定してもよい。既存のマップが誤っている可能性があるため、交通流制御デバイスの検出されたタイプが既存のマップ内の交差点の交通流制御デバイスのタイプと不整合である(すなわち、一致しない)場合、交通の候補タイプが検出されたタイプとして決定されてもよい。候補タイプは、既存のマップ内の交差点の交通流制御デバイスのタイプも含んでもよい。検出されたタイプは、以前にマッピングされた交通流制御デバイスのタイプと一致する場合にも、候補タイプとして決定されてもよい。交通流制御デバイスが検出されない場合は、前述の交差点の形状等、交差点のタイプに基づいて、候補タイプが交通流制御デバイスのタイプとして決定されてもよい。いくつかの実装では、交通流制御デバイスが検出されない場合、候補状態の決定に関して上述されたように、交差点内で検出された少なくとも1つの物体の状態が考慮されてもよい。
ステップ606、又はステップ604及び選択的にステップ610において交通流制御デバイスに対する(複数の)候補が決定されると、それらはステップ612において車両の乗客に提示され、上記で簡単に述べたようにステップ614においてフィードバックされる。より詳細には、交通流制御デバイスの候補タイプは、適用可能な場合は交通流制御デバイスの候補状態と共に、ユーザインターフェース135等のユーザインターフェースによって乗客に提示される。ユーザインターフェースは、ビジュアルインターフェイス、オーディオインターフェース、又はビジュアルインターフェイス及びオーディオインターフェースの両方を含んでもよい。乗客は、候補タイプが正しいかどうか(すなわち、それが車両交通網の交差点内に実際に存在する既存のタイプであるかどうか)、及び、存在する場合、候補の状態が正しいかどうか(すなわち、それが車両交通網の交差点内で候補タイプと共に実際に示される既存の状態であるかどうか)を示すユーザインターフェースを介してフィードバックを要求される。
複数の候補タイプがある場合、どの候補タイプが既存のタイプであるかを示すフィードバックとして乗客がユーザインターフェースに1つの入力を提供するために、全ての候補タイプが一緒に提示されてもよい。代替的に、乗客が順番にそれぞれに関するフィードバックを提供できるように、候補タイプが順番に提示されてもよい。候補タイプに関連付けられた複数の候補状態がある場合、各候補状態は、候補タイプと平行して又は同時に提示されてもよい。いくつかの実装では、候補タイプに加えて、可能な交通流制御デバイスのタイプのリストから選択するオプションを乗客に提示し、そこから既存のタイプを識別してもよい。既存のタイプが複数の状態を有し得る場合、乗客は可能な状態のリストから選択するオプションを提示されてもよい。
交通流制御デバイスの既存のタイプ、及び、適用可能な場合は交通流制御デバイスの既存の状態を確認することに加えて、ユーザインターフェースは、交差点内の正確な位置を識別又は確認するために使用されてもよい。ユーザインターフェースは、図6の方法600に従って、車両とユーザの相互作用の例の図である図7を参照して、さらに詳細に説明され得る。
車両100,210,211のような車両内の乗客702への提示は、ユーザインターフェース135のような、オーディオインターフェース、ディスプレイスクリーン、又はその両方の一部であるスピーカを使用して行われてもよい。図7に示すように、乗客702は、車両内に適切に取り付けられた又は他のやり方で配置された複数のインターフェイスハードウェアコンポーネントを使用してフィードバックを提供してもよい。この例では、ビジュアルインターフェイスは、ジェスチャ又は身体姿勢推定プロセス704を使用してフィードバックを受信するために乗客702の体の方を向いている第1の画像又はビデオカメラ720と、視線推定プロセス706、頭部姿勢推定プロセス708、顔又は唇読み取り推定プロセス710、又はこれらのいくつかの組み合わせを使用してフィードバックを受信するために乗客702の頭部の方を向いている第2の画像又はビデオカメラ722を含む。オーディオインターフェースは、音声認識プロセス712を使用してフィードバックを受信するためのマイクロホン724を含む。図7は、(複数の)接触入力714としてフィードバックを受信するための触覚インターフェース(タッチスクリーンディスプレイ上のボタン726等)も含む。いくつかのデバイスがフィードバックを受信するように示されているが、本明細書の教示はこれらのデバイスに限定されない。さらに、全てのデバイスが使用されるとは限らない。フィードバックを提供するために必要なデバイスは1つだけである。頭部に向けたビデオカメラをフィードバックに使用する場合、推定プロセス706,708及び710の全てが必要というわけではない。推定プロセスのうち、1つ又は2つだけが使用されてもよい。
詳細には示されていないが、図7のジェスチャ又は身体姿勢推定プロセス704、視線推定プロセス706、頭部姿勢推定プロセス708、顔又は唇読み取り推定プロセス710、及び音声認識プロセス712のうちの1つ以上が、それぞれのニューラルネットワークによって実装されてもよい。ニューラルネットワークへの入力は、第1のカメラ720からの乗客702の体の画像、第2のカメラ722からの乗客702の顔の画像、又はマイク724からの発話であってもよい。いくつかの実装では、(複数の)接触入力714が1つ以上のニューラルネットワークへの入力として使用されてもよい。図示のようなニューラルネットワークの層は、多数の訓練サンプルを使用して訓練される。例えば、視線推定プロセス706のためのニューラルネットワークは、車両が交差点に接近している間に、訓練されたニューラルネットワークが乗客702の視線の焦点fcを推論できるように、三次元空間における乗客の視線の既知の焦点fcに関連付けられた多数の訓練画像を使用して訓練されてもよい。この例では、焦点fcは、ディスプレイスクリーンに提示される交通流制御デバイスの既存のタイプ、既存の状態、又はその両方を識別又は確認する乗客702からのフィードバックを提供してもよい。焦点fcは、交通流制御デバイスの位置を識別又は確認する乗客702からのフィードバックを提供してもよい。
他の推定プロセスは、車両が交差点に接近している間に乗客702からのフィードバックを推論(例えば、推定)するために同様に訓練されたニューラルネットワークを使用してもよい。例えば、ジェスチャ又は身体姿勢推定プロセス704において、検出された手のジェスチャに応じて乗客702から異なるフィードバックが提供されるように、ニューラルネットワークは複数の手のジェスチャを区別するように訓練されてもよい。例えば、3つの候補タイプのいずれが既存のタイプの車両流制御デバイスに対応するかを示すために、3つの異なる手のジェスチャが使用されてもよい。手のジェスチャは、様々なフィードバックに使用されてもよい。例えば、ポインティングジェスチャが、車両流制御デバイスの位置を確認又は識別するために使用されてもよい。
ジェスチャ又は身体姿勢推定プロセス704、視線推定プロセス706、頭部姿勢推定プロセス708、顔又は唇読み取り推定プロセス710、音声認識プロセス712、及び(複数の)接触入力714のうちの1つ以上からのフィードバック出力がコマンド解釈モジュール716に供給されてもよい。フィードバックは、既存のタイプ、又は車両流制御デバイスの既存のタイプ及び既存の状態を識別又は確認し、選択的にステップ718において車両の位置を識別又は確認するように、乗客702からのコマンドを解釈するために任意のやり方で組み合わされてもよい。
再び図4を参照すると、ステップ410において、交通流制御デバイスは、交通流制御デバイスの位置、及び交通流制御デバイスの既存のタイプ又は既存の状態の少なくとも1つを含むラベルによって、車両に関する少なくとも1つの制御システム内でタグ付けされる。ステップ524におけるタグ付けに関して前述したように、ラベルは、マップ又は交通標識データベース526に追加されてもよい。つまり、例えば、交差点が車両のメモリ内に記憶されたローカルマップ内にある場合、ローカルマップは、ラベルを使用して交通流制御デバイスを更新されてもよい。
データベース526、したがって、タグ付けされた交通流制御デバイスは、車載ナビゲーションシステム又は車載物体検出システム、又はその両方等、車両に関する1つ以上の制御システムに組み込まれてもよい。車載ナビゲーションシステムは、経路マッピング、又は遠隔交通システムの正確な描写に依存するその他のナビゲーション活動を含み得る。車両がAV又は半自律車両であるようないくつかの実装では、車載ナビゲーションシステム及びそのタグ付けされた交通流制御デバイスは、図3の自律車両動作管理システム300のような自律車両動作管理システムの一部として組み込まれてもよい。
車載物体検出システムに関しては、タグ付けされた交通流制御デバイスのラベルは、強化学習等の方法を使用して物体検出精度を向上させるために、データ及び訓練パイプラインの一部としてシステム内で使用することができる。
ステップ412において、車両は、交通流制御デバイスに関するラベルを組み込む少なくとも1つの制御システムを使用して、車両交通網内で動作させられる。例えば、制御システムが図3の自律車両動作管理システム300のような自律車両動作管理システムである場合、交通流制御デバイスのためのラベルは、車両交通網内のより正確なナビゲーションのために使用されてもよく、特に、交通流制御デバイスに関連する交差点を移動する際の意思決定に使用されてもよい。車両の物体検出システムは、交通流制御デバイスのためのラベルを使用した訓練によって改善された車両交通網内で動作しながら、車両によって使用されてもよい。
方法400は、車両交通網内の複数の交差点に対して繰り返されてもよい。図4には示されていないが、方法400は、交差点が、リモート車両サポートシステムによって提供される車両に利用可能な既存のリモートマップ内にある場合、交通流制御デバイスのタイプ又は位置の少なくとも1つが、リモートマップ内の交差点に関連付けられている交通流制御デバイスのものと異なる(例えば、既存のタイプが交差点に関する既知の交通流制御デバイスと一致しない)場合、交通流制御デバイスに関するラベルをリモート車両サポートシステムに送信することを含んでもよい。また、そのタイプは、交差点が車両に利用可能な既存のマップ内のマッピングされていない交差点である場合、リモート車両サポートシステムに送信されてもよい。
本明細書の開示は、車両入力データの欠如及び/又は不完全さに対処することによって、車両交通網内での車両動作における意思決定を支援する。特に、例えば、低信頼度の物体検出条件において、交通流制御デバイスのような物体を識別し、その後に注釈を付け、マッピングすることが記載されている。
本教示には、運転中に交通流制御デバイスをマッピングして注釈を付け又はラベル付けすることができる技術が記載されており、これによって車にあらかじめ組み込まれている完全な高精細マップへの依存を低減することができる。さらに、本教示は、手動ラベリングのために画像データをリモート車両サポートシステムに送信する等の技術に対して、車両交通網におけるラベリングを改善し且つ高速化することができる。手動ラベリング及びその後の検証の代わりに、車両は確認のためにマッピング及びラベリングされたデータをリモート車両サポートシステムに送信することができる。送信されたデータの精度は、送信前に精度を確認するために車両及び乗客の相互作用の恩恵を受ける場合があり、更新されたリモート生成されたマップにデータを含めるために必要な時間が短縮され得る。また、本開示は、交差点の形状及び交差点内の物体を含むシーンの理解を利用して、乗客によって検討される物体候補を推測する。乗客との対話には、説明可能な人工知能等の技術が組み込まれてもよく、これにより、経時的に物体の識別及びラベル付けを改善することが可能になる。
本明細書で使用される場合、「命令」という用語は、本明細書に開示の任意の方法を実行するための指示若しくは表現、又はその任意の部分若しくは複数の部分を含んでもよく、ハードウェア、ソフトウェア又はこれらの任意の組み合わせで実現されてもよい。例えば、命令は、本明細書に記載の各方法、アルゴリズム、態様又はこれらの組み合わせのいずれかを行うためにプロセッサによって実行され得るメモリに記憶されたコンピュータプログラム等の情報として実装されてもよい。命令又はその一部は、本明細書に記載の任意の方法、アルゴリズム、態様又はその組み合わせを行うための専用ハードウェアを含み得る専用プロセッサ又は回路として実装されてもよい。いくつかの実装では、命令の部分は、直接的に又はローカルエリアネットワーク、ワイドエリアネットワーク、インターネット又はこれらの組み合わせ等のネットワークを介して通信し得る複数の装置又は単一の装置上の複数のプロセッサに分散されてもよい。
本明細書で使用される場合、「例示」、「実施形態」、「実装」、「態様」、「特徴」又は「要素」という用語は、用例、例示又は実例としての役割を果たすことを示している。明示されない限り、任意の例示、実施形態、実装、態様、特徴又は要素が、互いの例示、実施形態、実装、態様、特徴又は要素から独立しており、任意の他の例示、実施形態、実装、態様、特徴又は要素と組み合わせて使用されてもよい。
本明細書で使用される場合、「決定」及び「識別」又はこれらの任意の変形の用語は、図示の及び本明細書に記載の1つ以上の装置を使用するいかなるやり方で選択、確認、計算、検索、受信、決定、確立、取得、又は他のやり方で識別又は決定することを含んでいる。
本明細書で使用される場合、「又は」という用語は、特に明記されていない限り、又は文脈から明らかな場合を除き、排他的な「又は」ではなく包含的な「又は」を意味することが意図されている。さらに、本願及び添付の請求項の中で使用される“a”及び“an”という冠詞は、一般に、単数形を指していることが文脈から明確であるか又は他に特段の定めがない限り、「1つ以上の」を意味すると解釈されるべきである。
さらに、説明の簡潔のため、本明細書の図面及び説明は一連のステップ又は段階又はシーケンスを含み得るが、本明細書に開示の方法の要素は、様々な順番で又は同時に起こってもよい。さらに、本明細書に開示の方法の要素は、本明細書に明示的に提示及び開示されていない他の要素と共に起こってもよい。さらに、本明細書に記載の方法の全ての要素が、本開示による方法を実装することを要求されるとは限らない。態様、特徴及び要素は特定の組み合わせで本明細書に記載されているが、各態様、特徴又は要素は、他の態様、特徴及び要素と共に又はそれらなしで独立して又は様々な組み合わせで使用されてもよい。
上記の態様、例示及び実装は、本開示の理解を容易にするために記載されており、限定するものではない。対照的に、本開示は、添付の特許請求の範囲内に含まれる様々な修正及び等価な構成を包含しており、特許請求の範囲は、法的に認められている全てのこのような修正及び均等構造を包含するように最も広く解釈されるべきである。

Claims (20)

  1. 車両を動作させる方法であって、
    前記車両が車両交通網内の交差点に接近すると、前記車両のプロセッサにおいて、少なくとも1つの車載センサからセンサデータを受信するステップと、
    前記センサデータを使用して、前記交差点に関する交通流制御デバイスが検出されたかどうかを決定するステップと、
    前記交通流制御デバイスが検出された場合に、前記交通流制御デバイスの検出されたタイプ又は検出された状態の少なくとも1つを決定するステップと、
    前記プロセッサ及び前記交差点のタイプを使用して、前記交通流制御デバイスの既存のタイプ又は既存の状態の少なくとも1つを決定するステップであって、前記交通流制御デバイスの少なくとも1つが検出されないか、又は前記交通流制御デバイスの前記検出されたタイプ又は前記検出された状態の少なくとも1つが、検出信頼度の定義されたレベルより低い検出信頼度により決定されるステップと、
    前記車両用の少なくとも1つの制御システム内で、前記交通流制御デバイスの位置、及び前記交通流制御デバイスの前記既存のタイプ又は前記既存の状態の少なくとも1つを含むラベルによって前記交通流制御デバイスをタグ付けするステップと、
    前記交通流制御デバイスに関する前記ラベルが組み込まれた前記少なくとも1つの制御システムを使用して、前記車両交通網内で前記車両を動作させるステップと
    を含む、方法。
  2. 前記交通流制御デバイスが前記車両に利用可能な既存のマップ内にない場合、前記既存のタイプ又は前記検出された状態の少なくとも1つは、前記検出信頼度の定義されたレベルよりも低い検出信頼度によって決定される、請求項1に記載の方法。
  3. 前記車両に利用可能な既存のマップ内のマッピングされた交差点として前記交差点のタイプを識別するステップと、
    前記交通流制御デバイスの検出されたタイプが前記マッピングされた交差点に関する既知の交通流制御デバイスと一致しないと決定するステップと
    を含み、
    前記既存のタイプを決定することは、前記検出されたタイプの1つが前記既存のタイプであるか又は前記既知の交通流制御デバイスが前記既存のタイプであることを確認することを含む、請求項1に記載の方法。
  4. 前記プロセッサを使用して、前記交通流制御デバイスの前記既存のタイプ又は前記既存の状態の少なくとも1つを決定することは、
    前記車両のビジュアル又はオーディオインターフェースの少なくとも1つによって、前記交通流制御デバイスの候補タイプ、前記交通流制御デバイスの候補状態、又は前記交通流制御デバイスの前記候補タイプ及び前記候補状態の両方を前記車両の乗客に提示すること、及び
    前記候補タイプが前記交通流制御デバイスの前記既存のタイプであるかどうか、前記候補状態が前記交通流制御デバイスの前記既存の状態であるかどうか、又は前記候補タイプが前記交通流制御デバイスの前記既存のタイプであり、且つ前記候補状態が前記交通流制御デバイスの前記既存の状態であるかどうかを示すフィードバックを前記乗客から受信すること
    を含む、請求項1に記載の方法。
  5. 前記交通流制御デバイスの前記候補タイプ又は前記交通流制御デバイスの候補状態の少なくとも1つは、前記交差点のタイプに基づき、前記交差点のタイプは、前記交差点の形状、マッピングされた交差点又はマッピングされていない交差点としての前記交差点の状態、又はその両方に基づく、請求項4に記載の方法。
  6. 前記車両に利用可能な既存のマップ内のマッピングされた交差点として前記交差点のタイプを識別するステップと、
    前記交差点の形状を使用して、前記交通流制御デバイスの候補タイプを決定するステップであって、前記交通流制御デバイスの前記既存のタイプは、前記候補タイプとして決定されるステップと
    を含む、請求項1に記載の方法。
  7. 前記交通流制御デバイスの前記検出されたタイプは、交通信号機を含み、
    前記交通信号機の前記検出された状態が前記検出信頼度の定義されたレベルを下回るように、前記交通信号機は少なくとも部分的に遮蔽され、
    前記交通制御デバイスの前記既存のタイプ又は前記既存の状態の少なくとも1つを決定することは、前記センサデータによって得られた前記交差点内の少なくとも1つの他の車両の状態を使用して、前記交通信号機の前記既存の状態が赤又は緑の一方であることを決定することを含む、請求項1に記載の方法。
  8. 前記センサデータを受信することは、
    前記車両の画像センサからの第1のセンサデータ、及び
    前記車両の距離センサからの第2のセンサデータを含み、
    前記方法は、
    前記第1のセンサデータを使用して前記交差点内の物体を検出するステップと、
    前記第2のセンサデータを使用して前記交差点内の物体を検出するステップと、
    前記第1のセンサデータを使用して検出された物体と前記第2のセンサデータを使用して検出された物体とを比較するステップと、
    前記第1のセンサデータを使用して検出された物体の少なくとも1つ、又は前記第2のセンサデータを使用して検出された物体の少なくとも1つを分類するステップと、
    前記第1のセンサデータを使用して検出された物体又は前記第2のセンサデータを使用して検出された物体の少なくとも1つの物体が、交通流制御デバイスのタイプとして分類されない場合、前記交通流制御デバイスが検出されないと決定するステップと、
    前記第1のセンサデータを使用して検出された複数の物体の中の1つの物体の特性が、前記第2のセンサデータを使用して検出された複数の物体の中の1つの物体の特性と一致し、且つ、前記第1のセンサデータを使用して検出された複数の物体の中の1つの物体又は前記第2のセンサデータを使用して検出された複数の物体の中の1つの物体のうちの少なくとも1つが、交通流制御デバイスのタイプとして分類される場合、前記センサデータによって前記交通流制御デバイスが検出されたと決定するステップと
    を含む、請求項1に記載の方法。
  9. 前記交差点は、リモート車両サポートシステムによって提供される前記車両に利用可能な既存のリモートマップ内にあり、
    前記方法は、
    前記交通流制御デバイスのタイプ又は位置の少なくとも1つが、前記リモートマップ内の前記交差点に関連付けられている交通流制御デバイスのものとは異なる場合、前記交通流制御デバイスに関する前記ラベルを前記リモート車両サポートシステムに送信するステップ
    を含む、請求項1に記載の方法。
  10. 前記交差点は、前記車両のメモリ内に記憶されているローカルマップ内にあり、前記方法は、前記ラベルを使用して前記ローカルマップを前記交通流制御デバイスによって更新するステップを含む、請求項1に記載の方法。
  11. 車両を動作させるための装置であって、プロセッサを備えており、
    前記プロセッサは、
    車両が車両交通網内の交差点に接近すると、少なくとも1つの車載センサからセンサデータを受信すること、
    前記センサデータを使用して、前記交差点に関する交通流制御デバイスが検出されたかどうかを決定すること、
    前記交通流制御デバイスが検出された場合に、前記交通流制御デバイスの検出されたタイプ又は検出された状態の少なくとも1つを決定すること、
    前記交差点のタイプを使用して、前記交通流制御デバイスの既存のタイプ又は既存の状態の少なくとも1つを決定することであって、前記交通流制御デバイスの少なくとも1つが検出されないか、又は前記交通流制御デバイスの前記検出されたタイプ又は前記検出された状態の少なくとも1つが、検出信頼度の定義されたレベルより低い検出信頼度により決定されること、
    前記車両用の少なくとも1つの制御システム内で、前記交通流制御デバイスの位置、及び前記交通流制御デバイスの前記既存のタイプ又は前記既存の状態の少なくとも1つを含むラベルによって前記交通流制御デバイスをタグ付けすることであって、前記車両は、前記交通流制御デバイスに関する前記ラベルが組み込まれた前記少なくとも1つの制御システムを使用して、前記車両交通網内で動作するように構成されること、
    を行うように構成される、装置。
  12. 前記交通流制御デバイスの前記既存のタイプ又は前記既存の状態の少なくとも1つを決定することは、
    前記車両のビジュアル又はオーディオインターフェースの少なくとも1つによって、前記交通流制御デバイスの候補タイプ、前記交通流制御デバイスの候補状態、又は前記交通流制御デバイスの前記候補タイプ及び前記候補状態の両方を前記車両の乗客に提示すること、及び
    前記候補タイプが前記交通流制御デバイスの前記既存のタイプであるかどうか、前記候補状態が前記交通流制御デバイスの前記既存の状態であるかどうか、又は前記候補タイプが前記交通流制御デバイスの前記既存のタイプであり、且つ前記候補状態が前記交通流制御デバイスの前記既存の状態であるかどうかを示すフィードバックを前記乗客から受信すること
    を含む、請求項11に記載の装置。
  13. 前記プロセッサは、
    前記車両に利用可能な既存のマップ内に前記交差点がマッピングされていないことを決定すること、及び
    前記交通流制御デバイスの前記検出されたタイプが前記交差点のタイプと一致する場合の前記検出されたタイプ、又は前記交通流制御デバイスが検出されなかった場合の前記交差点のタイプに基づく交通流制御デバイスのタイプの1つとして、前記交通流制御デバイスの前記候補タイプを決定すること
    を行うように構成される、請求項12に記載の装置。
  14. 前記プロセッサは、
    前記車両に利用可能な既存のマップ内に前記交差点がマッピングされていないことを決定すること、及び
    前記交通流制御デバイスの前記検出されたタイプが前記交差点のタイプと一致する場合の前記検出された状態、又は前記交差点のタイプに基づく、及び前記交通流制御デバイスが検出されなかった場合の前記交差点内の少なくとも1つの物体の状態に基づく交通流制御デバイスの状態の1つとして、前記交通流制御デバイスの前記候補状態を決定すること
    を行うように構成される、請求項12に記載の装置。
  15. 前記プロセッサは、
    前記車両に利用可能な既存のマップ内に前記交差点がマッピングされていることを決定すること、及び
    前記交通流制御デバイスの前記検出されたタイプが前記既存のマップ内の前記交差点の交通流制御デバイスのタイプと一致しない場合の前記検出されたタイプ、又は前記交通流制御デバイスが検出されなかった場合の前記交差点のタイプに基づく交通流制御デバイスのタイプの1つとして、前記交通流制御デバイスの前記候補タイプを決定すること
    を行うように構成される、請求項12に記載の装置。
  16. 前記プロセッサは、
    前記車両に利用可能な既存のマップ内に前記交差点がマッピングされていることを決定すること、及び
    前記交通流制御デバイスの検出されたタイプが前記交差点のタイプと一致する場合の前記検出された状態、又は前記交差点のタイプ、及び前記交通流制御デバイスが検出されなかった場合の前記交差点内の少なくとも1つの物体の状態の少なくとも1つに基づく交通流制御デバイスの状態の1つとして、前記交通流制御デバイスの前記候補状態を決定すること
    を行うように構成される、請求項12に記載の装置。
  17. 前記少なくとも1つの制御システムは、前記車両の車載ナビゲーションシステム又は車載物体検出システムの少なくとも1つを備える、請求項11に記載の装置。
  18. 前記プロセッサは、
    前記交差点の1つが前記車両に利用可能な既存のマップ内のマッピングされた交差点であり、且つ前記既存のタイプが前記交差点に関する既知の交通流制御デバイスと一致しない場合、又は前記交差点が前記車両に利用可能な前記既存のマップ内のマッピングされていない交差点である場合に、前記既存のタイプをリモート車両サポートシステムに送信すること
    を行うように構成される、請求項11に記載の装置。
  19. 少なくとも1つの車載センサと、
    少なくとも1つの制御システムと、
    プロセッサと
    を備える車両であって、前記プロセッサは、
    車両が車両交通網内の交差点に接近すると、少なくとも1つの車載センサからセンサデータを受信すること、
    前記センサデータを使用して、前記交差点に関する交通流制御デバイスが検出されたかどうかを決定すること、
    前記交通流制御デバイスが検出された場合に、前記交通流制御デバイスの検出されたタイプ又は検出された状態の少なくとも1つを決定すること、
    前記交差点の識別を使用して、前記交通流制御デバイスの既存のタイプ又は既存の状態の少なくとも1つを決定することであって、前記交通流制御デバイスの少なくとも1つが検出されないか、又は前記交通流制御デバイスの前記検出されたタイプ又は前記検出された状態の少なくとも1つが、検出信頼度の定義されたレベルより低い検出信頼度により決定されること、及び
    前記少なくとも1つの制御システム内で、前記交通流制御デバイスの位置、及び前記交通流制御デバイスの前記既存のタイプ又は前記既存の状態の少なくとも1つを含むラベルによって前記交通流制御デバイスをタグ付けすること
    を行うように構成され、
    前記車両は、前記交通流制御デバイスに関する前記ラベルが組み込まれた前記少なくとも1つの制御システムを使用して、前記車両交通網内で前記車両を動作させるように構成される、車両。
  20. 前記車両の前記少なくとも1つの制御システムは、前記車両の車載ナビゲーションシステム又は車載物体検出システムの少なくとも1つを備える、請求項19に記載の車両。

JP2023519434A 2020-09-30 2021-09-21 低信頼度の物体検出条件における車両動作のための注釈及びマッピング Active JP7462837B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US17/039,270 2020-09-30
US17/039,270 US11681780B2 (en) 2020-09-30 2020-09-30 Annotation and mapping for vehicle operation in low-confidence object detection conditions
PCT/US2021/051246 WO2022072173A1 (en) 2020-09-30 2021-09-21 Annotation and mapping for vehicle operation in low-confidence object detection conditions

Publications (2)

Publication Number Publication Date
JP2023541322A true JP2023541322A (ja) 2023-09-29
JP7462837B2 JP7462837B2 (ja) 2024-04-05

Family

ID=80822769

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023519434A Active JP7462837B2 (ja) 2020-09-30 2021-09-21 低信頼度の物体検出条件における車両動作のための注釈及びマッピング

Country Status (5)

Country Link
US (1) US11681780B2 (ja)
EP (1) EP4222034A4 (ja)
JP (1) JP7462837B2 (ja)
CN (1) CN116323359B (ja)
WO (1) WO2022072173A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11636757B2 (en) * 2020-08-31 2023-04-25 Nissan North America, Inc. System and method for optimizing traffic flow using vehicle signals
DE102022127111A1 (de) * 2022-10-17 2024-04-18 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Betrieb einer Fahrfunktion auf einer Zufahrts-Fahrbahn zu einer Signalisierungseinheit

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143324A (ja) * 2015-02-04 2016-08-08 株式会社デンソー 物体検出装置
JP2017067464A (ja) * 2015-09-28 2017-04-06 クラリオン株式会社 情報処理装置
JP2021014239A (ja) * 2019-07-16 2021-02-12 本田技研工業株式会社 車両制御装置

Family Cites Families (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009150528A2 (en) * 2008-06-13 2009-12-17 Tmt Services And Supplies (Pty) Limited Traffic control system and method
US8340894B2 (en) 2009-10-08 2012-12-25 Honda Motor Co., Ltd. Method of dynamic intersection mapping
US8559673B2 (en) 2010-01-22 2013-10-15 Google Inc. Traffic signal mapping and detection
CN102542818B (zh) * 2012-01-13 2016-02-17 吉林大学 一种基于有机计算的区域边界交通信号协调控制方法
US8761991B1 (en) * 2012-04-09 2014-06-24 Google Inc. Use of uncertainty regarding observations of traffic intersections to modify behavior of a vehicle
US9158980B1 (en) * 2012-09-19 2015-10-13 Google Inc. Use of relationship between activities of different traffic signals in a network to improve traffic signal state estimation
US10025990B2 (en) * 2014-05-21 2018-07-17 Universal City Studios Llc System and method for tracking vehicles in parking structures and intersections
EP3168823B1 (en) 2014-07-08 2020-05-13 Nissan Motor Co., Ltd Traffic signal detection device and traffic signal detection method
US9779314B1 (en) * 2014-08-21 2017-10-03 Waymo Llc Vision-based detection and classification of traffic lights
KR102096334B1 (ko) * 2015-06-03 2020-04-02 클리어모션, 아이엔씨. 차체 모션 및 승객 경험을 제어하기 위한 방법 및 시스템
KR101920186B1 (ko) * 2015-07-08 2018-11-19 닛산 지도우샤 가부시키가이샤 등화기 검출 장치 및 등화기 검출 방법
US9916703B2 (en) * 2015-11-04 2018-03-13 Zoox, Inc. Calibration for autonomous vehicle operation
US9746853B2 (en) * 2015-11-30 2017-08-29 Nissan North America, Inc. Traffic signal timing estimation using a support vector regression model
US9990548B2 (en) 2016-03-09 2018-06-05 Uber Technologies, Inc. Traffic signal analysis system
WO2018102425A1 (en) * 2016-12-02 2018-06-07 Starsky Robotics, Inc. Vehicle control system and method of use
US10372132B2 (en) 2016-12-12 2019-08-06 Apple Inc. Guidance of autonomous vehicles in destination vicinities using intent signals
US10643084B2 (en) * 2017-04-18 2020-05-05 nuTonomy Inc. Automatically perceiving travel signals
US10525903B2 (en) * 2017-06-30 2020-01-07 Aptiv Technologies Limited Moving traffic-light detection system for an automated vehicle
RU2750871C1 (ru) 2017-07-03 2021-07-05 Ниссан Мотор Ко., Лтд. Способ формирования целевой скорости транспортного средства и устройство формирования целевой скорости транспортного средства для транспортного средства с помощью при вождении
US10532749B2 (en) 2017-08-11 2020-01-14 Uatc, Llc Systems and methods to adjust autonomous vehicle parameters in response to passenger feedback
JP6570598B2 (ja) * 2017-11-08 2019-09-04 本田技研工業株式会社 地図生成サーバおよび地図生成方法
US11377123B2 (en) 2017-12-22 2022-07-05 Nissan North America, Inc. Solution path overlay interfaces for autonomous vehicles
US11334753B2 (en) * 2018-04-30 2022-05-17 Uatc, Llc Traffic signal state classification for autonomous vehicles
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11227409B1 (en) * 2018-08-20 2022-01-18 Waymo Llc Camera assessment techniques for autonomous vehicles
US11080267B2 (en) * 2018-08-31 2021-08-03 Waymo Llc Validating road intersections
US10852743B2 (en) * 2018-09-07 2020-12-01 GM Global Technology Operations LLC Multimodal multi-technique signal fusion system for autonomous vehicle
US20200104289A1 (en) * 2018-09-27 2020-04-02 Aptiv Technologies Limited Sharing classified objects perceived by autonomous vehicles
CN110160502B (zh) * 2018-10-12 2022-04-01 腾讯科技(深圳)有限公司 地图要素提取方法、装置及服务器
US11106925B2 (en) * 2018-10-25 2021-08-31 Intel Corporation Computer-assisted or autonomous driving traffic sign recognition method and apparatus
US10936902B1 (en) * 2018-11-27 2021-03-02 Zoox, Inc. Training bounding box selection
US10467487B1 (en) * 2018-12-11 2019-11-05 Chongqing Jinkang New Energy Automobile Co., Ltd. Fusion-based traffic light recognition for autonomous driving
US10928828B2 (en) * 2018-12-14 2021-02-23 Waymo Llc Detecting unfamiliar signs
US11092456B2 (en) * 2019-03-08 2021-08-17 Aptiv Technologies Limited Object location indicator system and method
US11168990B2 (en) * 2019-03-11 2021-11-09 Toyota Research Institute, Inc. Crowdsourcing annotations of roadway information
WO2020243484A1 (en) * 2019-05-29 2020-12-03 Mobileye Vision Technologies Ltd. Systems and methods for vehicle navigation
US11593344B2 (en) * 2019-07-02 2023-02-28 Nvidia Corporation Updating high definition maps based on age of maps
US11663860B2 (en) * 2019-10-25 2023-05-30 Toyota Research Institute, Inc. Dynamic and variable learning by determining and using most-trustworthy inputs
US12112550B2 (en) * 2020-01-07 2024-10-08 Motional Ad Llc Systems and methods for traffic light detection
US11854212B2 (en) * 2020-02-26 2023-12-26 Motional Ad Llc Traffic light detection system for vehicle
US11704912B2 (en) * 2020-06-16 2023-07-18 Ford Global Technologies, Llc Label-free performance evaluator for traffic light classifier system
US20210404841A1 (en) * 2020-06-30 2021-12-30 Lyft, Inc. Systems and methods for inferring information about stationary elements based on semantic relationships

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016143324A (ja) * 2015-02-04 2016-08-08 株式会社デンソー 物体検出装置
JP2017067464A (ja) * 2015-09-28 2017-04-06 クラリオン株式会社 情報処理装置
JP2021014239A (ja) * 2019-07-16 2021-02-12 本田技研工業株式会社 車両制御装置

Also Published As

Publication number Publication date
EP4222034A4 (en) 2024-05-01
WO2022072173A1 (en) 2022-04-07
US11681780B2 (en) 2023-06-20
CN116323359A (zh) 2023-06-23
JP7462837B2 (ja) 2024-04-05
EP4222034A1 (en) 2023-08-09
CN116323359B (zh) 2024-03-05
US20220101723A1 (en) 2022-03-31

Similar Documents

Publication Publication Date Title
CN112368662B (zh) 用于自主运载工具操作管理的定向调整动作
US11249479B2 (en) System to recommend sensor view for quick situational awareness
CN110325928B (zh) 自主车辆运行管理
CN110431037B (zh) 包括运用部分可观察马尔可夫决策过程模型示例的自主车辆操作管理
CN110603497B (zh) 自主车辆操作管理控制的自主车辆和方法
CN110418743B (zh) 自主车辆运行管理阻碍监测
US12103560B2 (en) Methods and systems for predicting actions of an object by an autonomous vehicle to determine feasible paths through a conflicted area
US11702070B2 (en) Autonomous vehicle operation with explicit occlusion reasoning
US11181927B2 (en) Automated learning system for improved pickup/dropoff maneuver
US11215987B2 (en) Exception situation playback for tele-operators
CN112868031B (zh) 具有视觉显著性感知控制的自主运载工具操作管理
JP7194867B2 (ja) 自律走行車の安全性が確保される遠隔運転
US20200348668A1 (en) Mobility Manager Trainer for Improved Autonomy in Exception Handling
US12012097B2 (en) Complementary control system for an autonomous vehicle
JP7462837B2 (ja) 低信頼度の物体検出条件における車両動作のための注釈及びマッピング
WO2021153176A1 (ja) 自律移動装置、自律移動制御方法、並びにプログラム
US20210300438A1 (en) Systems and methods for capturing passively-advertised attribute information
US20240140472A1 (en) Data Determining Interface for Vehicle Decision-Making

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230519

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230519

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20230519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231031

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240326

R150 Certificate of patent or registration of utility model

Ref document number: 7462837

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150