JP2021501396A - 自律型車両の意思決定のための意味物体クラスタ化 - Google Patents

自律型車両の意思決定のための意味物体クラスタ化 Download PDF

Info

Publication number
JP2021501396A
JP2021501396A JP2020520748A JP2020520748A JP2021501396A JP 2021501396 A JP2021501396 A JP 2021501396A JP 2020520748 A JP2020520748 A JP 2020520748A JP 2020520748 A JP2020520748 A JP 2020520748A JP 2021501396 A JP2021501396 A JP 2021501396A
Authority
JP
Japan
Prior art keywords
objects
identified
vehicle
pair
processors
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020520748A
Other languages
English (en)
Other versions
JP7080314B2 (ja
Inventor
ラッセル,ジャレッド,スティーブン
ダ,ファン
Original Assignee
ウェイモ エルエルシー
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー, ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Priority claimed from PCT/US2018/057992 external-priority patent/WO2019089455A1/en
Publication of JP2021501396A publication Critical patent/JP2021501396A/ja
Application granted granted Critical
Publication of JP7080314B2 publication Critical patent/JP7080314B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/0097Predicting future conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/3407Route searching; Route guidance specially adapted for specific applications
    • G01C21/3415Dynamic re-routing, e.g. recalculating the route when the user deviates from calculated route or after detecting real-time traffic data or accidents
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3658Lane guidance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • G05D1/0214Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory in accordance with safety or protection criteria, e.g. avoiding hazardous areas
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/60Intended control result
    • G05D1/617Safety or protection, e.g. defining protection zones around obstacles or avoiding hazards
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/80Arrangements for reacting to or preventing system or operator failure
    • G05D1/81Handing over between on-board automatic and on-board manual control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/09623Systems involving the acquisition of information from passive traffic signs by means mounted on the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • G08G1/096811Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route where the route is computed offboard
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • G08G1/096805Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route
    • G08G1/096827Systems involving transmission of navigation instructions to the vehicle where the transmitted instructions are used to compute a route where the route is computed onboard
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)

Abstract

本技術は、自律運転モードにおいて車両(100)を制御することに関する。例えば、複数の物体を識別するセンサデータが、受信され得る。複数の物体の対の物体が、識別され得る。複数の物体のうちの各識別された対の物体について、その識別された対の物体の物体が、1つのグループとして車両によって対応され得るかどうかを示す類似性値が、判定され得る。識別された対の物体のうちの1つの物体は、類似性スコアに基づいて、共にクラスタ化され得る。車両は、クラスタ内の各物体(610、620、710、740、760)に同じ方法で対応することにより、自律モードにおいて制御され得る。【選択図】図6

Description

関連出願の相互参照
本出願は、2017年10月31日に出願された出願第15/798,881号の継続であり、その開示全体が参照により本明細書に組み込まれる。本出願はまた、2017年10月31日に出願された出願第15/798,926号の継続であり、その開示全体が参照により本明細書に組み込まれる。
人間の運転手を必要としない車両などの自律型車両が、ある場所から他の場所への乗客または物品の輸送を支援するために使用される場合がある。かかる車両は、乗客が集荷または目的地などのいくつかの初期入力を提供することができ、かつ車両がその場所に車両自体を操縦する、完全な自律モードで動作することができる。
自律運転モードで動作する自動運転車両または無人車両に安全で快適な軌道を提供するために、車両の環境において、他の車両、自転車に乗る人、歩行者などの任意の物体または物質に対する適切なタイプの反応を判定する必要がある。典型的に、物体の左側を通過する、右側を通過する、物体の前で停止する、物体の後ろに留まるなど、所与の物体に対する有限数の反応が存在する。しかしながら、複数の物体があるとき、可能な反応の数は、指数関数的に増える可能性がある。
人間にとって、この問題への簡単な解決策は、ある物体を共に「グループ化」し、それらの物体に単一の存在であるかのように対応することである。人間は、近接性、物体タイプ、相対運動などに基づいて、グループに反応することを決定するときに複数のキューを使用する。加えて、人間は、任意の所与の物体を単独で見たとき必ずしも明確ではない意味を、物体のグループが、時に伝えることを認識する場合がある。例えば、1人以上の大人によって付き添われる小さな子供たちのグループは、大人がいる1人の子供とは異なる反応を起こす可能性があり、点滅するライトが付いたゆっくり移動する車の列が、葬列である場合がある。
本開示の一態様は、自律運転モードにおいて車両を制御する方法を提供する。本方法は、1つ以上のプロセッサによって、複数の物体を識別するセンサデータを受信することと、複数の物体のうちの対の物体を識別することと、1つ以上のプロセッサによって、複数の物体のうちの各識別された対の物体について、その識別された対の物体の物体が、1つのグループとして車両によって対応され得るかどうかを示す類似性値を判定することと、1つ以上のプロセッサによって、類似性スコアに基づいて、識別された対の物体のうちの1つの物体をクラスタ化することと、1つ以上のプロセッサによって、クラスタ内の各物体に同じ方法で対応することにより、自立運転モードにおいて車両を制御することと、を含む。
一例では、クラスタ化は、識別された対の物体のうちの1つの物体間の距離にさらに基づく。別の例では、クラスタ化は、識別された対の物体のうちの1つの物体の物体タイプ間の類似性にさらに基づく。別の例では、クラスタ化は、識別された対の物体のうちの1つの物体の過去の運動と現在の運動との間の類似性にさらに基づく。別の例では、類似性値は、識別された対の物体のうちの1つの物体の予測される将来の運動間の類似性にさらに基づいて、判定される。別の例では、クラスタ化は、環境内の特徴に対する、識別された対の物体のうちの1つの物体の相対場所にさらに基づく。この例では、特徴は、横断歩道である。代替的に、特徴は、自転車用車線である。別の例では、クラスタ化は、各識別された対の物体のうちの1つの物体が、その識別された対の物体の別の物体を追従しているように見えるかどうかにさらに基づく。別の例では、クラスタ化は、各識別された対の物体のうちの物体が、所定の意味グループに属しているとして識別されるかどうかにさらに基づく。
本開示の別の態様は、自律運転モードにおいて車両を制御するためのシステムを提供する。システムは、複数の物体を識別するセンサデータを受信することと、複数の物体のうちの対の物体を識別することと、複数の物体のうちの各識別された対の物体について、その識別された対の物体の物体が、1つのグループとして車両によって対応され得るかどうかを示す類似性値を判定することと、類似性スコアに基づいて、識別された対の物体のうちの1つの物体をクラスタ化することと、クラスタ内の各物体に同じ方法で対応することにより、自律運転モードにおいて車両を制御することと、を行うように構成されている、1つ以上のプロセッサを含む。
一例では、1つ以上のプロセッサが、識別された対の物体のうちの1つの物体間の距離にさらに基づいて、識別された対の物体のうちの1つの物体をクラスタ化するようにさらに構成されている。別の例では、1つ以上のプロセッサが、識別された対の物体のうちの1つの物体の物体タイプ間の類似性に基づいて、識別された対の物体のうちの1つの物体をクラスタ化するようにさらに構成されている。別の例では、1つ以上のプロセッサが、各識別された対の物体のうちの物体の過去の運動と現在の運動との間の類似性にさらに基づいて、識別された対の物体のうちの1つの物体をクラスタ化するようにさらに構成されている。別の例では、1つ以上のプロセッサが、識別された対の物体のうちの1つの物体の予測される将来の運動間の類似性にさらに基づいて、識別された対の物体のうちの1つの物体をクラスタ化するようにさらに構成されている。別の例では、1つ以上のプロセッサが、環境内の特徴に対する、識別された対の物体のうちの1つの物体の相対場所にさらに基づいて、識別された対の物体のうちの1つの物体をクラスタ化するようにさらに構成されている。この例では、特徴は、横断歩道である。代替的に、1つ以上のプロセッサが、識別された対の物体のうちの1つの物体のうちの1つの物体が、識別された対の物体のうちの1つの物体の別の物体を追従しているように見えるかどうかにさらに基づいて、識別された対の物体のうちの1つの物体をクラスタ化するようにさらに構成されている。別の例では、1つ以上のプロセッサが、識別された対の物体のうちの1つの物体が所定の意味グループに属しているとして識別されているかどうかにさらに基づいて、識別された対の物体のうちの1つの物体をクラスタ化するようにさらに構成されている。他の例では、システムはまた、車両も含む。
本開示の態様による、例示的な車両の機能図である。 本開示の態様による、詳細な地図情報の例示的な表現である。 本開示の態様による、車両の例示的な外観図である。 本開示の態様による、車両の例示的な外観図である。 本開示の態様による、車両の例示的な外観図である。 本開示の態様による、車両の例示的な外観図である。 本開示の態様による、車道の区分の図である。 本開示の態様による、車道およびセンサデータの区分の図である。 本開示の態様による、車道およびセンサデータの区分の図である。 本開示の態様による、車道およびセンサデータの区分の図である。 本開示の態様による、フロー図である。
概要
自律型車両も、物体を共にグループ化することで利益を得てもよい。これにより、車両のコンピューティングデバイスが、個々に各物体に対するのではなく、物体のグループ全体に対して意思決定を行うことができる。これは、順に、処理能力を大幅に節約する一方で、同時に車両に数多くのさまざまな状況に安全かつ効果的に対応させ得、また車両が運動学的に実行可能であり、道路の規則に従うが、状況により無作法である計画を選択しないことを確実とする機構を提供する。しかしながら、自律型車両は、人間が行うような方法で、物体の適切なグループまたはクラスタを認識する機能的能力を有することは無い。したがって、物体を共にクラスタ化するために、車両のコンピューティングデバイスは、物体の類似性について推定を行い、論理的に共にクラスタ化できる物体を判定しなければならない。
したがって、一組のその世界で検出された物体、それらの現在の場所および運動の状態の測定、ならびにそれらの移動の時間的履歴を考慮して、車両のコンピューティングデバイスは、対の物体間の類似性測度またはスコアを画定する。この類似性測定は、複数の異なる要因を考慮し得る。各要因は、2つの物体間の類似性測度を増加させ、また低減させ得る。
類似性測度が所定の閾値を満たすとき、物体は、共にクラスタ化され得る。閾値は、意味クラスタ化の精度および再現率に基づいてもよい。クラスタ化を行うために、高い再現率または低い閾値が、最初に選択され得る。しかしながら、他に利用可能なコンピューティングリソースがある場合、より高い精度またはより高い閾値もまた、検討され得る。
union−findアルゴリズムを使用して、クラスタ化を達成し得る。これは、クラスタ内の各物体に対する車両の反応が同じであることを強制することに役立ち得る。換言すると、車両のコンピューティングデバイスは、クラスタ化された物体が単一の物体であると仮定することによって、環境を通してどのように操縦するかを判定し得る。
クラスタ化は、物体の新しい観測があるたびに再評価することができる。この点について、物体は、互いに素早くクラスタ化され、かつ切り離すことができる。しかしながら、一貫した車両の動作を可能にし、状況の処理を簡素化するために、どちらが良いか明確でない2つの反応の間で選択するとき、物体が別の物体とクラスタ化されているかどうかに基づく事前判定が、使用されて、反応の間の選択をすることができる。
評価に必要な反応数を削減し、それにより不要な計算を削減することに加えて、このアプローチは、付加的な利点を提供する。例えば、本アプローチは、付き添われる子供達、葬列などの物体クラスタの意味クラスに反応するためのフレームワークを提供する。本アプローチはまた、搭載された知覚システムから生じる物体セグメンテーション問題に対処するためのツールも提供する。知覚エンジニアは、概して、アンダーセグメンテーション(2つの別個であるが近くの物体は同じであると考えることがある)とオーバーセグメンテーション(1つの物体が2つの異なる近くの物体の代わりであると考える)との間で調整しなくてはならないため、セグメンテーション、または2つの知覚された物体間の分化は、めったに完璧ではない。後者の場合、これらの物体は、最終的に同じ意味クラスタになり、車両のコンピューティングデバイスは、セグメンテーションが実際に完璧であるかのように同じ軌跡を生成するであろう。
例示的システム
図1に示されるように、本開示の一態様による車両100は、様々な構成要素を含む。本開示のある態様は、特定のタイプの車両との接続に特に有用であるが、車両は、限定されるものではないが、乗用車、トラック、オートバイ、バス、レクリエーション用車両などを含む、任意のタイプの車両であってもよい。車両は、1つ以上のプロセッサ120、メモリ130、および汎用コンピューティングデバイスに典型的に存在する他の構成要素を含む、コンピューティングデバイス110などの1つ以上のコンピューティングデバイスを有することができる。
メモリ130は、1つ以上のプロセッサ120によってアクセス可能である情報を記憶し、その情報には、プロセッサ120によって実行または別様に使用され得る命令132およびデータ134が含まれる。メモリ130は、プロセッサによってアクセス可能である情報を格納することができる任意のタイプのメモリであってもよく、それらには、コンピューティングデバイス可読媒体、またはハードドライブ、メモリカード、ROM、RAM、DVD、もしくは他の光ディスク、ならびに他の書き込み可能および読み取り専用メモリなどの電子デバイスを使って読み取ることができるデータを記憶する他の媒体が含まれる。システムおよび方法は、上記の異なる組み合わせを含んでもよく、それによって、命令およびデータの様々な部分が、様々なタイプの媒体に記憶される。
命令132は、プロセッサにより直接的に(マシンコードなど)または間接的に(スクリプトなど)実行される任意の組の命令であってもよい。例えば、命令は、コンピューティングデバイス可読媒体上のコンピューティングデバイスコードとして記憶されてもよい。その点において、「命令」および「プログラム」という用語は、本明細書では、区別なく使用され得る。命令は、プロセッサによる直接処理のための物体コード形式で、または要求に応じて解釈されるか、もしくは事前にコンパイルされる独立したソースコードモジュールのスクリプトもしくはコレクションを含む、任意の他のコンピューティングデバイス言語で記憶されてもよい。命令の機能、方法、およびルーチンについては、以下でさらに詳細に説明される。
データ134は、命令132に従って、プロセッサ120によって検索、記憶、または修正されてもよい。1つ以上のプロセッサ120は、市販されているCPUなどの任意の従来のプロセッサであってもよい。代替的に、1つ以上のプロセッサは、ASICまたは他のハードウェアベースプロセッサなどの専用デバイスであってもよい。図1は、プロセッサ、メモリ、およびコンピューティングデバイス110の他の要素を同じブロック内にあるものとして機能的に示しているが、プロセッサ、コンピューティングデバイス、またはメモリは、実際には、同じ物理的な筐体内に格納されていてもいなくてもよい、複数のプロセッサ、コンピューティングデバイス、またはメモリを含むことができるということが、当業者によって理解されるであろう。一例として、内部電子ディスプレイ152は、高帯域幅または他のネットワーク接続を介してコンピューティングデバイス110とインターフェースし得る、それ自体のプロセッサまたは中央処理装置(CPU)、メモリなどを有する専用コンピューティングデバイスによって制御され得る。いくつかの例では、コンピューティングデバイスは、ユーザのクライアントデバイスと通信することができるユーザインターフェースコンピューティングデバイスであり得る。同様に、メモリは、コンピューティングデバイス110の筐体とは異なる筐体内に位置付けられたハードドライブ、または他のストレージ媒体であってもよい。したがって、プロセッサまたはコンピューティングデバイスへの参照は、並行に動作してもしなくてもよいプロセッサ、またはコンピューティングデバイス、もしくはメモリの集合体への参照を含むことを理解されたい。
コンピューティングデバイス110は、上述したプロセッサおよびメモリ、ならびにユーザ入力150(例えば、マウス、キーボード、タッチスクリーンおよび/またはマイクロフホン)、様々な電子ディスプレイ(例えば、スクリーン、または情報を表示するように動作可能である任意の他の電気デバイスを有するモニタ)などのコンピューティングデバイスと接続して通常使用されるすべての構成要素であってもよい。この例では、車両は、内部の電子ディスプレイ152、ならびに1つ以上のスピーカー154を含み、情報または音響映像体験を提供する。この点について、内部の電子ディスプレイ152は、車両100の車内に位置付けられてもよく、コンピューティングデバイス110によって使用されて、車両100内の乗客に情報を提供してもよい。内部スピーカーに加えて、1つ以上のスピーカー154は、外部スピーカーを含むことができ、車両100の外部の物体に可聴通知を提供するために、車両上の様々な場所に配置される。
一例では、コンピューティングデバイス110は、車両100に組み込まれた自律運転コンピューティングシステムであってもよい。自律運転コンピューティングシステムは、車両の様々な構成要素と通信することが可能であり得る。例えば、図1に戻ると、コンピューティングデバイス110は、車両の乗客からの連続的または定期的な入力を要求しない、または必要としない自律運転モードにおいて、メモリ130の命令132に従って車両100の移動、速度などを制御するための、(車両の制動を制御するための)減速システム160、(車両の加速を制御するための)加速システム162、(車輪の配向および車両の方向を制御するための)ステアリングシステム164、(方向指示器を制御するための)シグナリングシステム166、(車両を場所または物体の周りにナビゲートするための)ナビゲーションシステム168、(車両の位置を判定するための)測位システム170、(車両の外部環境内の物体を検出するための)知覚システム172、および電力システム174(例えば、バッテリおよび/またはガスもしくはディーゼルエンジン)などの、車両100の様々なシステムと通信することができる。また、これらのシステムは、コンピューティングデバイス110の外部にあるものとして示されるが、実際には、これらのシステムもまた、車両100を制御するための自律運転コンピューティングシステムとして再度、コンピューティングデバイス110の中に組み込まれてもよい。
コンピューティングデバイス110は、様々な構成要素を制御することによって車両の方向および速度を制御してもよい。例として、コンピューティングデバイス110は、地図情報およびナビゲーションシステム168からのデータを使用して、車両を目的地に完全に自律的にナビゲートし得る。コンピューティングデバイス110は、車両の場所を判定するために測位システム170を使用し、その場所に安全に到着する必要があるとき、物体を検出かつ物体に対応するために知覚システム172を使用してもよい。そうするために、コンピューティングデバイス110は、車両を、(例えば、加速システム162により、エンジンに提供される燃料または他のエネルギーを増加させることによって)加速させ、(例えば、エンジンに供給される燃料を低減させ、ギヤを切り替え、および/または減速システム160によりブレーキをかけることによって)減速させ、(例えば、ステアリングシステム164により、車両100の前輪または後輪の向きを変えることによって)方向を変更させ、(例えば、シグナリングシステム166の方向指示器を点灯することによって)かかる変更を伝えさせてもよい。このため、加速システム162および減速システム160は、車両のエンジンと車両の車輪との間に様々な構成要素を含む、動力伝達装置の一部であり得る。再び、これらのシステムを制御することによって、コンピューティングデバイス110はまた、車両を自律的に操縦するために、車両の動力伝達装置を制御してもよい。
一例として、コンピューティングデバイス110は、車両の速度を制御するために、減速システム160および加速システム162と相互作用してもよい。同様に、ステアリングシステム164は、車両100の方向を制御するために、コンピューティングデバイス110によって使用され得る。例えば、車両100が自動車またはトラックなどの道路上で使用するように構成されている場合、ステアリングシステムは、車両を転回するためにホイールの角度を制御するための構成要素を含み得る。シグナリングシステム166は、例えば、必要に応じて方向指示器またはブレーキライトを点灯させることによって、車両の意図を他の運転手または車両に伝えるために、コンピューティングデバイス110によって使用され得る。
ナビゲーションシステム168は、ある場所までのルートを判定および追従するために、コンピューティングデバイス110によって使用され得る。この点について、ナビゲーションシステム168および/またはデータ134は、詳細な地図情報、例えば、車道の形状および標高、車線境界線、交差点、横断歩道、速度制限、交通信号、建物、標識、リアルタイム交通情報、植生、または他のかかる物体および情報を識別する高精密地図、を記憶し得る。換言すると、この詳細な地図情報は、車道を含む車両の予想される環境の幾何学形状、ならびにそれらの車道の速度制限(法定速度制限)を定義し得る。
図2は、車道の区分に関する地図情報200の例である。地図情報200は、様々な道路特徴の形状、場所、および他の特性を識別する情報を含む。この例では、地図情報は、縁石220、車線境界線222、224、226、縁石228によって境界付けられる3つの車線212、214、216を含む。車線212および車線214は、同じ方向の交通流(東向き)を有する一方で、車線216は、異なる交通流(西向き)を有する。加えて、車線212は、車線214よりも大幅に広く、例えば車両が縁石220に隣接して駐車することを可能にする。地図情報の例は、車道の性質を考慮すると、例えば、縁石、車線境界線、および車線などのいくつかの道路特徴のみを含むが、地図情報200はまた、交通信号の光、横断歩道、歩道、一時停止標識、譲れの標識、速度制限標識、道路標識などの様々な他の道路特徴を識別することができる。図示されていないが、詳細な地図情報はまた、制限速度や他の法定交通要件を識別する情報、ならびに様々な日時における典型的な交通状況および履歴的な交通状況を識別する履歴的な情報も含むことができる。
本明細書では詳細な地図情報は、画像ベースの地図として描かれているが、地図情報は、完全に画像ベースである必要はない(例えば、ラスタ)。例えば、詳細な地図情報は、1つ以上の道路グラフ、または道路、車線、交差点、およびこれらの特徴間の接続などの情報のグラフネットワークを含むことができる。各特徴は、グラフデータとして記憶されてもよく、地理的場所などの情報と関連付けられてもよく、いずれにせよ、他の関連する特徴にリンクされ、例えば、一時停止標識は、道路や交差点などにリンクされてもよい。いくつかの例では、関連付けられたデータは、ある道路グラフ特徴の効率的な検索を可能にするために道路グラフのグリッドベースのインデックスを含むことができる。
知覚システム172はまた、他の車両、車道内の障害物、交通信号、標識、樹木などの車両の外部の物体を検出するために1つ以上の構成要素を含む。例えば、知覚システム172は、1つ以上のLIDARセンサ、ソナーデバイス、レーダーユニット、カメラ、および/またはコンピューティングデバイス110によって処理され得るセンサデータを記録する任意の他の検出デバイスを含んでもよい。知覚システムのセンサは、物体、および、場所、配向、サイズ、形状、タイプ(例えば、車両、歩行者、自転車に乗る人など)、進行方向、および移動速度などのそれらの特性を検出する。センサからの未加工データおよび/または前述の特性は、定量化されるか、または記述関数、ベクトル、および/または境界ボックスに配置され、知覚システム172によって生成されると、周期的かつ継続的にコンピューティングデバイス110にさらなる処理のためのセンサデータとして送信され得る。さらなる詳細を以下で考察するが、コンピューティングデバイス110は、車両の場所を判定するために測位システム170を使用し、その場所に安全に到着する必要があるとき、物体を検出かつ物体に対応するために知覚システム172を使用してもよい。
図3A〜図3Dは、車両100の外観図の例である。これらの図からわかるように、車両100は、ヘッドライト302、フロントガラス303、テールライト/方向指示灯304、リアガラス305、ドア306、サイドミラー308、タイヤおよびホイール310、ならびに方向指示/駐車灯312などの典型的な車両の多くの特徴を含む。ヘッドライト302、テールライト/方向指示灯304、および方向指示/駐車灯312は、シグナリングシステム166と関連付けられ得る。ライトバー307はまた、シグナリングシステム166と関連付けられ得る。筐体314は、知覚システム172のLIDARセンサ、ソナーデバイス、レーダーユニット、カメラなどの1つ以上のセンサを収容することができるが、かかるセンサはまた、同様に車両の他の領域に組み込むこともできる。
例示的な方法
上述し、図に例示した動作に加えて、様々な動作が、ここで説明される。以下の動作は、以降に説明された正確な順序で実行される必要はないことを理解されたい。むしろ、様々なステップが、異なる順序で、または同時に処理されてもよく、ステップもまた、追加または省略されてもよい。
コンピューティングデバイス110は、例えば、貨物および/または1人以上の乗客を輸送するために、目的地まで車両100を操縦し得る。この点について、コンピューティングデバイス110は、目的地までのルートに沿って自律的に車両を制御するために必要なシステムを開始し得る。例えば、ナビゲーションシステム168は、地図情報200を使用して目的地への経路またはルートを判定するために、データ134の地図情報を使用してもよい。次いで、コンピューティングデバイス110は、目的地に向かうルートに沿って、上記のように自律的に(または自律運転モードで)車両を操縦してもよい。
図4は、図2の地図情報200に対応する車道400に沿って運転している車両100の例示図である。その点において、車線412、414、416は、車線212、214、216の形状および場所に対応し、縁石420、428は、縁石220の形状および場所に対応し、車線境界線422、424、426は、車線境界線222、224、226および縁石228の形状および場所に対応する。この実施例では、車両100は、車線412を走行している。
車両が車線412に沿って移動すると、知覚システム172は、縁石420、428、車線境界線422、424、424、標識450、ならびに交通コーンA〜Rなどの、物体の形状および場所に関するセンサデータをコンピューティングデバイスに提供する。図5は、車両100が図4に図示されるような状況にあるとき、コンピューティングデバイス110に利用可能な他の情報と組み合わせて、知覚システム172の様々なセンサによって知覚されるセンサデータを図示する。この実施例では、車両440、442、444は、コンピューティングデバイス110に知覚システム172によって提供されるような境界ボックス540、542、544によって表現され、交通コーンA〜Rは、境界ボックス5A〜7Rによって表現され、および標識450は、境界ボックス550によって表現される。もちろん、これらの境界ボックスは、空間の容積を表現しているにすぎず、その中物体に対応するデータポイントは、少なくとも近似的にその内部に境界付けられる。加えて、車両100の実際の進行方向および境界ボックス540、542の推定進行方向は、それぞれ、矢印570、560、および562によって表現される。境界ボックス544は、非常にゆっくりと移動するかまたは全く移動していないように見えるため、コンピューティングデバイス110は、これらの境界ボックスによって表現される物体は、縁石428に隣接して動かないと判定してもよい。
上記のように、車両100は、物体を共にグループ化またはクラスタ化することを試み得る。そうするために、コンピューティングデバイス110は、物体の類似性について推定を行い、どの物体を論理的に共にクラスタ化できるかを判定しなければならない。例えば、知覚システム172によって検出された一組の物体、ならびにそれらの物体の特性およびそれらの特性の経時的な変化を考慮して、コンピューティングデバイスは、対の物体間の類似性測度またはスコアを画定し得る。
この組の物体は、地図情報内の対応する特徴とまだ関連付けられていない任意の物体を含み得る。例えば、車線境界線、縁石、建物などは無視されてもよい。しかしながら、歩行者、他の車両、自転車に乗る人、建設用物体(標識、バリア、交通コーンなど)、破片などの物体が、物体の組内に含まれる場合がある。例えば、図4に戻ると、物体の組は、(境界ボックス550によって表現される)標識450、(境界ボックス5A〜5Rによって表現される)交通コーンA〜R、ならびに(境界ボックス540〜544によって表現される)車両440〜444のうちの全てまたはいくつかを含み得る。
組内の物体の各々は、組内の他の物体の各々と対になり得る。例えば、静的物体は、他の静的物体(交通コーン、標識、破片、駐車中の車両など)と対になり得る。同様に、移動している物体は、他の移動している物体と対になり得る。代替的に、各物体は、全ての他の物体と対になり得、また他のタイプの対も、使用され得る。この点について、標識450は、交通コーンA〜Rの各々、および車両440〜444の各々と対になり得る。同様に、交通コーンAは、標識450、交通コーンB〜Rの各々、および車両440〜444と対になり得る。
これらの対の各々について、類似性測度が、判定され得る。類似性スコアは、所与の物体に対して、物体の場所、配向、進行方向、および物体タイプ(歩行者、自転車に乗る人、車両、交通コーン、交通標識など)について、知覚システム172によってコンピューティングデバイス110に提供された情報、ならびに知覚システムによって判定されたこの情報における経時的な任意の変化に基づいて、判定され得る。
所与の対の物体に関するこの類似性測度または値は、例えば、1つ以上の以下の要因を含む、複数の異なる要因を考慮し得る:
●物体間の距離。この値は、反転して[0、1]に正規化されてもよく、0は物体が非常に離れている(例えば、>10m離れている)ことを示し、1は物体が非常に近い(例えば、1メートル以内)ことを示す。
●物体タイプの分布間の類似性。この値は、異なる物体タイプの類似性を示唆し得る。例えば、パーキングコーンは、歩行者よりも交通標識により類似している場合があり、車両は交通コーンよりも自転車に乗る人により類似している場合がある。この値は、[0、1]に正規化され得、1は物体タイプの完全一致を示し、0は相互に排他的な物体カテゴリを示す。
●最近、現在、および予測される将来の運動の類似性。この値は、[0、1]スケールに容易に正規化される値を提供する、動的タイムワーピングまたは編集距離ベースの軌跡類似性測度であり得、1は最近、現在、および予測される将来の運動に高い類似性を示し、0は最近、現在、および予測される将来の運動に類似性を示さない。これらの値は、1つ以上の最近、現在、または予測される将来の運動を考慮した単一の結合値、または最近、現在、予測される将来の運動の各々に関する個別の値であってもよい。
●環境内の特徴に対する物体の場所。これらの他の特徴は、横断歩道や自転車用車線など、地図情報内に含まれる静的な特徴が含まれ得る。例えば、この要因は、物体が両方とも横断歩道の所定の距離中または所定の距離内(2フィート以上または以下)にあるか、もしくは物体が両方とも自転車用車線の所定の距離中または所定の距離内(2フィート以上または以下)にあるかどうかを考慮し得る。この値は[0、1]に正規化され得、1は両方の物体が同じ特徴の所定の距離中または所定の距離内にあることを示し、0は両方の物体が同じ特徴の所定の距離中または所定の距離内にないことを示す。
●物体の各々に関する「関連する特徴」ベクトルの類似性。この点について、特徴ベクトルは、物体から、例えば、横断歩道、自転車用車線、道路の端などの、地図情報の特定の特徴までの距離を示して、物体ごとに定義される。類似性スコアは、2つの特徴ベクトル間の編集距離に基づいて、判定され得る。この実施例では、0は特徴ベクトル間の一致がないことを示し、1は特徴ベクトル間の完全な一致を示す。
●観測された物体間の関係。この値は、所与の対の物体の1つが他の物体を追従しているように見えるかどうかを示してもよい。異なる意味関係は、[0、1]スケールの重みを割り当てることができ、1は所与の対の物体のうちの1つが他の物体を追従しているように見え、0はどちらの物体も他の物体を追従していないように見えることを示す。
●物体が、コンピューティングデバイス110の任意のシーン理解モジュールによって検出されたものと同じ特別な意味グループに属するかどうか。例えば、両方の物体が、葬列検出器によって提供されるように葬列であるかどうか、両方の物体が交通コーン検出器によって提供されるように交通コーンであるかどうか、両方の物体が駐車車両検出によって提供されるように駐車車両であるかどうか、などである。
前述の各々は、[0、1]のスケールで正規化されていると説明されるが、他の異なるスケールおよび値が使用されてもよく、場合によっては、値は実際にスケールに正規化される必要は全くない。
前述の要因の各々は、所与の対の物体間の類似性測度を増加または低減させてもよい。例えば、各要因に対する値は、所与の対の物体に対する類似性測度を判定するために組み合わせてもよい。一例として、全体的なスコアは、各要因の加重線形合計として計算されてもよい。要因の各々に対する重みは、人間のオペレータによって調整され、および/または機械学習ツールを使用して学習されてもよい。場合によっては、類似性測度はまた、[0、1]スケールに正規化することもでき、1は類似性が高いことを示し、0は類似性がないことを示す。
一対の物体間の類似性測度が所定の閾値を満たすとき、物体は、共にクラスタ化されてもよい。使用される閾値は、意味クラスタ化の精度および再現率に基づいてもよい。類似性スコアと物体が将来同じように移動し続ける真の可能性との関連性は、例えば、人間のラベル付けによって、またはスコアが判定されたポイントの後にデータ内で何が起こるかを調べることによって評価することができる。この関係から、コンピューティングデバイスは、所与の精度対再現率のトレードオフを定義する操作点または閾値を選択することができる。クラスタ化を行うために、高い再現率または低い閾値が、最初に選択され得る。しかしながら、他に利用可能なコンピューティングリソースがある場合、より高い精度またはより高い閾値もまた、検討され得る。
図4および図5の実施例に戻ると、交通コーンAおよびBならびにBおよびCは、非常に高い類似性測度、または0.95などの1により近い類似性測度([0、1]スケールで正規化されている場合)を有し得る。これは、交通コーンAおよびB、ならびにBおよびCの各々の間の距離、これらすべてのパーキングコーンが静止していること、これらの物体の各々が同じ物体タイプに対応していることが原因である可能性がある。閾値が0.8の場合、交通コーンAおよびBは、1つのクラスタとして識別され得、交通コーンBおよびCは、別のクラスタとして識別され得る。
別の例として、車両440および車両442は、より低い類似性測度、または0.15などの0により近い類似性測度([0、1]スケールで正規化されている場合)を有し得る。これは、両方の車両が同じ物体タイプで互いに近接している一方で、反対方向に移動しており、互いに追従していないためであり得る。そのため、閾値が0.8の場合、これらの車両は、共にクラスタ化されない。
代替として、対の物体は、順次(非反復)アプローチを使用して共にクラスタ化され得る。この点について、対の物体をクラスタ化するために、対の物体は、上記の要因に対応するシーケンスまたは一連の必要な条件を満たさなくてはならない。一連のシーケンスに従って、類似性測度または値が、各要因に対して生成され得る。次いで、各所与の類似性測度は、所与の類似性測度の要因に関して、対応する閾値類似性値と比較されてもよい。
例えば、上述の距離要因を参照すると、類似性測度は、対の物体の物体間の距離について判定され得る。例えば、2つの物体が5メートル離れている場合、これは[0、1]のスケールの値に変換され得、0は物体が非常に離れている(例えば、>10m離れている)ことを示し、1は非常に近い(例えば、1メートル以内)ことを示す。この場合、距離要因の類似性測度は、0.8であり得る。これは、距離要因に関して対応する閾値、例えば0.5と比較され得る。0.8は0.5より大きいため、この対の物体は、距離要因に関して対応する閾値を満たす。上記の他の要因の各々に関して、同様の分析が行われ得る。
類似性測度が対応する閾値を満たす場合、別の類似性測度が一連の次の要因に関して判定され、その要因に関する対応する閾値類似性値と比較される。これは、所与の要因に関する類似性測度が、その所与の要因に関して対応する閾値類似性値を満たさないか、または対の物体が一連のすべての要因に関して対応するすべての閾値を満たしていると判断されるまで続く。対の物体が、一連のすべての要因に関して対応する閾値類似性値のすべてを満たす場合、対の物体は、共にクラスタ化されてもよい。そうならない場合、対の物体は、(以下でさらに考察されるように、少なくともこの時点において)共にクラスタ化されない可能性がある。
例えば、一連の第1の要素として、対の物体は、例えば、タイプに関する閾値を満たすなど、タイプが十分類似していなくてはならない。類似しない場合、物体は、クラスタ化されない。類似する場合、一連の次の要因が、考慮され得る。例えば、次の要因は、例えば、距離に関する閾値を満たすことなど、対の物体が距離において互いに十分に近くなければならないことであってもよい。類似しない場合、物体は、クラスタ化されない。類似する場合、物体は、例えば、運動に関する閾値類似性値を満たすことなど、運動において十分に類似してなければならない。類似しない場合、物体は、クラスタ化されない。類似する場合、プロセスは、要因の各々を継続し、対応する閾値を使用して、物体をクラスタ化するべきかどうかを判定する。
クラスタ化は、共通の物体が含まれる場合、「マージ」されてもよい。この点について、union−findアルゴリズムが、この付加的なクラスタ化およびマージを達成するために使用され得る。例えば、交通コーンAおよびBのクラスタは、交通コーンBおよびCのクラスタとマージされ得、このため交通コーンA、B、およびCを含むクラスタになる。
すべての可能なマージが完了すると、結果として得られる物体のクラスタは、コンピューティングデバイス110によって個別のクラスタとして容易に識別され得る。例えば、図6に示されるように、交通コーンA〜Nは、クラスタ610として識別され、交通コーンQ〜Oは、クラスタ620として識別される。(境界ボックス5Rによって表現される)交通コーンRは、いずれのクラスタにも含まれない。
次いで、コンピューティングデバイス110は、クラスタを使用して、車両の環境を通じてどのように操縦するかを判定してもよく、加えて、クラスタ内の各物体に対する車両の反応が同じであることを強制することに役立ち得る。換言すると、車両のコンピューティングデバイスは、クラスタ化された物体が単一の物体であると仮定することによって、環境を通してどのように操縦するかを判定し得る。例えば、クラスタ610およびクラスタ620の各々の物体は、単一の物体として扱われてもよく、そのため車両100が、それらの間ではなく、それらの周りを駆動してもよい。
図4〜図6の実施例は、静的物体のクラスタ化に関連するが、歩行者、自転車に乗る人、車両などの他の物体もまた、クラスタ化され得る。一例として、図7は、道路700上を運転する車両100の別の実施例を図示する。この実施例は、他のさまざまなタイプのクラスタを明示する。示されるように、横断歩道716に近接する複数の歩行者710〜714は、クラスタ720として識別され、複数の駐車車両730〜734は、クラスタ740として識別され、そして一対の「積み重ねられた車両」750、752(例えば、交差点754で曲がるのを待っている車両)は、クラスタ760として識別される。これらのクラスタの各々は、上記の類似性測度または順次アプローチを使用して識別され得る。
加えて、上記の実施例は、同じまたは類似のタイプの物体のクラスタ化に関連するが、車両444および(図4に示す)交通コーンRなどの異なるタイプの物体もまた、上記の類似性測度または順次アプローチの結果に応じて、共にクラスタ化され得る。
場合によっては、車両がその環境を通じてどのように操縦するべきかは、第1にクラスタを使用して判定し、その後クラスタを使用せずに判定することができる。これにより、車両のコンピューティングデバイスが、クラスタ化に違反する反応を探索することを可能にし得るが、そのためそれらの反応は、クラスタ化に従う反応の組の後に優先されるであろう。換言すると、車両のコンピューティングデバイスは、いくつかの異なる代替案を考慮し、場合によっては、クラスタ化が実際に不適切または危険であるときについての情報を実際に提供し得る。もちろん、これは、状況を2回処理するための付加的な時間およびコンピューティングリソースを必要とする場合があり、必ずしも適切または役立つとは限らない。
クラスタ化は、物体の組の任意の新しい観測があるたびに再評価することができる。この点について、物体は、互いに素早くクラスタ化され、かつ切り離すことができる。しかしながら、一貫した車両の動作を可能にし、状況の処理を簡素化するために、どちらが良いか明確でない2つの反応の間で選択するとき、物体が別の物体とクラスタ化されているかどうかに基づく事前判定が、使用されて、反応の間の選択をすることができる。例えば、物体の右側を通過するか、左側を通過するかが明確ではないが、物体が以前にクラスタ内に含まれていたとき、判定された反応は、クラスタの左側を通過するというものであり、この以前の判定が、(現在はクラスタに含まれてないが)物体の左側を通過することに優先権を与えるために使用され得る。典型的に、これは、1つの反復から次の反復にのみ引き継がれるが、同じ動作が再度判定された場合、再度引き継がれるなどしてもよい。
評価に必要な反応数を削減し、それにより不要な計算を削減することに加えて、このアプローチは、付加的な利点を提供する。例えば、本アプローチは、付き添われる子供達、葬列などの物体クラスタの意味クラスに反応するためのフレームワークを提供する。本アプローチはまた、搭載された知覚システムから生じる物体セグメンテーション問題に対処するためのツールも提供する。知覚エンジニアは、概して、アンダーセグメンテーション(2つの別個であるが近くの物体は同じであると考えることがある)とオーバーセグメンテーション(1つの物体が2つの異なる近くの物体の代わりであると考える)との間で調整しなくてはならないため、セグメンテーション、または2つの知覚された物体間の分化は、めったに完璧ではない。後者の場合、これらの物体は、最終的に同じ意味クラスタになり、車両のコンピューティングデバイスは、セグメンテーションが実際に完璧であるかのように同じ軌跡を生成するであろう。
図8は、自律運転モードにおいて車両を制御するために、コンピューティングデバイス110の1つ以上のプロセッサ120などの、1つ以上のプロセッサによって実行され得るフロー図800である。この実施例では、ブロック802において、複数の物体を識別するセンサデータが、受信される。ブロック804において、複数の物体のうちの対の物体が、識別される。ブロック806において、複数の物体のうちの各識別された対の物体について、その識別された対の物体の物体かどうかを示す類似性値が、1つのグループとして車両によって対応され得る。ブロック808において、識別された対の物体のうちの1つの物体が、類似性値に基づいてクラスタ化される。ブロック810において、車両は、クラスタ内の各物体に同じ方法で対応することにより、自律モードにおいて制御される。
特段の記述がない限り、前述の代替例は、相互に排他的ではないが、独自の利点を達成するために様々な組み合わせで実施することができる。上述した特徴のこれらおよび他の変形ならびに組み合わせは、特許請求の範囲によって定義される主題から逸脱せずに利用され得るため、前述の実施形態の説明は、特許請求の範囲によって定義された主題を限定するものとしてではなく、例示するものとして見なされるべきである。加えて、本明細書に説明された実施例、ならびに「など」、「含む」などとして表現された語句の提供は、特許請求の範囲の主題を特定の例に限定するものと解釈されるべきではなく、むしろ、それらの例は、多くの可能性のある実施形態のうちの単なる1つを例示することが意図されている。さらに、異なる図面中の同じ参照番号は、同じまたは類似の要素を識別することができる。

Claims (20)

  1. 自律運転モードにおいて車両を制御する方法であって、
    1つ以上のプロセッサによって、複数の物体を識別するセンサデータを受信することと、
    前記複数の物体のうちの対の物体を識別することと、
    前記1つ以上のプロセッサによって、前記複数の物体のうちの各識別された対の物体について、その識別された対の物体の前記物体が、1つのグループとして前記車両によって対応され得るかどうかを示す類似性値を判定することと、
    前記1つ以上のプロセッサによって、前記類似性スコアに基づいて、前記識別された対の物体のうちの1つの前記物体をクラスタ化することと、
    前記1つ以上のプロセッサによって、前記クラスタ内の各物体に同じ方法で対応することにより、前記自律運転モードにおいて前記車両を制御することと、を含む、方法。
  2. 前記クラスタ化が、前記識別された対の物体のうちの1つの前記物体間の距離にさらに基づいている、請求項1に記載の方法。
  3. 前記クラスタ化が、前記識別された対の物体のうちの1つの前記物体の物体タイプ間の類似性にさらに基づいている、請求項1に記載の方法。
  4. 前記クラスタ化が、前記識別された対の物体のうちの1つの前記物体の過去の運動と現在の運動との間の類似性にさらに基づいている、請求項1に記載の方法。
  5. 前記類似性値が、前記識別された対の物体のうちの1つの前記物体の予測される将来の運動間の類似性にさらに基づいて、判定されている、請求項1に記載の方法。
  6. 前記クラスタ化が、環境内の特徴に対する、前記識別された対の物体のうちの1つの前記物体の相対場所にさらに基づいている、請求項1に記載の方法。
  7. 前記特徴が、横断歩道である、請求項6に記載の方法。
  8. 前記特徴が、自転車用車線である、請求項6に記載の方法。
  9. 前記クラスタ化が、各識別された対の物体のうちの1つの物体が、その識別された対の物体の別の物体を追従しているように見えるかどうかにさらに基づいている、請求項1に記載の方法。
  10. 前記クラスタ化が、各識別された対の物体のうちの前記物体が、所定の意味グループに属しているとして識別されているかどうかにさらに基づいている、請求項1に記載の方法。
  11. 自律運転モードにおいて車両を制御するためのシステムであって、
    複数の物体を識別するセンサデータを受信することと、
    前記複数の物体のうちの対の物体を識別することと、
    前記複数の物体のうちの各識別された対の物体について、その識別された対の物体の前記物体が、1つのグループとして前記車両によって対応され得るかどうかを示す類似性値を判定することと、
    前記類似性スコアに基づいて、前記識別された対の物体のうちの1つの前記物体をクラスタ化することと、
    前記クラスタ内の各物体に同じ方法で対応することにより、前記自律運転モードにおいて前記車両を制御することと、を行うように構成されている、1つ以上のプロセッサを備える、システム。
  12. 前記1つ以上のプロセッサが、前記識別された対の物体のうちの1つの前記物体間の距離にさらに基づいて、前記識別された対の物体のうちの1つの前記物体をクラスタ化するようにさらに構成されている、請求項11に記載のシステム。
  13. 前記1つ以上のプロセッサが、前記識別された対の物体のうちの1つの前記物体の物体タイプ間の類似性に基づいて、前記識別された対の物体のうちの1つの前記物体をクラスタ化するようにさらに構成されている、請求項11に記載のシステム。
  14. 前記1つ以上のプロセッサが、各識別された対の物体のうちの前記物体の過去の運動と現在の運動との間の類似性にさらに基づいて、前記識別された対の物体のうちの1つの前記物体をクラスタ化するようにさらに構成されている、請求項11に記載のシステム。
  15. 前記1つ以上のプロセッサが、前記識別された対の物体のうちの1つの前記物体の予測される将来の運動間の類似性にさらに基づいて、前記識別された対の物体のうちの1つの前記物体をクラスタ化するようにさらに構成されている、請求項11に記載のシステム。
  16. 前記1つ以上のプロセッサが、環境内の特徴に対する、前記識別された対の物体のうちの1つの前記物体の相対場所にさらに基づいて、前記識別された対の物体のうちの1つの前記物体をクラスタ化するようにさらに構成されている、請求項11に記載のシステム。
  17. 前記特徴が、横断歩道である、請求項16に記載のシステム。
  18. 前記1つ以上のプロセッサが、前記識別された対の物体のうちの1つの前記物体のうちの1つの物体が、前記識別された対の物体のうちの1つの前記物体の別の物体を追従しているように見えるかどうかにさらに基づいて、前記識別された対の物体のうちの1つの前記物体をクラスタ化するようにさらに構成されている、請求項11に記載のシステム。
  19. 前記1つ以上のプロセッサが、前記識別された対の物体のうちの1つの前記物体が所定の意味グループに属しているとして識別されているかどうかにさらに基づいて、前記識別された対の物体のうちの1つの前記物体をクラスタ化するようにさらに構成されている、請求項11に記載のシステム。
  20. 前記車両をさらに備える、請求項11に記載のシステム。
JP2020520748A 2017-10-31 2018-10-29 自律型車両の意思決定のための意味物体クラスタ化 Active JP7080314B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/798,926 2017-10-31
US15/798,926 US10401862B2 (en) 2017-10-31 2017-10-31 Semantic object clustering for autonomous vehicle decision making
PCT/US2018/057992 WO2019089455A1 (en) 2017-10-31 2018-10-29 Semantic object clustering for autonomous vehicle decision making

Publications (2)

Publication Number Publication Date
JP2021501396A true JP2021501396A (ja) 2021-01-14
JP7080314B2 JP7080314B2 (ja) 2022-06-03

Family

ID=66243874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020520748A Active JP7080314B2 (ja) 2017-10-31 2018-10-29 自律型車両の意思決定のための意味物体クラスタ化

Country Status (8)

Country Link
US (3) US10401862B2 (ja)
EP (1) EP3688542A4 (ja)
JP (1) JP7080314B2 (ja)
KR (1) KR102524859B1 (ja)
CN (1) CN111295628B (ja)
CA (1) CA3081391A1 (ja)
IL (1) IL274076A (ja)
SG (1) SG11202003366SA (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10990096B2 (en) * 2018-04-27 2021-04-27 Honda Motor Co., Ltd. Reinforcement learning on autonomous vehicles
US10795362B2 (en) * 2018-08-20 2020-10-06 Waymo Llc Detecting and responding to processions for autonomous vehicles
AT521724A1 (de) * 2018-09-24 2020-04-15 Avl List Gmbh Verfahren und Vorrichtung zur Analyse eines Sensordatenstroms sowie Verfahren zum Führen eines Fahrzeugs
WO2020116266A1 (ja) * 2018-12-07 2020-06-11 日立オートモティブシステムズ株式会社 車両制御システム
US11560159B2 (en) * 2020-03-25 2023-01-24 Baidu Usa Llc Group and combine obstacles for autonomous driving vehicles
US11727726B2 (en) * 2021-03-11 2023-08-15 Kemtai Ltd. Evaluating movements of a person
CN113997943A (zh) * 2021-10-28 2022-02-01 山东新一代信息产业技术研究院有限公司 一种基于语义聚类的自动驾驶车辆控制方法、设备及介质
US20230147100A1 (en) * 2021-11-11 2023-05-11 Aptiv Technologies Limited Clustering Track Pairs for Multi-Sensor Track Association
US20230419678A1 (en) * 2022-06-22 2023-12-28 Waymo Llc Joint Detection and Grouping of Road Objects Using Machine Learning

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310595A (ja) * 2006-05-17 2007-11-29 Denso Corp 走行環境認識装置
JP2016092650A (ja) * 2014-11-06 2016-05-23 キヤノン株式会社 画像処理装置及び画像処理方法

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764283A (en) * 1995-12-29 1998-06-09 Lucent Technologies Inc. Method and apparatus for tracking moving objects in real time using contours of the objects and feature paths
DE19916967C1 (de) 1999-04-15 2000-11-30 Daimler Chrysler Ag Verfahren zur Aktualisierung einer Verkehrswegenetzkarte und kartengestütztes Verfahren zur Fahrzeugführungsinformationserzeugung
CA2493973C (en) 2003-07-17 2008-10-21 Harman Becker Automotive Systems Gmbh Route calculations around traffic obstacles using marked diversions
US7689348B2 (en) 2006-04-18 2010-03-30 International Business Machines Corporation Intelligent redirection of vehicular traffic due to congestion and real-time performance metrics
WO2008029802A1 (fr) 2006-09-04 2008-03-13 Panasonic Corporation Dispositif fournissant des informations de voyage
US7880621B2 (en) 2006-12-22 2011-02-01 Toyota Motor Engineering & Manufacturing North America, Inc. Distraction estimator
WO2008139717A1 (ja) * 2007-05-09 2008-11-20 Panasonic Corporation 表示装置、表示方法、表示プログラム
JP2010003157A (ja) 2008-06-20 2010-01-07 Toyota Motor Corp 走行支援装置
US8126642B2 (en) 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US8818702B2 (en) 2010-11-09 2014-08-26 GM Global Technology Operations LLC System and method for tracking objects
US9443152B2 (en) 2011-05-03 2016-09-13 Ionroad Technologies Ltd. Automatic image content analysis method and system
US20120294540A1 (en) * 2011-05-17 2012-11-22 Microsoft Corporation Rank order-based image clustering
US8498448B2 (en) 2011-07-15 2013-07-30 International Business Machines Corporation Multi-view object detection using appearance model transfer from similar scenes
US8880272B1 (en) 2012-03-16 2014-11-04 Google Inc. Approach for estimating the geometry of roads and lanes by using vehicle trajectories
US9002060B2 (en) 2012-06-28 2015-04-07 International Business Machines Corporation Object retrieval in video data using complementary detectors
US20140003706A1 (en) 2012-07-02 2014-01-02 Sony Pictures Technologies Inc. Method and system for ensuring stereo alignment during pipeline processing
KR101949294B1 (ko) 2012-07-24 2019-02-18 삼성전자주식회사 영상의 히스토그램 축적 계산 장치 및 방법
US9633436B2 (en) 2012-07-26 2017-04-25 Infosys Limited Systems and methods for multi-dimensional object detection
US8996286B1 (en) 2012-08-03 2015-03-31 Google Inc. Method for analyzing traffic patterns to provide solutions for alleviating traffic problems
US9355562B1 (en) 2012-08-14 2016-05-31 Google Inc. Using other vehicle trajectories to aid autonomous vehicles driving through partially known areas
US9195914B2 (en) 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
US8996228B1 (en) 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
US9221461B2 (en) 2012-09-05 2015-12-29 Google Inc. Construction zone detection using a plurality of information sources
US9600768B1 (en) 2013-04-16 2017-03-21 Google Inc. Using behavior of objects to infer changes in a driving environment
US9110163B2 (en) 2013-06-14 2015-08-18 Microsoft Technology Licensing, Llc Lidar-based classification of object movement
US8825259B1 (en) 2013-06-21 2014-09-02 Google Inc. Detecting lane closures and lane shifts by an autonomous vehicle
US9315192B1 (en) 2013-09-30 2016-04-19 Google Inc. Methods and systems for pedestrian avoidance using LIDAR
US9335178B2 (en) 2014-01-28 2016-05-10 GM Global Technology Operations LLC Method for using street level images to enhance automated driving mode for vehicle
US9547989B2 (en) 2014-03-04 2017-01-17 Google Inc. Reporting road event data and sharing with other vehicles
US9824408B2 (en) 2014-03-31 2017-11-21 Monticello Enterprises LLC Browser payment request API
JP6537780B2 (ja) * 2014-04-09 2019-07-03 日立オートモティブシステムズ株式会社 走行制御装置、車載用表示装置、及び走行制御システム
US9734583B2 (en) * 2014-06-30 2017-08-15 Collin Walker Systems and methods for controlling vehicle position and orientation
JP6340957B2 (ja) 2014-07-02 2018-06-13 株式会社デンソー 物体検出装置および物体検出プログラム
JP6462692B2 (ja) * 2014-07-25 2019-01-30 株式会社日立製作所 自律移動装置
EP4254383A3 (en) 2014-08-18 2023-12-20 Mobileye Vision Technologies Ltd. Recognition and prediction of lane constraints
US9892296B2 (en) 2014-11-12 2018-02-13 Joseph E. Kovarik Method and system for autonomous vehicles
US9494935B2 (en) 2014-11-13 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Remote operation of autonomous vehicle in unexpected environment
US10235768B2 (en) * 2014-12-10 2019-03-19 Mitsubishi Electric Corporation Image processing device, in-vehicle display system, display device, image processing method, and computer readable medium
KR101621649B1 (ko) 2015-01-28 2016-05-16 한양대학교 산학협력단 동적 장애물에 대한 위치 분포 정보 생성 방법, 위치 분포 정보를 이용한 차량 제어 방법 및 시스템
US9676386B2 (en) 2015-06-03 2017-06-13 Ford Global Technologies, Llc System and method for controlling vehicle components based on camera-obtained image information
JP6606369B2 (ja) * 2015-07-21 2019-11-13 株式会社Soken 物体検出装置及び物体検出方法
US9764736B2 (en) 2015-08-14 2017-09-19 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation relative to unexpected dynamic objects
JP6444835B2 (ja) 2015-09-07 2018-12-26 株式会社東芝 画像処理装置、画像処理プログラムおよび画像処理システム
US9503860B1 (en) * 2015-09-10 2016-11-22 Ca, Inc. Intelligent pursuit detection
US9576185B1 (en) 2015-09-14 2017-02-21 Toyota Motor Engineering & Manufacturing North America, Inc. Classifying objects detected by 3D sensors for autonomous vehicle operation
US9566986B1 (en) 2015-09-25 2017-02-14 International Business Machines Corporation Controlling driving modes of self-driving vehicles
JP6798779B2 (ja) 2015-11-04 2020-12-09 トヨタ自動車株式会社 地図更新判定システム
US11010910B2 (en) * 2015-12-18 2021-05-18 Iris Automation, Inc. Systems and methods for dynamic object tracking using a single camera mounted on a moving object
DE112016003567T5 (de) 2016-02-25 2018-04-19 Hitachi, Ltd. Steuerverfahren für einen sich bewegenden Körper, sich bewegender Körper und Steuersystem für einen sich bewegenden Körper
JP6583185B2 (ja) 2016-08-10 2019-10-02 トヨタ自動車株式会社 自動運転システム及び自動運転車両
US10515543B2 (en) 2016-08-29 2019-12-24 Allstate Insurance Company Electrical data processing system for determining status of traffic device and vehicle movement
US9928432B1 (en) * 2016-09-14 2018-03-27 Nauto Global Limited Systems and methods for near-crash determination
DE102016218876B4 (de) 2016-09-29 2022-05-19 Audi Ag Verfahren zum Betrieb eines Kraftfahrzeugs, Kraftfahrzeug sowie Verfahren zur Ermittlung einer Soll-Trajektorieinformation
CN206300797U (zh) 2016-11-18 2017-07-04 特路(北京)科技有限公司 自动驾驶车辆的静态障碍物响应性能测试场
US10515390B2 (en) * 2016-11-21 2019-12-24 Nio Usa, Inc. Method and system for data optimization
JP6895634B2 (ja) 2016-12-16 2021-06-30 パナソニックIpマネジメント株式会社 情報処理システム、情報処理方法、およびプログラム
US10296812B2 (en) * 2017-01-04 2019-05-21 Qualcomm Incorporated Systems and methods for mapping based on multi-journey data
CN106940933B (zh) 2017-03-08 2019-05-24 北京理工大学 一种基于智能交通系统的智能车辆决策换道方法
US11009875B2 (en) * 2017-03-09 2021-05-18 Waymo Llc Preparing autonomous vehicles for turns
US10389432B2 (en) 2017-06-22 2019-08-20 At&T Intellectual Property I, L.P. Maintaining network connectivity of aerial devices during unmanned flight
CN107272687A (zh) 2017-06-29 2017-10-20 深圳市海梁科技有限公司 一种自动驾驶公交车辆的驾驶行为决策系统
US10558217B2 (en) * 2017-08-28 2020-02-11 GM Global Technology Operations LLC Method and apparatus for monitoring of an autonomous vehicle
US10867510B2 (en) * 2018-04-05 2020-12-15 Toyota Jidosha Kabushiki Kaisha Real-time traffic monitoring with connected cars

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007310595A (ja) * 2006-05-17 2007-11-29 Denso Corp 走行環境認識装置
JP2016092650A (ja) * 2014-11-06 2016-05-23 キヤノン株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
US20200004256A1 (en) 2020-01-02
EP3688542A1 (en) 2020-08-05
CN111295628B (zh) 2023-08-22
KR102524859B1 (ko) 2023-04-24
US11402843B2 (en) 2022-08-02
CN111295628A (zh) 2020-06-16
JP7080314B2 (ja) 2022-06-03
KR20200047796A (ko) 2020-05-07
EP3688542A4 (en) 2021-09-29
US20190129432A1 (en) 2019-05-02
US20220326713A1 (en) 2022-10-13
SG11202003366SA (en) 2020-05-28
US10401862B2 (en) 2019-09-03
US11951991B2 (en) 2024-04-09
IL274076A (en) 2020-06-30
CA3081391A1 (en) 2019-05-09

Similar Documents

Publication Publication Date Title
JP7080314B2 (ja) 自律型車両の意思決定のための意味物体クラスタ化
KR102308924B1 (ko) 자율 차량들을 위한 보행자 행동 예측들
CN113165652B (zh) 使用基于网格的方法检验预测轨迹
US11934193B2 (en) Speed-dependent required lateral clearance for autonomous vehicle path planning
US11256260B2 (en) Generating trajectories for autonomous vehicles
JP2022522625A (ja) 自律車両のターンのシグナリング
CN114286774A (zh) 针对自主车辆检测潜在被遮挡对象
US11226626B1 (en) Detecting and responding to people directing traffic for autonomous vehicles
AU2018358932B2 (en) Semantic object clustering for autonomous vehicle decision making

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210729

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220518

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220524

R150 Certificate of patent or registration of utility model

Ref document number: 7080314

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150