JP2024037165A - オブジェクトをモデリングするための方法、機器、記憶媒体及び車両制御方法 - Google Patents

オブジェクトをモデリングするための方法、機器、記憶媒体及び車両制御方法 Download PDF

Info

Publication number
JP2024037165A
JP2024037165A JP2023143286A JP2023143286A JP2024037165A JP 2024037165 A JP2024037165 A JP 2024037165A JP 2023143286 A JP2023143286 A JP 2023143286A JP 2023143286 A JP2023143286 A JP 2023143286A JP 2024037165 A JP2024037165 A JP 2024037165A
Authority
JP
Japan
Prior art keywords
points
representation
subset
determining
point cloud
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023143286A
Other languages
English (en)
Inventor
李智超
Zhichao Li
王乃岩
Nai Yan Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Tusimple Technology Co Ltd
Original Assignee
Beijing Tusimple Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Tusimple Technology Co Ltd filed Critical Beijing Tusimple Technology Co Ltd
Publication of JP2024037165A publication Critical patent/JP2024037165A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/56Particle system, point based geometry or rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)

Abstract

【課題】オブジェクトに対するモデリングを実現し、モデリングの精細度を向上させ、さらにオブジェクトの運動状態を正確に決定するオブジェクトをモデリングする方法、機器、記憶媒体及び車両制御方法を提供する。【解決手段】方法は、感知システムによって収集された周囲環境に関連する点群を取得し、点群からオブジェクトの各部分にそれぞれ対応する点をそれぞれ識別し、さらにオブジェクト全体及びそれが含む各部分に対して対応する表示をそれぞれ生成することにより、オブジェクトに対するモデリングを実現し、モデリングの精細度を向上させ、さらにオブジェクトの運動状態を正確に決定する。【選択図】図2

Description

本願はセンサデータの処理に関し、特に、オブジェクトをモデル化するための方法、機器、記憶媒体及び車両制御方法に関する。
自動運転技術の発展に伴い、自動運転車両は貨物輸送、乗用などの分野で既に応用されている。自動運転車両は、走行時に、一般的に自体のセンサ、例えば光検出及び測距(LIDAR)システム、カメラなどによって周囲環境を感知する。自動運転車両における自動運転システムは、センサが感知したデータに基づいて、環境におけるオブジェクトの表示(例えば、バウンディングボックス)を生成して、オブジェクトの姿勢及び/又は範囲を表現し、オブジェクトの運動状態を決定する。続いて、自動運転システムは自動運転車両の走行に対して意思決定及び計画を行い、最終的に、自動運転車両を対応する意思決定及び計画に従って走行するように制御する。
計画を合理的に行うために、自動運転システムは、オブジェクトの運動状態を正確に決定するように、環境におけるオブジェクトの正確な表示を生成することを必要とする。
本願は、車両(特に自動運転車両)の周囲環境におけるオブジェクトの正確な表示を生成することにより、オブジェクトの運動状態を正確に決定するために用いられる、オブジェクトをモデリングするための方法、機器、記憶媒体及びプログラム製品を提供する。
第1の側面において、本願は、
感知システムによって収集された周囲環境に関連する点群を取得するステップと、
前記点群におけるオブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定するステップと、
第1のサブセット及び第2のサブセットに基づいて、前記オブジェクトが前記第1のサブセットに関連する第1の部分を含む第1の信頼度、及び前記第2のサブセットに関連する第2の部分を含む第2の信頼度を決定するステップと、
前記第1の信頼度及び第2の信頼度がいずれも所定の閾値よりも高いことに応答して、オブジェクトの第1の表示、前記第1の部分の第2の表示、及び前記第2の部分の第3の表示を含む前記オブジェクトの階層表示を生成するステップであって、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置するステップと、を含むオブジェクトをモデリングするための方法を提供する。
第2の側面において、本願は、
感知システムによって収集された周囲環境に関連する点群を取得するステップと、
周囲環境における第1のオブジェクトに関連する前記点群における第1の組の点、及び周囲環境における第2のオブジェクトに関連する第2の組の点を決定するステップと、
前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するステップと、
前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有することに応答して、前記第1のオブジェクト及び第2のオブジェクトの第1の表示、前記第1のオブジェクトの第2の表示、並びに前記第2のオブジェクトの第3表示を生成するステップであって、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置するステップと、を含むオブジェクトをモデリングするための方法を提供する。
第3の側面において、本願は、
感知システムによって収集された周囲環境に関連する点群を取得するための取得モジュールと、
前記点群における前記オブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定するための決定モジュールと、
第1のサブセット及び第2のサブセットに基づいて、前記オブジェクトが前記第1のサブセットに関連する第1の部分を含む第1の信頼度、及び前記第2のサブセットに関連する第2の部分を含む第2の信頼度を決定するための信頼度モジュールと、
前記第1の信頼度及び第2の信頼度がいずれも所定の閾値よりも高いことに応答して、オブジェクトの第1の表示、前記第1の部分の第2の表示、及び前記第2の部分の第3の表示を含む前記オブジェクトの階層表示を生成するための生成モジュールであって、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置する生成モジュールと、を含むオブジェクトをモデリングするための装置を提供する。
第4の側面において、本願は、
感知システムによって収集された周囲環境に関連する点群を取得するための取得モジュールと、
周囲環境における第1のオブジェクトに関連する前記点群における第1の組の点、及び周囲環境における第2のオブジェクトに関連する第2の組の点を決定するための決定モジュールと、
前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するための判断モジュールと、
前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有することに応答して、前記第1のオブジェクト及び第2のオブジェクトの第1の表示、前記第1のオブジェクトの第2の表示、並びに前記第2のオブジェクトの第3表示を生成するための生成モジュールであって、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置する生成モジュールと、を含むオブジェクトをモデリングするための装置を提供する。
第5の側面において、本願は、プロセッサと、前記プロセッサに通信可能に接続されるメモリと、を含み、
前記メモリはプログラム命令を記憶しており、
前記プロセッサは前記メモリに記憶されたプログラム命令を実行して、第1の側面又は第2の側面に記載の方法を実現する電子機器を提供する。
第6の側面において、本願は、プロセッサにより実行される時に、第1の側面又は第2の側面に記載の方法を実現するためのプログラム命令を記憶しているコンピュータ可読記憶媒体を提供する。
第7の側面において、本願は、プロセッサにより実行される時に、第1の側面又は第2の側面に記載の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品を提供する。
第8の側面において、本願は、
車両のコンピューティング機器により、第1の側面又は第2の側面に記載の方法に基づいて環境におけるオブジェクトの階層表示を生成するステップと、
前記コンピューティング機器により、オブジェクトの階層表示に基づいて車両が走行する経路(又は軌跡)を生成するステップと、
前記コンピューティング機器により、車両を生成した経路(又は軌跡)に沿って走行するように制御するステップと、を含む車両を制御するための方法を提供する。
本願にて提供されるオブジェクトをモデリングするための方法、機器、記憶媒体及び車両制御方法は、感知システムによって収集されたその周囲環境に関連する点群を取得し、点群から環境におけるオブジェクトの各部分にそれぞれ対応する点をそれぞれ識別し、さらにオブジェクト全体、及びそれが含む各部分に対して対応する表示をそれぞれ生成することにより、オブジェクトに対するモデリングを実現し、モデリングの精細度を向上させ、さらにオブジェクトの運動状態を正確に決定することができる。
明細書に組み込まれ、本明細書の一部として構成されたた図面は、本願に合致する実施例を示し、さらに明細書とともに本願の原理を説明するために用いられる。
本願の1つの例示的なシーンを示す。 本願の例示的な実施例による車両の概略図である。 本願の実施例にて提供されるオブジェクトをモデリングするための方法のフローチャートである。 本願の別の実施例にて提供されるオブジェクトをモデリングするための方法のフローチャートである。 図2及び図3に示す方法における1つのステップの具体的な実現プロセスである。 本願の実施例にて提供されるBEVに基づくターゲット検出方法の概略図である。 本願の実施例にて提供される視錐台に基づくターゲット検出方法の概略図である。 本願の別の実施例にて提供されるオブジェクトをモデリングするための方法のフローチャートである。 本願の実施例にて提供されるオブジェクトが第1の状態にある時の階層表示である。 本願の実施例にて提供されるオブジェクトが第2の状態にある時の階層表示である。 本願の実施例によるオブジェクトの階層表示のツリー図である。 本願の実施例にて提供される車両を制御するための方法のフローチャートである。 本願の実施例にて提供されるオブジェクトをモデリングするための装置の構造図である。 本願の別の実施例にて提供されるオブジェクトをモデリングするための装置の構造図である。 本願の実施例にて提供される電子機器の構造図である。 本願の明確な実施例は、上記図面により示されており、以下により詳細に説明される。これらの図面及び文字による説明は、本願の概念の範囲を任意の形態で限定するためのものではなく、特定の実施形態を参照することにより当業者に本願の概念を説明するためのものである。
ここで、例示的な実施例について詳細に説明し、その例を図面において表示する。以下の説明が図面にかかわる場合、特に断りのない限り、異なる図における同一の数字は同一又は類似の要素を表す。以下の例示的な実施例において説明される実施形態は、本願に一致するすべての実施形態を代表するものではない。これに対して、それらは、添付の特許請求の範囲に詳しく記載されるような、本願のいくつかの態様に一致する装置及び方法の例に過ぎない。
自動運転車両は、車両の周囲環境に対応するセンサデータを取り込むために、複数のセンサを含むことができる。環境には、一般的に複数のオブジェクトを含むことができる。ターゲット検出タスクにおいて、バウンティングボックスでオブジェクトの位置及びサイズを識別することができ、すなわち、バウンディングボックスで環境におけるオブジェクトを表すことができる。例えば、地面に平行な二次元表示では、矩形のバウンティングボックスを環境におけるオブジェクトの占有面積及び形状に近似させることにより、環境におけるオブジェクトを表示することができる。従来技術では、一般的に1つのバウンディングボックスで環境における1つのオブジェクトを表示する。
環境におけるオブジェクトは関節物体であってもよく、関節物体は互いに接続される少なくとも2つの部分を含み、これらの部分は互いが相対的に回転できる。関節物体の一例は牽引車及びトレーラを含むトラックである。本願の発明者は、単一のバウンディングボックス(例えば、単一の矩形バウンディングボックス)で関節物体を表示すれば、関節物体の正確な運動状態を取得できないことで、関節物体の運動状態の誤った推定を引き起こすことに気付いた。例えば、トラックが旋回する時に、牽引車とトレーラとの間に角度が形成され、単一のバウンディングボックスでトラックを表示する場合に、バウンディングボックスの領域はトラックの実際の占有面積に対応しないことで、トラックの占有面積の過大推定を引き起こす可能性がある。特に、トラックが実際に1つのレーンしか占めていない場合に、トラックのバウンディングボックスは地図中の2つのレーンを占める可能性がある。
バウンディングボックスの領域が関節物体の実際の占有面積に対応しないことを解決するために、関節物体の各部分を、1つの独立したオブジェクトとみなし、1つのバウンディングボックスで表示することができる。例えば、トラックの牽引車及びトレーラを、互いに独立した異なるオブジェクトとみなし、異なるバウンディングボックスで表示することができる。そのような表現はより簡単であるが、関節物体の運動規則を正確に表現できず、関節物体の運動状態(例えば、軌跡)推定の難易度を増加させる。例えば、トラックの牽引車は動力を有し、トレーラは動力を有さないため、牽引車とトレーラの運動モデルは同じはずではなく、トレーラの運動は牽引車の運動によって制約されることを必要とする。不正確な運動モデルを用いると、牽引車及びトレーラの軌跡を予測する時に、牽引車とトレーラの軌跡が互いに大きくずれることを引き起こす。
本開示に記載される技術は、センサデータを処理して、環境におけるオブジェクトの階層表示を生成することにより、オブジェクトを精確に表示し、それにより、車両(例えば、自動運転車両)を環境において前進し、環境における関連オブジェクト(例えば、環境における他の車両)を回避するようにナビゲートするために用いることができる。
要すると、本願はオブジェクトをモデリングするための方法(すなわち、オブジェクトの階層表示を生成する方法)を提供し、感知システムによって収集されたその周囲環境に関連する点群を取得し、点群からオブジェクト全体及びオブジェクトの各部分にそれぞれ対応する点をそれぞれ識別し、さらにオブジェクト全体、及びそれが含む各部分に対して対応する表示をそれぞれ生成することにより、オブジェクトに対するモデリングを実現し、モデリングの精細度を向上させ、さらにオブジェクトの運動状態を正確に決定することができる。
本願にて提供されるオブジェクトをモデル化する方法(すなわち、オブジェクトの階層表示を生成する方法)は車両を制御するために用いることができる。車両の感知システムは周囲環境に関連する点群を収集し、車両のコンピューティング機器は感知システムによって収集された周囲環境に関連する点群を取得する(例えば、コンピューティング機器は感知システムから点群を受信してもよい)。コンピューティング機器は点群におけるオブジェクト(すなわち、当該周囲環境におけるオブジェクト)に関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定し、第1のサブセット及び第2のサブセットに基づいて、前記オブジェクトが前記第1のサブセットに関連する第1の部分を含む第1の信頼度、及び前記第2のサブセットに関連する第2の部分を含む第2の信頼度を決定し、前記第1の信頼度及び第2の信頼度がいずれも所定の閾値よりも高いことに応答して、オブジェクトの第1の表示、前記第1の部分の第2の表示、及び前記第2の部分の第3の表示を含む前記オブジェクトの階層表示を生成し、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置する。コンピューティング機器はオブジェクトの階層表示に基づいて車両が走行する経路(又は軌跡)を生成し、車両を生成した経路(又は軌跡)に沿って走行するように制御する。
図1aは1つの例示的なシーンを示す。図1aに示すように、車両100は道路上の1つのレーンを走行し、トラック112はその前方で走行し、トラック114はその後方で走行している。トラック113、115及び小型乗用車116は近くの別のレーンを走行している。車両100は自動運転車両であってもよく、自動運転車両100は走行経路(又は軌跡)を計画する時にトラック112、113、114、115及び小型乗用車116の運動状態を考慮することを必要とする。さらに、図1aはトラック112、113が牽引車及び2つのトレーラを含み、トラック114、115が牽引車及び1つのトレーラを含むことも示す。
図1bは本願の例示的な実施例による車両(例えば、図1aに示す車両100)の概略図を示す。図1bに示すように、車両100は感知システム101及びコンピューティング機器102を含む。感知システム101はセンサシステムとも呼ばれ、例えば、慣性測定ユニット(IMU)、全地球航法衛星システム(GNSS)受信機(例えば、全地球測位システム(GPS)受信機)、無線検知・測距装置(RADAR)システム、レーザ検知・測距(LIDAR)システム、音響センサ、超音波センサ、及びカメラのうちの1つ又は複数といった複数のセンサを含むことができる。
感知システム101は車両100の周囲環境(すなわち、感知システム101の周囲環境)に関連するセンサデータを収集する。例えば、感知システム101におけるLIDARは車両100の周囲環境に関連する点群を収集し、感知システム101におけるカメラは車両100の周囲環境に関連する画像を収集するとともに、感知システム101におけるLIDARとカメラは重なる視野を有してもよく、このように、同一の時刻又はほぼ同一の時刻で、カメラが収集した画像とLIDARが収集した点群は同じオブジェクトについてのデータを有する。
感知システム101はこれらのセンサデータをコンピューティング機器102に伝送することができ、コンピューティング機器102は車両100の周囲環境におけるオブジェクトに関連するコンテンツをセンサデータから検出又は識別することができる。例えば、コンピューティング機器102は車両100の周囲環境のオブジェクト(例えば、図1aのトラック112、113、114若しくは115、又は小型乗用車116)に関連する点をLIDARが収集した点群から検出又は識別する。関節物体のようなオブジェクトに対して、コンピューティング機器102はオブジェクト全体及びオブジェクトの各部分にそれぞれ対応する点を点群から検出又は識別し、さらにオブジェクト全体及びそれが含む各部分に対して対応する表示をそれぞれ生成し、これにより、オブジェクトの階層表示103を生成する。例えば、関節物体は互いが相対的に回転できる第1の部分と第2の部分を含む場合、オブジェクトの階層表示103はオブジェクトの第1の表示、第1の部分の第2の表示、及び第2の部分の第3の表示を含み、第2の部分は互いが相対的に回転できる第3の部分と第4の部分をさらに含む場合、オブジェクトの階層表示103は第3の部分の第4の表示及び第4の部分の第5の表示をさらに含む。オブジェクトの表示及びオブジェクトの各部分の表示の例は、例えば、矩形のバウンディングボックスのようなバウンディングボックスである。これによりオブジェクトの精確なモデリングが実現される。例えば、関節物体がトラックの場合、生成したトラックの階層表示はトラック全体に対応する第1の表示、トラックの牽引車に対応する第2の表示、トラックのトレーラに対応する第3の表示を含む。コンピューティング機器102は、オブジェクトを精確にモデリングする上で、オブジェクトの運動状態を正確に決定することができる。
図2は本願の例示的な実施例のオブジェクトをモデリングするための方法のフローチャートである。本実施例にて提供されるオブジェクトをモデリングするための方法はオブジェクトの階層表示を生成するために用いられる。その実行主体は任意の電子機器であり、例えば、図1bに示すコンピューティング機器102である。
図2に示すように、ステップS201において、感知システムによって収集された周囲環境に関連する点群を取得する。
車両(例えば、図1a及び図1bに示す車両100)は、走行時に、感知システム(例えば、図1bに示す感知システム101)を用いて車両100の周囲環境(すなわち、感知システム101の周囲環境)に関連するセンサデータを収集することができる。感知システムによって収集されたセンサデータは、例えば、感知システムにおけるLIDARによって収集された車両100の周囲環境に関連する点群、感知システムにおけるカメラによって収集された車両100の周囲環境に関連する画像を含む。感知システム101はLIDARによって収集された点群をコンピューティング機器102に送信することができる。点群に加えて、感知システム101はカメラによって収集された画像又は他のセンサによって収集されたデータをコンピューティング機器102に送信することができる。コンピューティング機器102は感知システム101から受信したセンサデータ(例えば、点群)に基づいて、車両100の周囲環境に含まれるオブジェクトをモデリングして、オブジェクトの階層表示を生成することができる。
環境におけるいくつかのオブジェクト(例えば、図1aのトラック112、113、114及び115)は関節物体であってもよく、別のオブジェクトは非関節物体(例えば、図1aの小型乗用車116)であってもよい。関節物体は相対的に回転できる少なくとも2つの部分を含む。例を挙げると、当該関節物体は、牽引車と、牽引車上の特定の点に対して回転可能なトレーラとを含むトラックである。トラックが複数のトレーラを含む場合、一方のトレーラは他方のトレーラ上の特定の点に対して回転可能である。
ステップS202において、前記点群におけるオブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定する。
コンピューティング機器102は感知システム101から点群を含むセンサデータを受信した後、点群から車両の周囲環境におけるオブジェクトに関連する1組の点を決定し、当該組の点の複数のサブセット、例えば第1のサブセット及び第2のサブセットを決定することができる。
コンピューティング機器102は様々なターゲット検出方法を用いて点群に対してターゲット検出を行うことができ、コンピューティング機器102は、点群中のどの点が環境における同じオブジェクトがLIDARの光を反射して形成されたものであるか、点群中のどの点が当該オブジェクトの構成要素がLIDARの光を反射して形成されたものであるかをターゲット検出により決定することができる。これにより、当該オブジェクトに関連する1組の点及び当該組の点の1つ又は複数のサブセットを決定し、この組の点に基づいて当該オブジェクトの表示(例えば、バウンディングボックス)を生成し、この組の点のサブセットに基づいて当該オブジェクトの1つ又は複数の部分の表示(例えば、バウンディングボックス)を生成する。コンピューティング機器102が用いるターゲット検出方法の例としては、BEV(鳥瞰図、bird's eye view)に基づくターゲット検出方法及び視錐台(Frustum)に基づくターゲット検出方法が含まれる。
BEVに基づくターゲット検出方法を用いる場合、コンピューティング機器102は、まず点群に対して特徴検出を行って環境オブジェクトに関連する1組の点を決定し、次に当該点群に対して特徴検出を行い(例えば、関心領域プーリング(Region of interest pooling)を用いる)、第1のサブセット及び第2のサブセットを決定する。以下、図5に合わせて、BEVに基づくターゲット検出方法について詳細に説明する。
上記したように、感知システム101におけるLIDARは車両100の周囲環境に関連する点群を収集することができ、感知システム101におけるカメラは車両100の周囲環境に関連する画像を収集し、感知システム101におけるLIDARとカメラは重なる視野を有してもよい。視錐台に基づくターゲット検出方法を用いる場合、コンピューティング機器102はカメラによって収集された画像を検出することにより、画像中の環境のオブジェクトに関連する内容を決定し、例えば、矩形ボックスで画像中の環境のオブジェクトに関連する内容を表してもよい。さらに当該画像内容に基づいて、点群の一部分を決定し、前記点群の当該部分に対して特徴検出を行い、点群における当該環境のオブジェクトに関連する1組の点、この組の点の第1のサブセット及び第2のサブセットを決定する。以下、図6に合わせて、視錐台(Frustum)に基づくターゲット検出方法について詳細に説明する。
ステップS203において、第1のサブセット及び第2のサブセットに基づいて、前記オブジェクトが前記第1のサブセットに関連する第1の部分を含む第1の信頼度、及び前記第2のサブセットに関連する第2の部分を含む第2の信頼度を決定する。
一方では、車両100の周囲環境におけるオブジェクトは関節物体を含む可能性もあり、非関節物体を含む可能性もある。非関節物体の一例として、車体が基本的に剛性の小型自動車が挙げられる。他方では、車両100と周囲の関節物体が特定の相対位置にある場合、車両100上のセンサは関節物体の一部しか感知しない可能性がある。例えば、図1に示すように、車両100はトラック114の真正面にあり、トラック114の牽引車はトレーラを完全に遮断しており、このとき、車両100のセンサはトラック114の牽引車しか感知できず、トラック114のトレーラを感知しない。他の状況では、車両100の近くのトラックのトレーラは他の車両、木、又は建物などに遮断されることがあり、その結果、車両100のセンサはトラックの牽引車しか感知しない可能性もある。
コンピューティング機器102は点群における環境のオブジェクトに関連する1組の点を決定し、また、この組の点のサブセット(例えば、第1のサブセット及び第2のサブセット)を決定する時、コンピューティング機器102はこの組の点の信頼度(すなわち、環境において当該オブジェクトが存在する信頼度)を同時に決定し、第1のサブセット及び第2のサブセットに対応する信頼度(すなわち、第1のサブセットに対応する第1の信頼度及び第2のサブセットに対応する第2の信頼度)を決定することができる。
コンピューティング機器102は点群における環境のオブジェクトに関連する1組の点を決定し、また、この組の点のサブセット(例えば、第1のサブセット及び第2のサブセット)を決定した後、この組の点に対応する信頼度(すなわち、環境においてオブジェクトが存在する信頼度)を決定し、第1のサブセット及び第2のサブセットに対応する信頼度(すなわち、第1のサブセットに対応する第1の信頼度及び第2のサブセットに対応する第2の信頼度)を決定することができる。
この組の点に対応する信頼度が所定の閾値よりも低い場合は、検出結果が不正確であることを示し、当該検出結果を廃棄する。この組の点に対応する信頼度が所定の閾値よりも高い場合だけが、関連するオブジェクトが検出される(或いは環境において当該オブジェクトが存在する)ことを示す。この組の点の信頼度が所定の閾値よりも高い場合、コンピューティング機器102は第1のサブセットに対応する第1の信頼度(すなわち、オブジェクトが第1のサブセットに関連する第1の部分を含む信頼度)及び第2のサブセットに対応する第2の信頼度(すなわち、オブジェクトが第2のサブセットに関連する第2の部分を含む信頼度)をさらに判断する。
第1の信頼度及び第2の信頼度の一方が低い(例えば、所定の閾値よりも低い)場合は、当該組の点に対応するオブジェクトが関節物体ではないか、又は関節物体が部分的に遮断されることを示す。
ステップS204において、前記第1の信頼度及び第2の信頼度がいずれも所定の閾値よりも高いことに応答して、オブジェクトの第1の表示、前記第1の部分の第2の表示、及び前記第2の部分の第3の表示を含む前記オブジェクトの階層表示を生成し、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置する。
上記したように、第1の信頼度及び第2の信頼度の一方が所定の閾値よりも低い場合は、感知システム101が感知したオブジェクトが非関節物体であるか、又は感知システム101が感知した物体が関節物体であるが、部分的に遮断されることを示すことができる。第1の信頼度及び第2の信頼度がいずれも所定の閾値よりも高い場合だけが、感知システム101が関節物体を感知し、且つ感知システム101が関節物体の少なくとも2つの部分を感知することを示す。このとき、コンピューティング機器102は、オブジェクトの表示(すなわち、オブジェクト全体の表示)、及び感知したオブジェクトの各部分の表示を含むオブジェクトの階層表示を生成し、オブジェクトの各部分の表示は少なくとも一部がオブジェクトの表示内に位置する。オブジェクトの表示及びオブジェクトの各部分の表示の例は、例えば、矩形のバウンディングボックスのようなバウンディングボックスである。
本願にて提供されるオブジェクトをモデリングする方法は、感知システムによって収集された周囲環境に関連する点群を取得し、前記点群における前記オブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定し、第1のサブセット及び第2のサブセットに基づいて、前記オブジェクトが前記第1のサブセットに関連する第1の部分を含む第1の信頼度、及び前記第2のサブセットに関連する第2の部分を含む第2の信頼度を決定し、前記第1の信頼度及び第2の信頼度がいずれも所定の閾値よりも高いことに応答して、オブジェクトの第1の表示、前記第1の部分の第2の表示、及び前記第2の部分の第3の表示を含む前記オブジェクトの階層表示を生成し、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置する。点群からオブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定し、さらにオブジェクト及びオブジェクトが含む第1の部分と第2の部分に対して対応する表示をそれぞれ生成することにより、オブジェクトに対するモデリングを実現し、モデリングの精細度を向上させ、さらにオブジェクトの運動状態を正確に決定することができる。
図3は本願の別の実施例にて提供されるオブジェクトをモデリングするための方法(すなわち、オブジェクトの階層表示を生成するための方法)のフローチャートを示し、それは関節物体が3つ又はそれ以上の相対的に回転可能な部分を含まれる状況を考慮する。図3に示す方法の実行主体は、例えば、図1bに示すコンピューティング機器102のような任意の電子機器である。図3のステップS301~S304は、図2のステップS201~S204と基本的に同じであるため、以下、これらのステップについて詳細な説明は省略する。図3に示すように、ステップS301において、感知システムによって収集された周囲環境に関連する点群を取得する。ステップS302において、前記点群におけるオブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定する。ステップS303において、第1のサブセット及び第2のサブセットに基づいて、前記オブジェクトが前記第1のサブセットに関連する第1の部分を含む第1の信頼度、及び前記第2のサブセットに関連する第2の部分を含む第2の信頼度を決定する。ステップS304において、前記第1の信頼度及び第2の信頼度がいずれも所定の閾値よりも高いことに応答して、オブジェクトの第1の表示、前記第1の部分の第2の表示、及び前記第2の部分の第3の表示を含む前記オブジェクトの階層表示を生成し、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置する。
図3に示すように、ステップS305において、ステップS302で生成された1組の点の第2のサブセットが含む第3のサブセット及び第4のサブセットを決定する。
ステップS304の後に、コンピューティング機器102は、ステップS302で決定された1つのサブセット、例えば第2のサブセットに対して、第2のサブセットの複数のサブセット、例えば第3のサブセット及び第4のサブセットを決定することができる。
ステップS306において、第3のサブセット及び第4のサブセットに基づいて、前記オブジェクトが前記第3のサブセットに関連する第3の部分を含む第3の信頼度、及び前記第4のサブセットに関連する第4の部分を含む第4の信頼度を決定する。
本開示のオブジェクトをモデリングするための方法がBEVに基づくターゲット検出方法を用いる場合、コンピューティング機器102は第1のサブセット及び第2のサブセットのうちの1つに対して、例えば第2のサブセットに対して特徴検出を行って(例えば、関心領域プーリングを用いる)第3のサブセットと第4のサブセット、及び第3のサブセットと第4のサブセットにそれぞれ対応する信頼度を決定することができる。
本開示のオブジェクトをモデリングするための方法が視錐台に基づくターゲット検出方法を用いる場合、第1のサブセット及び第2のサブセットを決定した後、第1のサブセット及び第2のサブセットのうちの1つ、例えば第2のサブセットに対して、特徴検出を行って(例えば、関心領域プーリングを用いる)第3のサブセットと第4のサブセット、及び第3のサブセットと第4のサブセットにそれぞれ対応する信頼度を決定することができる。
第3の信頼度及び第4の信頼度の一方が低い(例えば、所定の閾値よりも低い)ことを決定した場合、当該関節物体が2つの部分のみを含むか、又は関節物体が部分的に遮断される可能性がある。
ステップS307において、前記第3の信頼度及び第4の信頼度がいずれも所定の閾値よりも高いことに応答して、前記第3の部分の第4の表示、及び前記第4の部分の第5の表示を生成し、前記第4の表示及び第5の表示は少なくとも一部が第3の表示内に位置する。
上記したように、第3の信頼度及び第4の信頼度の一方が所定の閾値よりも低い場合は、感知システム101が感知した関節物体が2つの部分(すなわち、第1の部分及び第2の部分)のみを含むか、又は関節物体が部分的に遮断されることを示すことができる。第3の信頼度及び第4の信頼度がいずれも所定の閾値よりも高い場合だけが、感知システム101が、関節物体が少なくとも3つの部分、すなわち、第1の部分、第3の部分及び第4の部分(関節物体の第2の部分は第3の部分及び第4の部分から構成される)を含むことを感知することを示す。コンピューティング機器102が生成したオブジェクトの階層表示は、オブジェクトの表示、及び感知したオブジェクトの各部分(オブジェクトの第1の部分、オブジェクトの第2の部分、オブジェクトの第3の部分、オブジェクトの第4の部分)の表示を含み、オブジェクトの各部分の表示は少なくとも一部がオブジェクトの表示内に位置し、オブジェクトの第3の部分及び第4の部分の表示は少なくとも一部がオブジェクトの第2の部分の表示内に位置する。オブジェクトの表示及びオブジェクトの各部分の表示の例は、例えば、矩形のバウンディングボックスのようなバウンディングボックスである。
なお、オブジェクトの第2部分が第3の部分、第4の部分に加えて、さらに多くの部分を含めば、残りの部分も上記と同じプロセスを用いて対応する表示を生成することができ、ここで、重複する説明は省略する。また、オブジェクトの第1の部分も異なる部分を含めば、上記と同じプロセスを用いて対応する表示を生成することもできる。
いくつかの実施例では、前記第1の表示は第1の幾何学的形状を有し、前記第2の表示は第2の幾何学的形状を有し、前記第3の表示は第3の幾何学的形状を有し、前記第4の表示は第4の幾何学的形状を有し、前記第5の表示は第5の幾何学的形状を有する。ここで、第1の幾何学的形状、第2の幾何学的形状、第3の幾何学的形状、第4の幾何学的形状、第5の幾何学的形状はオブジェクト及び/又はオブジェクトの各部分に基づいて任意の幾何学的形状を選択して、オブジェクト及び/又はオブジェクトの各部分の輪郭を表すために用いることができ、例えば、三次元空間でモデリングすれば、第1の幾何学的形状、第2の幾何学的形状、第3の幾何学的形状、第4の幾何学的形状、第5の幾何学的形状のうち1つ又は複数は直方体であってもよく、また、例えば、二次元空間でモデリングすれば、第1の幾何学的形状、第2の幾何学的形状、第3の幾何学的形状、第4の幾何学的形状。第5の幾何学的形状のうち1つ又は複数は矩形であってもよい。
いくつかの実施例では、図4に示すように、図2のステップS202及び図3のステップS302において、前記点群における前記オブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定するステップは、
当該点群に基づいて前記オブジェクトのカテゴリを決定するステップS401と、
前記オブジェクトのカテゴリが所定のカテゴリであることに応答して、当該組の点の第1のサブセットと第2のサブセットを決定するステップS402と、を含む。
図2のステップS202及び図3のステップS302において、前記点群におけるオブジェクトに関連する1組の点を決定した後、当該組の点に基づいて前記オブジェクトのカテゴリを決定する。前記オブジェクトのカテゴリが関節物体であると決定した場合、当該組の点の第1のサブセット及び第2のサブセットを決定する。
例えば、BEVに基づくターゲット検出方法を用いる場合、コンピューティング機器102はオブジェクトに関連する1組の点を決定した後、この組の点に基づいてオブジェクトのカテゴリを識別し、当該オブジェクトのバウンディングボックスを決定する。オブジェクトが関節物体であると識別した場合だけが、当該オブジェクトの第1の部分に関連する当該組の点の第1のサブセット、当該オブジェクトの第2の部分に関連する当該組の点の第2のサブセットをさらに決定する。
以下、図5に合わせて点柱(PointPillars)アルゴリズムモデル(以下PointPillarsと略称する)を例としてBEVに基づくターゲット検出方法を説明する。当業者であれば理解できるように、PointPillarsに加えて、BEVに基づくターゲット検出方法は他のニューラルネットワーク又はアルゴリズムモデルを用いて実現することができる。
従来のPointPillarsのネットワークアーキテクチャは入力ネットワーク、特徴抽出ネットワーク、検出ヘッド及び出力ネットワークを含む。図5は本開示によるPointPillarsのネットワークアーキテクチャを示す。図5に示すように、本開示のPointPillarsのネットワークアーキテクチャは従来のネットワークアーキテクチャに比べて、関心領域プーリング(ROIプーリングと略称する)を行う検出ヘッド、例えば検出ヘッド504及び検出ヘッド505をさらに含む。当業者であれば理解できるように、図5はROIプーリングを行う2つの検出ヘッドを示すが、PointPillarsのネットワークアーキテクチャはそれ以上、又はそれ以下のROIプーリングを行う検出ヘッドを含んでもよい。
図5に示すように、入力ネットワーク501は、例えば図1bの感知システム101によって収集された点群のような点群を受信し、受信した点群を特徴抽出ネットワーク502に伝送するために用いられる。特徴抽出ネットワーク502は入力ネットワーク501から受信した点群を複数の柱(Pillar)単位に分割することにより、点群を疑似画像に変換し、畳み込みニューラルネットワークを用いて疑似画像上で特徴を抽出することができる。検出ヘッド503は特徴抽出ネットワーク502によって抽出された特徴に基づいてターゲット検出を行い、それにより、前記点群における車両(例えば、車両100)の周囲環境におけるオブジェクトに関連する1組の点を決定し、それに応じてオブジェクトの表示(例えば、バウンディングボックス)を生成し、当該組の点に対応する信頼度(すなわち、オブジェクトが存在する信頼度)を生成する。続いて、検出ヘッド504はこの組の点に対してROIプーリング操作を行い、この組の点の複数のサブセット(例えば、第1のサブセット及び第2のサブセット)を決定して、オブジェクトの複数の部分、例えば、前記第1のサブセットに関連する第1の部分及び前記第2のサブセットに関連する第2の部分を予測し、第1の部分及び第2の部分のバウンディングボックス、並びに第1の部分及び第2の部分に対応する信頼度(すなわち、オブジェクトが第1の部分を含む信頼度、及び第2の部分を含む信頼度)を生成する。続いて、検出ヘッド505は、検出ヘッド504によって決定された複数のサブセットのうち少なくとも1つのサブセット(例えば、第2のサブセット)に対してROIプーリング操作を行い、第2のサブセットの複数のサブセット(例えば、第3のサブセット及び第4のサブセット)を決定して、オブジェクトの第2の部分の複数の部分、例えば、前記第3のサブセットに関連する第3の部分及び前記第4のサブセットに関連する第4の部分を予測し、第3の部分及び第4の部分のバウンディングボックス、並びに第3の部分及び第4の部分に対応する信頼度(すなわち、オブジェクトが第3の部分を含む信頼度、及び第4の部分を含む信頼度)を生成する。出力ネットワーク506は上記各信頼度に基づいてバウンディングボックスで構成されるオブジェクトの階層表示を出力する。
いくつかの実施例では、検出ヘッド503はターゲット検出を行った後に、検出したオブジェクトのカテゴリを決定し、検出したオブジェクトが関節物体であれば、検出ヘッド503の検出結果を検出ヘッド504に提供してROIプーリング操作を行わせる。検出したオブジェクトが関節物体でなければ、検出結果を検出ヘッド504に提供せず、検出結果を出力ネットワーク506に直接提供して出力させる。
以下、図6に合わせて、視錐台に基づくターゲット検出方法について詳細に説明する。従来の視錐台に基づくターゲット検出方法のネットワークアーキテクチャは入力ネットワーク、特徴抽出ネットワーク、検出ヘッド及び出力ネットワークを含む。図6は本開示による視錐台に基づくターゲット検出方法のネットワークアーキテクチャを示す。本開示のネットワークアーキテクチャは、検出ヘッド(例えば、図6の検出ヘッド603)を複数のブランチに分割する一方で、検出ヘッドを追加する(例えば、図6の検出ヘッド604を追加する)という点で、従来のネットワークアーキテクチャの検出ヘッドに対して改良されている。
上記したように、感知システム101(図1b参照)におけるLIDARとカメラは重なる視野を有することができ、視錐台に基づくターゲット検出方法はLIDARとカメラの視野が重なるという特徴を利用し、カメラが収集した画像及びLIDARが収集した点群に合わせてターゲット検出を行う。
図6に示すように、入力ネットワーク601は、例えば、感知システム101のLIDARが収集した点群及び感知システム101のカメラが収集した画像のような点群及び画像を受信するために用いられる。入力ネットワーク601は画像内でオブジェクトのバウンディングボックスを検出し、続いてカメラを原点とし、バウンディングボックス方向に沿って延伸して1つの錐体を形成する。入力ネットワーク601はカメラとLIDARの相対姿勢に基づいて、点群におけるどの点がこの錐体内に位置するかを決定する。
特徴抽出ネットワーク602は入力ネットワーク601によって決定された錐体内の点に対して特徴抽出を行うために用いられる。特徴抽出ネットワーク602の一例として、PointNetネットワークが挙げられる。検出ヘッド603は特徴抽出ネットワーク602によって抽出された特徴に基づいてターゲット検出を行い、検出ヘッド603は複数(例えば3つ)のブランチを含む。1つのブランチは点群における車両(例えば、車両100)の周囲環境におけるオブジェクトに関連する1組の点を決定し、それに応じて当該オブジェクトの表示(例えば、バウンディングボックス)を生成し、当該組の点に対応する信頼度(すなわち、オブジェクトが存在する信頼度)を生成する。検出ヘッド603の他のブランチは当該組の点の複数のサブセットを決定して(例えば、第1のサブセット及び第2のサブセットが挙げられ、ここで、各ブランチは1つのサブセットを決定する)、オブジェクトの複数の部分、例えば、前記第1のサブセットに関連する第1の部分及び前記第2のサブセットに関連する第2の部分を予測し(ここで、各ブランチは1つの部分を予測する)、第1の部分及び第2の部分のバウンディングボックス、並びに第1の部分及び第2の部分に対応する信頼度(すなわち、オブジェクトが第1の部分を含む信頼度、及び第2の部分を含む信頼度)を生成する。検出ヘッド604は、検出ヘッド603によって決定された複数のサブセットのうち少なくとも1つのサブセット、例えば、第2のサブセットに対して、第2のサブセットの複数のサブセット(例えば、第3のサブセット及び第4のサブセット)を決定して、オブジェクトの第2の部分の複数の部分、例えば、前記第3のサブセットに関連する第3の部分及び前記第4のサブセットに関連する第4の部分を予測し、第3の部分及び第4の部分のバウンディングボックス、並びに第3の部分及び第4の部分に対応する信頼度(すなわち、オブジェクトが第3の部分を含む信頼度、及び第4の部分を含む信頼度)を生成する。出力ネットワーク605は上記各信頼度に基づいてバウンディングボックスで構成されるオブジェクトの階層表示を出力する。
図7は本願の別の実施例にて提供されるオブジェクトをモデリングするための方法のフローチャートである。本実施例は、オブジェクトの階層表示を生成するために用いられる、オブジェクトをモデリングするための方法を提供する。その実行主体は任意の電子機器であり、例えば、図1bに示すコ車両100のンピューティング機器102である。
図7に示すように、ステップS701において、感知システムによって収集された周囲環境に関連する点群を取得する。
ステップS702は図2におけるステップS201と同様であるため、ここで重複する説明は省略する。
ステップS702において、前記点群における周囲環境における第1のオブジェクトに関連する第1の組の点、及び周囲環境における第2のオブジェクトに関連する第2の組の点を決定する。
本実施例では、点群から第1のオブジェクトに関連する第1の組の点、及び第2のオブジェクトに関連する第2の組の点を識別することができる。具体的には、点群に対してオブジェクト識別を行うには、ニューラルネットワークなど、機械学習モデル、又は他のモデルを用いることができ、ここでは限定しない。
ステップS703において、前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断する。
本実施例では、第1の組の点及び第2の組の点により決定された、いくつかのパラメータに基づいて、第1のオブジェクトと第2のオブジェクトが関連関係を有するか否かを判断することができる。ここで、パラメータは第1の組の点及び第2の組の点に基づいて決定された第1のオブジェクト及び第2のオブジェクトの位置、大きさ、速度などを含むがこれらに限定されない。
選択可能に、決定木などの方式を用いて当該パラメータ及び予め設定されたルールに基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断することができる。
ステップS704において、前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有することに応答して、前記第1のオブジェクト及び第2のオブジェクトの第1の表示、前記第1のオブジェクトの第2の表示、並びに前記第2のオブジェクトの第3表示を含む第1のオブジェクト及び第2のオブジェクトの階層表示を生成し、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置する。
本実施例では、第1のオブジェクトと第2のオブジェクトが関連関係を有すると決定すると、第1のオブジェクト及び第2のオブジェクトを1つの全体として第1の表示を生成し、第1のオブジェクトに対して第2の表示を単独で生成し、第2のオブジェクトに対して第3の表示を単独で生成し、第1の表示は第1のオブジェクト及び第2のオブジェクトが1つの全体とすることに対応する表示であるため、第2の表示及び第3の表示は少なくとも一部が第1の表示内に位置する。
例を挙げると、第1のオブジェクトは牽引車であり、第2のオブジェクトはトレーラであり、牽引車とトレーラが関連関係を有すると決定すると、それらは同一のトラックに属すると判断でき、このとき、トラックの牽引車及びトラックのトレーラを1つの全体として第1の表示を生成し、トラックの牽引車に対して第2の表示を単独で生成し、トラックのトレーラに対して第3の表示を単独で生成することができ、第2の表示及び第3の表示は少なくとも一部が第1の表示内に位置する。
上記実施例の上で、選択可能に、S703において前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するステップは、具体的には、
前記第1の組の点に基づいて前記第1のオブジェクトのカテゴリを判断するステップと、
前記第2の組の点に基づいて前記第2のオブジェクトのカテゴリを判断するステップと、
前記第1のオブジェクトのカテゴリ及び前記第2のオブジェクトのカテゴリに基づいて、前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するステップと、を含む。
本実施例では、前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクト及び前記第2のオブジェクトのカテゴリをそれぞれ識別し、続いて第1のオブジェクト及び第2のオブジェクトのカテゴリに基づいて、第1のオブジェクトと第2のオブジェクトが関連関係を有するか否かを判断する。例えば、前記第1の組の点及び第2の組の点に基づいて、前記第1のオブジェクト及び第2のオブジェクトのカテゴリがそれぞれ牽引車及びトレーラであることを識別し、牽引車は一般的にトレーラに関連する。しかし、カテゴリのみに基づいて判断すると、一定の誤判断が存在し、例えば、2台のトラックが隣接すれば、2台のトラックの牽引車とトレーラに誤った関連関係を誤って確立する可能性があり、しかし、現フレームの点群において1台のトラックのみがあれば、カテゴリのみに基づいて牽引車とトレーラに関連関係を確立することができる。
上記実施例の上で、選択可能に、S703において前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するステップは、具体的には、
前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトとの位置関係を判断するステップと、
前記第1のオブジェクトが前記第2のオブジェクトの所定の距離範囲内にあることに応答して、前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有すると判断するステップと、を含む。
本実施例では、第1の組の点と第2の組の点との間の距離(すなわち、第1の組の点に対応する第1のオブジェクトと第2の組の点に対応する第2のオブジェクトとの間の距離)が所定の距離範囲内にあれば、第1のオブジェクトと第2のオブジェクトが関連関係を有すると決定し、ここで、選択可能に、距離は横方向距離及び縦方向距離を含むことができ、第2のオブジェクトを参照として、第2のオブジェクトに対する第1のオブジェクトの横方向距離及び縦方向距離を取得することができ、横方向距離及び縦方向距離が所定の距離範囲を満たせば、第1のオブジェクトと第2のオブジェクトが関連関係を有すると決定する。
第1のオブジェクトが牽引車であり、第2のオブジェクトがトレーラであり、牽引車とトレーラの対向する縁(又は距離の最も近い縁)が平行又は略平行であれば、牽引車及びトレーラのうち1つに座標系を確立し、さらに両者間の横方向距離及び縦方向距離を決定することができ、横方向距離及び縦方向距離が所定の距離範囲を満たせば、牽引車とトレーラが同一のトラックに属すると決定し、牽引車の縁とトレーラの対向する縁(又は距離の最も近い縁)が一定の角度をなせば、牽引車とトレーラの対向する縁の中間点間の距離、及び/又は牽引車とトレーラの対向する縁の最も近い距離、及び/又は牽引車とトレーラの対向する縁の最も遠い距離を取得することができ、所定の距離範囲を満たせば、牽引車とトレーラは同一のトラックに属すると決定する。
上記実施例の上で、前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するステップは、
前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトとの位置関係及び前記第1のオブジェクトと前記第2のオブジェクトとの速度関係を判断するステップと、
前記第1のオブジェクトが前記第2のオブジェクトの所定の距離範囲内にあり且つ前記第1のオブジェクトと前記第2のオブジェクトとの速度の差が所定の閾値よりも小さいことに応答して、前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有すると判断するステップと、を含む。
本実施例では、第1のオブジェクトと第2のオブジェクトが関連関係を有すれば、第1のオブジェクトと第2のオブジェクトは距離が近接するだけでなく、さらに速度が近接するはずであると考えられるため、第1のオブジェクトと第2のオブジェクトの位置関係及び速度関係に同時に基づいて、第1のオブジェクトと第2のオブジェクトが関連関係を有するか否かを決定することができる。ここで、第1のオブジェクトと第2のオブジェクトの速度関係は、図1bに示す車両100の感知システム101によって収集された点群、画像のうちの1つ又は複数に基づいて決定されてもよく、又は他の手段によって決定されてもよい。
図8a及び図8bは本開示の例示的な実施例による感知システム(例えば、図1bに示す車両100の感知システム101)が異なる時刻で収集したセンサデータにより生成された同じオブジェクト(例えば、トラックのような関節物体)の階層表示(例えば、図1b、図2、図3、図5、図6及び図7を参照して上述した階層表示)の例を示す。図8aは感知システムが第1の時刻で収集したセンサデータに基づいて生成されたオブジェクト(例えば、トラック)の階層表示を示す。図8bは感知システムが第1の時刻と異なる第2の時刻で収集したセンサデータに基づいて生成された当該オブジェクトの階層表示を示す。図8aから分かるように、トラックが旋回する時に、牽引車とトレーラとの間に角度がある。図8bから分かるように、トラックが直進する時に、牽引車とトレーラがほぼ一直線上にある。
オブジェクトが異なる状態にある場合、オブジェクトの異なる部分には異なる相対位置関係が存在する可能性がある。例えば、図8aに示すように、トラックが旋回する時に、トラックの牽引車とトレーラは異なる姿勢(例えば、向き)を有し、例えば、図8bに示すように、トラックが直進する時に、トラックの牽引車とトレーラは同じ姿勢(例えば、向き)を有する。
図8aに示すように、トラックの階層表示800はバウンディングボックス801を含む。バウンディングボックス801は点群におけるトラックに関連する1組の点によって決定される。バウンディングボックス801の形状及びサイズはトラック全体の形状及びサイズに対応する。すなわち、バウンディングボックス801の形状及びサイズはトラックの形状及びサイズに近似する。
トラックの階層表示はバウンディングボックス802をさらに含む。バウンディングボックス802はトラックに関連する1組の点のサブセット(すなわち、点群における牽引車に関連する点のセット)によって決定される。バウンディングボックス802の形状及びサイズは牽引車の形状及びサイズに対応する。つまり、バウンディングボックス802の形状及びサイズは牽引車の形状及びサイズに近似する。
トラックの階層表示はバウンディングボックス803をさらに含む。バウンディングボックス803はトラックに関連する1組の点のサブセット(すなわち、点群におけるトレーラに関連する点のセット)によって決定される。バウンディングボックス803の形状及びサイズはトレーラの形状及びサイズに対応する。すなわち、バウンディングボックス803の形状及びサイズはトレーラの形状及びサイズに近似する。図8aでは、バウンディングボックス802及びバウンディングボックス803は大部分がバウンディングボックス801内に位置するが、他の実施例では、バウンディングボックス801をより大きいサイズを有するようにしてもよく、それにより、バウンディングボックス802及びバウンディングボックス803は完全にバウンディングボックス801内に位置する。
トラックが複数のトレーラ(例えば、トレーラ1及びトレーラ2)を含む場合、トラックの階層表示はバウンディングボックス804及び805をさらに含む。バウンディングボックス804及び805はトレーラに関連する点のセットのサブセット(すなわち、点群におけるトレーラ1に関連する点及び点群におけるトレーラ2に関連する点)によって決定される。バウンディングボックス804及び805の形状及びサイズはトレーラ1及びトレーラ2の形状及びサイズに対応する。すなわち、バウンディングボックス804及び805の形状及びサイズはトレーラ1及びトレーラ2の形状及びサイズに近似する。図8aでは、バウンディングボックス804及びバウンディングボックス805は大部分がバウンディングボックス803内に位置するが、他の実施例では、バウンディングボックス803をより大きいサイズを有するようにしてもよく、それにより、バウンディングボックス804及びバウンディングボックス805は完全にバウンディングボックス803内に位置する。
図8bに示すように、トラックの階層表示810はバウンディングボックス811を含む。バウンディングボックス811は点群におけるトラックに関連する1組の点によって決定される。バウンディングボックス811の形状及びサイズはトラック全体の形状及びサイズに対応する。すなわち、バウンディングボックス811の形状及びサイズはトラックの形状及びサイズに近似する。
トラックの階層表示はバウンディングボックス812をさらに含む。バウンディングボックス812はトラックに関連する1組の点のサブセット(すなわち、点群における牽引車に関連する点のセット)によって決定される。バウンディングボックス812の形状及びサイズは牽引車の形状及びサイズに対応する。つまり、バウンディングボックス812の形状及びサイズは牽引車の形状及びサイズに近似する。
トラックの階層表示はバウンディングボックス813をさらに含む。バウンディングボックス813はトラックに関連する1組の点のサブセット(すなわち、点群におけるトレーラに関連する点のセット)によって決定される。バウンディングボックス813の形状及びサイズはトレーラの形状及びサイズに対応する。すなわち、バウンディングボックス813の形状及びサイズはトレーラの形状及びサイズに近似する。図8bでは、バウンディングボックス812及びバウンディングボックス813は完全にバウンディングボックス811内に位置する。
トラックが複数のトレーラ(例えば、トレーラ1及びトレーラ2)を含む場合、トラックの階層表示はバウンディングボックス814及び815をさらに含む。バウンディングボックス814及び815はトレーラに関連する点のセットのサブセット(すなわち、点群におけるトレーラ1に関連する点及び点群におけるトレーラ2に関連する点)によって決定される。バウンディングボックス814及び815の形状及びサイズはトレーラ1及びトレーラ2の形状及びサイズに対応する。すなわち、バウンディングボックス814及び815の形状及びサイズはトレーラ1及びトレーラ2の形状及びサイズに近似する。図8bでは、バウンディングボックス814及びバウンディングボックス815は完全にバウンディングボックス813内に位置する。
図8aに示すように、トラックが旋回する時に、バウンディングボックス802及びバウンディングボックス803は大部分がバウンディングボックス801内に位置し、バウンディングボックス804及びバウンディングボックス805は大部分がバウンディングボックス803内に位置する。図8bに示すように、トラックが直進する時に、バウンディングボックス812及びバウンディングボックス813は完全にバウンディングボックス811内に位置し、バウンディングボックス814及びバウンディングボックス815は完全にバウンディングボックス813内に位置する。また、図8a及び図8bから分かるように、バウンディングボックス801のサイズはバウンディングボックス811のサイズよりも大きく、バウンディングボックス803のサイズはバウンディングボックス813のサイズよりも大きい。
図8cは本開示の例示的な実施例による関節物体(例えば、トラック)の階層表示(例えば、図8aに示す階層表示800及び図8bに示す階層表示810)のツリー図である。図8cのツリー図820に示すように、第1の階層は、例えば、図8a中のバウンディングボックス801及び図8b中のバウンディングボックス811のようなトラック全体の表示に対応するノード821を含む。つまり、トラック全体の表示はトラックの階層表示の第1の階層にある。第2の階層は、例えば、図8a中のバウンディングボックス802、803及び図8b中のバウンディングボックス812、813のような牽引車の表示及びトレーラ全体の表示にそれぞれ対応するノード822及びノード823を含む。つまり、牽引車の表示及びトレーラ全体の表示はトラックの階層表示の第2の階層にある。第3の階層のノード824及びノード825は、例えば、図8a中のバウンディングボックス804、805及び図8b中のバウンディングボックス814、815のような異なるトレーラ(例えば、トレーラ1及びトレーラ2)の表示にそれぞれ対応する。つまり、トレーラ1及びトレーラ2の表示はトラックの階層表示の第3の階層にある。トラックが牽引車と、例えば、トレーラ1及びトレーラ2のような2つのトレーラとを含み、車両100の近くに位置するとする。車両100の感知システム101が当該トラックの牽引車及び2つのトレーラを感知できる場合、車両100のコンピューティング機器102が当該トラックのために生成した階層表示は、図8cに示すように、3つの階層を含む。車両の感知システム101は当該トラックを完全に観測できず、例えば、当該トラックの牽引車及び1つのトレーラしか感知できない場合、車両100のコンピューティング機器102が当該トラックのために生成した階層表示は、第1の階層及び第2の階層の2つの階層を含む。車両の感知システム101は当該トラックを完全に観測できず、例えば、当該トラックの牽引車しか感知できない場合、車両100のコンピューティング機器102が当該トラックのために生成した階層表示は、第1の階層の1つの階層のみを含む。
図9は車両(例えば、図1a及び図1b中の車両100)を制御するための方法のフローチャートを示し、この方法は、例えば、図1bのコンピューティング機器102によって実行することができる。
ステップS901において、コンピューティング機器は車両の周囲環境におけるオブジェクトの階層表示を生成する。車両100上のコンピューティング機器102は感知システム101によって収集された周囲環境に関連するデータ(例えば、点群及び/又は画像)に基づいて、車両100の周囲環境におけるオブジェクトの階層表示を生成することができる。
コンピューティング機器102は上述した方法のいずれか(例えば、図2、図3及び図7に示す方法)を用いてオブジェクトの階層表示を生成することができる。このように、いくつかの実施例では、ステップS901は図2中のステップS201~S204を含み、いくつかの実施例では、ステップS901は図3中のステップS301~S307を含み、いくつかの実施例では、ステップS901は図7中のステップS701~S704を含む。
ステップS902において、コンピューティング機器は少なくとも部分的にオブジェクトの階層表示に基づいて車両が走行する経路(又は軌跡)を生成する。コンピューティング機器102はオブジェクトの階層表示を利用し、例えばGPSトランシーバのデータ、RADARデータ、LIDARデータ、カメラデータのような感知システム101からのデータ及び/又は他の車両システムからのデータを結合して、車両100の走行経路又は軌跡を決定することができる。
ステップS903において、コンピューティング機器は車両を生成した経路(又は軌跡)に沿って走行するように制御する。コンピューティング機器102は制御命令を生成し、車両100の制御システムに送信し、車両がステップ902で生成された経路(又は軌跡)に沿って走行するように、車両100及びその部材(又はユニット)に対する操作を制御するために用いることができる。車両の制御システムは、例えば、ステアリングユニット、動力制御ユニット、制動ユニットなど、様々なユニットを含むことができる。
図10は本願の実施例にて提供されるオブジェクトをモデリングするための装置の構造図である。本実施例にて提供されるオブジェクトをモデリングするための装置は任意の電子機器群に設けられ、オブジェクトをモデリングするための方法の実施例にて提供される処理フローを実行することができ、図10に示すように、前記オブジェクトをモデリングするための装置1000は、取得モジュール1001、決定モジュール1002、信頼度モジュール1003及び生成モジュール1004を含む。
取得モジュール1001は感知システムによって収集された周囲環境に関連する点群を取得するために用いられ、
決定モジュール1002は前記点群における前記オブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定するために用いられ、
信頼度モジュール1003は第1のサブセット及び第2のサブセットに基づいて、前記オブジェクトが前記第1のサブセットに関連する第1の部分を含む第1の信頼度、及び前記第2のサブセットに関連する第2の部分を含む第2の信頼度を決定するために用いられ、
生成モジュール1004は前記第1の信頼度及び第2の信頼度がいずれも所定の閾値よりも高いことに応答して、オブジェクトの第1の表示、前記第1の部分の第2の表示、及び前記第2の部分の第3の表示を含む前記オブジェクトの階層表示を生成するために用いられ、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置する。
本願の1つ又は複数の実施例では、決定モジュール1002は、さらに、当該組の点の前記第2のサブセットが含む第3のサブセット及び第4のサブセットを決定するために用いられ、
信頼度モジュール1003は、さらに、第3のサブセット及び第4のサブセットに基づいて、前記オブジェクトが前記第3のサブセットに関連する第3の部分を含む第3の信頼度、及び前記第4のサブセットに関連する第4の部分を含む第4の信頼度を決定するために用いられ、
生成モジュール1004は、さらに、前記第3の信頼度及び第4の信頼度がいずれも所定の閾値よりも高いことに応答して、前記第3の部分の第4の表示、及び前記第4の部分の第5の表示を生成するために用いられ、前記第4の表示及び第5の表示は少なくとも一部が前記第3の表示内に位置する。
本願の1つ又は複数の実施例では、前記第1の表示は第1の幾何学的形状を有し、前記第2の表示は第2の幾何学的形状を有し、前記第3の表示は第3の幾何学的形状を有し、前記第4の表示は第4の幾何学的形状を有し、前記第5の表示は第5の幾何学的形状を有する。
本願の1つ又は複数の実施例では、前記第1の幾何学的形状、前記第2の幾何学的形状、前記第3の幾何学的形状、前記第4の幾何学的形状及び前記第5の幾何学的形状のうち少なくとも1つは矩形である。
本願の1つ又は複数の実施例では、前記決定モジュール1002は前記点群における前記オブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定する時に、
当該点群に基づいて前記オブジェクトのカテゴリを決定し、
前記オブジェクトのカテゴリが所定のカテゴリであることに応答して、当該組の点の第1のサブセットと第2のサブセットを決定するために用いられる。
本願の1つ又は複数の実施例では、前記決定モジュール1002は前記点群における前記オブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定する時に、
前記点群に対して特徴検出を行い、前記点群における前記オブジェクトに関連する1組の点を決定し、
当該組の点に対して特徴検出を行い、前記第1の部分に関連する当該組の点の第1のサブセット、及び前記第2の部分に関連する当該組の点の第2のサブセットを決定するために用いられる。
本願の1つ又は複数の実施例では、前記決定モジュール1002は前記点群における前記オブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定する時に、
前記オブジェクトに関連する画像データに基づいて、前記点群の一部分を決定し、
前記点群の当該部分に対して特徴検出を行い、前記点群における前記オブジェクトに関連する1組の点、前記第1の部分に関連する当該組の点の第1のサブセット、及び前記第2の部分に関連する当該組の点の第2のサブセットを決定するために用いられる。
本願の1つ又は複数の実施例では、前記第2の表示と第3の表示は前記オブジェクトが第1の状態にある時に第1の位置関係を有し、前記オブジェクトが第2の状態にある時に第2の位置関係を有し、前記第1の位置関係は第2の位置関係と異なる。
本願の1つ又は複数の実施例では、前記オブジェクトが第1の状態にある時、前記第の表示は第1のサイズを有するとともに、前記第2の表示及び第3の表示は前記第1の表示内に位置し、前記オブジェクトが第2の状態にある時、前記第1の表示は第2のサイズを有するとともに、前記第2の表示及び第3の表示は前記第1の表示内に位置する。
本願の1つ又は複数の実施例では、前記オブジェクトはトラックを含み、前記第1の部分は牽引車を含み、前記第2の部分はトレーラを含む。
本願の実施例のオブジェクトをモデリングするための装置は上記図2~図4に示す方法の実施例の技術的解決手段を実行するために用いることができ、その実現原理及び技術的効果は類似するため、ここで重複する説明は省略する。
図11は本願の実施例にて提供されるオブジェクトをモデリングするための装置の構造図である。本実施例にて提供されるオブジェクトをモデリングするための装置は任意の電子機器群に設けられ、オブジェクトをモデリングするための方法の実施例にて提供される処理フローを実行することができ、図11に示すように、前記オブジェクトをモデリングするための装置1100は、取得モジュール1101、決定モジュール1102、判断モジュール1103及び生成モジュール1104を含む。
取得モジュール1101は感知システムによって収集された周囲環境に関連する点群を取得するために用いられ、
決定モジュール1102は周囲環境における第1のオブジェクトに関連する前記点群における第1の組の点、及び周囲環境における第2のオブジェクトに関連する第2の組の点を決定するために用いられ、
判断モジュール1103は前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するために用いられ、
生成モジュール1104は前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有することに応答して、前記第1のオブジェクト及び第2のオブジェクトの第1の表示、前記第1のオブジェクトの第2の表示、並びに前記第2のオブジェクトの第3表示を生成するために用いられ、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置する。
本願の1つ又は複数の実施例では、前記判断モジュール1103は前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断する時に、
前記第1の組の点に基づいて前記第1のオブジェクトのカテゴリを判断し、
前記第2の組の点に基づいて前記第2のオブジェクトのカテゴリを判断し、
前記第1のオブジェクトのカテゴリ及び前記第2のオブジェクトのカテゴリに基づいて、前記判断モジュール1103は前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するために用いられる。
本願の1つ又は複数の実施例では、前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断する時に、
前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトとの位置関係を判断し、
前記第1のオブジェクトが前記第2のオブジェクトの所定の距離範囲内にあることに応答して、前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有すると判断するために用いられる。
本願の1つ又は複数の実施例では、前記判断モジュール1103は前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断する時に、
前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトとの位置関係及び前記第1のオブジェクトと前記第2のオブジェクトとの速度関係を判断し、
前記第1のオブジェクトが前記第2のオブジェクトの所定の距離範囲内にあり且つ前記第1のオブジェクトと前記第2のオブジェクトとの速度の差が所定の閾値よりも小さいことに応答して、前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有すると判断するために用いられる。
本願の実施例のオブジェクトをモデリングするための装置は上記図7に示す方法の実施例の技術的解決手段を実行するために用いることができ、その実現原理及び技術的効果は類似するため、ここで重複する説明は省略する。
図12は本願の実施例にて提供される電子機器のハードウェア構造の概略図を示す。図12に示すように、当該電子機器1200は、上記方法の実施例のいずれかにおける対応する電子機器(例えば、図1bに示すコンピューティング機器102)を実現するために用いられ、本実施例の電子機器1200は、メモリ1201、プロセッサ1202及び通信インタフェース1203を含むことができる。
メモリ1201はコンピュータプログラムを記憶するために用いられる。当該メモリ1201は高速ランダムアクセスメモリ(Random Access Memory、RAM)を含む可能性があり、例えば少なくとも1つの磁気ディスクメモリのような不揮発性メモリ(Non-Volatile Memory、NVM)をさらに含む可能性もあり、さらにUSBフラッシュドライブ、モバイルハードディスク、読み出し専用メモリ、磁気ディスク又は光ディスクなどであってもよい。
プロセッサ1202は、メモリに記憶されたコンピュータプログラムを実行して、上記任意の実施例における方法を実現するために用いられ、具体的には前記方法の実施例における関連説明を参照することができる。当該プロセッサ1202は中央処理装置(Central Processing Unit、CPU)であってもよく、他の汎用プロセッサ、デジタル信号プロセッサ(Digital Signal Processor、DSP)、特定用途向け集積回路(Application Specific Integrated Circuit、ASIC)などであってもよい。汎用プロセッサはマイクロプロセッサであってもよく、又は当該プロセッサは任意の一般的なプロセッサなどであってもよい。発明に合わせて開示された方法のステップは、ハードウェアのプロセッサによって実行して完了され、又はプロセッサにおけるハードウェアとソフトウェアモジュールとの組み合わせを用いて実行して完了されるように具現化することができる。
選択可能に、メモリ1201は独立していてもよく、プロセッサ1202と集積化されていてもよい。メモリ1201がプロセッサ1202から独立したデバイスである場合、電子機器1200はバスをさらに含むことができる。当該バスはメモリ1201とプロセッサ1202を接続するために用いられる。当該バスは、業界標準アーキテクチャ(Industry Standard Architecture、ISA)バス、周囲機器相互接続(Peripheral Component Interconnect、PCI)バス、又は拡張業界標準アーキテクチャ(Extended Industry Standard Architecture、EISA)バスなどであってもよい。バスはアドレスバス、データバス、制御バスなどに分けることができる。説明を容易にするために、本願の図面におけるバスはただ1本のバス又は1種類のバスに限定されるものではない。
通信インタフェース1203は各種のデータ及び/又は命令を受信又は送信するために用いられる。
本実施例にて提供される電子機器は上記実施例における方法を実行するために用いることができ、その実現方式及び技術的効果は類似し、本実施例は、ここで、重複する説明を省略する。
また、本実施例は、プロセッサにより実行されて上記実施例のいずれかに記載の方法を実現するコンピュータプログラムを記憶しているコンピュータ可読記憶媒体をさらに提供する。
また、本実施例は、プロセッサにより実行されて上記実施例のいずれかに記載の方法を実現するコンピュータプログラムを含むコンピュータプログラム製品をさらに提供する。
本願の実施例にて提供されるいくつかの実施例では、開示される装置及び方法は、他の方式により実現することができることを理解されたい。例えば、以上説明された装置の実施例は単に例示的なものであり、例えば、前記ユニットの分割は、単に論理機能の分割であり、実際に実現する時に他の分割方式にしてもよく、例えば複数のユニット又はコンポーネントは結合してもよいし、別のシステムに集積化されてもよく、又はいくつかの特徴は無視されてもよいし、実行されなくてもよい。一方、表示又は議論された相互間の結合、直接結合又は通信可能な接続はいくつかのインタフェース、装置又はユニットを介した間接結合又は通信可能な接続であってもよく、電気的、機械的又は他の形態であってもよい。
分離部材として説明された前記ユニットは物理的に分離しても、しなくてもよく、ユニットとして表示された部材は物理的ユニットであってもなくてもよく、すなわち1つの場所に位置してもよく、又は複数のネットワークユニットに分布してもよい。実際のニーズに応じてユニットの一部又は全部を選択して本実施例の解決手段の目的を達成することができる。
また、本願の実施例の各実施例における各機能ユニットは、1つの処理ユニットに集積化されてもよく、各ユニットが単独で物理的に存在してもよく、2つ又は2つ以上のユニットが1つのユニットに集積化されてもよい。上記集積化されたユニットはハードウェアの形態で実現されてもよく、ハードウエアプラスソフトウェア機能ユニットの形態で実現されてもよい。
ソフトウェア機能ユニットの形態で実現される集積化したユニットは1つのコンピュータ可読記憶媒体に記憶することができる。上記ソフトウェア機能ユニットは1つの記憶媒体に記憶され、1台のコンピュータ機器(パーソナルコンピュータ、サーバ、又はネットワーク機器などであってもよい)又はプロセッサ(processor)に本願の実施例の各実施例に記載の方法のステップの一部を実行させるための複数の命令を含む。前述した記憶媒体は、USBフラッシュドライブ、モバイルハードディスク、リードオンリーメモリ(Read-Only Memory、ROM)、ランダムアクセスメモリ(Random Access Memory、RAM)、磁気ディスク又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含む。
当業者であれば明らかに分かるように、説明の利便性及び簡潔性のために、単に上記各機能モジュールの分割を例に挙げて説明し、実際に利用する際に、ニーズに応じて上記機能を異なる機能モジュールに割り当てて完成させることができ、すなわち、装置の内部構造を異なる機能モジュールに分割することで、以上説明した機能の全部又は一部を完成する。上記説明した装置のモジュールの具体的な動作プロセスは、前記方法の実施例における対応するプロセスを参照することができ、ここで重複する説明は省略する。
以上の各実施例は本願の実施例の技術的解決手段を説明するためのものに過ぎず、それを限定するものではなく、前記各実施例を参照して本願の実施例を詳細に説明したが、当業者であれば、依然として前記各実施例に記載の技術的解決手段を修正し、又はその技術的特徴の一部又は全部を同等に置換することができ、これらの修正又は置換は、対応する技術的解決手段の本質を本願の各実施例の技術的解決手段の範囲から逸脱させないことを理解すべきである。
当業者は、明細書を考慮し、ここで開示された発明を実施すると、本願の他の実施形態を容易に想到し得る。本願は本願の任意の変形、用途又は適応的変化をカバーすることを意図しており、これらの変形、用途又は適応的変化は本願の一般的な原理に従い、本願に開示されていない本技術分野における周知の知識又は慣用技術手段を含む。明細書及び実施例は単に例示的なものとして見なされ、本願の真の範囲及び趣旨は特許請求の範囲によって示される。
本願は、以上説明され図面において示された精確な構造に限定されるものではなく、その範囲から逸脱せず、様々な補正及び変化を行うことができることを理解されたいであろう。本願の範囲は、添付の特許請求の範囲のみによって制限される。

Claims (17)

  1. 感知システムによって収集されたその周囲環境に関連する点群を取得するステップと、
    前記点群におけるオブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定するステップと、
    第1のサブセット及び第2のサブセットに基づいて、前記オブジェクトが前記第1のサブセットに関連する第1の部分を含む第1の信頼度、及び前記第2のサブセットに関連する第2の部分を含む第2の信頼度を決定するステップと、
    前記第1の信頼度及び第2の信頼度がいずれも所定の閾値よりも高いことに応答して、オブジェクトの第1の表示、前記第1の部分の第2の表示、及び前記第2の部分の第3の表示を含む前記オブジェクトの階層表示を生成するステップであって、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置するステップと、を含むオブジェクトをモデリングするための方法。
  2. 当該組の点の前記第2のサブセットが含む第3のサブセット及び第4のサブセットを決定するステップと、
    第3のサブセット及び第4のサブセットに基づいて、前記オブジェクトが前記第3のサブセットに関連する第3の部分を含む第3の信頼度、及び前記第4のサブセットに関連する第4の部分を含む第4の信頼度を決定するステップと、
    前記第3の信頼度及び第4の信頼度がいずれも所定の閾値よりも高いことに応答して、前記第3の部分の第4の表示、及び前記第4の部分の第5の表示を生成するステップであって、前記第4の表示及び第5の表示は少なくとも一部が前記第3の表示内に位置するステップと、をさらに含む請求項1に記載の方法。
  3. 前記第1の表示は第1の幾何学的形状を有し、前記第2の表示は第2の幾何学的形状を有し、前記第3の表示は第3の幾何学的形状を有し、前記第4の表示は第4の幾何学的形状を有し、前記第5の表示は第5の幾何学的形状を有する請求項2に記載の方法。
  4. 前記第1の幾何学的形状、前記第2の幾何学的形状、前記第3の幾何学的形状、前記第4の幾何学的形状及び前記第5の幾何学的形状のうち少なくとも1つは矩形である請求項3に記載の方法。
  5. 前記点群における前記オブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定するステップは、
    当該点群に基づいて前記オブジェクトのカテゴリを決定するステップと、
    前記オブジェクトのカテゴリが所定のカテゴリであることに応答して、当該組の点の第1のサブセットと第2のサブセットを決定するステップと、を含む請求項1に記載の方法。
  6. 前記点群における前記オブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定するステップは、
    前記点群に対して特徴検出を行い、前記点群における前記オブジェクトに関連する1組の点を決定するステップと、
    当該組の点に対して特徴検出を行い、前記第1の部分に関連する当該組の点の第1のサブセット、及び前記第2の部分に関連する当該組の点の第2のサブセットを決定するステップと、を含む請求項1に記載の方法。
  7. 前記点群における前記オブジェクトに関連する1組の点及び当該組の点の第1のサブセットと第2のサブセットを決定するステップは、
    前記オブジェクトに関連する画像データに基づいて、前記点群の一部分を決定するステップと、
    前記点群の当該部分に対して特徴検出を行い、前記点群における前記オブジェクトに関連する1組の点、前記第1の部分に関連する当該組の点の第1のサブセット、及び前記第2の部分に関連する当該組の点の第2のサブセットを決定するステップと、を含む請求項1に記載の方法。
  8. 前記第2の表示と第3の表示は前記オブジェクトが第1の状態にある時に第1の位置関係を有し、前記オブジェクトが第2の状態にある時に第2の位置関係を有し、前記第1の位置関係は第2の位置関係と異なる請求項1に記載の方法。
  9. 前記オブジェクトが第1の状態にある時、前記第1の表示は第1のサイズを有するとともに、前記第2の表示及び第3の表示は前記第1の表示内に位置し、前記オブジェクトが第2の状態にある時、前記第1の表示は第2のサイズを有するとともに、前記第2の表示及び第3の表示は前記第1の表示内に位置する請求項8に記載の方法。
  10. 前記オブジェクトはトラックを含み、前記第1の部分は牽引車を含み、前記第2の部分はトレーラを含む請求項1に記載の方法。
  11. 感知システムによって収集されたその周囲環境に関連する点群を取得するステップと、
    周囲環境における第1のオブジェクトに関連する前記点群における第1の組の点、及び周囲環境における第2のオブジェクトに関連する第2の組の点を決定するステップと、
    前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するステップと、
    前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有することに応答して、前記第1のオブジェクト及び第2のオブジェクトの第1の表示、前記第1のオブジェクトの第2の表示、並びに前記第2のオブジェクトの第3表示を生成するステップであって、前記第2の表示及び第3の表示は少なくとも一部が前記第1の表示内に位置するステップと、を含むオブジェクトをモデリングするための方法。
  12. 前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するステップは、
    前記第1の組の点に基づいて前記第1のオブジェクトのカテゴリを判断するステップと、
    前記第2の組の点に基づいて前記第2のオブジェクトのカテゴリを判断するステップと、
    前記第1のオブジェクトのカテゴリ及び前記第2のオブジェクトのカテゴリに基づいて、前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するステップと、を含む請求項11に記載の方法。
  13. 前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するステップは、
    前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトとの位置関係を判断するステップと、
    前記第1のオブジェクトが前記第2のオブジェクトの所定の距離範囲内にあることに応答して、前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有すると判断するステップと、を含む請求項11に記載の方法。
  14. 前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有するか否かを判断するステップは、
    前記第1の組の点及び第2の組の点に基づいて前記第1のオブジェクトと前記第2のオブジェクトとの位置関係及び前記第1のオブジェクトと前記第2のオブジェクトとの速度関係を判断するステップと、
    前記第1のオブジェクトが前記第2のオブジェクトの所定の距離範囲内にあり且つ前記第1のオブジェクトと前記第2のオブジェクトとの速度の差が所定の閾値よりも小さいことに応答して、前記第1のオブジェクトと前記第2のオブジェクトが関連関係を有すると判断するステップと、を含む請求項11に記載の方法。
  15. 請求項1に記載の方法に基づいてオブジェクトの階層表示を生成するステップと、
    少なくとも部分的にオブジェクトの階層表示に基づいて車両が走行する軌跡を生成するステップと、
    車両を生成した軌跡に沿って走行するように制御するステップと、を含む車両を制御するための方法。
  16. プロセッサ及びメモリを含み、前記メモリはプログラム命令を記憶しており、前記プロセッサは前記プログラム命令を実行して、請求項1~15のいずれか一項に記載の方法を実現する電子機器。
  17. プロセッサにより実行される時に、請求項1~15のいずれか一項に記載の方法を実現するためのプログラム命令を記憶しているコンピュータ可読記憶媒体。
JP2023143286A 2022-09-06 2023-09-04 オブジェクトをモデリングするための方法、機器、記憶媒体及び車両制御方法 Pending JP2024037165A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202211083337.4 2022-09-06
CN202211083337.4A CN117710407A (zh) 2022-09-06 2022-09-06 用于为对象建模的方法、设备、存储介质及车辆控制方法

Publications (1)

Publication Number Publication Date
JP2024037165A true JP2024037165A (ja) 2024-03-18

Family

ID=87863542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023143286A Pending JP2024037165A (ja) 2022-09-06 2023-09-04 オブジェクトをモデリングするための方法、機器、記憶媒体及び車両制御方法

Country Status (5)

Country Link
US (1) US20240078749A1 (ja)
EP (1) EP4336466A3 (ja)
JP (1) JP2024037165A (ja)
CN (1) CN117710407A (ja)
AU (1) AU2023226683A1 (ja)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11113873B1 (en) * 2019-09-27 2021-09-07 Zoox, Inc. Modeling articulated objects

Also Published As

Publication number Publication date
EP4336466A2 (en) 2024-03-13
US20240078749A1 (en) 2024-03-07
AU2023226683A1 (en) 2024-03-28
EP4336466A3 (en) 2024-05-29
CN117710407A (zh) 2024-03-15

Similar Documents

Publication Publication Date Title
JP6949238B2 (ja) マルチセンサ検出の融合を用いたロジスティクスグラウンド支援装置において衝突回避を向上させるためのシステム及び方法
US11885910B2 (en) Hybrid-view LIDAR-based object detection
US20200247431A1 (en) Systems and methods for vehicle navigation
US11164369B2 (en) Methods and systems for constructing map data using poisson surface reconstruction
US11670087B2 (en) Training data generating method for image processing, image processing method, and devices thereof
US9495602B2 (en) Image and map-based detection of vehicles at intersections
WO2022104774A1 (zh) 目标检测方法和装置
Manz et al. Monocular model-based 3D vehicle tracking for autonomous vehicles in unstructured environment
JP2023106536A (ja) 画像分析に基づく車両ナビゲーションのためのシステム
CN111178122A (zh) 道路场景中三维车道的检测及平面表示
US11299169B2 (en) Vehicle neural network training
US20230260266A1 (en) Camera-radar data fusion for efficient object detection
US20230341239A1 (en) Systems and methods for road segment mapping
CN110969064A (zh) 一种基于单目视觉的图像检测方法、装置及存储设备
US20220136853A1 (en) Reducing stored parameters for a navigation system
CN114945952A (zh) 使用神经网络从相机图像和已知深度数据生成深度
Agafonov et al. 3D objects detection in an autonomous car driving problem
WO2023158642A1 (en) Camera-radar data fusion for efficient object detection
US20230072966A1 (en) Systems and methods for providing and using confidence estimations for semantic labeling
US20230294687A1 (en) End-to-end processing in automated driving systems
US11915436B1 (en) System for aligning sensor data with maps comprising covariances
JP2024037165A (ja) オブジェクトをモデリングするための方法、機器、記憶媒体及び車両制御方法
Mason et al. The golem group/university of california at los angeles autonomous ground vehicle in the darpa grand challenge
JP2024037166A (ja) オブジェクトをモデリングするための方法、機器、記憶媒体及び車両制御方法
US20230252638A1 (en) Systems and methods for panoptic segmentation of images for autonomous driving