JP7221089B2 - 動的な交通参加者の除去による位置推定と地図生成の安定した同時実行 - Google Patents

動的な交通参加者の除去による位置推定と地図生成の安定した同時実行 Download PDF

Info

Publication number
JP7221089B2
JP7221089B2 JP2019044529A JP2019044529A JP7221089B2 JP 7221089 B2 JP7221089 B2 JP 7221089B2 JP 2019044529 A JP2019044529 A JP 2019044529A JP 2019044529 A JP2019044529 A JP 2019044529A JP 7221089 B2 JP7221089 B2 JP 7221089B2
Authority
JP
Japan
Prior art keywords
point cloud
image
objects
computer
readable medium
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019044529A
Other languages
English (en)
Other versions
JP2019207220A (ja
Inventor
ナレンドラ パティル アビシェーク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2019207220A publication Critical patent/JP2019207220A/ja
Application granted granted Critical
Publication of JP7221089B2 publication Critical patent/JP7221089B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/90Dynamic range modification of images or parts thereof
    • G06T5/94Dynamic range modification of images or parts thereof based on local image properties, e.g. for local contrast enhancement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/187Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Traffic Control Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

本開示は一般に、位置推定と地図生成を同時に行うことに関し、より詳細には、動的な交通参加者の除去を通じて、位置推定と地図生成とを安定して同時に行うことに関する。
認知技術、動作計画技術、制御技術及び/又は新たなセンシング技術により、自律走行車両の発展は著しい。自律ナビゲーションを実現するためには、正確な位置推定(localization)及び地図生成(mapping)が必要とされる。自律走行車両は、位置推定及び地図生成をアシストするために、周囲環境の画像及びポイントクラウド(point clouds)をキャプチャする。自律走行車両は、キャプチャされた画像とポイントクラウドに対して、位置推定と地図生成の同時実行(SLAM)を行い、周囲環境の地図を生成し、動き及び軌跡/オドメトリ(odometry)データを取得する。SLAMは、位置推定及び地図生成を抽出し、関連付け、推定し、及び/又は更新するための1又は複数のオペレーションを含む。多くの場合、画像やポイントクラウドデータには、周囲環境の地図生成や動き・軌跡/オドメトリデータの取得に必要のないオブジェクト(object)を示すデータが含まれている。不要なオブジェクトとしては、自動車、歩行者、自転車、動物等の動的な交通参加者が挙げられる。SLAMオペレーション中にこれらのオブジェクトを含めると、不正確な又は間違った地図生成・位置推定が行われる可能性がある。
上記を考慮すると、動的な交通参加者を特定し、SLAMオペレーションの前にそのような動的な交通参加者を除去することによって自律走行車両の位置推定及び地図生成をより正確に実施する方法が当技術分野において必要とされている。さらなる利点及び新規な特徴は、以下に提供される開示から明らかになるであろう。
以下は、本開示の1つ以上の態様の概要を与えて、そのような態様の基本的な理解をもたらす。この概要は、考慮された態様の全ての外延的な概説ではなく、また、全ての態様の重要な又は重大な要素を特定しようとするものでも或いは任意の又は全ての態様の範囲を描写しようとするものでもない。その唯一の目的は、本開示の1つ以上の態様の幾つかの概念を以下で与えられるより詳細な説明の前置きとして簡略的形態で与えることである。
本発明の一態様において、自律走行車両のための位置推定及び地図生成を行う方法が提供される。該方法は、カメラを介して、第1の位置で得た画像を取得するステップと、前記画像における1又は複数のオブジェクトに対してラベルを付けるステップと、光検出器を介して、前記第1の位置から閾値距離内にある第2の位置で得たポイントクラウドを取得するステップと、前記ポイントクラウドにおける1又は複数のオブジェクトクラスタを決定するステップと、前記画像の前記1又は複数のオブジェクトに対して付けられた前記ラベルと、前記ポイントクラウドの前記オブジェクトクラスタの点とを関連付けるステップと、前記オブジェクトクラスタの前記点に関連付けられた前記ラベルに基づいて、前記ポイントクラウドの3次元(3D)オブジェクトを特定するステップと、を有する。いくつかの例では、前記方法は、特定された前記3次元オブジェクトに基づいて、前記ポイントクラウドから動的な交通参加者を除去するステップと、前記動的な交通参加者を除去した前記ポイントクラウドに対して、位置推定及び地図生成を同時に行うステップと、画素単位で、前記画像に対して、セマンティックセグメンテーションを行うステップと、前記画像の画素の少なくとも一部のラベルを、前記ポイントクラウドの対応する点に関連付けるステップと、前記画像内において前記動的な交通参加者を特定するステップと、及び/又は前記ポイントクラウドの地表面を特定して、前記ポイントクラウドから前記地表面を除去するステップと、を有してもよい。
本発明の他の態様において、自律走行車両のための位置推定及び地図生成を行うシステムが提供される。該システムは、1又は複数の画像をキャプチャするカメラと、1又は複数のポイントクラウドをキャプチャする光検出器と、前記カメラと前記光検出器とに結合され、前記1又は複数の画像及び前記1又は複数のポイントクラウドを記憶するメモリと、前記メモリに結合される1又は複数のプロセッサと、を備える。前記1又は複数のプロセッサは、前記カメラを介して、第1の位置で得た画像を取得し、前記画像における1又は複数のオブジェクトに対してラベルを付け、前記光検出器を介して、前記第1の位置から閾値距離内にある第2の位置で得たポイントクラウドを取得し、前記ポイントクラウドにおける1又は複数のオブジェクトクラスタを決定し、前記画像の前記1又は複数のオブジェクトに対して付けられた前記ラベルと、前記ポイントクラウドの前記オブジェクトクラスタの点とを関連付け、前記オブジェクトクラスタの前記点に関連付けられた前記ラベルに基づいて、前記ポイントクラウドの3次元オブジェクトを特定する。いくつかの実施形態において、前記1又は複数のプロセッサはさらに、特定された前記3次元オブジェクトに基づいて、前記ポイントクラウドから動的な交通参加者を除去し、前記動的な交通参加者を除去した前記ポイントクラウドに対して、位置推定及び地図生成を同時に行い、画素単位で、前記画像に対して、セマンティックセグメンテーションを行い、前記画像の画素の少なくとも一部のラベルを、前記ポイントクラウドの対応する点に関連付け、前記画像内において前記動的な交通参加者を特定し、及び/又は前記ポイントクラウドの地表面を特定し、前記ポイントクラウドから前記地表面を除去する。
他の態様において、自律走行車両のための位置推定及び地図生成を行うコンピュータ実行可能コードを記憶するコンピュータ可読媒体が提供される。該コンピュータ可読媒体は、カメラを介して、第1の位置で得た画像を取得し、前記画像における1又は複数のオブジェクトに対してラベルを付け、光検出器を介して、前記第1の位置から閾値距離内にある第2の位置で得たポイントクラウドを取得し、前記ポイントクラウドにおける1又は複数のオブジェクトクラスタを決定し、前記画像の前記1又は複数のオブジェクトに対して付けられた前記ラベルと、前記ポイントクラウドの前記オブジェクトクラスタの点とを関連付け、前記オブジェクトクラスタの前記点に関連付けられた前記ラベルに基づいて、前記ポイントクラウドの3次元オブジェクトを特定する、ためのコードを備える。いくつかの実施形態において、該コンピュータ可読媒体は、特定された前記3次元オブジェクトに基づいて、前記ポイントクラウドから動的な交通参加者を除去し、前記動的な交通参加者を除去した前記ポイントクラウドに対して、位置推定及び地図生成を同時に行い、画素単位で、前記画像に対して、セマンティックセグメンテーションを行い、前記画像の画素の少なくとも一部のラベルを、前記ポイントクラウドの対応する点に関連付け、前記画像内において前記動的な交通参加者を特定し、及び/又は前記ポイントクラウドの地表面を特定し、前記ポイントクラウドから前記地表面を除去するためのコードを、さらに備える。
前述の目的及び関連する目的を達成するために、本開示の1つ以上の態様は、以下で十分に記載されて特に特許請求の範囲で指し示される特徴を含む。以下の説明及び添付図面は、1つ以上の態様の特定の例示的な特徴を詳しく記載する。しかしながら、これらの特徴は、様々な態様の原理を使用できる様々な方法のうちのほんの数例を示し、また、この説明は、そのような態様及びそれらの同等物の全てを含もうとするものではない。
本明細書中に記載される態様の特徴であると考えられる新規な特徴は、添付の特許請求の範囲に記載される。以下の説明において、同様の部分には、明細書及び図面の全体にわたって同じ数字がそれぞれ付される。図面の図は、必ずしも原寸に比例して描かれておらず、また、明確及び簡潔にするために、特定の図が誇張された又は一般化された形態で示され得る。しかしながら、開示自体、並びに、好ましい使用形態、更なる目的、及び、その進展は、例示的な実施形態の以下の詳細な説明を参照することにより、添付図面と併せて読むと、最も良く理解され得る。
図1は、本発明の実施形態に係る位置推定/地図生成を行うシステムの一例を示す概略図である。 図2は、本発明の実施形態に係る位置推定/地図生成を行う方法の一例を示すフローチャートである。 図3は、本発明の実施形態に係る位置推定/地図生成のためにキャプチャされた画像の一例を示す図である。 図4は、本発明の実施形態に係る、図3の画像から生成されたセマンティック予測画像(semantic predicted image)の一例を示す図である。 図5は、本発明の実施形態に係る位置推定/地図生成のためにキャプチャされたポイントクラウドの一例を示す図である。 図6は、本発明の実施形態に係る、図5のポイントクラウドから生成した、クラスタリングを行い且つ地表面を除去したポイントクラウドの一例を示す図である。 図7は、本発明の実施形態に係る、図5のポイントクラウドから生成した、ラベル化されたポイントクラウドの一例を示す図である。 図8は、本発明の実施形態に係る、図7のラベル化されたポイントクラウドから生成した、動的な交通参加者を除去したポイントクラウドの一例を示す図である。 図9は、本発明の実施形態に係る、使用されるハードウェア構成要素及びその他の特徴を含むシステムの一例を示す図である。 図10は、本発明の実施形態に係る、使用されるシステム構成要素の一例を示すブロック図である。
添付の図面に関連して以下に記載される詳細な説明は、様々な構成の説明として意図されており、本明細書で説明される概念が実施され得る唯一の構成を表すことを意図されていない。詳細な説明は、様々な概念の完全な理解を提供する目的のための特定の項目要素を含む。しかしながら、これらの概念がこれらの具体的な項目要素なしに実施されてもよいことは当業者には明らかであろう。いくつかの事例では、そのような概念を曖昧にすることを避けるために、よく知られている構成要素がブロック図形式で示される。
自律走行車両の位置推定及び地図生成は、画像入力(例えばカメラから)及び光センサ入力(例えば光検出及び距離測定(LIDAR)装置から)等の複数の入力ソースからの入力を使用して行われる。例えば、複数の入力ソースは、入力を同時に分析することができるように、同様の時点、場所等における入力をキャプチャし、及び/又はキャプチャした入力を関連付ける。一例では、車両等の試験装置は、カメラ及びLIDAR装置を備え、車両が経路に沿って移動しながら、画像及びポイントクラウドをキャプチャすることができる。画像及びポイントクラウドは同時に解析されて、ポイントクラウドマップ及び/又は自律走行車両の移動軌跡/オドメトリを生成することができる。例えば、画像及びポイントクラウドを分析して、ポイントクラウドマップ及び/又は自律走行車両の移動軌跡/オドメトリを生成することができる。画像及びポイントクラウドを分析しながら、ポイントクラウド内の自動車、歩行者、自転車、又は動物等の動的な交通参加者の特定及びラベル付けが、画像からのラベルに基づいて、実行される。さらに、動的な交通参加者は、ポイントクラウドから削除され、位置推定と地図生成の同時実行(SLAM)からより正確な結果が得られる。
以下は、本明細書中で使用される選択用語の定義を含む。定義は、用語の範囲に入ると共に実施のために使用され得る構成要素の様々な例及び/又は形態を含む。これらの例は限定しようとするものではない。
本明細書中で使用される「バス」という用語は、単一又は複数のシステム内のコンピュータ構成要素間でデータを転送するために動作可能に接続される相互接続アーキテクチャを指すことができる。バスは、数ある中でもとりわけ、メモリバス、メモリコントローラ、ペリフェラルバス、外部バス、クロスバースイッチ、及び/又は、ローカルバスであってもよい。また、バスは、とりわけ、コントローラ・エリア・ネットワーク(CAN)、ローカル相互接続ネットワーク(LIN)等のプロトコルを使用して車両内の構成要素を相互接続する車両バスであってもよい。
本明細書中で使用される「メモリ」という用語は、揮発性メモリ及び/又は不揮発性メモリを含むことができる。不揮発性メモリとしては、例えば、リードオンリーメモリ(ROM)、プログラマブルリードオンリーメモリ(PROM)、消去可能PROM(EPROM)、及び、電気的消去可能PROM(EEPROM)を挙げることができる。揮発性メモリとしては、例えば、ランダムアクセスメモリ(RAM)、同期RAM(SRAM)、ダイナミックRAM(DRAM)、同期DRAM(SDRAM)、ダブルデータレートSDRAM(DDR SDRAM)、及び、ダイレクトRAMバスRAM(DRRAM)を挙げることができる。
本明細書中で使用される「動作可能接続」という用語は、それによって実在物(entity)が「動作可能に接続される」接続を含むことができ、信号、物理的通信、及び/又は、論理的通信を送る及び/又は受けることができるものである。動作可能接続としては、物理インターフェース、データインターフェース、及び/又は、電気インターフェースを挙げることができる。
本明細書中で使用される「プロセッサ」という用語は、信号を処理して一般的なコンピューティング機能及び演算機能を果たすデバイスを指すことができる。プロセッサにより処理される信号としては、デジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は、受信され、送信され、及び/又は、検出され得る他のコンピューティングを挙げることができる。プロセッサとしては、例えば、マイクロプロセッサ、マイクロコントローラ、デジタル信号プロセッサ(DSP)、フィールド・プログラマブル・ゲート・アレイ(FPGA)、プログラマブル論理デバイス(PLD)、状態機械、ゲーテッドロジック、ディスクリートハードウェア回路、システムオンチップ(SoC)及び、本明細書中に記載される様々な機能を果たすように構成される他の適したハードウェアを挙げることができる。
システムのいくつかの態様が、種々の装置及び方法を参照して提示される。これらの装置及び方法は、以下の詳細な説明で説明され、様々なブロック、モジュール、構成要素、回路、ステップ、プロセス、アルゴリズム等(まとめて「要素」と呼ばれる)によって添付の図面に示される。これらの要素は、電子ハードウェア、コンピュータソフトウェア、又はそれらの任意の組み合わせを使用して実装することができる。そのような要素がハードウェア又はソフトウェアとして実装されるかどうかは、特定の用途及びシステム全体に課される設計上の制約に依存する。
例として、要素、要素の任意の部分、又は要素の任意の組み合わせは、1又は複数のプロセッサを含む「処理システム」を用いて実装することができる。処理システム内の1又は複数のプロセッサがソフトウェアを実行することができる。ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語等と呼ばれるかどうかとは関係なく、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行のスレッド、手順、機能等を意味するように広く解釈される。
従って、1つ又は複数の態様では、説明した機能は、ハードウェア、ソフトウェア、ファームウェア、又はそれらの任意の組合せで実装することができる。ソフトウェアで実施される場合、これらの機能は、コンピュータ可読媒体上の1又は複数の命令又はコード上に格納されるか、又はコード化される。コンピュータ可読媒体は、コンピュータ記憶媒体を含む。記憶媒体は、コンピュータによってアクセスすることができる任意の利用可能な媒体とすることができる。限定はされないが、例として、そのようなコンピュータ可読媒体は、RAM、ROM、EEPROM、CD-ROM又は他の光ディスク記憶装置、磁気ディスク記憶装置又は他の磁気記憶装置、又は所望のプログラムコードを命令又はデータ構造の形で保持又は記憶するために使用することが可能であり、コンピュータによってアクセスすることができる任意の他の媒体を含む。
図1は、本明細書に記載の実施形態による、自律走行車両の位置推定及び地図生成のためのシステム100の一例の概略図を示す。システム100の構成要素、並びに本明細書で説明される他のシステムの構成要素、ハードウェアアーキテクチャ及びソフトウェアアーキテクチャは、本開示の様々な態様のために、組み合わせる、省略する、又は編成することによって、異なるアーキテクチャを構成することができる。しかしながら、本明細書で説明される例示的な態様及び構成は、対応するシステム構成要素及び関連する方法と共に、図1に示されるようなシステム100に焦点を合わせる。
図1に示されるように、システム100は、本明細書で説明される特定の動作を実行するために通信する1又は複数のプロセッサ102及び1又は複数のメモリ104を含むか又はそれらと動作可能に結合される(或いは該プロセッサ及び該メモリによって実行される)。例えば、1又は複数のプロセッサ102及び/又は1又は複数のメモリ104は、3次元(3D)ポイントクラウドマップ及び自律走行車両運動軌跡/オドメトリ等の位置推定/地図生成情報を生成するための位置推定・地図生成部106、1又は複数の画像を(例えばカメラ110から)受信するための画像部108、(例えば、LIDAR114装置から)1又は複数のポイントクラウドを受信するためのポイントクラウド部112、及び/又は、システム100の位置に関連する(例えば、及び/又は画像及び/又はポイントクラウド入力に対応する)1又は複数のパラメータを受け取るための位置推定部116、を実現するために、命令パラメータ等を実行及び/又は記憶する。プロセッサ102、メモリ104、上記機能部106、108、112、116等の様々なものは、バス118を介して動作可能に結合される。他の例では、プロセッサ102は、本明細書に記載の機能を実行するために様々な機能部106、108、112、116のうちの1又は複数を実行することができ、バス118を介して、メモリ104及び/又は他の構成要素に動作可能に結合される。
一例では、位置推定・地図生成部106は、画像入力及びポイントクラウド入力に基づいてポイントクラウド内のオブジェクトを検出するための3D検出部120、ポイントクラウドから動的な交通参加者を除去するための動的交通参加者除去部122、及び/又は動的な交通参加者が除去された状態のポイントクラウドに対して、SLAMオペレーションを実行するためのSLAM部124、を含む。
一態様では、システム100は、その全部又は一部が、経路を走行する車両内で使用される。他の例では、システム100は、車両と1又は複数の遠隔装置との間に分散されてもよい(例えば、カメラ110又はLIDAR114は、車両上に配置し、一方、位置推定・地図生成部106等の1又は複数の機能部は、1又は複数の遠隔配置されたコンピュータに分散配置されてもよい)。これに関して、例えば、カメラ110、LIDAR114等からの入力の処理は、車両で行ってもよいし、或いは、位置推定及び地図生成を実行する遠隔配置された装置で行ってもよい。一態様では、いずれの場合も、位置推定・地図生成部106は、表示及び/又はさらなる処理のために、3Dポイントクラウドマップ及び/又は自律走行車両の軌跡/オドメトリ等の位置推定・地図生成情報を、ネットワーク140を介して、1又は複数の他の装置に提供することができる。
ここで、図1で例示されるシステム100と併せて図2を参照して、位置推定及び地図生成のための例示的方法200が説明される。一態様では、方法200は、システム100の1又は複数のプロセッサ102及び/又はメモリ104によって実行することができ、これらは、上述のように、車両に配置されるか、又は、種々の場所に分散配置される。これに関して、1又は複数のブロックは、位置推定・地図生成情報を生成するために、車両において又は離れた場所において(例えば、全体が又は一部が)実行される。
ブロック202において、本方法は、画像を取得することを含む。一態様では、画像部108が、カメラ(例えばカメラ110)を介して画像を取得する。例えば、カメラ110は、経路に沿って移動する車両に配置されてもよく、周期的に画像をキャプチャするように及び/又は毎秒一定フレーム数(FPS)でビデオをキャプチャするように構成される。カメラ110は、画像/ビデオをローカルに及び/又はメモリ104に保存し、及び/又は画像/ビデオを遠隔装置に提供することができ、そこから画像部108は、画像を受け取ることができる。さらに、例えば、位置推定部116は、画像に関連する位置を決定する。この決定は、画像がカメラ110で撮影された時点で又はその時点近傍で、該カメラ110を有する車両の全地球測位システム(GPS)座標を取得することを含む。一態様では、位置推定部116は、画像を処理する際に該画像に対して位置を決定することができるように、(例えば、画像メタデータ又はリレーショナルストレージ(relational storage)で)GPS座標を画像に関連付ける。
ブロック204において、本方法200は、画像に対してセマンティックセグメンテーション(semantic segmentation)を実行することを含む。一態様では、位置推定・地図生成部106が、画像に対してセマンティックセグメンテーションを実行する。例えば、3D検出部120は、拡張された畳み込み(dilated convolutional)セマンティックセグメンテーションニューラルネットワークを画像に適用して、画素の少なくとも一部を1又は複数のセマンティックな予測と関連付けることによって、画像に対して、セマンティックセグメンテーションを実行する。一態様では、3D検出部120が、拡張された畳み込みセマンティックセグメンテーションニューラルネットワークを適用する。物体(オブジェクト)認識は、シーンのより正確な視覚的表現に基づいた(例えば、ポイントクラウドドメインとは対照的に)画像ドメインにおいて、より正確になる。従って、3D検出部120は、拡張された畳み込みセマンティックセグメンテーションニューラルネットワークを画像に適用して、密な画素単位のセマンティックカテゴリ予測を出力することができる。例えば、セマンティックセグメンテーションを適用することからの出力は、画素に対する色値を、セマンティックセグメンテーションにおけるオブジェクト定義に基づいて検出オブジェクトに対応させて色値で置き換えた画像と、類似の形状及び輪郭を有するように見える。従って、例えば、画素の一群に対応するセマンティックカテゴリは、画素色値に基づいて決定され、オブジェクトの特定のサイズパラメータ(sizing parameters)は、与えられた方向における画素色値に対応するいくつかの隣接画素に基づいて決定又は推測される。セマンティックセグメンテーションによって、セマンティックカテゴリに従ってラベル付けされた画素を有する画像が生成される。
一態様では、セマンティックカテゴリは、特に、道路、空、歩道、植物、人、車両、及び建物を含む。一例では、3D検出部120が、セマンティックカテゴリを決定するが、セマンティックセグメンテーションにおける情報の不正確さによって、エッジ画素がオブジェクトの一部かどうかが不確かとなるため、画像におけるオブジェクトの境界部分では正確でない場合がある。さらに、例えば、セマンティックセグメンテーションを適用することは、インスタンス特有(instance specific)ではないセマンティックカテゴリ化をもたらす(例えば、同じセマンティックカテゴリを有する複数のオブジェクトは、同じ画素値に関連付けられる)。
ブロック206において、本方法200は、ポイントクラウドを取得することを含む。一態様では、ポイントクラウド部112は、光検出器(例えば、LIDAR114)を介して、ポイントクラウドを取得する。例えば、LIDAR114は、経路に沿って移動する車両に配置されてもよく、経路に沿った領域のポイントクラウド走査を周期的にキャプチャするように構成されてもよい。LIDAR114は、ポイントクラウドをローカルに及び/又はメモリ104に保存することができ、及び/又はポイントクラウドを遠隔装置に提供することができ、そこからポイントクラウド部112がポイントクラウドを受け取ることができる。また、例えば、位置推定部116は、ポイントクラウドに関連する位置を決定する。この決定は、ポイントクラウドの少なくとも一部がLIDAR114でキャプチャされた時点で又はその時点近傍で、該LIDAR114を有する車両の全地球測位システム(GPS)座標を取得することを含む。一例では、位置推定部116は、位置推定・地図生成のためにポイントクラウドを処理する際に該ポイントクラウドに対して位置を決定することができるように、(例えば、ポイントクラウドメタデータ又はリレーショナルストレージで)GPS座標をポイントクラウドに関連付ける。
一態様では、位置推定部116は、類似の時点でキャプチャされた画像及びポイントクラウドを互いに及び/又は対応する位置に関連付ける。さらに、本明細書でさらに説明されるように、位置推定・地図生成部106は、画像及びポイントクラウドの入力を取得し、これら入力は、特に、画像及びポイントクラウドのキャプチャが行われた関連する時点に基づいて、及び関連する位置に基づいて同期されてもよい。
ブロック208において、本方法200は、ポイントクラウド内の複数のオブジェクトクラスタを決定することを含む。例えば、3D検出部120は、ポイントクラウドをより小さな部分に組織化し、ポイントクラウドの異なる部分を分類することによって、オブジェクトクラスタを決定する。一態様では、3D検出部120は、例えば、径方向有界最短距離(radially bounded nearest neighbor)(RBNN)クラスタ法、ユークリッドセンス法(Euclidean sense method)、又は領域拡張セグメンテーション法(region growing segmentation method)を使用することによってクラスタリングを実行することができる。
ブロック210において、本方法200は、ポイントクラウドから地表面を除去することを含む。一態様では、3D検出部120は、クラスタ化されて地表面として特定された点を除去することによって地表面を除去することができる。例えば、3D検出部120は、地表面を、ポイントクラウド内の最大の平面構成要素であると決定する。さらに、オブジェクトクラスタリング部120は、大きな平面(例えば、閾値ポイントサイズよりも大きい平面)がなくなるまで、平面インライア(plane inlier)であると判定されたポイントクラウド内の点を除去、無視、又はそうでなければ回避する。例えば、3D検出部120は、RANSAC(random sample consensus)を使用して、閾値ポイントサイズを達成する平面インライアを決定することによって、平面インライアを除去、無視、又は回避することができる。
ブロック212において、本方法は、画像からポイントクラウドへラベルを転送することを含む。一態様では、3D検出部120は、セマンティックセグメンテーションを実行した後の画像と、オブジェクトをクラスタ化して地表面を除去した後のポイントクラウドとを受け取る。一態様では、3D検出部120は、少なくとも画素の一部に対応する点の少なくとも一部を、関連付けられた1又は複数のセマンティック予測(semantic prediction)と関連付ける。画素と点との関連付けに基づいて、3D検出部120は、画像の画素からポイントクラウドの関連する点にラベルを転送する。
ブロック214において、本方法200は、ポイントクラウドから動的な交通参加者を除去することを含む。一態様では、動的交通参加者除去部122は、ラベル付けされたポイントクラウドを受け取り、そのラベルに基づいて、動的な交通参加者をポイントクラウドから除去することができる。例えば、動的交通参加者除去部122は、人、車両、又動的な交通参加者と見なされる別のオブジェクトとしてラベル付けされたポイントを除去する。
ブロック216において、本方法200は、SLAMオペレーションを実行することを含む。一態様では、SLAM部124は、動的な交通参加者が除去されたポイントクラウドを受け取り、動的な交通参加者が除去されたポイントクラウドに対してSLAMオペレーションを実行する。一例では、SLAM部124は、正規分布変換(NDT)、反復最近接ポイント(Iterative Closest Point)(ICP)、確率的反復対応(Probabilistic Iterative Correspondence)(pIC)、条件付き確率場(CRF)、局所幾何学的特徴登録(Local Geometric Features registration)、及び分枝限定法等の1又は複数のSLAMアルゴリズムを使用して、SLAMオペレーションを実行する。
ブロック218において、本方法200は、実行されたSLAMアルゴリズムに基づいて、位置推定及び地図生成を出力する。一態様では、SLAM部124は、SLAMアルゴリズムに基づいて、3Dポイントクラウドマップデータ及び/又は自律走行車両の移動軌跡/オドメトリデータを出力する。
一例では、位置推定・地図生成部106は、ネットワーク140を介して、3Dポイントクラウドマップデータ及び/又は自律走行車両運動軌跡/オドメトリデータを1又は複数の他の装置に提供する。例えば、位置推定・地図生成部106は、ネットワーク140を介して、3Dポイントクラウドマップデータ及び/又は自律走行車両の移動軌跡/オドメトリデータをアップロードし、他の車両、パーソナルデバイス(例えば、携帯電話、タブレット等)は、ナビゲーションシステムのディスプレイに表示するため、3D地図生成及び/又は自律走行車両の移動軌跡/オドメトリデータ等を増強又は更新するために、3次元ポイントクラウドマップデータ及び/又は自律走行車両の走行軌跡/オドメトリデータをダウンロードする。
図3~図8は、上述の態様に係る、画像及び/又はスキャンの例を示している。図3は、カメラ110によってキャプチャされた画像300の一例を示しており、カメラ110は、経路を走行する車両302に取り付けられている。画像300は、経路に沿ってカメラ110によってキャプチャされたシーンを示し、シーンは、上述のように、場所(例えば、画像300がキャプチャされたときの車両302の場所)に関連付けられている。画像300は、通り304と、通り304に沿った様々な建物306と、通り304を又は近くを歩いている複数の人々308、310、312と、駐車している及び/又は通り304に沿って移動している複数の車両314、316、318とを含む。この画像300は、位置推定・地図生成部106に提供される画像の一例である。図4は、画像300から生成されたセマンティック予測画像400の一例を示している。例えば、3D検出部120は、画像300内の通り304を検出し、通り304として特定された画素の画素値を1つの色となるように修正して、セマンティック予測画像400内の通り404を生成する。同様に、3D検出部120は、画像300内の建物306を検出し、建物306として特定された画素の画素値を1つの色となるように修正し、セマンティック予測画像400内の建物406を生成する。さらに、3D検出部120は、画像300内の人308、310、312を検出し、人308、310、312として特定された画素の画素値を1つの色となるように修正して、セマンティック予測画像内に人408を生成する。さらに、例えば、3D検出部120は、画像300内の車両314、316、318を検出し、車両として特定された画素の画素値を1つの色となるように修正し、セマンティック予測画像内の車両410を生成する。説明したように、同じセマンティッククラス(例えば、車両)で特定されたオブジェクトは、同じ色となるように修正されるので、同じラベルを含むことになる。
図5は、LIDAR114から得られたポイントクラウド500の一例を示す。LIDAR114もまた、経路を移動する車両502に搭載されている。ポイントクラウド500は、経路に沿ってLIDAR114によってキャプチャされたLIDARスキャンを示しており、画像300及びポイントクラウド500がキャプチャされた時間、ポイントクラウド500がキャプチャされたときの車両の位置等に基づいて、ポイントクラウド50もまた画像300の位置に関連付けられる。ポイントクラウド500は、(画像300内の通り304である)通り504、(画像300内の建物306である)1又は複数の建物506、(画像300内の複数の人308~312である)複数の人508、510、512、及び(画像300内の1又は複数の車両314~318である)複数の車両514、516、518、を定義する複数の点を含む。ポイントクラウド500はまた、位置推定・地図生成部106に提供される。
図6は、オブジェクトクラスタリングが行われ、地表面が除去されたポイントクラウド600の一例を示す。一態様では、3D検出部120は、上記の1又は複数の方法に基づいて、オブジェクトクラスタを決定する。例えば、3D検出部120は、通り504(図6には示されていない)、(ポイントクラウド500の建物506である)建物606、(ポイントクラウド500の複数の人508~512である)人608、610、612、及び(ポイントクラウド500の複数の車両514~518である)車両614、616、618をクラスタ化する。3D検出部120は、例えば、地表面はポイントクラウド600内の最大の平面構成要素であると判断することによって、ポイントクラウド600から地表面を除去することができる。
図7は、ラベリングされた画像400から、クラスタリングが実行されて地表面が除去されたポイントクラウド600にラベルが転送されたポイントクラウド700の一例を示す。一態様では、3D検出部120は、画像300のラベルをポイントクラウド600の点と関連付け、そのラベルに基づいて動的な交通参加者を決定する。図7に示すように、(ポイントクラウド500の人508~512である)ポイントクラウド600の人608~612は、人としてラベル付けされ、(ポイントクラウド500の車両514~518である)車両614~618も同様であり、従って、動的な交通参加者702であると決定される。しかしながら、ポイントクラウド700の(ポイントクラウド500の建物506である)建物706は、動的な交通参加者であると決定された建物としてラベル付けされている。
図8は、動的な交通参加者が除去されたポイントクラウド800の一例を示す。一態様では、動的交通参加者除去部122は、ラベル付けされたポイントクラウドに基づいて、動的な交通参加者を除去することができる。一例では、動的な交通参加者は、人508~512及び車両514~518を含む。図5と比較して、動的な交通参加者がポイントクラウド800から取り除かれているので、図8は、人508~512及び車両514~518を含まない。しかしながら、図8に示されるように、(ポイントクラウド500の建物506である)建物808はポイントクラウド800内に残る。動的な交通参加者が取り除かれると、SLAM部は、動的な交通参加者が除去されたポイントクラウド800からのデータを使用して、上述のようにSLAMオペレーションを実行することができる。
本開示の実施形態は、ハードウェア、ソフトウェア、又はそれらの組み合わせを使用して実行することができ、1つ又は複数のコンピュータシステム又は他の処理システムで実行することができる。一変形例では、本開示の実施形態は、本明細書に記載の機能を実行することができる1つ又は複数のコンピュータシステム向けになっている。そのようなコンピュータシステム900の一例を図9に示す。
コンピュータシステム900は、1つ又は複数のプロセッサ(例えば、プロセッサ904)を含む。プロセッサ904は、通信インフラストラクチャ906(例えば、通信バス、クロスオーバーバー、又はネットワーク)に接続される。この例示的なコンピュータシステムの観点から、様々なソフトウェアの態様が説明される。この説明を読めば、他のコンピュータシステム及び/又はアーキテクチャを使用して本開示の実施形態を実行する方法は、当業者には明らかになるであろう。
コンピュータシステム900は、ディスプレイユニット930上に表示するために、通信インフラストラクチャ906(又は、図示されていないフレームバッファ)からグラフィックス、テキスト、及び他のデータを転送するディスプレイインターフェース902を含む。コンピュータシステム900はまた、主メモリ908、好ましくはランダムアクセスメモリ(RAM)を含み、また、2次メモリ910を含んでもよい。2次メモリ910は、例えば、ハードディスクドライブ912及び/又はリムーバブル記憶ドライブ914(フロッピーディスクドライブ、磁気テープドライブ、光ディスクドライブ等)を含む。リムーバブル記憶ドライブ914は、周知の方法で、リムーバブル記憶ユニット918から読み取り、及び/又はリムーバブル記憶ユニット918に書き込む。リムーバブル記憶ユニット918は、フロッピーディスク、磁気テープ、光ディスク等であり、リムーバブル記憶ドライブ914によって読み出され、またリムーバブル記憶ドライブ914に書き込まれる。理解されるように、リムーバブル記憶ユニット918は、コンピュータソフトウェア及び/又はデータを記憶したコンピュータ使用可能記憶媒体を含む。
他の態様では、2次メモリ910は、コンピュータプログラム又は他の命令がコンピュータシステム900にロードされることを可能にするための他の同様のデバイスを含むことができる。そのようなデバイスは、例えば、リムーバブル記憶ユニット922及びインターフェース920を含むことができる。そのような例には、プログラムカートリッジ及びカートリッジインターフェース(ビデオゲーム装置に見られるもの等)、リムーバブルメモリチップ(消去可能なプログラム可能読み取り専用メモリ(EPROM)、又はプログラム可能読み取り専用メモリ(PROM)等)、対応するソケット、及び他のリムーバブル記憶ユニット922及び、リムーバブル記憶ユニット922からコンピュータシステム900にソフトウェア及びデータを転送することを可能にするインターフェース920を含む。
コンピュータシステム900はまた、通信インターフェース924を含んでもよい。通信インターフェース924は、ソフトウェア及びデータがコンピュータシステム900と外部装置との間で転送されることを可能にする。通信インターフェース924の例には、モデム、ネットワークインターフェース(イーサネットカード等)、通信ポート、パーソナルコンピュータメモリカード国際協会(PCMCIA)スロット及びカード等が含まれる。通信インターフェース924を介して転送されるソフトウェア及びデータは、通信インターフェース924によって受信可能な電子信号、電磁信号、光学信号又は他の信号等の信号928の形態をとる。これらの信号928は、通信パス(例えば、チャネル)926を介して通信インターフェース924に供給される。このパス926は、信号928を搬送し、ワイヤ又はケーブル、光ファイバ、電話回線、セルラーリンク、無線周波数(RF)リンク及び/又は他の通信チャネルを使用して実行される。この明細書では、「コンピュータプログラム媒体」及び「コンピュータ使用可能媒体」という用語は、リムーバブル記憶ドライブ980やハードディスクドライブ970にインストールされたハードディスクや信号928等のメディアを総称するために使用される。これらのコンピュータプログラム製品は、コンピュータシステム900にソフトウェアを提供する。本発明の実施形態は、そのようなコンピュータプログラム製品を対象にしている。
コンピュータプログラム(コンピュータ制御論理とも呼ばれる)は、主メモリ908及び/又は2次メモリ910に格納される。コンピュータプログラムは、通信インターフェース924を介して受信することもできる。このようなコンピュータプログラムが実行されると、コンピュータシステム900は、本明細書で説明されるように、本発明の実施形態に係る様々な特徴を実行する。特に、コンピュータプログラムは、実行されると、プロセッサ904にそのような特徴を実行させる。従って、そのようなコンピュータプログラムは、コンピュータシステム900のコントローラに対応する。コンピュータプログラムは、本明細書で記載されたように、位置推定・地図生成部106、1又は複数のカメラ110から画像を受け取るための画像部108、ポイントクラウドを受け取るためのポイントクラウド部112、プロセッサ904に関連する1又は複数のエンティティ(entitiy)の位置を決定するための位置推定部116等を含む。
本発明の実施形態がソフトウェアを使用して実施される変形形態では、ソフトウェアは、コンピュータプログラム製品に格納され、リムーバブル記憶ドライブ914、ハードドライブ912、又は通信インターフェース920を使用して、コンピュータシステム900にロードされる。制御ロジック(ソフトウェア)は、プロセッサ904によって実行されると、プロセッサ904に、本明細書に記載される本発明の実施形態に係る機能を実行させる。他の変形形態では、例えば、特定用途向け集積回路(ASIC)等のハードウェア構成要素を使用して、主にハードウェアで実施される。本明細書で説明された機能を実行するためのハードウェア状態機械の実施は、当業者には明らかであろう。
さらに他の変形例では、ハードウェアとソフトウェアの両方の組み合わせを使用して実施される。
図10は、本発明の実施形態に従って使用され得る様々な例示的なシステム構成要素のブロック図である。例えば、様々な構成要素が車両102内に存在してもよく、又は構成要素のうちのいくつかのみが車両102内にある一方、他の構成要素は車両102から離れていてもよい。システム1000は、1つ又は複数のアクセスする人1060、1062(本明細書では1つ又は複数の「ユーザ」とも呼ぶ)と、1つ又は複数の端末1042、1066(このような端末は、例えば、オブジェクト検出システム110の様々な特徴であってもよいし或いは含んでもよい)とを含む。一実施形態では、本発明の実施形態に従って使用するためのデータは、ネットワーク1044(例えば、インターネット又はイントラネット等)及び結合装置1045、1046、1064を介して、プロセッサ及びデータ保存場所及び/又はデータ保存場所への接続を有するサーバ1043(例えば、PC、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、又は他のデバイス等)に結合された端末1042、1066(例えば、パーソナルコンピュータ(PC)、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、電話装置、パーソナルデジタルアシスタント(「PDA」)やハンドヘルド無線デバイス等の無線デバイス等)を介して、アクセスする人1060、1062によって、例えば、入力及び/又はアクセスされる。結合装置1045、1046、1064としては、例えば、有線、無線、又は光ファイバのリンク等が挙げられる。他の変形例では、本発明の実施形態による方法及びシステムは、単一の端末のようなスタンドアロン環境で動作する。
本明細書で説明される態様は、コンピュータ実行可能命令を格納するコンピュータ可読記憶媒体との関連において、説明され実施されてもよい。コンピュータ可読記憶媒体は、コンピュータ記憶媒体及び通信媒体を含む。例えば、フラッシュメモリドライブ、デジタル多用途ディスク(DVD)、コンパクトディスク(CD)、フロッピーディスク、テープカセット等である。コンピュータ可読記憶媒体としては、コンピュータ可読命令、データ構造、モジュール又は他のデータのような情報を記憶するための任意の方法又は技術で実施される揮発性及び不揮発性、取り外し可能な媒体及び取り外し不可能な媒体が挙げられる。
上記に開示された特徴及び機能、及び他の特徴及び機能、又はその代替形態又は変形形態の様々な実施形態を望ましいように組み合わせて、多くの他の異なるシステム又はアプリケーションとして構成してもよいことは理解されよう。 また、以下の請求項に包含されることが意図されるが、現在は予測されていない、又は予想されていない種々の代替、変形、変更、又は改良は、当業者であれば、引き続き行うことができる。

Claims (20)

  1. 自律走行車両のための位置推定及び地図生成を行う方法であって、該方法は、
    カメラを介して、第1の位置で得た画像を取得するステップと、
    前記画像における1又は複数のオブジェクトに対してラベルを付けるステップと、
    光検出器を介して、前記第1の位置から閾値距離内にある第2の位置で得たポイントクラウドを取得するステップと、
    前記ポイントクラウドにおける1又は複数のオブジェクトクラスタを決定するステップと、
    前記画像の前記1又は複数のオブジェクトに対して付けられた前記ラベルと、前記ポイントクラウドの前記オブジェクトクラスタの点とを関連付けるステップと、
    前記オブジェクトクラスタの前記点に関連付けられた前記ラベルに基づいて、前記ポイントクラウドの3次元(3D)オブジェクトを特定するステップと、
    を有する
    自律走行車両のための位置推定及び地図生成を行う方法。
  2. 請求項1記載の方法において、前記方法は、特定された前記3次元オブジェクトに基づいて、前記ポイントクラウドから動的な交通参加者を除去するステップをさらに有する、
    方法。
  3. 請求項2記載の方法において、前記方法は、前記ポイントクラウドから前記動的な交通参加者を除去した後に、前記ポイントクラウドに対して、位置推定及び地図生成を同時に行うステップをさらに有する、
    方法。
  4. 請求項1記載の方法において、前記画像における前記1又は複数のオブジェクトに対してラベルを付ける前記ステップは、画素単位で、前記画像に対して、セマンティックセグメンテーションを行うステップを有する、
    方法。
  5. 請求項4記載の方法において、前記ラベルと、前記ポイントクラウドの前記オブジェクトクラスタの点とを関連付ける前記ステップは、前記画像の画素の少なくとも一部のラベルを、前記ポイントクラウドの対応する点に関連付けるステップを有する、
    方法。
  6. 請求項1記載の方法において、前記画像における前記1又は複数のオブジェクトに対してラベルを付ける前記ステップは、前記画像内において動的な交通参加者を特定するステップを有する、
    方法。
  7. 請求項1記載の方法において、前記ポイントクラウドにおける前記1又は複数のオブジェクトクラスタを決定する前記ステップは、前記ポイントクラウドの地表面を特定して、前記ポイントクラウドから前記地表面を除去するステップを有する、
    方法。
  8. 1又は複数の画像をキャプチャするカメラと、
    1又は複数のポイントクラウドをキャプチャする光検出器と、
    前記カメラと前記光検出器とに結合され、前記1又は複数の画像及び前記1又は複数のポイントクラウドを記憶するメモリと、
    前記メモリに結合される1又は複数のプロセッサと、
    を備えた自律走行車両のための位置推定及び地図生成を行うシステムであって、
    前記1又は複数のプロセッサは、
    前記カメラを介して、第1の位置で得た画像を取得し、
    前記画像における1又は複数のオブジェクトに対してラベルを付け、
    前記光検出器を介して、前記第1の位置から閾値距離内にある第2の位置で得たポイントクラウドを取得し、
    前記ポイントクラウドにおける1又は複数のオブジェクトクラスタを決定し、
    前記画像の前記1又は複数のオブジェクトに対して付けられた前記ラベルと、前記ポイントクラウドの前記オブジェクトクラスタの点とを関連付け、
    前記オブジェクトクラスタの前記点に関連付けられた前記ラベルに基づいて、前記ポイントクラウドの3次元(3D)オブジェクトを特定する、
    システム。
  9. 請求項8記載のシステムにおいて、前記1又は複数のプロセッサはさらに、特定された前記3次元オブジェクトに基づいて、前記ポイントクラウドから動的な交通参加者を除去する、
    システム。
  10. 請求項9記載のシステムにおいて、前記1又は複数のプロセッサはさらに、前記ポイントクラウドから前記動的な交通参加者を除去した後に、前記ポイントクラウドに対して、位置推定及び地図生成を同時に行う、
    システム。
  11. 請求項8記載のシステムにおいて、前記1又は複数のプロセッサはさらに、画素単位で、前記画像に対して、セマンティックセグメンテーションを行う、
    システム。
  12. 請求項11記載のシステムにおいて、前記1又は複数のプロセッサはさらに、前記画像の画素の少なくとも一部のラベルを、前記ポイントクラウドの対応する点に関連付ける、
    システム。
  13. 請求項8記載のシステムにおいて、前記1又は複数のプロセッサはさらに、前記画像内において動的な交通参加者を特定する、
    システム。
  14. 請求項8記載のシステムにおいて、前記1又は複数のプロセッサはさらに、
    前記ポイントクラウドの地表面を特定し、
    前記ポイントクラウドから前記地表面を除去する、
    システム。
  15. 自律走行車両のための位置推定及び地図生成を行うコンピュータ実行可能コードを記憶するコンピュータ可読媒体であって、該コンピュータ可読媒体は、
    カメラを介して、第1の位置で得た画像を取得し、
    前記画像における1又は複数のオブジェクトに対してラベルを付け、
    光検出器を介して、前記第1の位置から閾値距離内にある第2の位置で得たポイントクラウドを取得し、
    前記ポイントクラウドにおける1又は複数のオブジェクトクラスタを決定し、
    前記画像の前記1又は複数のオブジェクトに対して付けられた前記ラベルと、前記ポイントクラウドの前記オブジェクトクラスタの点とを関連付け、
    前記オブジェクトクラスタの前記点に関連付けられた前記ラベルに基づいて、前記ポイントクラウドの3次元(3D)オブジェクトを特定する、
    ためのコードを備える、
    コンピュータ可読媒体。
  16. 請求項15記載のコンピュータ可読媒体において、該コンピュータ可読媒体は、特定された前記3次元オブジェクトに基づいて、前記ポイントクラウドから動的な交通参加者を除去するためのコードを、さらに備える、
    コンピュータ可読媒体。
  17. 請求項16記載のコンピュータ可読媒体において、該コンピュータ可読媒体は、前記ポイントクラウドから前記動的な交通参加者を除去した後に、前記ポイントクラウドに対して、位置推定及び地図生成を同時に行うためのコードを、さらに備える、
    コンピュータ可読媒体。
  18. 請求項15記載のコンピュータ可読媒体において、前記画像における前記1又は複数のオブジェクトに対してラベルを付けるための前記コードは、画素単位で、前記画像に対して、セマンティックセグメンテーションを行うためのコードを含む、
    コンピュータ可読媒体。
  19. 請求項18記載のコンピュータ可読媒体において、前記ラベルと、前記ポイントクラウドの前記オブジェクトクラスタの点とを関連付けるための前記コードは、前記画像の画素の少なくとも一部のラベルを、前記ポイントクラウドの対応する点に関連付けるためのコードを含む、
    コンピュータ可読媒体。
  20. 請求項15記載のコンピュータ可読媒体において、前記画像における前記1又は複数のオブジェクトに対してラベルを付けるための前記コードは、前記画像内において動的な交通参加者を特定するためのコードを含む
    コンピュータ可読媒体。
JP2019044529A 2018-03-13 2019-03-12 動的な交通参加者の除去による位置推定と地図生成の安定した同時実行 Active JP7221089B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/919,548 US10657388B2 (en) 2018-03-13 2018-03-13 Robust simultaneous localization and mapping via removal of dynamic traffic participants
US15/919,548 2018-03-13

Publications (2)

Publication Number Publication Date
JP2019207220A JP2019207220A (ja) 2019-12-05
JP7221089B2 true JP7221089B2 (ja) 2023-02-13

Family

ID=67774720

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019044529A Active JP7221089B2 (ja) 2018-03-13 2019-03-12 動的な交通参加者の除去による位置推定と地図生成の安定した同時実行

Country Status (4)

Country Link
US (1) US10657388B2 (ja)
JP (1) JP7221089B2 (ja)
CN (1) CN110275516A (ja)
DE (1) DE102019202252A1 (ja)

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11163998B2 (en) * 2018-10-22 2021-11-02 Woven Planet North America, Inc. Systems and methods for automated image labeling for images captured from vehicles
US10823855B2 (en) * 2018-11-19 2020-11-03 Fca Us Llc Traffic recognition and adaptive ground removal based on LIDAR point cloud statistics
US11151391B2 (en) * 2018-12-10 2021-10-19 Here Global B.V. Method and apparatus for creating a visual map without dynamic content
CN109606384B (zh) * 2018-12-29 2021-04-20 百度在线网络技术(北京)有限公司 车辆控制方法、装置、设备和存储介质
US11227398B2 (en) * 2019-01-30 2022-01-18 Baidu Usa Llc RGB point clouds based map generation system for autonomous vehicles
WO2021048985A1 (ja) * 2019-09-12 2021-03-18 株式会社ソニー・インタラクティブエンタテインメント 画像処理装置、画像処理方法、及び、プログラム
JP7313998B2 (ja) * 2019-09-18 2023-07-25 株式会社トプコン 測量データ処理装置、測量データ処理方法および測量データ処理用プログラム
WO2021062587A1 (en) * 2019-09-30 2021-04-08 Beijing Voyager Technology Co., Ltd. Systems and methods for automatic labeling of objects in 3d point clouds
DE102019215903A1 (de) * 2019-10-16 2021-04-22 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erzeugen von Trainingsdaten für ein Erkennungsmodell zum Erkennen von Objekten in Sensordaten eines Sensors insbesondere eines Fahrzeugs, Verfahren zum Trainieren und Verfahren zum Ansteuern
CN110910389B (zh) * 2019-10-30 2021-04-09 中山大学 一种基于图描述子的激光slam回环检测系统及方法
CN111060924B (zh) * 2019-12-02 2021-10-15 北京交通大学 一种slam与目标跟踪方法
CN110956137A (zh) * 2019-12-02 2020-04-03 深圳市镭神智能系统有限公司 点云数据的目标检测方法、系统及介质
EP4058825A4 (en) * 2019-12-04 2023-01-04 Huawei Technologies Co., Ltd. APPARATUS AND METHOD FOR AUTOMATICALLY COLLECTING AND MARKING MEASUREMENT DATA IN A TRAFFIC SCENARIO
KR102363501B1 (ko) * 2019-12-10 2022-02-16 주식회사 라이드플럭스 3차원 포인트 클라우드 데이터로부터 지표면 데이터를 생성하는 방법, 장치 및 컴퓨터프로그램
CN111190191A (zh) * 2019-12-11 2020-05-22 杭州电子科技大学 一种基于激光slam的扫描匹配方法
KR102125538B1 (ko) * 2019-12-13 2020-06-22 주식회사 토르 드라이브 자율 주행을 위한 효율적인 맵 매칭 방법 및 그 장치
CN110956651B (zh) * 2019-12-16 2021-02-19 哈尔滨工业大学 一种基于视觉和振动触觉融合的地形语义感知方法
US11100702B2 (en) * 2019-12-27 2021-08-24 Industrial Technology Research Institute 3D image labeling method based on labeling information of 2D image and 3D image labeling device
JP7517675B2 (ja) 2020-01-31 2024-07-17 Necソリューションイノベータ株式会社 地図データ生成装置、地図データ生成方法、及びプログラム
JP2023037043A (ja) * 2020-02-19 2023-03-15 株式会社Nttドコモ マップデータ生成装置及び測位装置
US11544935B2 (en) * 2020-02-26 2023-01-03 Honda Motor Co., Ltd. System for risk object identification via causal inference and method thereof
US20230162371A1 (en) * 2020-03-13 2023-05-25 Nec Corporation Image processing apparatus, image processing method, and computer-readable medium
CN111427373B (zh) * 2020-03-24 2023-11-24 上海商汤临港智能科技有限公司 一种位姿确定方法、装置、介质和设备
CN113792566B (zh) * 2020-05-25 2024-05-17 华为技术有限公司 一种激光点云的处理方法及相关设备
US10861175B1 (en) * 2020-05-29 2020-12-08 Illuscio, Inc. Systems and methods for automatic detection and quantification of point cloud variance
US20220026226A1 (en) * 2020-07-21 2022-01-27 Ag Leader Technology Visual Boundary Segmentations And Obstacle Mapping For Agricultural Vehicles
JP7379300B2 (ja) 2020-09-07 2023-11-14 株式会社東芝 推定装置、推定方法及びプログラム
US11657572B2 (en) 2020-10-21 2023-05-23 Argo AI, LLC Systems and methods for map generation based on ray-casting and semantic class images
CN112484738B (zh) * 2020-11-24 2023-04-28 深圳市优必选科技股份有限公司 机器人建图方法、装置、计算机可读存储介质及机器人
KR20220094416A (ko) * 2020-12-29 2022-07-06 (주)에이아이매틱스 근미래 객체 위치 예측 시스템
CN112819833B (zh) * 2021-02-05 2022-07-12 四川大学 一种大场景点云语义分割方法
US11055428B1 (en) 2021-02-26 2021-07-06 CTRL IQ, Inc. Systems and methods for encrypted container image management, deployment, and execution
CN113126115B (zh) * 2021-04-06 2023-11-17 北京航空航天大学杭州创新研究院 基于点云的语义slam方法、装置、电子设备和存储介质
KR102316097B1 (ko) * 2021-04-27 2021-10-26 주식회사 모빌테크 라이다 좌표를 이용하여 맵 정보의 동기화를 수행하는 맵 정보 제공 시스템
CN113313654B (zh) * 2021-06-23 2023-12-15 上海西井科技股份有限公司 激光点云滤波去噪方法、系统、设备及存储介质
US11608084B1 (en) * 2021-08-27 2023-03-21 Motional Ad Llc Navigation with drivable area detection
CN114549605B (zh) * 2021-12-31 2023-08-04 广州景骐科技有限公司 基于点云匹配的图像优化方法、装置、设备及存储介质
JP7412665B2 (ja) * 2022-01-24 2024-01-12 三菱電機株式会社 Slam装置、slam攻撃対策プログラムおよび自律型モビリティ
CN114509782A (zh) * 2022-02-17 2022-05-17 广州大学 一种基于三维激光slam实现混合现实的方法
KR102694568B1 (ko) * 2023-07-21 2024-08-14 주식회사 모빌테크 노이즈 제거 방법 및 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램
CN117968682B (zh) * 2024-04-01 2024-07-02 山东大学 基于多线激光雷达和惯性测量单元的动态点云去除方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215052A (ja) 2010-03-31 2011-10-27 Aisin Aw Co Ltd 風景画像認識を用いた自車位置検出システム
WO2017079290A1 (en) 2015-11-04 2017-05-11 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
JP2017181870A (ja) 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置及び情報処理サーバ
JP2017211909A (ja) 2016-05-27 2017-11-30 株式会社東芝 情報処理装置及び移動体装置
WO2019026714A1 (ja) 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、および情報処理方法、プログラム、並びに移動体

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
US7995055B1 (en) * 2007-05-25 2011-08-09 Google Inc. Classifying objects in a scene
US8649565B1 (en) 2009-06-18 2014-02-11 Hrl Laboratories, Llc System for automatic object localization based on visual simultaneous localization and mapping (SLAM) and cognitive swarm recognition
KR101619076B1 (ko) 2009-08-25 2016-05-10 삼성전자 주식회사 모바일 플랫폼의 동적 물체 검출 및 추적 방법
WO2011070927A1 (ja) * 2009-12-11 2011-06-16 株式会社トプコン 点群データ処理装置、点群データ処理方法、および点群データ処理プログラム
US8494285B2 (en) * 2010-12-09 2013-07-23 The Hong Kong University Of Science And Technology Joint semantic segmentation of images and scan data
US9152882B2 (en) * 2011-06-17 2015-10-06 Microsoft Technology Licensing, Llc. Location-aided recognition
US9235766B2 (en) * 2011-10-20 2016-01-12 International Business Machines Corporation Optimizing the detection of objects in images
US8630805B2 (en) * 2011-10-20 2014-01-14 Robert Bosch Gmbh Methods and systems for creating maps with radar-optical imaging fusion
KR101901588B1 (ko) * 2012-01-02 2018-09-28 삼성전자주식회사 물체 인식 방법과, 물체 인식을 위한 기술자 생성 방법, 물체 인식을 위한 기술자 생성 장치
US8798357B2 (en) * 2012-07-09 2014-08-05 Microsoft Corporation Image-based localization
US9383753B1 (en) * 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
US9523772B2 (en) 2013-06-14 2016-12-20 Microsoft Technology Licensing, Llc Object removal using lidar-based classification
US9619716B2 (en) * 2013-08-12 2017-04-11 Magna Electronics Inc. Vehicle vision system with image classification
EP3123399A4 (en) * 2014-03-27 2017-10-04 Hrl Laboratories, Llc System for filtering, segmenting and recognizing objects in unconstrained environments
US9235775B2 (en) * 2014-06-08 2016-01-12 Uber Technologies, Inc. Entrance detection from street-level imagery
US10043097B2 (en) * 2015-03-10 2018-08-07 Fringefy Ltd. Image abstraction system
US10816654B2 (en) 2016-04-22 2020-10-27 Huawei Technologies Co., Ltd. Systems and methods for radar-based localization
CN106056643B (zh) * 2016-04-27 2018-10-26 深圳积木易搭科技技术有限公司 一种基于点云的室内动态场景slam方法及系统
US20170344855A1 (en) * 2016-05-24 2017-11-30 Agt International Gmbh Method of predicting traffic collisions and system thereof
US10424065B2 (en) * 2016-06-10 2019-09-24 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for performing three-dimensional semantic parsing of indoor spaces
US10839535B2 (en) * 2016-07-19 2020-11-17 Fotonation Limited Systems and methods for providing depth map information
DE102016214027A1 (de) * 2016-07-29 2018-02-01 Volkswagen Aktiengesellschaft Verfahren und System zum Erfassen von Landmarken in einem Verkehrsumfeld einer mobilen Einheit
KR102404155B1 (ko) * 2016-09-28 2022-05-31 톰톰 글로벌 콘텐트 비.브이. 위치파악 참조 데이터를 생성 및 사용하기 위한 방법 및 시스템
CN107918753B (zh) * 2016-10-10 2019-02-22 腾讯科技(深圳)有限公司 点云数据处理方法及装置
CN107016924B (zh) * 2016-12-20 2020-04-07 阿里巴巴集团控股有限公司 虚拟地图中的瓦片地图生成方法、更新方法和装置
WO2018126215A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. High definition map updates
US10078790B2 (en) * 2017-02-16 2018-09-18 Honda Motor Co., Ltd. Systems for generating parking maps and methods thereof
US10417816B2 (en) * 2017-06-16 2019-09-17 Nauto, Inc. System and method for digital environment reconstruction
CN110019570B (zh) * 2017-07-21 2020-03-20 百度在线网络技术(北京)有限公司 用于构建地图的方法、装置及终端设备
CN107689075B (zh) * 2017-08-30 2019-02-19 北京三快在线科技有限公司 导航地图的生成方法、装置及机器人
US10509413B2 (en) * 2017-09-07 2019-12-17 GM Global Technology Operations LLC Ground reference determination for autonomous vehicle operations
US10768304B2 (en) * 2017-12-13 2020-09-08 Luminar Technologies, Inc. Processing point clouds of vehicle sensors having variable scan line distributions using interpolation functions
US10671862B2 (en) * 2018-01-30 2020-06-02 Wipro Limited Method and system for detecting obstacles by autonomous vehicles in real-time
US11157527B2 (en) * 2018-02-20 2021-10-26 Zoox, Inc. Creating clean maps including semantic information
US10491885B1 (en) * 2018-06-13 2019-11-26 Luminar Technologies, Inc. Post-processing by lidar system guided by camera information
US10890663B2 (en) * 2018-06-28 2021-01-12 Zoox, Inc. Loading multi-resolution maps for localization
CN109146943B (zh) * 2018-08-03 2019-12-03 百度在线网络技术(北京)有限公司 静止物体的检测方法、装置及电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215052A (ja) 2010-03-31 2011-10-27 Aisin Aw Co Ltd 風景画像認識を用いた自車位置検出システム
WO2017079290A1 (en) 2015-11-04 2017-05-11 Zoox, Inc. Coordination of dispatching and maintaining fleet of autonomous vehicles
JP2017181870A (ja) 2016-03-31 2017-10-05 ソニー株式会社 情報処理装置及び情報処理サーバ
JP2017211909A (ja) 2016-05-27 2017-11-30 株式会社東芝 情報処理装置及び移動体装置
WO2019026714A1 (ja) 2017-08-04 2019-02-07 ソニー株式会社 情報処理装置、および情報処理方法、プログラム、並びに移動体

Also Published As

Publication number Publication date
US10657388B2 (en) 2020-05-19
US20190286915A1 (en) 2019-09-19
DE102019202252A1 (de) 2019-09-19
CN110275516A (zh) 2019-09-24
JP2019207220A (ja) 2019-12-05

Similar Documents

Publication Publication Date Title
JP7221089B2 (ja) 動的な交通参加者の除去による位置推定と地図生成の安定した同時実行
US10650531B2 (en) Lidar noise removal using image pixel clusterings
Zhou et al. Automated evaluation of semantic segmentation robustness for autonomous driving
US10579058B2 (en) Apparatus and method for generating training data to train neural network determining information associated with road included in image
US10078790B2 (en) Systems for generating parking maps and methods thereof
Mancini et al. Toward domain independence for learning-based monocular depth estimation
US20210150231A1 (en) 3d auto-labeling with structural and physical constraints
Senlet et al. A framework for global vehicle localization using stereo images and satellite and road maps
CN111222395A (zh) 目标检测方法、装置与电子设备
US11430199B2 (en) Feature recognition assisted super-resolution method
CN112861776B (zh) 一种基于密集关键点的人体姿态分析方法和系统
CN111967396A (zh) 障碍物检测的处理方法、装置、设备及存储介质
CN113012215A (zh) 一种空间定位的方法、系统及设备
Warren et al. Unaided stereo vision based pose estimation
CN115493612A (zh) 一种基于视觉slam的车辆定位方法及装置
Esfahani et al. DeepDSAIR: Deep 6-DOF camera relocalization using deblurred semantic-aware image representation for large-scale outdoor environments
Zhang et al. Longitudinal-scanline-based arterial traffic video analytics with coordinate transformation assisted by 3D infrastructure data
Delibasoglu et al. Motion detection in moving camera videos using background modeling and FlowNet
CN113160406B (zh) 道路三维重建方法、装置、存储介质及电子设备
Gökçe et al. Recognition of dynamic objects from UGVs using Interconnected Neuralnetwork-based Computer Vision system
WO2021179905A1 (en) Motion blur robust image feature descriptor
Fleck et al. Low-Power Traffic Surveillance using Multiple RGB and Event Cameras: A Survey
GB2523598A (en) Method for determining the position of a client device
US20230066119A1 (en) Automated imaging system for object footprint detection and a method thereof
US20230267749A1 (en) System and method of segmenting free space based on electromagnetic waves

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221221

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230201

R150 Certificate of patent or registration of utility model

Ref document number: 7221089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150