JP7224682B1 - 自律走行のための3次元多重客体検出装置及び方法 - Google Patents

自律走行のための3次元多重客体検出装置及び方法 Download PDF

Info

Publication number
JP7224682B1
JP7224682B1 JP2021198447A JP2021198447A JP7224682B1 JP 7224682 B1 JP7224682 B1 JP 7224682B1 JP 2021198447 A JP2021198447 A JP 2021198447A JP 2021198447 A JP2021198447 A JP 2021198447A JP 7224682 B1 JP7224682 B1 JP 7224682B1
Authority
JP
Japan
Prior art keywords
dimensional
bev
object detection
point cloud
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021198447A
Other languages
English (en)
Other versions
JP2023027736A (ja
Inventor
ゴン ウー キム、
ホアン ユィ ロク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industry Academic Cooperation Foundation of CBNU
Original Assignee
Industry Academic Cooperation Foundation of CBNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industry Academic Cooperation Foundation of CBNU filed Critical Industry Academic Cooperation Foundation of CBNU
Application granted granted Critical
Publication of JP7224682B1 publication Critical patent/JP7224682B1/ja
Publication of JP2023027736A publication Critical patent/JP2023027736A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/766Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Mathematical Physics (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Aviation & Aerospace Engineering (AREA)

Abstract

【課題】自律走行のための強力なリアルタイム3次元多重客体検出装置を提案することにより、非常に速い推論速度を維持しながら3D物体検知作業の精度を向上させる。【解決手段】本発明は、ライダーセンサを用いて3次元多重客体を検出するための単一階層3次元多重客体検出装置に関し、ライダーセンサから未処理の点群データの入力を受けるためのデータ入力モジュールと、前記未処理の点群データからBEVイメージを生成するためのBEVイメージ生成モジュールと、BEVイメージから細分化した特徴イメージを抽出するためのディープラーニングアルゴリズムベースの学習を実行する学習モジュールと、前記細分化した特徴イメージから3次元客体を検出するための3D候補ボックスとそれに対応するクラスを見つけるための回帰作業と、ローカリゼーション作業を実行するローカリゼーションモジュールと、を含む。【選択図】図1

Description

本発明は多重客体検出装置に関し、より詳しくは自律走行のための効率的かつ簡潔な単一階層3次元多重客体検出装置に関する。
無人車両の自律走行のためには、前方の動的物体を感知して物体の動的な動きを推定した後、自律走行経路を生成しなければならない。現在、レーダー、カメラなどを用いた動的物体探知追跡技法に多くの研究が進められており、最近、レーザスキャナの価格下落に支えられ、一般の自動車メーカーもドライバ補助システム(driver-assistance system)搭載が大衆化している。
レーザスキャナを用いた移動物体探知を行うためには、各レーザポインタを深さ値に換算して搭載車両の周囲に対する点群(Point cloud)を生成する。生成した点群で、それぞれの点は何の意味も持たないため、移動物体探知追跡のためには、まずクラスタリング技法を介して点をまとめて1つの物体として表現する。
このように、自律走行での環境認識は必須であり、複雑な都市シナリオのような複雑な環境では堅牢性を必要とする。
運転者が管理できるすべての道路及び環境条件ですべての運転業務を実行できる自動化した走行システムは、国際SAE(Society of Automotive Engineers)で最高レベルの自動化に分類される。ADA(Advanced Driving Assists)は商業的に利用可能であるが、人間の介入が必要であったり特定の環境条件下で動作する場合もある。このような自律性の実現は、多重客体認識及び追跡(Multiple Object Detection and Tracking、MODT)などのような関連の研究分野に対して巨大な要求事項を提示し、周囲の環境で共存するエンティティの動的特性を理解することが、全般的な自動化を向上させるために重要である。これは、ローカライゼーション(localization)、マッピング(mapping)、及びモーションプランニング(motion planning)の品質に直接影響する。
過去10年の間、カメラに対する認識を通じて数多くのMODTアプローチが伝統的に研究されてきており、それについての詳細な検討がなされてきた。これによると、物体は、2D座標系またはステレオ設定の3D座標系にて、カメラ基準フレームに感知され、それぞれ2Dまたは3D軌跡を生成する。しかし、不正確なカメラ幾何学を用いて空間情報が算出され、FOV(Field of view)は制限的である。さらに、カメラベースのアプローチは、客体の切断、照明条件、高速ターゲット、センサーモーション、及びターゲット間の相互作用を含んで多様な問題に直面している。
自律走行で、3D客体座標は位置の精度と堅牢性を有さなければならず、ほとんどの客体検出装置は自律車両に組み込まれて動作する。この制約を満たすために、完全自律走行組込みシステムの文脈で効率的かつコンパクトな3D感知フレームワークが必要である。したがって、点群で小型3D物体を感知する場合、組込みシステムに優しい自律走行システムを具現することが重要である。
近年、広いパノラマ背景情報を提供するライダー(Light Detector and Ranging、LiDAR)技術が代替技術としてますます普及している。ライダーは、10~15Hzの合理的な速度で最大100mに至る広いパノラミック測定を提供するため、MODT作業に理想的なセンサである。
多様なセンサの中で、ライダーは3D客体検出作業に理想的なセンサとして使用されており、多くのモバイルロボットアプリケーション、特に自律走行でロボットビジョンにユビキタスな3D点群を提供する。さらに、ライダーは、視覚情報とは異なり、3D現実世界の不均一なサンプリング、有効動作範囲、閉塞、ノイズ、及び視覚センサで制限されるすべての天候に対する相対ポーズなどの要因によって非常にまれな点密度分布を提供する。
韓国登録特許10-1655606
本発明は、前記のような問題を解決するために案出されたものであり、点群プロジェクション方法とアンカーフリー方法を用いて、性能面で既存の点群プロジェクション方法より向上した小さくて効率的な3D客体検出装置フレームワークを提供することをその目的とする。
本発明の目的は、上で述べた目的に限定されず、言及していない他の目的は、下の記載から通常の技術者に明確に理解できるであろう。
このような目的を達成するための本発明は、ライダーセンサを用いて3次元多重客体を検出するための単一階層3次元多重客体検出装置であって、ライダーセンサから未処理の(raw)点群データを受信するためのデータ入力モジュール、前記未処理の点群データからBEV(Bird’s Eye View)イメージを生成するためのBEVイメージ生成モジュール、前記BEVイメージから細分化した特徴イメージを抽出するためのディープラーニング(deep learning)アルゴリズムベースの学習を実行する学習モジュール、及び、前記細分化した特徴イメージから3次元客体を検出するための3D候補ボックスとそれに対応するクラスを見つけるための回帰(regression)作業とローカリゼーション(localization)作業を行うローカリゼーションモジュールを含む。
前記BEVイメージ生成モジュールは、3Dの未処理の点群データを2D擬似(pseudo)イメージに投影して離散化する方式でBEVイメージを生成することができる。
前記BEVイメージ生成モジュールは、3Dの未処理の点群データをエンコーディングして、高さ、密度、強度及び距離の4つの特徴マップイメージを生成することができる。
前記学習モジュールは、CNN(Convolutional Neural Network)ベースの学習を実行する。
本発明のライダーセンサを用いて3次元多重客体を検出するための単一階層3次元多重客体検出装置における単一階層3次元多重客体検出方法において、ライダーセンサから未処理の点群データの入力を受けるためのデータ入力ステップ、前記未処理の点群データからBED(Bird’s Eye View)イメージを生成するためのBEVイメージ生成ステップ、前記BEVイメージから細分化した特徴イメージを抽出するためのディープラーニングアルゴリズムベースの学習を実行する学習ステップ、及び、前記細分化した特徴イメージから3次元客体を検出するための3D候補ボックスと、それに対応するクラスを見つけるための回帰(regression)作業とローカリゼーション(localization)作業を実行するローカリゼーションステップを含む。
前記BEVイメージ生成ステップで、3Dの未処理の点群データを2D擬似イメージに投影して離散化する方式でBEVイメージを生成することができる。
前記BEVイメージ生成ステップで、3Dの未処理の点群データをエンコーディングし、高さ、密度、強度及び距離の4つの特徴マップイメージを生成することができる。
前記学習ステップでCNN(Convolutional Neural Network)ベースの学習を行うことができる。
本発明によると、自律走行のための強力なリアルタイム3次元多重物体検出装置を提案することにより、非常に速い推論速度を維持しながら3D物体検知作業の精度を向上させることができる効果がある。
本発明の一実施例に係る3次元多重客体検出装置の内部構成を示すブロック図である。 本発明の一実施例に係る3次元多重客体検出方法を示すフローチャートである。 本発明の一実施例に係る3次元多重客体検出装置の全体フレームワークを示す。 BEV(Bird’s Eye View)特徴マップ生成の詳細構造を示す。 トレーニングデータセットサンプルにおける関心領域の平均点群分布を示すグラフである。 本発明の一実施例に係る3次元多重客体検出装置の詳細なCNNアーキテクチャ(architecture)を示す。
本明細書に開示した実施例の利点及び特徴、そしてそれらを達成する方法は、添付の図面と共に後述する実施例を参照すると明らかになるであろう。しかし、本開示で提案しようとする実施例は、下で開示する実施例に限定されるものではなく、互いに異なる多様な形態で具現することができ、単に本実施例は、当技術分野にて通常の知識を有する者に実施例の範疇を完全に知らせるために提供するものにすぎない。
本明細書で使用する用語について簡略に説明し、開示した実施例について具体的に説明する。
本明細書で使用する用語は、開示した実施例の機能を考慮しながら可能な限り現在広く用いられる一般的な用語を選択したが、これは関連分野に従事する技術者の意図または判例、新しい技術の出現などに応じて変わり得る。また、特定の場合は出願人が任意に選定した用語もあり、この場合、該当する明細書の詳細な説明部分に詳しくその意味を記載する。したがって、本開示で用いられる用語は、単純な用語の名称ではなく、その用語が有する意味と本明細書の全体にわたる内容に基づいて定義されるべきである。
本明細書における単数の表現は、文脈上明らかに単数であると特定しない限り、複数の表現を含む。
明細書全体にて、ある部分がある構成要素を「含む」と言うとき、これは、特に反対の記載がない限り、他の構成要素を除外するのではなく、他の構成要素をさらに含み得ることを意味する。さらに、本明細書で使用する「部」という用語は、ソフトウェア、FPGA、またはASICなどのようなハードウェア構成要素を意味し、「部」は任意の役割を果たす。しかしながら、「部」はソフトウェアまたはハードウェアに限定される意味ではない。「部」は、アドレッシング可能な記憶媒体にあるように構成してもよく、1つ、又はそれ以上のプロセッサを再生させるように構成してもよい。したがって、一例として、「部」は、ソフトウェア構成要素、客体指向ソフトウェア構成要素、クラス構成要素、及びタスク構成要素などのような構成要素と、プロセス、関数、属性、プロシージャ、サブルーチン、プログラムコードのセグメント、ドライバ、ファームウェア、マイクロコード、回路、データ、データベース、データ構造、テーブル、アレイ及び変数を含む。構成要素及び「部」内で提供される機能は、より少ない数の構成要素及び「部」に結合したり、追加的な構成要素と「部」にさらに分離したりすることができる。
なお、添付図面を参照して説明するにあたり、図面符号にかかわらず、同一の構成要素には同一の参照符号を付し、これについての重複する説明は省く。本発明を説明するにあたり、関連する公知技術についての具体的な説明が本発明の要旨を不必要に曖昧すると判断した場合、その詳しい説明は省く。
本発明は、ライダーセンサを用いて3次元多重客体を検出するための単一階層3次元多重客体検出装置及び方法に関する。
図1は、本発明の一実施例に係る3次元多重客体検出装置の内部構成を示すブロック図である。
図1を参照すると、本発明の3次元多重客体検出装置100は、データ入力モジュール110、BEVイメージ生成モジュール120、学習モジュール130、及びローカリゼーションモジュール140を含む。
データ入力モジュール110は、ライダーセンサから未処理の(raw)点群データの入力を受ける。
BEVイメージ生成モジュール120は、未処理の点群データからBEV(Bird’s Eye View、俯瞰図)イメージを生成する。
学習モジュール130は、BEVイメージから細分化した特徴イメージを抽出するためにディープラーニング(deep learning)アルゴリズムベースの学習を実行する。
本発明の一実施例では、学習モジュール130は、CNN(Convolutional Neural Network)ベースの学習を実行することができる。
ローカリゼーションモジュール140は、細分化した特徴イメージから3次元客体を検出するための3D候補ボックスと、それに対応するクラスを見つけるための回帰(regression)動作とローカリゼーション(localization)作業を実行する。
BEVイメージ生成モジュール120は、3Dの未処理の点群データを2D擬似(pseudo)イメージに投影して離散化する方式でBEVイメージを生成することができる。
BEVイメージ生成モジュール120は、3Dの未処理の点群データをエンコーディングし、高さ、密度、強度及び距離の4つの特徴マップイメージを生成することができる。
図2は、本発明の一実施例に係る3次元多重客体検出方法を示すフローチャートである。
図2を参照すると、3次元多重客体検出方法は、ライダーセンサから未処理の点群データの入力を受けるためのデータ入力ステップS110、未処理の点群データからBEV(Bird’s Eye View)イメージを生成するためのBEVイメージ生成ステップS120、BEVイメージから細分化した特徴イメージを抽出するためのディープラーニング(deep learning)アルゴリズムベースの学習を実行する学習ステップS130、及び、細分化した特徴イメージから3次元客体を検出するための3D候補ボックスとそれに対応するクラスを見つけるための回帰(regression)作業とローカリゼーション(localization)作業を実行するローカリゼーションステップS140を含む。
BEVイメージ生成ステップS120では、3Dの未処理の点群データを2D擬似(pseudo)イメージに投影して離散化する方式でBEVイメージを生成することができる。
BEVイメージ生成ステップS120では、3Dの未処理の点群データをエンコーディングし、高さ、密度、強度及び距離の4つの特徴マップ(feature map)イメージを生成することができる。
学習ステップS130では、CNN(Convolutional Neural Network)ベースの学習を行うことができる。
本発明は、リアルタイムかつ安全なシステムのために効率的かつ簡潔な単一階層3D多重客体検出装置を提案する。まず、ライダー(LiDAR)センサーデータの簡潔な2D表現を活用し、学習作業に対する細分化した機能を抽出するために適したCNN(Convolutional Neural Network)方式が導入される。本発明は、3Dバウンディングボックス(bounding box)の位置だけでなく、ヘディング角度(heading angle)も推定する。
本発明での、簡潔な(compact)入力生成、適切なCNNアーキテクチャ、及び最終3D客体候補をローカライズ(localization)を行うための学習及び推論部分戦略を説明する。
図3は、本発明の一実施例に係る3次元多重客体検出装置の全体フレームワークを示す。
図3を参照すると、本発明の単一階層3次元多重客体装置の全体フレームワーク(framework)は、ライダー(LiDAR)センサから未処理の点群データを受信し(a)、圧縮方式で未処理の点群データから4つの特徴イメージを含むBEV(Bird’s Eye View)擬似(pseudo)イメージを生成し(b)、多重ヘッドを有する学習タスクのための微細特徴イメージを抽出するCNNベースの学習を行い(c)、3D候補ボックス及びそれに対応するクラスを見つけるための回帰(regression)及びローカライゼーション(localization)を行うことを含んでいる。
BEV(Bird’s Eye View)の生成について説明すると、次の通りである。
図4は、BEV(Bird’s Eye View)特徴マップ生成の詳細構造を示す。
図4を参照すると、本発明の3次元多重客体検出装置は、高さ特徴(Height feature)、強度特徴(Intensity feature)、密度特徴(Density feature)、及び距離特徴(Distance feature)を含む4つのコンパクトな特徴マップを抽出する。
一般的に、未処理の(raw)3Dライダー点群データは、標準方式のボクセル(voxel)表現と3Dグリッドセル(grid cells)にエンコーディングし、ここで特徴を抽出するために3DCNNが用いられる。しかし、ほとんどの3D空間は希薄か空であるため、このような方法は最適化したアプローチ方式と見なされず、時間とハードウェアの両方が非効率的である。別の方法では、原始3Dライダー点群データはFV(Front View)表現でエンコーディングされる。ただし、この方法は簡潔であるが、客体の折り重ねの問題を除去することができない。
ライダーセンサは、3Dの点位置(x、y、z)とすべての点の反射率値rを提供し、毎秒数千から数百万の点を取得する。
本発明では、新規で簡潔なBEVの生成を提案し、未処理の3D点群データを2D擬似(pseudo)イメージに投影して離散化する。これは時間効率的な事前処理方式と見なされ、客体の物理的形状が明示的に維持される。
3D環境の全体照射空間(investigated space)でライダー(LiDAR)スキャナで取得したL×W×Hは、単一の高さ、密度、強度、及び距離特徴マップ(feature map)にエンコードされる。
高さ特徴(feature)の各セル値は、セル内の点高さのうちの最大高さで計算される。それから、正規化ステップを適用して正規化した高さ特徴マップを取得する。
密度特徴は、3D現実世界で多様な点群分布と共にセル内の点密度を表す。下記の式を使用して密度特性を正規化する。ここで、Qはセル内の点の量である。
Figure 0007224682000002
強度特性(intensity feature)では、ライダー(LiDAR)強度が記録され、[0,1]間の物体表面値を反映するレーザビームの戻り強度が記録される。本発明における強度特徴は、基準セルで最大高さを有する点の未処理の(raw)反射率値である。
ほとんどのセルは希少または空であり、特に遠距離の場合はトレーニングデータセットを調べた結果、ほぼ97%の点群がX方向に沿って一番目の[0,30m]の範囲に位置することを確認した。トレーニングデータセットの距離による点群分布は図5に明確に示す。
図5は、トレーニングデータセットのサンプルにおける距離による関心領域の平均点群分布を示すグラフである。
図5を参照すると、物理的に点群分布は、ライダースキャン角度とシーンシナリオとの間の差に基づいている。近距離ではビーム角度が小さくてライダーセンサが多くの点を獲得したのに対し、長距離ではビーム角度がより大きくて少ない数の点を得る。本発明で、BEV表現を強化する距離情報を補完するために、この距離特徴マップを提案する。距離特徴は、学習作業以外にも、モデルが範囲別の点群分布を学習するのに役立つ。各セルの正規化した距離特性Di_normは、次の式によって計算される。
Figure 0007224682000003
ここで、D→Pはライダー原点(0,0,1.73m)と現在点Pとの間の距離であり、Dmaxは調査領域(investigated area)Ψ内で最も遠い点Pmaxまでのライダー原点であり、(xPi,yPi,zPi)及び(xmax,ymax,zmax)はそれぞれ点P及びPmaxの位置である。
本発明は高速で効率的な3D多重客体検出装置に関し、本発明で提案したネットワークアーキテクチャはライダー点群の2D表現を強力に活用して学習し、密集した2DBEV擬似イメージの中で客体を感知して分類しなければならない。トレーニングデータセットの3D客体及び当該ラベルのエンコーディングと関連し、ネットワークは予め定義した客体アンカーに追加で依存せずに、直接抽出及びエンコードするか、または1番目の層から2番目の層に伝達された地域提案を調整する。全体ネットワークアーキテクチャが図6に示されている。
本発明で提案したネットワークアーキテクチャは、2つのサブネットワークに分けることができる。
第一に、バックボーン(backbone)ネットワークは、未処理の(raw)BEV表現で一般情報を畳み込み特徴マップの形で回収するために使用し、コンパクトで強力な機能表現を学習して活用するための高い表現能力を有する。
第二に、ヘッダー(header)ネットワークはバックボーンネットワークの最後のブロックであり、作業別予測を学習するように設計する。このネットワークには、客体中心点(x,y)、オフセット情報(Δx,Δy)、拡張Z座標(z)、客体サイズ(l,w,h)、客体回転角度(yaw)を含む5つの下位作業(sub-task)がある。
本発明にて図面を参照してバックボーンネットワークとヘッダーネットワークについて詳しく説明すると、下の通りである。
図6は、本発明の一実施例に係る3次元多重客体検出装置の詳しいCNNアーキテクチャ(architecture)を示す。
図6を参照すると、本発明の3次元多重客体検出装置のCNNアーキテクチャの全体ネットワークは2つの主要部分に分かれる。
1つ目はバックボーン(Backbone)ネットワークとして、次の3つのサブモジュール(a、b、c)で構成される。
a)修正したResNetブロックモジュール(Res_Block)として、カーネル(kernel)、ダウンサンプリング比(down-sampling ratio)及び繰り返し量(quantity of repetition)を示す。
b)各スケールのアップサンプリング(up-sampling)ブロックを示すモジュール(US_Block)である。
c)ダウンサンプリングモジュール(DS_Block)。
2つ目は、ヘッドモジュール(Head)を含むヘッダー(Header)ネットワークである。ここで、ヘッドモジュールは、学習タスクのための客体中心(Object Center)、オフセット(offset)、Z次元(Z dimension)、3D客体サイズ(3D Size)、及び回転角(Rotation angle)の5つの特徴を活用する役割をする。
ディープラーニングベースの客体感知作業で、CNNは入力情報を畳み込み特徴マップの形で抽出しなければならない。学習作業のために、高解像度には少ないレイヤーを使用し、低解像度にはより多くのレイヤーを使用する基準に基づいて小さくて強力なバックボーンアーキテクチャを設計する。
図6の実施例で具体的に提案したネットワークのブロックは合わせて10個である。
1番目のブロックは、チャネル番号64、カーネル7、ストライド3、ダウンサンプリング係数2を有する畳み込みレイヤ(convolution layer)である。
2番目ないし5番目のブロックは、スキップ(skip)接続数がそれぞれ3、8、8、3であるすべてのブロックに対してダウンサンプリング(down-sampling)ファクタ(factor)が2である修正したレジデュアルレイヤ(residual layer)で構成する。
1番目のブロックから5番目のブロックまでの総ダウンサンプリングファクターは32である。
6番目のブロックないし8番目のブロックはトップダウン(top-down)アップサンプリング(up-sampling)ブロックであり、最後の2つのブロックはボトムアップ(bottom-up)ダウンサンプリング(down-sampling)ブロックである。そして、最後の3つのブロックがヘッダーネットワークの入力に供給するように選択される。
ヘッダーネットワークは、分類及び3D客体のローカリゼーションのすべてを処理する多重特定作業を学習するために小さくて効率的に設計する。ヘッダーネットワークには、下記(1)のクラスに該当する客体中心点、下記(2)のオフセット情報、下記(3)の拡張座標、下記(4)の客体サイズ、及び、下記(5)の客体の回転角ファクターを含む5つの下位作業がある。
Figure 0007224682000004
ここで、本発明の推論段階にて、[-π、π]の範囲内で客体回転角を下記の式で容易にデコーディングすることができる。
Figure 0007224682000005
最終予測結果は、以前定義したしきい値よりも高い値に設定したすべての選択した下記(1)の中心点に対して下記(2)で構成される。
Figure 0007224682000006
本発明における学習及び推論過程は、コンパクトかつ効率的であり、安全な組込みシステムに向くように具現され、これについて説明する。
本発明の一実施例に係るアンカーフリー(anchor-free)単一階層3D多重客体検出装置は、各候補について合計5つのヘッドを予測するが、キーポイントヒートマップヘッド、ローカルオフセットヘッド、客体方向ヘッド、Z軸位置ヘッド及び3D個体寸法ヘッドがそれである。このようなヘッドは、推論の段階から最終候補を生成するために必要である。
中心回帰はCNNアーキテクチャを通過した後に中心点を出力し、各点は1つの客体範疇に該当する。中央ヒートマップの形状は下記で定義する。ここで、Sはダウンサンプリング比率であり、Cは予測されたクラスの数を表す。
Figure 0007224682000007
キーポイントヒートマップHは要素Rに分かれ、BEVで客体中心がどこにあるかを見つけるために使用される。下記(1)は検出した中心点であり、下記(2)はバックグラウンドである。
Figure 0007224682000008
オフセット回帰の主な役割は、予測した客体中心点の精度を強化し、BEV生成プロセスで量子化誤差を緩和するものである。このために、オフセット回帰を適用してすべての中心点に対する下記のオフセット特徴マップを予測する。そして、オフセットの学習対象としてL1損失を選択する。
Figure 0007224682000009
安全のために、3次元客体の位置だけでなく進行角度も正確に予測しなければならない。Z軸周りのヘディング角度はヨー(yaw)角度とみなされ、傾斜した対象の場合はヨー角φを(cos(φ)、sin(φ))にエンコーディングし、推論する間はヨー角φを下記でデコーディングする。
Figure 0007224682000010
方向回帰(Orientation Regression)は特徴マップを出力する。すべてのシングルセンターポイント(single center point)で下記の条件である場合、L1損失関数はトレーニングのために次の式のように適用する。
Figure 0007224682000011
Figure 0007224682000012
客体中心点は下記(1)で予測し、Z軸に沿った拡張が下記(2)で中心点をローカライズするのに必要である。Z軸位置回帰は、予測した各中心点に対してZ軸特徴マップ(下記(3))を予測する。
Figure 0007224682000013
Z軸回帰の結果は、3Dバウンディングボックスの位置精度に大きな影響を及ぼすが、多様な個体属性サンプルを有するZ軸の無限回帰のためである。したがって、予測は異常値(outliers)、特に不均衡トレーニングセットに容易に敏感になるという問題がある。この問題を克服するために、均衡L1損失(loss)を導入して不均衡なトレーニングセットを最小化し、モデルの安定性を向上させる。Z軸回帰学習のために均衡L1損失が使用される。
Figure 0007224682000014
ここで、Lは、L1損失の定義による均衡L1損失である。
Figure 0007224682000015
ここで、a、b、γはL1均衡損失ハイパーパラメータ(hyper-parameters)であり、下記の関係にある。
Figure 0007224682000016
サイズ回帰(Size Regression)プロセスは、3D個体中心座標(x、y、z)に沿って長さl、幅w、及び高さhの3D物体空間次元を生成する。サイズ回帰プロセス作業で予測しなければいけない3つの値があるため、各中心点に対して下記のサイズ回帰特徴マップを返還する。サイズ回帰はZ軸回帰と同じ特性を有し、制限のない回帰目標のために異常値に敏感である。したがって、サイズ回帰の学習対象として均衡L1損失を選択する。
Figure 0007224682000017
Figure 0007224682000018
本発明の単一階層3次元多重客体検出装置の総損失関数は、前記ヘッド回帰損失の加重和である。
Figure 0007224682000019
ここで、χhm、χoff、χyaw、χ、χsizeは、それぞれ、ヒートマップ中心回帰、オフセット回帰、方向回帰、Z軸位置回帰、及び大きさ回帰に対する均衡係数を表す。
本発明の単一階層3次元多重客体検出装置における推論過程について説明すると、次の通りである。
3Dバウンディングボックスの正確な位置を特定するために細分化した特徴マップを抽出した後、接続した8つの隣よりも値が大きいのかを比較して中心キーポイントの存在を確認する。ここで、周辺8つの隣と比較することは、キーポイントを見つけるための最も迅速で正確な方法である。
その後、2つの基準で中心点のみを維持する。中心点値は予め定義した閾値よりも高く、信頼度スコアは感知範囲内で予め定義した個体番号の優先順位に従って感知した中心点番号をフィルタリングする。
下記(1)の環境の客体は(c、c、c、r、p、y、l、w、h)で表すことができる。ここで、(c、c、c)は3D客体の中心、(r、p、y))はそれぞれロール、ピッチ、ヨー回転角度、(l、w、h)はそれぞれ客体の長さ、幅、高さを表する。
Figure 0007224682000020
客体が平らな道路平面にあると仮定すると、r=p=0であるので、下記(1)の客体は7自由度(c、c、c、y、l、w、h)を有する。推論する間、下記(2)は予測集合であり、ここでnはクラスCで感知した中心点の量である。
Figure 0007224682000021
予測後、ヒートマップ中心点、オフセット、方向角度、Z軸位置及びサイズ次元に対応する下記を得る。
Figure 0007224682000022
次に、すべての候補ターゲットは下記と同じ形式で融合し、クラスCに対する正確な3Dバウンディングボックスを作成する。
Figure 0007224682000023
本発明で、このような作業を組込みシステムに向くアプローチで処理する。したがって、本発明では最大プーリング演算を用いて客体中心を求めるので、既存のNMSよりもはるかに速く客体中心を見つけることができる。
以上、本発明をいくつかの好ましい実施例を用いて説明したが、このような実施例は例示的なものであり、限定的なものではない。本発明が属する技術分野で通常の知識を有する者であれば、本発明の思想と添付の特許請求の範囲に提示した権利範囲から逸脱することなく多様な変更と修正を加えられることが理解できるであろう。
100 単一階層3次元多重客体検出装置
110 データ入力モジュール
120 BEVイメージ生成モジュール
130 CNNベースの学習モジュール
140 ローカリゼーションモジュール

Claims (6)

  1. ライダーセンサを用いて3次元多重客体を検出するための3次元多重客体検出装置であって、
    ライダーセンサから未処理の点群データの入力を受信するためのデータ入力モジュールと、
    前記未処理の点群データからBEV(Bird’s Eye View)イメージを生成するためのBEVイメージ生成モジュールと、
    BEVイメージから細分化した特徴イメージを抽出するためのディープラーニング(deep learning)アルゴリズムベースの学習を実行する学習モジュールと、
    前記細分化した特徴イメージから3次元客体を検出するための3D候補ボックスとそれに対応するクラスを見つけるための回帰(regression)作業とローカリゼーション(localization)作業を行うローカリゼーションモジュールと、
    を含み、
    前記BEVイメージ生成モジュールは、前記未処理の点群データが分割された同じ形状の複数の3次元セルごとに、前記3次元セルにおける高さが最大の点の高さ、前記3次元セルにおける点の密度、前記3次元セルにおける前記高さが最大の点の反射率に対応する強度、及び前記3次元セルにおける原点から最も遠い点までの距離のそれぞれについてエンコーディングした前記複数の3次元セルそれぞれの4つの特徴データを含む2次元の特徴マップである前記BEVイメージを生成する、3次元多重客体検出装置。
  2. BEVイメージ生成モジュールは、3Dの未処理の点群データを2D擬似(pseudo)イメージに投影して離散化する方式でBEVイメージを生成することを特徴とする、
    請求項1に記載の3次元多重客体検出装置。
  3. 前記学習モジュールは、CNN(Convolutional Neural Network)ベースの学習を行うことを特徴とする、
    請求項に記載の3次元多重客体検出装置。
  4. ライダーセンサを用いて3次元多重客体を検出するための3次元多重客体検出装置における3次元多重客体検出方法であって、
    ライダーセンサから未処理の点群データの入力を受けるためのデータ入力ステップと、
    前記未処理の点群データからBEV(Bird ’s Eye View)イメージを生成するためのBEVイメージ生成ステップと、
    前記BEVイメージから細分化した特徴イメージを抽出するためにディープラーニング(deep learning)アルゴリズムベースの学習を実行する学習ステップと、
    前記細分化した特徴イメージから3次元客体を検出するための3D候補ボックスとそれに対応するクラスを見つけるための回帰(regression)作業とローカリゼーション(localization)作業を行うローカリゼーションステップと、
    を含み、
    前記BEVイメージ生成ステップにおいて、前記未処理の点群データが分割された同じ形状の複数の3次元セルごとに、前記3次元セルにおける高さが最大の点の高さ、前記3次元セルにおける点の密度、前記3次元セルにおける前記高さが最大の点の反射率に対応する強度、及び前記3次元セルにおける原点から最も遠い点までの距離のそれぞれについてエンコーディングした前記複数の3次元セルそれぞれの4つの特徴データを含む2次元の特徴マップである前記BEVイメージを生成する、3次元多重客体検出方法。
  5. 前記BEVイメージ生成ステップで、3Dの未処理の点群データを2D擬似(pseudo)イメージに投影して離散化する方式でBEVイメージを生成することを特徴とする、
    請求項に記載の3次元多重客体検出方法。
  6. 前記学習ステップでCNN(Convolutional Neural Network)ベースの学習を行うことを特徴とする、
    請求項に記載の3次元多重客体検出方法。
JP2021198447A 2021-08-17 2021-12-07 自律走行のための3次元多重客体検出装置及び方法 Active JP7224682B1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0108154 2021-08-17
KR1020210108154A KR20230026130A (ko) 2021-08-17 2021-08-17 자율 주행을 위한 단일 계층 3차원 다중 객체 검출 장치 및 방법

Publications (2)

Publication Number Publication Date
JP7224682B1 true JP7224682B1 (ja) 2023-02-20
JP2023027736A JP2023027736A (ja) 2023-03-02

Family

ID=78918653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021198447A Active JP7224682B1 (ja) 2021-08-17 2021-12-07 自律走行のための3次元多重客体検出装置及び方法

Country Status (4)

Country Link
US (1) US20230071437A1 (ja)
EP (1) EP4138044A1 (ja)
JP (1) JP7224682B1 (ja)
KR (1) KR20230026130A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115965824A (zh) * 2023-03-01 2023-04-14 安徽蔚来智驾科技有限公司 点云数据标注方法、点云目标检测方法、设备及存储介质
CN116385452A (zh) * 2023-03-20 2023-07-04 广东科学技术职业学院 一种基于极坐标BEV图的LiDAR点云全景分割方法
CN116664825A (zh) * 2023-06-26 2023-08-29 北京智源人工智能研究院 面向大场景点云物体检测的自监督对比学习方法及系统
JP7450654B2 (ja) 2022-02-10 2024-03-15 本田技研工業株式会社 移動体制御装置、移動体制御方法、学習装置、学習方法、およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116740669B (zh) * 2023-08-16 2023-11-14 之江实验室 多目图像检测方法、装置、计算机设备和存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017166971A (ja) 2016-03-16 2017-09-21 株式会社デンソー 物体検出装置および物体検出プログラム
JP2019532433A (ja) 2016-10-11 2019-11-07 カールタ インコーポレイテッド リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
JP2020042009A (ja) 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 点群における非地面点のフィルタリング方法、装置及び記憶媒体
WO2020253121A1 (zh) 2019-06-17 2020-12-24 商汤集团有限公司 目标检测方法和装置及智能驾驶方法、设备和存储介质
JP2021082296A (ja) 2019-11-22 2021-05-27 三星電子株式会社Samsung Electronics Co.,Ltd. 3次元オブジェクトを分類するための方法及びそのシステム

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101655606B1 (ko) 2014-12-11 2016-09-07 현대자동차주식회사 라이다를 이용한 멀티 오브젝트 추적 장치 및 그 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017166971A (ja) 2016-03-16 2017-09-21 株式会社デンソー 物体検出装置および物体検出プログラム
JP2019532433A (ja) 2016-10-11 2019-11-07 カールタ インコーポレイテッド リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
JP2020042009A (ja) 2018-09-07 2020-03-19 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 点群における非地面点のフィルタリング方法、装置及び記憶媒体
WO2020253121A1 (zh) 2019-06-17 2020-12-24 商汤集团有限公司 目标检测方法和装置及智能驾驶方法、设备和存储介质
JP2021082296A (ja) 2019-11-22 2021-05-27 三星電子株式会社Samsung Electronics Co.,Ltd. 3次元オブジェクトを分類するための方法及びそのシステム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7450654B2 (ja) 2022-02-10 2024-03-15 本田技研工業株式会社 移動体制御装置、移動体制御方法、学習装置、学習方法、およびプログラム
CN115965824A (zh) * 2023-03-01 2023-04-14 安徽蔚来智驾科技有限公司 点云数据标注方法、点云目标检测方法、设备及存储介质
CN115965824B (zh) * 2023-03-01 2023-06-06 安徽蔚来智驾科技有限公司 点云数据标注方法、点云目标检测方法、设备及存储介质
CN116385452A (zh) * 2023-03-20 2023-07-04 广东科学技术职业学院 一种基于极坐标BEV图的LiDAR点云全景分割方法
CN116664825A (zh) * 2023-06-26 2023-08-29 北京智源人工智能研究院 面向大场景点云物体检测的自监督对比学习方法及系统

Also Published As

Publication number Publication date
US20230071437A1 (en) 2023-03-09
JP2023027736A (ja) 2023-03-02
EP4138044A1 (en) 2023-02-22
KR20230026130A (ko) 2023-02-24

Similar Documents

Publication Publication Date Title
JP7224682B1 (ja) 自律走行のための3次元多重客体検出装置及び方法
US11475573B2 (en) Sensor data segmentation
Chen et al. 3d point cloud processing and learning for autonomous driving: Impacting map creation, localization, and perception
Rahman et al. Notice of violation of IEEE publication principles: Recent advances in 3D object detection in the era of deep neural networks: A survey
US10496104B1 (en) Positional awareness with quadocular sensor in autonomous platforms
JP7239703B2 (ja) 領域外コンテキストを用いたオブジェクト分類
Jebamikyous et al. Autonomous vehicles perception (avp) using deep learning: Modeling, assessment, and challenges
Zhou et al. T-loam: truncated least squares lidar-only odometry and mapping in real time
Erbs et al. Moving vehicle detection by optimal segmentation of the dynamic stixel world
Zheng et al. Rcfusion: Fusing 4d radar and camera with bird’s-eye view features for 3d object detection
Benedek et al. Positioning and perception in LIDAR point clouds
Khurana et al. Point cloud forecasting as a proxy for 4d occupancy forecasting
Shi et al. Grid-centric traffic scenario perception for autonomous driving: A comprehensive review
Shepel et al. Occupancy grid generation with dynamic obstacle segmentation in stereo images
Valente et al. Fusing laser scanner and stereo camera in evidential grid maps
CN114118247A (zh) 一种基于多传感器融合的无锚框3d目标检测方法
EP4260084A1 (en) Radar perception
Tas et al. High-definition map update framework for intelligent autonomous transfer vehicles
Madake et al. Visualization of 3D Point Clouds for Vehicle Detection Based on LiDAR and Camera Fusion
Tao et al. 3D object detection algorithm based on multi-sensor segmental fusion of frustum association for autonomous driving
Hazarika et al. Multi-camera 3D object detection for autonomous driving using deep learning and self-attention mechanism
Liu et al. A lightweight lidar-camera sensing method of obstacles detection and classification for autonomous rail rapid transit
Tousi et al. A new approach to estimate depth of cars using a monocular image
Tao 3D LiDAR based Drivable Road Region Detection for Autonomous Vehicles
Nowak et al. Leveraging object recognition in reliable vehicle localization from monocular images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221025

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230124

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230201

R150 Certificate of patent or registration of utility model

Ref document number: 7224682

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150