JP6799169B2 - マルチモーダル融合による3dオブジェクト検出と配向推定の結合 - Google Patents

マルチモーダル融合による3dオブジェクト検出と配向推定の結合 Download PDF

Info

Publication number
JP6799169B2
JP6799169B2 JP2019546869A JP2019546869A JP6799169B2 JP 6799169 B2 JP6799169 B2 JP 6799169B2 JP 2019546869 A JP2019546869 A JP 2019546869A JP 2019546869 A JP2019546869 A JP 2019546869A JP 6799169 B2 JP6799169 B2 JP 6799169B2
Authority
JP
Japan
Prior art keywords
proposal
point cloud
pooling
candidate set
candidate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2019546869A
Other languages
English (en)
Other versions
JP2020509494A (ja
Inventor
ワン、チエンイー
チェン、イーチェン
ナラヤナン、アスマナラヤン ラクシュミー
ナラヤナン、アスマナラヤン ラクシュミー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of JP2020509494A publication Critical patent/JP2020509494A/ja
Application granted granted Critical
Publication of JP6799169B2 publication Critical patent/JP6799169B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4802Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

(関連出願の相互参照)
本特許出願は、本出願の譲受人に譲渡され、その全体が参照により本明細書に組み込まれる、2017年3月17日に出願された、「JOINT 3D OBJECT DETECTION AND ORIENTATION ESTIMATION VIA MULTIMODAL FUSION」という名称の仮出願第62/473,054号の優先権を主張するものである。
3次元(three-dimensional、3D)シーンを理解することは、自動運転及びアドバンス運転支援システムを含む多くの用途に有用であり得る。これらの用途では、意思決定、リスク評価、及び行動計画のために、異なる交通参加者、例えば、車両、歩行者及びサイクリストをローカライズ及び認識することが有用であり得る。自動運転プラットフォームでは、各センサに長所と短所があるため、マルチモーダル感覚デバイスが一般的に使用されている。カメラ並びに光検出及び測距(light detection and ranging、LiDAR)は、2つの一般的な知覚センサである。画像は、認識タスクのための大量の視覚的キューを含む。しかしながら、画像品質は、異なる照明変化の影響を受ける可能性があり、透視投影のために画像データから深さ情報を再構築することが困難になる可能性がある。一方、LiDARセンサは、正確な深さ測定を提供し、照明に対して不変である。しかしながら、LiDARセンサデータは比較的疎であるため、画像領域のようにオブジェクトを正確に認識することは困難であり得る。
上記を考慮すると、関心のあるオブジェクトをより正確に検出し、それらの配向を、3Dで推定する方法が存在する可能性がある。更なる利点は、以下に提供される開示から明らかになるであろう。
本概要は、以下の発明を実施するための形態で更に説明される概念の選択を、簡略化された形態で導入するために提供される。本概要は、特許請求される主題の重要な特徴を特定することを意図するものではなく、特許請求される主題の範囲を決定する際の補助として使用されることを意図するものでもない。
一態様では、本開示は、3Dポイントクラウド及び2D画像からオブジェクトを識別するための方法を提供する。方法は、3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定することを含み得る。方法は、3D畳み込みニューラルネットワークに基づいて、3Dポイントクラウドから第2の3D提案セットを決定することを含んでもよい。方法は、第1の3D提案セット及び第2の3D提案セットをプールして、3D候補セットを決定することを含んでもよい。方法は、第1の3D提案セットを2D画像上に投影することを含んでもよい。方法は、2D畳み込みニューラルネットワークを使用して、画像に基づいて、第1の2D提案セットを決定することを含んでもよい。方法は、投影された第1の3D提案セット及び第1の2D提案セットをプールして、2D候補セットを決定することを含んでもよい。方法は、3D候補セット及び2D候補セットをプールすることを含んでもよい。
別の態様では、本開示は、2D画像を取得するように構成されたカメラと、3Dポイントクラウドを取得するように構成された光検出及び測距(LiDAR)システムと、を含む、車両を提供する。車両は、3Dポイントクラウド及び2D画像からオブジェクトを識別するように構成された、マルチモーダル融合システムを含み得る。マルチモーダル融合システムは、メモリと、メモリに通信可能に結合されたプロセッサと、を含み得る。プロセッサは、3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定するように構成され得る。プロセッサは、3D畳み込みニューラルネットワークに基づいて、3Dポイントクラウドから第2の3D提案セットを決定するように構成されてもよい。プロセッサは、第1の3D提案セット及び第2の3D提案セットをプールして、3D候補セットを決定するように構成されてもよい。プロセッサは、第1の3D提案セットを2D画像上に投影するように構成されてもよい。プロセッサは、2D畳み込みニューラルネットワークを使用して、画像に基づいて、第1の2D提案セットを決定するように構成されてもよい。プロセッサは、投影された第1の3D提案セット及び第1の2D提案セットをプールして、2D候補セットを決定するように構成されてもよい。プロセッサは、3D候補セット及び2D候補セットをプールするように構成されてもよい。
別の態様では、本開示は、プロセッサによって実行されると、プロセッサに、3Dポイントクラウド及び2D画像からオブジェクトを識別させる命令を含む、非一時的コンピュータ可読媒体を提供する。コンピュータ可読媒体は、3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定するための命令を含んでもよい。コンピュータ可読媒体は、3D畳み込みニューラルネットワークに基づいて、3Dポイントクラウドから第2の3D提案セットを決定するための命令を含んでもよい。コンピュータ可読媒体は、第1の3D提案セット及び第2の3D提案セットをプールして、3D候補セットを決定するための命令を含んでもよい。コンピュータ可読媒体は、第1の3D提案セットを2D画像上に投影するための命令を含んでもよい。コンピュータ可読媒体は、2D畳み込みニューラルネットワークを使用して、画像に基づいて、第1の2D提案セットを決定するための命令を含んでもよい。コンピュータ可読媒体は、投影された第1の3D提案セット及び第1の2D提案セットをプールして、2D候補セットを決定するための命令を含んでもよい。コンピュータ可読媒体は、3D候補セット及び2D候補セットをプールするための命令を含んでもよい。
本発明のこれら及び他の態様は、以下の発明を実施するための形態を検討すると、より完全に理解されるであろう。
本開示に特徴的であると考えられる新規な特徴は、添付の特許請求の範囲に記載される。以下の説明において、明細書及び図面を通して、同様の部分にはそれぞれ同一の符号を付す。図面は必ずしも縮尺どおりに描画されておらず、明確性及び簡潔さのために、特定の図面は、誇張された又は一般化された形態で示されてもよい。しかしながら、本開示自体、並びにその好ましい使用形態、更なる目的及び進歩は、添付図面と併せて読むと、本開示の例示的な態様の以下の詳細な説明を参照することによって、最も良く理解されるであろう。
本開示の態様による、3Dオブジェクト検出及び配向のためのマルチモーダル融合システムの例示的な動作環境を示す概略図である。
本開示の態様による、マルチモーダル融合システムの全体的アーキテクチャを示す概念図である。
本開示の態様による、オブジェクト検出のための例示的な3Dポイントクラウドを示す図である。
本開示の態様による、オブジェクト検出のための例示的な2D画像を示す図である。
本開示の態様による、オブジェクト検出及びローカリゼーションの例示的な方法を示すフローチャートを示す図である。
本開示の態様による使用のための、様々なハードウェア構成要素及び他の特徴の例示的なシステム図を示す。
本開示の態様による使用のための、様々な例示的なシステム構成要素のブロック図である。
以下は、本明細書で使用される選択された用語の定義を含む。定義は、用語の範囲内に含まれ、かつ実装に使用され得る、様々な実施例及び/又は構成要素の形態を含む。実施例は、限定することを意図するものではない。
本明細書で使用される場合、「プロセッサ」という用語は、信号を処理し、一般的なコンピューティング及び演算機能を実行する。プロセッサによって処理された信号は、デジタル信号、データ信号、コンピュータ命令、プロセッサ命令、メッセージ、ビット、ビットストリーム、又は受信、送信、及び/若しくは検出され得る他のコンピューティングを含んでもよい。
本明細書で使用される場合、「バス」という用語は、単一又は複数のシステム内のコンピュータ構成要素間でデータを転送するように動作可能に接続された、相互接続されたアーキテクチャを指す。バスは、とりわけ、メモリバス、メモリコントローラ、周辺バス、外部バス、クロスバースイッチ、及び/又はローカルバスであってもよい。バスはまた、とりわけ、コントローラエリアネットワーク(Controller Area network、CAN)、ローカル相互接続ネットワーク(Local Interconnect Network、LIN)などのプロトコルを使用して、車両内部の構成要素を相互接続する、車両バスであってもよい。
本明細書で使用される場合、「メモリ」という用語は、揮発性メモリ及び/又は不揮発性メモリを含み得る。不揮発性メモリには、例えば、ROM(read only memory:読み取り専用メモリ)、PROM(programmable read only memory:プログラマブル読み取り専用メモリ)、EPROM(erasable PROM:消去可能なPROM)、及びEEPROM(electrically erasable PROM:電気的消去可能なPROM)が含まれ得る。揮発性メモリには、例えば、RAM(random access memory:ランダムアクセスメモリ)、同期RAM(synchronous RAM、SRAM)、ダイナミックRAM(dynamic RAM、DRAM)、シンクロナスDRAM(synchronous DRAM、SDRAM)、ダブルデータレートSDRAM(double data rate SDRAM、DDR SDRAM)、及び/又はダイレクトRAMバスRAM(direct RAM bus RAM、DRRAM)が含まれ得る。
本明細書で使用するとき、「動作可能な接続」は、エンティティが「動作可能に接続される」接続を含み得、これは、信号、物理的通信、及び/又は論理的通信が、送信及び/又は受信され得るものである。動作可能な接続は、物理的インターフェース、データインターフェース、及び/又は電気インターフェースを含んでもよい。
本明細書で使用される場合、「車両」という用語は、任意の形態のエネルギーによって電力供給される、任意の移動車両を指す。車両は、人間の乗員又は積荷を運び得る。「車両」という用語には、限定するものではないが、自動車、トラック、バン、ミニバン、SUV、オートバイ、スクーター、ボート、パーソナルウォータークラフト、及び航空機が含まれる。場合によっては、モータ車両は、1つ以上のエンジンを含む。
2Dオブジェクト検出に関する最近の研究は、ディープ畳み込みニューラルネットワークの成功により大きな進歩を遂げてきた。しかしながら、画像から深さ情報を再構成することは、深さ情報が3Dオブジェクト検出に必要とされる可能性があるため、困難であることが知られている。本開示は、LiDARポイントクラウドデータ及び画像データを活用して、オブジェクトを3Dにローカライズするためのシステムを提供する。本開示は、運転シナリオにおいてマルチクラスオブジェクトを取り扱うための効果的な3Dオブジェクト提案アルゴリズムを提供する。本開示は、2D及び3D畳み込みニューラルネットワークを、2D及び3D関心領域(region of interest、ROI)プーリングと統合する、フレームワークを提供する。本開示は、画像及びポイントクラウドからの情報を組み込むために、小型バイリニアプーリングアルゴリズムを使用するマルチモーダルフレームワークを提供する。フレームワークは、KITTIデータセットなどの困難な現実世界のデータセットにおいて好ましい結果を示す。
図1を参照すると、本開示の一態様による、3Dオブジェクト検出及び配向のためのオブジェクト検出システム110の例示的な動作環境100の概略図が提供される。オブジェクト検出システム110は、車両102内に存在してもよい。オブジェクト検出システム110の構成要素、並びに本明細書で考察される他のシステムの構成要素、ハードウェアアーキテクチャ、及びソフトウェアアーキテクチャは、組み合わされてもよく、省略されてもよく、又は様々な実装形態に編成されてもよい。
車両102は、概して、複数の車両システムを動作可能に制御する、電子制御ユニット(electronic control unit、ECU)112を含むことができる。車両システムは、とりわけ、車両HVACシステム、車両オーディオシステム、車両ビデオシステム、車両インフォテインメントシステム、車両電話システムなどを含むマルチモーダル融合システム140を含む、オブジェクト検出システム110を含むことができるが、これらに限定されない。マルチモーダル融合システム140は、以下に更に詳細に記載されるように、ECU112に接続されて、車両102を取り囲む環境の画像をまた提供し得る、カメラ120又は他の画像捕捉デバイス(例えば、スキャナ)を含むことができる。マルチモーダル融合システム140はまた、3Dポイントクラウドを捕捉することができる、LiDARセンサ122を含んでもよい。オブジェクト検出システム110はまた、カメラ120、LiDARセンサ122、通信デバイス130及び自動運転システム132と通信する、プロセッサ114及びメモリ116を含んでもよい。
ECU112は、内部処理メモリ、インターフェース回路、及びデータを転送し、コマンドを送信し、車両システムと通信するためのバスラインを含んでもよい。ECU112は、図示されていない内部プロセッサ及びメモリを含み得る。車両102はまた、オブジェクト検出システム110の様々な構成要素間でデータを内部的に送信するためのバスを含んでもよい。
車両102は、車両102内の特徴及びシステムに関して、そして外部デバイスに関して内部で電子信号を送受信するために、様々なプロトコルを利用して、有線又は無線のコンピュータ通信を提供するための通信デバイス130(例えば、無線モデム)を更に含み得る。これらのプロトコルは、無線周波数(radio-frequency、RF)通信(例えば、IEEE 802.11(Wi−Fi)、IEEE 802.15.1(Bluetooth(登録商標)))、近距離通信システム(near field communication、NFC)(例えば、ISO 13157)、ローカルエリアネットワーク(local area network、LAN)、無線ワイドエリアネットワーク(wireless wide area network、WWAN)(例えば、セルラー)、及び/又はポイントツーポイントシステムを利用する、無線システムを含んでもよい。更に、車両102の通信デバイス130は、バス(例えば、CAN又はLINプロトコルバス)を介して、内部コンピュータ通信のために動作可能に接続されて、電子制御ユニット112と車両特徴及びシステムとの間のデータ入力及び出力を容易にすることができる。一態様では、通信デバイス130は、車対車間(vehicle-to-vehicle、V2V)通信用に構成されてもよい。例えば、V2V通信は、予約された周波数スペクトルにわたる無線通信を含み得る。別の実施例として、V2V通信は、Wi−Fi又はBluetooth(登録商標)を使用して設定された、車両間のアドホックネットワークを含んでもよい。
車両102は、少なくとも1つのカメラ120を含んでもよい。カメラ120は、1つ以上の画像若しくは画像ストリームを捕捉することができるデジタルカメラであってもよく、又はスキャナなどの別の画像捕捉デバイスであってもよい。カメラ120は、車両102の直接的に前面の空間の画像を提供してもよい。他のカメラは、車両102を取り囲む他の空間の画像を提供してもよい。例えば、後方カメラは、車両のバンパーの上方に配置されてもよい。カメラ120は、マルチモーダル融合システム140の2Dブランチ146、及びマルチモーダル融合システム140の3Dブランチ144に、画像を提供してもよい。
車両102は、少なくとも1つの光検出及び測距(LiDAR)センサ122を含んでもよい。LiDARセンサ122は、ある領域をレーザ光で照明し、後方散乱を検出することができる。LiDARセンサ122は、オブジェクトがレーザ光を反射する潜在的位置を示す、3Dポイントクラウドを生成することができる。LiDARセンサ122はまた、3Dポイントクラウドを、マルチモーダル融合システム140の3Dブランチ144及び3D提案モジュール142に提供し得る。
車両102は、車両102を制御するための自動運転システム132を含んでもよい。自動運転システム132は、他のシステムの中でもとりわけ、車線維持支援システム、衝突警告システム、又は完全自律運転システムを含むことができる。自動運転システム132は、マルチモーダル融合システム140からオブジェクト位置及び配向情報を受信し得る。一態様では、マルチモーダル融合システム140は、自動運転システム132の構成要素であってもよい。
図2は、マルチモーダル融合システムの全体的なフレームワークを示す概念図200を示す。フレームワーク全体は、いくつかの部分、すなわち3Dオブジェクト提案モジュール142、3Dニューラルネットワークブランチ144、2Dニューラルネットワークブランチ146、並びに検出及び配向推定のためのマルチモーダル小型バイリニア(multimodal compact bilinear、MCB)プーリング層148から構成される。
3Dオブジェクト提案モジュール142は、3D空間内に多くの前景オブジェクトを配置するために、3D候補ボックスの小さいセットを生成することができる。3Dオブジェクト提案モジュール142は、離散化された3Dグリッド下での占有率推定、及び未加工のポイントクラウドを用いた3D幾何学的分析を活用して、3D空間内の正確なオブジェクト提案を提案することができる。図3は、例示的なLiDARポイントクラウド202を示す。(例えば、LiDARセンサ122からの)LiDARポイントクラウド202の単一フレームでは、LiDAR範囲の閉塞及び限界により、周囲の全てのオブジェクトを位置特定することは困難である。例えば、前景オブジェクトに当たるLiDAR光線は、別のオブジェクトを閉塞するであろう。別の実施例として、遠くのオブジェクトのためのLiDAR光線は、指数関数的なLiDAR電力がより長い距離で減少するために、疎になる可能性がある。しかしながら、LiDARは、周囲の良好な推定を得るために、単一フレームのLiDARポイントクラウドの最良の能力まで利用することができる。単一フレーム内の全てのLiDAR光線を追跡することにより、3Dオブジェクト提案モジュール142は、空間の占有確率を推定することができる。この方法は、バイナリ占有グリッドモデルと称されることがあり、バイナリ占有グリッド204を生成することができる。3D空間をボクセルに離散化した後、3Dオブジェクト提案モジュール142は、各ボクセルについて、占有又は未占有のバイナリ状態を仮定することができる。3Dオブジェクト提案モジュール142は、LiDAR光線によって横断される各ボクセルの占有率ログオッズを反復的に更新してもよい。例えば、ボクセルの占有率ログオッズを更新するための手順は、D.Maturana及びS.Scherer、「VoxNet:A 3D Convolutional Neural Network for Real−Time Object Recognition.」、IROS,2015に記載されており、これは参照により本明細書に組み込まれる。3Dオブジェクト提案モジュール142は、[0、1]の範囲の各ボクセルに対応する占有確率を生成し得る。LiDARのヒッティング表面(例えば、閉塞表面)の後ろにあるので手順が更新されていないボクセルについては、3Dオブジェクト提案モジュールは、それらを占有されていると仮定し、確率を1に設定し得、これは、Maturana及びSchererの手順とは異なる。離散化占有グリッドは、前景オブジェクトの可能な位置を狭めるLiDARのヒッティング表面を提供するだけでなく、エンドツーエンド融合ネットワークにおける更なる特徴抽出のために、3D入力のサイズも低減する。
屋外運転シナリオの下で捕捉された単一フレームのLiDARポイントクラウド202は、同様のパターンを有し、未加工のLiDARポイントクラウドの幾何学的キューのみを考慮することにより、有意義なクラスタを抽出することが容易である。3Dオブジェクト提案モジュール142は、まず、例えば、プログレッシブ形態学的フィルタリングアルゴリズムを実行することができる、グラウンド除去モジュール220を使用して、グラウンドポイントを除去することができる。例示的なアルゴリズムは、K.Zhang,S.−C.Chen,D.Whitman,M.−L.Shyu,J.Yan及びC.Zhang、「A Progressive Morphological Filter for Removing Nonground Measurements From Airborne LIDAR Data.」IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING,41(4):872−882,2003に記載されており、これは参照により本明細書に組み込まれる。例示的なアルゴリズムは、グラウンドポイントを抽出するために一般的に使用され、道路上のバンプに対して堅牢である。グラウンドポイントがポイントクラウドから取り除かれた後、3Dオブジェクト提案モジュール142は、ユークリッドクラスタリングモジュール222を使用することができ、これは、ユークリッドクラスタリングアルゴリズムを実行して、残りのポイントクラウド202をクラスタ化し、可能なオブジェクトクラスタを取得することができる。クラスタc内のポイントpについて、3Dオブジェクト提案142モジュールは、Pとその最近傍との間のユークリッド距離を、d として表すことができる。距離d が閾値th以下である場合、最近傍は、クラスタ内に含まれる。屋外シーン内のオブジェクト間の距離が異なるので、粒度の異なるオブジェクトクラスタを抽出するために、異なる閾値thが選択されてもよい。
3D幾何学的分析から取得されたオブジェクトクラスタは、周囲のオブジェクトの大まかな位置を示すことができるが、3Dオブジェクト提案モジュール142は、より正確な位置及びサイズを有する、3Dボックスを更に提案することができる。3Dオブジェクト提案モジュール142は、LiDAR座標系における3D提案ボックス226のサイズ(長さ、幅、及び高さ)及び中心(x、y、z)(メートル単位)である(l,w,h,x,y,z)によって、各3D提案ボックス226をパラメータ化するための3D提案生成モジュール224を含んでもよい。3Dオブジェクト提案モジュール142は、目標オブジェクトカテゴリの共通のアスペクト比に対応する、3D提案ボックス226についての小さいサイズのセットS size を指定することができる。3Dオブジェクト提案生成のための例示的なアルゴリズムは、参照により本明細書に組み込まれる、X.Chen,H.Ma,J.Wan,B.Li及びT.Xia,「Multi−View 3D Object Detection Network for Autonomous Driving.」in CVPR,2017に記載されている。
3Dオブジェクト提案モジュール142は、S size を取得するために、平均シフトクラスタリングアルゴリズムを使用して、訓練セット内のグラウンドトルス(ground truth、GT)オブジェクトサイズをクラスタ化してもよい。3D幾何学的分析から取得された各オブジェクトクラスタについて、3Dオブジェクト提案モジュール142は、(l,w,h)∈S size を有するボックスを提案してもよい。提案の配向は、LIDAR座標系の長軸と整列するように固定されてもよい。
各3D提案ボックス226の位置に関して、ボックス中心のz座標は、3D幾何学的分析からのグラウンド高さ及びオブジェクト高さhに基づいて計算され得る。(x、y)を決定することは、占有グリッド204から導出された3D空間における占有推定を利用することができる。直感的に、周囲のオブジェクトは、LiDARのヒッティング表面の前方にあるべきではなく、自由空間をカバーするべきではないと仮定され得る。したがって、占有グリッド204からのLIDARのヒッティング表面キューを活用することによって、各アスペクト比について、3Dオブジェクト提案モジュール142は、同時にオブジェクトクラスタを囲み、最も占有されている空間をカバーすることができる、提案ボックス226を生成することができる。zが既に固定されているため、3Dオブジェクト提案モジュール142は、(x、y)を変化させて、最も占有されているボックスを見つけることができる。xy平面上のオブジェクトクラスタの境界は、(Obj xmin ,Obj ymin ,Obj xmax ,Obj ymax )と表すことができる。提案サイズ(l,w)では、中心の可能な位置は、[Obj xmax −l/2,Objxmin+l/2]×[Obj ymax −w/2,Obj ymin +w/2]の範囲である。中心の各可能な位置に対して、3Dオブジェクト提案モジュール142は、ボックス内の占有率オッズの合計を計算し、最後に最大の占有確率を有するものを選択することができる。オブジェクトクラスタが大きすぎてボックスで囲むことができない場合、これは、Obj xmax −l/2>Obj xmin +l/2又はObj ymax −w/2>Objymin+w/2のときに起こり、その際、オブジェクトクラスタは必ずしも完全ではないので、3Dオブジェクト提案モジュール142は、x=(Obj xmin +Obj xmax )/2及びy=(Obj ymin +Obj ymax )/2でボックス226を生成することができる。最後に、S size にN個の異なるサイズが存在し、3D幾何学的分析からK個のオブジェクトクラスタが存在する場合、NK個の異なる提案ボックスが存在であろう。3D幾何学的分析によるオブジェクトクラスタKの数が異なるため、提案数はポイントクラウドのフレームごとに異なるであろう。
マルチモーダル融合システム140は、マルチモーダル情報から正確な3Dローカリゼーション及び分類結果を提供することができる。LiDARポイントクラウド202は、オブジェクトのより堅牢な3Dローカリゼーション(位置及び配向を含む)を提供することができるが、LiDARポイントクラウド202の分析は、疎なデータでは、オブジェクトをうまく認識することができない。一方、画像206は、赤−緑−青(red-green-blue、RGB)チャネルからの情報を有し、より高密度に構造化されたデータを提供するので、画像206は、オブジェクトを認識するためのはるかに優れた能力を有する。図4は、図3のポイントクラウド202と同じ環境の表現を示す、例示的な画像206を示す。したがって、マルチモーダル融合システム140は、3Dニューラルネットワークブランチ144及び2Dニューラルネットワークブランチ146を使用して、両方のデータセットからの利点を活用することができ、3Dオブジェクト提案を共同で分類し、3D提案ボックス回帰を行うことができる。
マルチモーダル融合システム140の3Dブランチ144は、元の3DのLIDARポイントクラウド202をより低い解像度で表す占有グリッド204全体を、入力として取り得る。3Dブランチ144は、いくつかの3D畳み込み層210、214及び最大プーリング層212を使用して、特徴を抽出してもよい。3Dブランチ144は、3D提案ボックス226ごとに、3Dで畳み込み特徴マップを生成し得る。例示的な技術は、参照により本明細書に組み込まれる、R.Girshick,「Fast R−CNN」in ICCV,2015に記載されている。3Dブランチ144は、3D関心領域(ROI)プーリング層216を使用して、畳み込み層214によって出力された特徴マップから固定サイズ3D特徴ベクトルを抽出することができる。完全に接続された層218は、更なる融合プロセスのために特徴ベクトルを平坦化するために、3Dブランチ144の端部に積み重ねられてもよい。
ネットワーク設計の場合、例示的な3Dブランチ144は、最大プーリング層212を有する2つの3D畳み込み層210と、続いて別の2つの3D畳み込み層214とを積層して、占有グリッドから特徴を抽出する。例えば、3D畳み込み層210は、ニューラルネットワークに対して、(32、5、2、1)のパラメータを使用することができる。畳み込み層214は、ニューラルネットワークに対して、(64、5、2、1)のパラメータを使用することができる。交通シーン(例えば、ポイントクラウド202)内の目標オブジェクト(例えば、自動車、歩行者、サイクリスト)のサイズは、全3D空間と比較して非常に小さい場合があるので、3Dブランチ144は、それらの小さいオブジェクトを検出するために、大きい特徴マップを維持するために1つの最大プーリング層212のみを適用することができる。構造化された情報が、画像206と比較して占有グリッド204内で少ないため、このアーキテクチャ設計は、3Dにおける学習強力表現を提供することが見出された。
融合ネットワーク200の2Dブランチ146は、Girshickによって説明されるようなFast−RCNNネットワークなどの2D畳み込みネットワーク230を含んでもよい。Fast−RCNNネットワークは、入力として画像206全体を取ることができ、VGG16ネットワークを使用して、2D特徴マップを生成することができる。更に、2D提案ボックス232は、投影によって3D提案ボックス226から取得されてもよい。次いで、2DのROIプーリング層234は、2D提案ボックス232ごとに固定された2D特徴ベクトルを抽出してもよい。次に、完全に接続された層236は、3Dブランチ144のように2D特徴ベクトルを平坦化することができる。
両方の入力(ポイントクラウド202及び画像206)からの利点を活用するために、マルチモーダル小型バイリニア(MCB)プーリング層148を使用して、マルチモーダル特徴を効率的かつ表現的に組み合わせることができる。元のバイリニアプーリングモデルは、2つのベクトル間の外積を計算し、これにより、両方のベクトルの全ての要素間の乗法的な相互作用が可能になる。次いで、元のバイリニアプーリングモデルは、次元数を低減し、バイリニアプーリングの効率を向上させるために、カウントスケッチ投影関数を利用した。元のバイリニアプーリングモデルの例は、A.Fukui,D.H.Park,D.Yang,A.Rohrbach,T.Darrell及びM.Rohrbach,「Multimodal Compact Bilinear Pooling for Visual Question Answering and Visual Grounding」in arXiv,2016、並びにY.Gao,O.Beijbom,N.Zhang及びT.Darrell,「Compact Bilinear Pooling」in CVPR,2016に記載されており、その両方とも参照により本明細書に組み込まれる。視覚的及びテキスト表現からのマルチモーダル特徴を組み合わせることにより、元の小型バイリニアプーリング層を、視覚的質問応答タスクに適用した。マルチモーダル小型バイリニアプーリングの成功は、2つの非常に異なるドメインからの特徴の融合を取り扱う可能性を示している。
一態様では、マルチモーダル小型バイリニアプーリング層148は、3Dドメインから3Dブランチ144によって、及び2Dドメインから2Dブランチ146によって抽出された2つの平坦化された特徴ベクトルを取り、分類及び3Dバウンディングボックス回帰のための4096−Dマルチモーダル表現を生成してもよい。分類は、分類モジュール240によって実行されてもよい。
マルチモーダル小型バイリニアプーリング層148からの融合表現を考慮すると、バウンディングボックス回帰モジュール242は、3D提案ボックス226から、3Dバウンディングボックスの配向及びサイズを回帰させることができる。サイズ回帰については、Fast−RCNNと同様に、バウンディングボックス回帰モジュール242は、t=(Δx、Δy、Δz、Δl、Δw、Δh)によって、回帰目標をパラメータ化することができ、ここで、(Δx、Δy、Δz)は、提案サイズによって正規化された中心オフセットであり、(Δl、Δw、Δh)は、Δs=log(s GT /s proposal ),s∈{l,w,h}として計算される。配向回帰の場合、3D配向回帰モジュール244は、Δθ=θ GT −θ proposal によって、回帰目標をパラメータ化することができ、ここでθは、z軸の周りの3Dバウンディングボックスの回転角である。車両設定では、グラウンドトルス(GT)は、(l、w、h)が常に(x、y、z)軸と整列するように注釈が付けられているので、角度範囲は、配向回帰をより容易にする[−π/4、π/4]で制限され得る。提案ボックスは、LIDAR座標の主軸と整列するように設定されているため(θ proposal =0)、配向目標は、Δθ=Δ GT として簡略化され得る。
図5は、オブジェクト及び配向を検出するための例示的な方法500のフローチャートを示す。方法500は、車両102内のオブジェクト検出システム110によって実行されてもよい。
ブロック510において、方法500は、3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定することを含み得る。一態様では、例えば、3D提案モジュール142は、3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定することができる。一態様では、ブロック510は、3Dポイントクラウドの離散化ボクセルを表す占有グリッドを生成することを含み得る。例えば、3D提案モジュール142は、バイナリ占有グリッド204を生成してもよい。ブロック510は、3Dポイントクラウドに基づいて、各ボクセルを占有又は非占有のいずれかとして指定することを含み得る。例えば、3D提案モジュール142は、ポイントクラウド202に基づいて、バイナリ占有グリッド204の各ボクセルを、占有又は非占有のいずれかとして指定してもよい。ブロック510は、LiDAR光線が通り抜けたボクセルに対応する占有確率で、占有グリッドを更新することを含み得る。例えば、3D提案モジュール142は、LiDAR線が通り抜けたボクセルに対応する占有確率で、バイナリ占有グリッド204を更新し得る。ブロック510は、ボクセルが占有されていることを示すために、閉塞したボクセルの占有確率を設定することを含み得る。例えば、3D提案モジュール142は、バイナリ占有グリッド204内の閉塞したボクセルの占有確率を設定して、ボクセルが占有されていることを示し得る。例えば、表面によって閉塞されているボクセルは、表面の背後にあるオブジェクトによって占められていると仮定することができる。
別の態様では、ブロック510は、3Dポイントクラウドからグラウンドポイントを除去することを含み得る。例えば、グラウンド除去モジュール220は、ポイントクラウド202からグラウンドポイントを除去することができる。ブロック510は、閾値未満のユークリッド距離を有するポイントクラウドのポイントを、提案されたクラスタにクラスタ化することを含み得る。例えば、ユークリッドクラスタリングモジュール222は、閾値未満のユークリッド距離を有するポイントクラウド202のポイントを、提案されたクラスタにクラスタ化することができる。
一態様では、ブロック510は、長さ、幅、高さ、及び中心座標を有する3D提案ボックスとして、各提案されたクラスタをパラメータ化することを含み得る。例えば、3D提案生成モジュール224は、長さ、幅、高さ、及び中心座標を有する3D提案ボックス226として、各提案されたクラスタをパラメータ化することができる。3D提案生成モジュール224は、グラウンド高さ(グラウンド除去モジュール220によって決定される)及び提案ボックス226の高さに基づいて、中心座標のz座標を設定してもよい。一態様では、ブロック510は、固定長さ及び高さを有する少なくとも1つの提案ボックス226を生成することを含んでもよい。提案ボックス226の中心座標のx座標及びy座標は、提案ボックス226内のボクセルの占有確率を最大化するように選択され得る。例えば、3D提案生成モジュール224は、(例えば、所定のオブジェクトタイプに基づいて)固定長さ及び高さを設定し、提案ボックス226の占有率を最大にするx座標及びy座標を選択してもよい。3D提案生成モジュール224は、提案されたクラスタについての複数の提案ボックスを生成してもよく、各提案ボックスは、(例えば、異なる所定のオブジェットタイプに対応する)長さ、高さ、及び幅の異なる組み合わせを有する。ブロック520において、方法500は、3D畳み込みニューラルネットワークに基づいて、3Dポイントクラウドから第2の3D提案セットを決定することを含み得る。一態様では、例えば、3Dブランチ144は、3D畳み込みニューラルネットワークに基づいて、3Dポイントクラウドから第2の3D提案セットを決定することができる。一態様では、3Dブランチ144は、複数の畳み込み層及び少なくとも1つの最大プーリング層を適用して、第2の3D提案セットを含む畳み込み特徴マップを生成することができる。例えば、3D畳み込みニューラルネットワークは、3D畳み込み層310、最大プーリング層212、及び3D畳み込み層312を含み得る。
ブロック530において、方法500は、第1の3D提案セット及び第2の3D提案セットをプールして、3D候補セットを決定することを含み得る。一態様では、例えば、3Dブランチ144は、3D候補セットを決定するために、第1の3D提案セット及び第2の3D提案セットをプールすることができる。一態様では、ブロック530における第1の3D提案セット及び第2の3D提案セットをプールすることは、第2の3D提案セットの各3D提案について、畳み込み特徴マップから固定サイズの3D特徴ベクトルを抽出することを含み得る。例えば、3DのROIプーリング層144は、第2の3D提案セットの各3D提案について、畳み込み特徴マップから固定サイズの3D特徴ベクトルを抽出することができる。ブロック530はまた、完全に接続された層を使用して、固定サイズの3D特徴ベクトルを平坦化することも含み得る。例えば、3Dブランチ144は、完全に接続された層218を使用して、固定サイズの3D特徴ベクトルを平坦化することができる。
ブロック540において、方法500は、第1の3D提案セットを2D画像上に投影することを含み得る。一態様では、例えば、2Dブランチ146は、第1の3D提案セットを2D画像上に投影することができる。2Dブランチ146は、2D提案ボックス232を生成してもよい。
ブロック550において、方法500は、2D畳み込みニューラルネットワークを使用して、画像に基づいて、第1の2D提案セットを決定することを含み得る。一態様では、例えば、2Dブランチ146は、2D畳み込みニューラルネットワーク230を使用して、画像に基づいて、第1の2D提案セットを決定することができる。例えば、2D畳み込みニューラルネットワーク230は、第1の2D提案セットを含む2D特徴マップを生成することができる。
ブロック560において、方法500は、2D候補セットを決定するために、第1の3D提案セット及び第1の2D提案セットをプールすることを含み得る。一態様において、マルチモーダル小型バイリニアプーリング層148については、投影された第1の3D提案セット及び第1の2D提案セットをプールして、2D候補セットを決定することができる。
ブロック570において、方法500は、3D候補セット及び2D候補セットをプールすることを含んでもよい。一態様では、例えば、マルチモーダル小型バイリニアプーリング層148は、3D候補セット及び2D候補セットをプールしてもよい。一態様では、ブロック570は、3D候補セットを表す3D特徴ベクトルと、2D候補セットを表す2D特徴ベクトルとの間の外積を計算して、マルチモーダル表現を生成することを含んでもよい。ブロック570は、マルチモーダル表現から3D提案ボックスのサイズ及び配向を回帰させることを更に含んでもよい。例えば、3Dバウンディングボックス回帰モジュール242は、3D提案ボックスのサイズを回帰させることができ、3D配向回帰モジュール244は、3D提案ボックスの配向を回帰させることができる。
本開示の態様は、ハードウェア、ソフトウェア、又はそれらの組み合わせを使用して実装されてもよく、1つ以上のコンピュータシステム又は他の処理システムにおいて実装されてもよい。一態様では、本開示は、本明細書に記載される機能を実行することができる、1つ以上のコンピュータシステムを対象とする。図6は、本開示の態様に従って使用され得る、様々なハードウェア構成要素及び他の特徴の例示的なシステム図を示す。本開示の態様は、ハードウェア、ソフトウェア、又はそれらの組み合わせを使用して実装されてもよく、1つ以上のコンピュータシステム又は他の処理システムにおいて実装されてもよい。1つの例示的な変形例では、本開示の態様は、本明細書に記載される機能を実行することができる、1つ以上のコンピュータシステムを対象とする。このようなコンピュータシステム600の実施例を、図6に示す。
コンピュータシステム600は、プロセッサ604などの1つ以上のプロセッサを含む。プロセッサ604は、通信インフラストラクチャ606(例えば、通信バス、クロスオーバーバー、又はネットワーク)に接続されている。この例示的なコンピュータシステムに関して、様々なソフトウェア態様が記載される。この説明を読んだ後、当業者(複数可)には、他のコンピュータシステム及び/又はアーキテクチャを使用して、本開示の態様を実施する方法が明らかになるであろう。
コンピュータシステム600は、表示ユニット630上に表示するために、通信インフラストラクチャ606から(又は図示されないフレームバッファから)グラフィック、テキスト、及び他のデータを転送する、表示インターフェース602を含み得る。コンピュータシステム600はまた、メインメモリ608、好ましくはランダムアクセスメモリ(RAM)を含み、二次メモリ610も含み得る。二次メモリ610は、例えば、ハードディスクドライブ612、及び/又はフロッピーディスクドライブ、磁気テープドライブ、光ディスクドライブなどを表す取り外し可能な記憶ドライブ614を含んでもよい。取り外し可能な記憶ドライブ614は、周知の様式で、取り外し可能な記憶ユニット618から読み取り、及び/又はそこに書き込む。取り外し可能な記憶ユニット618は、フロッピーディスク、磁気テープ、光ディスクなどを表し、これは取り外し可能な記憶ドライブ614によって読み取られ、そこに書き込まれる。理解されるように、取り外し可能な記憶ユニット618は、その中にコンピュータソフトウェア及び/又はデータを記憶する、コンピュータ使用可能な記憶媒体を含む。
代替的な態様では、二次メモリ610は、コンピュータプログラム又は他の命令を、コンピュータシステム600にロードすることを可能にするための他の同様のデバイスを含んでもよい。このようなデバイスは、例えば、取り外し可能な記憶ユニット622及びインターフェース620を含み得る。このような例としては、プログラムカートリッジ及びカートリッジインターフェース(ビデオゲームデバイスに見られるものなど)、取り外し可能なメモリチップ(消去可能プログラマブル読み取り専用メモリ(EPROM)又はプログラム可能な読み取り専用メモリ(PROM)など)、及び関連するソケット、並びにソフトウェア及びデータが、取り外し可能な記憶ユニット622からコンピュータシステム600に転送されることを可能にする、他の取り外し可能な記憶ユニット622及びインターフェース620が含まれ得る。
コンピュータシステム600はまた、通信インターフェース624を含み得る。通信インターフェース624は、ソフトウェア及びデータが、コンピュータシステム600と外部デバイスとの間で転送されることを可能にする。通信インターフェース624の例としては、モデム、ネットワークインターフェース(イーサネットカードなど)、通信ポート、パーソナルコンピュータメモリカード国際協会(Personal Computer Memory Card International Association、PCMCIA)スロット及びカードなどを含むことができる。通信インターフェース624を介して転送されるソフトウェア及びデータは、通信インターフェース624によって受信されることが可能な電子、電磁気、光学、又は他の信号であり得る、信号628の形態である。これらの信号628は、通信経路(例えば、チャネル)626を介して、通信インターフェース624に提供される。この経路626は、信号628を搬送し、ワイヤ若しくはケーブル、光ファイバ、電話線、セルラリンク、無線周波数(RF)リンク、及び/又は他の通信チャネルを使用して、実装されてもよい。本文書では、「コンピュータプログラム媒体」及び「コンピュータ使用可能媒体」という用語は、一般に、取り外し可能な記憶ドライブ680、ハードディスクドライブ670に取り付けられたハードディスク、及び信号628などの媒体を指すために使用される。これらのコンピュータプログラム製品は、コンピュータシステム600にソフトウェアを提供する。本開示の態様は、このようなコンピュータプログラム製品を対象とする。
コンピュータプログラム(コンピュータ制御ロジックとも称される)は、メインメモリ608及び/又は二次メモリ610に記憶される。コンピュータプログラムはまた、通信インターフェース624を介して受信されてもよい。このようなコンピュータプログラムは、実行されると、本明細書で考察されるように、コンピュータシステム600が、本開示の態様に従って様々な機能を実行することを可能にする。具体的には、コンピュータプログラムは、実行されると、プロセッサ604がそのような機能を実行することを可能にする。したがって、このようなコンピュータプログラムは、コンピュータシステム600のコントローラを表す。
本開示の態様がソフトウェアを使用して実装される変形例では、ソフトウェアは、コンピュータプログラム製品に記憶され、取り外し可能な記憶ドライブ614、ハードドライブ612又は通信インターフェース620を使用して、コンピュータシステム600にロードされてもよい。制御ロジック(ソフトウェア)は、プロセッサ604によって実行されると、プロセッサ604に、本明細書に記載されるような本開示の態様に従って機能を実行させる。別の変形例では、態様は、例えば、特定用途向け集積回路(application specific integrated circuit、ASIC)などのハードウェア構成要素を使用して、主にハードウェアで実装される。本明細書に記載される機能を実行するためのハードウェア状態マシンの実装は、当業者(複数可)には明らかとなるであろう。
更に別の例示的な変形例では、本開示の態様は、ハードウェア及びソフトウェアの両方の組み合わせを使用して実装される。
図7は、本開示の態様に従って使用され得る、様々な例示的なシステム構成要素のブロック図である。例えば、様々な構成要素は、車両102内にあってもよく、又は構成要素の一部のみが車両102内にあってもよく、他の構成要素が車両102から離れていてもよい。システム700は、1つ以上のアクセサ760、762(本明細書では、1つ以上の「ユーザ」とも交換可能に称される)及び1つ以上の端末742、766(そのような端末は、例えば、オブジェクト検出システム110の様々な特徴であってもよく、又はそれを含んでもよい)を含む。一態様では、本開示の態様に従って使用するためのデータは、例えば、パーソナルコンピュータ(personal computer、PC)、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、電話デバイスなどの端末742、766、又はPC、ミニコンピュータ、メインフレームコンピュータ、マイクロコンピュータ、若しくはプロセッサ及びデータ用のリポジトリ、並びに/又は例えば、インターネット若しくはイントラネットなどのネットワーク744、及びカップリング745、746、764を介した、データ用のリポジトリへの接続を有する他のデバイスなどのサーバー743に連結されたパーソナルデジタルアシスタント(personal digital assistant、「PDA」)若しくはハンドヘルド無線デバイスなどの無線デバイスを介して、アクセサ760、762によって入力及び/又はアクセスされる。カップリング745、746、764は、例えば、有線、無線、又は光ファイバリンクを含む。別の例示的な変形例では、本開示の態様に従う方法及びシステムは、単一端末上などの独立型環境で動作する。
本明細書で考察される本開示の態様はまた、コンピュータ実行可能命令を記憶するコンピュータ可読記憶媒体のコンテキストにおいて、説明及び実施され得る。コンピュータ可読記憶媒体は、コンピュータ記憶媒体及び通信媒体を含む。例えば、フラッシュメモリドライブ、デジタル多用途ディスク(digital versatile disc、DVD)、コンパクトディスク(compact disc、CD)、フロッピーディスク、及びテープカセット。コンピュータ可読記憶媒体は、コンピュータ可読命令、データ構造、モジュール、又は他のデータなどの情報を記憶するための任意の方法又は技術で実装される、揮発性及び不揮発性、取り外し可能及び取り外し不可能な媒体を含んでもよい。
上記で開示された及び他の特徴及び機能の様々な実装形態、又はそれらの代替例若しくは変形例は、多くの他の異なるシステム又は用途に望ましく組み合わされ得ることが理解されるであろう。また、当業者であれば、添付の特許請求の範囲によって包含されることも意図される、現在予測又は予期されていない様々な代替、修正、変形、又は改良を今後行うことができる。

Claims (20)

  1. 3Dポイントクラウド及び2D画像からオブジェクトを識別する方法であって、
    前記3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定することと、
    3D畳み込みニューラルネットワークに基づいて、前記3Dポイントクラウドから、第2の3D提案セットを決定することと、
    前記第1の3D提案セット及び前記第2の3D提案セットをプールして、3D候補セットを決定することと、
    前記第1の3D提案セットを、前記2D画像上に投影することと、
    2D畳み込みニューラルネットワークを使用して、前記画像に基づいて、第1の2D提案セットを決定することと、
    前記投影された第1の3D提案セット及び前記第1の2D提案セットをプールして、2D候補セットを決定することと、
    前記3D候補セット及び前記2D候補セットをプールすることと、を含む、方法。
  2. 前記3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定することが、
    前記3Dポイントクラウドの離散化ボクセルを表す占有グリッドを生成することと、
    前記3Dポイントクラウドに基づいて、各ボクセルを、占有又は未占有のいずれかとして指定することと、
    LiDAR光線が通り抜けたボクセルに対応する占有確率で、前記占有グリッドを更新することと、
    閉塞したボクセルの占有確率を設定して、前記ボクセルが占有されていることを示すことと、を含む、請求項1に記載の方法。
  3. 前記3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定することが、
    前記3Dポイントクラウドから、グラウンドポイントを除去することと、
    閾値未満のユークリッド距離を有する前記ポイントクラウドのポイントを、提案されたクラスタにクラスタ化することと、を含む、請求項1に記載の方法。
  4. 前記3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定することが、
    長さ、幅、高さ、及び中心座標を有する3D提案ボックスとして、各提案されたクラスタをパラメータ化することを更に含む、請求項3に記載の方法。
  5. 各提案されたクラスタをパラメータ化することが、
    グラウンド高さ及びオブジェクト高さに基づいて、前記中心座標のz座標を設定することと、
    前記提案ボックス内のボクセルの占有確率を最大化する、固定長さ及び高さ、並びにx及びy座標を有する、少なくとも1つの提案ボックスを生成することと、を含む、請求項4に記載の方法。
  6. 前記少なくとも1つの提案ボックスを生成することが、提案されたクラスタについての複数の提案ボックスを生成することを含み、各提案ボックスが、長さ、高さ、及び幅の異なる組み合わせを有する、請求項5に記載の方法。
  7. 3D畳み込みニューラルネットワークに基づいて、前記3Dポイントクラウドから第2の3D提案セットを決定することが、複数の畳み込み層及び少なくとも1つの最大プーリング層を適用して、前記第2の3D提案セットを含む畳み込み特徴マップを生成することを含む、請求項1に記載の方法。
  8. 前記第1の3D提案セット及び前記第2の3D提案セットをプールすることが、
    前記第2の3D提案セットの各3D提案について、前記畳み込み特徴マップから固定サイズの3D特徴ベクトルを抽出することと、
    完全に接続された層を使用して、前記固定サイズの3D特徴ベクトルを平坦化することと、を含む、請求項7に記載の方法。
  9. 2D畳み込みニューラルネットワークを使用して、前記画像に基づいて、前記第1の2D提案セットを決定することが、前記2D畳み込みニューラルネットワークを使用して、2D特徴マップを生成することを含む、請求項1に記載の方法。
  10. 前記投影された第1の3D提案セット及び前記第1の2D提案セットをプールして、2D候補セットを決定することが、各2D提案ボックスの固定された2D特徴ベクトルを抽出することを含む、請求項1に記載の方法。
  11. 前記3D候補セット及び前記2D候補セットをプールすることが、前記3D候補セットを表す3D特徴ベクトルと、前記2D候補セットを表す2D特徴ベクトルとの間の外積を計算して、マルチモーダル表現を生成することを含む、請求項1に記載の方法。
  12. 前記3D候補セット及び前記2D候補セットをプールすることが、前記マルチモーダル表現から前記3D提案ボックスのサイズ及び配向を回帰させることを含む、請求項11に記載の方法。
  13. 車両であって、
    2D画像を取得するように構成された、カメラと、
    3Dポイントクラウドを取得するように構成された、光検出及び測距(LiDAR)システムと、
    前記3Dポイントクラウド及び前記2D画像からオブジェクトを識別するように構成された、マルチモーダル融合システムであって、メモリ、及び前記メモリに通信可能に結合されたプロセッサを含む、マルチモーダル融合システムと、を備え、前記プロセッサが、
    前記3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定することと、
    3D畳み込みニューラルネットワークに基づいて、前記3Dポイントクラウドから、第2の3D提案セットを決定することと、
    前記第1の3D提案セット及び前記第2の3D提案セットをプールして、3D候補セットを決定することと、
    前記第1の3D提案セットを、前記2D画像上に投影することと、
    2D畳み込みニューラルネットワークを使用して、前記画像に基づいて、第1の2D提案セットを決定することと、
    前記投影された第1の3D提案セット及び前記第1の2D提案セットをプールして、2D候補セットを決定することと、
    前記3D候補セット及び前記2D候補セットをプールすることと、を行うように構成されている、車両。
  14. 前記プロセッサが、
    前記3Dポイントクラウドの離散化ボクセルを表す占有グリッドを生成することと、
    前記3Dポイントクラウドに基づいて、各ボクセルを、占有又は未占有のいずれかとして指定することと、
    LiDAR光線が通り抜けたボクセルに対応する占有確率で、前記占有グリッドを更新することと、
    閉塞したボクセルの占有確率を設定して、前記ボクセルが占有されていることを示すことと、を行うように構成されている、請求項13に記載の車両。
  15. 前記プロセッサが、
    前記3Dポイントクラウドから、グラウンドポイントを除去することと、
    閾値未満のユークリッド距離を有する前記ポイントクラウドのポイントを、提案されたクラスタにクラスタ化することと。
    長さ、幅、高さ、及び中心座標を有する3D提案ボックスとして、各提案されたクラスタをパラメータ化することと、を行うように構成されている、請求項13に記載の車両。
  16. 前記プロセッサが、複数の畳み込み層及び少なくとも1つの最大プーリング層を適用して、前記第2の3D提案セットを含む畳み込み特徴マップを生成することを行うように構成されている、請求項13に記載の車両。
  17. 前記プロセッサが、
    前記第2の3D提案セットの各3D提案について、前記畳み込み特徴マップから固定サイズの3D特徴ベクトルを抽出することと、
    完全に接続された層を使用して、前記固定サイズの3D特徴ベクトルを平坦化することと、を行うように構成されている、請求項16に記載の車両。
  18. 前記プロセッサが、各2D提案ボックスについての固定された2D特徴ベクトルを抽出して、前記2D候補セットを決定するように構成されている、請求項13に記載の車両。
  19. 前記プロセッサが、
    前記3D候補セットを表す3D特徴ベクトルと、前記2D候補セットを表す2D特徴ベクトルとの間の外積を計算して、マルチモーダル表現を生成することと、
    前記マルチモーダル表現から前記3D提案ボックスのサイズ及び配向を回帰させることと、を行うように構成されている、請求項13に記載の車両。
  20. コンピュータ実行可能命令を記憶するコンピュータ可読媒体であって、プロセッサによって実行されると、前記プロセッサに、
    前記3Dポイントクラウド上でユークリッドクラスタリングを使用して、第1の3D提案セットを決定することと、
    3D畳み込みニューラルネットワークに基づいて、前記3Dポイントクラウドから、第2の3D提案セットを決定することと、
    前記第1の3D提案セット及び前記第2の3D提案セットをプールして、3D候補セットを決定することと、
    前記第1の3D提案セットを、前記2D画像上に投影することと、
    2D畳み込みニューラルネットワークを使用して、前記画像に基づいて、第1の2D提案セットを決定することと、
    前記投影された第1の3D提案セット及び前記第1の2D提案セットをプールして、2D候補セットを決定することと、
    前記3D候補セット及び前記2D候補セットをプールすることと、を行わせる、コンピュータ可読媒体。
JP2019546869A 2017-03-17 2018-03-16 マルチモーダル融合による3dオブジェクト検出と配向推定の結合 Expired - Fee Related JP6799169B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762473054P 2017-03-17 2017-03-17
US62/473,054 2017-03-17
PCT/US2018/022995 WO2018170472A1 (en) 2017-03-17 2018-03-16 Joint 3d object detection and orientation estimation via multimodal fusion

Publications (2)

Publication Number Publication Date
JP2020509494A JP2020509494A (ja) 2020-03-26
JP6799169B2 true JP6799169B2 (ja) 2020-12-09

Family

ID=63523320

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019546869A Expired - Fee Related JP6799169B2 (ja) 2017-03-17 2018-03-16 マルチモーダル融合による3dオブジェクト検出と配向推定の結合

Country Status (5)

Country Link
US (1) US10885398B2 (ja)
JP (1) JP6799169B2 (ja)
CN (1) CN110325818B (ja)
DE (1) DE112018000899T5 (ja)
WO (1) WO2018170472A1 (ja)

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11144747B2 (en) * 2017-03-31 2021-10-12 Pioneer Corporation 3D data generating device, 3D data generating method, 3D data generating program, and computer-readable recording medium storing 3D data generating program
US10751548B2 (en) * 2017-07-28 2020-08-25 Elekta, Inc. Automated image segmentation using DCNN such as for radiation therapy
US10769411B2 (en) * 2017-11-15 2020-09-08 Qualcomm Technologies, Inc. Pose estimation and model retrieval for objects in images
US11925446B2 (en) * 2018-02-22 2024-03-12 Vayyar Imaging Ltd. Radar-based classification of vehicle occupants
US11768292B2 (en) 2018-03-14 2023-09-26 Uatc, Llc Three-dimensional object detection
US11500099B2 (en) * 2018-03-14 2022-11-15 Uatc, Llc Three-dimensional object detection
US11080542B2 (en) * 2018-07-27 2021-08-03 International Business Machines Corporation Sparse region-of-interest pooling for object detection
US11100669B1 (en) * 2018-09-14 2021-08-24 Apple Inc. Multimodal three-dimensional object detection
US10984540B2 (en) * 2018-10-15 2021-04-20 Tusimple, Inc. Tracking and modeling processing of image data for LiDAR-based vehicle tracking system and method
EP3793899A4 (en) * 2018-10-29 2021-07-07 DJI Technology, Inc. MOVABLE OBJECT TO PERFORM A REAL-TIME IMAGE
DK201970115A1 (en) 2018-11-08 2020-06-09 Aptiv Technologies Limited DEEP LEARNING FOR OBJECT DETECTION USING PILLARS
DE102018127990A1 (de) * 2018-11-08 2020-05-14 Bayerische Motoren Werke Aktiengesellschaft Verfahren und Verarbeitungseinheit zur Ermittlung von Information in Bezug auf ein Objekt in einem Umfeld eines Fahrzeugs
US20200153926A1 (en) * 2018-11-09 2020-05-14 Toyota Motor North America, Inc. Scalable vehicle data compression systems and methods
US11032370B2 (en) * 2018-11-14 2021-06-08 Toyota Jidosha Kabushiki Kaisha Wireless communications in a vehicular macro cloud
US11217012B2 (en) * 2018-11-16 2022-01-04 Uatc, Llc System and method for identifying travel way features for autonomous vehicle motion control
CN109543601A (zh) * 2018-11-21 2019-03-29 电子科技大学 一种基于多模态深度学习的无人车目标检测方法
US10861176B2 (en) 2018-11-27 2020-12-08 GM Global Technology Operations LLC Systems and methods for enhanced distance estimation by a mono-camera using radar and motion data
CN109635685B (zh) * 2018-11-29 2021-02-12 北京市商汤科技开发有限公司 目标对象3d检测方法、装置、介质及设备
WO2020154967A1 (en) * 2019-01-30 2020-08-06 Baidu.Com Times Technology (Beijing) Co., Ltd. Map partition system for autonomous vehicles
CN111771135B (zh) 2019-01-30 2023-03-21 百度时代网络技术(北京)有限公司 自动驾驶车辆中使用rnn和lstm进行时间平滑的lidar定位
EP3707467A1 (en) * 2019-01-30 2020-09-16 Baidu.com Times Technology (Beijing) Co., Ltd. A rgb point clouds based map generation system for autonomous vehicles
US10817777B2 (en) * 2019-01-31 2020-10-27 StradVision, Inc. Learning method and learning device for integrating object detection information acquired through V2V communication from other autonomous vehicle with object detection information generated by present autonomous vehicle, and testing method and testing device using the same
DE102019102769A1 (de) * 2019-02-05 2020-08-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren und eine Vorrichtung zur Sensordatenfusion für ein Fahrzeug
JP7201909B2 (ja) * 2019-02-25 2023-01-11 富士通株式会社 データセット作成方法、データセット作成装置、及びデータセット作成プログラム
WO2020190781A1 (en) 2019-03-16 2020-09-24 Nvidia Corporation Leveraging multidimensional sensor data for computationally efficient object detection
CN109959911A (zh) * 2019-03-25 2019-07-02 清华大学 基于激光雷达的多目标自主定位方法及装置
CN110007675B (zh) * 2019-04-12 2021-01-15 北京航空航天大学 一种基于行车态势图的车辆自动驾驶决策系统及基于无人机的训练集制备方法
WO2020258218A1 (zh) * 2019-06-28 2020-12-30 深圳市大疆创新科技有限公司 可移动平台的障碍物检测方法、装置及可移动平台
CN114080629A (zh) * 2019-07-08 2022-02-22 伟摩有限责任公司 点云中的对象检测
US11455806B2 (en) * 2019-07-10 2022-09-27 Deka Products Limited Partnership System and method for free space estimation
CN110490915B (zh) * 2019-08-19 2023-11-24 重庆大学 一种基于卷积受限玻尔兹曼机的点云配准方法
EP3789794A1 (de) * 2019-09-04 2021-03-10 Ibeo Automotive Systems GmbH Verfahren und vorrichtung zur distanzmessung
US11327178B2 (en) * 2019-09-06 2022-05-10 Volvo Car Corporation Piece-wise network structure for long range environment perception
CN111079523B (zh) * 2019-11-05 2024-05-14 北京迈格威科技有限公司 物体检测方法、装置、计算机设备和存储介质
GB2621701A (en) 2019-11-14 2024-02-21 Motional Ad Llc Sequential fusion for 3D object detection
US11407431B2 (en) * 2019-11-22 2022-08-09 Samsung Electronics Co., Ltd. System and method for object trajectory prediction in an autonomous scenario
US11543534B2 (en) * 2019-11-22 2023-01-03 Samsung Electronics Co., Ltd. System and method for three-dimensional object detection
CN111060923B (zh) * 2019-11-26 2022-05-13 武汉乐庭软件技术有限公司 一种多激光雷达的汽车驾驶障碍物检测方法及系统
CN111179247A (zh) * 2019-12-27 2020-05-19 上海商汤智能科技有限公司 三维目标检测方法及其模型的训练方法及相关装置、设备
CN111199206A (zh) * 2019-12-30 2020-05-26 上海眼控科技股份有限公司 三维目标检测方法、装置、计算机设备及存储介质
CN115176175A (zh) * 2020-02-18 2022-10-11 株式会社电装 物体检测装置
JP7501398B2 (ja) 2020-02-18 2024-06-18 株式会社デンソー 物体検出装置
US11524701B2 (en) 2020-03-30 2022-12-13 Toyota Research Institute, Inc. Methods and systems of predicting road agent behavior using voxel grids
CN114078181A (zh) * 2020-08-19 2022-02-22 北京达佳互联信息技术有限公司 人体三维模型的建立方法、装置、电子设备及存储介质
CN112307890B (zh) * 2020-09-22 2023-01-20 西人马帝言(北京)科技有限公司 一种物体识别方法、装置、物体识别设备及存储介质
US20220270327A1 (en) * 2021-02-24 2022-08-25 Denso International America, Inc. Systems and methods for bounding box proposal generation
CN112927217B (zh) * 2021-03-23 2022-05-03 内蒙古大学 一种基于目标检测的甲状腺结节侵袭性预测方法
CN113313831B (zh) * 2021-05-24 2022-12-16 华南理工大学 基于极坐标图卷积神经网络的三维模型特征提取方法
CN113870422B (zh) * 2021-11-30 2022-02-08 华中科技大学 一种点云重建方法、装置、设备及介质
EP4224366A1 (en) 2022-02-03 2023-08-09 AImotive Kft. Neural network training method using semi-pseudo-labels
DE102022107770A1 (de) * 2022-04-01 2023-10-05 Valeo Detection Systems GmbH Verfahren zur Verfolgung wenigstens eines Objekts mit wenigstens einer Detektionsvorrichtung, Detektionsvorrichtung und Fahrzeug mit wenigstens einer Detektionsvorrichtung
CN115829898B (zh) * 2023-02-24 2023-06-02 北京百度网讯科技有限公司 数据处理方法、装置、电子设备、介质以及自动驾驶车辆

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4232167B1 (ja) * 2007-08-27 2009-03-04 三菱電機株式会社 対象特定装置、対象特定方法および対象特定プログラム
US8705792B2 (en) * 2008-08-06 2014-04-22 Toyota Motor Engineering & Manufacturing North America, Inc. Object tracking using linear features
US8179393B2 (en) * 2009-02-13 2012-05-15 Harris Corporation Fusion of a 2D electro-optical image and 3D point cloud data for scene interpretation and registration performance assessment
US8488877B1 (en) 2009-12-02 2013-07-16 Hrl Laboratories, Llc System for object recognition in colorized point clouds
GB201116959D0 (en) * 2011-09-30 2011-11-16 Bae Systems Plc Vehicle localisation with 2d laser scanner and 3d prior scans
JP5950296B2 (ja) * 2012-01-27 2016-07-13 国立研究開発法人産業技術総合研究所 人物追跡属性推定装置、人物追跡属性推定方法、プログラム
US10007336B2 (en) * 2013-09-10 2018-06-26 The Board Of Regents Of The University Of Texas System Apparatus, system, and method for mobile, low-cost headset for 3D point of gaze estimation
GB2520338A (en) * 2013-11-19 2015-05-20 Nokia Corp Automatic scene parsing
WO2015148824A1 (en) 2014-03-27 2015-10-01 Hrl Laboratories, Llc System for filtering, segmenting and recognizing objects in unconstrained environments
CN105825173B (zh) * 2016-03-11 2019-07-19 福州华鹰重工机械有限公司 通用道路和车道检测系统与方法
CN106157309B (zh) * 2016-07-04 2019-03-22 南京大学 一种基于虚拟种子点的机载LiDAR地面点云滤波方法
GB201616095D0 (en) * 2016-09-21 2016-11-02 Univ Oxford Innovation Ltd A neural network and method of using a neural network to detect objects in an environment

Also Published As

Publication number Publication date
WO2018170472A1 (en) 2018-09-20
CN110325818B (zh) 2021-11-26
DE112018000899T5 (de) 2019-10-31
JP2020509494A (ja) 2020-03-26
US20190188541A1 (en) 2019-06-20
CN110325818A (zh) 2019-10-11
US10885398B2 (en) 2021-01-05

Similar Documents

Publication Publication Date Title
JP6799169B2 (ja) マルチモーダル融合による3dオブジェクト検出と配向推定の結合
CN112292711B (zh) 关联lidar数据和图像数据
JP6946298B2 (ja) 画像ベースの車両位置特定のためのシステム及び方法
JP6514192B2 (ja) ライダに基づいたオブジェクト移動の分類
US7660436B2 (en) Stereo-vision based imminent collision detection
JP2019509552A (ja) コンテキスト及び深さ順序を用いる、部分的に遮られた物体の検出
CN112997187A (zh) 基于鸟瞰图点云的二维对象边界框信息估计
EP3903293A1 (en) Crowdsourced detection, identification and sharing of hazardous road objects in hd maps
US20180336697A1 (en) Monocular localization in urban environments using road markings
JP2021089724A (ja) 構造的制約及び物理的制約を伴う3d自動ラベル付け
US11035933B2 (en) Transition map between lidar and high-definition map
US11059493B2 (en) Systems and methods for estimating velocity of an autonomous vehicle and state information of a surrounding vehicle
US11605228B2 (en) System and method for sensor fusion system having distributed convolutional neural network
CN112883790A (zh) 一种基于单目摄像头的3d物体检测方法
US11308324B2 (en) Object detecting system for detecting object by using hierarchical pyramid and object detecting method thereof
CN116310673A (zh) 一种基于点云与图像特征融合的三维目标检测方法
FR2899363A1 (fr) Procede et dispositif de detection de mouvement d'objets sur des images d'une scene
CN114897987B (zh) 一种确定车辆地面投影的方法、装置、设备及介质
CN114648639B (zh) 一种目标车辆的检测方法、系统及装置
CN117836818A (zh) 信息处理装置、信息处理系统、模型以及模型的生成方法
WO2024142571A1 (ja) 画像処理装置
Menon et al. Distance Estimation & Driver alert system using ZED Stereo Camera and Raspberry Pi using Socket Communication
CN118230293A (zh) 目标检测方法、装置、汽车、存储介质及程序产品
CN117876990A (zh) 感测信息处理装置及方法
Ku et al. Vision assisted active safety system for vehicles on the highway

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191009

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190827

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20191008

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20191219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201119

R150 Certificate of patent or registration of utility model

Ref document number: 6799169

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees