JP6588053B2 - 点群データにアノテーションを付与する方法および装置 - Google Patents

点群データにアノテーションを付与する方法および装置 Download PDF

Info

Publication number
JP6588053B2
JP6588053B2 JP2017106563A JP2017106563A JP6588053B2 JP 6588053 B2 JP6588053 B2 JP 6588053B2 JP 2017106563 A JP2017106563 A JP 2017106563A JP 2017106563 A JP2017106563 A JP 2017106563A JP 6588053 B2 JP6588053 B2 JP 6588053B2
Authority
JP
Japan
Prior art keywords
tracking
point cloud
result
data
reliability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017106563A
Other languages
English (en)
Other versions
JP2018063236A (ja
Inventor
ユ ジャン
ユ ジャン
フーチャン ルブ
フーチャン ルブ
ジュ ハン
ジュ ハン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2018063236A publication Critical patent/JP2018063236A/ja
Application granted granted Critical
Publication of JP6588053B2 publication Critical patent/JP6588053B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/66Tracking systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本願はコンピュータ技術分野に関し、具体的には、点群データ処理の技術分野、特に点群データにアノテーションを付与する方法および装置に関する。
点群データに関する認識アルゴリズムは、訓練時に障害物認識アルゴリズムを最適化させるために、大量のアノテーションが付与された点群データを訓練サンプルとして用いることが必要である。従って、最適化過程を順調に行うように、異なるシーンの点群データを予め大量に収集して、正確にアノテーションを付与しなければならない。
ところが、点群データ密度の不十分および点群データを収集する時の角度変化によって、点群アノテーションが困難となり、アノテーション操作者がアノテーションを付与するのに時間がかかり、且つアノテーションの正確性が低い。そのため、点群データのアノテーション効率を向上させることが期待される。
[先行技術文献]
[特許文献]
[特許文献1]米国特許出願公開第2014/0307247号公報
本願は、改良された点群データにアノテーションを付与するための方法および装置を提供することで、以上の背景技術に記載の技術的問題を解決することを目的とする。
発明を解決するための手段
第1態様では、本願は、点群データにアノテーションを付与する方法を提供し、この方法は、レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップと、前記点群データに対して分割と追跡を行って、点群の分割と追跡の結果を取得するステップと、前記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得するステップと、前記特徴物の認識と追跡の結果を用いて前記点群の分割と追跡の結果を補正して、点群の分割と追跡の結果の信頼度を取得するステップと、信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定するステップと、を含む。
いくつかの実施例において、点群の分割と追跡の結果の信頼度を取得した後に、前記方法は、信頼度が信頼度閾値より大きい点群の分割と追跡の結果を取得してユーザによる検証に供するステップと、信頼度が信頼度閾値より大きい点群の分割と追跡の結果に対してユーザによる検証操作に応答して、検証後の点群の分割と追跡の結果を取得するステップと、をさらに含み、前記の信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定するステップにおいては、検証後の点群の分割と追跡の結果を点群のアノテーション結果として決定するステップを含む。
いくつかの実施例において、前記のレーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップにおいては、ビデオカメラを用いて前記シーンに対してデータ収集を行って、撮影映像を取得するステップを含む。
いくつかの実施例において、前記の前記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得するステップにおいては、前記撮影映像の映像コンテンツに対し、ナンバープレート認識・追跡アルゴリズムおよび/または顔認識・追跡アルゴリズムを実行するステップを含む。
いくつかの実施例において、前記レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップにおいては、配置高さが自律走行車での取り付け高さと同じレーザレーダ、センサを用いてデータ収集を行うステップを含む。
いくつかの実施例において、前記のレーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップにおいては、自律走行車に取り付けられて且つ較正されたレーザレーダ、センサを用いてデータ収集を行うステップを含む。
第2態様では、本願は、点群データにアノテーションを付与する装置を提供し、この装置は、レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得する収集ユニットと、前記点群データに対して分割と追跡を行って、点群の分割と追跡の結果を取得する分割・追跡ユニットと、前記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得する認識・追跡ユニットと、前記特徴物の認識と追跡の結果を用いて前記点群の分割と追跡の結果を補正して、点群の分割と追跡の結果の信頼度を取得する補正ユニットと、信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定する決定ユニットと、を備える。
いくつかの実施例において、信頼度が信頼度閾値より大きい点群の分割と追跡の結果を取得してユーザによる検証に供し、信頼度が信頼度閾値より大きい点群の分割と追跡の結果に対してユーザによる検証操作に応答して、点群の検証後の分割と追跡の結果を取得する取得ユニットをさらに備え、前記決定ユニットはさらに、検証後の点群の分割と追跡の結果を点群のアノテーション結果として決定する。
いくつかの実施例において、前記収集ユニットは、ビデオカメラを用いて前記シーンに対してデータ収集を行って、撮影映像を取得する。
いくつかの実施例において、前記認識・追跡ユニットは、前記撮影映像の映像コンテンツに対し、ナンバープレート認識・追跡アルゴリズムおよび/または顔認識・追跡アルゴリズムを実行する。
いくつかの実施例において、前記収集ユニットは、配置高さが自律走行車での取り付け高さと同じレーザレーダ、センサを用いてデータ収集を行う。
いくつかの実施例において、前記収集ユニットは、自律走行車に取り付けられて且つ較正されたレーザレーダ、センサを用いてデータ収集を行う。
本願が提供する点群データにアノテーションを付与する方法および装置は、その他のセンサデータに対して認識と追跡を行って得られた特徴物の認識と追跡の結果を用いて、点群の分割と追跡の結果を補正し、且つ、補正して得られた信頼度に基づいて最終の点群のアノテーション結果を選別し、それによって、点群データにアノテーションを付与する作業負荷を低減させるとともに、アノテーションコストを低減させる。
以下の図面を参照しながら行った非限定的な実施例についての詳細な説明に基づいて、本願の他の特徴、目的や利点はより明瞭になる。
本願を適用できる例示的なシステムアーキテクチャー図である。 本願に係る点群データにアノテーションを付与する方法の一実施例を示すフローチャートである。 本願に係る点群データにアノテーションを付与する方法の別の実施例を示すフローチャートである。 本願に係る点群データにアノテーションを付与する装置の一実施例を示す構造模式図である。 本願の実施例を実現するための端末装置またはサーバに適用されるコンピュータシステムを示す構造模式図である。
以下、図面および実施例を参照しながら本発明をより詳細に説明する。ここで説明する具体的な実施例は、かかる発明を説明するものに過ぎず、当該発明を限定するものではないと理解すべきである。ただし、説明の便宜上、図面に発明に関連する部分のみが示されている。
なお、衝突しない場合、本願の実施例及び実施例の特徴を相互に組み合せてもよい。以下、図面及び実施例を参照しながら本願を詳細に説明する。
図1は本願を適用できる点群データにアノテーションを付与する方法または装置の実施例の例示的なシステムアーキテクチャー100を示す。
図1に示されるように、システムアーキテクチャー100は、端末装置101、ネットワーク102およびサーバ103を備えてもよい。ネットワーク102は端末装置101とサーバ103の間に通信リンクを提供する媒体に用いられている。ネットワーク102は様々な接続タイプ、例えば有線、無線通信リンクまたは光ファイバーケーブル等を含んでもよい。
ユーザは端末装置101を用いてネットワーク102を介してサーバ103とインタラクションして、それによりメッセージなどを送受信することができる。端末装置101に、様々な通信クライアントアプリケーション、例えば点群可視化ツール等がインストールされてもよい。
端末装置101はディスプレイスクリーンを有し且つ点群可視化ツールの実行をサポートできる様々な電子機器であってもよく、ラップトップコンピュータやデスクトップコンピュータ等を含むが、これらに制限されない。
サーバ103は様々なサービスを提供できるサーバであってもよく、例えば、端末装置101に表示される情報をサポートするバックグランドサーバが挙げられる。バックグランドサーバは受信したデータに分析等の処理を行って、処理結果を端末装置にフィードバックすることができる。
なお、本願の実施例で提供される点群データにアノテーションを付与する方法は端末装置101によって実行されてもよく、サーバ103によって実行されてもよく、端末装置101とサーバ103によって当該方法の異なるステップがそれぞれ実行されてもよい。相応に、点群データにアノテーションを付与する装置は端末101に設置されても、サーバ103に設置されても、端末101とサーバ103に当該装置の異なるユニットが設置されてもよい。
なお、図1における端末装置、ネットワークおよびサーバの数は例示的なものに過ぎない。必要に応じて、端末装置、ネットワークおよびサーバの数が任意であってもよい。
さらに、本願に係る点群データにアノテーションを付与する方法の一実施例のプロセス200を示す図2を参照する。前記点群データにアノテーションを付与する方法は、以下のステップを含む。
ステップ201:レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得する。
本実施例では、点群データにアノテーションを付与する方法が実行されている電子機器(例えば図1に示される端末装置またはサーバ)は、レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行うことができ、レーザレーダによって点群データを取得でき、当該レーザレーダと異なるセンサによって点群データ以外のセンサデータが取得できる。
ステップ202:点群データに対して分割と追跡を行って、点群の分割と追跡の結果を取得する。
本実施例では、電子機器はステップ201で得られた点群データに基づいて、点群データに対して分割と追跡操作を実行して、点群の分割と追跡の結果を取得する。そのうち、点群の分割と追跡の操作は従来の点群の分割と追跡の結果アルゴリズムによって実現でき、ここで詳細な説明を省略する。
ステップ203:センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得する。
本実施例では、ステップ201で得られたセンサデータについては、電子機器はセンサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得する。
ステップ204:特徴物の認識と追跡の結果を用いて点群の分割と追跡の結果を補正し、点群の分割と追跡の結果の信頼度を取得する。
本実施例では、電子機器はステップ203で得られた特徴物の認識と追跡の結果、およびステップ202で得られた点群の分割と追跡の結果に基づいて、特徴物の認識と追跡の結果を用いて点群の分割と追跡の結果を補正し、点群の分割と追跡の結果の信頼度を取得できる。補正過程は、点群の分割と追跡の結果が特徴物の認識と追跡の結果と一致するかどうか、および両方の一致度を判断することである。例えば、点群の分割と追跡の結果では、物体を通行人として識別し、特徴物の認識と追跡の結果でも、当該当物体を通行人として識別した場合、両方によるこの物体の認識の結果が一致すると判断でき、点群の分割と追跡の結果では物体を通行人として識別したが、特徴物の認識と追跡の結果では当該当物体を車両として識別した場合、両方によるこの物体の認識の結果が不一致と判断できる。
ステップ205:信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定する。
本実施例では、電子機器は、ステップ204で得られた信頼度と予め設定した信頼度閾値とを比較し、信頼度が信頼度閾値より大きい点群の分割と追跡の結果を、点群のアノテーション結果として決定することができる。
本実施例のいくつかの代替的な実施形態では、ステップ201においては、ビデオカメラを用いてシーンに対してデータ収集を行って、撮影映像を取得することを含む。当該実施形態では、レーザレーダと異なるセンサとしてビデオカメラが使用され、相応に、特徴物を認識するためのセンサデータは撮影映像になる。
この前の実施形態のいくつかの代替的な実施形態では、ステップ203においては、撮影映像の映像コンテンツに対して、ナンバープレート認識・追跡アルゴリズムおよび/または顔認識・追跡アルゴリズムを実行することを含む。当該実施形態において、電子機器はナンバープレート認識・追跡アルゴリズムおよび/または顔認識・追跡アルゴリズムによって、撮影映像の映像コンテンツにおける特徴物に対して認識と追跡を行い、その後に点群の分割と追跡の結果の信頼度を評価する標準とする。ナンバープレート認識・追跡アルゴリズムおよび顔認識・追跡アルゴリズムは現在の成熟した技術であるため、この2種の認識アルゴリズムのうちの1種または2種によって特徴物の認識と追跡の正確性を向上でき、さらに後続のステップで得られる信頼度の信頼性を向上させ、最終的に得られるアノテーション結果もより正確になる。
本実施例の代替的な実施形態では、上記ステップ204において特徴物の認識と追跡の結果を用いて点群の分割と追跡の結果を補正することは、3D点群の空間座標をビデオカメラの空間座標系と一致するように調整して、カメラが撮影する点をレーザレーダによる点とマッチングさせることを含む。その後に、点群の分割と追跡の結果における物体と物体の運動軌跡が、映像コンテンツに対して得られた特徴物の認識と追跡における物体と物体の運動軌跡と一致するかどうか、および一致度を判断し、取得した一致度を出力する信頼度としてもよい。
本実施例のいくつかの代替的な実施形態では、ステップ201においては、配置高さが自律走行車での取り付け高さと同じレーザレーダ、センサを用いてデータ収集を行うことを含む。当該実施形態において、配置高さが自律走行車での取り付け高さと同じレーザレーダ、センサを用いてデータ収集を行うことで、収集したデータをできるだけ自律走行車が実際に運転している時に収集するデータに近くして、それによって、最終的なアノテーション結果から最大限に自律走行車に適用する障害物認識アルゴリズムを訓練できる。
本実施例のいくつかの代替的な実施形態では、ステップ201においては、自律走行車に取り付けられて且つ較正されたレーザレーダ、センサを用いてデータ収集を行うことを含む。当該実施形態では、上記ステップ201において、自律走行車に取り付けられて且つ較正されたレーザレーダ、センサを用いてデータ収集を行うことができる。このような方式では、自律走行車における車載装置を直接データ収集装置として用いることにより、収集したデータをできるだけ自律走行車が実際に運転している時に収集するデータに近くして、それによって、最終的なアノテーション結果から最大限に自律走行車に適用する障害物認識アルゴリズムを訓練できる。
本願の上記実施例で提供した方法は、ほかのセンサデータに対して認識と追跡を行って得られた特徴物の認識と追跡の結果を用いて点群の分割と追跡の結果を補正し、補正して得られた信頼度に基づいて最終的な点群アノテーション結果を選別し、それによって、点群データにアノテーションを付与する作業負荷を低減させるとともに、アノテーションコストを低減させる。
さらに、点群データにアノテーションを付与する方法の別の実施例のプロセス300を示す図3を参照する。当該点群データにアノテーションを付与する方法のプロセス300は、以下のステップを含む。
ステップ301:レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得する。
本実施例では、ステップ301の具体的な処理は図2に対応する実施例のステップ201を参照すればよく、ここで、詳細な説明を省略する。
ステップ302:点群データに対して分割と追跡を行って、点群の分割と追跡の結果を取得する。
本実施例では、ステップ302の具体的な処理は図2に対応する実施例のステップ202を参照すればよく、ここで、詳細な説明を省略する。
ステップ303:センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得する。
本実施例では、ステップ303の具体的な処理は図2に対応する実施例のステップ203を参照すればよく、ここで、詳細な説明を省略する。
ステップ304:特徴物の認識と追跡の結果を用いて点群の分割と追跡の結果を補正し、点群の分割と追跡の結果の信頼度を取得する。
本実施例では、ステップ304の具体的な処理は図2に対応する実施例のステップ204を参照すればよく、ここで、詳細な説明を省略する。
ステップ305:信頼度が信頼度閾値より大きい点群の分割と追跡の結果を取得してユーザによる検証に供する。
本実施例では、ステップ304で取得した信頼度に基づいて、電子機器は信頼度が信頼度閾値より大きい点群の分割と追跡の結果を抽出し、抽出した点群の分割と追跡の結果をユーザによる検証に供することができる。
ステップ306:信頼度が信頼度閾値より大きい点群の分割と追跡の結果に対してユーザによる検証操作に応答して、検証後の点群の分割と追跡の結果を取得する。
本実施例では、ステップ305で得られた信頼度が信頼度閾値より大きい点群の分割と追跡の結果について、ユーザが点群の分割と追跡の結果に検証操作を実行したことが検出された場合、電子機器は検証後の点群の分割と追跡の結果を取得できる。
本実施例のいくつかの代替的な実施形態では、当該検証操作は、ユーザが点群の分割と追跡の結果に対する人工的な抜き取り検査操作であってもよい。実際には、信頼度が信頼度閾値より大きい点群の分割と追跡の結果をユーザに表示してユーザによる抜き取り検査に供することができ、抜き取り検査において問題なければ、点群の分割と追跡の結果を後続ステップに用いてもよい。
ステップ307:検証後の点群の分割と追跡の結果を点群のアノテーション結果として決定する。
本実施例では、ステップ306で得られた検証後の点群の分割と追跡の結果に基づいて、上記電子機器は検証後の点群の分割と追跡の結果を最終的な点群のアノテーション結果として決定できる。
図3から明らかなように、図2の対応する実施例に比べて、本実施例では、点群データにアノテーションを付与する方法であるプロセス300は、信頼度が信頼度閾値より大きい点群の分割と追跡の結果の検証操作を強調することで、得られたアノテーション結果をより正確にし、さらに、アノテーション結果からより優れた点群認識アルゴリズムを訓練できるようにさせる。
さらに、図4に示されるように、上記各図に示される方法の実現として、本願は点群データにアノテーションを付与する装置の一実施例を提供し、当該装置の実施例は図2に示される方法の実施例に対応するものであり、当該装置は具体的に様々な電子機器に適用できる。
図4に示されるように、本実施例の前記した点群データにアノテーションを付与する装置400は、収集ユニット401、セグメンテーション・追跡ユニット402、認識・追跡ユニット403、補正ユニット404および決定ユニット405を備える。そのうち、収集ユニット401はレーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得し、セグメンテーション・追跡ユニット402は点群データに対して分割と追跡を行って、点群の分割と追跡の結果を取得し、認識・追跡ユニット403はセンサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得し、補正ユニット404は特徴物の認識と追跡の結果を用いて点群の分割と追跡の結果を補正し、点群の分割と追跡の結果の信頼度を取得し、決定ユニット405は信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定する。
本実施例では、点群データにアノテーションを付与する装置400の収集ユニット401、セグメンテーション・追跡ユニット402、認識・追跡ユニット403、補正ユニット404および決定ユニット405の具体的な処理については、図2に対応する実施例のステップ201、ステップ202、ステップ203、ステップ204およびステップ205を参照すればよく、ここで、詳細な説明を省略する。
本実施例のいくつかの代替的な実施形態では、装置400は、信頼度が信頼度閾値より大きい点群の分割と追跡の結果に対してユーザによる検証操作に応答して、点群の検証後の分割と追跡の結果を取得し、信頼度が信頼度閾値より大きい点群の分割と追跡の結果を取得してユーザによる検証に供する取得ユニット406をさらに備える。また、決定ユニット405はさらに、検証後の点群の分割と追跡の結果を点群のアノテーション結果として決定する。当該実施形態の具体的な実現は、図3に対応する実施例における、対応するステップを参照すればよく、ここで、詳細な説明を省略する。
本実施例のいくつかの代替的な実施形態では、収集ユニット401はビデオカメラを用いてシーンに対してデータ収集を行って、撮影映像を取得する。当該実施形態の具体的な実現は図2に対応する実施例における、対応する実施形態を参照すればよく、ここで、詳細な説明を省略する。
本実施例のいくつかの代替的な実施形態では、認識・追跡ユニット403は、撮影映像の映像コンテンツに対して、ナンバープレート認識・追跡アルゴリズムおよび/または顔認識・追跡アルゴリズムを実行する。当該実施形態の具体的な実現は図2に対応する実施例における、対応する実施形態を参照すればよく、ここで、詳細な説明を省略する。
本実施例のいくつかの代替的な実施形態では、収集ユニット401は、配置高さが自律走行車での取り付け高さと同じレーザレーダ、センサを用いてデータ収集を行う。当該実施形態の具体的な実現は図2に対応する実施例における、対応する実施形態を参照すればよく、ここで、詳細な説明を省略する。
本実施例のいくつかの代替的な実施形態では、収集ユニット401は、自律走行車に取り付けられて且つ較正されたレーザレーダ、センサを用いてデータ収集を行う。当該実施形態の具体的な実現は図2に対応する実施例における、対応する実施形態を参照すればよく、ここで、詳細な説明を省略する。
以下、本発明の実施例を実現するためのサーバに適用されるコンピュータシステム500を示す構造模式図である図5を参照する。
図5に示すように、コンピュータシステム500は、読み出し専用メモリ(ROM)502に記憶されているプログラムまたは記憶部508からランダムアクセスメモリ(RAM)503にロードされたプログラムに基づいて様々な適当な動作および処理を実行することができる中央処理装置(CPU)501を備える。RAM503には、システム500の操作に必要な様々なプログラムおよびデータがさらに記憶されている。CPU501、ROM502およびRAM503は、バス504を介して互いに接続されている。入力/出力(I/O)インターフェース505もバス504に接続されている。
キーボード、マウスなどを含む入力部506、陰極線管(CRT)、液晶ディスプレイ(LCD)など、およびスピーカなどを含む出力部507、ハードディスクなどを含む記憶部508、およびLANカード、モデムなどを含むネットワークインターフェースカードの通信部509は、I/Oインターフェース505に接続されている。通信部509は、例えばインターネットのようなネットワークを介して通信処理を実行する。ドライバ510は、必要に応じてI/Oインターフェース505に接続される。リムーバブルメディア511は、例えば、マグネチックディスク、光ディスク、光磁気ディスク、半導体メモリなどのようなものであり、必要に応じてドライバ510に取り付けられ、したがって、ドライバ510から読み出されたコンピュータプログラムが必要に応じて記憶部508にインストールされる。
特に、本発明の実施例によれば、フローチャートを参照しながら記載された上記のプロセスは、コンピュータのソフトウェアプログラムとして実現されてもよい。例えば、本発明の実施例は、コンピュータプログラム製品を含み、当該コンピュータプログラム製品は、機械可読媒体に有形に具現化されるコンピュータプログラムを含み、前記コンピュータプログラムは、フローチャートで示される方法を実行するためのプログラムコードを含む。このような実施例では、当該コンピュータプログラムは、通信部509を介してネットワークからダウンロードされてインストールされてもよく、および/またはリムーバブルメディア511からインストールされてもよい。
図面におけるフローチャートおよびブロック図は、本発明の各実施例に係るシステム、方法およびコンピュータプログラム製品により実現可能なアーキテクチャ、機能および操作を示す。ここで、フローチャートまたはブロック図における各枠は、1つのモジュール、プログラムセグメント、またはコードの一部を代表してもよく、前記モジュール、プログラムセグメント、またはコードの一部は、規定された論理機能を達成するための1つ以上の実行可能な命令を含む。また、いくつかの代替実施態様として、枠に示された機能は、図面に示された順番と異なる順番で実行されてもよい。例えば、連続して示された2つの枠は、関連する機能に応じて、実際にほぼ並行に実行されてもよく、逆の順番で実行されてもよい。また、ブロック図および/またはフローチャートにおける各枠と、ブロック図および/またはフローチャートにおける枠の組合せは、規定された機能または操作を実行する、ハードウェアに基づく専用システムで実現されてもよく、あるいは、専用ハードウェアとコンピュータの命令との組合せで実行されてもよい。
本発明の実施例に記載されたユニットは、ソフトウェアで実現されてもよく、ハードウェアで実現されてもよい。記載されたユニットは、プロセッサに設定されてもよく、例えば、「収集ユニット、分割・追跡ユニット、認識・追跡ユニット、補正ユニットおよび決定ユニットを備えるプロセッサ」として記載されてもよい。その中でも、これらのユニットの名称は、ある場合において当該ユニットその自体を限定するものではなく、例えば、認識・追跡ユニットは、「前記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得するユニット」として記載されてもよい。
一方、本発明は、不揮発性コンピュータ記憶媒体をさらに提供し、当該不揮発性コンピュータ記憶媒体は、上記実施例の前記装置に含まれる不揮発性コンピュータ記憶媒体であってもよく、独立に存在して端末に組み立てられていない不揮発性コンピュータ記憶媒体であってもよい。前記不揮発性コンピュータ記憶媒体は、1つ以上のプログラムが記憶され、前記1つ以上のプログラムが1つの機器により実行された場合、前記機器に、レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得し、前記点群データに対して分割と追跡を行って、点群の分割と追跡の結果を取得し、前記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得し、前記特徴物の認識と追跡の結果を用いて前記点群の分割と追跡の結果を補正して、点群の分割と追跡の結果の信頼度を取得し、信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定するようにさせる。
以上の記載は、本発明の好ましい実施例、および使用された技術的原理の説明に過ぎない。本発明に係る特許請求の範囲が、上記した技術的特徴の特定な組合せからなる技術案に限定されることではなく、本発明の趣旨を逸脱しない範囲で、上記の技術的特徴または同等の特徴の任意の組合せからなる他の技術案も含むべきであることを、当業者は理解すべきである。例えば、上記の特徴と、本発明に開示された類似の機能を持っている技術的特徴(これらに限定されていない)とを互いに置き換えてなる技術案が挙げられる。
なお、出願当初の特許請求の範囲の記載は以下の通りである。
請求項1:
レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップと、
前記点群データに対して分割と追跡を行って、点群の分割と追跡の結果を取得するステップと、
前記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得するステップと、
前記特徴物の認識と追跡の結果を用いて前記点群の分割と追跡の結果を補正して、点群の分割と追跡の結果の信頼度を取得するステップと、
信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定するステップと、を含む
ことを特徴とする点群データにアノテーションを付与する方法。
請求項2:
点群の分割と追跡の結果の信頼度を取得した後に、前記方法は、
信頼度が信頼度閾値より大きい点群の分割と追跡の結果を取得してユーザによる検証に供するステップと、
信頼度が信頼度閾値より大きい点群の分割と追跡の結果に対してユーザによる検証操作に応答して、検証後の点群の分割と追跡の結果を取得するステップと、をさらに含み、
前記の信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定するステップにおいては、
検証後の点群の分割と追跡の結果を点群のアノテーション結果として決定するステップを含む
ことを特徴とする請求項1に記載の方法。
請求項3:
前記のレーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップにおいては、
ビデオカメラを用いて前記シーンに対してデータ収集を行って、撮影映像を取得するステップを含む
ことを特徴とする請求項2に記載の方法。
請求項4:
前記の前記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得するステップにおいては、
前記撮影映像の映像コンテンツに対し、ナンバープレート認識・追跡アルゴリズムおよび/または顔認識・追跡アルゴリズムを実行するステップを含む
ことを特徴とする請求項3に記載の方法。
請求項5:
前記レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップにおいては、
配置高さが自律走行車での取り付け高さと同じレーザレーダ、センサを用いてデータ収集を行うステップを含む
ことを特徴とする請求項1〜4のいずれか1項に記載の方法。
請求項6:
前記のレーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップにおいては、
自律走行車に取り付けられて且つ較正されたレーザレーダ、センサを用いてデータ収集を行うステップを含む
ことを特徴とする請求項1〜4のいずれか1項に記載の方法。
請求項7:
レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得する収集ユニットと、
前記点群データに対して分割と追跡を行って、点群の分割と追跡の結果を取得する分割・追跡ユニットと、
前記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得する認識・追跡ユニットと、
前記特徴物の認識と追跡の結果を用いて前記点群の分割と追跡の結果を補正して、点群の分割と追跡の結果の信頼度を取得する補正ユニットと、
信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定する決定ユニットと、を備える
ことを特徴とする点群データにアノテーションを付与する装置。
請求項8:
信頼度が信頼度閾値より大きい点群の分割と追跡の結果を取得してユーザによる検証に供し、
信頼度が信頼度閾値より大きい点群の分割と追跡の結果に対してユーザによる検証操作に応答して、点群の検証後の分割と追跡の結果を取得する取得ユニットをさらに備え、
前記決定ユニットはさらに、
検証後の点群の分割と追跡の結果を点群のアノテーション結果として決定する
ことを特徴とする請求項7に記載の装置。
請求項9:
前記収集ユニットは、
ビデオカメラを用いて前記シーンに対してデータ収集を行って、撮影映像を取得する
ことを特徴とする請求項8に記載の装置。
請求項10:
前記認識・追跡ユニットは、
前記撮影映像の映像コンテンツに対し、ナンバープレート認識・追跡アルゴリズムおよび/または顔認識・追跡アルゴリズムを実行する
ことを特徴とする請求項9に記載の装置。
請求項11:
前記収集ユニットは、
配置高さが自律走行車での取り付け高さと同じレーザレーダ、センサを用いてデータ収集を行う
ことを特徴とする請求項7〜10のいずれか1項に記載の装置。
請求項12:
前記収集ユニットは、
自律走行車に取り付けられて且つ較正されたレーザレーダ、センサを用いてデータ収集を行う
ことを特徴とする請求項7〜10のいずれか1項に記載の装置。

Claims (10)

  1. レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップであって、前記センサとしてビデオカメラを用いて前記シーンに対してデータ収集を行って、撮影映像を取得する、ステップと、
    前記点群データに対して分割と追跡を行って、点群の分割と追跡の結果を取得するステップと、
    前記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得するステップと、
    前記特徴物の認識と追跡の結果を用いて点群データの座標系とセンサデータの座標系とを一致するように調整し、両座標系をマッチングさせて、点群の分割と追跡の結果の信頼度を取得するステップであって、前記点群の分割と追跡の結果における物体と物体の運動軌跡が、前記撮影映像の映像コンテンツに対して得られた特徴物の認識と追跡における物体と物体の運動軌跡と一致するか否か、および一致度を判断し、取得した一致度を前記点群の分割と追跡の結果の信頼度とする、ステップと、
    信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定するステップと、を含む
    ことを特徴とする点群データにアノテーションを付与する方法。
  2. 点群の分割と追跡の結果の信頼度を取得した後に、前記方法は、
    信頼度が信頼度閾値より大きい点群の分割と追跡の結果を取得してユーザによる人工的な抜き取り検査操作に供するステップと、
    信頼度が信頼度閾値より大きい点群の分割と追跡の結果に対してユーザによる検証操作に応答して、検証後の点群の分割と追跡の結果を取得するステップと、をさらに含み、
    信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定するステップにおいては、
    検証後の点群の分割と追跡の結果を点群のアノテーション結果として決定するステップを含む
    ことを特徴とする請求項1に記載の方法。
  3. 記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得するステップにおいては、
    前記撮影映像の映像コンテンツに対し、ナンバープレート認識・追跡アルゴリズムおよび/または顔認識・追跡アルゴリズムを実行するステップを含む
    ことを特徴とする請求項に記載の方法。
  4. 前記レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップにおいては、
    配置高さが自律走行車での取り付け高さと同じレーザレーダ、センサを用いてデータ収集を行うステップを含む
    ことを特徴とする請求項1〜のいずれか1項に記載の方法。
  5. レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得するステップにおいては、
    自律走行車に取り付けられて且つ較正されたレーザレーダ、センサを用いてデータ収集を行うステップを含む
    ことを特徴とする請求項1〜のいずれか1項に記載の方法。
  6. レーザレーダおよびレーザレーダと異なるセンサを用いて同一シーンに対してデータ収集を行って、点群データおよびセンサデータをそれぞれ取得する収集ユニットであって、前記センサとしてビデオカメラを用いて前記シーンに対してデータ収集を行って、撮影映像を取得する、収集ユニットと、
    前記点群データに対して分割と追跡を行って、点群の分割と追跡の結果を取得する分割・追跡ユニットと、
    前記センサデータにおける特徴物に対して認識と追跡を行って、特徴物の認識と追跡の結果を取得する認識・追跡ユニットと、
    前記特徴物の認識と追跡の結果を用いて点群データの座標系とセンサデータの座標系とを一致するように調整し、両座標系をマッチングさせて、点群の分割と追跡の結果の信頼度を取得する補正ユニットであって、前記点群の分割と追跡の結果における物体と物体の運動軌跡が、前記撮影映像の映像コンテンツに対して得られた特徴物の認識と追跡における物体と物体の運動軌跡と一致するか否か、および一致度を判断し、取得した一致度を前記点群の分割と追跡の結果の信頼度とする、補正ユニットと、
    信頼度が信頼度閾値より大きい点群の分割と追跡の結果を点群のアノテーション結果として決定する決定ユニットと、を備える
    ことを特徴とする点群データにアノテーションを付与する装置。
  7. 信頼度が信頼度閾値より大きい点群の分割と追跡の結果を取得してユーザによる検証に供し、
    信頼度が信頼度閾値より大きい点群の分割と追跡の結果に対してユーザによる人工的な抜き取り検査操作に応答して、点群の検証後の分割と追跡の結果を取得する取得ユニットをさらに備え、
    前記決定ユニットはさらに、
    検証後の点群の分割と追跡の結果を点群のアノテーション結果として決定する
    ことを特徴とする請求項に記載の装置。
  8. 前記認識・追跡ユニットは、
    前記撮影映像の映像コンテンツに対し、ナンバープレート認識・追跡アルゴリズムおよび/または顔認識・追跡アルゴリズムを実行する
    ことを特徴とする請求項に記載の装置。
  9. 前記収集ユニットは、
    配置高さが自律走行車での取り付け高さと同じレーザレーダ、センサを用いてデータ収集を行う
    ことを特徴とする請求項のいずれか1項に記載の装置。
  10. 前記収集ユニットは、
    自律走行車に取り付けられて且つ較正されたレーザレーダ、センサを用いてデータ収集を行う
    ことを特徴とする請求項のいずれか1項に記載の装置。
JP2017106563A 2016-10-13 2017-05-30 点群データにアノテーションを付与する方法および装置 Active JP6588053B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610892503.3 2016-10-13
CN201610892503.3A CN107945198B (zh) 2016-10-13 2016-10-13 用于标注点云数据的方法和装置

Publications (2)

Publication Number Publication Date
JP2018063236A JP2018063236A (ja) 2018-04-19
JP6588053B2 true JP6588053B2 (ja) 2019-10-09

Family

ID=61904148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017106563A Active JP6588053B2 (ja) 2016-10-13 2017-05-30 点群データにアノテーションを付与する方法および装置

Country Status (3)

Country Link
US (1) US11004234B2 (ja)
JP (1) JP6588053B2 (ja)
CN (1) CN107945198B (ja)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106225790B (zh) * 2016-07-13 2018-11-02 百度在线网络技术(北京)有限公司 一种无人车定位精度的确定方法及装置
US10678240B2 (en) * 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
US10831188B2 (en) * 2017-11-07 2020-11-10 Zoox, Inc. Redundant pose generation system
CN110443899A (zh) * 2018-05-02 2019-11-12 北京京东尚科信息技术有限公司 用于处理数据的方法和装置
CN108710367B (zh) * 2018-05-23 2022-02-11 广州视源电子科技股份有限公司 激光数据识别方法、装置、机器人及存储介质
CN108921925B (zh) * 2018-06-27 2022-12-09 广州视源电子科技股份有限公司 基于激光雷达和视觉融合的语义点云生成方法和装置
CN109146935B (zh) * 2018-07-13 2021-03-12 中国科学院深圳先进技术研究院 一种点云配准方法、装置、电子设备及可读存储介质
CN108717540B (zh) * 2018-08-03 2024-02-06 浙江梧斯源通信科技股份有限公司 基于2d激光雷达区分行人和车辆的方法及装置
CN109191553B (zh) * 2018-08-29 2023-07-25 百度在线网络技术(北京)有限公司 点云渲染方法、装置、终端及存储介质
CN109143207B (zh) 2018-09-06 2020-11-10 百度在线网络技术(北京)有限公司 激光雷达内参精度验证方法、装置、设备及介质
CN111009040B (zh) * 2018-10-08 2023-04-18 阿里巴巴集团控股有限公司 点云实体标注系统、方法、装置及电子设备
US10878580B2 (en) * 2018-10-15 2020-12-29 Tusimple, Inc. Point cluster refinement processing of image data for LiDAR-based vehicle tracking system and method
CN109544599B (zh) * 2018-11-22 2020-06-23 四川大学 一种基于相机位姿估计的三维点云配准方法
CN109444839B (zh) * 2018-11-29 2020-10-13 北京行易道科技有限公司 目标轮廓的获取方法及装置
CN109766793B (zh) * 2018-12-25 2021-05-28 百度在线网络技术(北京)有限公司 数据处理方法和装置
TWI706841B (zh) * 2019-03-22 2020-10-11 達明機器人股份有限公司 3d相機與機械手臂座標系統的校正裝置及方法
CN110084289B (zh) * 2019-04-11 2021-07-27 北京百度网讯科技有限公司 图像标注方法、装置、电子设备及存储介质
US10930012B2 (en) * 2019-05-21 2021-02-23 International Business Machines Corporation Progressive 3D point cloud segmentation into object and background from tracking sessions
CN110322553B (zh) * 2019-07-10 2024-04-02 广州建通测绘地理信息技术股份有限公司 激光雷达点云混合现实场景实施放样的方法和系统
CN110647798B (zh) * 2019-08-05 2023-01-03 中国铁路设计集团有限公司 基于车载移动激光点云的轨道中线自动检测方法
CN110471085B (zh) * 2019-09-04 2023-07-04 深圳市镭神智能系统有限公司 一种轨道检测系统
CN112634181B (zh) * 2019-09-24 2024-06-14 阿波罗智能技术(北京)有限公司 用于检测地面点云点的方法和装置
CN112630799B (zh) * 2019-09-24 2022-11-29 阿波罗智能技术(北京)有限公司 用于输出信息的方法和装置
CN110728210A (zh) * 2019-09-25 2020-01-24 上海交通大学 一种三维点云数据的半监督目标标注方法和系统
CN110673599A (zh) * 2019-09-29 2020-01-10 北京邮电大学 基于传感器网络的自动驾驶车辆环境感知系统
WO2021067501A1 (en) * 2019-10-01 2021-04-08 Intel Corporation Object-based volumetric video coding
CN110751090B (zh) * 2019-10-18 2022-09-20 宁波博登智能科技有限公司 一种三维点云标注方法、装置及电子设备
CN110780305B (zh) * 2019-10-18 2023-04-21 华南理工大学 一种基于多线激光雷达的赛道锥桶检测及目标点追踪方法
CN111275075B (zh) * 2020-01-10 2023-05-02 超越科技股份有限公司 一种基于3d激光雷达的车辆检测与跟踪方法
CN111340860B (zh) * 2020-02-24 2023-09-19 北京百度网讯科技有限公司 点云数据的配准、更新方法、装置、设备和存储介质
CN111337941B (zh) * 2020-03-18 2022-03-04 中国科学技术大学 一种基于稀疏激光雷达数据的动态障碍物追踪方法
CN111931584B (zh) * 2020-07-14 2024-04-09 北京京东叁佰陆拾度电子商务有限公司 用于分割点云的方法、装置、设备及计算机可读存储介质
CN112034488B (zh) * 2020-08-28 2023-05-02 京东科技信息技术有限公司 目标物体自动标注方法与装置
US11448748B2 (en) 2020-09-10 2022-09-20 Argo AI, LLC Systems and methods for simultaneous range-rate unwrapping and outlier removal for radar
CN112163643A (zh) * 2020-10-30 2021-01-01 上海商汤临港智能科技有限公司 样本生成、神经网络的训练、数据处理方法及装置
US11662454B2 (en) 2020-11-02 2023-05-30 Ford Global Technologies, Llc Systems and methods for range-rate dealiasing using position consistency
CN113205119B (zh) * 2021-04-20 2023-10-31 北京百度网讯科技有限公司 数据标注方法、装置、电子设备及可读存储介质
US11624831B2 (en) 2021-06-09 2023-04-11 Suteng Innovation Technology Co., Ltd. Obstacle detection method and apparatus and storage medium
CN113253299B (zh) * 2021-06-09 2022-02-01 深圳市速腾聚创科技有限公司 障碍物检测方法、装置及存储介质
CN114298581A (zh) * 2021-12-30 2022-04-08 广州极飞科技股份有限公司 质量评估模型生成方法、质量评估方法、装置、电子设备和可读存储介质
CN115079128B (zh) * 2022-08-23 2022-12-09 深圳市欢创科技有限公司 一种激光雷达点云数据去畸变的方法、装置及机器人
CN115249270B (zh) * 2022-09-22 2022-12-30 广州市德赛西威智慧交通技术有限公司 一种雷视一体机自动重标注方法及系统

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3520015B2 (ja) 2000-01-26 2004-04-19 三菱電機株式会社 目標追尾方法
JP2003196590A (ja) 2001-12-25 2003-07-11 Matsushita Electric Ind Co Ltd 車両ナンバープレート認識システムおよび車両ナンバープレート認識装置
JP3931879B2 (ja) * 2003-11-28 2007-06-20 株式会社デンソー センサフュージョンシステム及びそれを用いた車両制御装置
JP2007187618A (ja) * 2006-01-16 2007-07-26 Omron Corp 物体識別装置
JP2007310741A (ja) 2006-05-19 2007-11-29 Fuji Heavy Ind Ltd 立体物認識装置
JP2008008679A (ja) 2006-06-27 2008-01-17 Toyota Motor Corp 物体検出装置、衝突予測装置、及び車両制御装置
AU2007361324A1 (en) * 2007-11-07 2009-05-14 Tele Atlas B.V. Method of and arrangement for mapping range sensor data on image sensor data
CN101398886B (zh) * 2008-03-17 2010-11-10 杭州大清智能技术开发有限公司 一种基于双目被动立体视觉的快速三维人脸识别方法
JP2010071942A (ja) * 2008-09-22 2010-04-02 Toyota Motor Corp 物体検出装置
JP5363094B2 (ja) * 2008-12-25 2013-12-11 富士通テン株式会社 信号処理装置、及びレーダ装置
JP5316471B2 (ja) * 2010-04-27 2013-10-16 株式会社デンソー 物体認識装置、及びプログラム
US8442307B1 (en) * 2011-05-04 2013-05-14 Google Inc. Appearance augmented 3-D point clouds for trajectory and camera localization
KR101268523B1 (ko) * 2012-03-19 2013-05-28 한국과학기술원 레이저 스캐너를 이용한 도시 환경에서의 빠른 주변 환경 인식 방법
US9153061B2 (en) * 2012-05-04 2015-10-06 Qualcomm Incorporated Segmentation of 3D point clouds for dense 3D modeling
GB201208088D0 (en) * 2012-05-09 2012-06-20 Ncam Sollutions Ltd Ncam
US9207323B2 (en) * 2013-04-11 2015-12-08 Google Inc. Methods and systems for detecting weather conditions including wet surfaces using vehicle onboard sensors
BR112015031832A2 (pt) * 2013-07-08 2017-07-25 Honda Motor Co Ltd dispositivo de reconhecimento de objeto
WO2015017855A1 (en) * 2013-08-02 2015-02-05 Xactware Solutions, Inc. System and method for detecting features in aerial images using disparity mapping and segmentation techniques
US9633483B1 (en) * 2014-03-27 2017-04-25 Hrl Laboratories, Llc System for filtering, segmenting and recognizing objects in unconstrained environments
CN104298971B (zh) * 2014-09-28 2017-09-19 北京理工大学 一种3d点云数据中的目标识别方法
US9915947B1 (en) * 2016-02-26 2018-03-13 Waymo Llc System and method for determining pose data for a vehicle
US10740964B2 (en) * 2018-03-13 2020-08-11 Recogni Inc. Three-dimensional environment modeling based on a multi-camera convolver system
CN110264468B (zh) * 2019-08-14 2019-11-19 长沙智能驾驶研究院有限公司 点云数据标注、分割模型确定、目标检测方法及相关设备

Also Published As

Publication number Publication date
US11004234B2 (en) 2021-05-11
CN107945198B (zh) 2021-02-23
CN107945198A (zh) 2018-04-20
US20180108146A1 (en) 2018-04-19
JP2018063236A (ja) 2018-04-19

Similar Documents

Publication Publication Date Title
JP6588053B2 (ja) 点群データにアノテーションを付与する方法および装置
CN109117831B (zh) 物体检测网络的训练方法和装置
CN110705405B (zh) 目标标注的方法及装置
US10268926B2 (en) Method and apparatus for processing point cloud data
CN109145759B (zh) 车辆属性识别方法、装置、服务器及存储介质
US20200111203A1 (en) Method and apparatus for generating vehicle damage information
US11600008B2 (en) Human-tracking methods, systems, and storage media
CN110378966B (zh) 车路协同相机外参标定方法、装置、设备及存储介质
US9373174B2 (en) Cloud based video detection and tracking system
KR20180105876A (ko) 색상과 형태를 동시에 고려한 실시간 영상 추적 방법 및 이를 위한 장치
CN109118532B (zh) 视觉景深估计方法、装置、设备及存储介质
CN110660102B (zh) 基于人工智能的说话人识别方法及装置、系统
CN110059623B (zh) 用于生成信息的方法和装置
CN111784776A (zh) 视觉定位方法及装置、计算机可读介质和电子设备
CN111563398A (zh) 用于确定目标物的信息的方法和装置
CN113158773B (zh) 一种活体检测模型的训练方法及训练装置
CN113902932A (zh) 特征提取方法、视觉定位方法及装置、介质和电子设备
US20230306615A1 (en) Target tracking method, apparatus, device and storage medium
CN112700653A (zh) 一种车辆违法变道的判定方法、装置、设备及存储介质
CN114565952A (zh) 行人轨迹生成方法、装置、设备和存储介质
US11854191B2 (en) Image processing method for displaying cells of a plurality of overall images
CN111124862B (zh) 智能设备性能测试方法、装置及智能设备
KR20230090822A (ko) 템플릿 매칭을 이용한 객체 검출 방법 및 장치
CN112116804B (zh) 一种车辆状态量信息确定方法及装置
CN114119990A (zh) 用于图像特征点匹配的方法、装置及计算机程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170601

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171102

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180529

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181218

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190322

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190801

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190830

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190911

R150 Certificate of patent or registration of utility model

Ref document number: 6588053

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250