JP7084444B2 - 2d画像のラベリング情報に基づく3d画像ラベリング方法及び3d画像ラベリング装置 - Google Patents

2d画像のラベリング情報に基づく3d画像ラベリング方法及び3d画像ラベリング装置 Download PDF

Info

Publication number
JP7084444B2
JP7084444B2 JP2020081206A JP2020081206A JP7084444B2 JP 7084444 B2 JP7084444 B2 JP 7084444B2 JP 2020081206 A JP2020081206 A JP 2020081206A JP 2020081206 A JP2020081206 A JP 2020081206A JP 7084444 B2 JP7084444 B2 JP 7084444B2
Authority
JP
Japan
Prior art keywords
image
labeled
point
module
cluster
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020081206A
Other languages
English (en)
Other versions
JP2021108091A (ja
Inventor
チャン-シェン ヤン
ボ-チュン シュ
チー-ハオ チェン
ポ-シェン ファン
チー-シャン チャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial Technology Research Institute ITRI
Original Assignee
Industrial Technology Research Institute ITRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial Technology Research Institute ITRI filed Critical Industrial Technology Research Institute ITRI
Publication of JP2021108091A publication Critical patent/JP2021108091A/ja
Application granted granted Critical
Publication of JP7084444B2 publication Critical patent/JP7084444B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/647Three-dimensional objects by matching two-dimensional images to three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes

Description

本発明は、概して、2D画像のラベリング情報に基づく3D画像ラベリング方法及び3D画像ラベリング装置に関する。
オートパイロット産業の発展に伴い、3D画像のラベリング技術が注目されている。現在の3D画像ラベリング技術は依然として手動ラベリングの段階にあり、半自動化さえ達成することは難しい。2D画像を手動でラベル付けするコストと比較して、3D画像を手動でラベル付けするコストは、はるかに高い。したがって、産業界にとって、より低コストで3D画像にラベル付けすることができる方法または装置を提供することが顕著な課題となっている。
米国特許第10169678号明細書 米国特許出願公開第2019/0130219号明細書 米国特許第10262234号明細書
特許文献1では、自律車両制御装置を訓練するための物体識別およびラベリングツールが開示されている。特許文献2では、機械学習のための訓練データの効率的な収集のための拡張現実を用いたシステムおよび方法が開示されている。特許文献3では、3Dライダによる物体認識と位置特定のための訓練データを自動的に収集する技術が開示されている。
本発明の一実施形態によれば、3D画像ラベリング装置が開示される。3D画像ラベリング装置は、点群クラスタモジュールと、投影モジュールと、統合モジュールと、点群回復モジュールとを含む。点群クラスタモジュールは、3Dラベル無し画像およびクラスタアルゴリズムに従って、3Dクラスタ化画像を生成するために、3Dラベル無し画像の複数の点を1つ以上の第1のポイントクラスタとしてクラスタリングするように構成される。投影モジュールは、3Dクラスタ化画像に従って1つ以上の第1のオブジェクトを有する第1の2D画像を生成するように構成され、第1のポイントクラスタのそれぞれは、第1のオブジェクトの1つに対応する。統合モジュールは、第2の2D画像を生成するために、1つ以上の2Dラベル付き画像の1つ以上のオブジェクトフレームに従って、第1の2D画像の第1のオブジェクトにラベル付けするように構成される。点群回復モジュールは、第2の2D画像に従って3Dラベル付き画像を生成するように構成される。
本発明の別の実施形態によれば、3D画像ラベリング方法が開示される。プロセッサによって3D画像ラベリング方法が実行されるとき、プロセッサは、点群クラスタモジュールを実行して、3Dクラスタ化画像を生成するために、3Dラベル無し画像およびクラスタアルゴリズムに従って、1つ以上の第1のポイントクラスタとして3Dラベル無し画像の複数の点をクラスタリングし、投影モジュールを実行して、3Dクラスタ化画像に従って1つ以上の第1のオブジェクトを持つ第1の2D画像を生成し、第1のポイントクラスタのそれぞれは、1つ以上の第1のオブジェクトの1つに対応する。プロセッサは、統合モジュールを実行して、第2の2D画像を生成するために、1つ以上の2Dラベル付き画像の1つ以上のオブジェクトフレームに従って第1の2D画像の1つ以上の第1のオブジェクトにラベル付けし、点群回復モジュールを実行して、第2の2D画像に従って3Dラベル付き画像を生成する。
本発明の一実施形態において、2D画像ラベリング情報に基づく3D画像ラベリング装置のブロック図である。 本発明の一実施形態において、2D画像ラベリング情報に基づく画像ラベリング方法のフローチャートである。
本発明の上記および他の態様は、好ましいが非限定的な実施形態の以下の詳細な説明を参照して、より良く理解されるのであろう。以下、図面を参照して説明する。
本発明の説明を簡単にするために、以下では、用語「3次元」および「2次元」を、それぞれ「3D」および「2D」と呼ぶ。
現在の技術によれば、投影によって3D画像から変換された2D画像は、既存のラベリングソフトウェアまたは人工知能を使用して自動的または半自動的にラベル付けすることができない。一方、3D画像が2D画像に変換されると、3D画像の前方の物体と後方の物体との間の奥行き関係は消失する(例えば、後方の物体が前方の物体によって覆われる)。オリジナルの2D画像に従ってラベル付けされた2D画像のオブジェクトフレームが、3D画像から変換された2D画像にラベル付けするために直接使用されるとする。もし、ラベル付けされた2D画像が次に3D画像に変換される場合、前方オブジェクトに対応する点群を後方オブジェクトに対応する点群から区別することができないため、ラベル付けは混乱する。本発明に開示される3D画像ラベリング装置及び3D画像ラベリング方法は、上記の問題を解決することができる。
図1を参照すると、本発明の一実施形態において、2D画像ラベリング情報に基づく3D画像ラベリング装置のブロック図が示されている。3D画像ラベリング装置10は、点群クラスタモジュール102と、投影モジュール104と、統合モジュール106と、点群回復モジュール108とを含む。
一実施形態では、点群クラスタモジュール102、投影モジュール104、統合モジュール106、および点群回復モジュール108は、コンピュータ可読コマンドの組合せによって実現することができ、3D画像ラベリングデバイス10の非一時的メモリ(図示せず)に格納することができる。点群クラスタモジュール102、投影モジュール104、統合モジュール106、および点群回復モジュール108を実現するように構成されたコンピュータ可読コマンドが処理ユニット(図示せず)によって実行されると、処理ユニットは、点群クラスタモジュール102、投影モジュール104、統合モジュール106、および点群回復モジュール108の機能を実行することが可能になる。
点群クラスタモジュール102は、3Dラベル無し画像3D-IMG-unlabを受信し、3Dラベル無し画像3D-IMG-unlabの複数の点を、3Dクラスタ化画像3D-IMG-clusを生成するためのクラスタアルゴリズムに従って、1つ以上の第1のポイントクラスタとしてクラスタリングするように構成される。
投影モジュール104は、3Dクラスタ化画像3D-IMG-clusの第1のポイントクラスタを2D平面に投影して、第1の2D画像2D-IMG1を生成するように構成される。
統合モジュール106は、第1の2D画像2D-IMG1および1つ以上の2Dラベル付き画像2D-IMG-labを受信し、第1の2D画像2D-IMG1およびと2Dラベル付き画像2D-IMG-labに従って、第2の2D画像2D-IMG2を生成するように構成される。
点群回復モジュール108は、第2の2D画像2D-IMG2に従って3Dラベル付き画像3D-IMG-labを生成するように構成される。
図2を参照すると、本発明の一実施形態において、2D画像ラベリング情報に基づく画像ラベリング方法のフローチャートが、本発明のより良い理解を得るために示されている。3D画像ラベリング方法は、3D画像ラベリング装置10において使用することができ、処理ユニットによって実行することができる。
最初に、この方法はステップS201で始まり、点群クラスタモジュールが実行されて、3Dラベル無し画像を受信し、3Dラベル無し画像3D-IMG-unlabの複数の点を、3Dクラスタ化画像3D-IMG-clusを生成するためのクラスタアルゴリズムに従って、1つ以上の第1のポイントクラスタとしてクラスタリングする。一実施形態では、3Dラベル無し画像3D-IMG-unlabを、3Dオリジナル画像データベースから取得することができる。別の実施形態では、3Dラベル無し画像3D-IMG-unlabを、ライダーレーダー(light detection and ranging (LiDAR) radar)またはレーダなどの1つ以上の3Dカメラによって取得することができる。3Dラベル無し画像3D-IMG-unlabが複数の3Dカメラから取得される場合、特定の時間および特定の空間に対応する3Dラベル無し画像3D-IMG-unlabは、3Dカメラによってキャプチャされた3Dオリジナル画像から、時空間の調整を通じて生成することができ、3Dラベル無し画像3D-IMG-unlabは、さらに点群クラスタモジュール102に提供される。一実施形態では、各点が空間情報(例えば、3D座標)を含んでもよい。別の実施形態では、各点が空間情報および色情報(例えば、RGB値)を含み得る。一実施形態では、本発明で使用されるクラスタアルゴリズムは、点間距離に基づくクラスタアルゴリズムなど、本技術分野で一般に使用されるアルゴリズムとすることができる。別の実施形態では、本発明で使用されるクラスタアルゴリズムは、点密度に基づくクラスタアルゴリズムとすることができる。クラスタ点の中で、点密度に基づくクラスタアルゴリズムは、前方物体(カメラに近い物体)に属するクラスタ点の部分を後方物体(カメラから遠い物体)に属するクラスタ点の部分と効果的に区別することができ、点の2つの部分を別個の第1のポイントクラスタに割り当てることができる。第1のポイントクラスタの各々は、1つ以上の点を含んでもよい。一実施形態では、第1のポイントクラスタの各々がオブジェクトを表してもよい。別の実施形態では、第1のポイントクラスタの各々が実際のオブジェクトの複数の断片のうちの1つを表してもよい。例えば、3つの第1ポイントクラスタは、人物の頭部、上半身、及び下半身(実際の物体の3つ)をそれぞれ表してもよい。3つの第1のポイントクラスタが一緒に結合されるとき、3つの第1のポイントクラスタは、人などの実際のオブジェクトを表してもよい。
ステップS203において、投影モジュールが実行されて、第1の2D画像2D-IMG1を生成するため、3Dクラスタ化画像3D-IMG-clusの第1のポイントクラスタを2D平面に投影する。一実施形態によると、投影モジュール104は、近点球面投影法を用いて第1の2D画像2D-IMG1を生成することができる。別の実施形態では、投影モジュール104は、本技術分野で一般的に使用される投影方法を使用して、第1の2D画像2D-IMG1を生成することができる。第1の2D画像2D-IMG1は、3Dクラスタ化画像3D-IMG-clusの第1のポイントクラスタの投影から形成された1つ以上の第1のオブジェクトを含む。すなわち、投影モジュールによって生成される第1の2D画像2D-IMG1は、3D情報を有する2D画像である。
ステップS205において、統合モジュールが実行され、第1の2D画像2D-IMG1および1つ以上の2Dラベル付き画像2D-IMG-labに従って、第2の2D画像2D-IMG2を生成する。2Dラベル付き画像2D-IMG-labおよび3Dラベル無し画像3D-IMG-unlabは、同じ特定の時間および同じ特定の空間に対応する。一実施形態では、2Dラベル付き画像2D-IMG-labは、2Dラベル付き画像データベースから取得される。他の実施態様において、2Dラベル付き画像2D-IMG-labは、一つまたは複数の2Dカメラから得られる。複数の2Dカメラから2Dラベル付き画像2D-IMG-labが得られる場合、異なる角度(30°、60°、120°など)で2Dカメラによって撮影された2D画像はさらに較正され、ラベル付けされて、2Dラベル付き画像2D-IMG-labが生成される。次に、2Dラベル付き画像2D-IMG-labは、統合モジュール106に提供される。2Dラベル付き画像2D-IMG-labの各々は、1つ以上のオブジェクトフレームを含んでもよい。オブジェクトフレームの各々は、「人」、「自動車」又は「自動二輪車」のようなオブジェクトカテゴリを有する。統合モジュール106は、第2の2D画像2D-IMG2を生成するために、2Dラベル付き画像2D-IMG-labのオブジェクトフレームに従って、第1の2D画像2D-IMG1にラベル付けする。一実施形態では、第1の2D画像2D-IMG1の第1のオブジェクトのそれぞれについて、統合モジュール106は、第1のオブジェクトがラベル付き画像2D-IMG-labのオブジェクトフレームのうちの1つに対応する範囲内にあるかどうかを判定する。判定が肯定的である場合、第1のオブジェクトは、対応するオブジェクトフレームのカテゴリに従ってラベル付けされ、そうでない場合、第1のオブジェクトはラベル付けされず、第2の2D画像が生成される。上記の方法により、ラベル付き画像2D-IMG-labのオブジェクトフレームに対応する第1の2D画像2D-IMG1の第1のオブジェクトの各々について、オブジェクトカテゴリを決定することができる。すなわち、第2の2D画像2D-IMG2では、ラベル付き画像2D-IMG-labのオブジェクトフレームに対応する第1のオブジェクトのそれぞれのオブジェクトカテゴリが、対応するラベル付き画像2D-IMG-labのオブジェクトフレームのオブジェクトカテゴリと同じであり、ラベル付き画像2D-IMG-labのオブジェクトフレームに対応しない第1のオブジェクトは、依然としていずれのオブジェクトカテゴリにも割り当てられない。
ステップS207において、点群回復モジュールが実行されて、第2の2D画像2D-IMG2に従って3Dラベル付き画像3D-IMG-labが生成される。一実施形態では、第2の2D画像2D-IMG2の第1のオブジェクトのそれぞれについて、点群回復モジュール108は、第1のオブジェクトのオブジェクトカテゴリ(存在する場合)に従って、3Dラベル付き画像3D-IMG-labを生成するため、第1のオブジェクトに対応する3Dクラスタ化画像3D-IMG-clusの第1のポイントクラスタのすべての点にラベル付けする。
一実施形態では、手動支援されたラベリングステップがステップS205とステップS207との間に挿入される。手動支援ラベリングステップでは、第2の2D画像2D-IMGのラベル付けされていない第1のオブジェクトの数を減らすため、ラベル付き画像2D-IMG-labのオブジェクトフレームに対応しない第1の2D画像2D-IMG1の第1のオブジェクトにラベル付けすることができる。
本発明に開示される3D画像ラベリング装置及び3D画像ラベリング方法によれば、3Dラベル無し画像が投影によって第1の2D画像に変換される前に、点群クラスタモジュールは、3Dクラスタ化画像を生成するため、3Dラベル無し画像の点をクラスタリングする。3Dクラスタ化画像の第1のポイントクラスタの各々は、第1の2D画像の第1のオブジェクトに対応する。第1のポイントクラスタ間の位置関係は、第1のポイントクラスタと第1のオブジェクトとの間の対応によって維持される。次に、第1の2D画像の第1のオブジェクトは、第2の2D画像を生成するために、2Dラベル付き画像のオブジェクトフレームに従ってラベル付けされる。第2の2D画像の第1のオブジェクトは、ラベル付けされ、オブジェクトカテゴリに割り当てられる。次に、第2の2D画像の第1のオブジェクトのオブジェクトカテゴリが、第1のポイントクラスタに対応する3Dクラスタ化画像のすべての点に適用される。したがって、上記の方法によって生成されたラベル付けされた3D画像は、3D点が投影されるとき、前方物体と後方物体との間の奥行き関係を欠くという問題がない。
実際の用途では、本発明で開示される3D画像ラベリング装置および3D画像ラベリング方法は、2Dラベル付き画像データベースおよび3Dラベル無し画像データベースに従って、3Dラベル付き画像データベースを作成するように構成することができる。別の実用化において、本発明に開示される3D画像ラベリング装置及び3D画像ラベリング方法は、2Dカメラによって提供される2D画像に瞬時にラベリングすることによって、3Dカメラによって提供される3D画像に瞬時にラベリングするために、自動運転車両に配置することができる。
本発明を、例として、好ましい実施形態に関して説明してきたが、本発明はそれに限定されない。これに反して、種々の修正及び類似の配置及び手順をカバーすることが意図されており、従って、添付の請求項の範囲はそのようなすべての修正及び類似の配置及び手順を包含するように、最も広い解釈が与えられるべきである。

Claims (8)

  1. 3Dクラスタ化画像を生成するために、3Dラベル無し画像の複数の点を、1つ以上の第1のポイントクラスタとして、前記3Dラベル無し画像とクラスタアルゴリズムに従って、クラスタリングするように構成された点群クラスタモジュールと、
    前記3Dクラスタ化画像に従って、1つ以上の第1のオブジェクトを有する第1の2D画像を生成するように構成され、前記第1のポイントクラスタの各々は前記1つ以上の第1のオブジェクトの1つに対応する投影モジュールと、
    第2の2D画像を生成するために、1つ以上の2Dラベル付き画像の1つ以上のオブジェクトフレームに従って、前記第1の2D画像の前記1つ以上の第1のオブジェクトにラベル付けするように構成された統合モジュールと、
    前記第2の2D画像に従って3Dラベル付き画像を生成するように構成された点群回復モジュールと、
    を含み、
    前記第1の2D画像の前記第1のオブジェクトの各々について、前記統合モジュールは、前記第1のオブジェクトが前記1つ以上のラベル付き画像の前記1つ以上のオブジェクトフレームの1つに対応する範囲内にあるかどうかを決定し、前記統合モジュールの前記決定が肯定的である場合、前記第1のオブジェクトは、前記対応するオブジェクトフレームのカテゴリに従ってラベル付けされ、そうでない場合、前記第1のオブジェクトはラベル付けされず、前記第2の2D画像が生成される3D画像ラベリング装置。
  2. 前記クラスタアルゴリズムは、前記3D画像の前記点の密度に基づいている、請求項1に記載の3D画像ラベリング装置。
  3. オブジェクトカテゴリを有する前記第2の2D画像の前記第1のオブジェクトの各々について、前記点群回復モジュールは、前記第1のオブジェクトの前記オブジェクトカテゴリに従って、前記第1のオブジェクトの前記第1のポイントクラスタに対応する前記3Dクラスタ化画像のすべての点にラベル付けする、請求項に記載の3D画像ラベリング装置。
  4. 前記第1のポイントクラスタの各々は、実際のオブジェクトの断片に対応する、請求項1に記載の3D画像ラベリング装置。
  5. 3D画像ラベリング方法であって、前記方法がプロセッサによって実行されるとき、前記プロセッサは、
    3Dクラスタ化画像を生成するために、3Dラベル無し画像の複数の点を、1つ以上の第1のポイントクラスタとして、前記3Dラベル無し画像とクラスタアルゴリズムに従って、クラスタリングする点群クラスタモジュールを実行すること、
    前記第1のポイントクラスタのそれぞれが、1つ以上の第1のオブジェクトの1つに対応するように、前記3Dクラスタ化画像に従って、前記1つ以上の第1のオブジェクトを有する第1の2D画像を生成する投影モジュールを実行すること、
    第2の2D画像を生成するために、前記第1の2D画像の前記1つ以上の第1のオブジェクトを、1つ以上の2Dラベル付き画像の1つ以上のオブジェクトフレームに従って、ラベル付けする統合モジュールを実行すること、および、
    前記第2の2D画像に従って、3Dラベル付き画像を生成する点群回復モジュールを実行すること、
    を可能にし、
    前記第1の2D画像の前記第1のオブジェクトの各々について、前記統合モジュールは、前記第1のオブジェクトが前記1つ以上のラベル付き画像の前記1つ以上のオブジェクトフレームの1つに対応する範囲内にあるかどうかを決定し、前記統合モジュールの前記決定が肯定的である場合、前記第1のオブジェクトは、前記対応するオブジェクトフレームのカテゴリに従ってラベル付けされ、そうでない場合、前記第1のオブジェクトはラベル付けされず、前記第2の2D画像が生成される3D画像ラベリング方法。
  6. 前記クラスタアルゴリズムは、前記3D画像の前記点の密度に基づいている、請求項に記載の3D画像ラベリング方法。
  7. オブジェクトカテゴリを有する前記第2の2D画像の前記第1のオブジェクトの各々について、前記点群回復モジュールは、前記第1のオブジェクトの前記オブジェクトカテゴリに従って、前記第1のオブジェクトの前記第1のポイントクラスタに対応する前記3Dクラスタ化画像のすべての点にラベル付けする、請求項に記載の3D画像ラベリング方法。
  8. 前記第1のポイントクラスタの各々は、実際のオブジェクトの断片に対応する、請求項に記載の3D画像ラベリング方法。
JP2020081206A 2019-12-27 2020-05-01 2d画像のラベリング情報に基づく3d画像ラベリング方法及び3d画像ラベリング装置 Active JP7084444B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/728,358 US11100702B2 (en) 2019-12-27 2019-12-27 3D image labeling method based on labeling information of 2D image and 3D image labeling device
US16/728,358 2019-12-27

Publications (2)

Publication Number Publication Date
JP2021108091A JP2021108091A (ja) 2021-07-29
JP7084444B2 true JP7084444B2 (ja) 2022-06-14

Family

ID=76546483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020081206A Active JP7084444B2 (ja) 2019-12-27 2020-05-01 2d画像のラベリング情報に基づく3d画像ラベリング方法及び3d画像ラベリング装置

Country Status (3)

Country Link
US (1) US11100702B2 (ja)
JP (1) JP7084444B2 (ja)
TW (1) TWI739268B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI774543B (zh) * 2021-08-31 2022-08-11 財團法人車輛研究測試中心 障礙物偵測方法
TWI786860B (zh) * 2021-10-01 2022-12-11 中華電信股份有限公司 基於點雲的物件偵測裝置和物件偵測方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019106034A (ja) 2017-12-13 2019-06-27 Kddi株式会社 点群から対象を特定する対象識別装置、プログラム及び方法
WO2019194255A1 (ja) 2018-04-05 2019-10-10 株式会社小糸製作所 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具
JP2019207220A (ja) 2018-03-13 2019-12-05 本田技研工業株式会社 動的な交通参加者の除去による位置推定と地図生成の安定した同時実行

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170306B2 (en) * 2007-04-25 2012-05-01 Siemens Aktiengesellschaft Automatic partitioning and recognition of human body regions from an arbitrary scan coverage image
KR101592889B1 (ko) 2008-03-03 2016-02-11 아비길론 페이턴트 홀딩 2 코포레이션 트래킹, 인덱싱 및 서치를 위한 물체 매칭 방법 및 장치
KR101907081B1 (ko) * 2011-08-22 2018-10-11 삼성전자주식회사 3차원 점군의 물체 분리 방법
US20130125069A1 (en) * 2011-09-06 2013-05-16 Lubomir D. Bourdev System and Method for Interactive Labeling of a Collection of Images
US8798357B2 (en) 2012-07-09 2014-08-05 Microsoft Corporation Image-based localization
WO2017132636A1 (en) * 2016-01-29 2017-08-03 Pointivo, Inc. Systems and methods for extracting information about objects from scene information
CN106776996B (zh) 2016-12-02 2018-09-07 百度在线网络技术(北京)有限公司 用于测试高精度地图的准确性的方法和装置
US10430641B2 (en) 2017-03-08 2019-10-01 GM Global Technology Operations LLC Methods and systems for object tracking using bounding boxes
US10262234B2 (en) 2017-04-24 2019-04-16 Baidu Usa Llc Automatically collecting training data for object recognition with 3D lidar and localization
US20190370544A1 (en) 2017-05-30 2019-12-05 Ptc Inc. Object Initiated Communication
US10699165B2 (en) 2017-10-30 2020-06-30 Palo Alto Research Center Incorporated System and method using augmented reality for efficient collection of training data for machine learning
TWI657407B (zh) 2017-12-07 2019-04-21 財團法人資訊工業策進會 利用遞歸神經網路的三維點雲追蹤裝置及方法
US10275689B1 (en) 2017-12-21 2019-04-30 Luminar Technologies, Inc. Object identification and labeling tool for training autonomous vehicle controllers
DE102017223658A1 (de) 2017-12-22 2019-06-27 Robert Bosch Gmbh LIDAR-Vorrichtung (100) zur Erfassung eines Objekts
US11113557B2 (en) * 2018-02-06 2021-09-07 Vatbox, Ltd. System and method for generating an electronic template corresponding to an image of an evidence
TWI666595B (zh) 2018-02-26 2019-07-21 財團法人工業技術研究院 物件標示系統及方法
US11202006B2 (en) 2018-05-18 2021-12-14 Samsung Electronics Co., Ltd. CMOS-assisted inside-out dynamic vision sensor tracking for low power mobile platforms
US10839530B1 (en) * 2018-09-04 2020-11-17 Apple Inc. Moving point detection
US10983217B2 (en) * 2018-11-30 2021-04-20 Huawei Technologes Co. Ltd. Method and system for semantic label generation using sparse 3D data

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019106034A (ja) 2017-12-13 2019-06-27 Kddi株式会社 点群から対象を特定する対象識別装置、プログラム及び方法
JP2019207220A (ja) 2018-03-13 2019-12-05 本田技研工業株式会社 動的な交通参加者の除去による位置推定と地図生成の安定した同時実行
WO2019194255A1 (ja) 2018-04-05 2019-10-10 株式会社小糸製作所 演算処理装置、オブジェクト識別システム、オブジェクト識別方法、自動車、車両用灯具

Also Published As

Publication number Publication date
US20210201566A1 (en) 2021-07-01
TW202124190A (zh) 2021-07-01
US11100702B2 (en) 2021-08-24
TWI739268B (zh) 2021-09-11
JP2021108091A (ja) 2021-07-29

Similar Documents

Publication Publication Date Title
US20200302241A1 (en) Techniques for training machine learning
KR20190028349A (ko) 이미지 내 휴먼 분리를 위한 전자 장치 및 방법
US20210383096A1 (en) Techniques for training machine learning
US9330472B2 (en) System and method for distorted camera image correction
US9886623B2 (en) User intention analysis apparatus and method based on image information of three-dimensional space
US8055016B2 (en) Apparatus and method for normalizing face image used for detecting drowsy driving
TWI666595B (zh) 物件標示系統及方法
US10916013B2 (en) Method of segmentation and annotation of images
JP7084444B2 (ja) 2d画像のラベリング情報に基づく3d画像ラベリング方法及び3d画像ラベリング装置
KR102178013B1 (ko) 물체 파지를 위한 훈련 데이터 생성 방법 및 파지 자세 결정 방법
JP2015215877A (ja) ステレオ画像の対において物体を検出する方法
US20210287022A1 (en) Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle
CN110647782A (zh) 三维人脸重建与多姿态人脸识别方法及装置
US20200257906A1 (en) Method for evaluating an optical appearance in the surroundings of a vehicle, and vehicle
CN109919128B (zh) 控制指令的获取方法、装置及电子设备
CN116563094A (zh) 一种风格图像的生成方法和系统
CN109079777B (zh) 一种机械臂手眼协调作业系统
CN115008454A (zh) 一种基于多帧伪标签数据增强的机器人在线手眼标定方法
CN111435429A (zh) 一种基于双目立体数据动态认知的手势识别方法及系统
Sun et al. Uni6Dv2: Noise elimination for 6D pose estimation
CN111079535A (zh) 一种人体骨架动作识别方法、装置及终端
US20230410561A1 (en) Method and apparatus for distinguishing different configuration states of an object based on an image representation of the object
Jafari et al. The best of bothworlds: Learning geometry-based 6d object pose estimation
WO2022078828A1 (en) Method for determining a motion model of an object in the surroundings of a motor vehicle, computer program product, computer-readable storage medium, as well as assistance system
JP6995714B2 (ja) 特定装置、特定方法及び特定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220114

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220602

R150 Certificate of patent or registration of utility model

Ref document number: 7084444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150