JP2020502661A - 包括的適応3dモデルに基づくオブジェクト認識 - Google Patents

包括的適応3dモデルに基づくオブジェクト認識 Download PDF

Info

Publication number
JP2020502661A
JP2020502661A JP2019531411A JP2019531411A JP2020502661A JP 2020502661 A JP2020502661 A JP 2020502661A JP 2019531411 A JP2019531411 A JP 2019531411A JP 2019531411 A JP2019531411 A JP 2019531411A JP 2020502661 A JP2020502661 A JP 2020502661A
Authority
JP
Japan
Prior art keywords
model
class
objects
images
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019531411A
Other languages
English (en)
Other versions
JP7101676B2 (ja
Inventor
ルセルフ,ロイク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Marelli Europe SpA
Original Assignee
Magneti Marelli SpA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Magneti Marelli SpA filed Critical Magneti Marelli SpA
Publication of JP2020502661A publication Critical patent/JP2020502661A/ja
Application granted granted Critical
Publication of JP7101676B2 publication Critical patent/JP7101676B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/28Determining representative reference patterns, e.g. by averaging or distorting; Generating dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/772Determining representative reference patterns, e.g. averaging or distorting patterns; Generating dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本発明は、可変のモルフォロジのオブジェクトのクラスを認識するためのシステムを自動的に構成する方法であって、対象シーンの一連のイメージにおけるクラスのオブジェクトのインスタンスを認識するのに十分な初期データセット(10)を有する機械学習システムを提供するステップと、そのモルフォロジをパラメータの組により定義することができるオブジェクトのクラスに固有の包括的三次元モデルを提供するステップと、カメラ(12)を用いてシーンの一連のイメージを取得するステップと、初期データセットを用いて、取得された一連のイメージにおけるクラスのオブジェクトのイメージインスタンス(14)を認識するステップと、認識されたイメージインスタンス(14)に包括的三次元モデルを適合する(16)ステップと、包括的モデルの適合から生じたパラメータの変動範囲を記憶する(20)ステップと、記憶された変動範囲内でパラメータを変化させることにより包括的モデルから複数の三次元オブジェクトを合成する(22)ステップと、学習システムのデータセット(10)にイメージの平面内の合成されたオブジェクトの投影(24)を補足するステップと、を含む方法に関する。【選択図】図2

Description

本発明は、移動するオブジェクトの認識システム、特に、機械学習に基づくシステムに関する。
一連のイメージにおける移動するオブジェクトの分離及び追跡は、例えば背景差分に基づく比較的単純な包括的アルゴリズムにより行われ得る。他方では、検出する、すなわち認識することを望む場合の、人、車、自転車、及び動物などのカテゴリへ、オブジェクトを分類する、したがって分離することはより難しい。実際は、オブジェクトは、一連のイメージにおいて多様なモルフォロジ(位置、サイズ、向き、歪み、テクスチャ、最終的な付加物及び連接要素の構成など)を有し得る。モルフォロジはまた、シーンを監視するカメラの視野及びレンズに依存する。往々にして、サブクラス(車のモデル、人の性別)を認識することも望まれる。
機械学習システムは、一般に、オブジェクトを分類及び検出するのに用いられる。分類は、その場合、学習を通じて得られる知識ベース又はデータセットに基づく。初期データセットが、一般に、所謂、監督下学習フェーズ中に生成され、オペレータは、コンテキストで生成された一連のイメージを見て、認識されるべきオブジェクトに対応するイメージ領域を手動で注釈付けする。このフェーズは、理想的にはそのクラスのオブジェクトのモルフォロジのすべての可能性のある代替、満足のいく認識率を得るのに少なくとも十分な代替を取り込もうとするものであるため、一般に長たらしく退屈である。
監督下学習のこの最初のタスクを軽減するために、機械学習技術が提案されており、その場合、注釈付けされた実イメージをデータセットに供給するのではなく、認識されるべきオブジェクトの三次元モデルから生成され自動的に注釈付けされた合成イメージが供給される。このような技術は、文献[“Learning Scene−Specific Pedestrian Detectors Without Real Data”, Hironori Hattori et al. 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)]で歩行者検出器の構成に関して説明される。同様の技術は、文献[“Teaching 3D Geometry to Deformable Part Models”, Bojan Pepik et al. 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR)]で車検出器の構成に関して説明される。
これらの技術の特徴は、3Dモデルのパラメータ及び制約に適合するが、見込みのないモルフォロジを有する、多くの合成イメージを生成することである。これは、データセットに不要なイメージを散らかし、認識を遅くすることがある。
加えて、いくつかのオブジェクトは、管理可能な数のパラメータ及び制約を有する3Dモデルですべての可能性を写実的に再現することが難しい可変のモルフォロジを有する。これは、結果的にデータセットのギャップ及び特定のオブジェクトの検出ミスを生じる。
可変のモルフォロジのオブジェクトのクラスを認識するためのシステムを自動的に構成するための方法であって、対象シーンの一連のイメージにおけるクラスのオブジェクトのインスタンスを認識するのに十分な初期データセットを有する機械学習システムを提供するステップと、そのモルフォロジをパラメータの組により定義することができるオブジェクトのクラスに固有の包括的三次元モデルを提供するステップと、カメラを用いてシーンの一連のイメージを取得するステップと、初期データセットを用いて、取得された一連のイメージにおけるクラスのオブジェクトのイメージインスタンスを認識するステップと、認識されたイメージインスタンスに包括的三次元モデルを適合させるステップと、包括的モデルの適合から生じるパラメータの変動範囲を記憶するステップと、記憶された変動範囲内でパラメータを変化させることにより包括的モデルから複数の三次元オブジェクトを合成するステップと、学習システムのデータセットにイメージの平面内の合成されたオブジェクトの投影を補足するステップと、を含む方法が一般に提供される。
方法は、モデルのメッシュのランドマークの相対位置により包括的三次元モデルのパラメータを定義するステップであって、メッシュの他のノードの位置は、制約によりランドマークに拘束されるステップと、モデルの投影のランドマークをイメージの平面内に位置決めすることにより包括的三次元モデルの適合を行うステップと、をさらに含み得る。
方法は、認識されたイメージインスタンスの領域からのテクスチャを記憶するステップと、記憶されたテクスチャのうちの1つのテクスチャを各合成されたオブジェクト上にマッピングするステップと、をさらに含み得る。
学習システムの初期データセットは、そのモルフォロジがモルフォロジの観察された変動域の両端にあるクラスの少なくとも2つのオブジェクトに関係する監督下学習により得られ得る。
他の利点及び特徴は、例示の目的のためだけに提供され添付図に表される本発明の特定の実施形態の以下の説明からより明白となるであろう。
カメラにより観察されるシーンの異なる位置に投影されるオブジェクトの概略的な三次元包括的モデルを示す図である。 図1の包括的モデルに係るオブジェクトを認識するための機械学習システムの構成フェーズを概略で示す図である。
オブジェクト検出器の最初の構成フェーズを単純化するために、Hironori Hattoriによる前述の文献のように、三次元モデルからの合成されかつ自動的に注釈付けされたイメージを用いて機械学習システムを構成することが本明細書で提案される。しかしながら、認識率を向上させるために、三次元モデルは、コンテキストで取得された実オブジェクトのイメージにこれまでに適合されているパラメトリック包括的モデルから得られる。
図1は、固定カメラにより監視される例示的なシーンの異なる位置でイメージ上に投影されるオブジェクト、例えば、車の、単純化された包括的モデルを例示する。シーンは、ここでは、簡潔のために、カメラの視野を水平方向に横断する道である。
背景において、モデルは、3つの位置合わせされた位置、すなわち、イメージの中央と左右の縁付近に投影される。前景において、モデルは、僅かに左寄りに投影される。すべてのこれらの投影は、次元の観点から同じモデルから生じ、シーンにおける位置の関数としてのイメージにおける投影のモルフォロジの変化を示す。曲がり道などのより複雑なシーンでは、モデルの向きに基づくモルフォロジの変化も見られるであろう。
位置の関数としてのモルフォロジの変化は、オブジェクトがその上で進行する平面、ここでは道、の投影により定義される。進行平面の投影は、カメラの特徴(レンズの視野、焦点距離、及び歪み)に依存する式により定義される。カメラ軸に垂直な縁は、サイズがカメラからの距離の関数として相似的に変化し、カメラ軸に平行な縁は、消失線に従う。結果として、例示されている図での車の横方向の移動中に、最初は見えている車の前面は、イメージの中央を横切る際には隠れており、一方、最初に隠れている後面は、イメージの中央を横切る際には見えるようになる。この例では常に見えている車の上面は、消失線に従って剪断する。
要約すれば、異なる位置又は向きでのイメージにおける同じオブジェクトの投影は、実オブジェクトが固定のモルフォロジを有する場合であっても、可変のモルフォロジを有する。もちろん、実オブジェクトはまた、1つのオブジェクトから別のオブジェクトへの(異なるモデルの2つの車間で)、又は同じオブジェクト(歩行者)の移動中に、可変のモルフォロジを有し得る。学習システムは、投影される可能性が最も高いモルフォロジの範囲を表すのに十分なデータでそれらが構成されているときに、この状況に上手く合わされる。
本明細書で用いられ得る三次元包括的モデル、例えばPDM(点分布モデル)は、制約により互いにリンクされるノードのメッシュ、すなわち、ランドマークとして既知の特定のノードの変位によって引き起こされる隣接するノード間の相対変位又はメッシュの変形を確立するパラメータを備え得る。ランドマークは、それらの変位が定義された制約内のモデルのすべての所望のモルフォロジを達成することを可能にするように選ばれる。
図1に示すように、前景において、単純化された包括的な車のモデルは、車体に関して、10の矩形面を画定する及び10のランドマークを有する16のノードのメッシュを含み得る。8つのランドマークK0〜K7は、車の側面のうちの一方を定義し、他方の側面上に存在する残りの2つのランドマークK8及びK9は、車の幅を定義する。単一のランドマークは、車の幅を定義するのに十分であるが、2つ以上のランドマークの存在は、投影の変形を考慮してモデルを実オブジェクトの投影にフィッティングすることを可能にするであろう。ホイールは、車の特徴的要素であり、軸距、直径、及び道路との接点を定義する図示していないランドマークの特定の組を割り当てることができる。
検出されるべき車の範囲とモデルが一致するように、例えば、2つの側面間の平行性を維持する、前面と後面との間の平行性を維持する、側面に垂直な縁間の平行性を維持する、ノードK3及びK5はノードK1及びK6よりも確実に上にあるようにする、ノードK3及びK4はノードK2及びK5よりも確実に上にあるようにする、ノードK2及びK3はノードK1及びK2の確実に右にあるようにする、ノードK4及びK5はノードK5及びK6の確実に左にあるようにするなどの種々の制約がこれらのランドマークに割り当てられ得る。
前に示されているように、例示される包括的3Dモデルは、開示を明快にするためにかなり単純化されている。実際には、モデルは、より微細なメッシュを有することになり、湾曲している縁及び面を定義することができる。
図2は、単なる例として、図1の包括的モデルに係る車を認識するための機械学習システムの構成フェーズを概略で示す。学習システムは、例えば図1のシーンを監視するために設置されたカメラ12に関連するデータセット10を備える。
構成フェーズは、既存のデータセットから開始してよく、これは、概要とごく低い認識率を与え得る。この既存のデータセットは、迅速且つ面倒なことがない監督下学習フェーズにより生成され得る。その後のステップは、満足のいく認識率を達成するべくデータセットを補足するために行われる。
認識システムがオンにされ、カメラにより取り込まれた連続するイメージにおける車の認識及び追跡が開始される。各認識された車のイメージインスタンスが14で抽出される。開示を単純化するために、車の一方の側面だけがインスタンスに例示され、実際には、各インスタンスは透視投影であり、ほとんどの場合、他の面は見えている。
カメラは、通常、異なる位置でそれぞれ同じ車の1つのインスタンスを含むいくつかのイメージを生成する。その後の動作のための最良の解像度を有することになる最大のインスタンスが選択され得る。
次いで、包括的3Dモデルが、各イメージインスタンスに適合される、したがって、抽出される。これは、例えばイメージの平面内に投影される場合のモデルのイメージとランドマークとのベストマッチを探す従来のフィッティングアルゴリズムで達成され得る。例えば、[“One Millisecond Face Alignment with an Ensemble of Regression Trees”, Vahid Kazemi et al. IEEE CVPR 2014]で説明される場合のランドマーク検出に基づくアルゴリズムを用いることも可能である。もちろん、モデルを完全に定義することができるように車の他の面はインスタンスにおいて見えていることが好ましい。
これらの適合動作は、実オブジェクトにスケール変更されることが想定される3Dモデルを生成する。この目的のために、適合動作は、オブジェクトの進行平面の投影の式を用い得る。これらの式は、カメラ特徴及びシーンの構成から手動で求められてよく、又は必要ならば、深度カメラなどの適切なツールを用いて校正フェーズにおいてシステムにより推定されてよい。オブジェクトが平面上で進むという知識に基づいて、追跡されるオブジェクトのインスタンスの位置に従ってサイズの変化から式を推論することができる。
各適合の終了時に、認識された車を縮尺で表す3Dモデルが16で生成される。モデルは、抽出された側面14に対応して二次元で例示される(用いられる包括的3Dモデルは、車、バン、及びさらにはバスに適合可能であることに注目されたい。したがって、システムは、ここでは、任意の四輪車両を認識するように構成される。)。
適合ステップ中に、車の異なる面に対応するイメージ領域をサンプリングし、これらのイメージ領域をテクスチャの形態で18で記憶することも可能である。
特定の取得時間後に、異なる車を表す複数の3Dモデル並びにそれらのテクスチャが、教師なしに取得されることになる。初期データセットにより与えられる認識率が乏しい場合、取得時間は、コレクションにおいて満足のいく数のモデルに達するまで延長され得る。
モデルコレクション16が満足のいくものと判断されるとき、モデルは、20で互いに比較され、各ランドマークに関する変動範囲が記憶される。ランドマークK6に関する例示的な変動範囲が例示されている。
変動範囲は、モデル自体の形状に影響を及ぼす相対変動、又はモデルの位置及び向きなどの絶対変動を定義し得る。ランドマークのうちの1つ、例えばK0は、絶対参照として作用し得る。これは、イメージにおける車の可能な位置及び向きを決定する絶対変動の範囲を割り当てられ得る。記憶されるモデルは車の移動中に生成される複数のインスタンスの中から選ばれた単一のインスタンスから生じ得るので、これらの範囲は、実際には記憶されるモデルから直接推論可能ではない。位置及び向きの変動は、各インスタンスへの包括的モデルの完全な適合を実行せずに、追跡される車の複数のインスタンスからそれらを推論することにより推定され得る。
K0に対角線上に対向するランドマーク、例えばK6に関して、ランドマークK0に対する変動範囲が確立され、これは車の長さを決定し得る。別の対角線上に対向するランドマーク、例えばK8に関して、ランドマークK0に対する変動範囲が確立され、これは車の幅を決定し得る。他のランドマークのそれぞれの変動範囲は、その隣接するランドマークのうちの1つに対して確立され得る。
変動範囲が確立されると、それらのそれぞれの変動範囲内でランドマークを変化させることにより、包括的モデルから複数の仮想3D車が22で合成される。テクスチャ18のうちの1つはまた、各仮想車上にマッピングされ得る。ランドマーク変動は、ランダム、増分的、またはこれらの組み合わせであり得る。
24で、学習システムのデータセット10を補足する自動的に注釈付けされたイメージインスタンスを形成するべくカメラの像平面内に各合成された車が投影される。これらの投影はまた、車の進行平面の投影の式を用いる。同じ合成された車が、以前に求めた絶対変動範囲に従っていくつかの位置及び異なる向きに投影され得る。一般に、向きは位置と相関関係があり、ゆえに、2つのパラメータは、道路に対して横向きになった車などの異常な状況を検出することが望まれない限り、独立して変更されないであろう。
初期データセットが不十分であった場合、この手順により補足されるデータセットは、特定の車のモデルの検出を妨げるギャップを依然として有するであろう。このケースでは、自動構成フェーズが、完成されたデータセットから始まって再び繰り返され得る。このデータセットは、普通は、最初のセットよりも良好な認識率を与え、これはモデル16のより変更されたコレクションの構成につながることになり、パラメータ変動範囲を洗練すること、及び、より正確且つより変更されたモデル22を合成し、データセット10を強化することを可能にする。
前に示されているように、初期データセットは、簡便迅速な監督下学習により生成され得る。このような手順では、オペレータは、観察されるシーンのイメージを見て、グラフィカルインターフェースを用いて、認識されるべきオブジェクトのインスタンスに対応するイメージ領域を注釈付けする。
その後の構成手順は、包括的モデルのモルフォロジの変動に基づいているので、オペレータは、最も顕著な変動を呈するオブジェクトを注釈付けすることを望み得る。したがって、オペレータは、そのモルフォロジがオペレータが観察された変動域の対極をなす、少なくとも2つのオブジェクトを注釈付けし得る。
インターフェースは、オペレータの支援を受けながら、進行平面の投影の式を確立するように設計されてよい。インターフェースは、次いで、オペレータに包括的モデルをイメージ領域に手動で適合することを提案し、注釈付けとコレクション16における第1のモデルの作成との両方を提示し得る。
この注釈付けフェーズは、大まか且つ迅速であり、目標は、データセットを完成させることになる自動構成フェーズを開始することを可能にする、限られた初期データセットを得ることである。
本明細書で説明される実施形態の多くの変形及び修正が当業者には明白であろう。これらの実施形態は、本質的に車の検出に関係するが、車は、認識することが望まれ得るオブジェクトの単なる例として提示される。本明細書で説明される原理は、動物又はヒトなどの変形可能なオブジェクトを含む、包括的にモデル化することができる任意のオブジェクトに適用可能である。

Claims (4)

  1. 可変のモルフォロジのオブジェクトのクラスを認識するためのシステムを自動的に構成するための方法であって、
    ・対象シーンの一連のイメージにおけるクラスのオブジェクトのインスタンスを認識するのに十分な初期データセット(10)を有する機械学習システムを提供するステップと、
    ・そのモルフォロジをパラメータの組により定義することができる、前記オブジェクトのクラスに固有の包括的三次元モデルを提供するステップと、
    ・カメラ(12)を用いて前記シーンの一連のイメージを取得するステップと、
    ・前記初期データセットを用いて、取得された一連のイメージにおけるクラスのオブジェクトのイメージインスタンス(14)を認識するステップと、
    ・認識されたイメージインスタンス(14)に前記包括的三次元モデルを適合させる(16)ステップと、
    ・前記包括的モデルの適合から生じたパラメータの変動範囲を記憶する(20)ステップと、
    ・記憶された変動範囲内で前記パラメータを変化させることにより前記包括的モデルから複数の三次元オブジェクトを合成する(22)ステップと、
    ・前記学習システムのデータセット(10)に前記イメージの平面内の合成されたオブジェクトの投影(24)を補足するステップと、
    を含む、方法。
  2. ・前記モデルのメッシュのランドマーク(K0〜K9)の相対位置により前記包括的三次元モデルのパラメータを定義するステップであって、前記メッシュの他のノードの位置は、制約により前記ランドマークに拘束されるステップと、
    ・前記モデルの投影のランドマークを前記イメージの平面内に位置決めすることにより前記包括的三次元モデルの適合を行うステップと、
    を含む、請求項1に記載の方法。
  3. ・前記認識されたイメージインスタンスの領域からのテクスチャ(18)を記憶するステップと、
    ・記憶されたテクスチャのうちの1つのテクスチャを各合成されたオブジェクト(22)上にマッピングするステップと、
    を含む、請求項1に記載の方法。
  4. 前記学習システムの初期データセットが、そのモルフォロジがモルフォロジの観察された変動域の両端にあるクラスの少なくとも2つのオブジェクトに関係する監督下学習により得られる、請求項1に記載の方法。
JP2019531411A 2016-12-14 2017-11-21 包括的適応3dモデルに基づくオブジェクト認識 Active JP7101676B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FR1662455 2016-12-14
FR1662455A FR3060170B1 (fr) 2016-12-14 2016-12-14 Systeme de reconnaissance d'objets base sur un modele generique 3d adaptatif
PCT/FR2017/053191 WO2018109298A1 (fr) 2016-12-14 2017-11-21 Système de reconnaissance d'objets basé sur un modèle générique 3d adaptatif

Publications (2)

Publication Number Publication Date
JP2020502661A true JP2020502661A (ja) 2020-01-23
JP7101676B2 JP7101676B2 (ja) 2022-07-15

Family

ID=58501514

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019531411A Active JP7101676B2 (ja) 2016-12-14 2017-11-21 包括的適応3dモデルに基づくオブジェクト認識

Country Status (9)

Country Link
US (1) US11036963B2 (ja)
EP (1) EP3555802A1 (ja)
JP (1) JP7101676B2 (ja)
KR (1) KR102523941B1 (ja)
CN (1) CN110199293A (ja)
CA (1) CA3046312A1 (ja)
FR (1) FR3060170B1 (ja)
IL (1) IL267181B2 (ja)
WO (1) WO2018109298A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3060170B1 (fr) * 2016-12-14 2019-05-24 Smart Me Up Systeme de reconnaissance d'objets base sur un modele generique 3d adaptatif
US11462023B2 (en) 2019-11-14 2022-10-04 Toyota Research Institute, Inc. Systems and methods for 3D object detection
FR3104054B1 (fr) * 2019-12-10 2022-03-25 Capsix Dispositif de definition d’une sequence de deplacements sur un modele generique
US11736748B2 (en) * 2020-12-16 2023-08-22 Tencent America LLC Reference of neural network model for adaptation of 2D video for streaming to heterogeneous client end-points
KR20230053262A (ko) 2021-10-14 2023-04-21 주식회사 인피닉 2d 현실공간 이미지를 기반의 3d 객체 인식 및 변환 방법과 이를 실행하기 위하여 기록매체에 기록된 컴퓨터 프로그램

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006520054A (ja) * 2003-03-06 2006-08-31 アニメトリクス,インク. 不変視点からの画像照合および2次元画像からの3次元モデルの生成
JP2007004767A (ja) * 2005-05-23 2007-01-11 Toshiba Corp 画像認識装置、方法およびプログラム
JP2007026400A (ja) * 2005-07-15 2007-02-01 Asahi Engineering Kk 可視光を用いた照度差の激しい場所での物体検出・認識システム、及びコンピュータプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5397985A (en) * 1993-02-09 1995-03-14 Mobil Oil Corporation Method for the imaging of casing morphology by twice integrating magnetic flux density signals
DE10252298B3 (de) * 2002-11-11 2004-08-19 Mehl, Albert, Prof. Dr. Dr. Verfahren zur Herstellung von Zahnersatzteilen oder Zahnrestaurationen unter Verwendung elektronischer Zahndarstellungen
WO2006051607A1 (ja) * 2004-11-12 2006-05-18 Omron Corporation 顔特徴点検出装置、特徴点検出装置
JP4991317B2 (ja) * 2006-02-06 2012-08-01 株式会社東芝 顔特徴点検出装置及びその方法
JP4585471B2 (ja) * 2006-03-07 2010-11-24 株式会社東芝 特徴点検出装置及びその方法
JP4093273B2 (ja) * 2006-03-13 2008-06-04 オムロン株式会社 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
JP4241763B2 (ja) * 2006-05-29 2009-03-18 株式会社東芝 人物認識装置及びその方法
JP4829141B2 (ja) * 2007-02-09 2011-12-07 株式会社東芝 視線検出装置及びその方法
US7872653B2 (en) * 2007-06-18 2011-01-18 Microsoft Corporation Mesh puppetry
US20100123714A1 (en) * 2008-11-14 2010-05-20 General Electric Company Methods and apparatus for combined 4d presentation of quantitative regional parameters on surface rendering
JP5361524B2 (ja) * 2009-05-11 2013-12-04 キヤノン株式会社 パターン認識システム及びパターン認識方法
EP2333692A1 (en) * 2009-12-11 2011-06-15 Alcatel Lucent Method and arrangement for improved image matching
KR101697184B1 (ko) * 2010-04-20 2017-01-17 삼성전자주식회사 메쉬 생성 장치 및 그 방법, 그리고, 영상 처리 장치 및 그 방법
KR101681538B1 (ko) * 2010-10-20 2016-12-01 삼성전자주식회사 영상 처리 장치 및 방법
JP6026119B2 (ja) * 2012-03-19 2016-11-16 株式会社東芝 生体情報処理装置
GB2515510B (en) * 2013-06-25 2019-12-25 Synopsys Inc Image processing method
US9299195B2 (en) * 2014-03-25 2016-03-29 Cisco Technology, Inc. Scanning and tracking dynamic objects with depth cameras
WO2015148824A1 (en) * 2014-03-27 2015-10-01 Hrl Laboratories, Llc System for filtering, segmenting and recognizing objects in unconstrained environments
FR3021443B1 (fr) * 2014-05-20 2017-10-13 Essilor Int Procede de construction d'un modele du visage d'un individu, procede et dispositif d'analyse de posture utilisant un tel modele
CN104182765B (zh) * 2014-08-21 2017-03-22 南京大学 一种互联网图像驱动的三维模型最优视图自动选择方法
US10559111B2 (en) * 2016-06-23 2020-02-11 LoomAi, Inc. Systems and methods for generating computer ready animation models of a human head from captured data images
FR3060170B1 (fr) * 2016-12-14 2019-05-24 Smart Me Up Systeme de reconnaissance d'objets base sur un modele generique 3d adaptatif

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006520054A (ja) * 2003-03-06 2006-08-31 アニメトリクス,インク. 不変視点からの画像照合および2次元画像からの3次元モデルの生成
JP2006522411A (ja) * 2003-03-06 2006-09-28 アニメトリックス,インク. 複数の特徴を含むオブジェクトの画像データベースの生成
JP2007004767A (ja) * 2005-05-23 2007-01-11 Toshiba Corp 画像認識装置、方法およびプログラム
JP2007026400A (ja) * 2005-07-15 2007-02-01 Asahi Engineering Kk 可視光を用いた照度差の激しい場所での物体検出・認識システム、及びコンピュータプログラム

Also Published As

Publication number Publication date
KR102523941B1 (ko) 2023-04-20
EP3555802A1 (fr) 2019-10-23
IL267181B (en) 2022-11-01
US20190354745A1 (en) 2019-11-21
KR20190095359A (ko) 2019-08-14
IL267181B2 (en) 2023-03-01
IL267181A (en) 2019-08-29
CN110199293A (zh) 2019-09-03
FR3060170A1 (fr) 2018-06-15
WO2018109298A1 (fr) 2018-06-21
JP7101676B2 (ja) 2022-07-15
FR3060170B1 (fr) 2019-05-24
US11036963B2 (en) 2021-06-15
CA3046312A1 (fr) 2018-06-21

Similar Documents

Publication Publication Date Title
JP7101676B2 (ja) 包括的適応3dモデルに基づくオブジェクト認識
Matti et al. Combining LiDAR space clustering and convolutional neural networks for pedestrian detection
CN109934848B (zh) 一种基于深度学习的运动物体精准定位的方法
KR102338665B1 (ko) 의미론적 영상을 활용한 포인트 클라우드 분류 장치 및 방법
Palazzi et al. Learning to map vehicles into bird’s eye view
JP6574611B2 (ja) 立体画像に基づいて距離情報を求めるためのセンサシステム
JP2016071846A (ja) 単眼カメラに基づく障害物検知方法及び装置
JP2015057690A (ja) 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム
US11783443B2 (en) Extraction of standardized images from a single view or multi-view capture
EP2593907B1 (fr) Procédé de détection d'une cible dans des images stéréoscopiques par apprentissage et classification statistique à partir d'une loi de probabilité
US11854275B2 (en) Systems and methods for detecting symptoms of occupant illness
CN110427797B (zh) 一种基于几何条件限制的三维车辆检测方法
JP2014127208A (ja) 物体検出方法及び物体検出装置
US20120320162A1 (en) Video object localization method using multiple cameras
Barrois et al. 3D pose estimation of vehicles using a stereo camera
JP2007188417A (ja) 画像認識装置、画像認識方法および画像認識プログラム
Hossny et al. Low cost multimodal facial recognition via kinect sensors
JP2016119085A (ja) 障害物検出装置および障害物検出方法
CN105006175A (zh) 主动识别交通参与者的动作的方法和系统及相应的机动车
TWI631516B (zh) 可適用多重追蹤的目標追蹤方法與系統
JP5299101B2 (ja) 周辺表示装置
Gouiaa et al. 3D reconstruction by fusioning shadow and silhouette information
GB2551239A (en) A computer implemented method for tracking an object in a 3D scene
JP2007272578A (ja) 画像処理装置および画像処理方法
Botach et al. BIDCD--Bosch Industrial Depth Completion Dataset

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211028

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211116

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220215

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220705

R150 Certificate of patent or registration of utility model

Ref document number: 7101676

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150