JP6681729B2 - オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム - Google Patents
オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム Download PDFInfo
- Publication number
- JP6681729B2 JP6681729B2 JP2016021810A JP2016021810A JP6681729B2 JP 6681729 B2 JP6681729 B2 JP 6681729B2 JP 2016021810 A JP2016021810 A JP 2016021810A JP 2016021810 A JP2016021810 A JP 2016021810A JP 6681729 B2 JP6681729 B2 JP 6681729B2
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- training
- location
- pose
- landmark
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 54
- 238000012549 training Methods 0.000 claims description 40
- 239000013598 vector Substances 0.000 claims description 31
- 238000013519 translation Methods 0.000 claims description 14
- 238000004422 calculation algorithm Methods 0.000 claims description 7
- 230000003190 augmentative effect Effects 0.000 claims description 3
- 230000014616 translation Effects 0.000 claims 10
- 210000003128 head Anatomy 0.000 description 55
- 238000012360 testing method Methods 0.000 description 18
- 230000005484 gravity Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 239000011159 matrix material Substances 0.000 description 9
- 238000005070 sampling Methods 0.000 description 6
- 238000006073 displacement reaction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000003909 pattern recognition Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Description
図1に示すように、本発明の実施形態は、頭部102の3D姿勢118および例えば顔ランドマークの3Dロケーション119を自動的に求める方法およびシステムを提供する。3Dポイントクラウド101が得られる。得る手段は、例えば、奥行きセンサ103によって取得された奥行き画像から3Dポイントクラウドを計算することによるものとすることができる。3Dポイントクラウドから、本方法は3Dサーフェスパッチ111を抽出する(110)。パラメトリックモデル109は各3Dサーフェスパッチに当てはめられる(120)。サーフェスパッチを当てはめるのに用いられるパラメータは、例えば特徴ベクトルの形態で、パッチのための記述子として用いられる。このため、観測された3Dポイントクラウドから抽出された情報は、全ての抽出されたサーフェスパッチ111の記述子の組121に含まれる。近似最近傍アルゴリズムを用いて、3Dポイントクラウドから抽出されたパッチの記述子の組と、トレーニングデータから以前に抽出され、ライブラリ129に記憶された同様のサーフェスパッチの記述子との間の1組の対応関係が求められる。トレーニングサーフェスパッチは、既知の姿勢および顔ランドマークの既知のロケーションを有する頭部のポイントクラウドから抽出される。好ましい実施形態では、これらのポイントクラウドは、ランダムに生成された合成3D頭部モデルから得られる。
本発明の好ましい実施形態は、3D三角形サーフェスパッチ(TSP)を用いる。
3Dポイントクラウドからの高速正三角形サンプリングを、本方法のトレーニングフェーズおよび試験フェーズの双方において用いることができる。問題は以下のように定式化することができる。ポイントクラウド
図3Aに示すような第1のパラメトリックモデルでは、基本三角形はk2個のサブ正三角形(例えば、k=4)に分割される。TSP P内の点が基本三角形上に垂直に投影される場合、P内の各点はサブ三角形のうちの1つに投影される。このことを、点がサブ三角形に属す、または同等に、サブ三角形が点を含むと言う。図3Bに示すように、P内の各点は基本三角形からの或る(正または負の)高さ301を有する。
現実世界の奥行き画像の更なる課題は、奥行きセンサにおける制限および頭部の自己遮蔽に起因する穴の存在である。これによって、空のサブ三角形および未定義の記述子を有するTSPが導かれる可能性がある。
図5A〜図5Cは、第2のパラメトリックモデルの例、すなわち、3Dポイントクラウドから抽出された基本三角形501にわたって定義されるベジエ三角形を示す。この例において、ポイントクラウドは、高分解能3Dメッシュの頂点ロケーションからなる。TSP502は、ベジエ三角形503を用いて近似される。この例では、ベジエ三角形503は、TSP502の平滑な近似である。ベジエ三角形は、n個の制御点によって定義されるサーフェスであり、これらはそれぞれ、基本三角形におけるn個の規則的に離間された点に関連付けられる。一般的なベジエ三角形の場合、モデルのパラメータは、基本三角形上の点の位置からの各制御点の3D変位であり、すなわち、制御点ごとの3つのパラメータである。
本手法の第1の重要な強みは、三角形サーフェスパッチが、奥行き画像ではなく3Dポイントクラウドにわたって定義されることである。これによって、パッチは視点の変化を受けたときに、より不変となる。奥行き画像のパッチ上で特徴を直接計算する従来技術の方法は、トレーニングセットが、試験奥行きマップと同様の視点から捕捉された奥行きマップを含むことを必要とする。なぜなら、普通の写真画像と全く同様に、奥行き画像は視点の変化とともに大幅に変動する可能性があるためである。奥行き画像と対照的に、3Dポイントクラウドは、より広い範囲の視点変化にわたってその基本形状を維持する。このため、トレーニングデータが特定の始点と関連付けられていないにもかかわらず、本手法は極めて良好に機能する。
好ましい実施形態では、トレーニングは図4Aに示す例等の3D頭部の高分解能メッシュにおいて実行される。いくつかの実施形態では、各メッシュは単一の対象物の高分解能3Dスキャンを用いて得られる。好ましい実施形態では、各メッシュはパラメトリック3D頭部モデルのパラメータをランダムに変動させることによって生成される。パラメトリック3D頭部モデル自体は、複数の対象物の高分解能3Dスキャンから導出することができる。モデルごとのポイントクラウドは、複数の方法、例えば、メッシュの頂点として、またはメッシュ内の多角形の中心として、またはメッシュからランダムにサンプリングされた点として、メッシュから定義することができる。トレーニングセット内の各メッシュから、重なり合う基本三角形におけるメッシュを密にカバーするn個の基本正三角形T1,...,Tn、例えば、n=10000をランダムにサンプリングする。次に、各サンプリングされた基本三角形Tiに対応するTSPを求め、関連付けられた記述子viを求める。
このため、トレーニングモデルごとに、n個のサンプルτ1,...,τnを生成し記憶する。これらの各サンプルが、基本三角形Tiを関連データτi={Ti,vi,ci,ui1,...,uiq}と共に含む。ここで、viはTSP記述子であり、ciはTiの重心からモデル重心までのベクトルであり、uikは、図4Bに示すように、Tiの重心からk番目の顔ランドマークの位置までのベクトルであり、qは各モデル内のランドマークの数である。
試験は、頭部102の3DポイントクラウドS101において実行される。好ましい実施形態では、ポイントクラウドは、奥行き画像から再構成された、例えば、Kinectセンサ等の奥行きセンサ103から得られたものである。頭部姿勢(3D頭部向きおよび3D頭部重心ロケーションからなる)および顔ランドマークのロケーションは以下のように求められる。
ポイントクラウドSからサンプリングされた基本正三角形T’iを検討する。対応するTSPおよび記述子v’iを求める。次に、v’iをキーとして用いて、ライブラリから最も類似した記述子viを検索する。viはライブラリサンプルτiと関連付けられることを想起されたい。ライブラリサンプルτiはまた、基本三角形Tiと、三角形Tiに対する対応するトレーニング頭部の重心のロケーションを与えるベクトルciと、Tiに対するq個の顔ランドマークの各々のロケーションを与えるベクトルであるui1,...,uiqとを含む。
トレーニング中、基本三角形に対するベクトルとして、モデル重心に類似した顔ランドマークロケーションが記憶される。このため、顔ランドマークロケーションに対する投票は、モデル重心に対する投票が行われるのと同じようにして行うことができる。これによって、複数の投票空間、すなわち、頭部の向きのためのSO(3)と、頭部重心およびランドマークロケーションの各々のための別個の投票空間
したがって、回転および重心投票空間内で共同クラスタリングを実行することによって、一貫性のない投票をフィルタリング除去する。顔ランドマーク投票を用いない理由は以下である。各空間における独立したクラスタリングを用いた試験は、回転推定値が、顔ランドマークの推定値よりも安定していることを示し、ランドマークロケーション推定値が頭部向き推定値よりも頻繁に誤っていることを意味する。
Claims (13)
- オブジェクトの三次元(3D)姿勢および前記オブジェクトのランドマーク点の3Dロケーションを求める方法であって、
前記オブジェクトの3Dポイントクラウドを得るステップと、
前記3Dポイントクラウドから3Dサーフェスパッチを抽出するステップであって、各3Dサーフェスパッチは、3D中心ポイントと3D法線ベクトルと3D形状の表面とを含み、各3Dサーフェスパッチは、前記3Dポイントクラウドのそれぞれの3Dサーフェスパッチに当てはまるパラメトリックモデルのパラメータを含む記述子として表され、記述子の組を求める、ステップと、
前記記述子の組と、既知の3D姿勢およびランドマーク点の既知の3Dロケーションを有する、得られた前記オブジェクトと同じオブジェクトクラスからのトレーニングオブジェクトから抽出されたパッチのトレーニング記述子の組と、の間の対応関係の組を求めるステップと、
各対応関係に対して前記対応関係の組から3D回転および3D並進を求めるステップであって、前記対応関係の組は、トレーニングした3Dサーフェスパッチの3D法線ベクトルを、サンプルされた3Dサーフェスパッチの3D法線ベクトルにマッピングし、得られた3Dポイントクラウド上のランドマーク位置に対する前記トレーニングオブジェクト上のランドマーク位置の3Dロケーションを示すトレーニングベクトルを変換するために、前記3D回転および前記3D並進を用いて、前記オブジェクトの前記ランドマーク点を示す3D回転、3D並進、および3Dベクトルの組を得る、ステップと、
3D回転および3D並進を含む前記オブジェクトの前記3D姿勢を推定し、前記オブジェクトの前記ランドマーク点を示す3D回転、3D並進、および3Dベクトルの前記組に含まれる推定から前記オブジェクトの前記ランドマーク点の3Dロケーションを推定するステップと、
を備え、
前記ステップは、前記3Dポイントクラウドを記憶するメモリに接続されたプロセッサにおいて実行される
方法。 - 前記オブジェクトは、人間の頭部であり、
前記ランドマーク点は、顔ランドマークである
請求項1に記載の方法。 - 前記3Dポイントクラウドは、奥行き画像から3Dポイントクラウドを計算することによって得られる
請求項1に記載の方法。 - 前記奥行き画像は、奥行きセンサによって取得される
請求項3に記載の方法。 - 前記求めるステップは、近似最近傍アルゴリズムを用いて行われる
請求項1に記載の方法。 - 前記3Dポイントクラウドは、合成して生成される
請求項1に記載の方法。 - 前記3Dサーフェスパッチは、三角形であり、前記パラメトリックモデルは、サブ三角形パラメトリックモデルである
請求項1に記載の方法。 - 前記3Dサーフェスパッチは、前記3Dポイントクラウドによって定義されるサーフェス上のランダムなロケーションおよびランダムな向きから選択される
請求項1に記載の方法。 - 近傍サブ三角形を用いて前記パラメトリックモデルにおける穴を埋めるステップをさらに備えた
請求項7に記載の方法。 - 前記推定するステップは、投票技法を用いて行われる
請求項1に記載の方法。 - 一貫性のない投票は、回転および重心投票空間において共同クラスタリングを行うことによってフィルタリングされる
請求項10に記載の方法。 - 前記推定するステップの結果は、ヘッドアップディスプレイを用いる車のための拡張現実システムによって用いられる
請求項10に記載の方法。 - オブジェクトの三次元(3D)姿勢および前記オブジェクトのランドマーク点の3Dロケーションを求めるシステムであって、
過去の3Dトレーニングオブジェクトに関する情報が記録されたメモリであって、前記情報は、トレーニングオブジェクトの3Dサーフィスパッチ、前記トレーニングオブジェクトの3D姿勢および3Dランドマーク点の3Dロケーションを示すトレーニング記述子を含む、メモリと、
前記メモリに接続されたプロセッサと、
を備え、
前記プロセッサは、
前記オブジェクトの3Dポイントクラウドにアクセスし、
前記3Dポイントクラウドから3Dサーフェスパッチを抽出し、各3Dサーフェスパッチは、3D中心ポイントと3D法線ベクトルと3D形状の表面とを含み、各3Dサーフェスパッチは、前記3Dポイントクラウドのそれぞれの3Dサーフェスパッチに当てはまるパラメトリックモデルのパラメータを含む記述子として表され、前記記述子の組を求め、抽出された前記3Dサーフェスパッチは、平面三角形と、前記平面三角形の面の上、下、または上下に配置された3Dポイントを含み、
前記トレーニング記述子の組と、既知の3D姿勢およびランドマーク点の既知の3Dロケーションを有する、アクセスされた前記オブジェクトと同じオブジェクトクラスからのトレーニングオブジェクトから抽出されたパッチの記述子の組と、の間の対応関係の組を求め、
各対応関係に対して前記対応関係の組から3D回転および3D並進を求め、前記対応関係の組は、トレーニングした3Dサーフェスパッチの3D法線ベクトルを、サンプルされた3Dサーフェスパッチの3D法線ベクトルにマッピングし、得られた3Dポイントクラウド上のランドマーク位置に対する前記トレーニングオブジェクト上のランドマーク位置の3Dロケーションを示すトレーニングベクトルを変換するために、前記3D回転および前記3D並進を用いて、前記オブジェクトの前記ランドマーク点を示す3D回転、3D並進、および3Dベクトルの組を取得し、
3D回転および3D並進を含む前記オブジェクトの前記3D姿勢を推定し、前記オブジェクトの前記ランドマーク点を示す3D回転、3D並進、および3Dベクトルの前記組に含まれる推定から前記オブジェクトの前記ランドマーク点の3Dロケーションを推定するプロセッサと、
を備えたシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/632,466 US10515259B2 (en) | 2015-02-26 | 2015-02-26 | Method and system for determining 3D object poses and landmark points using surface patches |
US14/632,466 | 2015-02-26 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016161569A JP2016161569A (ja) | 2016-09-05 |
JP6681729B2 true JP6681729B2 (ja) | 2020-04-15 |
Family
ID=56798334
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016021810A Active JP6681729B2 (ja) | 2015-02-26 | 2016-02-08 | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10515259B2 (ja) |
JP (1) | JP6681729B2 (ja) |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10155168B2 (en) | 2012-05-08 | 2018-12-18 | Snap Inc. | System and method for adaptable avatars |
US9830703B2 (en) * | 2015-08-12 | 2017-11-28 | Nvidia Corporation | Model-based three-dimensional head pose estimation |
US20170053172A1 (en) * | 2015-08-20 | 2017-02-23 | Kabushiki Kaisha Toshiba | Image processing apparatus, and image processing method |
US10120057B1 (en) * | 2015-10-13 | 2018-11-06 | Google Llc | System and method for determining the direction of an actor |
US9691153B1 (en) | 2015-10-21 | 2017-06-27 | Google Inc. | System and method for using image data to determine a direction of an actor |
US10025308B1 (en) | 2016-02-19 | 2018-07-17 | Google Llc | System and method to obtain and use attribute data |
US10339365B2 (en) | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
US10755438B2 (en) * | 2016-04-27 | 2020-08-25 | Bellus 3D, Inc. | Robust head pose estimation with a depth camera |
US10360708B2 (en) * | 2016-06-30 | 2019-07-23 | Snap Inc. | Avatar based ideogram generation |
WO2018065073A1 (en) * | 2016-10-07 | 2018-04-12 | Toyota Motor Europe | Electronic device, system and method for recognizing and locating an object |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
CN110168608B (zh) * | 2016-11-22 | 2023-08-29 | 乐高公司 | 用于获取物理对象的3维数字表示的系统 |
EP3349182A1 (en) | 2017-01-13 | 2018-07-18 | Thomson Licensing | Method, apparatus and stream for immersive video format |
KR102647351B1 (ko) * | 2017-01-26 | 2024-03-13 | 삼성전자주식회사 | 3차원의 포인트 클라우드를 이용한 모델링 방법 및 모델링 장치 |
EP3586311A1 (en) | 2017-02-23 | 2020-01-01 | Siemens Mobility GmbH | Image indexing and retrieval using local image patches for object three-dimensional pose estimation |
US10242458B2 (en) | 2017-04-21 | 2019-03-26 | Qualcomm Incorporated | Registration of range images using virtual gimbal information |
US10691925B2 (en) * | 2017-10-28 | 2020-06-23 | Altumview Systems Inc. | Enhanced face-detection and face-tracking for resource-limited embedded vision systems |
CN108053443B (zh) * | 2017-11-20 | 2019-08-02 | 中国科学院空间应用工程与技术中心 | 一种基于粒子群优化的物体点云位姿估算方法和系统 |
CN110049323B (zh) * | 2018-01-17 | 2021-09-07 | 华为技术有限公司 | 编码方法、解码方法和装置 |
CN108399609B (zh) * | 2018-03-06 | 2020-07-31 | 北京因时机器人科技有限公司 | 一种三维点云数据的修补方法、装置和机器人 |
CN113508012A (zh) * | 2018-09-04 | 2021-10-15 | 快砖知识产权私人有限公司 | 用于机器人机械的视觉系统 |
GB2583687B (en) * | 2018-09-12 | 2022-07-20 | Sony Interactive Entertainment Inc | Method and system for generating a 3D reconstruction of a human |
CN109766866B (zh) * | 2019-01-22 | 2020-09-18 | 杭州美戴科技有限公司 | 一种基于三维重建的人脸特征点实时检测方法和检测系统 |
CN110176020A (zh) * | 2019-04-09 | 2019-08-27 | 广东工业大学 | 一种融合2d和3d图像的燕窝杂质分拣方法 |
RU2019125602A (ru) * | 2019-08-13 | 2021-02-15 | Общество С Ограниченной Ответственностью "Тексел" | Комплексная система и способ для дистанционного выбора одежды |
EP4037515A4 (en) | 2019-10-03 | 2023-08-23 | Cornell University | OPTIMIZATION OF BRA SIZING ACCORDING TO THE 3D SHAPE OF THE BREASTS |
US11127164B2 (en) * | 2019-10-04 | 2021-09-21 | Mitsubishi Electric Research Laboratories, Inc. | Image processing system and method for landmark location estimation with uncertainty |
EP4076169A4 (en) * | 2019-12-17 | 2024-02-14 | Vayyar Imaging Ltd | SYSTEMS AND METHOD FOR SCANNING SUBJECTS TO DETERMINE BODY MEASUREMENTS |
US11417063B2 (en) * | 2020-09-01 | 2022-08-16 | Nvidia Corporation | Determining a three-dimensional representation of a scene |
CN113190120B (zh) * | 2021-05-11 | 2022-06-24 | 浙江商汤科技开发有限公司 | 位姿获取方法、装置、电子设备及存储介质 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1994023390A1 (en) * | 1993-03-29 | 1994-10-13 | Matsushita Electric Industrial Co., Ltd. | Apparatus for identifying person |
JP2920513B2 (ja) * | 1997-01-21 | 1999-07-19 | 工業技術院長 | 3次元物体位置姿勢決定方法 |
JP4703907B2 (ja) * | 2001-07-31 | 2011-06-15 | 富士重工業株式会社 | 物体の表面格子生成方法 |
JP4860472B2 (ja) * | 2003-10-09 | 2012-01-25 | ユニヴァーシティ オブ ヨーク | 画像認識 |
JP4297501B2 (ja) * | 2004-08-11 | 2009-07-15 | 国立大学法人東京工業大学 | 移動体周辺監視装置 |
JP4865517B2 (ja) * | 2006-12-05 | 2012-02-01 | スズキ株式会社 | 頭部の位置・姿勢検出装置 |
US7844105B2 (en) | 2007-04-23 | 2010-11-30 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for determining objects poses from range images |
US20100111375A1 (en) * | 2008-10-31 | 2010-05-06 | Michael Jeffrey Jones | Method for Determining Atributes of Faces in Images |
JP2010261772A (ja) * | 2009-05-01 | 2010-11-18 | Shimizu Corp | 鉄筋のかぶり厚さ検査装置および鉄筋のかぶり厚さ検査方法 |
JP5328979B2 (ja) * | 2009-05-12 | 2013-10-30 | トヨタ自動車株式会社 | 物体認識方法、物体認識装置、自律移動ロボット |
JP5030183B2 (ja) * | 2009-07-17 | 2012-09-19 | 独立行政法人産業技術総合研究所 | 3次元物体位置姿勢計測方法 |
US8582867B2 (en) | 2010-09-16 | 2013-11-12 | Primesense Ltd | Learning-based pose estimation from depth maps |
JP2012083855A (ja) * | 2010-10-07 | 2012-04-26 | Toyota Motor Corp | 物体認識装置及び物体認識方法 |
KR20130086356A (ko) * | 2010-10-26 | 2013-08-01 | 잇판자이단호진 기카이신코쿄카이 | 공구 충돌 방지 시스템 및 공구 충돌 방지 방법 |
KR101791590B1 (ko) * | 2010-11-05 | 2017-10-30 | 삼성전자주식회사 | 물체 자세 인식장치 및 이를 이용한 물체 자세 인식방법 |
US8274508B2 (en) * | 2011-02-14 | 2012-09-25 | Mitsubishi Electric Research Laboratories, Inc. | Method for representing objects with concentric ring signature descriptors for detecting 3D objects in range images |
JP5567525B2 (ja) * | 2011-06-10 | 2014-08-06 | 日本電信電話株式会社 | 動画像処理方法、動画像処理装置及び動画像処理プログラム |
US8908913B2 (en) * | 2011-12-19 | 2014-12-09 | Mitsubishi Electric Research Laboratories, Inc. | Voting-based pose estimation for 3D sensors |
US8798357B2 (en) * | 2012-07-09 | 2014-08-05 | Microsoft Corporation | Image-based localization |
GB201215944D0 (en) * | 2012-09-06 | 2012-10-24 | Univ Manchester | Image processing apparatus and method for fittng a deformable shape model to an image using random forests |
JP6118976B2 (ja) * | 2012-11-06 | 2017-04-26 | 株式会社国際電気通信基礎技術研究所 | 頭部姿勢の推定装置、頭部姿勢の推定方法およびコンピュータに頭部姿勢の推定方法を実行させるためのプログラム |
US9047703B2 (en) * | 2013-03-13 | 2015-06-02 | Honda Motor Co., Ltd. | Augmented reality heads up display (HUD) for left turn safety cues |
US9262671B2 (en) * | 2013-03-15 | 2016-02-16 | Nito Inc. | Systems, methods, and software for detecting an object in an image |
US9524582B2 (en) * | 2014-01-28 | 2016-12-20 | Siemens Healthcare Gmbh | Method and system for constructing personalized avatars using a parameterized deformable mesh |
US9098754B1 (en) * | 2014-04-25 | 2015-08-04 | Google Inc. | Methods and systems for object detection using laser point clouds |
US9489770B2 (en) * | 2014-05-26 | 2016-11-08 | Tatsuya Iwamoto | Method for generating quartic bezier triangle patches from triangle mesh for computer graphics |
-
2015
- 2015-02-26 US US14/632,466 patent/US10515259B2/en active Active
-
2016
- 2016-02-08 JP JP2016021810A patent/JP6681729B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
US10515259B2 (en) | 2019-12-24 |
US20160253807A1 (en) | 2016-09-01 |
JP2016161569A (ja) | 2016-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6681729B2 (ja) | オブジェクトの3d姿勢およびオブジェクトのランドマーク点の3dロケーションを求める方法、およびオブジェクトの3d姿勢およびオブジェクトのランドマークの3dロケーションを求めるシステム | |
Papazov et al. | Real-time 3D head pose and facial landmark estimation from depth images using triangular surface patch features | |
CN108604301B (zh) | 用于大rgb-d扫描的可缩放自动全局配准的基于关键点的点对特征 | |
JP6216508B2 (ja) | 3dシーンにおける3d物体の認識および姿勢決定のための方法 | |
Spreeuwers | Fast and accurate 3D face recognition: using registration to an intrinsic coordinate system and fusion of multiple region classifiers | |
US9436987B2 (en) | Geodesic distance based primitive segmentation and fitting for 3D modeling of non-rigid objects from 2D images | |
US9154773B2 (en) | 2D/3D localization and pose estimation of harness cables using a configurable structure representation for robot operations | |
KR101007276B1 (ko) | 3차원 안면 인식 | |
JP5759161B2 (ja) | 物体認識装置、物体認識方法、学習装置、学習方法、プログラム、および情報処理システム | |
CN108052942B (zh) | 一种飞机飞行姿态的视觉图像识别方法 | |
CN111178250A (zh) | 物体识别定位方法、装置及终端设备 | |
SE528068C2 (sv) | Igenkänning av 3D föremål | |
JP2018004310A (ja) | 情報処理装置、計測システム、情報処理方法及びプログラム | |
WO2021114776A1 (en) | Object detection method, object detection device, terminal device, and medium | |
Kroemer et al. | Point cloud completion using extrusions | |
JP6673504B2 (ja) | 情報処理装置、データベース生成装置、方法、プログラム、及び記憶媒体 | |
CN105139013A (zh) | 一种融合形状特征和兴趣点的物体识别方法 | |
US11816857B2 (en) | Methods and apparatus for generating point cloud histograms | |
Liu et al. | Robust 3-d object recognition via view-specific constraint | |
Ward et al. | A model-based approach to recovering the structure of a plant from images | |
WO2021114775A1 (en) | Object detection method, object detection device, terminal device, and medium | |
Jørgensen et al. | Geometric Edge Description and Classification in Point Cloud Data with Application to 3D Object Recognition. | |
Peng et al. | Real time and robust 6D pose estimation of RGBD data for robotic bin picking | |
Canelhas | Truncated signed distance fields applied to robotics | |
JP2022508434A (ja) | 回転仮説を決定することによって画像を処理する方法及びシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190107 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191016 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191029 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200225 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200324 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6681729 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |