JP5222946B2 - オブジェクトモデルを三次元ポイントクラウドに対応させる方法 - Google Patents

オブジェクトモデルを三次元ポイントクラウドに対応させる方法 Download PDF

Info

Publication number
JP5222946B2
JP5222946B2 JP2010528298A JP2010528298A JP5222946B2 JP 5222946 B2 JP5222946 B2 JP 5222946B2 JP 2010528298 A JP2010528298 A JP 2010528298A JP 2010528298 A JP2010528298 A JP 2010528298A JP 5222946 B2 JP5222946 B2 JP 5222946B2
Authority
JP
Japan
Prior art keywords
cluster
point cloud
model
images
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010528298A
Other languages
English (en)
Other versions
JP2010541112A (ja
Inventor
バロイス,ビョルン
クリューゲル,ラルス
ヴォーレル,クリスティアン
Original Assignee
ピルツ ゲーエムベーハー アンド コー.カーゲー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピルツ ゲーエムベーハー アンド コー.カーゲー filed Critical ピルツ ゲーエムベーハー アンド コー.カーゲー
Publication of JP2010541112A publication Critical patent/JP2010541112A/ja
Application granted granted Critical
Publication of JP5222946B2 publication Critical patent/JP5222946B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、オブジェクトモデルを三次元ポイントクラウドに一致させる方法に関する。該ポイントクラウドは、ステレオ法を用いて2つの画像から生成され、クラスタリング法は、それぞれ1つのクラスタに属するポイントを識別するためにポイントクラウドに適用されモデルマッチングがその後実行される。少なくとも1つのオブジェクトモデルは、少なくとも1つのクラスタに重畳され、かつオブジェクトモデルのクラスタに対する最適位置が決定され、かつポイントの偽割当は、一致したオブジェクトモデルを用いて修正される。
オブジェクトモデルは、オブジェクトを識別しかつその三次元位置を決定するために用いられる。オブジェクトモデルを三次元ポイントクラウドに一致させると、公知の方法[非特許文献1]の結果、曖昧性(真偽割当)が生じることが多い。オブジェクトは、複数回存在しない、または全く存在しないが、ポイントクラウドにおいて繰返し見つけられる。
モデルマッチングに関するさらなる問題は、一致の不正確である。今までのところ、従来のステレオ法は、通常左側画像および右側画像に特徴(画素の端部、点、角、ブロックなど)を探索する。局部画像ウインドウの内容は、それらの類似性に関して調べられる場合が多い。いわゆる不一致値は、次に、左側画像および右側画像における割り当てられた特徴または画像ウインドウの互いに対するオフセットを決定することによって決定される。較正カメラシステムを想定すれば、深度値を、その後、三角測法を用いて不一致値から関連する画素に割り当てることができる。偽深度値は、場合によっては偽割当の結果として生じる。エッジベースのステレオ法の場合には、これは、ある手の指、森などの画像の反復構造に生じることが多い。偽割当によって生成される3Dポイントを、偽対応または外れ値と呼ぶ。特徴の選択によっては、この結果は、多かれ少なかれ頻繁に生じるが、大略的にさらなる仮定がなければ決して排除することができない。これらの偽対応は、3Dポイントクラウドによるシーンの表現の低下を招くため、オブジェクトモデルの一致に悪影響を及ぼす。
シュミット J.(Schmidt, J.), ヴェーラー C.(Wohler, C.), クルーガー L.(Kruger, L.), ゴヴァート T.(Govert, T.), ハーミス C.(Hermes, C.)著、2007年「多眼画像シーケンスにおける3Dシーン分割およびオブジェクト追跡(3D Scene Segmentation and Object Tracking in Multiocular Image Sequences)」コンピュータビジョンシステム(ICVS)に関する国際会議議事録(Proc. Int. Conf. on Computer Vision Systems (ICVS)) ドイツ ビーレフェルト ハーシュミューラー H.(Hirschmuller, H.)著、2005年「半グローバルマッチングおよび相互情報による正確かつ効率的なステレオ処理(Accurate and Efficient Stereo Processing by Semi-Global Matching and Mutual Information)」コンピュータビジョンおよびパターン認識に関するIEEE(電気電子学会)会議議事録(Proc. IEEE Conf. on Computer Vision and Pattern Recognition) 米国 サンジエゴ チャン Z.(Zhang, Z.)著、1992年「自由曲線の登録のための反復ポイントマッチング (Iterative Point Matching for Registration of Free-Form Curves)」INRIA(フランス国立情報学自動制御研究所)技術報告(INRIA Technical Report)1658年 田中 M.(Tanaka, M.),堀田 K.(Hotta, K.), 栗田 T.(Kurita, T.), 三島 T.(Mishima, T.)著、2008年「人間の顔検出用イジングモデルによる動的アテンションマップ(Attention Map by Ising Model for Human Face Detection)」パターン認識に関する国際会議(Int. Conf. On Pattern Recognition)オーストリア ブリズベン ヴェーラー C.(Wohler, C.), アンラォフ J.K.(Anlauf, J. K.)著、1999年「撮像パターン形状及び動きを評価するための時間遅延ニューラルネットワークアルゴリズム(A Time Delay Neural Network Algorithm for Estimating Image-pattern Shape and Motion)」画像および映像コンピューティング(Image and Vision Computing)17、281〜294ページ
前記文献1は、偽対応の問題に対処するさまざまな方法を開示している。ほとんどの場合、それらの方法は、外れ値を、その後排除するために検出しようとする。この場合の欠点は、3Dポイントの数の減少、またはこのことによって生じる情報の消失である。他の方法[非特許文献2]は、例えば、区分的に平滑な面を仮定することによって問題を抑制しようとする。そのような平滑性の仮定の結果、微細構造をもはや検出することができず、かつこれによって情報の消失を招く。しかも、これらの方法は、平滑面を実際に予想することができる場合にしか良好な結果を生じない。
本発明の目的は、オブジェクトモデルを三次元ポイントクラウドに一致させる改良された方法を提供することである。
本発明によれば、前記目的は、請求項1の特徴を含む方法によって達成される。有利な改良形態は、従属請求項の主題である。
オブジェクトモデルを三次元ポイントクラウドに一致させる本発明の方法において、ポイントクラウドは、ステレオ法を用いて2つの画像から生成され、かつクラスタリング法は、1つのそれぞれのクラスタに属するポイントを識別するために、ポイントクラウドに適用される。
任意のステレオ法を、[非特許文献1]に記載されているように、特に時空間ステレオ法において、三次元ポイントクラウドを生成するために用いることができる。参照することによって本明細書に組み込むこの刊行物は、例えば本発明による方法において用いることができるクラスタリング法も説明する。
クラスタリングにおいては、同じオブジェクトに属すると仮定されるポイントクラウドのポイントは、クラスタと呼ぶものにグループ化される。
クラスタリングに続いて、モデルマッチングが行われ、少なくとも1つのオブジェクトモデルは、少なくとも1つのクラスタに重畳され、かつオブジェクトモデルのクラスタに対する最適位置が決定される。特に、モデルマッチング法を、[非特許文献3]に記載されているように、この工程で用いることができ、よって参照することによって本明細書に組み込むものとする。
モデルマッチングの結果として、クラスタに誤って割り当てられるポイントを、識別しかつ排除することができる。同様に、検討したクラスタの外部に、孤立してまたは異なるクラスタに誤って存在している点(その点を、外れ値と呼ぶ)を、検討したクラスタに属するものとして識別することができ、よってその割当を修正することができる。
いわゆる確率マップは、2つの画像のうちの少なくとも一方から生成され、本文献において典型的であるが、その確率マップを、次の本文ではアテンションマップと呼ぶ。アテンションマップの生成は、[非特許文献4]に詳細に記載されている。この刊行物も、参照することによって本明細書に組み込むものとする。分類子は、[非特許文献5]に記載されているTDNN(時間遅延ニューラルネットワーク)などのアテンションマップを生成するために用いられる。この刊行物も、参照することによって本明細書に組み込むものとする。この分類子は、最初例示オブジェクトの例示画像を用いることによって訓練される。アテンションマップは、例示オブジェクトに類似のオブジェクトがシーンに存在するか、またはこれらのオブジェクトの何個がシーンに存在するかどうかを決定することを許可する。しかも、アテンションマップは、そのようなオブジェクトが特定の位置にどのように位置決めされる可能性があるかを決定することを許可する。
アテンションマップは、クラスタリング法および/またはモデルマッチングにおける補助的な役割において現在考慮されている。クラスタリング法の場合には、アテンションマップは、次のモデルマッチングに好適なクラスタを選択するために用いられる。モデルマッチングでは、アテンションマップを、特に、そこからモデルマッチングが実行されるオブジェクトモデルの初期姿勢を計算するために用いることができる。このことは、モデルマッチングの収束特性を改良する。モデルマッチングの良好な初期化は、さらに、局部極小の問題を避け、それによって準最適一致をもたらすことがある。
特定点でのみならず、もしあればさらに影響された点でこの位置に対する対応割当を改良するために、偽割当を修正した後にステレオ法へのフィードバックループを持つ新規方法を複数回反復することが可能である。この工程では、三次元ポイントクラウドにおける各ポイントの位置についての確率を、そのポイントが、オブジェクトモデルに類似しているオブジェクトまたはクラスタの表面に通常位置決めされるべきであるため、決定することができる。このようにして、ステレオ法における対応の形成は、画像領域の類似性のみならず、位置確率を考慮し、その結果として、ポイントクラウドの性質は、偽割当が少ないため改良される。例えば、互いに非常に類似しているある手の上の指を観察すると、ある点が、隣接する指の代わりに正しい指に割り当てられる可能性がより高い。
以下では、本発明の例示的実施形態を、図面を参照してより詳細に説明する。
オブジェクトモデルを三次元ポイントクラウドに一致させる方法を説明するためのフローチャートを示す。
図1は、オブジェクトモデルOMを三次元ポイントクラウドPWに一致させる方法を説明するためのフローチャートを示す。まず第一に、2つの立体的に記録された画像B1,B2は、ステレオ法S1に供給される。ステレオ法S1は、2つの画像B1,B2のポイントから対応対を形成する。その結果が、三次元ポイントクラウドPWである。ポイントクラウドPWは、クラスタリング法S2を用いてセグメント化され、関連するポイントを持つクラスタCLが形成される。
クラスタリング法S2に続いて、モデルマッチング工程S3に移り、少なくとも1つのオブジェクトモデルOMは、少なくとも1つのクラスタCLに重畳され、かつオブジェクトモデルOMのクラスタCLに対する最適位置が決定される。
それらの位置および姿勢において現在識別されているオブジェクトOを用いることによって、偽割当の修正工程S4中に、クラスタCLが誤って割り当てられたポイントを識別しかつ排除することが可能である。同様に、検討したクラスタCLの外部に、孤立してまたは異なるクラスタCLに誤って存在しているポイント、いわゆる外れ値を、該検討したクラスタCLに属するものとして識別することができ、よってその割当が修正され、その結果として修正されたポイントクラウドPW'および修正されたクラスタCL'が生成される。
クラスタリング法S2および/またはモデルマッチング工程S3は、以下の本文では、文献の規定に沿ってアテンションマップAMと呼ぶ確率マップによって支持されている。
アテンションマップAMは、生成工程S6において、2つの画像B1,B2のうちの少なくとも一方から生成される。分類子(classifier)KLは、アテンションマップAMを生成するために用いられる。この分類子KLは、訓練工程S5において例示オブジェクトBOの例示画像を用いて事前に訓練(training)される。アテンションマップAMは、例示オブジェクトBOに類似のオブジェクトOがシーンに位置決めされるかどうか、またはシーンにこれらのオブジェクトOが何個存在しているかを決定することを許可する。しかも、アテンションマップAMは、そのようなオブジェクトOが特定の位置にどのように位置決めされる可能性があるかについて記述する可能性を与える。
クラスタリング法S2では、アテンションマップAMは、次のモデルマッチングS3に好適なクラスタCLを選択するために用いられる。モデルマッチングS3では、アテンションマップAMは、特に、それからモデルマッチングS3が開始されるオブジェクトモデルOMの初期姿勢を計算するために用いられる。
点線によって示す、任意の偽割当工程S4で修正した後にステレオ法S1へのフィードバックループを持つ新規方法を複数回反復することが可能である。
AM アテンションマップ、確率マップ
B1,B2 画像
BO 例示オブジェクト
CL,CL’ クラスタ
O オブジェクト
OM オブジェクトモデル
PW,PW’ ポイントクラウド
S1 ステレオ法
S2 クラスタリング法
S3 モデルマッチング
S4 偽割当の修正
S5 訓練工程
S6 アテンションマップの生成工程

Claims (2)

  1. オブジェクトモデル(OM)を三次元ポイントクラウド(PW)に対応させる方法であって、
    少なくとも1つの実オブジェクトを対象として、2つの画像(B1,B2)を記録し、ステレオ法(S1)を用いて前記2つの画像(B1,B2)から三次元ポイントクラウド(PW)を生成し、前記ポイントクラウド(PW)にクラスタリング法(S2)を適用して、それぞれのクラスタ(CL)に属するポイントを識別し、前記実オブシェクトをモデル化したオブジェクトモデル(OM)を用意し、前記オブジェクトモデル(OM)を、前記クラスタ(CL)に重畳し、かつ前記オブジェクトモデル(OM)の前記クラスタ(CL)に対する最適位置を決定するためのモデルマッチング(S3)を実行し、ならびにクラスタ(CL)が誤って割り当てられたポイントの割り当ての修正(S4)を実行する方法において、
    (a)少なくとも1つの例示オブジェクト(BO)の例示画像を用いて分類子(KL)を事前に訓練(S5)し、
    (b)前記分類子(KL)を用いて、前記画像(B1,B2)の少なくとも一方から、前記例示オブジェクト(BO)に類似する少なくとも1つのオブジェクト(O)の個数または位置確率のいずれかを表すアテンションマップ(AM)を生成し(S6)、
    (c)前記クラスタリング法(S2)において、前記アテンションマップ(AM)を用いて、次のモデルマッチング法(S3)に好適なクラスタ(CL)を選択する、方法。
  2. オブジェクトモデル(OM)を三次元ポイントクラウド(PW)に対応させる方法であって、
    少なくとも1つの実オブジェクトを対象として、2つの画像(B1,B2)を記録し、ステレオ法(S1)を用いて前記2つの画像(B1,B2)から三次元ポイントクラウド(PW)を生成し、前記ポイントクラウド(PW)にクラスタリング法(S2)を適用して、それぞれのクラスタ(CL)に属するポイントを識別し、前記実オブシェクトをモデル化したオブジェクトモデル(OM)を用意し、前記オブジェクトモデル(OM)を、前記クラスタ(CL)に重畳し、かつ前記オブジェクトモデル(OM)の前記クラスタ(CL)に対する最適位置を決定するためのモデルマッチング(S3)を実行し、ならびにクラスタ(CL)が誤って割り当てられたポイントの割り当ての修正(S4)を実行する方法において、
    (a)少なくとも1つの例示オブジェクト(BO)の例示画像を用いて分類子(KL)を事前に訓練(S5)し、
    (b)前記分類子(KL)を用いて、前記画像(B1,B2)の少なくとも一方から、前記例示オブジェクト(BO)に類似する少なくとも1つのオブジェクト(O)の個数または位置確率のいずれかを表すアテンションマップ(AM)を生成し(S6)、
    (d)前記モデルマッチング法(S3)において、前記アテンションマップ(AM)を用いて、それからモデルマッチングが実行されるオブジェクトモデル(OM)の初期姿勢を計算する、方法。
JP2010528298A 2007-10-09 2008-10-02 オブジェクトモデルを三次元ポイントクラウドに対応させる方法 Active JP5222946B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102007048320A DE102007048320A1 (de) 2007-10-09 2007-10-09 Verfahren zur Anpassung eines Objektmodells an eine dreidimensionale Punktwolke
DE102007048320.3 2007-10-09
PCT/EP2008/008337 WO2009049774A1 (de) 2007-10-09 2008-10-02 Verfahren zur anpassung eines objektmodells an eine dreidimensionale punktwolke

Publications (2)

Publication Number Publication Date
JP2010541112A JP2010541112A (ja) 2010-12-24
JP5222946B2 true JP5222946B2 (ja) 2013-06-26

Family

ID=39277841

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010528298A Active JP5222946B2 (ja) 2007-10-09 2008-10-02 オブジェクトモデルを三次元ポイントクラウドに対応させる方法

Country Status (7)

Country Link
US (1) US8379969B2 (ja)
EP (1) EP2210234B1 (ja)
JP (1) JP5222946B2 (ja)
CN (1) CN101896936B (ja)
DE (1) DE102007048320A1 (ja)
HK (1) HK1143652A1 (ja)
WO (1) WO2009049774A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160071162A (ko) * 2014-12-11 2016-06-21 현대자동차주식회사 라이다를 이용한 멀티 오브젝트 추적 장치 및 그 방법

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5652097B2 (ja) * 2010-10-01 2015-01-14 ソニー株式会社 画像処理装置、プログラム及び画像処理方法
EP2602588A1 (en) * 2011-12-06 2013-06-12 Hexagon Technology Center GmbH Position and Orientation Determination in 6-DOF
KR101841668B1 (ko) 2012-02-15 2018-03-27 한국전자통신연구원 입체 모델 생성 장치 및 방법
US9571726B2 (en) 2012-12-20 2017-02-14 Google Inc. Generating attention information from photos
US9116926B2 (en) * 2012-12-20 2015-08-25 Google Inc. Sharing photos
US9715761B2 (en) * 2013-07-08 2017-07-25 Vangogh Imaging, Inc. Real-time 3D computer vision processing engine for object recognition, reconstruction, and analysis
CN105224582B (zh) * 2014-07-03 2018-11-09 联想(北京)有限公司 信息处理方法和设备
CN104298971B (zh) * 2014-09-28 2017-09-19 北京理工大学 一种3d点云数据中的目标识别方法
US9710960B2 (en) 2014-12-04 2017-07-18 Vangogh Imaging, Inc. Closed-form 3D model generation of non-rigid complex objects from incomplete and noisy scans
GB2554633B (en) * 2016-06-24 2020-01-22 Imperial College Sci Tech & Medicine Detecting objects in video data
US10380767B2 (en) 2016-08-01 2019-08-13 Cognex Corporation System and method for automatic selection of 3D alignment algorithms in a vision system
CN108229430B (zh) * 2018-01-30 2022-04-05 浙江大学 一种融合注意力图的商品分类方法
JP7376268B2 (ja) * 2019-07-22 2023-11-08 ファナック株式会社 三次元データ生成装置及びロボット制御システム
JP2021099698A (ja) * 2019-12-23 2021-07-01 ソニーグループ株式会社 画像処理装置および方法、並びにプログラム
US11450021B2 (en) * 2019-12-30 2022-09-20 Sensetime International Pte. Ltd. Image processing method and apparatus, electronic device, and storage medium
US10861175B1 (en) * 2020-05-29 2020-12-08 Illuscio, Inc. Systems and methods for automatic detection and quantification of point cloud variance
CN111985308B (zh) * 2020-07-07 2023-05-23 华南理工大学 一种微分几何的立体视觉空间曲线匹配方法
US11321822B2 (en) * 2020-07-30 2022-05-03 International Business Machines Corporation Determining image defects using image comparisons
US11315269B2 (en) * 2020-08-24 2022-04-26 Toyota Research Institute, Inc. System and method for generating a point cloud that includes surface normal information
CN112884687B (zh) * 2021-01-29 2022-02-11 郑州信大云筑工程科技有限公司 基于人工智能的测绘激光雷达扫描策略控制方法与系统
US11055428B1 (en) 2021-02-26 2021-07-06 CTRL IQ, Inc. Systems and methods for encrypted container image management, deployment, and execution

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1766552A2 (en) * 2004-06-23 2007-03-28 Strider Labs, Inc. System and method for 3d object recognition using range and intensity
US7706603B2 (en) * 2005-04-19 2010-04-27 Siemens Corporation Fast object detection for augmented reality systems
EP1897033A4 (en) * 2005-06-16 2015-06-24 Strider Labs Inc SYSTEM AND METHOD FOR RECOGNIZING 2D IMAGES USING 3D CLASS MODELS

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160071162A (ko) * 2014-12-11 2016-06-21 현대자동차주식회사 라이다를 이용한 멀티 오브젝트 추적 장치 및 그 방법
KR101655606B1 (ko) * 2014-12-11 2016-09-07 현대자동차주식회사 라이다를 이용한 멀티 오브젝트 추적 장치 및 그 방법

Also Published As

Publication number Publication date
DE102007048320A1 (de) 2008-05-15
CN101896936A (zh) 2010-11-24
EP2210234B1 (de) 2013-06-26
CN101896936B (zh) 2012-07-18
JP2010541112A (ja) 2010-12-24
US8379969B2 (en) 2013-02-19
HK1143652A1 (en) 2011-01-07
WO2009049774A1 (de) 2009-04-23
US20100310154A1 (en) 2010-12-09
EP2210234A1 (de) 2010-07-28

Similar Documents

Publication Publication Date Title
JP5222946B2 (ja) オブジェクトモデルを三次元ポイントクラウドに対応させる方法
JP6295645B2 (ja) 物体検出方法及び物体検出装置
CN105590312B (zh) 前景图像分割方法和装置
JP5380789B2 (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
US20150253864A1 (en) Image Processor Comprising Gesture Recognition System with Finger Detection and Tracking Functionality
US9020251B2 (en) Image processing apparatus and method
CN107424161B (zh) 一种由粗至精的室内场景图像布局估计方法
JP2007310707A (ja) 姿勢推定装置及びその方法
JP6245880B2 (ja) 情報処理装置および情報処理手法、プログラム
JP2011133273A (ja) 推定装置及びその制御方法、プログラム
JP2009157767A (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
CN107949851B (zh) 在场景内的物体的端点的快速和鲁棒识别
JP2018091656A (ja) 情報処理装置、計測装置、システム、算出方法、プログラムおよび物品の製造方法
JP6320016B2 (ja) 対象物検出装置、対象物検出方法およびプログラム
JP2016179534A (ja) 情報処理装置、情報処理方法、プログラム
US20140233848A1 (en) Apparatus and method for recognizing object using depth image
JP2014134856A (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
CN110546687B (zh) 图像处理装置及二维图像生成用程序
US11189053B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
KR100792172B1 (ko) 강건한 대응점을 이용한 기본행렬 추정 장치 및 그 방법
KR101350387B1 (ko) 깊이 정보를 이용한 손 검출 방법 및 그 장치
JP6003367B2 (ja) 画像認識装置、画像認識方法および画像認識プログラム
KR101225644B1 (ko) 로봇의 물체 인식 및 자세 추정 방법
CN114332741B (zh) 一种面向建筑数字孪生的视频检测方法及系统
JP5677234B2 (ja) エッジ検出装置およびそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120924

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120927

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20121225

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20130107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130311

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5222946

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250