JP5812599B2 - 情報処理方法及びその装置 - Google Patents

情報処理方法及びその装置 Download PDF

Info

Publication number
JP5812599B2
JP5812599B2 JP2010273896A JP2010273896A JP5812599B2 JP 5812599 B2 JP5812599 B2 JP 5812599B2 JP 2010273896 A JP2010273896 A JP 2010273896A JP 2010273896 A JP2010273896 A JP 2010273896A JP 5812599 B2 JP5812599 B2 JP 5812599B2
Authority
JP
Japan
Prior art keywords
orientation
image
imaging
information processing
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010273896A
Other languages
English (en)
Other versions
JP2011198349A5 (ja
JP2011198349A (ja
Inventor
裕輔 御手洗
裕輔 御手洗
優和 真継
優和 真継
裕人 吉井
裕人 吉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010273896A priority Critical patent/JP5812599B2/ja
Publication of JP2011198349A publication Critical patent/JP2011198349A/ja
Publication of JP2011198349A5 publication Critical patent/JP2011198349A5/ja
Application granted granted Critical
Publication of JP5812599B2 publication Critical patent/JP5812599B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Analysis (AREA)

Description

本発明は、三次元物体を複数の異なる視点から撮像した多数の画像からなる複数視点画像を生成する方法に関する。
三次元物体を撮像した画像を用いて三次元モデルを生成するには、様々な視点から撮像した多数の画像が必要である。また、三次元物体を任意の視点から撮像した画像により、その物体を認識するにも、その認識を行う識別器の学習においても、様々な視点から撮像した多数の画像を用いることが好適である。なお、ここでの識別器の学習は、学習によって随時増えていく多数のデータを用いて識別器のパラメータを設定・調整することであり、学習によって調整しながら最適な制御を行えるようにする。このように、物体を様々な視点から撮像した多数の画像を取得する方法として、現在までに様々な手法が提案されている。
特許文献1には、複数の撮像装置と、被写体を設置する回転台とからなる撮像装置を用い、物体上の特徴点を基準にする装置が提案されている。これにより、被写体の姿勢を変更可能とし、物体の全周囲画像を取得できる。
特許文献2の多視点画像処理プログラムのように、複数のマーカを基準として視点位置を対応させる方法も提案されている。これにより、特許文献1のように、大掛かりな撮像装置を用いずに、物体を様々な視点から撮像した画像を取得できる。
特開2007−72537号公報 特開2004−139294号公報 特開2007−156528号公報 特開2000−194859号公報
V.Lepetit,F.Moreno−Noguer,P.Fua "EPnP:An Accurate O(n) Solution to the PnP Problem", International Journal of Computer Vision,Vol.81,No.2,pp.155−166,2008 G.Reitmayr,T.W.Drummond,"Going out:Robust Model−based Tracking for Outdoor Augmented Reality",IEEE/ACM International Symposium on Mixed and Augmented Reality,pp.109−118,2006 安藤慎吾、草地良規、鈴木章、荒川健一、"サポートベクトル回帰を用いた三次元物体の姿勢推定方法"、電子情報通信学会論文誌 D、Vol.J89−D、pp.1840−1847、2006 村瀬洋、S.K.Nayar、"2次元照合による三次元物体認識:パラメトリック固有空間法"、電子情報通信学会論文誌 D−II、Vol.J77−D−2(11)、pp.2179−2187,1994 S.M.Seitz,C.R.Dyer,"View Morphing",Proceedings of SIGGRAPH 96,pp.21−30,1996
高精度な三次元モデル生成や、任意視点物体認識を行う識別器の学習において、物体を様々な視点から満遍なく撮像した多数の画像を取得できることが好ましい。しかし、上記の手法では、物体を様々な視点から満遍なく撮像する場合の最適な方法がない又は、簡易な方法で実現できないという課題があった。
また、より良い三次元モデル生成や、任意視点物体認識を行う識別器の学習においては、その物体の形状に応じ、例えば、構造が複雑な部分を撮像する視点に関しては、より密に画像を取得する等することが好適である。しかし、どの部分を撮像する視点を密にすれば良いかは自明でないという課題があった。また、密にすべき視点が与えられたとしても、簡易にそのような画像を取得する方法がないという課題があった。
本発明は、このような点に鑑みなされたものであり、物体を様々な視点から撮像した多数の画像を用いて、物体認識に不足している撮像画像が何であるかを提示することを目的とする。
上記目的を達成するために、例えば本発明の情報処理装置は、以下の構成を備える
撮像手段によって複数の視点から物体を撮像した複数の撮像画像に基づいて、該複数の視点ごとに前記物体に対する前記撮像手段の相対位置姿勢を導出する相対位置姿勢導出手段と、前記導出された複数の相対位置姿勢に基づいて、前記撮像手段による撮像が不足している前記物体に対する該撮像手段の相対位置姿勢を、不足位置姿勢として導出する不足位置姿勢導出手段と、前記導出された不足位置姿勢を示す情報を出力する出力手段とを備え、前記不足位置姿勢導出手段は、前記物体を中心に略均等に該物体を撮像しうる複数の仮想位置姿勢を設定する設定手段と、前記複数の仮想位置姿勢それぞれに対して、前記導出された複数の相対位置姿勢に類似するか否かを判定する判定手段と、前記類似すると判定されなかった前記仮想位置姿勢に基づいて、前記不足位置姿勢を導出することを特徴とする情報処理装置。
本発明によれば、物体認識に不足している撮像画像が何であるかを提示することができる。
第1の実施形態における構成図である。 第1の実施形態における計測座標系の定義を示す図である。 第1の実施形態におけるカメラ座標系、画像座標系の定義を示す図である。 第1の実施形態における処理を示すフローチャートである。 第1の実施形態における不足位置姿勢算出部における処理のフローチャートである。 第1の実施形態における表示部107に表示する画像の例を示す図である。 第2の実施形態における構成図である。 第2の実施形態における処理を示すフローチャートである。 第2の実施形態における画像正規化部での処理画像の例を示す図である。 第2の実施形態における不足位置姿勢算出部における処理のフローチャートである。 第3の実施形態における構成図である。 第3の実施形態における処理を示すフローチャートである。 本願の実施形態を実現するためのコンピュータの構成例である。 2つの画像の比較に基づいた視点不足判定の例である。 姿勢推定結果に基づいた視点不足判定の例である。 第3の実施形態における不足位置姿勢算出部での処理を示すフローチャートである。
以下、添付図面を参照しながら、本発明の実施形態を説明する。
〔第1の実施形態〕
本実施形態では、計測対象となる物体を様々な視点から満遍なく撮像した多数の画像から、複数視点画像を生成する。
図1は、本実施形態における構成図である。本実施形態は、撮像部101、画像入力部102、相対位置姿勢算出部103、複数視点画像保持部104、不足位置姿勢算出部105、不足視点画像生成部106、表示部107で構成される。また、現実空間に置かれた計測台111には、計測対象となる物体112が支柱113に載置されている。物体112の周囲には、複数のマーカ121、122、・・・、128が配置されている。また、各マーカ121から128までの8個のマーカがそれぞれ、色1、色2、・・・、色8の色のマーカとする。
撮像部101は、物体112を撮像する。例えば、支柱113に載置された物体112を、ユーザが持つカメラで撮像する。撮像部101は、撮像した画像を外部に出力可能なものである。例えば、CCD等の撮像素子、レンズからなるデジタルスチルカメラや、カムコーダ等がある。撮像された画像は、例えば、ユーザがデジタルスチルカメラのシャッタを押下したタイミングで、画像入力部102へ送られる。
画像入力部102は、撮像部101から送信されてきた画像を処理部12に入力する。画像入力部102で入力された画像は、相対位置姿勢算出部103へ送られる。
相対位置姿勢算出部103は、計測対象である物体112と撮像部101の相対位置姿勢を算出する。相対位置姿勢算出部103で算出された物体112と撮像部101との相対位置姿勢は、複数視点画像保持部104へ送られる。
複数視点画像保持部104は、相対位置姿勢算出部103で求めた撮像姿勢データと、当該撮像姿勢の計測処理を行った画像とを関連付けて記憶する。記憶を繰り返し、撮像姿勢データが所定の数に至るまで記録する。記録された撮像姿勢データは、不足位置姿勢算出部へ送られる。
不足位置姿勢算出部105は、複数視点画像保持部104に記憶されている、現段階までに撮像した多数の撮像姿勢データに基づき、現段階で撮像が不足している視点を算出する。
不足視点画像生成部106は、不足位置姿勢算出部105で算出された不足視点の撮像姿勢データから、不足している視点を示す画像を生成する。
表示部107は、不足視点画像生成部106で生成された表示画像を表示する。
図2は、本実施形態における計測座標系の定義を示す図である。計測台111には、計測対象となる物体を載置するための支柱113が設けられている。計測座標系は、支柱113と計測台111の接合位置200を原点とし、x軸201、y軸202、z軸203とする。
撮像部101により撮像した画像を処理することで、いずれのマーカであるかを一意に区別する。例えば、マーカは、三次元位置が既知で異なる色のとき、撮像部101で撮像した画像から、各マーカ特有の色を抽出する処理を行う。これにより、画像内に存在するマーカの特定と、そのマーカの画像内での位置検出ができる。マーカの三次元位置は、固定されており、計測座標系におけるマーカの中心の位置を予め計測する。
図3は、カメラ座標系、画像座標系の定義を示す図である。計測座標系を設定したのと同様に、撮像部101に対し、三次元のカメラ座標系を定義する。また、撮像画像に対応する仮想的な平面である画像面31を定義し、その画像面における2次元の画像座標系を定義する。カメラ座標系は、撮像部101のレンズの主点を原点310とする。そして、撮像画像の右方向に対応する方向をx’軸311、上方向に対応する方向をy’軸312、レンズの光軸と平行で、撮像部101の撮像方向301とは反対方向の軸をz’軸313と定義する。また、画像座標系を、これも図3に示したように、画像面302の中心を原点320とし、画像の右方向に対応する方向をx”軸321、上方向に対応する方向をy”軸322とする2次元座標系として定義する。
図4は、本実施形態における処理のフローチャートである。以下、複数視点画像生成方法の例について説明する。
ステップS401では、画像入力部102が、撮像部101から送信されてきた画像を相対位置姿勢算出部103に入力する。物体112を撮像した画像は、少なくとも4つのマーカが、画像内に存在する必要がある。画像入力部102で入力された画像は、相対位置姿勢算出部103に送信され、ステップS402へ進む。
ステップS402では、相対位置姿勢算出部103が、計測対象である物体112と撮像部101の相対位置姿勢を算出する。すなわち、画像入力部102から送信された画像を処理することにより、送信された画像を撮像したときの撮像部の位置姿勢を計測する。
送信された画像に対し、各マーカに特有の、色1から色8までの色の抽出処理を行い、それぞれのマーカについて、画像内に存在するか否かの判定を行う。具体的には、各画素のRGB値から色相を求め、その色相と、抽出対象である色の色相とが、所定範囲内であれば、その画素を抽出する。対応する色の画素が、画像から抽出された場合、その色に対応するマーカが存在すると判定する。マーカの色に対応する画素の、画像における重心位置(上述の画像座標系における位置(x”、y”))を求める。これにより、計測座標系における三次元位置が既知である4つ以上のマーカの、画像座標系における位置を求めることができる。また、レンズの焦点距離がf[mm]と既知であれば、非特許文献1に記載の技術により、計測座標系に対するカメラ座標系の相対的な位置姿勢を求めることができる。
2つの三次元座標系の相対位置姿勢は、座標系の並進成分と、回転成分の2つで表現する。並進成分は、2つの三次元座標の原点間の並進移動成分であり、計測座標系の原点40から、カメラ座標系の原点310までの並進移動成分(Tx、Ty、Tz)として表現する。回転成分は、回転軸と、回転軸を中心とする回転量で表現する。具体的には、計測座標系のx軸201、y軸202、z軸203が、カメラ座標系のx’軸311、y’軸312、z’軸313と、それぞれ同一方向になる回転量で表現する。すなわち、計測座標系を、計測座標系の原点を通る回転軸を中心に回転させた時の、回転軸方向(Rx、Ry、Rz)、及び、回転角θとして表現する。この回転成分は、4つのパラメータからなり、回転軸方向を表す(Rx、Ry、Rz)は、Rx2+Ry2+Rz2=1となるように正規化されたものであるため、実際の自由度は、回転の自由度と同一となる。計測した相対位置姿勢を、座標系間の並進成分(Tx、Ty、Tz)、及び、回転成分として、回転軸方向(Rx、Ry、Rz)と回転角θで表現し、これを撮像姿勢データとする。
相対位置姿勢算出部103で算出された物体112と撮像部101との相対位置姿勢は、複数視点画像保持部104へ送られ、ステップS403へ進む。
ステップS403では、複数視点画像保持部104が、相対位置姿勢算出部103で求めた撮像姿勢データと、当該撮像姿勢の計測処理を行った画像とを関連付けて記憶する。すなわち、ユーザが撮像した物体112の画像と、その画像を撮像したときの撮像部101の位置姿勢が、複数視点画像保持部104に関連付けられて記憶される。なお、関連付けて記憶する撮像姿勢データが所定の数に至るまで、繰り返した後、ステップS404へ進む。例えば、60程度の数が得られるまで、撮像を繰り返してもよい。
ステップS404では、不足位置姿勢算出部105が、複数視点画像保持部104に記憶されている、現段階までに撮像した多数の撮像姿勢データに基づき、現段階で撮像が不足している視点を算出する。
図5は、不足位置姿勢算出部における処理のフローチャートである。ステップS404における、不足位置姿勢算出部105の具体的な処理の詳細について説明する。
ステップS501は、略均等方向計算ステップである。本ステップでは、物体112を中心とした仮想的な三次元空間内の球面上に、略均等に仮想的な視点を配置する。具体的には、仮想的な三次元空間に、仮想座標系を用意し、その仮想座標系の原点を中心とする半径1の球面上に、所定個数M個の点を略均等に配置した場合の撮像可能な方向を計算する。
例えば、特許文献3に記載に技術により、球面上に略均等に点を配置することができる。球面上に略均等に配置する所定個数M個の点は、例えば20から100程度の任意の値にすればよく、M=60とする。そのため、60個分の球面上の点が得て、それぞれの点の、仮想的な三次元空間の仮想座標系における位置を、(Pxi、Pyi、Pzi)(i=1、2、・・・、60)とする。
ステップS502は、類似方向判定ステップである。本ステップでは、類似した姿勢での撮像が、まだ行われていない点があるか否かを判定する。具体的には、各点から、球の中心に向かって撮像したと仮定した場合の、仮想的な三次元空間内での撮像姿勢と、類似した姿勢での撮像が既に行われているか否かを判定する。ここでは単純に、まず、各点から球の中心を撮像するように撮像部101を配置したと想定する。そして、その時の、図5に示したカメラ座標系のz’軸503の、仮想座標系における方向を求める。この方向は、球面上の点から、球の中心に向かって撮像する、つまり、カメラ座標系のz’軸503の負方向が、球の中心を通るように配置するので、この方向は、各点の仮想座標系における位置そのものになる。例えば、ある点(Pxi、Pyi、Pzi)から球の中心を撮像するように撮像部101を配置したと想定する。この場合、カメラ座標系のz’軸503の、仮想座標系における方向は、単純に(Pxi、Pyi、Pzi)になる。そして、この方向と、既に撮像が行われた複数の撮像姿勢の中から、カメラ座標系のz’軸503の、計測座標系における方向との類似度が、最も高いものを検索して、その類似度を求める。この類似度としては、それぞれの方向の内積等を用いて求めればよく、2方向の内積を類似度として用いる。また、既に撮像が行われた夫々の撮像姿勢において、カメラ座標系z’軸503の計測座標系における方向(Qx、Qy、Qz)を求めるとする。これは、その撮像姿勢データの回転成分が、回転軸方向(Rx、Ry、Rz)、回転角θである場合、次の式(1)により求められる。
つまり、球面上に略均等に配置したある点に対応する方向(Pxi、Pyi、Pzi)と、複数視点画像保持部104に記憶されている複数の撮像姿勢データから、上記式(1)により求めた(Qx、Qy、Qz)との内積をそれぞれ求める。その中から、内積値が最も大きいものを求める。
そして、求めた最大の内積値が、所定の基準の値以上であるかを判定し、所定の基準の値以上であるならば、球面上に配置したその点に対応する視点からの撮像は充分であると判定する。所定の基準の値以下であるならば、その点に対応する視点からの撮像が不足していると判定する。ここで判定に用いる所定の基準の値は、1未満の任意の値でよいが、例えば0.8程度といった値を用いる。
ステップS503は、非類似方向算出ステップである。本ステップでは、撮像が不足している視点として、その点から、球の中心に向かって撮像した場合の撮像姿勢を求める。具体的には、球面上のある点に関して、撮像が不足していると判定された場合は、その点に対応する方向(Pxi、Pyi、Pzi)を、撮像が不足している視点に対応する撮像姿勢とする。これらにより、撮像が不足している視点を算出する。
ステップS405では、不足位置姿勢があるか否かを判定する。不足位置姿勢算出部105が、球面上に略均等に配置した全ての点について、その点に対応する視点からの撮像が充分であると判定された場合、計測対象物体を様々な視点から満遍なく撮像できたと判断し、処理を終了する。
一方、球面上に略均等に配置した点に対応する視点からの撮像が不足していると判定された場合、撮像姿勢に関するデータ(Pxi、Pyi、Pzi)を、不足視点画像生成部106に送信し、ステップS406へ進む。
ステップS406では、不足視点画像生成部106が、不足位置姿勢算出部105より送信されてきた撮像姿勢に関するデータに基づいて、不足している視点を示す画像を生成する。
図6は、表示部107に表示する画像の例である。矢印601は、不足位置姿勢算出部105より送信されてきた撮像が不足している視点からの撮像姿勢に対応する矢印である。矢印601は、計測座標系の原点40から、撮像が不足している視点からの撮像姿勢に関するデータ(Pxi、Pyi、Pzi)への点線602の上にある。矢印601により不足している視点が確認できる。不足している視点は、矢印に限らず、ユーザが不足している視点が分かる形で表現すればよい。
計測対象物体の撮像を行うユーザは、表示部107に表示された不足している視点からの撮像を行う。撮像部101から、矢印601に対応する視点からの画像が画像入力部102に送信され、ステップS401へ戻る。これにより、様々な視点から満遍なく撮像した多数の画像からなる複数視点画像が記憶され、様々な視点から満遍なく撮像した多数の画像からなる複数視点画像を生成できる。
ステップS407では、表示部107が、不足視点画像生成部106で生成された画像を表示する。すなわち、撮像部101をどこに移動させて物体112を撮像すべきかを表示する。物体112を、様々な視点から満遍なく撮像した画像が複数視点画像保持部104に保持され、不足している視点が無くなるまで処理を続ける。
以上、第1の実施形態は、計測対象物体112を、様々な視点から満遍なく撮像した多数の画像からなる複数視点画像生成方法の例を説明した。
〔変形例1−1〕
計測対象物体を、様々な視点から満遍なく撮像した多数の画像からなる複数視点画像を生成した。しかし、計測対象の物体によっては、所定の視点付近からの撮像を密に行った方が好適な場合がある。例えば、計測対象物体の内、三次元的な構造が複雑な部分を撮像するような視点に関しては、その他の構造が簡素な部分より、密に撮像を行った方がよい。例えば、計測対象物体の三次元モデルに関するデータを予め入力しておき、データを解析することによって、計測対象物体の三次元的な構造が複雑な部分を求める。例えば、ポリゴンモデルの場合、ポリゴン数により、構造の複雑さを評価すればよい。次に、計測対象物体の三次元的な構造が複雑な部分を撮像する視点を求める。そして、仮想的な球面上に略均等に配置した多数の点の内、構造が複雑な部分を撮像する視点付近に対応する点から少しずらした点を追加生成する。これにより、構造が複雑な部分を撮像する視点付近における球面上の点の密度が高くなる。仮想的な球面上に配置した複数の点を用いて、構造が複雑な部分を撮像するような視点の画像を密に取得することができる。
〔変形例1−2〕
ステップS402では、直接的に計測対象物体と、撮像部101の相対位置姿勢を求めた。撮像部101の位置姿勢を求めるとき、マーカを用いた方法に限らない。例えば、撮像された画像以外から求めてもよい。計測対象物体の三次元モデルを予め入力し、三次元モデルを二次元画像に投影したときの特徴と、撮像した画像の特徴とを比較することで、相対位置姿勢を求めてもよい。非特許文献2に記載の技術を用いて、三次元モデルから撮像部と物体112の相対位置姿勢を推定し、撮像部101と物体112との相対位置姿勢を求めてもよい。
〔第2の実施形態〕
第2の実施形態では、ある物体を撮像した画像を入力した際に、その物体がどのような姿勢であるかを認識する識別器の学習を行うための複数視点画像生成を行う情報処理方法の例を示す。
図7は、本実施形態における構成図である。本実施形態は、撮像部101、画像入力部102、相対位置姿勢算出部103、画像正規化部701、複数視点画像保持部104、識別器学習部702、不足位置姿勢算出部105、不足視点画像生成部106、表示部107で構成される。また、現実空間に置かれた計測台111には、計測対象となる物体112が支柱113に載置されている。物体112の周囲には、複数のマーカ121、122、・・・、128が配置されている。また、各マーカ121から128までの8個のマーカがそれぞれ、色1、色2、・・・、色8の色のマーカとする。加えて、マーカ以外の領域が色9で統一されており、計測対象である物体112は、色1から色9までの色が含まれていないものとする。以下では、上記構成において、第1の実施形態と異なる部分のみ説明し、同様の部分に関しては説明を省略する。
撮像部101は、112を撮像する。撮像された画像は、画像入力部102に送られる。
画像入力部102は、撮像部101から送信されてきた画像を相対位置姿勢算出部103に入力する。画像入力部102で入力された画像は、相対位置姿勢算出部103に送られる。
相対位置姿勢算出部103は、計測対象である物体112と撮像部101の相対位置姿勢を算出する。相対位置姿勢算出部103で算出された物体112と撮像部101との相対位置姿勢は、複数視点画像保持部104へ送られる。
画像正規化部701は、計測対象である物体112の画像を統一したフォーマットに正規化する。具体的には、計測対象である物体のみを入力された画像から切り出した画像をグレースケール化して所定のサイズに正規化する。
複数視点画像保持部104は、相対位置姿勢算出部103で求めた撮像姿勢データと、当該撮像姿勢の計測処理を行った画像とを関連付けて記憶する。記憶を繰り返し、撮像姿勢データが所定の数に至るまで記録する。記録された撮像姿勢データは、識別器学習部702へ送られる。
識別器学習部702は、複数視点画像保持部104に記憶された多数の画像と撮像姿勢データに基づいて、画像中に存在する物体112の姿勢を推定する識別器の学習を行う。
不足位置姿勢算出部105は、識別器学習部702で学習を行った識別器の推定結果に基づいて、現段階までに撮像した多数の撮像姿勢データに基づき、現段階で撮像が不足している視点を算出する。
不足視点画像生成部106は、不足位置姿勢算出部105で算出された不足視点の撮像姿勢データから、不足している視点を示す画像を生成する。
表示部107は、不足視点画像生成部106で生成された表示画像を表示する。
図8は、本実施形態における、複数視点画像生成方法の処理フローを示した図である。
ステップS801では、画像入力部102が、撮像部101から送信されてきた画像を処理部12に入力する。画像入力部102で入力された画像は、相対位置姿勢算出部103に送信され、ステップS802へ進む。
ステップS802では、相対位置姿勢算出部103が、計測対象である物体112と撮像部101の相対位置姿勢を算出する。
ステップS803では、画像正規化部701が、計測対象である物体112の画像を統一したフォーマットに正規化する。具体的には、計測対象である物体112のみを入力された画像から切り出した画像をグレースケール化して所定のサイズに正規化する。
図9は、画像正規化部701での処理画像の例である。ステップS803における画像正規化部701の具体的な処理の詳細について説明する。図9(a)は、入力された画像である。入力された画像に対して、複数のマーカの色である色1から色8、及び、マーカ以外の領域に配色された色9以外の色である画素を抽出する。抽出された結果、図9(b)の計測対象の物体112の領域のみが抽出された画像が生成される。この画像から、図9(c)のように、抽出された外接正方形領域9を切り出す。そして、切り出した正方形領域を、カラー画像からグレースケール画像に変換する。図9(d)のように、この切り出した領域の幅、及び、高さが、所定の長さw画素になるように、拡大、若しくは、縮小処理を行うことでサイズの正規化を行う。ここでの所定の長さw画素は、任意の値でよい。画像正規化部701では、複数のマーカの色、及び、1色に統一された計測系の色以外の領域を抽出することによって、計測対象である物体112の領域の切り出しを行う。しかし、本発明はこれに限るものではなく、計測対象である物体の領域を切り出せるような方法であれば、その他の方法でもよい。
ステップS804では、複数視点画像保持部104が、正規化処理を行った画像を相対位置姿勢算出部103で計測した撮像姿勢データと関連付けて記憶する。
ステップS805では、識別器学習部702が、複数視点画像保持部104に記憶された多数の画像と撮像姿勢データに基づいて、画像中に存在する物体112の姿勢を推定する識別器の学習を行う。識別器の学習では、複数視点画像保持部104に記憶された、切り出し処理部702で物体切り出し等の処理を行った複数の画像、及び、それぞれに対応する撮像姿勢データを、学習データとして用いる。例えば、非特許文献3に記載のサポートベクトル回帰法に三次元物体の姿勢推定に、この識別器を用いてもよい。ただし、この識別器による予測値は、ロール、ピッチ、ヨーの3値を、物体112の姿勢の推定値としている。具体的には、撮像姿勢データの回転成分を表す、回転軸方向(Rx、Ry、Rz)、及び、回転角θの値を推定する。
例えば、複数視点画像保持部104に記憶されている多数の画像(100×100画素のグレースケール画像)を用い、主成分分析により、画像群の固有空間を求める。固有空間の次元数は、任意の値でもよいが、累積寄与率を用いて決定するのが好ましい。例えば、累積寄与率が90%以上になる次元数までを、固有空間の次元数d(<100×100)として用いる。そして、記憶されている多数の画像の各々をd次元の固有空間に射影することで生成したデータを入力データとする。多数の画像の各々に対応する撮像姿勢データの回転成分を表す回転軸方向(Rx、Ry、Rz)、及び、回転角θを、サポートベクトル回帰法における目標値として学習を行う。このようなサポートベクトル回帰法に基づいた識別器では、画像正規化部による物体112の切り出し画像を入力することにより、計測対象物体112の姿勢が出力される。なお、識別器学習部702は、サポートベクトル回帰法を用いた識別器に限るものではない。例えば、非特許文献4に開示のパラメトリック固有空間法等、撮像された物体112の画像から、その物体112の姿勢を推定する識別器を用いてもよい。
ステップS806では、不足位置姿勢算出部105が、識別器学習部724で学習した時点での識別器の推定能力に基づき、現段階で撮像が不足している視点を算出する。例えば、仮想的な三次元空間内の球面上に、略均等に所定個数の点を配置し、その各点から球の中心に向かって撮像を行う複数の視点(以下、仮想視点)を用意する。そして、仮想視点の各々について、複数視点画像保持部104に記憶されている複数の撮像姿勢データの内、その仮想視点に最も近い2つの視点(以下、撮像済隣接視点)を選択する。カメラ座標系のz’軸方向間の内積値が視点の近さを示す。これにより、撮像が不足している視点を算出する。
図10は、不足位置姿勢算出部における処理のフローチャートである。ステップS806における、不足位置姿勢算出部123の具体的な処理の詳細について説明する。
ステップS1001では、仮想的な三次元空間内の球面上に、略均等に所定個数の点を配置し、その各点から球の中心に向かって撮像を行う複数の視点(以下、仮想視点)を用意する。そして、仮想視点の各々について、複数視点画像保持部104に記憶されている複数の撮像姿勢データの内、その仮想視点に最も近い2つの視点(以下、撮像済隣接視点)を選択する。視点の近さについては、カメラ座標系のz’軸方向間の内積値が高い程、近い視点であると判定すればよい。そして、選択された2つの撮像済隣接視点に対応する計測対象物体112の画像を用いて、仮想視点に対応する位置から撮像した場合の、計測対象物体112の推定画像を生成する。推定画像は、上記仮想視点から観測した計測対象物体112の仮想的な画像である。推定画像の生成方法は、上記のような仮想的な画像を生成できる手法であれば、どのような手法を用いても構わない。また、切り出し処理部702で処理と同様に、グレースケールで、画像の幅、高さがw画素の画像を生成してもよい。
ステップS1002では、生成した仮想視点から撮像した場合の計測対象物体112の画像を識別器学習部702の識別器に入力し、識別器の姿勢推定結果を求める。具体的には、ある仮想視点からの撮像に対応する計測対象物体の合成画像を用意し、その合成画像に対して、学習した識別器を適用し、その合成画像中の物体の姿勢推定結果を算出する。
ステップS1003では、この姿勢推定結果が、対応する仮想視点から撮像した場合の、撮像系71の撮像姿勢と類似していない場合、撮像が不足していると判定する。類似しているか否かについては、仮想視点に対応する撮像姿勢と、姿勢推定結果との誤差が所定値以内であるか否かによって判定してもよい。2つの姿勢の誤差は、どちらか一方の姿勢を、もう一方の姿勢と一致するように回転させた場合の回転角を、2つの姿勢の誤差とすればよい。
図15は、姿勢推定結果に基づいた視点不足判定の例を示す模式的な図である。
例えば、撮像済隣接視点に対応する2つの画像1501、1502から、それらの中間位置に対応する仮想視点からの画像1503を(例えば、モーフィングを用いて)生成する。そして、その画像を、今までに取得した画像を用いて学習した、物体の姿勢(回転軸方向、及び、回転角)を出力する識別関数(例えば、多値の非線形カーネル回帰関数等)に入力する。出力される物体の姿勢(推定値)が、所定範囲内であるか否かに基づいて、その中間視点での撮影データが不足しているか否かを判定する。すなわち、中間視点の推定姿勢出力1504(識別関数の出力)が中間視点として正しいか否かを判定し、不足している視点を算出する。図15中の曲線は、正しい姿勢の値(多値)を模式的に示したものである。姿勢推定出力1504が、図15に示したように、この曲線に近い出力であれば、仮想視点1503に対応する視点からの画像は不足していないと判定する。姿勢推定出力1504が、この曲線から大きく離れた出力ならば、仮想視点1503に対応する視点からの画像が、識別器の学習に不足していると判定する。
ステップS1004では、撮像が不足していると判定された仮想視点に対応する撮像姿勢を求める。例えば、仮想的な球面上の位置(Pxi、Pyi、Pzi)を、仮想視点に対応する撮像姿勢として求める。
ステップS807では、不足位置姿勢があるか否かを判定する。不足位置姿勢算出部105が、球面上に略均等に配置した全ての点について、その点に対応する視点からの撮像が充分であると判定された場合、識別器の学習にとって十分に計測対象物体112の複数視点画像が撮像できたと判断し、ステップS810へ進む。一方、球面上に略均等に配置した点に対応する視点からの撮像が不足していると判定された場合、不足していると判定された仮想視点に対応する撮像姿勢に関するデータ(Pxi、Pyi、Pzi)を、不足視点画像生成部106に送信しステップS808へ進む。
ステップS808では、不足視点画像生成部106が、不足位置姿勢算出部105より送信されてきた撮像姿勢に関するデータに基づいて、不足している視点を示す画像を生成する。
ステップS809では、表示部107が、不足視点画像生成部106で生成された画像を表示する。
ステップS810では、不足した視点がなくなった状態での識別器に関するデータを複数視点画像保持部104に記憶する。具体的には、写像される固有空間に関する固有空間の次元数と、その次元数分の基底ベクトルと、複数のサポートベクトル、及び、複数のサポートベクトルに対応する線形結合係数を記憶する。
本実施形態により、計測対象物体の画像から、その姿勢を推定する識別器の学習に必要な画像からなる複数視点画像を生成できる。また、複数視点画像を用いて、任意視点物体認識を行う識別器が学習を行うことにより、その識別器を用いることで、物体がどのような姿勢であるのかを推定できる。
以上、第2の実施形態は、撮像した物体がどのような姿勢であるのかを認識する識別器の学習を行うための複数視点画像生成方法の例を説明した。
〔変形例2−1〕
表示部107に不足視点画像生成部106で生成された画像を表示することにより、ユーザが不足視点からの撮像を行った。しかし、ユーザが撮像するのではなく、ロボットアーム等に撮像部101を載置し、ロボットアーム等を不足視点へ移動させ、不足視点からの撮像を行うようにしてもよい。この場合、不足位置姿勢算出部105で不足していると判定された仮想視点に対応する撮像姿勢に関するデータを、ロボットアーム等の動作制御部に送信する。そして、動作制御部では、送信された撮像姿勢に関するデータに基づきロボットアーム等を移動させ、移動完了後に、撮像部101での撮像を実施する。これにより、不足視点からの撮像ができ、自動的に、識別器の学習に充分な複数視点画像を得ることができる。
〔第3の実施形態〕
第3の実施形態では、計測対象物体の三次元モデルを生成するための複数視点画像生成を行う情報処理方法の例を示す。
図11は、本実施形態における構成図である。本実施形態は、撮像部101、画像入力部102、相対位置姿勢算出部103、画像正規化部701、複数視点画像保持部104、三次元モデル生成部1101、不足位置姿勢算出部105、不足視点画像生成部106、表示部107で構成される。また、現実空間に置かれた計測台111には、計測対象となる物体112が支柱113に載置されている。物体112の周囲には、複数のマーカ121、122、・・・、128が配置されている。また、各マーカ121から128までの8個のマーカがそれぞれ、色1、色2、・・・、色8の色のマーカとする。加えて、マーカ以外の領域が色9で統一されており、計測対象である物体112は、色1から色9までの色が含まれていないものとする。以下では、上記構成において、第1の実施形態及び第2の実施形態と異なる部分のみ説明し、同様の部分に関しては説明を省略する。
撮像部101は、物体112を撮像する。撮像された画像は、処理部12に送られる。
画像入力部102は、撮像部101から送信されてきた画像を処理部12に入力する。画像入力部102で入力された画像は、相対位置姿勢算出部103に送られる。
相対位置姿勢算出部103は、計測対象である物体112と撮像部101の相対位置姿勢を算出する。相対位置姿勢算出部103で算出された物体112と撮像部101との相対位置姿勢は、複数視点画像保持部104へ送られる。
画像正規化部701は、計測対象である物体112のみを入力された画像から切り出す。切り出した画像をグレースケール化して所定のサイズに正規化する。
複数視点画像保持部104は、相対位置姿勢算出部103で求めた撮像姿勢データと、当該撮像姿勢の計測処理を行った画像とを関連付けて記憶する。
三次元モデル生成部1101は、複数視点画像保持部104に記憶された、複数の視点から撮像した計測対象物体112の画像を用いて、その計測対象物体の三次元モデルを生成する。
不足位置姿勢算出部105は、生成した三次元モデルに基づいて、現段階までに撮像した多数の撮像姿勢データに基づき、現段階で撮像が不足している視点を算出する。
不足視点画像生成部106は、不足位置姿勢算出部105で算出された不足視点の撮像姿勢データから、表示する画像を生成する。
表示部107は、不足視点画像生成部106で生成された表示画像を表示する。
図12は、本実施形態における、複数視点画像生成方法の処理フローを示した図である。
ステップS1201では、画像入力部102が、撮像部101から送信されてきた画像を入力する。画像入力部102で入力された画像は、相対位置姿勢算出部103に送信され、ステップS1202へ進む。
ステップS1202では、相対位置姿勢算出部103が、計測対象である物体112と撮像部101の相対位置姿勢を算出する。
ステップS1203では、画像正規化部701が、計測対象である物体112のみを入力された画像から切り出す。切り出した画像をグレースケール化して所定のサイズに正規化する。
ステップS1204では、複数視点画像保持部104が、物体切り出し、正規化処理を行った画像を、相対位置姿勢算出部103で計測した撮像姿勢データと関連付けて記憶する。
ステップS1205では、三次元モデル生成部1101が、複数視点画像保持部104に記憶された、複数の視点から撮像した計測対象物体112の画像を用いて、その計測対象物体の三次元モデルを生成する。例えば、特許文献4に記載の技術を用いて、複数の視点から撮像した物体112の三次元モデルを生成する。
ステップS1206では、不足位置姿勢算出部105が、三次元モデル生成部1101で生成した三次元モデルに基づき、現段階で撮像が不足している視点を算出する。
図16は、不足位置姿勢算出部における処理のフローチャートである。ステップS1206における、不足位置姿勢算出部105の具体的な処理の詳細について説明する。
ステップS1601では、まず、仮想的な三次元空間内の球面上に、略均等に所定個数の点を配置し、その各点に対応する仮想視点を用意する。そして、仮想視点の各々について、2つの撮像済隣接視点を選択する。そして、選択された2つの撮像済隣接視点に対応する計測対象物体112の画像を用い、仮想視点に対応する位置から撮影した場合の、計測対象物体112の推定画像を生成する。推定画像は、例えば、非特許文献5に記載の視点モーフィング法を用いて生成してもよい。
ステップS1602では、現段階までに得られた複数視点画像を用いて生成した三次元モデルのレンダリング画像を生成する。三次元モデルのレンダリング画像は、3D−CGの技術であるレンダリングにより、三次元モデル生成部1101で生成した三次元モデルを、各仮想視点から観測する条件でレンダリングした画像である。
ステップ1603では、各仮想視点に対応する、推定画像とレンダリング画像を比較し、その2枚の画像の類似度が低いならば、その仮想視点からの撮像が不足していると判定する。ここでの2つの画像の比較は、例えば、正規化相関による比較を行い、正規化相関の値が所定値以下ならば、2つの画像の類似度が低いと判定する。
図14は、2つの画像の比較に基づいた視点不足判定の例を示す模式的な図である。
例えば、撮像済隣接視点に対応する2つの画像1401、1402から、それらの中間位置に対応する仮想視点からの画像1403を(例えば、視点モーフィング法を用いて)生成する。また、現段階までに得られた複数視点画像を用いて生成した三次元モデルを、同中間視点から観測する条件で投影するようにレンダリングしたレンダリング画像1404を生成する。そして、その両者を比較し、それらの類似度(例えば、エッジ抽出結果の正規化相関値)が、所定値以上であるか否かに基づいて、その中間視点での撮影データが不足しているか否かを判定する。すなわち、視点モーフィング法等による推定画像1403と、レンダリング画像1404との誤差1405が大きい場合、対応する視点が不足していると判定する。
ステップS1604では、撮像が不足していると判定された仮想視点に対応する撮像姿勢を求める。例えば、仮想的な球面上の位置(Pxi、Pyi、Pzi)を、仮想視点に対応する撮像姿勢として求めればよい。
ステップS1207では、不足位置姿勢があるか否かを判定する。不足位置姿勢算出部105が、球面上に略均等に配置した全ての点について、その点に対応する視点からの撮像が充分であると判定された場合、三次元モデルの生成にとって十分に計測対象物体112の複数視点画像が撮像できたと判断し、ステップS1210へ進む。一方、球面上に略均等に配置した点に対応する視点からの撮像が不足していると判定された場合、撮像姿勢に関するデータ(Pxi、Pyi、Pzi)を、不足視点画像生成部106に送信しステップS1208へ進む。
ステップS1208では、不足視点画像生成部106が、不足位置姿勢算出部105より送信されてきた撮像姿勢に関するデータに基づいて、不足している視点を示す画像を生成する。
ステップS1209では、表示部107が、不足視点画像生成部106で生成された画像を表示する。
ステップS1210では、三次元モデル生成部1101が、不足している視点がなくなった複数の画像から、計測対象物体112の三次元モデルを生成し、複数視点画像保持部104に記憶する。
物体の三次元モデルを生成する三次元モデル生成に必要な多数の画像からなる複数視点画像を生成できる。
撮像部101をロボットアームなどに載置し、ロボットアーム等を不足視点へ移動させ、不足視点の撮像を行うようにすることにより、自動的に、三次元モデルの生成に充分な複数視点画像を得ることもできる。
以上、第3の実施形態は、計測対象物体の三次元モデルを生成するための複数視点画像生成方法の例を説明した。
〔その他の実施形態〕
図13は、本願の実施形態を実現するためのコンピュータの構成例である。
本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク1307又は各種の記憶媒体1302、1303を介してシステム或いは装置に供給する。そして、そのシステム或いは装置のコンピュータ1301(またはCPUやMPU等)がプログラムを読み出して実行する処理である。

Claims (23)

  1. 撮像手段によって複数の視点から物体を撮像した複数の撮像画像に基づいて、前記複数の視点ごとに前記物体に対する前記撮像手段の相対位置姿勢を導出する相対位置姿勢導出手段と、
    前記導出された複数の相対位置姿勢に基づいて、前記撮像手段による撮像が不足している前記物体に対する該撮像手段の相対位置姿勢を、不足位置姿勢として導出する不足位置姿勢導出手段と、
    前記導出された不足位置姿勢を示す情報を出力する出力手段と、を備え
    前記不足位置姿勢導出手段は、
    前記物体を中心に略均等に該物体を撮像しうる複数の仮想位置姿勢を設定する設定手段と、
    前記複数の仮想位置姿勢それぞれに対して、前記導出された複数の相対位置姿勢に類似するか否かを判定する判定手段と、
    前記類似すると判定されなかった前記仮想位置姿勢に基づいて、前記不足位置姿勢を導出することを特徴とする情報処理装置。
  2. 前記判定手段前記仮想位置姿勢と前記物体とを結ぶベクトルと前記複数の相対位置姿勢と前記物体とを結ぶベクトルとの内積に基づいて判定することを特徴とする請求項1に記載の情報処理装置。
  3. 撮像手段によって複数の視点から物体を撮像した複数の撮像画像に基づいて、前記複数の視点ごとに前記物体に対する前記撮像手段の相対位置姿勢を導出する相対位置姿勢導出手段と、
    前記複数の撮像画像と前記複数の撮像画像を撮像した前記撮像手段の相対位置姿勢とに基づいて、前記複数の物体の姿勢を推定する識別器を生成する生成手段と、
    前記導出された複数の相対位置姿勢と前記生成された識別器とに基づいて、前記撮像手段による撮像が不足している前記物体に対する該撮像手段の相対位置姿勢を、不足位置姿勢として導出する不足位置姿勢導出手段と、
    前記導出された不足位置姿勢を示す情報を出力する出力手段を備えることを特徴とする情報処理装置。
  4. 前記複数の撮像画像を統一したフォーマットに正規化する画像正規化手段を更に備え、
    前記生成手段、前記正規化された複数の撮像画像に基づいて、前記識別器を生成することを特徴とする請求項3に記載の情報処理装置。
  5. 前記不足位置姿勢導出手段が、前記導出された複数の相対位置姿勢の姿勢と、前記複数の撮像画像に基づいて設定された設定位置姿勢とを比較することにより、前記不足位置姿勢を導出することを特徴とする請求項3又は4に記載の情報処理装置。
  6. 撮像手段によって複数の視点から物体を撮像した複数の撮像画像に基づいて、前記複数の視点ごとに前記物体に対する前記撮像手段の相対位置姿勢を導出する相対位置姿勢導出手段と、
    前記複数の撮像画像と前記撮像手段の相対位置姿勢とに基づいて、概略三次元モデルを生成するモデル生成手段と、
    前記概略三次元モデルと前記複数の撮像画像とに基づいて、前記撮像手段による撮像が不足している前記物体に対する該撮像手段の相対位置姿勢を、不足位置姿勢として導出する不足位置姿勢導出手段と、
    前記導出された不足位置姿勢を示す情報を出力する出力手段を備えることを特徴とする情報処理装置。
  7. 更に、前記複数の撮像画像に基づいて、所定の位置姿勢から撮像した場合の推定画像を生成する推定画像生成手段と、
    前記所定の位置姿勢から観測した場合の、前記概略三次元モデルのレンダリング画像を生成する投影画像生成手段とを備え、
    前記不足位置姿勢導出手段は、前記推定画像と前記レンダリング画像とを比較することにより、前記不足位置姿勢を導出することを特徴とする請求項6に記載の情報処理装置。
  8. 前記不足位置姿勢導出手段は、前記推定画像と前記レンダリング画像とを比較した結果類似しない場合に、前記所定の位置姿勢に基づいて前記不足位置姿勢を導出することを特徴とする請求項7に記載の情報処理装置。
  9. 前記推定画像生成手段が、前記所定の位置姿勢は、前記複数の撮像画像を撮像した位置姿勢の互いの中間となる位置姿勢であることを特徴とする請求項又はに記載情報処理装置。
  10. 記複数の撮像画像は、2枚の撮像画像であることを特徴とする請求項7乃至9の何れか1項に記載の情報処理装置。
  11. 前記撮像画像は、前記物体と物体の周囲に配置された複数のマーカを含み、
    前記複数のマーカの現実空間における三次元位置は既知であることを特徴とする請求項1乃至10の何れか1項に記載の情報処理装置。
  12. 前記複数のマーカの各々は、前記物体の色及び当該マーカ以外の該複数のマーカと異なる色のマーカであることを特徴とする請求項11に記載の情報処理装置。
  13. 前記相対位置姿勢導出手段が、前記撮像画像における前記複数のマーカの位置を検出することにより、前記複数の視点ごとに前記物体に対する前記該撮像手段の相対位置姿勢を導出することを特徴とする請求項11又は12に記載の情報処理装置。
  14. 前記検出される複数のマーカの位置は、4つ以上であることを特徴とする請求項11乃至13のいずれか1項に記載の情報処理装置。
  15. 前記相対位置姿勢出手段が、予め保持された前記物体の三次元モデルの特徴と、前記撮像画像における前記物体の特徴を比較することにより、前記複数の視点ごとに前記物体に対する前記撮像手段の相対位置姿勢を導出することを特徴とする請求項1に記載の情報処理装置。
  16. 前記不足位置姿勢導出手段、予め保持された前記物体の三次元モデルの複雑な構造を撮像できる視点付近からの前記導出された相対位置姿勢が少ないとき、当該視点からの相対位置姿勢を不足位置姿勢として導出することを特徴とする請求項1乃至15の何れか1項に記載の情報処理装置。
  17. 前記複数の撮像画像に基づいて、三次元モデルを生成する三次元モデル生成手段とを更に備えることを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。
  18. 前記撮像手段を動かす撮像可動手段とを更に有することを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。
  19. 前記出力手段は、前記不足位置姿勢を示す画像を生成し、該生成した画像を表示手段に出力することを特徴とする請求項1乃至18のいずれか1項に記載の情報処理装置。
  20. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の相対位置姿勢導出手段が、撮像手段によって複数の視点から物体を撮像した複数の撮像画像に基づいて、前記複数の視点ごとに前記物体に対する前記撮像手段の相対位置姿勢を導出する相対位置姿勢導出工程と、
    前記情報処理装置の不足位置姿勢導出手段が、前記導出された複数の相対位置姿勢に基づいて、前記撮像手段による撮像が不足している前記物体に対する該撮像手段の相対位置姿勢を、不足位置姿勢として導出する不足位置姿勢導出工程と、
    前記情報処理装置の出力手段が、前記導出された不足位置姿勢を示す情報を出力する出力工程と
    前記不足位置姿勢導出工程は、
    前記物体を中心に略均等に該物体を撮像しうる複数の仮想位置姿勢を設定する設定工程と、
    前記複数の仮想位置姿勢それぞれに対して、前記導出された複数の相対位置姿勢に類似するか否かを判定する判定工程と、
    前記類似すると判定されなかった前記仮想位置姿勢に基づいて、前記不足位置姿勢を導出することを特徴とする情報処理方法。
  21. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の相対位置姿勢導出手段が、撮像手段によって複数の視点から物体を撮像した複数の撮像画像に基づいて、前記複数の視点ごとに前記物体に対する前記撮像手段の相対位置姿勢を導出する相対位置姿勢導出工程と、
    前記情報処理装置の生成手段が、前記複数の撮像画像と前記複数の撮像画像を撮像した前記撮像手段の相対位置姿勢とに基づいて、前記複数の物体の姿勢を推定する識別器を生成する生成工程と、
    前記情報処理装置の不足位置姿勢導出手段が、前記導出された複数の相対位置姿勢と前記生成された識別器とに基づいて、前記撮像手段による撮像が不足している前記物体に対する該撮像手段の相対位置姿勢を、不足位置姿勢として導出する不足位置姿勢導出工程と、
    前記情報処理装置の出力手段が、前記導出された不足位置姿勢を示す情報を出力する出力工程を備えることを特徴とする情報処理方法
  22. 情報処理装置が行う情報処理方法であって、
    前記情報処理装置の相対位置姿勢導出手段が、撮像手段によって複数の視点から物体を撮像した複数の撮像画像に基づいて、前記複数の視点ごとに前記物体に対する前記撮像手段の相対位置姿勢を導出する相対位置姿勢導出工程と、
    前記情報処理装置のモデル生成手段が、前記複数の撮像画像と前記撮像手段の相対位置姿勢とに基づいて、概略三次元モデルを生成するモデル生成工程と、
    前記情報処理装置の不足位置姿勢導出手段が、前記概略三次元モデルと前記複数の撮像画像とに基づいて、前記撮像手段による撮像が不足している前記物体に対する該撮像手段の相対位置姿勢を、不足位置姿勢として導出する不足位置姿勢導出工程と、
    前記情報処理装置の出力手段が、前記導出された不足位置姿勢を示す情報を出力する出力工程を備えることを特徴とする情報処理方法。
  23. コンピュータを請求項1乃至19のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。
JP2010273896A 2010-02-25 2010-12-08 情報処理方法及びその装置 Active JP5812599B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010273896A JP5812599B2 (ja) 2010-02-25 2010-12-08 情報処理方法及びその装置

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010040596 2010-02-25
JP2010040596 2010-02-25
JP2010273896A JP5812599B2 (ja) 2010-02-25 2010-12-08 情報処理方法及びその装置

Publications (3)

Publication Number Publication Date
JP2011198349A JP2011198349A (ja) 2011-10-06
JP2011198349A5 JP2011198349A5 (ja) 2014-01-30
JP5812599B2 true JP5812599B2 (ja) 2015-11-17

Family

ID=44506477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010273896A Active JP5812599B2 (ja) 2010-02-25 2010-12-08 情報処理方法及びその装置

Country Status (3)

Country Link
US (1) US9429418B2 (ja)
JP (1) JP5812599B2 (ja)
WO (1) WO2011105044A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5812599B2 (ja) * 2010-02-25 2015-11-17 キヤノン株式会社 情報処理方法及びその装置
US9129438B2 (en) * 2011-01-18 2015-09-08 NedSense Loft B.V. 3D modeling and rendering from 2D images
JP5895569B2 (ja) * 2012-02-08 2016-03-30 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
JP5571128B2 (ja) * 2012-06-28 2014-08-13 株式会社東芝 計測支援装置、方法及びプログラム
JP6338369B2 (ja) * 2013-12-26 2018-06-06 キヤノン株式会社 情報処理装置および情報処理方法
JP6664579B2 (ja) * 2014-06-20 2020-03-13 ヤフー株式会社 学習装置、学習方法及び学習プログラム
JP6193195B2 (ja) * 2014-09-17 2017-09-06 株式会社東芝 移動支援装置、方法及びプログラム
US9704300B2 (en) * 2015-03-06 2017-07-11 Siemens Medical Solutions Usa, Inc. Detection of anatomy orientation using learning-based regression
EP3295368A1 (en) * 2015-05-13 2018-03-21 Google LLC Deepstereo: learning to predict new views from real world imagery
US10102654B1 (en) * 2015-07-28 2018-10-16 Cascade Technologies, Inc. System and method for a scalable interactive image-based visualization environment of computational model surfaces
JP2017049052A (ja) * 2015-08-31 2017-03-09 日本ユニシス株式会社 対象物の3次元画像データを生成するためのシステム、方法、プログラム
CN105513049B (zh) * 2015-11-25 2018-12-21 中国联合网络通信集团有限公司 一种图像形成方法和图像形成系统
KR102016413B1 (ko) * 2016-01-05 2019-09-02 한국전자통신연구원 아이템 스캐닝 장치 및 방법
JP6164319B2 (ja) * 2016-03-02 2017-07-19 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US9916496B2 (en) 2016-03-25 2018-03-13 Zero Latency PTY LTD Systems and methods for operating a virtual reality environment using colored marker lights attached to game objects
US10717001B2 (en) * 2016-03-25 2020-07-21 Zero Latency PTY LTD System and method for saving tracked data in the game server for replay, review and training
US10486061B2 (en) 2016-03-25 2019-11-26 Zero Latency Pty Ltd. Interference damping for continuous game play
US10421012B2 (en) 2016-03-25 2019-09-24 Zero Latency PTY LTD System and method for tracking using multiple slave servers and a master server
JP6431495B2 (ja) * 2016-03-25 2018-11-28 本田技研工業株式会社 教師データ生成方法
JP6821326B2 (ja) * 2016-05-12 2021-01-27 キヤノン株式会社 情報処理装置、計測システム、情報処理方法およびプログラム
JP6808357B2 (ja) * 2016-05-25 2021-01-06 キヤノン株式会社 情報処理装置、制御方法、及び、プログラム
US10751609B2 (en) 2016-08-12 2020-08-25 Zero Latency PTY LTD Mapping arena movements into a 3-D virtual world
JP6945297B2 (ja) * 2016-12-05 2021-10-06 株式会社日立製作所 機器診断装置、機器診断システム及び機器診断方法
WO2018143153A1 (ja) * 2017-02-03 2018-08-09 三井住友建設株式会社 位置測定装置及び位置測定方法
JP6983524B2 (ja) * 2017-03-24 2021-12-17 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US10998211B2 (en) * 2017-05-31 2021-05-04 Fujikin Inc. Management system, method, and computer program for semiconductor fabrication apparatus
JP6946087B2 (ja) * 2017-07-14 2021-10-06 キヤノン株式会社 情報処理装置及びその制御方法、並びに、プログラム
JP6474179B2 (ja) * 2017-07-30 2019-02-27 国立大学法人 奈良先端科学技術大学院大学 学習データセット作製方法、並びに、物体認識及び位置姿勢推定方法
JP6859447B2 (ja) * 2017-09-27 2021-04-14 株式会社ソニー・インタラクティブエンタテインメント 情報処理システムおよび対象物情報取得方法
JP6734253B2 (ja) 2017-12-20 2020-08-05 ファナック株式会社 ワークを撮像する視覚センサを備える撮像装置
JP7133926B2 (ja) * 2018-01-15 2022-09-09 キヤノン株式会社 情報処理装置、システム、情報処理方法
JP7036401B2 (ja) * 2018-04-27 2022-03-15 Awl株式会社 学習用サーバ、不足学習用画像収集支援システム、及び不足学習用画像推定プログラム
JP2019192145A (ja) * 2018-04-27 2019-10-31 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP7447083B2 (ja) * 2019-03-15 2024-03-11 株式会社ミマキエンジニアリング 立体データ生成装置、立体データ生成方法、プログラム、及び造形システム
KR102198851B1 (ko) 2019-11-12 2021-01-05 네이버랩스 주식회사 물체의 3차원 모델 데이터 생성 방법
US11800056B2 (en) 2021-02-11 2023-10-24 Logitech Europe S.A. Smart webcam system
US11800048B2 (en) 2021-02-24 2023-10-24 Logitech Europe S.A. Image generating system with background replacement or modification capabilities
WO2024090191A1 (ja) * 2022-10-28 2024-05-02 ソニーグループ株式会社 情報処理装置、および情報処理方法、並びにプログラム

Family Cites Families (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5319444A (en) * 1988-02-16 1994-06-07 Canon Kabushiki Kaisha Position detecting method and apparatus
US5327221A (en) * 1988-02-16 1994-07-05 Canon Kabushiki Kaisha Device for detecting positional relationship between two objects
US5340992A (en) * 1988-02-16 1994-08-23 Canon Kabushiki Kaisha Apparatus and method of detecting positional relationship using a weighted coefficient
US4920491A (en) * 1988-05-16 1990-04-24 General Electric Company Enhancement of image quality by utilization of a priori information
EP0358514B1 (en) * 1988-09-09 2000-12-13 Canon Kabushiki Kaisha Position detecting method and apparatus
US5225892A (en) * 1990-02-05 1993-07-06 Canon Kabushiki Kaisha Positional deviation detecting method
DE69128164T2 (de) * 1990-05-01 1998-04-02 Canon K.K., Tokio/Tokyo Verfahren und Apparat zur Detektion von Lageabweichungen
US5291563A (en) * 1990-12-17 1994-03-01 Nippon Telegraph And Telephone Corporation Method and apparatus for detection of target object with improved robustness
US5625408A (en) * 1993-06-24 1997-04-29 Canon Kabushiki Kaisha Three-dimensional image recording/reconstructing method and apparatus therefor
JP2883265B2 (ja) * 1993-09-24 1999-04-19 キヤノン株式会社 画像処理装置
US6463176B1 (en) * 1994-02-02 2002-10-08 Canon Kabushiki Kaisha Image recognition/reproduction method and apparatus
US6118475A (en) * 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
JP3513219B2 (ja) * 1994-07-12 2004-03-31 キヤノン株式会社 対応点マッチング方法および装置
EP0701369A1 (en) * 1994-09-09 1996-03-13 Canon Kabushiki Kaisha Image processing method and apparatus
US6640004B2 (en) * 1995-07-28 2003-10-28 Canon Kabushiki Kaisha Image sensing and image processing apparatuses
DE69635101T2 (de) * 1995-11-01 2006-06-01 Canon K.K. Verfahren zur Extraktion von Gegenständen und dieses Verfahren verwendendes Bildaufnahmegerät
JP3869876B2 (ja) * 1995-12-19 2007-01-17 キヤノン株式会社 画像計測方法及び画像計測装置
US6445814B2 (en) * 1996-07-01 2002-09-03 Canon Kabushiki Kaisha Three-dimensional information processing apparatus and method
JP3679512B2 (ja) * 1996-07-05 2005-08-03 キヤノン株式会社 画像抽出装置および方法
US6453069B1 (en) * 1996-11-20 2002-09-17 Canon Kabushiki Kaisha Method of extracting image from input image using reference image
JPH10191020A (ja) * 1996-12-20 1998-07-21 Canon Inc 被写体画像切出し方法及び装置
DE69937476T2 (de) * 1998-07-31 2008-08-28 Canon K.K. Bildverarbeitungsvorrichtung und -Verfahren und Speichermedium
JP2000209425A (ja) * 1998-11-09 2000-07-28 Canon Inc 画像処理装置及び方法並びに記憶媒体
JP2000194859A (ja) 1998-12-25 2000-07-14 Canon Inc 被写体形状抽出方法、被写体形状抽出装置及び記録媒体
JP2000209430A (ja) * 1999-01-18 2000-07-28 Canon Inc 輪郭抽出装置及び方法並びに記憶媒体
US6674905B1 (en) * 1999-01-22 2004-01-06 Canon Kabushiki Kaisha Image processing method, image processing apparatus, and storage medium
JP4306006B2 (ja) * 1999-03-30 2009-07-29 コニカミノルタセンシング株式会社 3次元データ入力方法及び装置
US7054850B2 (en) * 2000-06-16 2006-05-30 Canon Kabushiki Kaisha Apparatus and method for detecting or recognizing pattern by employing a plurality of feature detecting elements
US6826299B2 (en) * 2000-07-31 2004-11-30 Geodetic Services, Inc. Photogrammetric image correlation and measurement system and method
US7088860B2 (en) * 2001-03-28 2006-08-08 Canon Kabushiki Kaisha Dynamically reconfigurable signal processing circuit, pattern recognition apparatus, and image processing apparatus
US20020164067A1 (en) * 2001-05-02 2002-11-07 Synapix Nearest neighbor edge selection from feature tracking
JP4085671B2 (ja) * 2002-03-29 2008-05-14 コニカミノルタホールディングス株式会社 データ処理方法、データ処理プログラムおよび記録媒体
US7031512B2 (en) * 2002-04-18 2006-04-18 Stmicroelectronics, Inc. Method and system for 3D smoothing within the bound of error regions of matching curves
JP2003346185A (ja) * 2002-05-24 2003-12-05 Olympus Optical Co Ltd 情報表示システム及び携帯情報端末
JP2004139294A (ja) * 2002-10-17 2004-05-13 Hitachi Ltd 多視点画像処理プログラム、システム及びマーカ
JP2004170329A (ja) * 2002-11-22 2004-06-17 Nippon Steel Corp バンプ電極およびバンプ電極用ボール検査方法
US7577297B2 (en) * 2002-12-16 2009-08-18 Canon Kabushiki Kaisha Pattern identification method, device thereof, and program thereof
US8737720B2 (en) * 2003-04-30 2014-05-27 Deere & Company System and method for detecting and analyzing features in an agricultural field
EP3358501B1 (en) * 2003-07-18 2020-01-01 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
US7643025B2 (en) * 2003-09-30 2010-01-05 Eric Belk Lange Method and apparatus for applying stereoscopic imagery to three-dimensionally defined substrates
JP4262082B2 (ja) * 2003-12-24 2009-05-13 キヤノン株式会社 画像処理装置及びその制御方法とプログラム及び記憶媒体
JP4419570B2 (ja) * 2003-12-26 2010-02-24 富士ゼロックス株式会社 3次元画像撮影装置および方法
US7292735B2 (en) * 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection
GB2415344B (en) * 2004-06-14 2010-10-06 Canon Europa Nv Texture data compression and rendering in 3D computer graphics
EP1607716A3 (en) * 2004-06-18 2012-06-20 Topcon Corporation Model forming apparatus and method, and photographing apparatus and method
JP4217664B2 (ja) * 2004-06-28 2009-02-04 キヤノン株式会社 画像処理方法、画像処理装置
WO2006011635A1 (en) * 2004-07-30 2006-02-02 Canon Kabushiki Kaisha Image processing method and apparatus, image sensing apparatus, and program
JP2006287749A (ja) * 2005-04-01 2006-10-19 Canon Inc 撮像装置、及びその制御方法
FI20055168A0 (fi) * 2005-04-13 2005-04-13 Gen Electric Tomografiamenetelmä
US7945938B2 (en) * 2005-05-11 2011-05-17 Canon Kabushiki Kaisha Network camera system and control method therefore
EP1904977B1 (en) * 2005-07-08 2010-12-15 Wisconsin Alumni Research Foundation Backprojection reconstruction method for ct imaging
EP1748378B1 (en) * 2005-07-26 2009-09-16 Canon Kabushiki Kaisha Image capturing apparatus and image capturing method
JP4508049B2 (ja) 2005-09-05 2010-07-21 株式会社日立製作所 360°画像撮影装置
US8542928B2 (en) * 2005-09-26 2013-09-24 Canon Kabushiki Kaisha Information processing apparatus and control method therefor
US7599547B2 (en) * 2005-11-30 2009-10-06 Microsoft Corporation Symmetric stereo model for handling occlusion
JP2007156528A (ja) 2005-11-30 2007-06-21 Canon Inc 点密度均等配置装置及びその方法、並びにプログラム及び記憶媒体
JP4764273B2 (ja) * 2006-06-30 2011-08-31 キヤノン株式会社 画像処理装置、画像処理方法、プログラム、記憶媒体
US8072482B2 (en) * 2006-11-09 2011-12-06 Innovative Signal Anlysis Imaging system having a rotatable image-directing device
US8542236B2 (en) * 2007-01-16 2013-09-24 Lucasfilm Entertainment Company Ltd. Generating animation libraries
JP4845755B2 (ja) * 2007-01-30 2011-12-28 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
US8000522B2 (en) * 2007-02-02 2011-08-16 General Electric Company Method and system for three-dimensional imaging in a non-calibrated geometry
JP4999570B2 (ja) * 2007-06-18 2012-08-15 キヤノン株式会社 表情認識装置及び方法、並びに撮像装置
JP5084398B2 (ja) * 2007-08-24 2012-11-28 キヤノン株式会社 測定装置、測定方法、及び、プログラム
JP5448326B2 (ja) * 2007-10-29 2014-03-19 キヤノン株式会社 把持装置および把持装置制御方法
KR101545009B1 (ko) * 2007-12-20 2015-08-18 코닌클리케 필립스 엔.브이. 스트레오스코픽 렌더링을 위한 이미지 인코딩 방법
JP5058838B2 (ja) * 2008-02-01 2012-10-24 キヤノン株式会社 情報処理装置および方法
KR101468267B1 (ko) * 2008-10-02 2014-12-15 프라운호퍼-게젤샤프트 추르 푀르데룽 데어 안제반텐 포르슝 에 파우 중간 뷰 합성 및 멀티-뷰 데이터 신호 추출
US8482654B2 (en) * 2008-10-24 2013-07-09 Reald Inc. Stereoscopic image format with depth information
US8634635B2 (en) * 2008-10-30 2014-01-21 Clever Sys, Inc. System and method for stereo-view multiple animal behavior characterization
EP2384000B1 (en) * 2008-12-26 2013-10-16 JVC KENWOOD Corporation Image encoding device, image encoding method, program thereof, image decoding device, image decoding method, and program thereof
US8306265B2 (en) * 2009-01-12 2012-11-06 Eastman Kodak Company Detection of animate or inanimate objects
JP5599572B2 (ja) * 2009-03-12 2014-10-01 富士フイルム株式会社 症例画像検索装置、方法およびプログラム
CA2772607A1 (en) * 2009-09-01 2011-03-10 Prime Focus Vfx Services Ii Inc. System and process for transforming two-dimensional images into three-dimensional images
JP5588196B2 (ja) * 2010-02-25 2014-09-10 キヤノン株式会社 認識装置及びその制御方法、コンピュータプログラム
JP5812599B2 (ja) * 2010-02-25 2015-11-17 キヤノン株式会社 情報処理方法及びその装置
JP5665333B2 (ja) * 2010-03-10 2015-02-04 キヤノン株式会社 情報処理装置および情報処理装置の制御方法
US9053393B2 (en) * 2010-03-19 2015-06-09 Canon Kabushiki Kaisha Learning method and apparatus for pattern recognition
US9400503B2 (en) * 2010-05-20 2016-07-26 Irobot Corporation Mobile human interface robot
JP2012038106A (ja) * 2010-08-06 2012-02-23 Canon Inc 情報処理装置、情報処理方法、およびプログラム
JP5615088B2 (ja) * 2010-08-18 2014-10-29 キヤノン株式会社 画像処理装置及びその方法、プログラム、並びに撮像装置
JP5587137B2 (ja) * 2010-10-29 2014-09-10 キヤノン株式会社 測定装置及び測定方法
JP5743499B2 (ja) * 2010-11-10 2015-07-01 キヤノン株式会社 画像生成装置、画像生成方法、およびプログラム
JP5767464B2 (ja) * 2010-12-15 2015-08-19 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、およびプログラム
JP5798318B2 (ja) * 2010-12-15 2015-10-21 キヤノン株式会社 距離データ生成装置、位置姿勢計測装置、距離データ生成装置の制御方法およびプログラム
US9177381B2 (en) * 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
US20140043329A1 (en) * 2011-03-21 2014-02-13 Peng Wang Method of augmented makeover with 3d face modeling and landmark alignment
FR2981772B1 (fr) * 2011-10-21 2017-12-22 Thales Sa Procede de reconstruction 3d d'un objet d'une scene
JP5865043B2 (ja) * 2011-12-06 2016-02-17 キヤノン株式会社 情報処理装置、情報処理方法
JP2013162487A (ja) * 2012-02-08 2013-08-19 Canon Inc 画像表示装置及び撮像装置
JP6027764B2 (ja) * 2012-04-25 2016-11-16 キヤノン株式会社 ミラーシステム、および、その制御方法
US9141868B2 (en) * 2012-06-26 2015-09-22 Xerox Corporation Contemporaneously reconstructing images captured of a scene illuminated with unstructured and structured illumination sources
JP6143469B2 (ja) * 2013-01-17 2017-06-07 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP6433149B2 (ja) * 2013-07-30 2018-12-05 キヤノン株式会社 姿勢推定装置、姿勢推定方法およびプログラム
JP6338369B2 (ja) * 2013-12-26 2018-06-06 キヤノン株式会社 情報処理装置および情報処理方法

Also Published As

Publication number Publication date
US20120321173A1 (en) 2012-12-20
JP2011198349A (ja) 2011-10-06
WO2011105044A1 (en) 2011-09-01
US9429418B2 (en) 2016-08-30

Similar Documents

Publication Publication Date Title
JP5812599B2 (ja) 情報処理方法及びその装置
US9940756B2 (en) Silhouette-based object and texture alignment, systems and methods
JP4653606B2 (ja) 画像認識装置、方法およびプログラム
US9672630B2 (en) Contour line measurement apparatus and robot system
JP6507730B2 (ja) 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム
JP6685827B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5493108B2 (ja) 距離画像カメラを用いた人体識別方法および人体識別装置
WO2010137157A1 (ja) 画像処理装置、方法、プログラム
JP6352208B2 (ja) 三次元モデル処理装置およびカメラ校正システム
CN110926330B (zh) 图像处理装置和图像处理方法
JP2009020761A (ja) 画像処理装置及びその方法
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
US11727637B2 (en) Method for generating 3D skeleton using joint-based calibration acquired from multi-view camera
CN110956065B (zh) 一种用于模型训练的人脸图像处理方法及装置
WO2020152927A1 (ja) 学習用データ生成方法、学習用データ生成装置、および、推論処理方法
JP2006343859A (ja) 画像処理装置及び画像処理方法
JPWO2009004916A1 (ja) なりすまし検知システム、なりすまし検知方法およびなりすまし検知用プログラム
JP2017123087A (ja) 連続的な撮影画像に映り込む平面物体の法線ベクトルを算出するプログラム、装置及び方法
JP2020042575A (ja) 情報処理装置、位置合わせ方法、及びプログラム
JP2007042136A (ja) 物体照合方法,物体照合装置,およびそのプログラムを記録した記録媒体
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
JP2006215743A (ja) 画像処理装置及び画像処理方法
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP2006227739A (ja) 画像処理装置及び画像処理方法
JP6606340B2 (ja) 画像検出装置、画像検出方法およびプログラム

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131209

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150317

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150518

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150915

R151 Written notification of patent or utility model registration

Ref document number: 5812599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151