JP6347610B2 - 画像処理装置および3次元空間情報取得方法 - Google Patents

画像処理装置および3次元空間情報取得方法 Download PDF

Info

Publication number
JP6347610B2
JP6347610B2 JP2014004213A JP2014004213A JP6347610B2 JP 6347610 B2 JP6347610 B2 JP 6347610B2 JP 2014004213 A JP2014004213 A JP 2014004213A JP 2014004213 A JP2014004213 A JP 2014004213A JP 6347610 B2 JP6347610 B2 JP 6347610B2
Authority
JP
Japan
Prior art keywords
dimensional
target object
unit
boundary
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014004213A
Other languages
English (en)
Other versions
JP2015132544A (ja
Inventor
宏将 武井
宏将 武井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nihon Unisys Ltd
Original Assignee
Nihon Unisys Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nihon Unisys Ltd filed Critical Nihon Unisys Ltd
Priority to JP2014004213A priority Critical patent/JP6347610B2/ja
Publication of JP2015132544A publication Critical patent/JP2015132544A/ja
Application granted granted Critical
Publication of JP6347610B2 publication Critical patent/JP6347610B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Description

本発明は、画像処理装置および3次元空間情報取得方法に関し、特に、2次元画像を処理して対象物体の3次元位置・姿勢に関する空間情報を取得するようになされた画像処理装置に用いて好適なものである。
近年、仮想空間と実空間とを結び付けるデバイスの研究開発が盛んに行われている。そのようなデバイスの一例として、メガネのように顔に装着することで拡張現実(AR)体験を実現するARメガネが挙げられる。このような技術開発の進展に伴い、今後はますます、2次元の世界と3次元の世界とを結び付ける技術の重要性が増していくと考えられる。
従来、2次元の画像情報の中から3次元の実世界の情報(例えば、画像内に写る対象物体の3次元位置・姿勢などの空間情報)を得るための技術として、ステレオカメラやモーションキャプチャがよく知られている。しかしながら、ステレオカメラの場合は2台のカメラが必要であり、モーションキャプチャの場合は特別な計測装置が必要である。そのため、これらのハードウェア環境を利用することが難しい現場に対しては導入が困難であるという問題があった。
また、2次元の画像を処理して対象物体の3次元位置・姿勢を把握するための技術として、特許文献1に記載の技術も提案されている。特許文献1に記載の画像処理装置は、撮像装置を用いて実空間を撮像することにより生成される入力画像を取得する画像取得部と、入力画像に映る1つ以上の特徴点の位置に基づいて、実空間と撮像装置との間の相対的な位置及び姿勢を認識する認識部と、認識される相対的な位置及び姿勢を用いた拡張現実アプリケーションを提供するアプリケーション部とを備えている。
特開2013−225245号公報
上記特許文献1に記載の技術によれば、単眼カメラにより撮像された2次元画像から対象物体の3次元位置・姿勢を検出することが可能である。しかしながら、この特許文献1に記載の技術は、2次元画像の中から特徴的な部分を特定し、その特徴点の位置に基づいて対象物体の3次元位置・姿勢を検出する仕組みであるため、検出の精度は特徴点の抽出数と抽出精度に大きく依存する。そのため、特徴点が多く存在する空間や大きな空間に対する処理には適しているが、特徴点の少ない空間や限られた狭い空間に対する処理では3次元位置・姿勢の検出精度が悪くなってしまうという問題があった。
本発明は、このような問題を解決するために成されたものであり、処理対象とする空間の性質によらず、単眼カメラにより撮像された2次元画像に写る対象物体の3次元位置・姿勢を精度よく検出できるようにすることを目的とする。
上記した課題を解決するために、本発明では、撮像装置を用いて実空間を撮像することにより生成される2次元画像から対象物体の境界を抽出し、当該抽出した境界の各点と撮像装置の中心位置とをそれぞれ結んでできる複数の直線により放射形状を3次元空間の座標系上に生成する。一方、2次元画像上に投影した対象物体の3次元データから、対象物体が2次元画像に写ったときに境界となる点を3次元データのサンプル点として抽出する。そして、放射形状上にサンプル点が位置するように、3次元データの位置および姿勢を並行して調整して3次元データの位置補正を行い、位置補正された3次元データから対象物体の3次元位置および姿勢の空間情報を取得するようにしている。
上記のように構成した本発明によれば、撮像装置により撮像される対象物体の2次元画像から生成された3次元的な放射形状と対象物体の3次元データとの位置合わせを通じて、2次元画像による2次元空間と3次元データによる3次元空間とを結びつけることができる。3次元データは対象物体の3次元位置・姿勢を有しているので、位置合わせをした3次元データから対象物体の正確な3次元位置・姿勢を取得することができる。これにより、処理対象とする空間の性質によらず、単眼の撮像装置により撮像された2次元画像に写る対象物体の3次元位置・姿勢を精度よく検出することができる。
本実施形態による画像処理装置の機能構成例を示すブロック図である。 本実施形態で用いるピンホールカメラモデルの原理を説明するための図である。 本実施形態の放射形状生成部により生成される放射形状の例を示す図である。 2次元画像平面の座標系と3次元空間の座標系との関係を示す図である。 本実施形態の位置補正部により3次元データの位置補正が行われた結果を示す図である。 本実施形態による画像処理装置の動作例を示すフローチャートである。
以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態による画像処理装置100の機能構成例を示すブロック図である。図1に示すように、本実施形態の画像処理装置100は、その機能構成として、2次元画像取得部11、境界抽出部12、放射形状生成部13、3次元データ投影部14、サンプル点抽出部15、位置補正部16、空間情報取得部17およびカメラパラメータ記憶部18を備えている。
上記各機能ブロック11〜17は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11〜17は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。
本実施形態において解決すべき課題は、「2次元画像に写る対象物体の3次元位置・姿勢を定めること」である。3次元位置・姿勢が定まった対象物体の2次元画像上における像は、画像平面と3次元空間との対応関係を用いれば簡単に求めることができる。しかし、本実施形態で解決すべき課題はその逆問題であり、解決は単純ではない。この課題に対して、本実施形態では、図2に示すようなピンホールカメラモデルを用いて2次元画像と3次元空間とを結び付ける。
図2に示すように、ピンホールカメラモデルは、カメラ中心21および画像平面22を持つ。対象物体23上のある点25は、その点25とカメラ中心21とを結んだ直線26と、画像平面22との交点24上に写し出される。これを逆に捉えると、対象物体23上の点25が画像平面22上に投影された像の境界線上の点24になるとき、対象物体23は点25において、カメラ中心21と点24とを結ぶ直線26に接すると言える。つまり、2次元画像上に投影した対象物体23の像の境界となる点25は、カメラ中心21と2次元画像の対象物体の境界上の点24とを結んだ直線26上に存在する。
そこで、本実施形態では、「2次元画像に写る対象物体の境界」に「2次元画像平面に投影した対象物体の3次元データによる像の境界」を一致させ、その状態での3次元データから対象物体の3次元位置・姿勢を取得するという手法をとった。すなわち、対象物体を表す3次元データを2次元の撮影画像上の初期位置に投影し、撮影画像上に写る対象物体の位置に3次元データの位置を補正することによって正確な位置に3次元データを投影し、その3次元データから対象物体の3次元位置・姿勢を取得する。
なお、カメラ中心21と画像平面22との距離を焦点距離と呼ぶ。また、単位距離あたりのピクセル数を解像度と呼ぶ。本実施形態では、キャリブレーションを事前に行い、単眼カメラ200の焦点距離および解像度を算出しておく。そして、これらの焦点距離および解像度を、カメラパラメータとしてあらかじめカメラパラメータ記憶部18に記憶しておく。
図1に示した各機能ブロック11〜17は、上述のような処理を行うための構成である。2次元画像取得部11は、単眼カメラ200を用いて実空間を撮像することにより生成される2次元画像を取得する。なお、図1の例では、パーソナルコンピュータ等の画像処理装置100に単眼カメラ200を接続しておき、単眼カメラ200で撮像された2次元画像を2次元画像取得部11がリアルタイムに取得する例を示しているが、本発明はこれに限定されない。例えば、単眼カメラ200で撮像した2次元画像をメモリに記憶させ、このメモリに記憶された2次元画像を2次元画像取得部11が後から取り込むようにしてもよい。
境界抽出部12は、2次元画像取得部11により取得された2次元画像から対象物体の境界を抽出する。2次元画像における対象物体の境界とは、対象物体の画像と背景の画像との境界に当たる線のことであり、対象物体の構成面の境界線が2次元画像における対象物体の境界になるとは限らない。境界抽出部12は、例えば、2次元画像から前景抽出処理により対象物体を抽出した後、抽出した対象物体から境界を抽出する。境界の抽出は、例えば、いわゆるエッジ検出処理(画像の輝度や色などが鋭敏に(不連続に)変化している箇所を特定する処理)によって行うことが可能である。
放射形状生成部13は、単眼カメラ200の中心位置と境界抽出部11により抽出された境界の各点とをそれぞれ結んでできる複数の直線により放射形状を生成する。図3は、放射形状生成部13により生成される放射形状の例を示す図である。なお、図3では図示の便宜上、放射形状を構成する直線36を4本のみ示している。図3に示すように、放射形状生成部13は、カメラパラメータ記憶部18に記憶されているカメラパラメータから求められるカメラ中心31と、画像平面32に写る2次元画像における対象物体の境界の各点34とをそれぞれ結んでできる複数の直線36により放射形状を3次元空間の座標系上に生成する。
なお、本実施形態では、2次元画像平面の座標系と3次元空間の座標系との関係を、図4のように定める。すなわち、2次元画像平面32上の座標系を、幅方向をw軸、高さ方向をh軸とする。一方、3次元空間の座標系を、カメラ中心31を原点、カメラ中心31から画像平面32に垂直に下した方向をz軸、z軸と直交し画像平面32のw軸と平行な方向をx軸、z軸と直交し画像平面32のh軸と平行な方向をy軸とする。また、z軸と画像平面32との交点を画像中心とする。
3次元データ投影部14は、対象物体を表す3次元データを2次元画像上に投影する。ここで投影する3次元データは、例えば、対象物体と同一形状を、三角形または四角形から成る複数のメッシュで表現した3次元のメッシュデータである。3次元データを投影する2次元画像上の位置(初期位置)は任意であるが、実際に対象物体がある位置の近傍に初期位置を設定するのが好ましい。
すなわち、境界抽出部12により抽出された境界により、2次元画像上に写っている対象物体の位置が分かっている。また、単眼カメラ200の位置も、カメラパラメータ記憶部18に記憶されたカメラパラメータにより既知である。よって、これらの情報から、ピンホールカメラモデルにより3次元空間上における対象物体の大凡の位置は推定可能である。そこで、3次元データ投影部14は、推定した2次元画像上の大凡の初期位置に3次元データを投影するのが好ましい。
サンプル点抽出部15は、3次元データ投影部14により2次元画像上に投影された対象物体の3次元データから、対象物体が2次元画像に写ったときに境界となる複数の点を3次元データのサンプル点として抽出する。図3において、符号33は初期位置に投影された3次元データで表される対象物体であり、符号35は当該3次元データによる対象物体33から抽出される複数のサンプル点である。図3の例では、2次元画像上の4つの境界点34に対応する4つのサンプル点35(3次元データの初期位置では、境界点34と正確に位置が対応していない)を示している。
例えば、投影される3次元データがメッシュデータの場合、対象物体は3つまたは4つの節点を結んで形成される三角形または四角形の形状をした複数のメッシュにより表現されている。そのメッシュの面から法線を伸ばした場合に、対象物体の境界となる場所では、カメラ中心から見た法線の角度がほぼ90度になる。そこで、サンプル点抽出部15は、ある1つの節点を共通に持つ複数のメッシュの面からそれぞれ法線を伸ばし、カメラ中心から見た法線の角度を確認する。そして、法線の角度が90度より小さいメッシュと90度より大きいメッシュとが混在している場合、当該ある1つの節点をサンプル点として抽出する。サンプル点抽出部15は、この処理を複数の節点について行うことにより、対象物体が2次元画像に写ったときに境界となる複数の点を3次元データのサンプル点として抽出する。
なお、図3では説明の便宜上、対象物体33の3次元データを実際に2次元画像上に投影している状態を示しているが、必ずしも実際に3次元データを投影して2次元画像上に表示させる必要はない。すなわち、対象物体33の3次元データを仮想的に投影して、計算によって複数のサンプル点を抽出することが可能である。
位置補正部16は、放射形状生成部13により生成された放射形状上に、サンプル点抽出部15により抽出されたサンプル点が位置するように、3次元データの位置補正を行う。例えば、位置補正部16は、いわゆるICP(Iterative Closest Point)アルゴリズムを用いて、放射形状の直線36とサンプル点35との対応を最近点により求め、当該求めた対応を最小化する変換処理を繰り返すことによって3次元データの位置補正を行う。
図5は、位置補正部16により3次元データの位置補正が行われた結果を示す図である。図5に示すように、3次元データの位置補正が行われると、3次元データ上から抽出した複数のサンプル点35は、放射形状生成部13により生成された放射形状を構成する複数の直線36上に位置することとなる。
空間情報取得部17は、このように位置補正部16により位置補正された3次元データから対象物体の3次元位置および姿勢の空間情報を取得する。3次元データは3次元のメッシュデータであるから、もともと対象物体の3次元位置・姿勢の空間情報を持っている。そこで、空間情報取得部17は、位置合わせされた3次元メッシュデータが持っている3次元位置・姿勢の空間情報を取得すればよい。
図6は、上記のように構成した本実施形態による画像処理装置100の動作例を示すフローチャートである。まず、2次元画像取得部11は、3次元位置・姿勢を把握しようとする対象物体を含む実空間を撮像することによって生成された2次元画像を単眼カメラ200から取得する(ステップS1)。
次に、境界抽出部12は、2次元画像取得部11により取得された2次元画像から対象物体の背景との境界を抽出する(ステップS2)。さらに、放射形状生成部13は、単眼カメラ200の中心位置と境界抽出部11により抽出された境界の各点とをそれぞれ結んでできる複数の直線により放射形状を3次元空間の座標系上に生成する(ステップS3)。
一方、3次元データ投影部14は、対象物体を表す3次元メッシュデータを2次元画像上の任意の初期位置(好ましくは、実際に対象物体がある位置の近傍)に投影する(ステップS4)。そして、サンプル点抽出部15は、3次元データ投影部14により2次元画像上に投影された対象物体の3次元データから、対象物体が2次元画像に写ったときに境界となる点を3次元データのサンプル点として抽出する(ステップS5)。
なお、ステップS1〜S5の処理は、必ずしも以上に説明した順序で処理する必要はない。例えば、ステップS4〜S5の処理を最初に行い、その後でステップS1〜S3の処理を行うようにしてもよい。または、ステップS1〜S3の処理とステップS4〜S5の処理とを同時に行うようにしてもよい。ただし、ステップS4の処理よりステップS2の処理を先に行っておくと、2次元画像上に写っている対象物体の位置が分かるので、実際に対象物体がある位置またはその近傍を、3次元データを投影する初期位置として推定することが可能である。
次に、位置補正部16は、例えばICPアルゴリズムを用いて、放射形状生成部13により生成された放射形状上に、サンプル点抽出部15により抽出されたサンプル点が位置するように、3次元データの位置補正を行う(ステップS6)。最後に、空間情報取得部17は、位置補正部16により位置補正された3次元データから対象物体の3次元位置および姿勢の空間情報を取得する(ステップS7)。これにより、図6に示すフローチャートの処理は終了する。
以上詳しく説明したように、本実施形態によれば、単眼カメラ200により撮像される対象物体の2次元画像から生成された3次元的な放射形状と対象物体の3次元データとの位置合わせを通じて、2次元画像による2次元空間と3次元データによる3次元空間とを結びつけることができる。3次元データは対象物体の3次元位置・姿勢を有しているので、位置合わせした3次元データから対象物体の正確な3次元位置・姿勢を取得することができる。これにより、処理対象とする空間が特徴点を多く有する空間であるか大きな空間であるかといった性質によらず、単眼カメラ200により撮像された2次元画像に写る対象物体の3次元位置・姿勢を精度よく検出することができる。
なお、上記実施形態では、3次元データの一例としてメッシュデータを用いる例について説明したが、対象物体の3次元位置・姿勢を有するデータであれば、メッシュデータ以外のデータを用いてもよい。例えば、CADデータを用いてもよい。CADデータは、複数の3次元空間上の曲面式および境界線を表す式により構成されている。各曲面式および境界線に関して、カメラ中心に向かう画像平面上への投影を考えると、CADデータは、画像平面上における2次元空間上の曲面式および境界線を表す式として表現される。このとき、対象物体を構成する全ての曲面および境界線を投影した形状の最外周線を取得することにより、対象物体が2次元画像に写ったときの境界線を取得することが可能である。サンプル点抽出部15は、この境界線上から複数のサンプル点を抽出する。ただし、CADデータをメッシュデータに変換した後に投影した方が、処理が早くなる点で好ましい。その他の3次元データについてもメッシュデータに変換することができれば本処理を適用することが可能である。
また、上記実施形態では、2次元画像から対象物体の境界を抽出する処理として、前景抽出処理により対象物体を抽出した後、抽出した対象物体から境界を抽出する例について説明したが、本発明はこれに限定されない。すなわち、これ以外の公知の手法により対象物体の境界を抽出するようにしてもよい。
また、上記実施形態では、カメラ中心と2次元画像から抽出された対象物体の境界の各点とをそれぞれ結んでできる複数の直線により放射形状を生成する例について説明したが、境界上の全ての点を通る放射形状である必要は必ずしもない。すなわち、対象物体の境界上からいくつかの代表点を抽出し、その抽出した代表点とカメラ中心とをそれぞれ結んでできる複数の直線により放射形状を生成するようにしてもよい。
また、上記実施形態では、ICPアルゴリズムを用いて3次元データの位置補正を行う例について説明したが、本発明はこれに限定されない。例えば、SoftassignアルゴリズムやEM−ICPアルゴリズムなど、3次元点群の位置合わせに用いられる他のアルゴリズムを利用してもよい。
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
11 2次元画像取得部
12 境界抽出部
13 放射形状生成部
14 3次元データ投影部
15 サンプル点抽出部
16 位置補正部
17 空間情報取得部
100 画像処理装置
200 単眼カメラ

Claims (4)

  1. 撮像装置を用いて実空間を撮像することにより生成される2次元画像を取得する2次元画像取得部と、
    上記2次元画像取得部により取得された上記2次元画像から対象物体の境界を抽出する境界抽出部と、
    上記撮像装置の中心位置と上記境界抽出部により抽出された境界の各点とをそれぞれ結んでできる複数の直線により放射形状を3次元空間の座標系上に生成する放射形状生成部と、
    上記対象物体を表す3次元データを上記2次元画像上に投影する3次元データ投影部と、
    上記2次元画像上に投影した上記対象物体の3次元データから、上記対象物体が上記2次元画像に写ったときに境界となる点を上記3次元データのサンプル点として抽出するサンプル点抽出部と、
    上記放射形状生成部により生成された放射形状上に、上記サンプル点抽出部により抽出されたサンプル点が位置するように、上記3次元データの位置および姿勢を並行して調整して上記3次元データの位置補正を行う位置補正部と、
    上記位置補正部により位置補正された上記3次元データから上記対象物体の3次元位置および姿勢の空間情報を取得する空間情報取得部とを備えたことを特徴とする画像処理装置。
  2. 上記位置補正部は、上記放射形状生成部により生成された放射形状と、上記サンプル点抽出部により抽出されたサンプル点との対応を最近点により求め、当該求めた対応を最小化する変換処理を繰り返すことによって上記3次元データの位置補正を行うことを特徴とする請求項1記載の画像処理装置。
  3. 上記3次元データは、上記対象物体と同一形状を、三角形または四角形から成る複数のメッシュで表現した3次元のメッシュデータであることを特徴とする請求項1または2に記載の画像処理装置。
  4. 画像処理装置の2次元画像取得部が、撮像装置を用いて実空間を撮像することにより生成される2次元画像を取得する第1のステップと、
    上記画像処理装置の境界抽出部が、上記2次元画像取得部により取得された上記2次元画像から対象物体の境界を抽出する第2のステップと、
    上記画像処理装置の放射形状生成部が、上記撮像装置の中心位置と上記境界抽出部により抽出された境界の各点とをそれぞれ結んでできる複数の直線により放射形状を3次元空間の座標系上に生成する第3のステップと、
    上記画像処理装置の3次元データ投影部が、上記対象物体を表す3次元データを上記2次元画像上に投影する第4のステップと、
    上記画像処理装置のサンプル点抽出部が、上記2次元画像上に投影した上記対象物体の3次元データから、上記対象物体が上記2次元画像に写ったときに境界となる点を上記3次元データのサンプル点として抽出する第5のステップと、
    上記画像処理装置の位置補正部が、上記放射形状生成部により生成された放射形状上に、上記サンプル点抽出部により抽出されたサンプル点が位置するように、上記3次元データの位置および姿勢を並行して調整して上記3次元データの位置補正を行う第6のステップと、
    上記画像処理装置の空間情報取得部が、上記位置補正部により位置補正された上記3次元データから上記対象物体の3次元位置および姿勢の空間情報を取得する第7のステップとを有することを特徴とする3次元空間情報取得方法。
JP2014004213A 2014-01-14 2014-01-14 画像処理装置および3次元空間情報取得方法 Active JP6347610B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014004213A JP6347610B2 (ja) 2014-01-14 2014-01-14 画像処理装置および3次元空間情報取得方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014004213A JP6347610B2 (ja) 2014-01-14 2014-01-14 画像処理装置および3次元空間情報取得方法

Publications (2)

Publication Number Publication Date
JP2015132544A JP2015132544A (ja) 2015-07-23
JP6347610B2 true JP6347610B2 (ja) 2018-06-27

Family

ID=53899850

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014004213A Active JP6347610B2 (ja) 2014-01-14 2014-01-14 画像処理装置および3次元空間情報取得方法

Country Status (1)

Country Link
JP (1) JP6347610B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6430987B2 (ja) * 2016-03-31 2018-11-28 セコム株式会社 参照点位置決定装置
CN105928457B (zh) * 2016-06-21 2019-10-11 大连理工大学 一种全向三维激光彩色扫描系统及其方法
CN112837404B (zh) * 2019-11-25 2024-01-19 北京初速度科技有限公司 一种平面对象的三维信息的构建方法及装置
CN112017229B (zh) * 2020-09-06 2023-06-27 桂林电子科技大学 一种相机相对位姿求解方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3667727B2 (ja) * 2002-10-09 2005-07-06 隆治 山崎 物体の位置測定方法及びその装置

Also Published As

Publication number Publication date
JP2015132544A (ja) 2015-07-23

Similar Documents

Publication Publication Date Title
JP6723061B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2019534510A5 (ja)
Orghidan et al. Camera calibration using two or three vanishing points
JP2011179907A (ja) 位置姿勢計測装置、位置姿勢計測方法およびプログラム
WO2015006224A1 (en) Real-time 3d computer vision processing engine for object recognition, reconstruction, and analysis
JP6836561B2 (ja) 画像処理装置及び画像処理方法
JPWO2014061372A1 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP6310288B2 (ja) 画像処理装置および3次元物体トラッキング方法
JP6584208B2 (ja) 情報処理装置、情報処理方法、プログラム
JP6054831B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP7064257B2 (ja) 画像深度確定方法及び生き物認識方法、回路、装置、記憶媒体
JP6594170B2 (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
JP6347610B2 (ja) 画像処理装置および3次元空間情報取得方法
JP6172432B2 (ja) 被写体識別装置、被写体識別方法および被写体識別プログラム
WO2023093739A1 (zh) 一种多视图三维重建的方法
CN108876704B (zh) 人脸图像变形的方法、装置及计算机存储介质
JP7298687B2 (ja) 物体認識装置及び物体認識方法
JP2015032256A (ja) 画像処理装置およびそのデータベース構築装置
KR101673144B1 (ko) 부분 선형화 기반의 3차원 영상 정합 방법
JP6198104B2 (ja) 3次元物体認識装置及び3次元物体認識方法
JP6890422B2 (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP2011022084A (ja) 三次元姿勢測定装置および三次元姿勢測定方法
JP5620741B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2022064506A (ja) 画像処理装置、画像処理方法、及びプログラム
WO2022186141A1 (ja) ニューラルネットワークのネットワークパラメータの学習方法、カメラパラメータの算出方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180529

R150 Certificate of patent or registration of utility model

Ref document number: 6347610

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250