JP6840968B2 - 形状推定方法、形状推定装置および形状推定プログラム - Google Patents

形状推定方法、形状推定装置および形状推定プログラム Download PDF

Info

Publication number
JP6840968B2
JP6840968B2 JP2016183497A JP2016183497A JP6840968B2 JP 6840968 B2 JP6840968 B2 JP 6840968B2 JP 2016183497 A JP2016183497 A JP 2016183497A JP 2016183497 A JP2016183497 A JP 2016183497A JP 6840968 B2 JP6840968 B2 JP 6840968B2
Authority
JP
Japan
Prior art keywords
feature points
shape
image information
dimensional
dimensional shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016183497A
Other languages
English (en)
Other versions
JP2018049396A (ja
Inventor
昌平 中潟
昌平 中潟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2016183497A priority Critical patent/JP6840968B2/ja
Priority to US15/683,318 priority patent/US10453206B2/en
Publication of JP2018049396A publication Critical patent/JP2018049396A/ja
Application granted granted Critical
Publication of JP6840968B2 publication Critical patent/JP6840968B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/107Static hand or arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Description

本発明は、形状推定方法等に関する。
複数の視点からカメラに撮影された被写体の画像情報を基にして、被写体の3次元形状を復元する技術がある。例えば、被写体の3次元形状は、3次元上で被写体を構成する複数の特徴点と、3次元座標とを対応付けた情報である。
ここで、一台のカメラを用いて視点を変えながら撮影した複数枚の画像情報を用いて3次元形状を復元する場合には、SfM(Structure from Motion)と呼ばれる従来技術が用いられる。図29および図30は、SfMを説明するための図である。SfMは、手順1、手順2を順に実行する。
図29を用いて手順1について説明する。SfMは、各画像情報から特徴点を抽出して、画像情報間で最も合致する特徴点同士をマッチングする。図29に示す画像情報10、11、12は、それぞれ、一台のカメラによって、異なる撮影方向、異なるタイミングで撮影された画像情報である。画像情報10〜12には、同一の被写体が含まれている。
SfMは、SIFT(Scale-Invariant Feature Transform)特徴量に基づき各画像情報10〜12の特徴点を算出する。図29では一例として、画像情報10から特徴点10a,10b,10cが算出され、画像情報11から特徴点11a,11b,11cが算出され、画像情報12から特徴点12a,12b,12cが算出された場合を示す。SfMは、各特徴点10a〜10c,11a〜11c,12a〜12cのマッチングをそれぞれ行う。例えば、SfMは、特徴点10a,11a,12aを対応付ける。SfMは、特徴点10b,11b,12bを対応付ける。SfMは、特徴点10c,11c,12cを対応付ける。
図30を用いて手順2について説明する。以下の説明では、適宜、3次元上の被写体の特徴点を「マップ点」と表記し、カメラパラメータに基づき、マップ点を画像情報に投影した点を「投影点」と表記する。投影点20a〜20cは、マップ点30a〜30cを、画像情報10上に投影した点である。投影点21a〜21cは、マップ点30a〜30cを、画像情報11上に投影した点である。投影点22a〜22cは、マップ点30a〜30cを、画像情報12上に投影した点である。
SfMは、各画像情報において、各特徴点と各投影点とを対応付け、対応付けた各特徴点と各投影点との差の2乗和が最小となるように、各マップ点の3次元座標、カメラパラメータの値を変更しながら、探索を実行する。図30に示す例では、特徴点10a〜10cが、投影点20a〜20cにそれぞれ対応付けられる。特徴点11a〜11cが、投影点21a〜21cにそれぞれ対応付けられる。特徴点12a〜12cが、投影点22a〜22cにそれぞれ対応付けられる。対応付けた各特徴点と各投影点との差の2乗和が最小となるマップ点30a〜30cの3次元座標が、復元された被写体の3次元形状となる。
ここで、上記のSfMは、画像情報中にノイズが含まれていると、ノイズに引きずられて最適値から外れたマップ点の3次元座標、カメラパラメータが推定される場合がある。
図31は、ノイズの影響を説明するための図である。図31に示す例では、ノイズとなるマップ点30dが発生している。これにより、図30で説明した対応付けに加えて、特徴点10dと投影点20dとの対応付け、特徴点11dと投影点21dとの対応付け、特徴点12dと投影点22dとの対応付けが行われる。上記のSfMでは、対応付けた各特徴点と各投影点との差の2乗和が最小となるように、各マップ点の3次元座標、カメラパラメータの値が探索されるため、ノイズの影響を受けてしまう。この問題を解消するために、従来では、RANSAC(Random sample consensus)と呼ばれる技術を用いて、ノイズを除去した後に、SfMを実行している。
特開2000−194859号公報 特開2002−032745号公報 特開2012−208759号公報 特開2014−063376号公報
しかしながら、上述した従来技術では、被写体が動体である場合には、一台のカメラで撮影した複数の画像情報から被写体の3次元形状を推定することができないという問題がある。
上述したSfMは、被写体が静止していることが前提となっており、仮に被写体が動いてしまうと、かかる被写体がRANSACによりノイズと判定され、除去されてしまい、3次元形状を推定することができない。また、単にRANSACによるノイズ除去を行わない対応では、図31で説明したように、ノイズ成分を含んだ状態で処理を行うため、被写体の3次元形状の推定精度が低下してしまう。
図32は、従来技術の問題点を説明するための図である。図32の画像情報15は、時刻t1において、カメラ50により撮影された画像情報である。画像情報16は、時刻t2において、カメラ50により撮影された画像情報である。なお、時刻t1のカメラ50の位置と、時刻t2のカメラ50の位置は異なるものとする。画像情報15,16には、被写体17が存在し、被写体17は静止している。このため、従来のSfMによって、被写体17の3次元形状を推定することが可能である。
画像情報18は、時刻t1において、カメラ50により撮影された画像情報である。画像情報19は、時刻t2において、カメラ50により撮影された画像情報である。なお、時刻t1のカメラ50の位置と、時刻t2のカメラ50の位置とは異なるものとする。画像18,19には、被写体17aと被写体17bが存在し、被写体17aは静止しているが、被写体17bは、動いているものとする。この場合には、被写体17bの特徴点がノイズと見なされ、対応点フィッティング時に除去される。このため、被写体17a、17bのうち、被写体17aの3次元形状のみ推定することが可能となる。
なお、被写体が動体である場合には、同期した複数のカメラで撮影した複数の画像情報を用いて、3次元形状の推定を行うことができるが、制御が複雑になる場合や、コストが高くなるという問題が発生する。
1つの側面では、本発明は、一台のカメラで撮影した複数の画像情報から被写体の3次元形状を推定することができる形状推定方法、形状推定装置および形状推定プログラムを提供することを目的とする。
第1の案では、コンピュータが下記の処理を実行する。コンピュータは、同一の被写体を撮影した時間差のある複数の画像情報から複数の特徴点を抽出する。コンピュータは、複数の特徴点から一部の特徴点を選択し、選択した一部の特徴点に基づく被写体の3次元形状の推定に成功した場合に、複数の特徴点から一部の特徴点を除去する処理を繰り返し行うことで、複数の3次元形状を推定する。コンピュータは、複数の3次元形状を統合する。
異なる時間に異なる視点から撮影された画像情報に基づいて、同一の被写体の3次元形状を算出することができる。
図1は、座標系の変換を説明するための図(1)である。 図2は、座標系の変換を説明するための図(2)である。 図3は、座標系の変換を説明するための図(3)である。 図4は、SfMの説明を補足するための図である。 図5は、RANSACにより復元される集合Qの一例を示す図である。 図6は、RANSACの計算例を説明するための図(1)である。 図7は、RANSACの計算例を説明するための図(2)である。 図8は、RANSACの計算例を説明するための図(3)である。 図9は、RANSACの計算例を説明するための図(4)である。 図10は、RANSACの計算例を説明するための図(5)である。 図11は、RANSACの計算例を説明するための図(6)である。 図12は、本実施例に係る形状推定装置の処理を説明するための図(1)である。 図13は、本実施例に係る形状推定装置の処理を説明するための図(2)である。 図14は、本実施例に係る形状推定装置の処理を説明するための図(3)である。 図15は、本実施例に係る形状推定装置の処理を説明するための図(4)である。 図16は、本実施例に係る形状推定装置の処理を説明するための図(5)である。 図17は、3次元形状の座標変換を説明するための図である。 図18は、本実施例に係る形状推定装置の構成を示す機能ブロック図である。 図19は、画像テーブルのデータ構造の一例を示す図である。 図20は、3次元形状テーブルのデータ構造の一例を示す図である。 図21は、3次元形状に対応する画像情報の領域を削除する処理の一例を説明するための図(1)である。 図22は、3次元形状に対応する画像情報の領域を削除する処理の一例を説明するための図(2)である。 図23は、3次元形状に対応する画像情報の領域を削除する処理の一例を説明するための図(3)である。 図24は、統合部の処理を説明するための図(1)である。 図25は、統合部の処理を説明するための図(2)である。 図26は、座標変換を説明するための図である。 図27は、本実施例に係る形状推定装置の処理手順を示すフローチャートである。 図28は、形状推定装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。 図29は、SfMを説明するための図(1)である。 図30は、SfMを説明するための図(2)である。 図31は、ノイズの影響を説明するための図である。 図32は、従来技術の問題点を説明するための図である。
以下に、本願の開示する形状推定方法、形状推定装置および形状推定プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。
本実施例の説明を行う前に、カメラパラメータの説明、SfMの詳細な説明、RANSACの詳細について説明する。
カメラパラメータについて説明する。カメラパラメータには、外部パラメータと内部パラメータとがある。外部パラメータには、カメラの位置を表す並進ベクトルTと、カメラの向きを表す回転行列Rとがある。並進ベクトルTは、式(1)によって示され、回転行列Rは、式(2)によって示される。
Figure 0006840968
Figure 0006840968
内部パラメータには、カメラの焦点距離等を表すカメラ行列Aと、レンズの歪みを表す歪みパラメータとがある。カメラ行列Aは、式(3)によって示される。式(3)において、f、fは、焦点距離を示す。c、cは、カメラが撮影した画像情報の主点(中心座標)を示す。歪みパラメータは、n成分で示される。
Figure 0006840968
カメラパラメータを用いた座標系の変換について説明する。図1は、座標系の変換を説明するための図(1)である。図1において、点Pは、3次元空間上のある点を示し、点Pの座標を(X,Y,Z)とする。点0は、カメラ位置(光心)を示す。ここで、点Pの座標と、点Pをカメラの画像平面40に投影した際の位置Q(u,v)との間で成り立つ関係式は、式(4)となる。式(4)に含まれる「s」は、式(5)に示す条件を満たすものであり、式(6)で定義される。
Figure 0006840968
Figure 0006840968
Figure 0006840968
続いて、以下の条件A1、条件A2を満たすように3次元座標系を変換する。図2は、座標系の変換を説明するための図(2)である。
条件A1:カメラの位置が原点(0,0,0)となる。
条件A2:カメラの向きがz軸の正の方向となり、投影面41がz=1上に乗る。
条件A1、条件A2を満たすように3次元座標系を変換する変換式は、式(7)に示すものとなる。式(7)により変換した座標を、z=1の投影面41に投影すると、変換した座標は(x/z,y/z,1)となる。以下の説明では、座標(x/z,y/z,1)を式(8)のように置き換える。
Figure 0006840968
Figure 0006840968
投影面41の座標(x、y)を、カメラの画像平面40の座標に変換する場合の変換式は、式(9)に示すものとなる。図3は、座標系の変換を説明するための図(3)である。式(9)に、式(3)を代入することで、式(10)に示すものとなる。
Figure 0006840968
Figure 0006840968
上述した説明に鑑みると、図1に示した3次元座標上の点Pの座標(X,Y,Z)と、カメラの画像平面40上の点Q(u,v)との関係は、式(11)によって表すことができる。また、式(11)において、z=1として変形すると、式(12)が成立する。
Figure 0006840968
Figure 0006840968
続いて、SfMの詳細な説明を行う。図4は、SfMの説明を補足するための図である。なお、下記のように変数の定義を行う。
n:3次元空間上の特徴点(マップ点)の数
:j番目の特徴点(マップ点)の3次元座標(推定対象)1≦j≦n
m:画像情報の数
ij:i番目の画像情報45における、j番目の特徴点の2次元座標(既知)1≦i≦m
:i番目の画像情報45を撮影したカメラの3×3カメラ行列(推定対象)
:i番目の画像情報45を撮影したカメラの3×3回転行列(推定対象)
:i番目の画像情報45を撮影したカメラの3×1並進成分(推定対象)
:A、R、Tの未知のパラメータを並べたもの
マップ点を画像情報45に投影した投影点の2次元座標は、式(13)で定義される。また、式(13)のz’ij(p,q)は、式(14)で表すことができる。
Figure 0006840968
Figure 0006840968
再投影誤差の定義を行う。画像情報45の特徴点の2次元座標zijと、投影点z’ij(p,q)との二乗誤差は、式(15)で定義される。
Figure 0006840968
式(15)で定義した二乗誤差を、各画像情報iと各マップ点jの全てで足し合わせたものを「再投影誤差」と定義する。再投影誤差は、式(16)によって表される。
Figure 0006840968
SfMは、3次元座標qと、カメラパラメータpの値を変更しながら、式(16)で定義した再投影誤差を繰り返し算出し、再投影誤差が最小となる、3次元座標qと、カメラパラメータpの値を求める。求めた3次元座標qが、被写体の3次元形状となる。
続いて、RANSACの詳細について説明する。RANSACは、以下の手順(a)、手順(b)、手順(c)、手順(d)、手順(e)を順に実行する。
手順(a)について説明する。RANSACは、画像情報45に含まれるn個の特徴点からk個の特徴点をランダムに選出する。なお、下記のように変数の定義を行う。
K:画像情報45から選出された特徴点インデックスの集合
既知条件は下記のものとなる。
ij:i番目(1≦i≦m)の画像情報における、j番目(j∈K)の特徴点の2次元座標
推定対象は以下のものとなる。
:j番目の特徴点(マップ点)の3次元座標(j∈K)
:カメラパラメータ(1≦i≦m)
手順(b)について説明する。RANSACは、式(17)を最小にするパラメータp,qを求める。
Figure 0006840968
手順(c)について説明する。RANSACは、パラメータp,qを求めた後に、全てのzijに関して、zijとz’ij(p,q)との距離を調べ、距離が近いものがどの程度あるかの評価関数を計算する。以下において、評価関数の計算例を示す。
評価関数をF(x)とする。ただし、評価関数F(x)のxは、式(18)で定義する。また、式(19)に示すローカル評価値fを定義する。閾値thは、予め設定される値である。なお、ローカル評価値fは、式(20)に示すような正規分布でもよい。σは予め設定される値である。
Figure 0006840968
Figure 0006840968
Figure 0006840968
RANSACは、評価関数F(x)を、式(21)により計算する。
Figure 0006840968
手順(d)について説明する。RANSACは、手順(c)で求めた評価関数F(x)の値と、パラメータxを、それぞれ変数F、xに登録する。
手順(e)について説明する。RANSACは、上記の手順(a)〜手順(c)の計算を繰り返し実行し、各繰り返しでF(x)>Fとなる場合に、手順(d)の処理で、F、xを更新する。
上記の手順(a)〜手順(e)によって、求まったxを、式(22)に示すものとする。
Figure 0006840968
上記の式(22)に示す3次元位置、q 、・・・、q のうちで、式(23)で定義する集合Qを、ノイズでない特徴点(マップ点)として、3次元形状を復元する。式(23)の右側に記載の条件は、例えば、「i番目の画像情報において、再投影誤差が閾値th2となる割合が8割以上」のような条件であっても良い。
Figure 0006840968
図5は、RANSACにより復元される集合Qの一例を示す図である。図5は、2次元空間上でパラメータを推定して、ノイズでない特徴点を抽出した例である。2次元空間上のパラメータは、直線の傾き、切片となる。ノイズでない特徴点の集合Qは、破線46a,46bに挟まれる各特徴点である。
ここで、RANSACの計算例について説明する。図6〜図11は、RANSACの計算例を説明するための図である。図6〜図11の横軸はx軸であり、縦軸はy軸である。ここでは一例として、2次元座標上で、直線(y=ax+b)を推定する例について説明する。推定対象のパラメータは傾き「a」と、切片「b」となる。
RANSACの計算を行う際の条件を、以下に示す条件B1、条件B2、条件B3とする。
条件B1:y=2x+5の直線近辺に存在する点を200点とする。直線近辺に存在する点をダイヤ印で示す。直線近辺に存在する点は、直線上から標準偏差0.1の正規分布に従ってずれる。
条件B2:ランダムに配置された点を200点とする。ランダムに配置された点を四角印で示す。各点は、0≦x≦10、5≦y≦25の範囲で、ランダムに配置される。
条件B3:全400点を、区別しない状態で、RANSACにより直線を推定する。
RANSACの計算例の手順を手順C1、手順C2、手順C3、手順C4とする。
手順C1:5点をランダムに選出する。
手順C2:5点を回帰分析してa,bを算出。
手順C3:推定した直線(y=ax+b)と、入力の400点とでy座標の絶対値差分をそれぞれ算出する。400点の内、絶対値差分が0.3以下となる点の数を、投票数としてカウントする。
手順C4:手順C1〜C3を繰り返し実行し、投票数の多いパラメータを現状の最適値として随時更新する。
RANSACによる1回目の計算例を、図7を用いて説明する。図7において、RANSACを実行する装置は、手順C1に従い、400点の中から点1a〜1eをランダムに選択する。装置は、手順C2に従い、回帰分析を実行することで、a=−0.610、b=23.9112を算出する。係るa,bに基づく直線は、直線1fとなる。装置は、手順C3に従い、投票数を算出すると、投票数は「6」となる。1回目の計算では、装置は、最適値を「a=−0.610、b=23.9112、投票数6」を初期設定する。
RANSACによる2回目の計算例を、図8を用いて説明する。図8において、RANSACを実行する装置は、手順C1に従い、400点の中から点2a〜2eをランダムに選択する。装置は、手順C2に従い、回帰分析を実行することで、a=1.596、b=8.967を算出する。係るa,bに基づく直線は、直線2fとなる。装置は、手順C3に従い、投票数を算出すると、投票数は「29」となる。装置は、手順C4に従い、最適値の投票数「6」と、2回目の計算例の投票数「29」とを比較すると、2回目の計算例の投票数が上回る。このため、装置は、最適値を「a=1.596、b=8.967、投票数29」に更新する。
RANSACによる3回目の計算例を、図9を用いて説明する。図9において、RANSACを実行する装置は、手順C1に従い、400点の中から点3a〜3eをランダムに選択する。装置は、手順C2に従い、回帰分析を実行することで、a=0.660、b=7.554を算出する。係るa,bに基づく直線は、直線3fとなる。装置は、手順C3に従い、投票数を算出すると、投票数は「19」となる。装置は、手順C4に従い、最適値の投票数「29」と、3回目の計算例の投票数「19」とを比較すると、最適値の投票数が上回る。このため、装置は、最適値を「a=1.596、b=8.967、投票数29」のままにする。
RANSACによる4回目の計算例を、図10を用いて説明する。図10において、RANSACを実行する装置は、手順C1に従い、400点の中から点4a〜4eをランダムに選択する。装置は、手順C2に従い、回帰分析を実行することで、a=2.037、b=4.886を算出する。係るa,bに基づく直線は、直線4fとなる。装置は、手順C3に従い、投票数を算出すると、投票数は「195」となる。装置は、手順C4に従い、最適値の投票数「29」と、4回目の計算例の投票数「195」とを比較すると、4回目の計算例の投票数が上回る。このため、装置は、最適値を「a=2.037、b=4.886、投票数195」に更新する。
RANSACによる5回目の計算例を、図11を用いて説明する。図11において、RANSACを実行する装置は、手順C1に従い、400点の中から点5a〜5eをランダムに選択する。装置は、手順C2に従い、回帰分析を実行することで、a=1.725、b=5.454を算出する。係るa,bに基づく直線は、直線5fとなる。装置は、手順C3に従い、投票数を算出すると、投票数は「53」となる。装置は、手順C4に従い、最適値の投票数「195」と、5回目の計算例の投票数「53」とを比較すると、最適値の投票数が上回る。このため、装置は、最適値を「a=2.037、b=4.886、投票数195」のままとする。
上記のように、例えば、RANSACによる計算を行うことで、最適値「a=2.037、b=4.886、投票数195」が推定される。
次に、本実施例に係る形状推定装置の処理について説明する。図12〜図16は、本実施例に係る形状推定装置の処理を説明するための図である。形状推定装置は、手順X1〜X6を順に実行する。
形状推定装置の手順X1の処理を、図12を用いて説明する。形状推定装置は、画像情報60と、画像情報61とに対して、SfMを実行することで、静止物の3次元形状を推定する。図示を省略するが、形状推定装置は、画像情報60,61以外の他の画像情報を更に用いて、SfMを実行しても良い。
画像情報60は、時刻t1において、カメラ50により撮影された画像の情報である。画像情報61は、時刻t2において、カメラ50により撮影された画像の情報である。時刻t1におけるカメラの位置と、時刻t2におけるカメラの位置とは異なるものとする。画像情報60,61には、被写体60aと被写体60bとが含まれる。被写体60aは静止物とし、被写体60bを動体とする。
形状推定装置は、RANSACによる処理を実行し、画像情報60,61に含まれるノイズを除去した後に、SfMを実行することで、被写体60aの3次元形状70aを推定する。なお、被写体60bは、動体であるため、RANSACによりノイズと見なされ除去される。
形状推定装置の手順X2の処理を、図13を用いて説明する。形状推定装置は、手順X1で推定した被写体60aの3次元形状70aに対応する領域を、画像情報60,61から削除する。
形状推定装置は、3次元形状70aを、画像情報60に投影し、3次元形状70aに対応する被写体60aの領域を特定し、除去することで、画像情報60−1を生成する。形状推定装置は、3次元形状70aを、画像情報61に投影し、3次元形状70aに対応する被写体60aの領域を特定し、除去することで、画像情報61−1を生成する。
形状推定装置の手順X3の処理を、図14を用いて説明する。形状推定装置は、画像情報60−1と、画像情報61−1に対して、RANSACを実行すると、被写体60bのうち、動きが大きく面積の小さい部分がノイズとして除去され、動きが少なく面積の大きい、足と胴の部分が残る。形状推定装置は、残った部分に対してSfMを実行することで、3次元形状70bを推定する。
形状推定装置の手順X4の処理を説明する。形状推定装置は、3次元形状70bを、画像情報60−1に投影し、3次元形状70bに対応する画像情報60−1の領域を特定し、除去することで、画像情報60−2を生成する。形状推定装置は、3次元形状70bを、画像情報61−1に投影し、3次元形状70bに対応する画像情報61−1の領域を特定し、除去することで、画像情報61−2を生成する。
形状推定装置の手順X5の処理を、図15を用いて説明する。形状推定装置は、画像情報60−2と、画像情報61−2に対して、RANSACを実行すると、例えば、被写体60cのうち、最も面積の大きい顔が残り、他の部分がノイズとして除去される。形状推定装置は、残った顔に対してSfMを実行することで、3次元形状70cを推定する。
形状推定装置の手順X6を、図16を用いて説明する。形状推定装置は、上記の手順X1〜X5で推定した各3次元形状70a〜70cを統合する。形状推定装置は、統合を行う場合に、基準にする時刻の指定を受け付け、受け付けた時刻に合わせて、各3次元形状70a〜70cの3次元座標を変換した後に、結合を実行する。
図16のY1は、時刻t1を基準にして統合する例を示す。Y1に示すように、3次元形状70a〜70cを統合することで、3次元形状80aを得る。図16のY2は、時刻t2を基準にして統合する例を示す。Y2に示すように、3次元形状70a〜70cを統合することで、3次元形状80bを得る。
図17は、3次元形状の座標変換を説明するための図である。形状推定装置が、SfMを繰り返し実行して、3次元形状70a,70b,70cを推定する場合に、カメラ50の相対関係が異なっている。
形状推定装置が、1回目のSfMを実行して3次元形状70aを推定した場合のカメラ50(時刻t1)の位置を、位置50a(1)とし、カメラ50(時刻t2)の位置を位置50b(1)とする。形状推定装置が、2回目のSfMを実行して3次元形状70bを推定した場合のカメラ50(時刻t1)の位置を、位置50a(2)とし、カメラ50(時刻t2)の位置を位置50b(2)とする。形状推定装置が、3回目のSfMを実行して3次元形状70cを推定した場合のカメラ50(時刻t1)の位置を、位置50a(3)とし、カメラ50(時刻t2)の位置を位置50b(3)とする。
位置50a(1)と位置50b(1)との相対位置を、相対位置(1)とする。位置50a(2)と位置50b(2)との相対位置を、相対位置(2)とする。位置50a(3)と位置50b(3)との相対位置を、相対位置(3)とする。そうすると、相対位置(1)、相対位置(2)、相対位置(3)が異なっている。
形状推定装置は、相対位置(1)、相対位置(2)、相対位置(3)が同じとなるように、3次元形状70a〜70cを座標変換した後に、統合を行う。図17に示す例では、時刻t2に撮影したカメラの位置50b(1)〜(3)を基準として、3次元形状70a〜70cの座標変換を行い、統合を行うことで、3次元形状80bを得る例を示す。
次に、本実施例に係る形状推定装置の構成について説明する。図18は、本実施例に係る形状推定装置の構成を示す機能ブロック図である。図18に示すように、形状推定装置100は、入力部110と、記憶部120と、制御部130とを有する。
入力部110は、カメラ50により異なる時刻に撮影された画像情報の入力を受け付ける入力インタフェースである。入力部110は、複数の画像情報を、制御部130に出力する。入力部110が入力を受け付ける画像情報は、撮影時刻の情報が付与されているものとする。
記憶部120は、画像テーブル121と、3次元形状テーブル122と、統合形状情報123を有する。記憶部120は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子や、HDD(Hard Disk Drive)などの記憶装置に対応する。
画像テーブル121は、画像情報に関する情報を保持するテーブルである。図19は、画像テーブルのデータ構造の一例を示す図である。図19に示すように、この画像テーブル121は、撮影時刻と、画像情報と、特徴点情報とを対応付ける。撮影時刻は、カメラ50が、画像を撮影した時刻を示す。画像情報は、該当する撮影時刻にカメラにより撮影された画像の情報である。特徴点情報は、SIFT特徴量に基づき、撮影画像から算出される特徴点の情報である。特徴点の情報は、例えば、各特徴点の2次元座標、特徴点の特徴量等を有する。
3次元形状テーブル122は、SfMを実行することにより推定される3次元形状の情報を有する。図20は、3次元形状テーブルのデータ構造の一例を示す図である。図20に示すように、この3次元形状テーブル122は、識別情報と、3次元形状と、パラメータとを対応付ける。識別情報は、統合前の各3次元形状を一意に識別する情報である。3次元形状は、3次元形状を構成する各マップ点の3次元座標(q〜q)を示す情報である。パラメータは、3次元形状を推定した時点のカメラのパラメータ(p〜p)を示す情報である。上記のようにパラメータpは、A、R、Tを並べたものに対応する。
統合形状情報123は、3次元形状テーブル122の各3次元形状を統合した結果となる情報である。
図18の説明に戻る。制御部130は、受付部131、抽出部132、推定部133、統合部134を有する。制御部130は、CPU(Central Processing Unit)やMPU(Micro Processing Unit)などによって実現できる。また、制御部130は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などのハードワイヤードロジックによっても実現できる。
受付部131は、入力部110から複数の画像情報を受け付ける処理部である。受付部131は、撮影時刻と、画像情報とを対応付けて、画像テーブル121に格納する。受付部131は、入力部110から、画像情報を受け付ける度に、上記処理を繰り返し実行する。
抽出部132は、画像テーブル121に格納された各画像情報から特徴点を抽出し、抽出した特徴点の情報を、画像情報と対応付けて、画像テーブル121に格納する処理部である。例えば、抽出部132は、画像情報のSIFT特徴量に基づき、特徴点および特徴点に対応する特徴量を計算する。
推定部133は、各撮影時刻に撮影された画像情報および特徴点の情報を基にして、RANSACによるノイズの除去、SfMによる3次元形状の推定を繰り返し実行することで、段階毎の3次元形状を推定する処理部である。例えば、推定部133の処理は、上述した手順X1〜X5の処理に対応する。
推定部133は、図12に示した手順X1の処理を実行することで、3次元形状70aのマップ点q〜qと、その時のカメラのパラメータp〜pを推定し、3次元形状テーブル122に登録する。また、推定部133は、図13に示した手順X2の処理を実行することで、各時刻に撮影された画像情報から、3次元形状70aに対応する領域を削除することで、画像情報60−1,61−1を生成する。
推定部133は、図14に示した手順X3を実行することで、3次元形状70bのマップ点q〜qと、その時のカメラのパラメータp〜pを推定し、3次元形状テーブル122に登録する。また、推定部133は、手順X4の処理を実行することで、3次元形状70bに対応する領域を、画像情報60−1,61−1から削除することで、画像情報60−2,61−2を生成する。
推定部133は、図15に示した手順X5を実行することで、3次元形状70cのマップ点q〜qと、その時のカメラのパラメータp〜pを推定し、3次元形状テーブル122に登録する。
ここで、推定部133が、推定に成功した3次元形状に対応する画像情報の領域を削除する処理の一例について説明する。図21〜図23は、3次元形状に対応する画像情報の領域を削除する処理の一例を説明するための図である。図21について説明する。画像情報75の黒丸および白丸は、画像情報75から抽出された特徴点である。黒丸は、推定に成功した3次元形状のマップ点に対応する特徴点を示す。白丸は、その他の特徴点に対応する。以下、適宜、黒丸を第1特徴点と表記し、白丸を第2特徴点と表記する。
図22の説明に移行する。推定部133は、第1特徴点を含む領域に対して、ドロネー三角形分割を行う。図22に示す例では、推定部133は、領域1a〜1αに分割する。
図23の説明に移行する。推定部133は、各領域1a〜1αについて、第2特徴点がどの程度含まれているかにより、削除する領域を判定する。例えば、ある領域に含まれる第2特徴点の数が閾値未満である場合に、該当するある領域を削除する。例えば、図23に示す例では、領域1a〜1n,領域1w〜1αを削除し、領域1o〜1vを残す。
図18の説明に戻る。統合部134は、3次元形状テーブル122に格納された各3次元形状を統合することで、統合形状情報123を生成する処理部である。統合部134には、各3次元形状を結合する場合の基準とするカメラの撮影時刻を事前に指定されているものとする。
ここで、k回目の繰り返し処理(SfM)で推定されるカメラのパラメータと、3次元形状の位置を下記のように定義する。
(k):i番目の画像情報を撮影したカメラの3×3カメラ行列
(k):i番目の画像情報を撮影したカメラの3×3回転行列
(k):i番目の画像情報を撮影したカメラの3×1並進成分
(k):j番目の特徴点(マップ点)の3次元座標
図24、図25は、統合部の処理を説明するための図である。図24、図25では、一例として、時刻t2のカメラのパラメータを基準にして、各3次元形状70a,70b,70cを統合する場合について説明する。
図24について説明する。1回目のSfMにより推定した3次元形状70aのマップ点の各座標をq (1)とする。1回目のSfMにより推定した、時刻t1において画像を撮影したカメラ50のパラメータをA (1),R (1),T (1)とする。1回目のSfMにより推定した、時刻t2において画像を撮影したカメラ50のパラメータをA (1),R (1),T (1)とする。
2回目のSfMにより推定した3次元形状70bのマップ点の各座標をq (2)とする。2回目のSfMにより推定した、時刻t1において画像を撮影したカメラ50のパラメータをA (2),R (2),T (2)とする。2回目のSfMにより推定した、時刻t2において画像を撮影したカメラ50のパラメータをA (2),R (2),T (2)とする。
3回目のSfMにより推定した3次元形状70cのマップ点の各座標をq (3)とする。3回目のSfMにより推定した、時刻t1において画像を撮影したカメラ50のパラメータをA (3),R (3),T (3)とする。3回目のSfMにより推定した、時刻t2において画像を撮影したカメラ50のパラメータをA (3),R (3),T (3)とする。
図25について説明する。統合部134は、時刻t2のカメラのパラメータを基準にして、各3次元形状70a,70b,70cを統合する場合には、時刻t2に画像情報を撮影したカメラのパラメータを全て同じにする。例えば、カメラパラメータA (1),R (1),T (1)、A (2),R (2),T (2)、T (2)、A (3),R (3),T (3)を「A (1),R (1),T (1)」で統一する。係る処理に合わせて、各3次元形状のq (k)を変換する。
1回目の3次元形状のq (1)を座標変換する処理について説明する。カメラパラメータA (1),R (1),T (1)の値は変わらないので、統合部134は、q (1)をそのままとする。
2回目の3次元形状のq (2)を変換する処理について説明する。カメラパラメータA (2),R (2),T (2)は「A (1),R (1),T (1)」統一される。このため、統合部134は、A (2),R (2),T (2)を「A (1),R (1),T (1)」に変換する処理に合わせて、3次元形状70bのマップ点の各座標q (2)をq (2)’に座標変換する。
3回目の3次元形状のq (3)を変換する処理について説明する。カメラパラメータA (3),R (3),T (3)は「A (1),R (1),T (1)」に統一される。このため、統合部134は、A (3),R (3),T (3)を「A (1),R (1),T (1)」に変換する処理に合わせて、3次元形状70cのマップ点の各座標q (3)をq (3)’に座標変換する。
統合部134は、3次元形状70b,70cのマップ点を座標変換した後に、3次元形状70a,70b,70cを統合することで、統合後の3次元形状80bを得る。統合部134は、3次元形状80bの情報を、統合形状情報123として、記憶部120に記憶させる。
続いて、統合部134が実行する座標変換の一例について説明する。図26は、座標変換を説明するための図である。図26に示すように、あるマップ点の3次元座標を(X,Y,Z)とし、カメラのパラメータA (k),R (k),T (k)により投影した際の投影点の2次元座標を(u,v)とする。座標変換後の3次元座標を(X’,Y’,Z’)とすると、式(24)と式(25)とが成立する。
Figure 0006840968
Figure 0006840968
式(24)の左辺と、式(25)の左辺とが等しいため、式(26)が成立する。また、カメラそのものは同じであるため、A (1)=A (k)としてもよい。これにより、式(26)は、式(27)となる。また、式(27)を整理すると、変換後の3次元座標(X’,Y’,Z’)は、式(28)により表すことができる。
Figure 0006840968
Figure 0006840968
Figure 0006840968
式(28)の結果より、マップ点の3次元座標q (k)に対応するカメラパラメータA (k),R (k),T (k)をA (1),R (1),T (1)に変換すると、変換後の3次元座標q (k)’は、式(29)により表すことができる。ここで、A (k)=A (1)とする。
Figure 0006840968
統合部134は、式(29)を基にして、上記のq (2)’およびq (3)’を算出する。そして、結合部134は、q (1)、q (2)’、q (3)’を結合することで、3次元形状80bを復元する。
次に、本実施例に係る形状推定装置100の処理手順について説明する。図27は、本実施例に係る形状推定装置の処理手順を示すフローチャートである。図27に示すように、形状推定装置100の抽出部132は、複数の画像情報から特徴点を算出する(ステップS101)。
形状推定装置100の推定部133は、特定の条件を満たすか否かを判定する(ステップS102)。特定の条件は、画像情報で、削除されていない領域の面積の割合が閾値以下という条件である。または、特定の条件は、画像情報の削除されていない領域から抽出された特徴点の数が閾値以下という条件である。形状推定装置100は、いずれか一方の特定の条件を用いても良いし、双方の特定の条件を用いても良い。
推定部133は、特定の条件を満たさない場合には(ステップS102,No)、ステップS103に移行する。推定部133は、特定の条件を満たす場合には(ステップS102,Yes)、ステップS105に移行する。
ステップS103について説明する。推定部133は、SfMおよびRANSACを実行して、「カメラのパラメータp」と「被写体の3次元形状の3次元座標q」を推定する(ステップS103)。推定部133は、3次元形状を推定できた領域を各画像情報から除去し(ステップS104)、ステップS102に移行する。
ステップS105について説明する。形状推定装置100の統合部134は、統合する場合の基準の時刻の指定を受け付ける(ステップS105)。統合部134は、各3次元形状情報の3次元座標を、基準の時刻に合わせて変換する(ステップS106)。統合部134は、各3次元形状情報を統合する(ステップS107)。
次に、本実施例に係る形状推定装置100の効果について説明する。形状推定装置100は、被写体を異なるタイミングで撮影した複数の画像情報に基づき、SfMによる3次元形状の推定に成功すると、推定できた3次元形状に対応する画像情報の領域を除いた残りの領域で、3次元形状を推定する処理を繰り返し実行する。そして、形状推定装置100は、各段階で推定した3次元形状を統合することで、被写体に対応する3次元形状を求める。これにより、一台のカメラで撮影した複数の画像情報から被写体の3次元形状を推定することができる。また、被写体が動体であっても、3次元形状を推定することができる。
形状推定装置100は、各段階で推定した3次元形状の3次元座標を、指定されたカメラのパラメータに応じて変換した後に、統合を行う。これにより、各段階で推定したカメラパラメータの相対関係を統一した状態における3次元形状を結合することができる。
形状推定装置100は、推定に成功した3次元形状に対応する画像情報上の領域を複数の部分領域に分割し、複数の部分領域のうち、3次元形状に対応しない特徴点を含む割合が閾値未満となる部分領域を除去する。これにより、推定した3次元形状に対応する領域を、各画像情報から適切に除去することができる。
次に、上記実施例に示した形状推定装置100と同様の機能を実現するコンピュータのハードウェア構成の一例について説明する。図28は、形状推定装置と同様の機能を実現するコンピュータのハードウェア構成の一例を示す図である。
図28に示すように、コンピュータ200は、各種演算処理を実行するCPU201と、ユーザからのデータの入力を受け付ける入力装置202と、ディスプレイ203とを有する。入力装置202が受け付けるデータとしては、たとえば、カメラで撮影された複数の画像情報等である。また、コンピュータ200は、記憶媒体からプログラム等を読み取る読み取り装置204と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインタフェース装置205とを有する。また、コンピュータ200は、各種情報を一時記憶するRAM206と、ハードディスク装置207とを有する。そして、各装置201〜207は、バス208に接続される。
ハードディスク装置207は、受付プログラム207a、抽出プログラム207b、推定プログラム207c、統合プログラム207dを有する。CPU201は、受付プログラム207a、抽出プログラム207b、推定プログラム207c、統合プログラム207dを読み出してRAM206に展開する。
受付プログラム207aは、受付プロセス206aとして機能する。抽出プログラム207bは、抽出プロセス206bとして機能する。推定プログラム207cは、推定プロセス206cとして機能する。統合プログラム207dは、統合プロセス206dとして機能する。
受付プロセス206aの処理は、受付部131の処理に対応する。抽出プロセス206bの処理は、抽出部132の処理に対応する。推定プロセス206cの処理は、推定部133の処理に対応する。統合プロセス206dの処理は、統合部134の処理に対応する。
なお、各プログラム207a〜207dについては、必ずしも最初からハードディスク装置207に記憶させておかなくても良い。例えば、コンピュータ200に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ200が各プログラム207a〜207dを読み出して実行するようにしても良い。
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。
(付記1)コンピュータが実行する形状推定方法であって、
同一の被写体を撮影した時間差のある複数の画像情報から複数の特徴点を抽出し、
複数の特徴点から一部の特徴点を選択し、選択した一部の特徴点に基づく前記被写体の3次元形状の推定に成功した場合に、前記複数の特徴点から前記一部の特徴点を除去する処理を繰り返し行うことで、複数の3次元形状を推定し、
前記複数の3次元形状を統合する
各処理を実行することを特徴とする形状推定方法。
(付記2)前記複数の画像情報は、同一のカメラによって異なるパラメータによりそれぞれ撮影された画像情報であり、前記統合する処理は、前記複数の3次元形状の3次元座標を、指定されたパラメータに応じて変換した後に、前記複数の3次元形状を統合することを特徴とする付記1に記載の形状推定方法。
(付記3)前記推定する処理は、前記被写体の3次元形状の推定に成功した場合に、前記一部の特徴点を含む領域を複数の部分領域に分割し、複数の部分領域のうち、前記一部の特徴点以外の特徴点を含む割合が閾値未満となる部分領域を除去することを特徴とする付記1または2に記載の形状推定方法。
(付記4)同一の被写体を撮影した時間差のある複数の画像情報から複数の特徴点を抽出する抽出部と、
複数の特徴点から一部の特徴点を選択し、選択した一部の特徴点に基づく前記被写体の3次元形状の推定に成功した場合に、前記複数の特徴点から前記一部の特徴点を除去する処理を繰り返し行うことで、複数の3次元形状を推定する推定部と、
前記複数の3次元形状を統合する統合部と
を有することを特徴とする形状推定装置。
(付記5)前記複数の画像情報は、同一のカメラによって異なるパラメータによりそれぞれ撮影された画像情報であり、前記統合部は、前記複数の3次元形状の3次元座標を、指定されたパラメータに応じて変換した後に、前記複数の3次元形状を統合することを特徴とする付記4に記載の形状推定装置。
(付記6)前記推定部は、前記被写体の3次元形状の推定に成功した場合に、前記一部の特徴点を含む領域を複数の部分領域に分割し、複数の部分領域のうち、前記一部の特徴点以外の特徴点を含む割合が閾値未満となる部分領域を除去することを特徴とする付記4または5に記載の形状推定装置。
(付記7)コンピュータに、
同一の被写体を撮影した時間差のある複数の画像情報から複数の特徴点を抽出し、
複数の特徴点から一部の特徴点を選択し、選択した一部の特徴点に基づく前記被写体の3次元形状の推定に成功した場合に、前記複数の特徴点から前記一部の特徴点を除去する処理を繰り返し行うことで、複数の3次元形状を推定し、
前記複数の3次元形状を統合する
各処理を実行させることを特徴とする形状推定プログラム。
(付記8)前記複数の画像情報は、同一のカメラによって異なるパラメータによりそれぞれ撮影された画像情報であり、前記統合する処理は、前記複数の3次元形状の3次元座標を、指定されたパラメータに応じて変換した後に、前記複数の3次元形状を統合することを特徴とする付記7に記載の形状推定プログラム。
(付記9)前記推定する処理は、前記被写体の3次元形状の推定に成功した場合に、前記一部の特徴点を含む領域を複数の部分領域に分割し、複数の部分領域のうち、前記一部の特徴点以外の特徴点を含む割合が閾値未満となる部分領域を除去することを特徴とする付記7または8に記載の形状推定プログラム。
100 形状推定装置
110 入力部
120 記憶部
121 画像テーブル
122 3次元形状テーブル
123 統合形状情報
130 制御部
131 受付部
132 抽出部
133 推定部
134 統合部

Claims (5)

  1. コンピュータが実行する形状推定方法であって、
    同一の被写体を撮影した時間差のある複数の画像情報から複数の特徴点を抽出し、
    静止物に対応する特徴点を除いた、複数の特徴点から一部の特徴点を選択し、選択した一部の特徴点に基づく前記被写体の3次元形状の推定に成功した場合に、前記複数の特徴点から前記一部の特徴点を除去する処理を繰り返し行うことで、複数の3次元形状を推定し、
    前記静止物の3次元形状と、前記複数の3次元形状を統合する
    各処理を実行することを特徴とする形状推定方法。
  2. 前記複数の画像情報は、同一のカメラによって異なるパラメータによりそれぞれ撮影された画像情報であり、前記統合する処理は、前記複数の3次元形状の3次元座標を、指定されたパラメータに応じて変換した後に、前記複数の3次元形状を統合することを特徴とする請求項1に記載の形状推定方法。
  3. 前記推定する処理は、前記被写体の3次元形状の推定に成功した場合に、前記一部の特徴点を含む領域を複数の部分領域に分割し、複数の部分領域のうち、前記一部の特徴点以外の特徴点を含む割合が閾値未満となる部分領域を除去することを特徴とする請求項1または2に記載の形状推定方法。
  4. 同一の被写体を撮影した時間差のある複数の画像情報から複数の特徴点を抽出する抽出部と、
    静止物に対応する特徴点を除いた、複数の特徴点から一部の特徴点を選択し、選択した一部の特徴点に基づく前記被写体の3次元形状の推定に成功した場合に、前記複数の特徴点から前記一部の特徴点を除去する処理を繰り返し行うことで、複数の3次元形状を推定する推定部と、
    前記静止物の3次元形状と、前記複数の3次元形状を統合する統合部と
    を有することを特徴とする形状推定装置。
  5. コンピュータに、
    同一の被写体を撮影した時間差のある複数の画像情報から複数の特徴点を抽出し、
    静止物に対応する特徴点を除いた、複数の特徴点から一部の特徴点を選択し、選択した一部の特徴点に基づく前記被写体の3次元形状の推定に成功した場合に、前記複数の特徴点から前記一部の特徴点を除去する処理を繰り返し行うことで、複数の3次元形状を推定し、
    前記静止物の3次元形状と、前記複数の3次元形状を統合する
    各処理を実行させることを特徴とする形状推定プログラム。
JP2016183497A 2016-09-20 2016-09-20 形状推定方法、形状推定装置および形状推定プログラム Active JP6840968B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016183497A JP6840968B2 (ja) 2016-09-20 2016-09-20 形状推定方法、形状推定装置および形状推定プログラム
US15/683,318 US10453206B2 (en) 2016-09-20 2017-08-22 Method, apparatus for shape estimation, and non-transitory computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016183497A JP6840968B2 (ja) 2016-09-20 2016-09-20 形状推定方法、形状推定装置および形状推定プログラム

Publications (2)

Publication Number Publication Date
JP2018049396A JP2018049396A (ja) 2018-03-29
JP6840968B2 true JP6840968B2 (ja) 2021-03-10

Family

ID=61618003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016183497A Active JP6840968B2 (ja) 2016-09-20 2016-09-20 形状推定方法、形状推定装置および形状推定プログラム

Country Status (2)

Country Link
US (1) US10453206B2 (ja)
JP (1) JP6840968B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112492290B (zh) * 2018-09-30 2022-11-11 Oppo广东移动通信有限公司 一种数据处理方法、服务器和计算机存储介质
CN117132753B (zh) * 2023-10-26 2024-02-09 生态环境部华南环境科学研究所(生态环境部生态环境应急研究所) 一种煤矸石废料再利用处理设备及其处理方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09237346A (ja) * 1995-12-26 1997-09-09 Ainesu:Kk 部分立体モデルの合成方法及び完全立体モデルの作成方法
JP2000194859A (ja) 1998-12-25 2000-07-14 Canon Inc 被写体形状抽出方法、被写体形状抽出装置及び記録媒体
US6859549B1 (en) * 2000-06-07 2005-02-22 Nec Laboratories America, Inc. Method for recovering 3D scene structure and camera motion from points, lines and/or directly from the image intensities
US6999612B1 (en) * 2000-08-31 2006-02-14 Nec Laboratories America, Inc. Method for recovering 3D scene structure and camera motion directly from image intensities
DE102007021518B4 (de) * 2007-05-04 2009-01-29 Technische Universität Berlin Verfahren zum Verarbeiten eines Videodatensatzes
US20080310757A1 (en) * 2007-06-15 2008-12-18 George Wolberg System and related methods for automatically aligning 2D images of a scene to a 3D model of the scene
JP2010181919A (ja) * 2009-02-03 2010-08-19 Toyohashi Univ Of Technology 三次元形状特定装置、三次元形状特定方法、三次元形状特定プログラム
CN102308320B (zh) * 2009-02-06 2013-05-29 香港科技大学 从图像生成三维模型
US20120106840A1 (en) * 2010-10-28 2012-05-03 Amit Singhal Combining images captured with different color patterns
EP2638524A2 (en) * 2010-11-09 2013-09-18 The Provost, Fellows, Foundation Scholars, & the other members of Board, of the College of the Holy & Undiv. Trinity of Queen Elizabeth near Dublin Method and system for recovery of 3d scene structure and camera motion from a video sequence
JP5561786B2 (ja) 2011-03-30 2014-07-30 Kddi株式会社 3次元形状モデル高精度化方法およびプログラム
JP6068895B2 (ja) 2012-09-21 2017-01-25 株式会社ニコンシステム 画像処理装置およびプログラム
AU2012244276A1 (en) * 2012-10-30 2014-05-15 Canon Kabushiki Kaisha Method, apparatus and system for detecting a supporting surface region in an image
US9466143B1 (en) * 2013-05-03 2016-10-11 Exelis, Inc. Geoaccurate three-dimensional reconstruction via image-based geometry
AU2013222016A1 (en) * 2013-08-30 2015-03-19 Canon Kabushiki Kaisha Method, system and apparatus for determining a property of an image
US10554896B2 (en) * 2016-05-04 2020-02-04 Insidemaps, Inc. Stereoscopic imaging using mobile computing devices having front-facing and rear-facing cameras

Also Published As

Publication number Publication date
JP2018049396A (ja) 2018-03-29
US10453206B2 (en) 2019-10-22
US20180082434A1 (en) 2018-03-22

Similar Documents

Publication Publication Date Title
WO2020259365A1 (zh) 一种图像处理方法及装置、计算机可读存储介质
US20180150973A1 (en) Method and Apparatus for Calculating Dual-Camera Relative Position, and Device
US20190051036A1 (en) Three-dimensional reconstruction method
US20150138322A1 (en) Image processing device and its control method, imaging apparatus, and storage medium
US20120162220A1 (en) Three-dimensional model creation system
WO2021005977A1 (ja) 三次元モデル生成方法及び三次元モデル生成装置
JP4283816B2 (ja) 三次元環境情報取得装置,三次元環境情報取得方法及びその方法を実現したプログラムを格納した記録媒体
JP2006252275A (ja) カメラ運動及び物体形状の復元システム
TW201719572A (zh) 三維模型分析及搜尋方法
JP6840968B2 (ja) 形状推定方法、形状推定装置および形状推定プログラム
JP2009048516A (ja) 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム
JP2007025863A (ja) 撮影システム、撮影方法及び画像処理プログラム
KR20150097251A (ko) 다중 영상간 대응점을 이용한 카메라 정렬 방법
JP2019211981A (ja) 情報処理装置、情報処理装置の制御方法およびプログラム
JP7312026B2 (ja) 画像処理装置、画像処理方法およびプログラム
US7751613B2 (en) Method for rapidly establishing image space relation using plane filtering constraint
JP2006113832A (ja) ステレオ画像処理装置およびプログラム
JP4389663B2 (ja) 画像処理方法及び画像処理装置
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP6156922B2 (ja) 三次元データ生成装置、三次元データ生成方法、及びプログラム
JP2010267195A (ja) カメラ運動・物体形状復元方法、カメラ運動・物体形状復元装置、カメラ運動・物体形状復元プログラム及びこのプログラムを記録した記録媒体
WO2019058487A1 (ja) 3次元復元画像処理装置、3次元復元画像処理方法及び3次元復元画像処理プログラムを記憶したコンピュータ読み取り可能な記憶媒体
JP7277855B2 (ja) 被写体別特徴点分離装置、被写体別特徴点分離方法及びコンピュータプログラム
JP2000353244A (ja) 基礎行列を求めるための方法、ユークリッド的な3次元情報の復元方法、および3次元情報復元装置。
JP2007034964A (ja) カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定方法、装置、カメラ視点運動並びに3次元情報の復元及びレンズ歪パラメータの推定プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190611

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210119

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210201

R150 Certificate of patent or registration of utility model

Ref document number: 6840968

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150