JP6216468B2 - 無特徴抽出の高密度sfm三次元再構成法 - Google Patents
無特徴抽出の高密度sfm三次元再構成法 Download PDFInfo
- Publication number
- JP6216468B2 JP6216468B2 JP2016557182A JP2016557182A JP6216468B2 JP 6216468 B2 JP6216468 B2 JP 6216468B2 JP 2016557182 A JP2016557182 A JP 2016557182A JP 2016557182 A JP2016557182 A JP 2016557182A JP 6216468 B2 JP6216468 B2 JP 6216468B2
- Authority
- JP
- Japan
- Prior art keywords
- camera
- scene
- depth
- reconstruction
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20016—Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
Description
あるシーンに関するn枚(n≧2)の画像を入力するステップS1と、
あるカメラ座標系と一致するワールド座標系を確立し、ワールド座標系と第1カメラの座標系が一致するように設定し、すなわち、ワールド座標系の原点、x軸、及びy軸と、第1カメラのカメラ中心、第1カメラの結像面のx軸及びy軸とが重なり、そのZ軸が第1カメラの結像面に垂直するように設定するステップS2と、
1枚目の画像の画素点に対応する三次元空間の点が備える深度qである三次
カメラ射影行列とを、変数とするステップS3と、
オプティカルフロー推定に類似する、連続領域における変分目標関数又はその離散形態の目標関数である目標関数を構造するステップS4と、
粗から密へのピラミッド法で、連続領域又は離散領域において目標関数を最適化するように反復(iterance・イテレーション)アルゴリズムを設計し、シーンの三次元情報を示す深度と、カメラの相対姿勢を示すカメラ射影行列とを出力するステップS5と、
シーンの三次元情報を示す深度に基づいて、高密度投影、類似またはユークリッド再構成を実現するステップS6とを備えることを、特徴とする。
ワールド座標系を確立すると共に、この第1カメラのカメラ射影行列が、[I3 0]∈R3,4に設定し、ここで、I3が3×3の単位行列であり、0が3×1の零ベクトルであり、
として設定され、
シーンの三次元構造が、1枚目の画像に定義された三次元シーンの深度により決められ、
1枚目画像の画素(x,y)に対応する三次元空間の点における三次元シーンの深度がqx,yである場合には、前記三次元点の三次元座標が下式になり、
投影三次元再構成において、カメラ射影行列Piと三次元シーンの深度qx,yが、推定されるべき未決定のパラメータとして設定され、
誤解が発生しないという前提で、数学公式を簡潔にするため、下付き文字x、yを省略する。
構成された連続領域における目標関数が、
であり、ここで、
上記目標関数を説明すると、
あり、
(b)目標関数が、データ項fdata、オフセット平滑化項fsmooth_uv、および深度平滑化項fsmooth_depthという三つの部分に分けられ、ここで、α、β、τ1およびτ2が非負の重みであり、
Iの成分値を示し、
(d)深度が激変的に変化することにより発生する影響を克服するために、ロバスト関数ρが導入され、ロバスト関数ρがシャルボニエ(Charbonnier)関数
定数であり、一方、ロバスト関数が導入されない場合には、ρ(x)=x、
(e)uiとviは、画像領域に定義され、カメラ射影行列Piと深度qをパラメータ
ここで、Pi,jがi番目のカメラ射影行列Piのj番目の行ベクトルであり、誤解が発
連続領域に設定された反復最適化アルゴリズムに関して、具体的には、三次元シーンの深度が1枚目の画像に定義された連続函数であるため、極点においてオイラー・ラグランジュ方程式を満たす必要があるとともに、極点においてカメラ射影行列のパラメータに対する偏導関数が0になり、画像の離散格子点においてオイラー・ラグランジュ方程式と、カメラ射影行列のパラメータに対する偏導関数が0であるという二つの方程式に基づいて、増分法で表現することにより、カメラ射影行列と三次元シーンの深度増分を求めるための反復プロセスが、次の線形方程式を解くことになり、
順番的に構成され、そして、各反復が、下式
を解くことになることで、対応する増分δPiとδqを確定し、
求められた増分に基づいて、収束するまで、Pi←δPi+Pi、q←δq+qのようにパラメータPiとqを更新し、
つまり、アルゴリズム1の具体的なプロセスでは、
入力:n枚画像、初期化された三次元シーンの深度qとカメラ射影行列Pi
示、
1.反復(iterance・イテレーション)
1)オイラー・ラグランジュ方程式と、目標関数のカメラ射影行列のパラメータに対する偏導関数が0であることにより、式(7)のHとbを確定し、
2)式(7)に基づいて増分δθを計算し、さらに対応する増分δPiとδqを確定し、
収束するまで繰り返し、
2.収束した三次元シーンの深度qにより、式(1)に基づいてシーンの三次元表示を計算する。
y)|2))である平滑化項に対応する。式(1)の第三部分τ1ρ(|∇q|2/q2+τ2|Δq|2/q2)対が深度の平滑仮定に対応する。
ここで、
離散目標関数(11)とその変形形態の反復最適化アルゴリズムに関して、具体的には、離散形態の目標関数(11)が本質的に非線形最小二乗問題であり、従来のレーベンバーグ・マーカート法(Levenberg−Marquardt)またはガウス−ニュートン法を採用でき、各反復プロセスが線型方程式系(15)を解くことになり
ここで、Hがヘッセ行列(Hessian matrix)又はガウス・ニュートン・ヘッセ行列であり、bが梯度向量であり、μが非負数であり、レーベンバーグ・マーカート法(Levenberg−Marquardt)またはガウス−ニュートン法により、対応する増分δPiとδqを確定し、
求められた増分に基づいて、収束するまでパラメータPiとqを、Pi←δPi+Pi、q←δq+qのように更新し、
アルゴリズム2の具体的な実現プロセスにおいて、
qの初期化、
示、
1.反復(iterance・イテレーション)
1)式(15)におけるガウス・ニュートン・ヘッセ行列Hと勾配ベクトルbを計算し、
2)式(15)に基づいて増分δθを計算し、さらにそれぞれに対応する増分δPiとδqを確定し、
収束するまで繰り返し、
2.収束した三次元シーンの深度qにより、式(1)に基づいてシーンの三次元表示を計算する。
画像のn層のピラミッド表示を算出し、
なるように初期化し、すべての点における三次元シーンの深度を1になるように初期化し、
粗から密へ順番的にカメラ射影行列と三次元シーンの深度とを推定するとともに、カメラ射影行列と三次元シーンの深度に対してそれぞれ校正し補間することで、次の細かい画像層に対する反復プロセスの初期値として設定され、
精度が異なる層の間に三次元シーンの深度の補間が、バイリニア補間値、双三次補間法又は他の類似の補間方法で実現され、
精度が異なる層の間にカメラ射影行列の修正に関しては、隣接する二つの精度を持つ画像はx及びy方向における画素比率がそれぞれs1、s2(s1,s2<1)であるように設定し、精度が低い画像層において、推定されたあるカメラのカメラ射影行列が、P(k+1)であり、ここで、上付き(k+1)がピラミッド構造のk+1層目を示し、対応するk層目の画像のカメラ射影行列が、下式になり、
粗から密へのピラミッド法の具体的な反復アルゴリズム、すなわち、アルゴリズム3の具体的なプロセスにおいて、
入力:複数の画像、
示、
1.画像におけるm層のピラミッド表示を計算し、
2.反復:画像層kがm層目から順番的に1層目まで、
(1)k≠mである場合には、
一つ上の層で推定された三次元シーンの深度q(k+1)を基準にして、補間方法で本層における三次元シーンの深度q(k)を、三次元シーンの初期化として計算し、
用して、式(16)により本層におけるカメラ射影行列Pi (k)を、カメラ射影行列の初期化として計算し、
それ以外の場合は、m層目の画像において、
設置し、すべての点における三次元シーンの深度情報をq(m)=1に設置し、
終わり、
2)ピラミッド法1又はピラミッド法2でこの層のカメラ射影行列Pi (k)
反復の終わり、
4.三次元シーンの深度qに基づいて、式(1)によりシーンの三次元シーン表示を計算する。
パラメータ化について、具体的には、
カメラ射影行列がカメラ内部パラメータとカメラ外部パラメータで表示され、
P=K[R t]
に含まれ、カメラ外部パラメータが3×3回転行列Rと3×1シフトベクトルtにより確定され、回転行列Rが三つの角度パラメータであるx軸、y軸、z軸周りの回転角γx、γy、γzにより確定され、
カメラ内部パラメータとカメラ外部パラメータが未知である場合には、内部パラメータαx、αy、s、px、py、フトベクトルt、回転角γx、γy、γz、および三次元シーンの深度qが推定すべきの未定のパラメータであり、類似の三次元再構成を実現し、
カメラ内部パラメータが既知で、カメラ外部パラメータが未知である場合には、フトベクトルt、回転角γx、γy、γz、および三次元シーンの深度qが推定すべきの未定のパラメータであり、類似の三次元再構成を実現し、
カメラ内部パラメータが既知で、カメラ外部パラメータも既知である場合には、ユークリッド(Euclidean Stratification)三次元再構成を実現する中に、この場合には、三次元シーンの深度qが推定すべきの未定パラメータである。
画像からハリス(Harris)特徴、SIFT特徴又はKLT特徴という特徴を抽出し、マッチングする第1ステップと、
抽出された特徴に基づいて、特徴点の三次元情報とカメラ射影行列を推定する第2ステップと、
上記二つのステップに基づいて、ピラミッド法3で高密度SFM三次元再構成を実現する第3ステップと、を含み、
ここで、第2ステップで推定されたカメラ射影行列を、第3ステップにおけるカメラ射影行列の初期値として設定し、第2ステップで推定された三次元シーンの深度に対して補間することで、第3ステップにおける次元シーンの深度の初期値として設定する。
S2において、あるカメラ座標系と一致するワールド座標系を確立し、ワールド座標系と第1カメラの座標系が一致するように設定し、すなわち、ワールド座標系の原点、x軸、及びy軸と、第1カメラのカメラ中心、第1カメラの結像面のx軸及びy軸とが重なり、そのZ軸が第1カメラの結像面に垂直するように設定し、
S3において、1枚目の画像の画素点に対応する三次元空間の点が備える深度
列Piであるカメラ射影行列とを、変数と設定し、
S4において、オプティカルフロー推定に類似する、連続領域における変分目標関数又はその離散形態の目標関数である目標関数を構造し、
S5において、粗から密へのピラミッド法で、連続領域又は離散領域において目標関数を最適化するように反復アルゴリズムを設計し、シーンの三次元情報を示す深度と、カメラの相対姿勢を示すカメラ射影行列とを出力し、
S6において、シーンの三次元情報を示す深度に基づいて、高密度投影、類似またはユークリッド再構成を実現する。
ここで、連続領域において二つのグレースケール画像から投影(projective)三次元再構成を実現するという本発明のコアモデルを説明する。第1及び第2の画像がそれぞれI1とI2(上付きが画像の番号を示す)であり、第1の画像の位
が離散格子点(lattice)に定義されたデジタル画像であるが、本発明に提出した技術案によると、画像が連続領域に定義され、数値最適化アルゴリズムで三次元再構成を実現する。
になる。
ここで、Pjがカメラ射影行列Pのj番目の行ベクトルである。誤解が発生しないという前提で、数学公式を簡潔にするため、下付き文字x、yを省略する。式(2)により、uとvが画像領域に定義され、カメラ射影行列Pと深度qとをパラメータとして設定された関数u(P,q)とv(P,q)である。
における第一部分が、同じ三次元空間の点が異なる画像で同じグレースケール値を持つというオプティカルフロー計算中のグレースケール不変仮定(gray valueconstancy assumption)に基づいたものである。グレースケール不変仮定のみがあれば、最適化問題は不良問題になる。このため、目標関数(3)に第二部分を導入し、二つの画像における結像が平滑のオフセットu−xとv−yを含むように設定することで、この平滑仮定が目標関数(3)の第二部分で描画される。目標関数(3)の二つの部分がそれぞれデータ項と、オフセット平滑化項と呼ばれ、オプティカルフロー計算中のデータ項、オフセット平滑化項に対応する。
公式を簡潔にするために、カメラ射影行列Pの12個の変数と深度qのn個の変数とにより、(n+12)次元のベクトルθが構成される。整理が行われると、式(6)及び(7)の増分形態が以下の線形方程式の形式で表される。
入力:二つのグレースケール画像I1とI2、およびカメラ射影行列P、深度qの初期化、
出力:カメラ射影行列P、深度q、
収束するまで、反復(iterance・イテレーション)が行われる。
2.式(10)に基づいて増分δθを計算すると共に、対応する増分δP、δqを確定する、
3.式(8)に基づいてパラメータPとqを更新する。
入力:二つのグレースケール画像、
出力:カメラ射影行列P、深度q
1.二つの画像のm層ピラミッド表示を計算し、
2.for i=m:−1:1
ifi≠m
一つ上の層で推定された深度q(i+1)を基準にして、補間方法で本層における深度q(i)を、深度の初期化として計算し、
一つ上の層で推定されたカメラ射影行列P(i+1)を利用して、式(11)で本層におけるカメラ射影行列P(i)を、第2カメラの射影行列の初期化として計算し、
else
初期化:第2カメラのカメラ射影行列を、P(m)=[I3 0]に設置し、すべての点における深度情報をq(m)=1に設置し、
end
アルゴリズム1により本層におけるカメラ射影行列P(i)と深度q(i)を計算し、
end
B、二つのグレースケール画像に基づいた投影三次元再構成の離散形態
デジタル画像自体が離散形態で存在するため、以下では、目標関数(3)に対して直接的にその離散形態を示す。
ここで、δx,yの定義から、各δx,yが隣接する画素に関わることが理解できたので、式(15)における加算項の加算が通常の加算とは異り、式(15)における加算がδx,yの間のアライメントを考える必要がある。
合成関数の規則によると、増分δθが下式になる。
入力:二つのグレースケール画像I1とI2、およびカメラ射影行列P、深度qの初期化
出力:カメラ射影行列P、深度q
収束するまで、反復が行われる。
2.式(18)に基づいて、増分δθを計算し、対応する増分δPとδqをそれぞれ計算し、
3.式(8)に基づいてパラメータPとqを更新する。
二つのカラー画像に基づいた三次元再構成の原理が、グレースケール画像に基づいた三次元再構成と同じである。カラー画像の表示方法が様々であり、例えば、RGB((Red Green Blue:赤、緑、青)、HSV(Hue Saturation Value:色相彩度値)、HSL((Hue Saturation Lightness:色相彩度明度)およびHSI(Hue Saturation Intensity:色相飽和強度)がある。以下では、RGBカラー画像の離散形態の三次元再構成を例として、どうやってカラー画像に基づいた三次元再構成を処理するのかを説明する。離散形態の目標関数が下式のように構成される(同じく、連続領域において目標関数を構成できる)。
n幅(n>2)の画像に基づいた三次元再構成の基本的なアルゴリズムが、二つの画像に基づいた三次元再構成と同じであり、式(3)又は式(12)のような目標関数を構成し、データ項と平滑化項とを備える。二つの画像に基づいた三次元再構成と同じく、ワールド座標系を第1カメラの座標系に設定することで、第1カメラの射影行列が[I3 0]∈R3,4になり、他のn−1個カメラ射影行列と深度qが推定すべきパラメータである。
(ui,vi)がi幅目の画像において(x,y)に対応する座標である。データ項の第2構成案が、下式で示される。
異なる照明条件による画像の変化を克服するために、目的関数の最適化中に勾配(gradient)不変仮定を導入し、すなわち、同じ三次元点が異なる画像で同じ勾配を持つことである。二つのグレースケール画像に基づく投影三次元再構成を例として、どうやって三次元再構成に勾配不変仮定を導入するのかを説明する。構成された目標関数が次式で示す。
目的関数(3)と(12)が最適化され、他の類似の構成でもデータ項と平滑化項が二乗項という形態で表現されたため、これらのモデルがシーンや目標の深度に不均一な状況で、効果は悪くなる。このため、目的関数の最適化中、あるバスト関数ρが導入(introduce)される。式(12)を例にすると、下式になる。
画像のオフセットに平滑化拘束を導入すること以外には、一つの案としては直接的に平滑化拘束を三次元目標の深度qに導入する。離散形態の式(12)を例にすると、次式で目標関数を構成できる。
まられ、カメラの外部パラメータが、ワールド座標系からカメラ座標系への回転変換を示す回転行列Rとシフトベクトルtにより確定される。
シーン又は目標を示す深度qが投影三次元再構成と同じである
射影三次元再構成において、(n+12)次元のパラメータベクトルθの最初から12までの値がカメラ射影行列パラメータであり、残りがn個の深度パラメータであると仮定する。また、類似三次元再構成において、パラメータベクトルθ′の最初から11までの値が、三つの回転角度パラメータγ=[γx,γy,γz]T、三つのシフトベクトルt、および五つのカメラ内部パラメータαx、αy、s、px、pyであり、11次元のベクトルθ″を構成し、その後にn個の深度パラメータがあると仮定する。
式(27)について、下式のようにヤコビアン行列(Jacobian matrix)を定義する。
ここで、Inがn×nの単位行列である。従って、類似三次元再構成において、反復プロセスで以下のパラメータ増分が求められる。
ここで、H、J、bが式(18)におけるH、J、bである。
射影幾何学において、大きなベースライン(large baseline)とは、カメラの間に相対運動が大きいため、画像の間に顕著な差が生成されることである。原因としては、カメラの間の回転角又はシフトが大きすぎ、又はカメラの間の焦点距離差が大きすぎる。大きなベースラインの場合には、従来の三次元再構成方法と本発明に提出した上記方法に基づいて、大きなベースラインの三次元再構成を実現できる。具体的には、SFM三次元再構成が、画像からハリス(Harris)特徴、SIFT特徴又はKLT特徴を抽出し、マッチングする第1ステップと、抽出された特徴に基づいて、特徴点の三次元情報とカメラのカメラ射影行列を推定する第2ステップと、上記二つステップに基づいて、上記提出した方法で高密度SFM三次元再構成を実現する第3ステップと、を含む。ここで、第2ステップで推定されたカメラ射影行列を、第3ステップにおけるカメラ射影行列の初期値として設定し、第2ステップで推定された三次元シーンの深度に対して補間することで、第3ステップにおける次元シーンの深度の初期値として設定する。
Claims (7)
- あるシーンに関するn枚(n≧2)の画像を入力するステップS1と、
あるカメラ座標系と一致するワールド座標系を確立し、ワールド座標系と第1カメラの座標系が一致するように設定し、すなわち、ワールド座標系の原点、x軸、及びy軸と、第1カメラのカメラ中心、第1カメラの結像面のx軸及びy軸とが重なり、そのZ軸が第1カメラの結像面に垂直するように設定するステップS2と、
1枚目の画像の画素点に対応する三次元空間の点が備える深度qである三次元シーンの
変数とするステップS3と、
オプティカルフロー計算中のデータ項およびオフセット平滑化項を用いた、連続領域における変分目標関数又はその離散形態の目標関数である目標関数を構造するステップS4と、
粗から密へのピラミッド法で、連続領域又は離散領域において目標関数を最適化するように反復アルゴリズムを設計し、シーンの三次元情報を示す深度と、カメラの相対姿勢を示すカメラ射影行列とを出力するステップS5と、
シーンの三次元情報を示す深度に基づいて、すべての画素点の三次元情報が推定できる投影、相似またはユークリッド再構成を実現するステップS6とを備える、
ことを特徴とする無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。 - 投影三次元再構成を実現する中において、
パラメータ化について、具体的には、
ワールド座標系を確立すると共に、その第1カメラのカメラ射影行列を[I3 0]∈R3,4に設定し、ここで、I3が3×3の単位行列であり、0が3×1の零ベクトルであり、
定され、
シーンの三次元構造が、1枚目の画像に定義された三次元シーンの深度により決められ、
1枚目画像の画素(x,y)に対応する三次元空間の点における三次元シーンの深度がqx,yである場合には、前記三次元点の三次元座標が下式になり、
投影三次元再構成において、カメラ射影行列Piと三次元シーンの深度qx,yが、推定されるべき未決定のパラメータとして設定され、
誤解が発生しないという前提で、数学公式を簡潔にするため、下添え字x、yを省略する、ことを特徴とする請求項1に記載の無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。 - 連続領域において投影三次元再構成を実現する具体的な実現プロセスには、
構成された連続領域における目標関数が、下式になり、
ここで、
上記目標関数を説明すると、
(b)目標関数が、データ項fdata、オフセット平滑化項fsmooth_uv、および深度平滑化項fsmooth_depthという三つの部分に分けられ、ここで、α、β、τ1およびτ2が非負の重みであり、
し、
(d)深度が不均一な状況により発生する影響を克服するために、ロバスト関数ρが導入さ
十分に小さい正数であり、ε<10−6、又はロバスト関数ρがローレンツ(Lorentzian)関数
合には、ρ(x)=x、
(e)uiとviは、画像領域に定義され、カメラ射影行列Piと深度qをパラメータとして設定
ここで、Pi,jがi番目のカメラ射影行列Piのj番目の行ベクトルであり、誤解が発生しないと
連続領域に設定された反復最適化アルゴリズムに関して、具体的には、三次元シーンの深度が1枚目の画像に定義された連続函数であるため、極点においてオイラー・ラグランジュ方程式を満たす必要があるとともに、極点においてカメラ射影行列のパラメータに対する偏導関数が0になり、画像の離散格子点において、オイラー・ラグランジュ方程式と、カメラ射影行列のパラメータに対する偏導関数が0であるという二つの方程式に基づいて、増分法で表現することにより、カメラ射影行列と三次元シーンの深度増分を求めるための反復プロセスが、次の線形方程式を解くことになり、
構成され、そして、各反復が、下式
を解くことになることで、対応する増分δPiとδqを確定し、
求められた増分に基づいて、収束するまで、Pi←δPi+Pi、q←δq+qのようにパラメータPiとqを更新し、
つまり、アルゴリズム1の具体的なプロセスでは、
1.反復
1)オイラー・ラグランジュ方程式と、目標関数のカメラ射影行列のパラメータに対する偏導関数が0であることにより、式(7)のHとbを確定し、
2)式(7)に基づいて増分δθを計算し、さらに対応する増分δPiとδqを確定し、
収束するまで繰り返し、
2.収束した三次元シーンの深度qにより、式(1)に基づいてシーンの三次元表示を計算する、
ことを特徴とする請求項2に記載の無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。 - 構成された離散形態の目標関数が、下式になり、
ここで、
離散目標関数(11)とその変形形態に対する反復最適化アルゴリズムに関しては、具体的に、離散形態の目標関数(11)が本質的に非線形最小二乗問題であり、従来のレーベンバーグ・マーカート法(Levenberg−Marquardt)またはガウス−ニュートン法を採用でき、各反復プロセスが線型方程式系(15)を解くことになり、
ここで、Hがヘッセ行列又はガウス・ニュートン・ヘッセ行列であり、bが梯度向量であり、μが非負数であり、レーベンバーグ・マーカート法またはガウス−ニュートン法により、対応する増分δPiとδqを確定し、
求められた増分に基づいて、収束するまでパラメータPiとqを、Pi←δPi+Pi、q←δq+qのように更新し、
アルゴリズム2の具体的な実現プロセスにおいて、
1.反復
1)式(15)におけるガウス・ニュートン・ヘッセ行列Hと勾配ベクトルbを計算し、
2)式(15)に基づいて増分δθを計算し、さらにそれぞれに対応する増分δPiとδqを確定し、
収束するまで繰り返し、
2.収束した三次元シーンの深度qにより、式(1)に基づいてシーンの三次元表示を計算する、
ことを特徴とする請求項2に記載の無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。 - 粗から密へのピラミッド法における具体的なステップについて、
画像のn層のピラミッド表示を算出し、
うに初期化し、すべての点における三次元シーンの深度を1になるように初期化し、
粗から密へ順番的にカメラ射影行列と三次元シーンの深度とを推定するとともに、カメラ射影行列と三次元シーンの深度に対してそれぞれ校正し補間することで、次の細かい画像層に対する反復プロセスの初期値として設定され、
精度が異なる層の間に三次元シーンの深度の補間が、バイリニア補間値又は双三次補間法で実現され、
精度が異なる層の間にカメラ射影行列の修正に関しては、隣接する二つの精度を持つ画像はx及びy方向における画素比率がそれぞれs1、s2(s1,s2<1)であるように設定し、精度が低い画像層において、推定されたあるカメラのカメラ射影行列が、P(k+1)であり、ここで、上付き(k+1)がピラミッド構造のk+1層目を示し、対応するk層目の画像のカメラ射影行列が、下式になり、
粗から密へのピラミッド法の具体的な反復アルゴリズム、すなわち、アルゴリズム3の具体的なプロセスにおいて、
入力:n枚画像、
1.画像におけるm層のピラミッド表示を計算し、
2.反復:画像層kがm層目から順番的に1層目まで、
(1)k≠mである場合には、
一つ上の層で推定された三次元シーンの深度q(k+1)を基準にして、補間方法で本層における三次元シーンの深度q(k)を、三次元シーンの初期化として計算し、
式(16)により本層におけるカメラ射影行列Pi (k)を、カメラ射影行列の初期化として計算し、
それ以外の場合は、m層目の画像において、
べての点における三次元シーンの深度情報をq(m)=1に設置し、
終わり、
三次元シーンの深度情報q(k)を計算し、
反復の終わり、
4.三次元シーンの深度qに基づいて、式(1)によりシーンの三次元シーン表示を計算する、
ことを特徴とする請求項1に記載の無特徴抽出のすべての画素点の三次元情報が推定でき る、SFM三次元再構成法。 - 相似三次元再構成またはユークリッド三次元再構成を実現する具体的なプロセスでは、
パラメータ化について、具体的には、
カメラ射影行列がカメラ内部パラメータとカメラ外部パラメータで表示され、
P=K[R t]
れ、カメラ外部パラメータが3×3回転行列Rと3×1シフトベクトルtにより確定され、回転行列Rが三つの角度パラメータであるx軸、y軸、z軸周りの回転角γx、γy、γzにより確定され、
カメラ内部パラメータとカメラ外部パラメータが未知である場合には、内部パラメータαx、αy、s、px、py、シフトベクトルt、回転角γx、γy、γz、および三次元シーンの深度qが推定すべきの未定のパラメータであり、相似の三次元再構成を実現し、
カメラ内部パラメータが既知で、カメラ外部パラメータが未知である場合には、シフトベクトルt、回転角γx、γy、γz、および三次元シーンの深度qが推定すべきの未定のパラメータであり、相似の三次元再構成を実現し、
カメラ内部パラメータが既知で、カメラ外部パラメータも既知である場合には、ユークリッド三次元再構成を実現する中に、この場合には、三次元シーンの深度qが推定すべきの未定パラメータである、
ことを特徴とする請求項2又は6に記載の無特徴抽出のすべての画素点の三次元情報が推定できる、SFM三次元再構成法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410139234.4 | 2014-04-08 | ||
CN201410139234.4A CN103914874B (zh) | 2014-04-08 | 2014-04-08 | 一种无特征提取的紧致sfm三维重建方法 |
PCT/CN2015/073999 WO2015154601A1 (zh) | 2014-04-08 | 2015-03-11 | 一种基于无特征提取的紧致sfm三维重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017503290A JP2017503290A (ja) | 2017-01-26 |
JP6216468B2 true JP6216468B2 (ja) | 2017-10-18 |
Family
ID=51040527
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016557182A Expired - Fee Related JP6216468B2 (ja) | 2014-04-08 | 2015-03-11 | 無特徴抽出の高密度sfm三次元再構成法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US9686527B2 (ja) |
JP (1) | JP6216468B2 (ja) |
CN (1) | CN103914874B (ja) |
WO (1) | WO2015154601A1 (ja) |
Families Citing this family (76)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103914874B (zh) * | 2014-04-08 | 2017-02-01 | 中山大学 | 一种无特征提取的紧致sfm三维重建方法 |
CN104574432B (zh) * | 2015-02-15 | 2017-05-24 | 四川川大智胜软件股份有限公司 | 一种自动多视角人脸自拍图像的三维人脸重建方法及系统 |
CN104599284B (zh) * | 2015-02-15 | 2017-06-13 | 四川川大智胜软件股份有限公司 | 基于多视角手机自拍图像的三维人脸重建方法 |
CN104777700B (zh) * | 2015-04-01 | 2016-08-24 | 北京理工大学 | 高沉浸投影多投影机优化部署方法 |
CN105069804B (zh) * | 2015-08-21 | 2018-04-20 | 清华大学 | 基于智能手机的三维模型扫描重建方法 |
CN105160673A (zh) * | 2015-08-28 | 2015-12-16 | 山东中金融仕文化科技股份有限公司 | 一种物体的定位方法 |
US10424072B2 (en) * | 2016-03-01 | 2019-09-24 | Samsung Electronics Co., Ltd. | Leveraging multi cues for fine-grained object classification |
US10579860B2 (en) | 2016-06-06 | 2020-03-03 | Samsung Electronics Co., Ltd. | Learning model for salient facial region detection |
CN106952215B (zh) * | 2017-02-27 | 2020-02-28 | 珠海全志科技股份有限公司 | 一种图像金字塔特征提取电路、装置及方法 |
CN108618749B (zh) * | 2017-03-22 | 2020-06-19 | 南通大学 | 基于便携式数字化眼底照相机的视网膜血管三维重建方法 |
CN109559271B (zh) * | 2017-09-26 | 2023-02-28 | 富士通株式会社 | 对深度图像进行优化的方法和装置 |
CN107680159B (zh) * | 2017-10-16 | 2020-12-08 | 西北工业大学 | 一种基于投影矩阵的空间非合作目标三维重建方法 |
CN109816687A (zh) * | 2017-11-20 | 2019-05-28 | 天津工业大学 | 轮式移动机器人视觉伺服轨迹跟踪并发深度辨识 |
CN108259858B (zh) * | 2018-04-10 | 2020-10-30 | 华雁智能科技(集团)股份有限公司 | 变电站场景与设备的监控方法及装置 |
CN110378993A (zh) * | 2018-04-12 | 2019-10-25 | Oppo广东移动通信有限公司 | 建模方法及相关装置 |
CN108876897B (zh) * | 2018-04-20 | 2022-10-18 | 杭州电子科技大学 | 快速运动下的场景三维重建方法 |
CN108828533B (zh) * | 2018-04-26 | 2021-12-31 | 电子科技大学 | 一种类内样本相似结构保持非线性投影特征提取方法 |
CN109147025B (zh) * | 2018-07-11 | 2023-07-18 | 北京航空航天大学 | 一种面向rgbd三维重建的纹理生成方法 |
TWI676153B (zh) * | 2018-07-25 | 2019-11-01 | 國立中央大學 | 利用2d影像資訊修補不完整3d深度影像之方法 |
CN109242955B (zh) * | 2018-08-17 | 2023-03-24 | 山东师范大学 | 一种基于单幅图像的工件制造特征自动识别方法及装置 |
CN109410316B (zh) * | 2018-09-21 | 2023-07-07 | 达闼机器人股份有限公司 | 物体的三维重建的方法、跟踪方法、相关装置及存储介质 |
CN109325992B (zh) * | 2018-10-19 | 2023-07-04 | 珠海金山数字网络科技有限公司 | 图像绘制方法和装置、计算设备及存储介质 |
CN109697753B (zh) * | 2018-12-10 | 2023-10-03 | 智灵飞(北京)科技有限公司 | 一种基于rgb-d slam的无人机三维重建方法、无人机 |
CN109741403B (zh) * | 2018-12-29 | 2023-04-07 | 重庆邮电大学 | 一种基于全局线性的相机平移标定方法 |
CN109785373B (zh) * | 2019-01-22 | 2022-12-23 | 东北大学 | 一种基于散斑的六自由度位姿估计系统及方法 |
CN109919911B (zh) * | 2019-01-26 | 2023-04-07 | 中国海洋大学 | 基于多视角光度立体的移动三维重建方法 |
CN109829502B (zh) * | 2019-02-01 | 2023-02-07 | 辽宁工程技术大学 | 一种面向重复纹理及非刚性形变的像对高效稠密匹配方法 |
CN110012474A (zh) * | 2019-02-18 | 2019-07-12 | 长江大学 | 三维锥体有向传感器网络覆盖方法及系统 |
CN110223348B (zh) * | 2019-02-25 | 2023-05-23 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
WO2020181509A1 (zh) * | 2019-03-12 | 2020-09-17 | 深圳市大疆创新科技有限公司 | 一种影像处理方法、装置及系统 |
CN110009732B (zh) * | 2019-04-11 | 2023-10-03 | 司岚光电科技(苏州)有限公司 | 基于gms特征匹配的面向复杂大尺度场景三维重建方法 |
CN110033447B (zh) * | 2019-04-12 | 2022-11-08 | 东北大学 | 一种基于点云方法的高铁重轨表面缺陷检测方法 |
CN110084887B (zh) * | 2019-04-15 | 2022-10-28 | 北京空间飞行器总体设计部 | 一种空间非合作目标相对导航模型三维重建方法 |
CN110378995B (zh) * | 2019-05-29 | 2023-02-17 | 中德(珠海)人工智能研究院有限公司 | 一种利用投射特征进行三维空间建模的方法 |
CN110310337B (zh) * | 2019-06-24 | 2022-09-06 | 西北工业大学 | 一种基于光场基本矩阵的多视光场成像系统全参数估计方法 |
CN110310338B (zh) * | 2019-06-24 | 2022-09-06 | 西北工业大学 | 一种基于多中心投影模型的光场相机标定方法 |
CN110298890B (zh) * | 2019-06-24 | 2022-09-06 | 西北工业大学 | 一种基于普朗克参数化的光场相机标定方法 |
CN110322514B (zh) * | 2019-06-24 | 2022-05-03 | 西北工业大学 | 一种基于多中心投影模型的光场相机参数估计方法 |
CN110490928B (zh) * | 2019-07-05 | 2023-08-15 | 天津大学 | 一种基于深度神经网络的相机姿态估计方法 |
CN110544294B (zh) * | 2019-07-16 | 2023-09-01 | 深圳进化动力数码科技有限公司 | 一种基于全景视频的稠密三维重构方法 |
CN110740331B (zh) * | 2019-08-05 | 2023-01-31 | 辽宁师范大学 | 基于自适应步长和Levenberg-Marquardt优化的视频弹性运动估计方法 |
CN110555908B (zh) * | 2019-08-28 | 2022-12-02 | 西安电子科技大学 | 基于室内移动目标背景修复的三维重建方法 |
CN110706332B (zh) * | 2019-09-25 | 2022-05-17 | 北京计算机技术及应用研究所 | 一种基于噪声点云的场景重建方法 |
CN110880185B (zh) * | 2019-11-08 | 2022-08-12 | 南京理工大学 | 基于条纹投影的高精度动态实时360度全方位点云获取方法 |
CN111127560B (zh) * | 2019-11-11 | 2022-05-03 | 江苏濠汉信息技术有限公司 | 一种用于三维重建的三目视觉系统的标定方法及系统 |
CN110909778B (zh) * | 2019-11-12 | 2023-07-21 | 北京航空航天大学 | 一种基于几何一致性的图像语义特征匹配方法 |
CN111210507B (zh) * | 2020-01-06 | 2024-03-19 | 合肥工业大学 | 一种面向多视图三维重建的初始视图选取方法 |
CN111353537B (zh) * | 2020-02-28 | 2023-02-07 | 西安理工大学 | 基于EPI_Volume的LF_SURF光场图像特征匹配方法 |
CN111383354B (zh) * | 2020-04-02 | 2024-02-20 | 西安因诺航空科技有限公司 | 一种基于sfm的三维点云朝向修正方法 |
CN111598954A (zh) * | 2020-04-21 | 2020-08-28 | 哈尔滨拓博科技有限公司 | 一种快速高精度摄像头参数计算方法 |
CN111739068B (zh) * | 2020-05-06 | 2024-03-01 | 西安电子科技大学 | 一种光场相机相对位姿估计方法 |
CN111724466B (zh) * | 2020-05-26 | 2023-09-26 | 同济大学 | 一种基于旋转矩阵的3d重建优化方法和装置 |
CN111899280B (zh) * | 2020-07-13 | 2023-07-25 | 哈尔滨工程大学 | 采用深度学习和混合型位姿估计的单目视觉里程计方法 |
CN112395775B (zh) * | 2020-12-04 | 2024-02-13 | 西安工业大学 | 一种战斗部破片飞散参数计算方法 |
CN112509109A (zh) * | 2020-12-10 | 2021-03-16 | 上海影创信息科技有限公司 | 一种基于神经网络模型的单视图光照估计方法 |
CN112472293B (zh) * | 2020-12-15 | 2022-10-21 | 山东威高医疗科技有限公司 | 一种术前三维影像与术中透视图像的配准方法 |
CN112762825B (zh) * | 2020-12-24 | 2022-02-22 | 复旦大学 | 表征摄影测量系统三维坐标重构误差的矩阵谱半径方法 |
CN112581494B (zh) * | 2020-12-30 | 2023-05-02 | 南昌航空大学 | 基于金字塔块匹配的双目场景流计算方法 |
JP7076598B1 (ja) | 2021-02-03 | 2022-05-27 | 株式会社Albert | 動画又は複数画像からの3次元情報生成装置 |
CN112815849B (zh) * | 2021-02-19 | 2022-07-12 | 三门核电有限公司 | 一种基于激光跟踪的核电管道建模方法 |
CN113096174A (zh) * | 2021-03-24 | 2021-07-09 | 苏州中科广视文化科技有限公司 | 一种基于多平面扫描的端到端网络的多视点场景重建方法 |
CN113034695B (zh) * | 2021-04-16 | 2022-11-22 | 广东工业大学 | 一种基于Wasserstein距离的物体包络体多视图重建与优化方法 |
CN113096107A (zh) * | 2021-04-20 | 2021-07-09 | 湖南科技大学 | 基于傅立叶变换的b样条函数欧拉解概率密度成像方法 |
CN113256796A (zh) * | 2021-06-01 | 2021-08-13 | 北京理工大学 | 基于Kinect V2传感器三维点云环境实时重构方法 |
CN113658263B (zh) * | 2021-06-17 | 2023-10-31 | 石家庄铁道大学 | 基于视觉场景的电磁干扰源可视化标注方法 |
CN113689535B (zh) * | 2021-08-20 | 2022-11-22 | 北京道达天际科技股份有限公司 | 基于无人机影像的建筑物模型的生成方法和装置 |
CN114463357B (zh) * | 2022-01-27 | 2024-05-24 | 枣庄矿业(集团)付村煤业有限公司 | 一种在重介质选煤中实时确定介质堆动态信息的方法 |
CN114565714B (zh) * | 2022-02-11 | 2023-05-23 | 山西支点科技有限公司 | 一种单目视觉传感器混合式高精度三维结构恢复方法 |
CN114494383B (zh) * | 2022-04-18 | 2022-09-02 | 清华大学 | 基于Richard-Lucy迭代的光场深度估计方法 |
CN115035240B (zh) * | 2022-05-13 | 2023-04-11 | 清华大学 | 实时三维场景重建方法及装置 |
CN115063485B (zh) * | 2022-08-19 | 2022-11-29 | 深圳市其域创新科技有限公司 | 三维重建方法、装置及计算机可读存储介质 |
CN115908708B (zh) * | 2022-11-16 | 2023-08-15 | 南京农业大学 | 基于Kinect的植物群体全局三维重建方法 |
CN115797796B (zh) * | 2023-02-08 | 2023-05-02 | 中国科学院空天信息创新研究院 | 基于光学影像和sar影像密集匹配的目标级变化检测方法 |
CN116433476B (zh) * | 2023-06-09 | 2023-09-08 | 有方(合肥)医疗科技有限公司 | Ct图像处理方法及装置 |
CN117474993B (zh) * | 2023-10-27 | 2024-05-24 | 哈尔滨工程大学 | 水下图像特征点亚像素位置估计方法及装置 |
CN117994358A (zh) * | 2024-04-03 | 2024-05-07 | 苏州西默医疗科技有限公司 | 一种精确度高的牙科手术显微镜标定方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6760488B1 (en) * | 1999-07-12 | 2004-07-06 | Carnegie Mellon University | System and method for generating a three-dimensional model from a two-dimensional image sequence |
US6859549B1 (en) * | 2000-06-07 | 2005-02-22 | Nec Laboratories America, Inc. | Method for recovering 3D scene structure and camera motion from points, lines and/or directly from the image intensities |
SE518620C2 (sv) * | 2000-11-16 | 2002-10-29 | Ericsson Telefon Ab L M | Scenkonstruktion och kamerakalibrering med robust användning av "cheiralitet" |
US7046840B2 (en) * | 2001-11-09 | 2006-05-16 | Arcsoft, Inc. | 3-D reconstruction engine |
CN100533487C (zh) * | 2007-04-19 | 2009-08-26 | 北京理工大学 | 基于单幅对称图像的光滑曲面三维实体模型重建方法 |
US9153025B2 (en) * | 2011-08-19 | 2015-10-06 | Adobe Systems Incorporated | Plane detection and tracking for structure from motion |
CN102663812B (zh) * | 2012-03-27 | 2015-02-11 | 南昌航空大学 | 基于变分光流的三维运动检测与稠密结构重建的直接方法 |
US9083945B2 (en) * | 2012-04-06 | 2015-07-14 | Adobe Systems Incorporated | Keyframe selection for robust video-based structure from motion |
CN103247075B (zh) * | 2013-05-13 | 2015-08-19 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
CN103914874B (zh) * | 2014-04-08 | 2017-02-01 | 中山大学 | 一种无特征提取的紧致sfm三维重建方法 |
-
2014
- 2014-04-08 CN CN201410139234.4A patent/CN103914874B/zh not_active Expired - Fee Related
-
2015
- 2015-03-11 WO PCT/CN2015/073999 patent/WO2015154601A1/zh active Application Filing
- 2015-03-11 JP JP2016557182A patent/JP6216468B2/ja not_active Expired - Fee Related
- 2015-03-11 US US15/038,325 patent/US9686527B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US9686527B2 (en) | 2017-06-20 |
CN103914874A (zh) | 2014-07-09 |
WO2015154601A1 (zh) | 2015-10-15 |
JP2017503290A (ja) | 2017-01-26 |
US20170019653A1 (en) | 2017-01-19 |
CN103914874B (zh) | 2017-02-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6216468B2 (ja) | 無特徴抽出の高密度sfm三次元再構成法 | |
Xue et al. | Toward hierarchical self-supervised monocular absolute depth estimation for autonomous driving applications | |
Kumar et al. | Stereo rectification of uncalibrated and heterogeneous images | |
CN110111250B (zh) | 一种鲁棒的自动全景无人机图像拼接方法及装置 | |
CN110246161B (zh) | 一种360度全景图像无缝拼接的方法 | |
CN108629829B (zh) | 一种球幕相机与深度相机结合的三维建模方法和系统 | |
CN108830925B (zh) | 一种基于球幕视频流的三维数字化建模方法 | |
CN112929626B (zh) | 一种基于智能手机影像的三维信息提取方法 | |
CN112862683B (zh) | 一种基于弹性配准和网格优化的邻接图像拼接方法 | |
CN113920205A (zh) | 一种非同轴相机的标定方法 | |
TWI599987B (zh) | 點雲拼接系統及方法 | |
CN110580715B (zh) | 一种基于照度约束和格网变形的图像对齐方法 | |
CN107220996A (zh) | 一种基于三角结构一致的无人机线阵与面阵影像匹配方法 | |
CN104077764A (zh) | 一种基于图像拼接的全景图合成方法 | |
CN111126418A (zh) | 一种基于平面透视投影的倾斜影像匹配方法 | |
Benhimane et al. | Integration of Euclidean constraints in template based visual tracking of piecewise-planar scenes | |
Aganj et al. | Multi-view texturing of imprecise mesh | |
Bushnevskiy et al. | Multimode camera calibration | |
CN114998496A (zh) | 一种基于场景航拍图及稀疏点云的正射影像快速生成方法 | |
Baker et al. | Lucas-kanade 20 years on: Part 5 | |
CN109242910B (zh) | 一种基于任意已知平面形状的单目相机自标定方法 | |
Li et al. | Have we underestimated the power of image undistortion? | |
Mkhitaryan et al. | RGB-D sensor data correction and enhancement by introduction of an additional RGB view | |
Silveira et al. | Visual servoing from robust direct color image registration | |
Tamaki et al. | A method for compensation of image distortion with image registration technique |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161021 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170516 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170707 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20170905 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20170922 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6216468 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |