JP2017123087A - Program, device and method for calculating normal vector of planar object reflected in continuous photographic images - Google Patents

Program, device and method for calculating normal vector of planar object reflected in continuous photographic images Download PDF

Info

Publication number
JP2017123087A
JP2017123087A JP2016002279A JP2016002279A JP2017123087A JP 2017123087 A JP2017123087 A JP 2017123087A JP 2016002279 A JP2016002279 A JP 2016002279A JP 2016002279 A JP2016002279 A JP 2016002279A JP 2017123087 A JP2017123087 A JP 2017123087A
Authority
JP
Japan
Prior art keywords
image
normal vector
registration
tracking
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016002279A
Other languages
Japanese (ja)
Other versions
JP6515039B2 (en
Inventor
小林 達也
Tatsuya Kobayashi
達也 小林
加藤 晴久
Haruhisa Kato
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2016002279A priority Critical patent/JP6515039B2/en
Publication of JP2017123087A publication Critical patent/JP2017123087A/en
Application granted granted Critical
Publication of JP6515039B2 publication Critical patent/JP6515039B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a program or the like capable of calculating a normal vector of a planar object reflected in continuous photographic images in a drastically small amount of calculation without being greatly restricted by camera work on precondition that a target object is a planar object (or an approximatable object in an almost plane surface).SOLUTION: The program has normal vector calculation means for calculating camera attitude parameters Rand t, and a normal vector nfor minimizing a reprojection error function by using Nc frames i of continuous photographic images, three-dimensional coordinates Xof Np pieces of registration points pdetected from a registered image of a planar object, and the tracking coordinates mof each of the Np pieces of registration points preflected in each frame. The normal vector calculation means causes a computer to function so as to express the three-dimensional coordinates Xof the registration points pof the registered image by the registration points p, a reference point Xgoing through an object plane, and the normal vector nand calculate the three-dimensional coordinates Xby back projection of the registration points pto the object plane.SELECTED DRAWING: Figure 1

Description

本発明は、カメラによる撮影画像から平面物体の法線ベクトル(法線方向)を算出する技術に関する。   The present invention relates to a technique for calculating a normal vector (normal direction) of a planar object from an image captured by a camera.

コンピュータビジョンやロボットビジョンの技術によれば、カメラによって撮影された映像を解析することによって、映像内に映り込む対象物体の位置姿勢を推定・追跡することができる。例えば、監視カメラの連続的な撮影画像に映る車両を追跡する技術がある(例えば特許文献1参照)。この技術によれば、フレーム毎に、画像中の対象物体をテンプレートマッチングによって追跡する。但し、画像に映る車両の位置を追跡するに過ぎず、向き(方向)を追跡することはできない。   According to the technology of computer vision or robot vision, it is possible to estimate and track the position and orientation of the target object reflected in the video by analyzing the video taken by the camera. For example, there is a technique for tracking a vehicle shown in continuous captured images of a surveillance camera (see, for example, Patent Document 1). According to this technique, a target object in an image is tracked by template matching for each frame. However, only the position of the vehicle shown in the image is tracked, and the direction (direction) cannot be tracked.

これに対し、対象物体に仮想情報を重畳表示する拡張現実感技術によれば、カメラに対する対象物体の6自由度の位置姿勢を推定・追跡し、現実感の高い拡張現実を表示することができる。例えば、画像中で指定された対象物体に仮想オブジェクトを配置し、その対象物体の位置姿勢を推定・追跡することによって、仮想オブジェクトがあたかも指定された領域に存在するかのように表示することができる(例えば特許文献2参照)。
また、対象物体の3次元構造を3Dセンサでリアルタイムに取得し、その位置姿勢を推定/追跡する技術もある(例えば特許文献3参照)。
更に、単眼カメラのみで、撮影画像の3次元構造を推定する技術もある(例えば特許文献4参照)。
On the other hand, according to the augmented reality technology that superimposes and displays virtual information on the target object, it is possible to estimate and track the 6-DOF position and orientation of the target object with respect to the camera and display augmented reality with a high sense of reality. . For example, by placing a virtual object on the target object specified in the image and estimating / tracking the position and orientation of the target object, the virtual object can be displayed as if it exists in the specified area. (See, for example, Patent Document 2).
There is also a technique for acquiring a three-dimensional structure of a target object in real time with a 3D sensor and estimating / tracking the position and orientation (see, for example, Patent Document 3).
Furthermore, there is a technique for estimating a three-dimensional structure of a captured image using only a monocular camera (see, for example, Patent Document 4).

特許3651745号公報Japanese Patent No. 36551745 特開2013−164697号公報JP 2013-164597 A 特開2014−511591号公報JP 2014-515991 A 特開2014−149582号公報JP 2014-149582 A 特開2015−069354号公報Japanese Patent Application Laid-Open No. 2015-069354

A. Ruiz et al., "Practical planar metric rectification," In Proc. of British Machine Vision Conference, 2006.A. Ruiz et al., "Practical planar metric rectification," In Proc. Of British Machine Vision Conference, 2006. A Mulloni et al., "User friendly SLAM initialization," in Proc. of IEEE International Symposium on Mixed and Augmented Reality, 2013.A Mulloni et al., "User friendly SLAM initialization," in Proc. Of IEEE International Symposium on Mixed and Augmented Reality, 2013. F Yu et al., "3D Reconstruction from Accidental Motion," in Proc. of IEEE Conference on Computer Vision and Pattern Recognition, 2014.F Yu et al., "3D Reconstruction from Accidental Motion," in Proc. Of IEEE Conference on Computer Vision and Pattern Recognition, 2014.

しかしながら、前述した従来技術によれば、単眼カメラの連続的な撮影画像を用いて、対象物体の位置姿勢を推定・追跡する際に、対象物体の3次元構造が未知である場合、撮影角度の変化による見た目の変化を予測することができない。そのために、ロバスト(頑健)性が著しく損なわれる。   However, according to the above-described prior art, when the position and orientation of the target object are estimated and tracked using continuous captured images of a monocular camera, if the three-dimensional structure of the target object is unknown, Unable to predict changes in appearance due to changes. For this reason, robustness is significantly impaired.

また、単眼カメラしか用いない場合、処理負荷や推定精度、カメラワーク(撮影中のカメラの動かし方)に対する制約が高い。例えば大きな視点変化を含む画像群を取得するようにカメラを動かす、ということが必要となる。   Further, when only a monocular camera is used, there are high restrictions on processing load, estimation accuracy, and camera work (how to move the camera during shooting). For example, it is necessary to move the camera so as to acquire an image group including a large viewpoint change.

これに対し、撮影画像に映る対象物体が平面物体(又は概ね平面で近似可能な物体)であるという前提条件の下では、計算量を削減し且つ推定精度を高めることができる。対象物体の3次元構造の平面を、「法線ベクトル」で表すことによって、計算量に影響する未知パラメータ数を大幅に減らすことができる。
対象物体が平面であれば、例えば画像間のホモグラフィ行列から、対象物体の方向を推定することもできる(例えば非特許文献1参照)。
また、対象物体に複数の平面が含まれる場合に推定精度を向上させる技術もある(例えば特許文献5参照)。
しかしながら、これら技術についても、カメラワークに対する制約が存在する。
On the other hand, under the precondition that the target object shown in the captured image is a planar object (or an object that can be approximated by a plane), the amount of calculation can be reduced and the estimation accuracy can be increased. By expressing the plane of the three-dimensional structure of the target object with a “normal vector”, the number of unknown parameters that affect the amount of calculation can be greatly reduced.
If the target object is a plane, the direction of the target object can be estimated from, for example, a homography matrix between images (see, for example, Non-Patent Document 1).
There is also a technique for improving estimation accuracy when a target object includes a plurality of planes (see, for example, Patent Document 5).
However, these techniques also have restrictions on camera work.

更に、既存技術のカメラワークの制約を解消する技術として、小さなカメラワークで撮影された連続画像から、バンドル調整を用いて撮影シーンの3次元構造を推定する技術がある(例えば非特許文献2、3参照)。これらの技術によれば、小さなカメラワークを前提とすることによって、推定するパラメータを制約し、初期パラメータの精度を向上させている。
しかしながら、この技術によれば、指定する対象物体の模様に制約があり、対象物体から万遍なく特徴点(画像特徴)が検出される場合にしか、実用的な精度を得ることができない。また、特徴点の追跡失敗に対するロバスト性に乏しい。
Furthermore, as a technique for eliminating the restrictions of the existing camera work, there is a technique for estimating a three-dimensional structure of a shooting scene using bundle adjustment from continuous images shot with a small camera work (for example, Non-Patent Document 2, 3). According to these techniques, by assuming a small camera work, the parameters to be estimated are restricted and the accuracy of the initial parameters is improved.
However, according to this technique, there is a restriction on the pattern of the target object to be specified, and practical accuracy can be obtained only when feature points (image features) are detected from the target object. Moreover, the robustness with respect to the feature point tracking failure is poor.

そこで、本発明は、対象物体が平面物体(又は概ね平面で近似可能な物体)であるという前提条件の下で、カメラワークの大きな制約無しに、連続的な撮影画像に映り込む平面物体の法線ベクトルを、できる限り少ない計算量で算出することができるプログラム、装置及び方法を提供する。   Therefore, the present invention provides a method for a planar object that is reflected in a continuous photographed image under the precondition that the target object is a planar object (or an object that can be approximated by a plane) without significant restrictions on camera work. Provided are a program, an apparatus, and a method capable of calculating a line vector with as little calculation as possible.

本発明によれば、撮影画像に映り込む平面物体の法線ベクトルを算出するようにコンピュータを機能させることを特徴とするプログラムにおいて、
連続的な撮影画像のNc個のフレームiと、
平面物体の登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)とを算出する法線ベクトル算出手段と
を有し、
法線ベクトル算出手段は、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
ようにコンピュータを機能させることを特徴とする。
According to the present invention, in a program that causes a computer to function to calculate a normal vector of a planar object reflected in a captured image,
Nc frames i of continuous shot images;
Three-dimensional coordinates X j (= [x j , y j , z j ) of Np registration points p j (= [u j , v j ] T , j = 1 to Np) detected from the registered image of the planar object. ] T ),
Using tracking coordinates m ij (= [u ij , v ij ] T , i = 1 to Nc) for each of Np registration points p j reflected in each frame,
Camera orientation parameters R i (= [r ix , r iy , r iz ] T ) and t i (= [t ix , t iy , t iz ] T ) that minimize the reprojection error function, and normal vectors normal vector calculation means for calculating n t (= [x n , y n , z n ] T , x n 2 + y n 2 + z n 2 = 1),
Normal vector calculating means, the three-dimensional coordinates X j of registration points p j of the reference image, a registration point p j, the reference point X 0 through the object plane (= [x 0, y 0 , z 0] T) And a normal vector n t, and the computer is made to function so as to be calculated by back projection of the registration point p j onto the object plane.

本発明のプログラムにおける他の実施形態によれば、
法線ベクトル算出手段は、基準点Xを、登録点pjの重心p(=[u,v]Tの逆投影(X=1/w[u,v,1]T)によって算出する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The normal vector calculation means uses the reference point X 0 as a back projection (X 0 = 1 / w 0 [u 0 , v 0 , 1) of the center of gravity p 0 (= [u 0 , v 0 ] T of the registration point p j. It is also preferred to have the computer function so as to calculate according to T ).

本発明のプログラムにおける他の実施形態によれば、
法線ベクトル算出手段について、再投影誤差関数は、以下の式によって表される
i',ti',nt'=arg minRi,ti,ntΣi=1 NcΣj=1 Np(mij−proj(Ri,ti,Xj))2
j=(nt・X/nt・pj')pj'
=(x+y+zn)/(xj+yj+z)[uj,vj,1]T
n 2+yn 2+zn 2=1
n=√(1−xn 2−yn 2)
j'(=[uj,vj,1]T):登録点pjの同次座標表現
i:撮影画像のNc個のフレームの番数
ij:フレームiに映るNp個の登録点pj毎の追跡座標
i及びti:フレームiのカメラ姿勢パラメータ
t:平面物体の法線ベクトル
:物体平面の通る基準点
proj(Ri,ti,Xj):3次元座標Xjの投影関数 [Ri|ti]Xj'
j':Xjの同次座標表現
i'及びti':フレームiのカメラ姿勢パラメータRi及びtiの推定値
t':平面物体の法線ベクトルntの推定値
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
For normal vector calculating means, the reprojection error function, R i represented by the formula ', t i', n t '= arg min Ri, ti, nt Σ i = 1 Nc Σ j = 1 Np ( m ij −proj (R i , t i , X j )) 2
X j = (n t · X 0 / n t · p j ') p j '
= (X n x 0 + y n y 0 + z n z 0 ) / (x n u j + y n v j + z n ) [u j , v j , 1] T
x n 2 + y n 2 + z n 2 = 1
z n = √ (1−x n 2 −y n 2 )
p j ′ (= [u j , v j , 1] T ): homogeneous coordinate expression of the registration point p j
i: Number of Nc frames of the captured image m ij : Tracking coordinates for each of Np registration points p j reflected in frame i R i and t i : Camera posture parameters of frame i n t : Normal of plane object Vector X 0 : Reference point through which the object plane passes
proj (R i , t i , X j ): projection function [R i | t i ] X j 'of the three-dimensional coordinate X j
X j ': Homogeneous coordinate representation of X j R i ' and t i ': Estimated values of camera posture parameters R i and t i of frame i n t ': Estimated value of normal vector n t of planar object It is also preferable to make the computer function.

本発明のプログラムにおける他の実施形態によれば、
法線ベクトル算出手段について、再投影誤差関数における未知パラメータの数は、Nc個のフレームi毎に生じるカメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)の6個と、登録点に対する法線ベクトルnt(=[x,y,z]T,x +y +z =1)の2個とを合計した、6Nc+2個となる
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
Regarding the normal vector calculation means, the number of unknown parameters in the reprojection error function is the camera posture parameters R i (= [r ix , r iy , r iz ] T ) and t i (= [t ix , t iy , t iz ] T ) and normal vectors n t (= [x n , y n , z n ] T , x n 2 + y n 2 + z n 2) = 1) It is also preferable to make the computer function so that 6Nc + 2 is obtained by adding the two.

本発明のプログラムにおける他の実施形態によれば、
法線ベクトル算出手段は、撮影画像のカメラワークが微小であるとする前提条件の下、カメラ姿勢パラメータのRiを単位行列とし、tiを零ベクトルとして、法線ベクトルを算出する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The normal vector calculation means, under the precondition that the camera work of the photographed image is minute, sets the computer to calculate the normal vector with the camera orientation parameter Ri as the unit matrix and t i as the zero vector. It is also preferable to make it function.

本発明のプログラムにおける他の実施形態によれば、
法線ベクトル算出手段について、再投影誤差関数は、バンドル調整における法線ベクトルの初期値を、光軸と平行な方向nt=[0,0,1]Tとする
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
Regarding the normal vector calculation means, the reprojection error function causes the computer to function so that the initial value of the normal vector in bundle adjustment is a direction n t = [0,0,1] T parallel to the optical axis. Is also preferable.

本発明のプログラムにおける他の実施形態によれば、
登録画像の登録点と撮影画像の追跡座標との間のホモグラフィ行列を用いて、誤追跡された追跡座標を除外する画像特徴追跡手段と
して更にコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
It is also preferable that the computer further function as an image feature tracking unit that excludes mistracked tracking coordinates using a homography matrix between the registered points of the registered image and the tracking coordinates of the captured image.

本発明のプログラムにおける他の実施形態によれば、
撮影画像の中から、ユーザ操作に応じて平面物体が映る対象領域を特定し、該対象領域を登録画像として記憶する登録画像記憶手段と
して更にコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
It is also preferable to specify a target area in which a planar object appears in accordance with a user operation from the captured images, and further cause the computer to function as registered image storage means for storing the target area as a registered image.

本発明のプログラムにおける他の実施形態によれば、
登録画像記憶手段は、登録画像を、法線ベクトル算出手段によって算出された法線ベクトルによって正面化画像に幾何変換し、該正面化画像を登録画像として記憶する
ようにコンピュータを機能させることも好ましい。
According to another embodiment of the program of the present invention,
The registered image storage means preferably causes the computer to function so as to geometrically transform the registered image into a frontalized image using the normal vector calculated by the normal vector calculating means, and store the frontaled image as a registered image. .

本発明によれば、撮影画像に映り込む平面物体の法線ベクトルを算出する画像処理装置において、
連続的な撮影画像のNc個のフレームiと、
平面物体の登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)とを算出する法線ベクトル算出手段と
を有し、
法線ベクトル算出手段は、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
ことを特徴とする。
According to the present invention, in an image processing apparatus that calculates a normal vector of a planar object reflected in a captured image,
Nc frames i of continuous shot images;
Three-dimensional coordinates X j (= [x j , y j , z j ) of Np registration points p j (= [u j , v j ] T , j = 1 to Np) detected from the registered image of the planar object. ] T ),
Using tracking coordinates m ij (= [u ij , v ij ] T , i = 1 to Nc) for each of Np registration points p j reflected in each frame,
Camera orientation parameters R i (= [r ix , r iy , r iz ] T ) and t i (= [t ix , t iy , t iz ] T ) that minimize the reprojection error function, and normal vectors normal vector calculation means for calculating n t (= [x n , y n , z n ] T , x n 2 + y n 2 + z n 2 = 1),
Normal vector calculating means, the three-dimensional coordinates X j of registration points p j of the reference image, a registration point p j, the reference point X 0 through the object plane (= [x 0, y 0 , z 0] T) And a normal vector n t and calculated by back projection of the registration point p j onto the object plane.

本発明によれば、撮影画像に映り込む平面物体の法線ベクトルを算出する装置の法線ベクトル算出方法において、
連続的な撮影画像のNc個のフレームiと、
平面物体の登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)とを算出するステップを有し、
このステップは、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
ことを特徴とする。
According to the present invention, in the normal vector calculation method of the apparatus for calculating the normal vector of the planar object reflected in the captured image,
Nc frames i of continuous shot images;
Three-dimensional coordinates X j (= [x j , y j , z j ) of Np registration points p j (= [u j , v j ] T , j = 1 to Np) detected from the registered image of the planar object. ] T ),
Using tracking coordinates m ij (= [u ij , v ij ] T , i = 1 to Nc) for each of Np registration points p j reflected in each frame,
Camera orientation parameters R i (= [r ix , r iy , r iz ] T ) and t i (= [t ix , t iy , t iz ] T ) that minimize the reprojection error function, and normal vectors n t (= [x n , y n , z n ] T , x n 2 + y n 2 + z n 2 = 1)
This step, the three-dimensional coordinates X j of registration points p j of the reference image, a registration point p j, the reference point X 0 through the object plane and (= [x 0, y 0 , z 0] T), Law It is expressed by the line vector n t and is calculated by back projection of the registration point p j onto the object plane.

本発明のプログラム、装置及び方法によれば、対象物体が平面物体(又は概ね平面で近似可能な物体)であるという前提条件の下で、カメラワークの大きな制約無しに、連続的な撮影画像に映り込む平面物体の法線ベクトルを、大幅に少ない計算量で算出することができる。具体的には、法線ベクトルを算出するためのバンドル調整における未知パラメータの数を削減しているために、処理負荷を削減し、推定精度を高めることができる。また、ホモグラフィ行列を用いることによって、特徴点の追跡失敗に対するロバスト性も向上させることができる。   According to the program, the apparatus, and the method of the present invention, it is possible to continuously capture captured images without a large limitation of camera work under the precondition that the target object is a planar object (or an object that can be approximated by a plane). The normal vector of the planar object to be reflected can be calculated with a significantly small amount of calculation. Specifically, since the number of unknown parameters in bundle adjustment for calculating a normal vector is reduced, the processing load can be reduced and the estimation accuracy can be increased. Further, by using the homography matrix, it is possible to improve the robustness against the tracking failure of the feature points.

本発明における画像処理装置の機能構成図である。It is a functional block diagram of the image processing apparatus in this invention. 登録画像及び正面化画像の法線ベクトルを表す説明図である。It is explanatory drawing showing the normal vector of a registration image and a front-facing image. 法線ベクトルと正面化回転行列との関係を表す説明図である。It is explanatory drawing showing the relationship between a normal vector and a front-facing rotation matrix. 登録画像の登録点と撮影画像の追跡座標との間の対応関係を表す説明図であるIt is explanatory drawing showing the correspondence between the registration point of a registration image, and the tracking coordinate of a picked-up image. 登録点と追跡座標との対応を表す画像図である。It is an image figure showing a response | compatibility with a registration point and a tracking coordinate. 異なる未知パラメータの数で表現した特徴点(追跡座標)を表す画像図である。It is an image figure showing the feature point (tracking coordinate) expressed by the number of different unknown parameters. 登録点と基準点、法線ベクトル、対象物平面の幾何的関係を表す説明図である。It is explanatory drawing showing the geometric relationship of a registration point, a reference point, a normal vector, and an object plane. 光軸中心と、画像平面上の登録画像の登録点と、撮影画像の法線ベクトルとの幾何的関係を表すグラフである。It is a graph showing the geometric relationship between the optical axis center, the registration point of the registration image on the image plane, and the normal vector of the captured image. バンドル調整に応じてフレーム数に対する法線ベクトルの収束及び処理時間を表すグラフである。It is a graph showing the convergence and processing time of the normal vector with respect to the number of frames according to bundle adjustment.

以下、本発明の実施の形態について、図面を用いて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明における画像処理装置の機能構成図である。   FIG. 1 is a functional configuration diagram of an image processing apparatus according to the present invention.

図1の画像処理装置によれば、画像取得部10と、登録画像記憶部11と、画像特徴追跡部12と、法線ベクトル算出部13とを有する。これら機能構成部は、装置に搭載されたコンピュータを機能させるプログラムを実行することによって実現される。また、これら機能構成部の処理の流れは、装置の法線ベクトル算出方法としても理解できる。   The image processing apparatus of FIG. 1 includes an image acquisition unit 10, a registered image storage unit 11, an image feature tracking unit 12, and a normal vector calculation unit 13. These functional components are realized by executing a program that causes a computer installed in the apparatus to function. Further, the processing flow of these functional components can be understood as a normal vector calculation method of the apparatus.

本発明によれば、連続的な撮影画像に映り込む平面物体の法線ベクトルを算出する際に、以下の2つの条件を前提とすることによって、3次元構造の未知のパラメータ数を削減し、できる限り少ない計算量で実行する。
(前提条件1)対象物体が、平面物体(又は概ね平面で近似可能な物体)である
(前提条件2)撮影画像のカメラワークが、微小である
According to the present invention, when calculating the normal vector of a planar object reflected in continuous captured images, the number of unknown parameters of the three-dimensional structure is reduced by assuming the following two conditions: Run with as little computation as possible.
(Precondition 1) The target object is a plane object (or an object that can be approximated by a plane) (Precondition 2) The camera work of the captured image is very small.

撮影画像に映り込む「対象物体」とは、平面で且つ剛体の「平面物体」であり、時間経過に応じて変形するような物体を対象としていない。また、特徴点追跡によって法線ベクトルを推定するために、撮影画像に映る対象物体から、比較的多くの特徴点が検出されることを前提としている。但し、単一色の平面の場合は、特徴点が検出されにくい場合がある。対象物体としては、例えば雑誌やポスター、広告、トレーディングカード、建物の壁面が想定されている。   The “target object” reflected in the captured image is a planar “rigid” “planar object” and does not target an object that deforms over time. Further, in order to estimate the normal vector by feature point tracking, it is assumed that a relatively large number of feature points are detected from the target object shown in the captured image. However, in the case of a single color plane, it may be difficult to detect feature points. As target objects, for example, magazines, posters, advertisements, trading cards, and building walls are assumed.

「カメラワーク」とは、ユーザによるカメラの動かし方を意味する。「カメラワークが微小である」ということは、ユーザがカメラをできる限り動かさないように把持して、対象物体を撮影している状態をいう。これに対し、「カメラワークが大きい」とは、ユーザがカメラを大きく動かして、対象物体を様々な位置と方向から撮影している状態をいう。   “Camera work” means how the user moves the camera. “The camera work is very small” means a state in which the user holds the camera so as not to move as much as possible and photographs the target object. On the other hand, “the camera work is large” means a state in which the user moves the camera greatly to photograph the target object from various positions and directions.

[画像取得部10]
画像取得部10は、カメラによる連続的な撮影画像を取得する。撮影画像は、予め録画されたものであってもよいし、インタフェースを介して外部から時系列に入力されるもの(例えばライブ映像)であってもよい。インタフェースは、ネットワークに接続する通信インタフェースであってもよいし、カメラからの入力インタフェースであってもよい。取得された撮影画像は、画像特徴追跡部12へ出力される。ここで、登録画像がユーザによって指定される場合、取得された撮影画像は、登録画像記憶部11へも出力される。
[Image acquisition unit 10]
The image acquisition unit 10 acquires continuous captured images from the camera. The captured image may be recorded in advance, or may be input in a time series from the outside via an interface (for example, live video). The interface may be a communication interface connected to a network or an input interface from a camera. The acquired captured image is output to the image feature tracking unit 12. Here, when the registered image is designated by the user, the acquired captured image is also output to the registered image storage unit 11.

[登録画像記憶部11]
ユーザは、撮影画像中の平面物体の姿勢推定を開始する際に、ユーザインタフェースを介して登録画像を設定し、姿勢推定の開始を指示する。登録画像記憶部11は、画像取得部10から入力された撮影画像の中から、対象領域となる登録画像を記憶する。
[Registered image storage unit 11]
When starting the posture estimation of a planar object in a captured image, the user sets a registered image via the user interface and instructs the start of posture estimation. The registered image storage unit 11 stores a registered image serving as a target area from among the captured images input from the image acquisition unit 10.

登録画像記憶部11は、ユーザからユーザインタフェースを介して、平面物体が映る大まかな画像範囲の指示を受け付けることもできる。例えば、ユーザが、平面物体を包含する矩形領域や輪郭を、ポインティング操作に応じて指示する。ここで、登録画像には、その平面物体が、比較的大きく撮像されていることが好ましい。この登録画像が、連続して入力される撮影画像の中で追跡されていく。   The registered image storage unit 11 can accept an instruction of a rough image range in which a planar object is reflected from the user via the user interface. For example, the user instructs a rectangular region or contour that includes a planar object in accordance with a pointing operation. Here, it is preferable that the registration object has a relatively large image of the planar object. This registered image is tracked in the captured images that are continuously input.

登録画像記憶部11は、登録画像の画像範囲のトリミングや、画像範囲の外側の背景を単一色で塗りつぶすように画像処理を加えることによって、背景に対する画像特徴の追跡のロバスト性を高めることができる。また、対象物体を表すマスク画像(登録画像と同じ範囲で、対象領域の輝度値を255、それ以外の輝度値を0とすることで表現した画像)を保持し、そのマスク画像を用いて画像特徴追跡部12が、画像特徴を検出する範囲を制限してもよい。   The registered image storage unit 11 can improve the robustness of image feature tracking with respect to the background by trimming the image range of the registered image and applying image processing to fill the background outside the image range with a single color. . In addition, a mask image representing the target object (an image expressed by setting the luminance value of the target region to 255 and the other luminance values to 0 within the same range as the registered image) is held, and an image is generated using the mask image. The feature tracking unit 12 may limit the range in which image features are detected.

図2は、登録画像及び正面化画像の法線ベクトルを表す説明図である。   FIG. 2 is an explanatory diagram showing normal vectors of the registered image and the front-facing image.

図2によれば、登録画像について、法線ベクトル算出部13によって算出された法線ベクトルnt=[xn,yn,zn]Tを用いて幾何変換している。これによって、平面物体が映る登録画像を、正面化画像(平面物体を正面から撮像した際の画像をシミュレートした変換画像)に変換することができる。平面物体が正面から撮影されている場合、法線ベクトルは、画像平面と垂直、光軸と並行の関係になる。逆に、平面物体が真横から撮影されている場合、法線ベクトルは、光軸と垂直、画像平面と並行の関係になる。 According to FIG. 2, the registered image is geometrically transformed using the normal vector n t = [ x n, yn, z n] T calculated by the normal vector calculator 13. As a result, the registered image in which the planar object is reflected can be converted into a frontalized image (a converted image simulating an image when the planar object is imaged from the front). When a planar object is photographed from the front, the normal vector is perpendicular to the image plane and parallel to the optical axis. On the other hand, when a planar object is photographed from the side, the normal vector has a relationship perpendicular to the optical axis and parallel to the image plane.

登録画像記憶部11は、その正面化画像を記憶することができる。登録画像を正面化画像に変換することによって、画像認識や姿勢追跡の精度を向上させることができる。   The registered image storage unit 11 can store the frontal image. By converting the registered image into a frontalized image, the accuracy of image recognition and posture tracking can be improved.

図3は、法線ベクトルと正面化回転行列との関係を表す説明図である。   FIG. 3 is an explanatory diagram showing the relationship between the normal vector and the front-facing rotation matrix.

図3によれば、回転行列をRrecは、平面物体の法線ベクトルntが、光軸(Z軸)と並行なベクトルnZと一致するように変換するものである。
Rrec=RYY)RXX)
X:X軸周りの回転行列
Y:Y軸周りの回転行列
θX:ntのX軸に沿った角度
θY:ntのY軸に沿った角度
According to FIG. 3, the rotation matrix Rrec is transformed so that the normal vector n t of the planar object coincides with a vector n Z parallel to the optical axis (Z axis).
Rrec = R YY ) R XX )
R X : rotation matrix around the X axis
R Y : rotation matrix around Y axis
theta X: angle along the X-axis of the n t
theta Y: angle along the Y-axis of the n t

この回転行列Rrecを用いて、登録画像を正面化することができる。例えば以下のようなホモグラフィ行列Hrecによって、登録画像を正面化画像に変換することができる。
Hrec=[p1,p2,p4
Prec=[p1,p2,p3,p4]=A[Rrec|t]
t:登録画像中の平面物体の位置を調整する並進ベクトル
ここで、tは正面化画像中の平面物体が画像中央に来るように調整して設定することが望ましい。
Using this rotation matrix Rrec, the registered image can be fronted. For example, the registered image can be converted into a front-facing image by the following homography matrix Hrec.
Hrec = [p 1 , p 2 , p 4 ]
Prec = [p 1 , p 2 , p 3 , p 4 ] = A [Rrec | t]
t: Translation vector for adjusting the position of the planar object in the registered image Here, t is preferably adjusted and set so that the planar object in the frontalized image comes to the center of the image.

カメラの内部パラメータAは、画像の歪みを無視した場合、以下のように表すことができる。
x、f:焦点距離、cx、cy:光軸のズレ
焦点距離fx、fy及び光軸のズレcx、cyは、事前のキャリブレーションによって算出しておくことができる。画像平面上の二次元ピクセル座標[u,v]Tは、内部パラメータを用いて、以下の式で正規化座標[u',v']Tに変換することができる。
u'=(u−cx)/fx , v'=(v−cy)/fy
このように、二次元座標を正規化座標で表現することにより、式を簡潔に記載することができる。そのために、本発明の登録点や特徴点の二次元座標は、正規化座標で記載していることに注意すべきである。
The internal parameter A of the camera can be expressed as follows when image distortion is ignored.
f x, f y: focal length, c x, c y: displacement focal length f x of the optical axis, f y and shift c x of the optical axis, c y may be kept calculated by prior calibration . Two-dimensional pixel coordinates [u, v] T on the image plane can be converted into normalized coordinates [u ′, v ′] T by the following formula using internal parameters.
u ′ = (u−c x ) / f x , v ′ = (v−c y ) / f y
Thus, by expressing the two-dimensional coordinates with the normalized coordinates, the formula can be described simply. Therefore, it should be noted that the two-dimensional coordinates of the registration points and feature points of the present invention are described in normalized coordinates.

[画像特徴追跡部12]
画像特徴追跡部12は、連続的な撮影画像の中で、登録画像の登録点(画像特徴)を追跡する。
[Image Feature Tracking Unit 12]
The image feature tracking unit 12 tracks a registration point (image feature) of a registered image in continuous captured images.

図4は、登録画像の登録点と撮影画像の追跡座標との間の対応関係を表す説明図である。   FIG. 4 is an explanatory diagram showing the correspondence between the registration points of the registered image and the tracking coordinates of the captured image.

画像間で画像特徴を追跡するために、一般的に以下の2つの技術がある。
<特徴点追跡ベース>
<局所特徴量のマッチングベース>
画像特徴追跡部12は、2つのいずれか一方又は両方を用いて、登録画像(法線ベクトルnt)の登録点pj(=[u,v]T、j=1〜Np)に対応する撮影画像の追跡座標mij(=[uij,vij]T、i=1〜Nc)を取得する。
There are generally two techniques for tracking image features between images:
<Feature point tracking base>
<Local feature matching base>
The image feature tracking unit 12 uses one or both of the two at the registration point p j (= [u j , v j ] T , j = 1 to Np) of the registered image (normal vector n t ). Acquire tracking coordinates m ij (= [u ij , v ij ] T , i = 1 to Nc) of the corresponding captured image.

<特徴点追跡ベース>
特徴点追跡ベースの技術によれば、Harrisコーナー検出器や、FASTコーナー検出器によって、登録画像の登録点に対応する撮影画像の中の追跡座標を検出する。一般的に、KLT(Kanade-Lucas-Tomasi)アルゴリズムや、特徴点周囲局所領域を切り出したパッチのテンプレートマッチングの技術が用いられる。テンプレートマッチングの類似度算出方法としては、NCC(Normalized Cross Correlation)やSSD(Sum of Squared Difference)を用いることができる。
<Feature point tracking base>
According to the feature point tracking-based technique, tracking coordinates in a captured image corresponding to a registration point of a registered image are detected by a Harris corner detector or a FAST corner detector. In general, a KLT (Kanade-Lucas-Tomasi) algorithm or a template matching technique for patches obtained by cutting out local regions around feature points is used. As a template matching similarity calculation method, NCC (Normalized Cross Correlation) or SSD (Sum of Squared Difference) can be used.

<局所特徴量のマッチングベース>
局所特徴量のマッチングベースの技術によれば、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)のような、位置や回転、歪みの変化に頑健な特徴量のマッチングによって画像間の点対応を取得する。SIFTは、1枚の画像からは128次元の特徴ベクトルの集合を抽出し、スケールスペースを用いて特徴的な局所領域を解析し、そのスケール変化及び回転に不変となる特徴ベクトルを記述する。SURFは、積分画像を利用することによってSIFTよりも高速処理が可能であって、1枚の画像から64次元の特徴ベクトルの集合を抽出する。また、バイナリ特徴ベクトル抽出アルゴリズムであるFAST(Features from Accelerated Segment Test)やFREAK(Fast Retina Keypoint)の場合、SIFTやSURFよりも高速且つコンパクトな特徴ベクトルを抽出することができる。
<Local feature matching base>
According to local feature matching-based technology, matching between features such as SIFT (Scale-Invariant Feature Transform) and SURF (Speeded Up Robust Features) is robust to changes in position, rotation, and distortion. Get point correspondence. SIFT extracts a set of 128-dimensional feature vectors from one image, analyzes a characteristic local region using a scale space, and describes a feature vector that is invariant to scale change and rotation. SURF can perform higher-speed processing than SIFT by using an integral image, and extracts a set of 64-dimensional feature vectors from one image. Further, in the case of FAST (Features from Accelerated Segment Test) and FRAK (Fast Retina Keypoint) which are binary feature vector extraction algorithms, feature vectors that are faster and more compact than SIFT or SURF can be extracted.

ここで、登録点と追跡座標との間で、背景画像が写りこむ場合や、照明変化、パターン模様等に起因して、誤追跡(アウトライア)される場合がある。後段の法線ベクトル算出部13に入力される登録点及び追跡座標には、アウトライアの対応点が入力されないことが好ましい。ここで、画像特徴追跡部12は、登録画像の登録点と撮影画像の追跡座標との間のホモグラフィ行列を用いて、誤追跡された追跡座標を除外する。即ち、アウトライアの追跡座標が除外され、インライアの追跡座標のみが、法線ベクトル算出部13へ出力される。   Here, there is a case where a background image is captured between the registration point and the tracking coordinates, or an erroneous tracking (outlier) is caused due to a change in illumination, a pattern pattern, or the like. It is preferable that a corresponding point of the outlier is not input to the registration point and tracking coordinates input to the normal vector calculation unit 13 at the subsequent stage. Here, the image feature tracking unit 12 excludes mistracked tracking coordinates using a homography matrix between the registration points of the registered image and the tracking coordinates of the captured image. That is, the tracking coordinates of the outlier are excluded, and only the tracking coordinates of the inlier are output to the normal vector calculation unit 13.

図5は、登録点と追跡座標との対応を表す画像図である。   FIG. 5 is an image diagram showing correspondence between registered points and tracking coordinates.

図5によれば、対象物体が平面であると仮定して、幾何的な検証によって誤追跡を除外することができる。平面物体上の登録点の位置の変化は、ホモグラフィ変換で表現することができる。そのために、画像特徴追跡部12は、登録画像と撮影画像との間のホモグラフィ行列HRCを推定し、そのHRCに該当しない追跡座標を除外することによって、追跡のロバスト性を向上させることができる。 According to FIG. 5, assuming that the target object is a plane, mistracking can be excluded by geometric verification. The change in the position of the registration point on the planar object can be expressed by homography conversion. Therefore, the image feature tracking unit 12, by estimating the homography matrix H RC between the captured image and the registered image, excluding the tracking coordinates do not correspond to the H RC, to improve the robustness of the tracking Can do.

具体的には、各登録点pjについて、HRCを用いた変換位置と、実際の追跡座標mijの距離dijを、以下の式によって算出する。
ij=|mij−p'ij
P'ij ̄=HRCij
ij' ̄:pijの同次表現
ij:追跡座標mijのホモグラフィ行列HRCからの乖離度
ijが一定の閾値以上の追跡座標mijを除外することによって、追跡のロバスト性を向上させることができる。
Specifically, for each registered point p j , the distance d ij between the conversion position using HRC and the actual tracking coordinate m ij is calculated by the following equation.
d ij = | m ij −p ′ ij |
P ′ ij  ̄ = H RC p ij
P ij ' ̄: homogeneous representation of p ij
d ij: By deviance d ij from the homography matrix H RC tracking coordinates m ij is excluded tracking coordinates m ij above a certain threshold, it is possible to improve the robustness of the tracking.

一般に、ホモグラフィ行列の推定値は、登録点の投影誤差関数の最小化問題を解くことによって得られる。ここで、更に、RANSAC(RANdom SAmple Consensus)のようなロバスト推定を併用することによって、HRCに該当する追跡座標のインライアとアウトライアとを、ロバストに分離することができる。 In general, the estimated value of the homography matrix is obtained by solving the minimization problem of the projection error function of the registration points. Here, further, by combining the robust estimation such as RANSAC (RANdom SAmple Consensus), the inliers and outliers tracking coordinates corresponding to H RC, it can be robustly separated.

登録画像の全面に平面物体が映る場合、画像間のホモグラフィ行列を高精度に推定することができる。一方で、登録画像の一部にしか平面物体が映らない場合(背景が写る場合)や、対象物体が一部立体的構造を含む場合、画像特徴の対応からホモグラフィ行列を一意に推定することができない。このとき、正しい追跡座標であっても、ホモグラフィ推定によってアウトライアとなることが起こりうる。これらの点は平面構造に合致しないため、追跡結果に含まれると法線ベクトルの推定精度の劣化要因となる。そのため、ロバスト推定で除外されることが好ましい。   When a planar object appears on the entire registered image, the homography matrix between the images can be estimated with high accuracy. On the other hand, when a planar object appears only in a part of the registered image (when the background appears), or when the target object partially includes a three-dimensional structure, the homography matrix should be uniquely estimated from the correspondence of the image features I can't. At this time, even if the tracking coordinates are correct, outliers may occur due to homography estimation. Since these points do not match the planar structure, if they are included in the tracking result, the normal vector estimation accuracy deteriorates. Therefore, it is preferable to be excluded by robust estimation.

このような点が少数であれば、ロバスト推定で正しく除外することができる。尚、背景に対して平面物体の面積が相対的に小さい場合は、アウトライアの除外に失敗し、誤ったホモグラフィ行列を算出してしまうことに留意すべきである。   If there are few such points, they can be correctly excluded by robust estimation. It should be noted that if the area of the planar object is relatively small with respect to the background, outlier exclusion fails and an incorrect homography matrix is calculated.

<ホモグラフィ行列を用いた登録画像の画像範囲の推定>
ユーザの指示に応じて平面物体が映る登録画像から、ある程度、背景領域を除外することができる。しかしながら、ユーザが厳密に、平面物体を登録画像全体で指定することは難しく、登録画像の指定には誤差が含まれる。尚、本来、利便性の観点からは、対象領域をユーザに指定させる必要が無いことが好ましい。
<Estimating the image range of a registered image using a homography matrix>
The background region can be excluded to some extent from the registered image in which the planar object is reflected according to the user's instruction. However, it is difficult for the user to strictly specify a planar object for the entire registered image, and the registration image specification includes an error. Note that, from the viewpoint of convenience, it is originally preferable that the user does not need to designate the target area.

ここで、画像特徴追跡部12は、登録画像中の対象領域を推定し、ホモグラフィ行列の算出に用いる画像特徴を制限することで、ホモグラフィ推定のロバスト性を向上させる。また、対象領域外の画像特徴に対して、ホモグラフィ行列と合致するかを検証することによって、画像特徴追跡のロバスト性を向上させる。最終的には、インライアとなった登録点のみを用いて対象領域を更新することができる。   Here, the image feature tracking unit 12 estimates the target region in the registered image and restricts the image features used for calculating the homography matrix, thereby improving the robustness of the homography estimation. Also, robustness of image feature tracking is improved by verifying whether image features outside the target region match the homography matrix. Eventually, the target area can be updated using only the registration points that have become inliers.

<登録画像に映る平面物体の位置の推定>
平面物体は、登録画像の中央付近に写っていることが一般的に期待されており、対象領域の初期値として、登録画像の中央付近の領域を指定することが望ましい。ホモグラフィ行列に合致するインライアの取得後、インライアを包含する領域を対象領域として更新する。
<Estimation of the position of a planar object in the registered image>
It is generally expected that the planar object appears in the vicinity of the center of the registered image, and it is desirable to designate an area near the center of the registered image as the initial value of the target area. After obtaining the inlier that matches the homography matrix, the region including the inlier is updated as the target region.

<大きすぎるカメラワークに対する処理の中断>
追跡に成功した追跡座標(画像特徴)の数が著しく少ない場合、複数の原因がある。例えば、カメラワークが大きすぎるか、光源変化やフォーカスの変化によって画像特徴の追跡が著しく困難な画像が入力されたか、登録画像にノイズが乗っている場合がある。これらの場合、法線ベクトルを正確に算出することができない。そのために、画像特徴追跡部12は、追跡に成功した画像特徴の数が第1の所定閾値τnp以下の場合に、画像処理を中断して、画像登録からやり直す。
<Interruption of processing for camera work that is too large>
If the number of tracking coordinates (image features) that have been successfully tracked is significantly small, there are multiple causes. For example, there may be a case where the camera work is too large, an image whose tracking of image features is extremely difficult due to a light source change or a focus change is input, or noise is added to the registered image. In these cases, the normal vector cannot be calculated accurately. Therefore, the image feature tracking unit 12 interrupts the image processing and starts again from the image registration when the number of image features that have been successfully tracked is equal to or less than the first predetermined threshold value τ np .

<少なすぎる追跡座標に対する処理の中断>
十分な数の追跡座標(画像特徴)が追跡できたにもかかわらず、ホモグラフィ行列に合致する(インライアとなる)追跡座標の数が著しく少ない場合、対象領域が平面で無い場合が想定される。この場合、画像特徴追跡部12は、追跡に成功した画像特徴の数が第2の所定閾値(<第1の所定閾値)以下の場合に、画像処理を中断して、「対象物体が平面で無い」旨をユーザに明示する。
<Interruption of processing for too few tracking coordinates>
If a sufficient number of tracking coordinates (image features) can be tracked but the number of tracking coordinates that match the homography matrix (becomes inliers) is extremely small, the target area may not be a plane. . In this case, the image feature tracking unit 12 interrupts the image processing when the number of image features that have been successfully tracked is equal to or less than a second predetermined threshold (<first predetermined threshold), and “the target object is a plane “None” is clearly indicated to the user.

<多面体の対象物体に対する繰り返し処理>
対象物体が複数平面で構成される場合は、第1の対象領域についてアウトライアとなった追跡座標のみから再度、RANSAC等のロバスト推定を用いて、第2の対象領域として、第1のHRCとは異なる第2のホモグラフィ行列HRCを算出し、そのインライアとなる追跡座標を抽出することも好ましい。3つ以上の対象領域についても、これを繰り返すことができる。
<Repetitive processing for polyhedral target object>
When the target object is composed of a plurality of planes, the first H RC is used as the second target area by using robust estimation such as RANSAC again from only the tracking coordinates that are outliers for the first target area. It is also preferable to calculate a second homography matrix H RC different from, and extract the tracking coordinates that become the inlier. This can be repeated for three or more target regions.

第2の対象領域以降の法線ベクトルは、法線ベクトル算出部13の処理によって、第1の対象領域の法線ベクトルを推定した後で同様の処理を繰り返していくか、又は、各対象領域に対して法線ベクトル算出部13の処理を並列に実行することもできる。並列的に実行する方が、法線ベクトルを高速に推定することができるが、処理負荷が高くなる。処理リソースに応じて、処理手順を選択することが好ましい。   The normal vectors after the second target area are processed by the normal vector calculation unit 13 after the normal vector of the first target area is estimated, or the same process is repeated, or each target area However, the processing of the normal vector calculation unit 13 can be executed in parallel. Executing in parallel can estimate the normal vector at a higher speed, but the processing load becomes higher. It is preferable to select a processing procedure according to the processing resource.

[法線ベクトル算出部13]
法線ベクトル算出部13には、画像特徴追跡部12から、各撮影画像に対応する連続的な登録点pの群が入力される。法線ベクトル算出部13は、撮影画像に映り込む平面物体の法線ベクトルを算出するために、以下の要素を用いる。
i:連続的な撮影画像のNc個のフレームの番数
j(=[x,y,z]T):平面物体の登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標
ij(=[uij,vij]T、i=1〜Nc):各フレームに映るNp個の登録点pj毎の追跡座標
そして、法線ベクトル算出部13は、再投影誤差関数(バンドル調整)を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)とを算出する。
このとき、本発明の法線ベクトル算出部13は、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する。
これによって、Xj(=[x,y,z]T)を未知パラメータとすることなく、これに代えて、法線ベクトルntの2パラメータを未知パラメータとすることができる。
[Normal vector calculation unit 13]
The normal vector calculation unit 13 receives a group of continuous registration points p corresponding to each captured image from the image feature tracking unit 12. The normal vector calculation unit 13 uses the following elements in order to calculate the normal vector of a planar object reflected in the captured image.
i: Number of Nc frames of consecutive captured images X j (= [x j , y j , z j ] T ): Np registration points p j (= [u j , v j ] T , j = 1 to Np) three-dimensional coordinates m ij (= [u ij , v ij ] T , i = 1 to Nc): Np registration points p j reflected in each frame Then, the normal vector calculation unit 13 minimizes the reprojection error function (bundle adjustment), and camera orientation parameters R i (= [r ix , r iy , r iz ] T ) and t i ( = [T ix , t iy , t iz ] T ) and normal vector n t (= [x n , y n , z n ] T , x n 2 + y n 2 + z n 2 = 1) calculate.
At this time, the vector generator 13 of the present invention, the three-dimensional coordinates X j of registration points p j of the reference image, a registration point p j, the reference point X 0 through the object plane (= [x 0, y 0 , z 0 ] T ) and the normal vector n t, and is calculated by back projection of the registration point p j onto the object plane.
Thus, two parameters of the normal vector n t can be used as unknown parameters instead of using X j (= [x j , y j , z j ] T ) as unknown parameters.

また、法線ベクトル算出部13は、基準点Xを、登録点pjの重心p(=[u,v]Tの逆投影(X=1/w[u,v,1]T)によって算出するものであってもよい。
物体平面の通る基準点X(=[x,y,z]T)は、再投影誤差関数の最小化計算の安定性の観点から、対象物平面の中心付近に設定することが好ましい。また、推定されるカメラ姿勢はスケール不定のため、Xの奥行きは任意の値に設定してもよい。例えば、X=[0,0,f]T(fは焦点距離f、fに近い値)と設定してもよい。
但し、対象物が画像中央に映るとは限らないため、登録点pjの重心p(=[u,v]T)を算出して、pの逆投影点X(=1/w[u,v,1]T)を算出してもよい。これにより、対象物が画面の端の方に映る場合における、法線ベクトル算出の安定性を向上することができる。この場合についても、奥行き1/wは任意の値(例えば焦点距離f、fに近い値)に設定してもよい。また、予め対象物平面までの距離が大まかに分かっている場合には、分かっている範囲に設定することも好ましい。
Further, the normal vector calculation unit 13 uses the reference point X 0 as a back projection (X 0 = 1 / w 0 [u 0 , v] of the center of gravity p 0 (= [u 0 , v 0 ] T of the registration point p j. 0 , 1] T ).
The reference point X 0 (= [x 0 , y 0 , z 0 ] T ) through which the object plane passes can be set near the center of the object plane from the viewpoint of the stability of the reprojection error function minimization calculation. preferable. The camera pose is estimated for scale indefinite depth of X 0 may be set to any value. For example, X 0 = [0,0, f ] T (f is the focal length f x, close to f y) may be set to.
However, since the object does not always appear in the center of the image, the center of gravity p 0 (= [u 0 , v 0 ] T ) of the registration point p j is calculated, and the back projection point X 0 (= 1) of p 0 / W 0 [u 0 , v 0 , 1] T ) may be calculated. This can improve the stability of normal vector calculation when the object is reflected toward the edge of the screen. In this case the well, the depth 1 / w 0 may be set to any value (for example, the focal length f x, close to f y). In addition, when the distance to the object plane is roughly known in advance, it is also preferable to set it within the known range.

法線ベクトル算出部13について、再投影誤差関数(バンドル調整)は、以下の式によって表される。
i',ti',nt'=arg minRi,ti,ntΣi=1 NcΣj=1 Np(mij−proj(Ri,ti,Xj))2
j=(nt・X/nt・pj')pj'
=(x+y+zn)/(xj+yj+z)[uj,vj,1]T
n 2+yn 2+zn 2=1
n=√(1−xn 2−yn 2)
j'(=[uj,vj,1]T):登録点pjの同次座標表現
i:撮影画像のNc個のフレームの番数
ij:フレームiに映るNp個の登録点pj毎の追跡座標
i及びti:フレームiのカメラ姿勢パラメータ
t:平面物体の法線ベクトル
:物体平面の通る基準点
proj(Ri,ti,Xj):3次元座標Xjの投影関数 [Ri|ti]Xj'
j':Xjの同次座標表現
i'及びti':フレームiのカメラ姿勢パラメータRi及びtiの推定値
t':平面物体の法線ベクトルntの推定値
Regarding the normal vector calculation unit 13, the reprojection error function (bundle adjustment) is expressed by the following equation.
R i ', t i', n t '= arg min Ri, ti, nt Σ i = 1 Nc Σ j = 1 Np (m ij -proj (R i, t i, X j)) 2
X j = (n t · X 0 / n t · p j ') p j '
= (X n x 0 + y n y 0 + z n z 0 ) / (x n u j + y n v j + z n ) [u j , v j , 1] T
x n 2 + y n 2 + z n 2 = 1
z n = √ (1−x n 2 −y n 2 )
p j ′ (= [u j , v j , 1] T ): homogeneous coordinate expression of the registration point p j
i: Number of Nc frames of the captured image m ij : Tracking coordinates for each of Np registration points p j reflected in frame i R i and t i : Camera posture parameters of frame i n t : Normal of plane object Vector X 0 : Reference point through which the object plane passes
proj (R i , t i , X j ): projection function [R i | t i ] X j 'of the three-dimensional coordinate X j
X j ′: homogeneous coordinate representation of X j R i ′ and t i ′: estimated values of camera posture parameters R i and t i of frame i n t ′: estimated values of normal vector n t of the planar object

図6は、異なる未知パラメータの数で表現した特徴点(追跡座標)を表す画像図である。   FIG. 6 is an image diagram showing feature points (tracking coordinates) expressed by the number of different unknown parameters.

既存技術に基づく3次元復元で用いられるバンドル調整の場合、Xj(=[x,y,z]T)を未知パラメータとしている。そのために、再投影誤差関数における未知パラメータの数は、Nc個のフレームi毎に生じるカメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)の6個と、Np個の3次元座標の登録点pjとなり、未知パラメータの数は、6Nc+3Np個となる。
i',ti',Xj'=arg minRi,ti,xjΣi=1 NcΣj=1 Np(mij−proj(Ri,ti,Xj))2
In the case of bundle adjustment used in three-dimensional restoration based on the existing technology, X j (= [x j , y j , z j ] T ) is an unknown parameter. For this purpose, the number of unknown parameters in the reprojection error function is determined by the camera posture parameters R i (= [r ix , r iy , r iz ] T ) and t i (= [t ix , t iy , t iz ] T ) and Np three-dimensional coordinate registration points p j , and the number of unknown parameters is 6Nc + 3Np.
R i ', t i', X j '= arg min Ri, ti, xj Σ i = 1 Nc Σ j = 1 Np (m ij -proj (R i, t i, X j)) 2

これに対し、本発明によれば、Xj(=[x,y,z]T)に代えて、法線ベクトルntの2パラメータを未知パラメータnt’とする。そのために、再投影誤差関数における未知パラメータの数は、Nc個のフレームi毎に生じるカメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)の6個と、登録点pjに対する法線ベクトルnt(=[x,y,z]T,x +y +z =1)の2個とを合計した、6Nc+2個となる。
i',ti',nt'=arg minRi,ti,ntΣi=1 NcΣj=1 Np(mij−proj(Ri,ti,Xj))2
そのために、本発明によれば、パラメータ数を大幅に削減することができ、処理負荷の削減と、精度の向上との効果を得られる。
On the other hand, according to the present invention, instead of X j (= [x j , y j , z j ] T ), two parameters of the normal vector n t are set as unknown parameters n t ′. For this purpose, the number of unknown parameters in the reprojection error function is determined by the camera posture parameters R i (= [r ix , r iy , r iz ] T ) and t i (= [t ix , t iy , t iz ] T ) and the normal vector n t (= [x n , y n , z n ] T , x n 2 + y n 2 + z n 2 = 1) for the registration point p j ), And a total of 6Nc + 2.
R i ', t i', n t '= arg min Ri, ti, nt Σ i = 1 Nc Σ j = 1 Np (m ij -proj (R i, t i, X j)) 2
Therefore, according to the present invention, the number of parameters can be greatly reduced, and the effects of reducing the processing load and improving the accuracy can be obtained.

図7は、登録点と基準点、法線ベクトル、対象物平面の幾何的関係を表す説明図である。   FIG. 7 is an explanatory diagram showing a geometric relationship between a registration point, a reference point, a normal vector, and an object plane.

法線ベクトルを算出できれば、平面物体の3次元構造を算出できる。ここで、法線ベクトルの推定対象となる平面物体は、事前に見た目やサイズに関する情報が全く与えられていないこととする。法線ベクトル算出部13の推定する平面物体の法線ベクトルとは、画像平面に対する平面物体の法線ベクトルの情報である。   If the normal vector can be calculated, the three-dimensional structure of the planar object can be calculated. Here, it is assumed that no information regarding the appearance and size is given in advance to the planar object to be estimated for the normal vector. The normal vector of the planar object estimated by the normal vector calculation unit 13 is information on the normal vector of the planar object with respect to the image plane.

また、法線ベクトル算出部13について、再投影誤差関数は、バンドル調整における法線ベクトルの初期値を、光軸と平行な方向とすることが好ましい。   In the normal vector calculation unit 13, the reprojection error function preferably sets the initial value of the normal vector in bundle adjustment to a direction parallel to the optical axis.

再投影誤差関数の最小化は、ガウス・ニュートン法に代表される、非線形最小化問題の解法を用いることができる。   The minimization of the reprojection error function can use a solution of a nonlinear minimization problem represented by the Gauss-Newton method.

法線ベクトル算出部13は、撮影画像のカメラワークが微小であるとする前提条件の下、初期値として、カメラ姿勢パラメータのRiを単位行列とし、tiを零ベクトルとし、nt=[0,0,1]Tとして、法線ベクトルを算出する。回転行列Riは、以下の式で分解できるため、パラメータrx,ry,rzをパラメータとして用いる。
θ=||r||L2
r=[rx,ry,rz]T
Under the precondition that the camera work of the captured image is very small, the normal vector calculation unit 13 sets the camera posture parameter R i as a unit matrix, t i as a zero vector, and n t = [ [0,0,1] T is calculated as a normal vector. Since the rotation matrix R i can be decomposed by the following equation, the parameters r x , r y , r z are used as parameters.
θ = || r || L2
r = [r x , r y , r z ] T

特に、カメラワーク(視点変化)が小さいほど、回転行列Riは以下の式で近似できるため、θi xi yi zをパラメータとして用いてもよい。
最終的に、法線ベクトル算出部13は、推定した法線ベクトルntを、所定のアプリケーションへ出力することができる。また、法線ベクトルntは、登録画像記憶部11へ出力され、登録画像に対する正面化画像を記憶することもできる。
In particular, as the camera work (viewpoint change) is smaller, the rotation matrix Ri can be approximated by the following expression, and θ i x , θ i y , and θ i z may be used as parameters.
Finally, the normal vector calculation unit 13 can output the estimated normal vector n t to a predetermined application. Further, the normal vector n t can be output to the registered image storage unit 11 to store a frontal image with respect to the registered image.

図8は、光軸中心と、画像平面上の登録画像の登録点と、撮影画像の法線ベクトルとの幾何的関係を表すグラフである。   FIG. 8 is a graph showing the geometric relationship among the optical axis center, the registration point of the registered image on the image plane, and the normal vector of the captured image.

図8によれば、400×400ピクセルの画像平面を、20ピクセル間隔でサンプリングし、441点の初期追跡点pjを取得したものである(Np=441)。
対象平面の法線ntを、z軸方向から角度45度以内でランダムに生成し、登録点pjを逆投影して3次元座標Xjを取得する。焦点距離fは、500mmに設定している。
そして、初期のカメラ姿勢r0=[0 0 0]T、t0=[0 0 0]Tにガウシアンノイズを加え、カメラ姿勢Ri及びti(i=1〜100)を生成する。
カメラ姿勢Ri及びtiによってXjを投影し、ガウシアンノイズを加えて、追跡点mij(j=1〜441)を生成する。
ijを入力として、法線方向nt'を推定する。
推定に使用するフレーム数を、2枚から100枚まで徐々に増やし、精度及び処理時間を評価する(Nc=2〜100)。
tを100セット用意し、精度及び処理時間の平均を算出する。
According to FIG. 8, a 400 × 400 pixel image plane is sampled at 20 pixel intervals to obtain 441 initial tracking points p j (Np = 441).
A normal n t of the target plane is randomly generated within an angle of 45 degrees from the z-axis direction, and the registration point p j is back-projected to obtain a three-dimensional coordinate X j . The focal length f is set to 500 mm.
Then, Gaussian noise is added to the initial camera posture r 0 = [0 0 0] T and t 0 = [0 0 0] T to generate camera postures R i and t i (i = 1 to 100).
X j is projected by camera postures R i and t i , and Gaussian noise is added to generate tracking points m ij (j = 1 to 441).
Using m ij as an input, the normal direction n t ′ is estimated.
The number of frames used for estimation is gradually increased from 2 to 100, and accuracy and processing time are evaluated (Nc = 2 to 100).
100 sets of nt are prepared, and the average of accuracy and processing time is calculated.

図9は、バンドル調整に応じてフレーム数に対する法線ベクトルの精度及び処理時間を表すグラフである。   FIG. 9 is a graph showing the accuracy of the normal vector and the processing time with respect to the number of frames according to bundle adjustment.

図9によれば、異なるバンドル調整について比較している。
DE:従来のバンドル調整(パラメータ数6Nc+Np=453〜1041)で、3次元座標Xj'を主成分分析して、法線ベクトルnt'を算出する。
OE:本発明のバンドル調整(パラメータ数6Nc+2=14〜602)で、法線ベクトルを算出する。
According to FIG. 9, different bundle adjustments are compared.
DE: A normal vector n t ′ is calculated by performing principal component analysis on the three-dimensional coordinate X j ′ by conventional bundle adjustment (number of parameters: 6Nc + Np = 453 to 1041).
OE: A normal vector is calculated by the bundle adjustment (parameter number 6Nc + 2 = 14 to 602) of the present invention.

図9(a)は、フレーム数に応じた法線ベクトルの推定精度を表すグラフである。ここでは、従来技術のバンドル調整DEと、本発明のバンドル調整OEとを比較して、法線ベクトルの精度は同じである。即ち、20フレーム程度で、法線ベクトルを高精度(角度誤差約2度)に算出できる。   FIG. 9A is a graph showing the normal vector estimation accuracy according to the number of frames. Here, comparing the bundle adjustment DE of the prior art and the bundle adjustment OE of the present invention, the accuracy of the normal vector is the same. That is, the normal vector can be calculated with high accuracy (angle error of about 2 degrees) in about 20 frames.

図9(b)は、フレーム数に応じた法線ベクトルの処理時間を表すグラフである。ここでは、従来技術のバンドル調整DEと、本発明のバンドル調整OEとを比較して、法線ベクトルの推定処理時間は大きく異なっている。即ち、本発明のバンドル調整OEの処理時間が、極めて高速(短時間)であることが理解できる。具体的には、Nc=2で60倍、Nc=20で約12倍、Nc=100で約3倍の高速化が確認できる。   FIG. 9B is a graph showing the processing time of the normal vector according to the number of frames. Here, comparing the bundle adjustment DE of the prior art with the bundle adjustment OE of the present invention, the normal vector estimation processing time is greatly different. That is, it can be understood that the processing time of the bundle adjustment OE of the present invention is extremely fast (short time). Specifically, it can be confirmed that Nc = 2 is 60 times faster, Nc = 20 is about 12 times faster, and Nc = 100 is about 3 times faster.

前述した実施形態によれば、1枚の平面で構成された平面物体について説明した。勿論、本発明によれば、複数の主要平面で構成された対象物体であっても、複数平面のそれぞれについて適用することもできる。即ち、本発明は、対象物体を構成する主要な平面数を1枚に限定するものではない。平面数を増やすことで、任意形状の対象物体に対して適用することができる。   According to the above-described embodiment, the planar object constituted by one plane has been described. Of course, according to the present invention, even a target object composed of a plurality of main planes can be applied to each of a plurality of planes. That is, the present invention does not limit the number of main planes constituting the target object to one. By increasing the number of planes, it can be applied to a target object having an arbitrary shape.

以上、詳細に説明したように、本発明のプログラム、装置及び方法によれば、対象物体が平面物体(又は概ね平面で近似可能な物体)であるという前提条件の下で、カメラワークの大きな制約無しに、連続的な撮影画像に映り込む平面物体の法線ベクトルを、大幅に少ない計算量で算出することができる。具体的には、法線ベクトルを算出するためのバンドル調整における未知パラメータの数を削減しているために、処理負荷を削減し、推定精度を高めることができる。また、ホモグラフィ行列を用いることによって、特徴点の追跡失敗に対するロバスト性も向上させることができる。   As described above in detail, according to the program, the apparatus, and the method of the present invention, there is a significant limitation of camera work under the precondition that the target object is a plane object (or an object that can be approximated by a plane). Without any problem, the normal vector of a planar object reflected in a continuous captured image can be calculated with a significantly small amount of calculation. Specifically, since the number of unknown parameters in bundle adjustment for calculating a normal vector is reduced, the processing load can be reduced and the estimation accuracy can be increased. Further, by using the homography matrix, it is possible to improve the robustness against the tracking failure of the feature points.

前述した本発明の種々の実施形態について、本発明の技術思想及び見地の範囲の種々の変更、修正及び省略は、当業者によれば容易に行うことができる。前述の説明はあくまで例であって、何ら制約しようとするものではない。本発明は、特許請求の範囲及びその均等物として限定するものにのみ制約される。   Various changes, modifications, and omissions of the above-described various embodiments of the present invention can be easily made by those skilled in the art. The above description is merely an example, and is not intended to be restrictive. The invention is limited only as defined in the following claims and the equivalents thereto.

1 画像処理装置
10 画像取得部
11 登録画像記憶部
12 画像特徴追跡部
13 法線ベクトル算出部
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 10 Image acquisition part 11 Registered image memory | storage part 12 Image feature tracking part 13 Normal vector calculation part

Claims (13)

撮影画像に映り込む平面物体の法線ベクトルを算出するようにコンピュータを機能させることを特徴とするプログラムにおいて、
連続的な撮影画像のNc個のフレームiと、
平面物体の登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)とを算出する法線ベクトル算出手段と
を有し、
前記法線ベクトル算出手段は、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
ようにコンピュータを機能させることを特徴とするプログラム。
In a program characterized by operating a computer to calculate a normal vector of a planar object reflected in a captured image,
Nc frames i of continuous shot images;
Three-dimensional coordinates X j (= [x j , y j , z j ) of Np registration points p j (= [u j , v j ] T , j = 1 to Np) detected from the registered image of the planar object. ] T ),
Using tracking coordinates m ij (= [u ij , v ij ] T , i = 1 to Nc) for each of Np registration points p j reflected in each frame,
Camera orientation parameters R i (= [r ix , r iy , r iz ] T ) and t i (= [t ix , t iy , t iz ] T ) that minimize the reprojection error function, and normal vectors normal vector calculation means for calculating n t (= [x n , y n , z n ] T , x n 2 + y n 2 + z n 2 = 1),
The normal vector calculating means, the three-dimensional coordinates X j of registration points p j of the reference image, a registration point p j, the reference point X 0 through the object plane (= [x 0, y 0 , z 0] T ) And a normal vector n t, and a computer functioning to calculate by back projection of the registration point p j onto the object plane.
前記法線ベクトル算出手段は、基準点Xを、登録点pjの重心p(=[u,v]Tの逆投影(X=1/w[u,v,1]T)によって算出する
ようにコンピュータを機能させることを特徴とする請求項1に記載のプログラム。
The normal vector calculation means uses the reference point X 0 as the back projection (X 0 = 1 / w 0 [u 0 , v 0 , V 0 , T centroid p 0 (= [u 0 , v 0 ] T) of the registration point p j . 1] The program according to claim 1, which causes the computer to function as calculated by T ).
前記法線ベクトル算出手段について、前記再投影誤差関数は、以下の式によって表される
i',ti',nt'=arg minRi,ti,ntΣi=1 NcΣj=1 Np(mij−proj(Ri,ti,Xj))2
j=(nt・X/nt・pj')pj'
=(x+y+zn)/(xj+yj+z)[uj,vj,1]T
n 2+yn 2+zn 2=1
n=√(1−xn 2−yn 2)
j'(=[uj,vj,1]T):登録点pjの同次座標表現
i:撮影画像のNc個のフレームの番数
ij:フレームiに映るNp個の登録点pj毎の追跡座標
i及びti:フレームiのカメラ姿勢パラメータ
t:平面物体の法線ベクトル
:物体平面の通る基準点
proj(Ri,ti,Xj):3次元座標Xjの投影関数 [Ri|ti]Xj
j':Xjの同次座標表現
i'及びti':フレームiのカメラ姿勢パラメータRi及びtiの推定値
t':平面物体の法線ベクトルntの推定値
ようにコンピュータを機能させることを特徴とする請求項1又は2に記載のプログラム。
With respect to the normal vector calculation means, the reprojection error function is represented by the following equation: R i ′, t i ′, n t ′ = arg min Ri, ti, nt Σ i = 1 Nc Σ j = 1 Np (m ij −proj (R i , t i , X j )) 2
X j = (n t · X 0 / n t · p j ') p j '
= (X n x 0 + y n y 0 + z n z 0 ) / (x n u j + y n v j + z n ) [u j , v j , 1] T
x n 2 + y n 2 + z n 2 = 1
z n = √ (1−x n 2 −y n 2 )
p j ′ (= [u j , v j , 1] T ): homogeneous coordinate expression of the registration point p j
i: Number of Nc frames of the captured image m ij : Tracking coordinates for each of Np registration points p j reflected in frame i R i and t i : Camera posture parameters of frame i n t : Normal of plane object Vector X 0 : Reference point through which the object plane passes
proj (R i, t i, X j): projection function of the three-dimensional coordinates X j [R i | t i ] X j
X j ': Homogeneous coordinate representation of X j R i ' and t i ': Estimated values of camera posture parameters R i and t i of frame i n t ': Estimated value of normal vector n t of planar object The program according to claim 1 or 2, which causes a computer to function.
前記法線ベクトル算出手段について、前記再投影誤差関数における未知パラメータの数は、Nc個のフレームi毎に生じるカメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)の6個と、登録点に対する法線ベクトルnt(=[x,y,z]T,x +y +z =1)の2個とを合計した、6Nc+2個となる
ようにコンピュータを機能させることを特徴とする請求項3に記載のプログラム。
With respect to the normal vector calculation means, the number of unknown parameters in the reprojection error function is the camera orientation parameters R i (= [r ix , r iy , r iz ] T ) and t i that occur every Nc frames i. (= [T ix , t iy , t iz ] T ) and normal vectors n t (= [x n , y n , z n ] T , x n 2 + y n 2 + z) for registered points n 2 = 1) the sum of two and a program according to claim 3, characterized in that causes a computer to function so that 6 nC + 2.
前記法線ベクトル算出手段は、撮影画像のカメラワークが微小であるとする前提条件の下、カメラ姿勢パラメータのRiを単位行列とし、tiを零ベクトルとして、前記法線ベクトルを算出する
ようにコンピュータを機能させることを特徴とする請求項1から4のいずれか1項に記載のプログラム。
The normal vector calculating means calculates the normal vector under the precondition that the camera work of the photographed image is minute, with Ri of the camera posture parameter as a unit matrix and t i as a zero vector. The program according to any one of claims 1 to 4, which causes a computer to function.
前記法線ベクトル算出手段について、前記再投影誤差関数は、バンドル調整における法線ベクトルの初期値を、光軸と平行な方向(nt=[0,0,1]T)とする
ようにコンピュータを機能させることを特徴とする請求項1から5のいずれか1項に記載のプログラム。
With respect to the normal vector calculation means, the reprojection error function uses a computer so that the initial value of the normal vector in bundle adjustment is in a direction parallel to the optical axis (n t = [0,0,1] T ). 6. The program according to claim 1, wherein the program is made to function.
登録画像の登録点と撮影画像の追跡座標との間のホモグラフィ行列を用いて、誤追跡された追跡座標を除外する画像特徴追跡手段と
して更にコンピュータを機能させることを特徴とする請求項1から6のいずれか1項に記載のプログラム。
The computer is further caused to function as an image feature tracking unit that excludes mistracked tracking coordinates using a homography matrix between a registration point of a registered image and a tracking coordinate of a captured image. The program according to any one of 6 above.
撮影画像の中から、ユーザ操作に応じて平面物体が映る対象領域を特定し、該対象領域を登録画像として記憶する登録画像記憶手段と
して更にコンピュータを機能させることを特徴とする請求項1から7のいずれか1項に記載のプログラム。
8. The computer further functions as registered image storage means for specifying a target area in which a planar object appears in accordance with a user operation from the photographed image and storing the target area as a registered image. The program according to any one of the above.
前記登録画像記憶手段は、登録画像を、前記法線ベクトル算出手段によって算出された法線ベクトルによって正面化画像に幾何変換し、該正面化画像を登録画像として記憶する
ようにコンピュータを機能させることを特徴とする請求項8に記載のプログラム。
The registered image storage means causes the computer to function to geometrically transform the registered image into a frontalized image using the normal vector calculated by the normal vector calculating means, and to store the frontaled image as a registered image. The program according to claim 8.
前記画像特徴追跡手段は、追跡に成功した画像特徴の数が第1の所定閾値以下の場合に、画像処理を中断して、画像登録からやり直す
ようにコンピュータを機能させることを特徴とする請求項1から9のいずれか1項に記載のプログラム。
The image feature tracking means, when the number of image features that have been successfully tracked is equal to or less than a first predetermined threshold, causes the computer to function so as to interrupt image processing and start again from image registration. The program according to any one of 1 to 9.
前記画像特徴追跡手段は、追跡に成功した画像特徴の数が第2の所定閾値(<第1の所定閾値)以下の場合に、画像処理を中断して、「対象物体が平面で無い」旨をユーザに明示する
ようにコンピュータを機能させることを特徴とする請求項10に記載のプログラム。
The image feature tracking unit interrupts image processing when the number of image features that have been successfully tracked is equal to or less than a second predetermined threshold (<first predetermined threshold), and states that “the target object is not a plane”. The program according to claim 10, wherein the computer is caused to function so as to clearly indicate to a user.
撮影画像に映り込む平面物体の法線ベクトルを算出する画像処理装置において、
連続的な撮影画像のNc個のフレームiと、
平面物体の登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)とを算出する法線ベクトル算出手段と
を有し、
前記法線ベクトル算出手段は、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
ことを特徴とする画像処理装置。
In an image processing apparatus that calculates a normal vector of a planar object reflected in a captured image,
Nc frames i of continuous shot images;
Three-dimensional coordinates X j (= [x j , y j , z j ) of Np registration points p j (= [u j , v j ] T , j = 1 to Np) detected from the registered image of the planar object. ] T ),
Using tracking coordinates m ij (= [u ij , v ij ] T , i = 1 to Nc) for each of Np registration points p j reflected in each frame,
Camera orientation parameters R i (= [r ix , r iy , r iz ] T ) and t i (= [t ix , t iy , t iz ] T ) that minimize the reprojection error function, and normal vectors normal vector calculation means for calculating n t (= [x n , y n , z n ] T , x n 2 + y n 2 + z n 2 = 1),
The normal vector calculating means, the three-dimensional coordinates X j of registration points p j of the reference image, a registration point p j, the reference point X 0 through the object plane (= [x 0, y 0 , z 0] T ) And a normal vector n t and calculated by back projection of the registration point p j onto the object plane.
撮影画像に映り込む平面物体の法線ベクトルを算出する装置の法線ベクトル算出方法において、
連続的な撮影画像のNc個のフレームiと、
平面物体の登録画像から検出されたNp個の登録点pj(=[u,v]T、j=1〜Np)の3次元座標Xj(=[x,y,z]T)と、
各フレームに映るNp個の登録点pj毎の追跡座標mij(=[uij,vij]T、i=1〜Nc)とを用いて、
再投影誤差関数を最小化する、カメラ姿勢パラメータRi(=[rix,riy,riz]T)及びti(=[tix,tiy,tiz]T)と、法線ベクトルnt(=[x,y,z]T,x +y +z =1)とを算出するステップを有し、
前記ステップは、登録画像の登録点pjの3次元座標Xjを、登録点pjと、物体平面の通る基準点X(=[x,y,z]T)と、法線ベクトルntとによって表現し、登録点pjの物体平面への逆投影によって算出する
ことを特徴とする装置の法線ベクトル算出方法。
In the normal vector calculation method of the apparatus for calculating the normal vector of a planar object reflected in a captured image,
Nc frames i of continuous shot images;
Three-dimensional coordinates X j (= [x j , y j , z j ) of Np registration points p j (= [u j , v j ] T , j = 1 to Np) detected from the registered image of the planar object. ] T ),
Using tracking coordinates m ij (= [u ij , v ij ] T , i = 1 to Nc) for each of Np registration points p j reflected in each frame,
Camera orientation parameters R i (= [r ix , r iy , r iz ] T ) and t i (= [t ix , t iy , t iz ] T ) that minimize the reprojection error function, and normal vectors n t (= [x n , y n , z n ] T , x n 2 + y n 2 + z n 2 = 1)
In the above step, the three-dimensional coordinates X j of the registration point p j of the registration image, the registration point p j , the reference point X 0 (= [x 0 , y 0 , z 0 ] T ) passing through the object plane, and the modulus A normal vector calculation method for an apparatus, which is expressed by a line vector n t and is calculated by back projection of a registration point p j onto an object plane.
JP2016002279A 2016-01-08 2016-01-08 Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image Active JP6515039B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016002279A JP6515039B2 (en) 2016-01-08 2016-01-08 Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016002279A JP6515039B2 (en) 2016-01-08 2016-01-08 Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image

Publications (2)

Publication Number Publication Date
JP2017123087A true JP2017123087A (en) 2017-07-13
JP6515039B2 JP6515039B2 (en) 2019-05-15

Family

ID=59305922

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016002279A Active JP6515039B2 (en) 2016-01-08 2016-01-08 Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image

Country Status (1)

Country Link
JP (1) JP6515039B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019102007A (en) * 2017-12-08 2019-06-24 株式会社東芝 Gradient estimation device, gradient estimation method, program and control system
CN110458870A (en) * 2019-07-05 2019-11-15 北京迈格威科技有限公司 A kind of image registration, fusion, occlusion detection method, apparatus and electronic equipment
JP2019220032A (en) * 2018-06-21 2019-12-26 Kddi株式会社 Program, apparatus and method that generate display image which is transformed from original image on the basis of target image
CN110766756A (en) * 2019-10-21 2020-02-07 大连理工大学 Multi-direction projection-based drop point positioning method
JP2020509499A (en) * 2017-07-14 2020-03-26 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Target tracking method, apparatus, electronic device, and storage medium
CN113077521A (en) * 2021-03-19 2021-07-06 浙江华睿科技有限公司 Camera calibration method and device
JP2022048963A (en) * 2020-09-15 2022-03-28 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Acquisition method for obstacle three-dimensional position to be used for roadside calculation device, apparatus, electronic device, computer readable storage medium, and computer program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059710A (en) * 2012-09-18 2014-04-03 Toshiba Corp Object detection device and object detection method
JP2014092984A (en) * 2012-11-05 2014-05-19 Nippon Telegr & Teleph Corp <Ntt> Estimation device, estimation method, and computer program
JP2015207280A (en) * 2014-04-18 2015-11-19 株式会社リコー target identification method and target identification device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014059710A (en) * 2012-09-18 2014-04-03 Toshiba Corp Object detection device and object detection method
JP2014092984A (en) * 2012-11-05 2014-05-19 Nippon Telegr & Teleph Corp <Ntt> Estimation device, estimation method, and computer program
JP2015207280A (en) * 2014-04-18 2015-11-19 株式会社リコー target identification method and target identification device

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
小林 達也,外2名: "オンライン法線方向推定に基づく平面マーカレスAR", 情報処理学会研究報告, JPN6018050414, 26 February 2016 (2016-02-26), JP, ISSN: 0003984147 *
小林 達也,外2名: "カメラの移動状態推定に基づく高速な姿勢追跡手法", ITE WINTER ANNUAL CONVENTION 2013, JPN6018050411, 2013, ISSN: 0003984148 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020509499A (en) * 2017-07-14 2020-03-26 テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド Target tracking method, apparatus, electronic device, and storage medium
US11145069B2 (en) 2017-07-14 2021-10-12 Tencent Technology (Shenzhen) Company Limited Target tracking method and apparatus, electronic device, and storage medium
JP2019102007A (en) * 2017-12-08 2019-06-24 株式会社東芝 Gradient estimation device, gradient estimation method, program and control system
JP2019220032A (en) * 2018-06-21 2019-12-26 Kddi株式会社 Program, apparatus and method that generate display image which is transformed from original image on the basis of target image
CN110458870A (en) * 2019-07-05 2019-11-15 北京迈格威科技有限公司 A kind of image registration, fusion, occlusion detection method, apparatus and electronic equipment
CN110766756A (en) * 2019-10-21 2020-02-07 大连理工大学 Multi-direction projection-based drop point positioning method
CN110766756B (en) * 2019-10-21 2022-09-30 大连理工大学 Multi-direction projection-based drop point positioning method
JP2022048963A (en) * 2020-09-15 2022-03-28 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Acquisition method for obstacle three-dimensional position to be used for roadside calculation device, apparatus, electronic device, computer readable storage medium, and computer program
US11694445B2 (en) 2020-09-15 2023-07-04 Apollo Intelligent Connectivity (Beijing) Technology Co., Ltd. Obstacle three-dimensional position acquisition method and apparatus for roadside computing device
CN113077521A (en) * 2021-03-19 2021-07-06 浙江华睿科技有限公司 Camera calibration method and device
CN113077521B (en) * 2021-03-19 2022-11-01 浙江华睿科技股份有限公司 Camera calibration method and device

Also Published As

Publication number Publication date
JP6515039B2 (en) 2019-05-15

Similar Documents

Publication Publication Date Title
JP6515039B2 (en) Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image
EP3067861B1 (en) Determination of a coordinate conversion parameter
US10334168B2 (en) Threshold determination in a RANSAC algorithm
JP6464934B2 (en) Camera posture estimation apparatus, camera posture estimation method, and camera posture estimation program
CN108717531B (en) Human body posture estimation method based on Faster R-CNN
US9164583B2 (en) Method and apparatus for gaze point mapping
JP5812599B2 (en) Information processing method and apparatus
US8452080B2 (en) Camera pose estimation apparatus and method for augmented reality imaging
CN108960045A (en) Eyeball tracking method, electronic device and non-transient computer-readable recording medium
US10957068B2 (en) Information processing apparatus and method of controlling the same
JP6464938B2 (en) Image processing apparatus, image processing method, and image processing program
JP5290865B2 (en) Position and orientation estimation method and apparatus
JP6985897B2 (en) Information processing equipment and its control method, program
US11403781B2 (en) Methods and systems for intra-capture camera calibration
CN109902675B (en) Object pose acquisition method and scene reconstruction method and device
US20160093028A1 (en) Image processing method, image processing apparatus and electronic device
WO2009061283A2 (en) Human motion analysis system and method
JP2021174554A (en) Image depth determination method and living creature recognition method, circuit, device, storage medium
US8948461B1 (en) Method and system for estimating the three dimensional position of an object in a three dimensional physical space
WO2022018811A1 (en) Three-dimensional posture of subject estimation device, three-dimensional posture estimation method, and program
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
JP7312026B2 (en) Image processing device, image processing method and program
CN112396654A (en) Method and device for determining pose of tracking object in image tracking process
JP6890422B2 (en) Information processing equipment, control methods and programs for information processing equipment
Moteki et al. Fast and accurate relocalization for keyframe-based SLAM using geometric model selection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190408

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190415

R150 Certificate of patent or registration of utility model

Ref document number: 6515039

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150