JP6302427B2 - Image data processing method, image data processing apparatus, and image data processing program - Google Patents
Image data processing method, image data processing apparatus, and image data processing program Download PDFInfo
- Publication number
- JP6302427B2 JP6302427B2 JP2015076005A JP2015076005A JP6302427B2 JP 6302427 B2 JP6302427 B2 JP 6302427B2 JP 2015076005 A JP2015076005 A JP 2015076005A JP 2015076005 A JP2015076005 A JP 2015076005A JP 6302427 B2 JP6302427 B2 JP 6302427B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- data processing
- image
- dimensional coordinates
- reference points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、画像データ処理方法、画像データ処理装置および画像データ処理プログラムに関する。 The present invention relates to an image data processing method, an image data processing device, and an image data processing program.
カメラと被写体の位置姿勢関係を推定する外部キャリブレーションはコンピュータビジョンの基礎となる技術であり、これまで数多くの研究がなされてきた(非特許文献1)。これら既存の外部キャリブレーションに関する手法の多くは,カメラが参照物体を直接観測できることを想定している。 External calibration for estimating the position and orientation relationship between a camera and a subject is a technology that is the basis of computer vision, and many studies have been made so far (Non-Patent Document 1). Many of these existing external calibration methods assume that the camera can directly observe the reference object.
近年、ラップトップコンピュータ、スマートフォンやデジタルサイネージなどの普及に伴い、ディスプレイ−カメラシステムを用いた様々な研究が注目を集めている。その一つの例として、デジタルサイネージを用いた興味推定がある。これは、ユーザの視線方向とディスプレイでの提示内容との対応を取ることで実現されている。さらには、3次元形状復元への応用も研究されている。これは、ディスプレイを制御可能な面光源として利用し、提示内容の変化に伴う観測対象の輝度変化に基づくものである。これらのように、ディスプレイの提示内容に対し、カメラで撮影した映像から推定した視線や観測対象の輝度変化を幾何的に対応付けるためには、ディスプレイとカメラの位置姿勢関係を求める外部キャリブレーションを行う必要がある。通常ディスプレイにチェスパターンなどを提示し、それをカメラで撮影して外部キャリブレーションを行う。しかしながら、ラップトップコンピュータやスマートフォンなどのディスプレイ−カメラシステムでは、一般にカメラの視野内にディスプレイ(参照物体)が存在せず、従来の外部キャリブレーション手法の適用が困難であった。 In recent years, with the spread of laptop computers, smartphones, digital signage, and the like, various studies using a display-camera system have attracted attention. One example is interest estimation using digital signage. This is realized by taking a correspondence between the user's line-of-sight direction and the content presented on the display. Furthermore, application to three-dimensional shape restoration is also being studied. This is based on a change in luminance of an observation target accompanying a change in the presentation contents, using the display as a controllable surface light source. In this way, external calibration is performed to determine the positional orientation between the display and the camera in order to geometrically associate the gaze estimated from the video captured by the camera and the luminance change of the observation target with the display content. There is a need. Usually, a chess pattern etc. is presented on the display, and it is photographed with a camera for external calibration. However, in a display-camera system such as a laptop computer or a smartphone, there is generally no display (reference object) in the field of view of the camera, and it has been difficult to apply a conventional external calibration method.
このような参照物体がカメラの視野内に存在しない状況において、鏡を用いることで外部キャリブレーションを行う技術が提案されている。なお、以下では参照物体上には参照点が存在し、その参照点を用いて外部キャリブレーションを行うこととする。外部キャリブレーションでは、実施の手間や計算量の観点から、より簡易な構成を目指した研究が取り組まれている。非特許文献2および非特許文献3には、平面鏡を用いた最小構成である、3点の参照点に対して平面鏡を3姿勢用いる技術が記載されている。一方、鏡の姿勢の数の削減という観点から、非特許文献4には、8点の参照点に対して1姿勢の球面鏡を用いる技術が記載されている。さらに、非特許文献5には、追加のデバイスを無くす試みとして、眼球の鏡面反射を利用する技術が記載されている。この技術は、3点の参照点に対して球面鏡とみなした両眼、つまり2姿勢の球面鏡を利用するものである。非特許文献6には、眼球中心、カメラ中心および参照点の位置関係に制約を設けることで3点の参照点に対して1姿勢の眼球を用いる技術が記載されている。
There has been proposed a technique for performing external calibration by using a mirror in a situation where such a reference object does not exist in the field of view of the camera. In the following, a reference point exists on the reference object, and external calibration is performed using the reference point. In external calibration, research aimed at a simpler configuration is underway from the viewpoint of labor and calculation amount. Non-Patent Document 2 and Non-Patent Document 3 describe a technique that uses three plane mirrors with respect to three reference points, which is a minimum configuration using a plane mirror. On the other hand, from the viewpoint of reducing the number of mirror postures, Non-Patent
しかしながら、非特許文献2、3、4に記載の技術では、キャリブレーションの度に鏡を用意しなければならないという手間が発生する。また、非特許文献5に記載の技術では、眼球という極小の領域に映った参照物体からキャリブレーションを行うため、精度の観点からカメラと眼球とを近づけて両者間の距離を短くした上で撮影することが望ましい。しかし、非特許文献5に記載の技術では両眼を用いていることから、両眼を同時に撮影できる距離までカメラと眼球とを離す必要があった。また、非特許文献6に記載の技術では、眼球中心と各参照点との距離が、眼球中心とカメラ中心との距離に等しくなければならないという制約が存在する。
However, in the techniques described in
上記事情に鑑み、本発明は、眼球中心、参照点およびカメラ中心の位置関係に制約を課すことなく、カメラとその視野外に存在する物体との間の外部キャリブレーションを行うことができるデータ処理方法、画像データ処理装置および画像データ処理プログラムを提供することを目的とする。 In view of the above circumstances, the present invention is a data processing capable of performing external calibration between a camera and an object existing outside the field of view without imposing restrictions on the positional relationship between the eyeball center, the reference point, and the camera center. It is an object to provide a method, an image data processing apparatus, and an image data processing program.
本発明の一態様は、撮像装置により撮像された画像と、前記撮像装置の内部パラメータと、角膜を球の一部とみなした角膜球の半径と、参照物体における複数の参照点の三次元座標と、前記画像に含まれ前記角膜による前記複数の参照点の一次反射像の前記画像における二次元座標とに基づいて、前記撮像装置の視野外に位置する前記参照物体と前記撮像装置との位置姿勢関係を推定する画像データ処理方法であって、前記画像と前記内部パラメータと前記半径とに基づいて、前記角膜球の中心座標を推定する角膜球座標推定ステップと、前記内部パラメータと前記複数の参照点の三次元座標と前記複数の参照点の二次元座標と前記中心座標とに基づいて、前記参照物体の座標系を基準としたときの前記撮像装置の外部パラメータを推定する外部パラメータ推定ステップとを有する、画像データ処理方法である。 One embodiment of the present invention includes an image captured by an imaging device, internal parameters of the imaging device, a radius of a corneal sphere that considers the cornea as a part of a sphere, and three-dimensional coordinates of a plurality of reference points in a reference object And the positions of the imaging device and the reference object located outside the field of view of the imaging device based on the two-dimensional coordinates in the image of primary reflection images of the plurality of reference points by the cornea included in the image An image data processing method for estimating a posture relationship, the corneal sphere coordinate estimation step for estimating a center coordinate of the corneal sphere based on the image, the internal parameter, and the radius, the internal parameter, and the plurality of the plurality of parameters Based on the three-dimensional coordinates of the reference point, the two-dimensional coordinates of the plurality of reference points, and the central coordinates, the external parameters of the imaging device when the coordinate system of the reference object is used as a reference are estimated And a part parameter estimation step, an image data processing method.
また、本発明の一態様は、上記の画像データ処理方法において、前記角膜球座標推定ステップでは、前記画像に含まれる前記角膜球の投影像に対する楕円パラメータを推定し、推定された前記楕円パラメータに基づいて、前記中心座標を推定する。 According to another aspect of the present invention, in the image data processing method, in the corneal sphere coordinate estimation step, an elliptic parameter for a projection image of the corneal sphere included in the image is estimated, and the estimated elliptic parameter Based on this, the center coordinates are estimated.
また、本発明の一態様は、上記の画像データ処理方法において、前記外部パラメータ推定ステップでは、前記参照点ごとに、当該参照点の前記二次元座標と前記内部パラメータとから第1のベクトルを算出し、前記中心座標と前記半径と前記第1のベクトルとに基づいて、前記参照点それぞれの前記角膜球上における反射点の三次元座標を算出し、前記複数の参照点の三次元座標と、前記複数の参照点それぞれに対応する前記反射点の三次元座標と、前記複数の参照点それぞれに対応する前記第1のベクトルと、前記外部パラメータとに基づいて得られる連立方程式を解くことにより、前記外部パラメータを推定する。 According to another aspect of the present invention, in the image data processing method, in the external parameter estimation step, a first vector is calculated for each reference point from the two-dimensional coordinates of the reference point and the internal parameter. And calculating the three-dimensional coordinates of the reflection points on the corneal sphere of each of the reference points based on the center coordinates, the radius, and the first vector, and the three-dimensional coordinates of the plurality of reference points; By solving the simultaneous equations obtained based on the three-dimensional coordinates of the reflection point corresponding to each of the plurality of reference points, the first vector corresponding to each of the plurality of reference points, and the external parameter, The external parameter is estimated.
また、本発明の一態様は、上記の画像データ処理方法において、前記外部パラメータ推定ステップでは、基底ベクトル表記を用いることにより前記連立方程式を得て前記外部パラメータを線形に推定する。 According to another aspect of the present invention, in the image data processing method, in the external parameter estimation step, the simultaneous equations are obtained by using basis vector notation, and the external parameters are estimated linearly.
また、本発明の一態様は、上記の画像データ処理方法において、前記参照点は、少なくとも6点、または前記参照点が同一平面に位置するときには少なくとも5点、存在する。 In one embodiment of the present invention, in the image data processing method, there are at least six reference points, or at least five reference points when the reference points are located on the same plane.
また、本発明の一態様は、撮像装置により撮像された画像と、前記撮像装置の内部パラメータと、角膜を球の一部とみなした角膜球の半径と、参照物体における複数の参照点の三次元座標と、前記画像に含まれ前記角膜による前記複数の参照点の一次反射像の前記画像における二次元座標とに基づいて、前記撮像装置の視野外に位置する前記参照物体と前記撮像装置との位置姿勢関係を推定する画像データ処理装置であって、前記画像と前記内部パラメータと前記半径とに基づいて、前記角膜球の中心座標を推定する角膜球座標推定部と、前記内部パラメータと前記複数の参照点の三次元座標と前記複数の参照点の二次元座標と前記中心座標とに基づいて、前記参照物体の座標系を基準としたときの前記撮像装置の外部パラメータを推定する外部パラメータ推定部とを備える、画像データ処理装置である。 Further, according to one embodiment of the present invention, an image captured by an imaging device, an internal parameter of the imaging device, a radius of a corneal sphere that considers the cornea as a part of a sphere, and a tertiary of a plurality of reference points in a reference object Based on the original coordinates and two-dimensional coordinates in the image of primary reflection images of the plurality of reference points included in the image by the cornea, the reference object located outside the field of view of the imaging device, and the imaging device An image data processing device for estimating a position and orientation relationship of the corneal sphere, a corneal sphere coordinate estimation unit for estimating a central coordinate of the corneal sphere based on the image, the internal parameter, and the radius; the internal parameter; Based on the three-dimensional coordinates of a plurality of reference points, the two-dimensional coordinates of the plurality of reference points, and the center coordinates, an external parameter of the imaging device is estimated based on the coordinate system of the reference object. And a part parameter estimation unit, an image data processing apparatus.
また、本発明の一態様は、上記の画像データ処理方法をコンピュータに実行させるための画像データ処理プログラムである。 One embodiment of the present invention is an image data processing program for causing a computer to execute the above image data processing method.
本発明によれば、眼球中心、参照点およびカメラ中心の位置関係に制約を課すことなく、カメラとその視野外に存在する物体との間の外部キャリブレーションを行うことが可能となる。 According to the present invention, it is possible to perform external calibration between a camera and an object existing outside the field of view without imposing restrictions on the positional relationship between the eyeball center, the reference point, and the camera center.
以下、図面を参照して、本発明を実施するための形態を説明する。初めに、本発明に係る実施形態における画像データ処理方法、画像データ処理装置および画像データ処理プログラムで想定する環境を示す。図1は、実施形態において想定する環境の概要を示す図である。本実施形態では、撮像装置としてのカメラC、参照物体Xおよび眼球(角膜球)Eを用いる。角膜球とは、角膜を球の一部とみなしたときの球体である。参照物体X上には、参照点pi(i=0,1,2,…,Np−1)が存在する。なお、Npは、参照物体X上の参照点の数である。参照物体Xは、カメラCの視野内に存在せず、角膜球Eの一次反射によりカメラCから観測される。ここで、眼球中心(角膜球中心)とは、図1に示すように、角膜球Eの中心Sであり、カメラ中心とは撮影に用いているカメラCの光学中心Oである。また、本実施形態では、図1に示すように、カメラ座標系{C}と画像座標系{I}と参照物体座標系{X}との3つの座標系が用いられる。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. First, an environment assumed by the image data processing method, the image data processing apparatus, and the image data processing program according to the embodiment of the present invention will be described. FIG. 1 is a diagram illustrating an outline of an environment assumed in the embodiment. In the present embodiment, a camera C, a reference object X, and an eyeball (corneal ball) E as an imaging device are used. A corneal sphere is a sphere when the cornea is regarded as a part of the sphere. On the reference object X, there are reference points p i (i = 0, 1, 2,..., N p −1). N p is the number of reference points on the reference object X. The reference object X does not exist in the field of view of the camera C, and is observed from the camera C by the primary reflection of the corneal sphere E. Here, as shown in FIG. 1, the center of the eyeball is the center S of the corneal sphere E, and the camera center is the optical center O of the camera C used for photographing. In the present embodiment, as shown in FIG. 1, three coordinate systems of a camera coordinate system {C}, an image coordinate system {I}, and a reference object coordinate system {X} are used.
本実施形態における画像データ処理方法、画像データ処理装置および画像データ処理プログラムの目的は、画像座標系{I}における参照点piの投影像qiの座標値から、カメラ座標系{C}と参照物体座標系{X}との間における外部パラメータR、Tを求めることである。外部パラメータRは、カメラ座標系{C}と参照物体座標系{X}との異なる座標系における姿勢変化を表す回転行列である。外部パラメータTは、カメラ座標系{C}と参照物体座標系{X}との異なる座標系における位置変化を表す並進ベクトルである。以下では、座標系{b}における点aの座標値をa{b}と表す。 The purpose of the image data processing method, the image data processing apparatus, and the image data processing program in the present embodiment is that the coordinate value of the projection image q i of the reference point p i in the image coordinate system {I} It is to obtain external parameters R and T between the reference object coordinate system {X}. The external parameter R is a rotation matrix that represents a change in posture in a different coordinate system between the camera coordinate system {C} and the reference object coordinate system {X}. The external parameter T is a translation vector representing a position change in a different coordinate system between the camera coordinate system {C} and the reference object coordinate system {X}. Hereinafter, the coordinate value of the point a in the coordinate system {b} is represented as a {b} .
図2は、本実施形態における画像データ処理装置1の構成を示すブロック図である。図2に示すように、画像データ処理装置1は、入力部11、角膜球座標推定部12および外部パラメータ推定部13を備える。画像データ処理装置1は、カメラにより撮像された画像と、カメラの内部パラメータと、角膜を球の一部とみなした角膜球の半径と、参照物体における複数の参照点の三次元座標と、画像に含まれ角膜による複数の参照点の一次反射像の画像における二次元座標とに基づいて、カメラの視野外に位置する参照物体とカメラとの位置姿勢関係を推定する。
FIG. 2 is a block diagram showing a configuration of the image data processing apparatus 1 in the present embodiment. As shown in FIG. 2, the image data processing device 1 includes an
入力部11は、画像I、内部パラメータK、角膜球半径r、参照点二次元座標qi {I}およびモデル座標pi {X}を、外部または上位の装置から入力する。画像Iは処理の対象となるカメラCで撮像した画像であり、角膜球による参照点の一次反射像を含む画像である。内部パラメータKは、カメラCの内部パラメータであり、カメラCの焦点距離および画像中心を表すパラメータである。カメラ出荷時に定められた値やカメラCから出力される値が内部パラメータKに用いられてもよいし、非特許文献1に記載の技術を用いて推定された値が内部パラメータKに用いられてもよい。なお、カメラCが出力する値を用いる場合は、カメラCが計測する機能を有するときに限る。内部パラメータKは、例えば3行3列の行列で与えられる。角膜球半径rには、ユーザの角膜球半径を事前に測定して得られた値が用いられてもよいし、人間の角膜球半径の平均値(r=5.6mm)が用いられてもよい。
The
参照点二次元座標qi {I}は、参照点piが角膜球Eによって反射されて画像Iに投影されたときの画像Iにおける座標である。参照点二次元座標qiは、人が目視で検出してもよい。あるいは、事前に参照物体Xが角膜球Eによって反射されて投影されていないときの事前画像を取得しておき、参照物体Xが角膜球Eによって反射されて投影されているときの画像と事前画像との背景差分法を用いて参照点二次元座標qi {I}を検出してもよい。 The reference point two-dimensional coordinates q i {I} are coordinates in the image I when the reference point p i is reflected by the corneal sphere E and projected onto the image I. The reference point two-dimensional coordinate q i may be detected by human eyes. Alternatively, a prior image when the reference object X is not reflected and projected by the corneal sphere E is acquired in advance, and an image and the previous image when the reference object X is reflected and projected by the corneal sphere E are obtained. The reference point two-dimensional coordinates q i {I} may be detected using the background difference method.
モデル座標pi {X}は、参照物体座標系{X}における参照点piの三次元座標であり、事前に定めておくことが可能である。なお、参照点には、検出の容易さから一般にチェスパターンの交点などが用いられるが、モデル座標pi {X}さえ既知であれば、様々なものが参照物体として利用できる。例えば、形状が既知の3次元物体や、ディスプレイ上に表示した映像コンテンツを参照物体として利用できる。映像コンテンツでは、映像に含まれる物の形状や、映像におけるピクセルの表示色が既知であることから参照物体として利用できる。 The model coordinates p i {X} are three-dimensional coordinates of the reference point p i in the reference object coordinate system {X}, and can be determined in advance. Note that an intersection of chess patterns or the like is generally used as a reference point for ease of detection, but various things can be used as a reference object as long as the model coordinates p i {X} are known. For example, a three-dimensional object having a known shape or video content displayed on a display can be used as a reference object. Video content can be used as a reference object since the shape of an object included in the video and the display color of pixels in the video are known.
角膜球座標推定部12は、入力部11において入力された画像Iと内部パラメータKと角膜球半径rとに基づいて、角膜球Eの中心座標S{C}を推定する。外部パラメータ推定部13は、入力部11において入力された内部パラメータKとモデル座標pi {X}と参照点二次元座標qi {I}と、角膜球座標推定部12において推定された角膜球中心座標S{C}とに基づいて、外部パラメータR、Tを推定する。
The corneal sphere coordinate
図3は、本実施形態における画像データ処理装置1が行う画像データ処理を示すフローチャートである。画像データ処理装置1において画像データ処理が開始されると、入力部11は、画像I、内部パラメータK、角膜球半径r、参照点二次元座標qi {I}およびモデル座標pi {X}を入力する(ステップS101)。
FIG. 3 is a flowchart illustrating image data processing performed by the image data processing apparatus 1 according to the present embodiment. When the image data processing is started in the image data processing apparatus 1, the
角膜球座標推定部12は、ステップS101において入力された画像Iに対して角膜球Eの楕円パラメータを推定する(ステップS102)。図4は、角膜球Eの投影を表す図である。同図に示すように、角膜球Eの楕円パラメータは、楕円の中心座標iL {I}(x座標:cx,y座標:cy)、楕円の長軸の長さ2rmax、楕円の短軸の長さ2rminおよび傾きφの5つの変数を含む。楕円パラメータの推定は、以下に説明する手法により行われる。なお、楕円パラメータの推定は、人が画像Iにおける角膜球Eの領域を計測することで行ってもよい。なお、図4における画像Iから角膜球Eまでの距離dは、カメラCから画像Iまでの焦点距離fと楕円パラメータとにより定まる。
The corneal sphere coordinate
角膜球座標推定部12は、例えば、画像Iに対して二値化を行った後にエッジ検出を行い、検出したエッジに対して角膜球Eの楕円パラメータを推定する。画像Iに対する二値化には、公知の技術を用いることができる。例えば、固定閾値処理や適応的閾値処理などが利用できる。また、エッジ検出にも、公知の技術を用いることができる。例えば、Cannyフィルタが利用できる。さらに、検出されたエッジにおける楕円パラメータの推定には、任意の方法を用いることができる。例えば、参考文献1(A.W.Fitzgibbon, R.B.Fisher, "A Buyer's Guide to Conic Fitting", BMVC '95 Proceedings of the 6th British conference on Machine vision (Vol.2), (UK), BMVA Press Surrey, 1995, p.513-522)に記載されている技術が利用できる。
For example, the corneal sphere coordinate
角膜球座標推定部12は、推定した楕円パラメータから角膜球Eの中心座標S{C}を推定する(ステップS103)。角膜輪部の中心Lに位置する平均奥行き面と、角膜輪部を含む平面とがなす角τが式(1)で得られるとき、視線方向gは式(2)で表される。
また、カメラ中心と角膜輪部の中心Lとの間の距離をdとすると、dは焦点距離f(ピクセル値)を用いて、d=f・(rL/rmax)と表される。なお、rLは角膜輪部の半径を表し、rLの平均値は5.6mmとされている。さらに、カメラの内部パラメータKが行列で与えられるとき、角膜輪部の中心Lの座標L{C}は、式(3)で表される。
角膜球の中心座標S{C}は、角膜輪部の中心Lから−g方向にdLS(=5.6mm)進んだ方向にあることから、式(4)で得られる。
外部パラメータ推定部13は、基底ベクトル表記の係数aj i{C}を算出する(ステップS104)。本実施形態における基底ベクトル表記とは、あるNe次元の空間を張る基底ベクトルをej(j=0,1,2,…,Ne−1)としたとき、あるベクトルpを基底ベクトルの多項式で表記すること、すなわち式(5)で表記することとする。なお、ajは各基底ベクトルに対する係数であり、各基底ベクトルejは線形独立である。
ここで、基底ベクトル表記を用いると、参照点piの座標は、参照物体座標系{X}およびカメラ座標系{C}において式(6)および式(7)で表される。
ここで、式(8)が満たされるとき、参照点piのカメラ座標系{C}における座標pi {C}は、式(9)で表される。
なお、式(9)における行列Rは、外部パラメータRであり、直交行列である。外部パラメータRによる変換は等長性をもつ線形変換であることから、aj i{X}=aj i{C}がいえる。また、pj {X}は既知であることから、適当にej {X}を定めることで係数aj i{X}(およびaj i{C})を求めることができる。係数aj i{X}は、どのように求めてもよい。例えば式(10)のように、ei {X}(i=0,1,2)を定め、pi {X}を式(11)のように定めると、各係数aj i{X}(j=0,1,2)は式(12)で与えられる。これらにより、各aj i{C}が得られる。
外部パラメータ推定部13は、参照点pi(i=0,1,2,…,Np−1)ごとに、角膜球Eにおける反射点を算出する(ステップS105)。ステップS105の処理は、参照点piごとに行われる。すなわち、外部パラメータ推定部13は、ステップS105の処理をNp回繰り返す。前述のように、参照点piの画像Iにおける投影点をqiとする。ここで、ベクトルviを参照点二次元座標qi {I}と外部パラメータKとを用いて式(13)として定める。
また、参照点piは、角膜球E上の反射点miにおいて反射するとしたとき、カメラ中心Oから反射点miまでの距離kOmiは式(14)で表される。
これにより、反射点miの座標mi {C}は式(15)により求められる。
外部パラメータ推定部13は、外部パラメータに関する線形方程式を解き、外部パラメータR、Tを取得する(ステップS106)。基底ベクトル表記において、ej {X}(j=0,1,2)を式(10)のように定め、外部パラメータRを式(16)とすると、式(17)であることから、参照点piの座標pi {C}は式(18)で表される。
一方、参照点piの座標pi{C}は、反射点miと参照点piとを結ぶ単位ベクトルuiとmi−piとの間の距離kiを用いて、式(19)で表される。
なお、単位ベクトルuiは、反射の法則から式(20)で表される。
ここで、niは、反射点miにおける法線ベクトルである。反射点miにおける法線ベクトルniは、球面鏡の中心と反射点miとを結ぶ単位ベクトルであることから、式(21)で求められる。
ここで、式(18)と式(19)とから、式(22)が得られる。
さらに、式(22)をNp点分用意し、式(23)のようにまとめる。
ただし、式(23)における行列A、X、Bは以下の式(24−1)〜式(24−4)、式(25)および式(26)で与えられる。
なお、参照点piをNp点用いる場合、式(23)における未知変数の数が(12+Np)個であり、制約式は3Np本得られることから、参照点piが6点以上(Np≧6)のときに外部パラメータR、Tを含む未知変数が式(27)により求められる。すなわち、6点以上の参照点piから得られる制約式からなる連立方程式を解くことにより、外部パラメータR、Tを含む未知変数を求めることができる。なお、式(27)における行列A*は行列Aの疑似逆行列である。
また、基底ベクトル表記を用いることで、以下のように解くことも可能である。p0 Xを参照物体座標系{X}の原点としたとき、p0 {C}は並進ベクトルそのものとみなせることから、式(28)が成り立つ。
式(28)を、Np点分用意し、式(29)のようにまとめる。
ただし、式(29)における行列C、Y、Dは、式(30−1)〜式(30−3)、式(31)および式(32)で与えられる。
参照点piをNp点用いる場合、式(29)における未知変数の数は(9+Np)個であり、制約式が3(Np−1)本得られることから、参照点piが6点以上(Np≧6)のときに外部パラメータR、Tを含む未知変数が式(33)で求められる。
式(33)において、行列C*は行列Cの疑似逆行列である。このとき、外部パラメータTは式(34)で得られる。
また、ベクトルrjは、回転行列Rの成分であるためノルムは1である。しかし、実際にはノイズや誤差などの影響から、必ずしも1になるとは限らない。そこで、式(35)で得られるr’jを推定した回転行列Rの成分としてもよい。なお、このノルムの修正は行わずともよい。
また、参照点が同一平面上に存在するとき、すなわちベクトルp2 Xを零ベクトルとしたとき、ベクトルr2=(000)Tであることから、式(36)の関係が成り立つ。
ただし、式(36)において、行列A’、X’は、式(37)および式(38)で与えられる。
参照点piをNp点用いる場合、式(36)における未知変数の数は(9+Np)個であり、制約式が3Np本得られることから、参照点piが5点以上(Np≧5)のときに、外部パラメータR、Tを含む未知変数が式(39)で求められる。
式(39)において、行列A’*は行列A’の疑似逆行列である。また、ベクトルr2は、ベクトルr0、r1に対して直交していることから、式(40)として求められる。なお、前述したように、各ベクトルrjはノルムを修正してもよいし、修正しなくてもよい。
また、基底ベクトル表を用いることで、式(41)により解くことも可能である。
ただし、式(41)において、行列C’、Y’、D’は、式(42)および式(43)で与えられる。
参照点piをNp点用いる場合、式(41)における未知変数の数は(6+Np)個であり、制約式が3(Np−1)本得られることから、参照点piが5点以上(Np≧5)のときに外部パラメータR、Tを含む未知変数が式(44)で求められる。
式(44)において、行列C’*は行列C’の疑似逆行列である。このとき、外部パラメータTは式(45)で得られる。
また、ベクトルr2は、ベクトルr0、r1に対して直交していることから、式(46)として求められる。なお、前述したように、各ベクトルrjはノルムを修正してもよいし、修正しなくてもよい。
外部パラメータ推定部13は、得られた回転行列Rを修正する(ステップS107)。ステップS106において求められたベクトルrj(j=0,1,2)は、ノイズなどの影響から回転行列が満たすべき制約(式(47)および式(48))を満たしているとは限らない。
そこで、回転行列R=(r0 r1 r2)に対して、Orthogonal Procrustes Problemを用いることで、式(47)および式(48)を満たす回転行列R’を求めることが可能である。なお、Orthogonal Procrustes Problemは、公知の技術であり、例えば参考文献2(Gene H. Golub and Charles F. Van Loan, "Matrix Computations", (USA), The Johns Hopkins University Press, Third Edition, 1996)などに記載されている。なお、ノイズなどの影響が無視できる場合には、ステップS107における修正を省いてもよい。 Therefore, by using the Orthogonal Procrustes Problem for the rotation matrix R = (r 0 r 1 r 2 ), it is possible to obtain a rotation matrix R ′ that satisfies Expressions (47) and (48). The Orthogonal Procrustes Problem is a known technique, such as Reference 2 (Gene H. Golub and Charles F. Van Loan, "Matrix Computations", (USA), The Johns Hopkins University Press, Third Edition, 1996). It is described in. If the influence of noise or the like can be ignored, the correction in step S107 may be omitted.
外部パラメータ推定部13は、得られた外部パラメータR、Tを最適化し(ステップS108)、最適化された外部パラメータR、Tを外部の装置へ出力して画像データ処理を終了させる。最適化のコスト関数としては、どのようなコスト関数を用いてもよい。例えば、一般的に外部パラメータを最適化する上で用いられている再投影誤差を最小化する項を用いてもよい。このとき、外部パラメータR、Tは、各種パラメータを用いて算出した投影点と、実際に検出された投影点とが一致するように最適化されるため、投影点に対してノイズの少ない理想的な環境下において高精度に最適化されることが期待できる。なお、ノイズの影響が無視できる場合には、外部パラメータR、Tの最適化は行われなくてもよい。
The external
本実施形態の画像データ処理装置1によれば、角膜球座標推定部12が画像Iと内部パラメータKと角膜球半径rとに基づいて角膜球Eの中心座標S{C}を推定し、外部パラメータ推定部13が内部パラメータKと参照点piの三次元座標pi {X}と参照点二次元座標qi {I}と中心座標S{C}とに基づいて、参照物体座標系{X}を基準としたときのカメラCの外部パラメータR、Tを推定する。これにより、同一平面上に分布している5点の参照点あるいは同一平面上に分布していない6点の参照点に対して1姿勢の眼球(角膜球)を用いるという簡易な構成で、参照点、眼球位置やカメラ中心の位置関係に制約を課すことなくカメラの外部パラメータを推定する外部キャリブレーションを実現することができる。
According to the image data processing device 1 of the present embodiment, the corneal sphere coordinate
なお、図3に示した画像データ処理において、ステップS104の後にステップS105が行われる構成について説明したが、ステップS105の後にステップS104が行われるようにしてもよい。 In the image data processing shown in FIG. 3, the configuration in which step S105 is performed after step S104 has been described. However, step S104 may be performed after step S105.
上述した実施形態における画像データ処理装置1の全てまたは一部をコンピュータで実現するようにしてもよい。例えば、画像データ処理装置1が有する構成要素それぞれを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した構成要素の一部を実現するためのものであってもよく、さらに前述した構成要素をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。 You may make it implement | achieve all or one part of the image data processing apparatus 1 in embodiment mentioned above with a computer. For example, it is realized by recording a program for realizing each component included in the image data processing apparatus 1 on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. May be. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the above-described components, or may be realized by combining the above-described components with a program already recorded in the computer system. It may be realized by using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.
眼球中心、参照点およびカメラ中心の位置関係に制約を課すことなく、カメラとその視野外に存在する物体との間の外部キャリブレーションを行うことが不可欠な用途にも適用できる。 The present invention can also be applied to applications where it is indispensable to perform external calibration between a camera and an object existing outside the field of view without imposing restrictions on the positional relationship between the eyeball center, the reference point, and the camera center.
1…画像データ処理装置
11…入力部
12…角膜球座標推定部
13…外部パラメータ推定部
DESCRIPTION OF SYMBOLS 1 ... Image
Claims (7)
前記画像と前記内部パラメータと前記半径とに基づいて、前記角膜球の中心座標を推定する角膜球座標推定ステップと、
前記内部パラメータと前記複数の参照点の三次元座標と前記複数の参照点の二次元座標と前記中心座標とに基づいて、前記参照物体の座標系を基準としたときの前記撮像装置の外部パラメータを推定する外部パラメータ推定ステップと、
を有する画像データ処理方法。 Included in the image are the image captured by the imaging device, the internal parameters of the imaging device, the radius of the corneal sphere that considered the cornea as part of the sphere, the three-dimensional coordinates of a plurality of reference points in the reference object Image data for estimating a position and orientation relationship between the reference object and the imaging device located outside the field of view of the imaging device based on two-dimensional coordinates in the image of primary reflection images of the plurality of reference points by the cornea A processing method,
A corneal sphere coordinate estimation step for estimating a center coordinate of the corneal sphere based on the image, the internal parameter, and the radius;
Based on the internal parameters, the three-dimensional coordinates of the plurality of reference points, the two-dimensional coordinates of the plurality of reference points, and the center coordinates, the external parameters of the imaging apparatus when the coordinate system of the reference object is used as a reference An external parameter estimation step for estimating
An image data processing method comprising:
前記画像に含まれる前記角膜球の投影像に対する楕円パラメータを推定し、
推定された前記楕円パラメータに基づいて、前記中心座標を推定する、
請求項1に記載の画像データ処理方法。 In the corneal sphere coordinate estimation step,
Estimating an ellipse parameter for the projected image of the corneal sphere contained in the image;
Estimating the central coordinates based on the estimated ellipse parameters;
The image data processing method according to claim 1.
前記参照点ごとに、当該参照点の前記二次元座標と前記内部パラメータとから第1のベクトルを算出し、
前記中心座標と前記半径と前記第1のベクトルとに基づいて、前記参照点それぞれの前記角膜球上における反射点の三次元座標を算出し、
前記複数の参照点の三次元座標と、前記複数の参照点それぞれに対応する前記反射点の三次元座標と、前記複数の参照点それぞれに対応する前記第1のベクトルと、前記外部パラメータとに基づいて得られる連立方程式を解くことにより、前記外部パラメータを推定する、
請求項1または請求項2のいずれか一項に記載の画像データ処理方法。 In the external parameter estimation step,
For each reference point, calculate a first vector from the two-dimensional coordinates of the reference point and the internal parameters;
Based on the central coordinates, the radius, and the first vector, calculate the three-dimensional coordinates of the reflection point on the corneal sphere of each of the reference points,
The three-dimensional coordinates of the plurality of reference points, the three-dimensional coordinates of the reflection points corresponding to the plurality of reference points, the first vector corresponding to each of the plurality of reference points, and the external parameter Estimating the external parameters by solving simultaneous equations obtained from
The image data processing method according to claim 1.
基底ベクトル表記を用いることにより前記連立方程式を得て前記外部パラメータを線形に推定する、
請求項3に記載の画像データ処理方法。 In the external parameter estimation step,
Obtaining the simultaneous equations by using basis vector notation to estimate the external parameters linearly;
The image data processing method according to claim 3.
請求項1から請求項4のいずれか一項に記載の画像データ処理方法。 The reference points exist at least 6 points, or at least 5 points when the reference points are in the same plane,
The image data processing method according to any one of claims 1 to 4.
前記画像と前記内部パラメータと前記半径とに基づいて、前記角膜球の中心座標を推定する角膜球座標推定部と、
前記内部パラメータと前記複数の参照点の三次元座標と前記複数の参照点の二次元座標と前記中心座標とに基づいて、前記参照物体の座標系を基準としたときの前記撮像装置の外部パラメータを推定する外部パラメータ推定部と、
を備える画像データ処理装置。 Included in the image are the image captured by the imaging device, the internal parameters of the imaging device, the radius of the corneal sphere that considered the cornea as part of the sphere, the three-dimensional coordinates of a plurality of reference points in the reference object Image data for estimating a position and orientation relationship between the reference object and the imaging device located outside the field of view of the imaging device based on two-dimensional coordinates in the image of primary reflection images of the plurality of reference points by the cornea A processing device comprising:
A corneal sphere coordinate estimator for estimating a center coordinate of the corneal sphere based on the image, the internal parameter, and the radius;
Based on the internal parameters, the three-dimensional coordinates of the plurality of reference points, the two-dimensional coordinates of the plurality of reference points, and the center coordinates, the external parameters of the imaging apparatus when the coordinate system of the reference object is used as a reference An external parameter estimation unit for estimating
An image data processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015076005A JP6302427B2 (en) | 2015-04-02 | 2015-04-02 | Image data processing method, image data processing apparatus, and image data processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015076005A JP6302427B2 (en) | 2015-04-02 | 2015-04-02 | Image data processing method, image data processing apparatus, and image data processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016197780A JP2016197780A (en) | 2016-11-24 |
JP6302427B2 true JP6302427B2 (en) | 2018-03-28 |
Family
ID=57358563
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015076005A Active JP6302427B2 (en) | 2015-04-02 | 2015-04-02 | Image data processing method, image data processing apparatus, and image data processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6302427B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110309751A (en) * | 2019-06-24 | 2019-10-08 | 火石信科(广州)科技有限公司 | A kind of recognition methods for reading and writing scene read-write posture |
CN113345026A (en) * | 2021-05-13 | 2021-09-03 | 北京三快在线科技有限公司 | Camera parameter calibration method and device, storage medium and electronic equipment |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007034628A (en) * | 2005-07-26 | 2007-02-08 | Canon Inc | Method and system for image processing |
JP2010239515A (en) * | 2009-03-31 | 2010-10-21 | T4 Co Ltd | Calculation method of camera calibration |
JP2010259605A (en) * | 2009-05-01 | 2010-11-18 | Nippon Hoso Kyokai <Nhk> | Visual line measuring device and visual line measuring program |
JP5453352B2 (en) * | 2011-06-30 | 2014-03-26 | 株式会社東芝 | Video display device, video display method and program |
JP5857805B2 (en) * | 2012-03-07 | 2016-02-10 | 株式会社Jvcケンウッド | Camera calibration device |
JP2014188322A (en) * | 2013-03-28 | 2014-10-06 | Panasonic Corp | Visual line detection device, visual line detection method and program |
JP6276713B2 (en) * | 2015-01-14 | 2018-02-07 | 日本電信電話株式会社 | Image data processing method, image data processing apparatus, and image data processing program |
-
2015
- 2015-04-02 JP JP2015076005A patent/JP6302427B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016197780A (en) | 2016-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9429418B2 (en) | Information processing method and information processing apparatus | |
JP6685827B2 (en) | Image processing apparatus, image processing method and program | |
JP6371849B2 (en) | Image alignment apparatus, image alignment method, and image alignment program | |
JP6067175B2 (en) | Position measuring apparatus and position measuring method | |
Draelos et al. | Intel realsense= real low cost gaze | |
JP2017016192A (en) | Three-dimensional object detection apparatus and three-dimensional object authentication apparatus | |
JP2016019194A (en) | Image processing apparatus, image processing method, and image projection device | |
JP6547754B2 (en) | Triangulation apparatus, triangulation method and program thereof | |
WO2020237565A1 (en) | Target tracking method and device, movable platform and storage medium | |
WO2021208486A1 (en) | Camera coordinate transformation method, terminal, and storage medium | |
JP6515039B2 (en) | Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image | |
JP6276713B2 (en) | Image data processing method, image data processing apparatus, and image data processing program | |
KR102386444B1 (en) | Image depth determining method and living body identification method, circuit, device, and medium | |
JP6885474B2 (en) | Image processing device, image processing method, and program | |
KR20160095560A (en) | Apparatus and methdo for calibrating a camera | |
DK3189493T3 (en) | PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP | |
JP6302427B2 (en) | Image data processing method, image data processing apparatus, and image data processing program | |
US20210118160A1 (en) | Methods, devices and computer program products for 3d mapping and pose estimation of 3d images | |
JP6557640B2 (en) | Camera calibration apparatus, camera calibration method, and camera calibration program | |
US20170256046A1 (en) | Information processing apparatus, method of controlling information processing apparatus, and storage medium | |
JP6573196B2 (en) | Distance information correction apparatus, distance information correction method, and distance information correction program | |
JP6086491B2 (en) | Image processing apparatus and database construction apparatus thereof | |
JP5801209B2 (en) | Camera posture estimation device, program | |
US20230144111A1 (en) | A method for generating a 3d model | |
JP2012173858A (en) | Omnidirectional image generation method, image generation device and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170626 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180227 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180302 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6302427 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |