JP6302427B2 - Image data processing method, image data processing apparatus, and image data processing program - Google Patents

Image data processing method, image data processing apparatus, and image data processing program Download PDF

Info

Publication number
JP6302427B2
JP6302427B2 JP2015076005A JP2015076005A JP6302427B2 JP 6302427 B2 JP6302427 B2 JP 6302427B2 JP 2015076005 A JP2015076005 A JP 2015076005A JP 2015076005 A JP2015076005 A JP 2015076005A JP 6302427 B2 JP6302427 B2 JP 6302427B2
Authority
JP
Japan
Prior art keywords
image data
data processing
image
dimensional coordinates
reference points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015076005A
Other languages
Japanese (ja)
Other versions
JP2016197780A (en
Inventor
康輔 高橋
康輔 高橋
弾 三上
弾 三上
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015076005A priority Critical patent/JP6302427B2/en
Publication of JP2016197780A publication Critical patent/JP2016197780A/en
Application granted granted Critical
Publication of JP6302427B2 publication Critical patent/JP6302427B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像データ処理方法、画像データ処理装置および画像データ処理プログラムに関する。   The present invention relates to an image data processing method, an image data processing device, and an image data processing program.

カメラと被写体の位置姿勢関係を推定する外部キャリブレーションはコンピュータビジョンの基礎となる技術であり、これまで数多くの研究がなされてきた(非特許文献1)。これら既存の外部キャリブレーションに関する手法の多くは,カメラが参照物体を直接観測できることを想定している。   External calibration for estimating the position and orientation relationship between a camera and a subject is a technology that is the basis of computer vision, and many studies have been made so far (Non-Patent Document 1). Many of these existing external calibration methods assume that the camera can directly observe the reference object.

近年、ラップトップコンピュータ、スマートフォンやデジタルサイネージなどの普及に伴い、ディスプレイ−カメラシステムを用いた様々な研究が注目を集めている。その一つの例として、デジタルサイネージを用いた興味推定がある。これは、ユーザの視線方向とディスプレイでの提示内容との対応を取ることで実現されている。さらには、3次元形状復元への応用も研究されている。これは、ディスプレイを制御可能な面光源として利用し、提示内容の変化に伴う観測対象の輝度変化に基づくものである。これらのように、ディスプレイの提示内容に対し、カメラで撮影した映像から推定した視線や観測対象の輝度変化を幾何的に対応付けるためには、ディスプレイとカメラの位置姿勢関係を求める外部キャリブレーションを行う必要がある。通常ディスプレイにチェスパターンなどを提示し、それをカメラで撮影して外部キャリブレーションを行う。しかしながら、ラップトップコンピュータやスマートフォンなどのディスプレイ−カメラシステムでは、一般にカメラの視野内にディスプレイ(参照物体)が存在せず、従来の外部キャリブレーション手法の適用が困難であった。   In recent years, with the spread of laptop computers, smartphones, digital signage, and the like, various studies using a display-camera system have attracted attention. One example is interest estimation using digital signage. This is realized by taking a correspondence between the user's line-of-sight direction and the content presented on the display. Furthermore, application to three-dimensional shape restoration is also being studied. This is based on a change in luminance of an observation target accompanying a change in the presentation contents, using the display as a controllable surface light source. In this way, external calibration is performed to determine the positional orientation between the display and the camera in order to geometrically associate the gaze estimated from the video captured by the camera and the luminance change of the observation target with the display content. There is a need. Usually, a chess pattern etc. is presented on the display, and it is photographed with a camera for external calibration. However, in a display-camera system such as a laptop computer or a smartphone, there is generally no display (reference object) in the field of view of the camera, and it has been difficult to apply a conventional external calibration method.

このような参照物体がカメラの視野内に存在しない状況において、鏡を用いることで外部キャリブレーションを行う技術が提案されている。なお、以下では参照物体上には参照点が存在し、その参照点を用いて外部キャリブレーションを行うこととする。外部キャリブレーションでは、実施の手間や計算量の観点から、より簡易な構成を目指した研究が取り組まれている。非特許文献2および非特許文献3には、平面鏡を用いた最小構成である、3点の参照点に対して平面鏡を3姿勢用いる技術が記載されている。一方、鏡の姿勢の数の削減という観点から、非特許文献4には、8点の参照点に対して1姿勢の球面鏡を用いる技術が記載されている。さらに、非特許文献5には、追加のデバイスを無くす試みとして、眼球の鏡面反射を利用する技術が記載されている。この技術は、3点の参照点に対して球面鏡とみなした両眼、つまり2姿勢の球面鏡を利用するものである。非特許文献6には、眼球中心、カメラ中心および参照点の位置関係に制約を設けることで3点の参照点に対して1姿勢の眼球を用いる技術が記載されている。   There has been proposed a technique for performing external calibration by using a mirror in a situation where such a reference object does not exist in the field of view of the camera. In the following, a reference point exists on the reference object, and external calibration is performed using the reference point. In external calibration, research aimed at a simpler configuration is underway from the viewpoint of labor and calculation amount. Non-Patent Document 2 and Non-Patent Document 3 describe a technique that uses three plane mirrors with respect to three reference points, which is a minimum configuration using a plane mirror. On the other hand, from the viewpoint of reducing the number of mirror postures, Non-Patent Document 4 describes a technique that uses a spherical mirror with one posture with respect to eight reference points. Further, Non-Patent Document 5 describes a technique using specular reflection of an eyeball as an attempt to eliminate an additional device. This technique uses binocular eyes that are regarded as spherical mirrors with respect to three reference points, that is, spherical mirrors with two postures. Non-Patent Document 6 describes a technique that uses an eyeball of one posture with respect to three reference points by limiting the positional relationship between the eyeball center, the camera center, and the reference point.

Z. Zhang, "A Flexible New Technique for Camera Calibration", IEEE Transactions on Pattern Analysis and Machine Intelligence, Nov. 2000, Volume 22, Issue 11, p.1330-1334Z. Zhang, "A Flexible New Technique for Camera Calibration", IEEE Transactions on Pattern Analysis and Machine Intelligence, Nov. 2000, Volume 22, Issue 11, p.1330-1334 K.Takahashi, S.Nobuhara, and T.Matsuyama, "A New Mirror-based Extrinsic Camera Calibration Using an Orthogonality Constraint", 2012 IEEE Conference on Computer Vision and Pattern Recognition(CVPR), June 2012, p.1051-1058K. Takahashi, S. Nobuhara, and T. Matsuyama, "A New Mirror-based Extrinsic Camera Calibration Using an Orthogonality Constraint", 2012 IEEE Conference on Computer Vision and Pattern Recognition (CVPR), June 2012, p.1051-1058 J.A.Hesch, A.I.Mourikis, and S.I.Roumeliotis, "chapter: Mirror-Based Extrinsic Camera Calibration", "Algorithmic Foundation of Robotics VIII", (Germany), Springer-Verlag, 2009, Volume 57 of Springer Tracts in Advanced Robotics, p.285-299JAHesch, AIMourikis, and SIRoumeliotis, "chapter: Mirror-Based Extrinsic Camera Calibration", "Algorithmic Foundation of Robotics VIII", (Germany), Springer-Verlag, 2009, Volume 57 of Springer Tracts in Advanced Robotics, p. 285-299 A.Agrawal, "Extrinsic Camera Calibration Without A Direct View Using Spherical Mirror", 2013 IEEE International Conference on Computer Vision (ICCV), Dec. 2013, p.2368-2375A. Agrawal, "Extrinsic Camera Calibration Without A Direct View Using Spherical Mirror", 2013 IEEE International Conference on Computer Vision (ICCV), Dec. 2013, p.2368-2375 C.Nitschke, A.Nakazawa, and H.Takemura, "Display-camera calibration using eye reflections and geometry constraints", "Computer Vision and Image Understanding", Elsevier B.V., June 2011, Volume 115, Issue 6, p.835-853C. Nitschke, A. Nakazawa, and H. Takemura, "Display-camera calibration using eye reflections and geometry constraints", "Computer Vision and Image Understanding", Elsevier BV, June 2011, Volume 115, Issue 6, p.835- 853 高橋康輔、三上弾、小島明、「眼球特性と等距離制約を用いたカメラとその視野外に存在する物体の最小構成外部キャリブレーション」、信学技報、電子情報通信学会、2015年1月、Vol.114、No.410,p.277−282Kosuke Takahashi, Amami Mikami, Akira Kojima, “Minimum configuration external calibration of camera and objects outside the field of view using eye characteristics and equidistant constraints”, IEICE Technical Report, IEICE, 20151 Month, Vol. 114, no. 410, p. 277-282

しかしながら、非特許文献2、3、4に記載の技術では、キャリブレーションの度に鏡を用意しなければならないという手間が発生する。また、非特許文献5に記載の技術では、眼球という極小の領域に映った参照物体からキャリブレーションを行うため、精度の観点からカメラと眼球とを近づけて両者間の距離を短くした上で撮影することが望ましい。しかし、非特許文献5に記載の技術では両眼を用いていることから、両眼を同時に撮影できる距離までカメラと眼球とを離す必要があった。また、非特許文献6に記載の技術では、眼球中心と各参照点との距離が、眼球中心とカメラ中心との距離に等しくなければならないという制約が存在する。   However, in the techniques described in Non-Patent Documents 2, 3, and 4, there is a trouble that a mirror must be prepared for each calibration. In the technique described in Non-Patent Document 5, calibration is performed from a reference object reflected in a minimal region called an eyeball. It is desirable to do. However, since the technique described in Non-Patent Document 5 uses both eyes, it is necessary to separate the camera and the eyeball to such a distance that both eyes can be photographed simultaneously. In the technique described in Non-Patent Document 6, there is a restriction that the distance between the eyeball center and each reference point must be equal to the distance between the eyeball center and the camera center.

上記事情に鑑み、本発明は、眼球中心、参照点およびカメラ中心の位置関係に制約を課すことなく、カメラとその視野外に存在する物体との間の外部キャリブレーションを行うことができるデータ処理方法、画像データ処理装置および画像データ処理プログラムを提供することを目的とする。   In view of the above circumstances, the present invention is a data processing capable of performing external calibration between a camera and an object existing outside the field of view without imposing restrictions on the positional relationship between the eyeball center, the reference point, and the camera center. It is an object to provide a method, an image data processing apparatus, and an image data processing program.

本発明の一態様は、撮像装置により撮像された画像と、前記撮像装置の内部パラメータと、角膜を球の一部とみなした角膜球の半径と、参照物体における複数の参照点の三次元座標と、前記画像に含まれ前記角膜による前記複数の参照点の一次反射像の前記画像における二次元座標とに基づいて、前記撮像装置の視野外に位置する前記参照物体と前記撮像装置との位置姿勢関係を推定する画像データ処理方法であって、前記画像と前記内部パラメータと前記半径とに基づいて、前記角膜球の中心座標を推定する角膜球座標推定ステップと、前記内部パラメータと前記複数の参照点の三次元座標と前記複数の参照点の二次元座標と前記中心座標とに基づいて、前記参照物体の座標系を基準としたときの前記撮像装置の外部パラメータを推定する外部パラメータ推定ステップとを有する、画像データ処理方法である。   One embodiment of the present invention includes an image captured by an imaging device, internal parameters of the imaging device, a radius of a corneal sphere that considers the cornea as a part of a sphere, and three-dimensional coordinates of a plurality of reference points in a reference object And the positions of the imaging device and the reference object located outside the field of view of the imaging device based on the two-dimensional coordinates in the image of primary reflection images of the plurality of reference points by the cornea included in the image An image data processing method for estimating a posture relationship, the corneal sphere coordinate estimation step for estimating a center coordinate of the corneal sphere based on the image, the internal parameter, and the radius, the internal parameter, and the plurality of the plurality of parameters Based on the three-dimensional coordinates of the reference point, the two-dimensional coordinates of the plurality of reference points, and the central coordinates, the external parameters of the imaging device when the coordinate system of the reference object is used as a reference are estimated And a part parameter estimation step, an image data processing method.

また、本発明の一態様は、上記の画像データ処理方法において、前記角膜球座標推定ステップでは、前記画像に含まれる前記角膜球の投影像に対する楕円パラメータを推定し、推定された前記楕円パラメータに基づいて、前記中心座標を推定する。   According to another aspect of the present invention, in the image data processing method, in the corneal sphere coordinate estimation step, an elliptic parameter for a projection image of the corneal sphere included in the image is estimated, and the estimated elliptic parameter Based on this, the center coordinates are estimated.

また、本発明の一態様は、上記の画像データ処理方法において、前記外部パラメータ推定ステップでは、前記参照点ごとに、当該参照点の前記二次元座標と前記内部パラメータとから第1のベクトルを算出し、前記中心座標と前記半径と前記第1のベクトルとに基づいて、前記参照点それぞれの前記角膜球上における反射点の三次元座標を算出し、前記複数の参照点の三次元座標と、前記複数の参照点それぞれに対応する前記反射点の三次元座標と、前記複数の参照点それぞれに対応する前記第1のベクトルと、前記外部パラメータとに基づいて得られる連立方程式を解くことにより、前記外部パラメータを推定する。   According to another aspect of the present invention, in the image data processing method, in the external parameter estimation step, a first vector is calculated for each reference point from the two-dimensional coordinates of the reference point and the internal parameter. And calculating the three-dimensional coordinates of the reflection points on the corneal sphere of each of the reference points based on the center coordinates, the radius, and the first vector, and the three-dimensional coordinates of the plurality of reference points; By solving the simultaneous equations obtained based on the three-dimensional coordinates of the reflection point corresponding to each of the plurality of reference points, the first vector corresponding to each of the plurality of reference points, and the external parameter, The external parameter is estimated.

また、本発明の一態様は、上記の画像データ処理方法において、前記外部パラメータ推定ステップでは、基底ベクトル表記を用いることにより前記連立方程式を得て前記外部パラメータを線形に推定する。   According to another aspect of the present invention, in the image data processing method, in the external parameter estimation step, the simultaneous equations are obtained by using basis vector notation, and the external parameters are estimated linearly.

また、本発明の一態様は、上記の画像データ処理方法において、前記参照点は、少なくとも6点、または前記参照点が同一平面に位置するときには少なくとも5点、存在する。   In one embodiment of the present invention, in the image data processing method, there are at least six reference points, or at least five reference points when the reference points are located on the same plane.

また、本発明の一態様は、撮像装置により撮像された画像と、前記撮像装置の内部パラメータと、角膜を球の一部とみなした角膜球の半径と、参照物体における複数の参照点の三次元座標と、前記画像に含まれ前記角膜による前記複数の参照点の一次反射像の前記画像における二次元座標とに基づいて、前記撮像装置の視野外に位置する前記参照物体と前記撮像装置との位置姿勢関係を推定する画像データ処理装置であって、前記画像と前記内部パラメータと前記半径とに基づいて、前記角膜球の中心座標を推定する角膜球座標推定部と、前記内部パラメータと前記複数の参照点の三次元座標と前記複数の参照点の二次元座標と前記中心座標とに基づいて、前記参照物体の座標系を基準としたときの前記撮像装置の外部パラメータを推定する外部パラメータ推定部とを備える、画像データ処理装置である。   Further, according to one embodiment of the present invention, an image captured by an imaging device, an internal parameter of the imaging device, a radius of a corneal sphere that considers the cornea as a part of a sphere, and a tertiary of a plurality of reference points in a reference object Based on the original coordinates and two-dimensional coordinates in the image of primary reflection images of the plurality of reference points included in the image by the cornea, the reference object located outside the field of view of the imaging device, and the imaging device An image data processing device for estimating a position and orientation relationship of the corneal sphere, a corneal sphere coordinate estimation unit for estimating a central coordinate of the corneal sphere based on the image, the internal parameter, and the radius; the internal parameter; Based on the three-dimensional coordinates of a plurality of reference points, the two-dimensional coordinates of the plurality of reference points, and the center coordinates, an external parameter of the imaging device is estimated based on the coordinate system of the reference object. And a part parameter estimation unit, an image data processing apparatus.

また、本発明の一態様は、上記の画像データ処理方法をコンピュータに実行させるための画像データ処理プログラムである。   One embodiment of the present invention is an image data processing program for causing a computer to execute the above image data processing method.

本発明によれば、眼球中心、参照点およびカメラ中心の位置関係に制約を課すことなく、カメラとその視野外に存在する物体との間の外部キャリブレーションを行うことが可能となる。   According to the present invention, it is possible to perform external calibration between a camera and an object existing outside the field of view without imposing restrictions on the positional relationship between the eyeball center, the reference point, and the camera center.

実施形態において想定する環境の概要を示す図である。It is a figure which shows the outline | summary of the environment assumed in embodiment. 実施形態における画像データ処理装置1の構成を示すブロック図である。It is a block diagram which shows the structure of the image data processing apparatus 1 in embodiment. 実施形態における画像データ処理装置1が行う画像データ処理を示すフローチャートである。It is a flowchart which shows the image data process which the image data processing apparatus 1 in embodiment performs. 角膜球Eの投影を表す図である。3 is a diagram illustrating a projection of a corneal sphere E.

以下、図面を参照して、本発明を実施するための形態を説明する。初めに、本発明に係る実施形態における画像データ処理方法、画像データ処理装置および画像データ処理プログラムで想定する環境を示す。図1は、実施形態において想定する環境の概要を示す図である。本実施形態では、撮像装置としてのカメラC、参照物体Xおよび眼球(角膜球)Eを用いる。角膜球とは、角膜を球の一部とみなしたときの球体である。参照物体X上には、参照点p(i=0,1,2,…,N−1)が存在する。なお、Nは、参照物体X上の参照点の数である。参照物体Xは、カメラCの視野内に存在せず、角膜球Eの一次反射によりカメラCから観測される。ここで、眼球中心(角膜球中心)とは、図1に示すように、角膜球Eの中心Sであり、カメラ中心とは撮影に用いているカメラCの光学中心Oである。また、本実施形態では、図1に示すように、カメラ座標系{C}と画像座標系{I}と参照物体座標系{X}との3つの座標系が用いられる。 Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. First, an environment assumed by the image data processing method, the image data processing apparatus, and the image data processing program according to the embodiment of the present invention will be described. FIG. 1 is a diagram illustrating an outline of an environment assumed in the embodiment. In the present embodiment, a camera C, a reference object X, and an eyeball (corneal ball) E as an imaging device are used. A corneal sphere is a sphere when the cornea is regarded as a part of the sphere. On the reference object X, there are reference points p i (i = 0, 1, 2,..., N p −1). N p is the number of reference points on the reference object X. The reference object X does not exist in the field of view of the camera C, and is observed from the camera C by the primary reflection of the corneal sphere E. Here, as shown in FIG. 1, the center of the eyeball is the center S of the corneal sphere E, and the camera center is the optical center O of the camera C used for photographing. In the present embodiment, as shown in FIG. 1, three coordinate systems of a camera coordinate system {C}, an image coordinate system {I}, and a reference object coordinate system {X} are used.

本実施形態における画像データ処理方法、画像データ処理装置および画像データ処理プログラムの目的は、画像座標系{I}における参照点pの投影像qの座標値から、カメラ座標系{C}と参照物体座標系{X}との間における外部パラメータR、Tを求めることである。外部パラメータRは、カメラ座標系{C}と参照物体座標系{X}との異なる座標系における姿勢変化を表す回転行列である。外部パラメータTは、カメラ座標系{C}と参照物体座標系{X}との異なる座標系における位置変化を表す並進ベクトルである。以下では、座標系{b}における点aの座標値をa{b}と表す。 The purpose of the image data processing method, the image data processing apparatus, and the image data processing program in the present embodiment is that the coordinate value of the projection image q i of the reference point p i in the image coordinate system {I} It is to obtain external parameters R and T between the reference object coordinate system {X}. The external parameter R is a rotation matrix that represents a change in posture in a different coordinate system between the camera coordinate system {C} and the reference object coordinate system {X}. The external parameter T is a translation vector representing a position change in a different coordinate system between the camera coordinate system {C} and the reference object coordinate system {X}. Hereinafter, the coordinate value of the point a in the coordinate system {b} is represented as a {b} .

図2は、本実施形態における画像データ処理装置1の構成を示すブロック図である。図2に示すように、画像データ処理装置1は、入力部11、角膜球座標推定部12および外部パラメータ推定部13を備える。画像データ処理装置1は、カメラにより撮像された画像と、カメラの内部パラメータと、角膜を球の一部とみなした角膜球の半径と、参照物体における複数の参照点の三次元座標と、画像に含まれ角膜による複数の参照点の一次反射像の画像における二次元座標とに基づいて、カメラの視野外に位置する参照物体とカメラとの位置姿勢関係を推定する。   FIG. 2 is a block diagram showing a configuration of the image data processing apparatus 1 in the present embodiment. As shown in FIG. 2, the image data processing device 1 includes an input unit 11, a corneal sphere coordinate estimation unit 12, and an external parameter estimation unit 13. The image data processing device 1 includes an image captured by a camera, camera internal parameters, a radius of a corneal sphere that considers the cornea as a part of a sphere, three-dimensional coordinates of a plurality of reference points in a reference object, and an image The position / orientation relationship between the reference object and the camera located outside the field of view of the camera is estimated based on the two-dimensional coordinates in the image of the primary reflection image of the plurality of reference points included in the cornea.

入力部11は、画像I、内部パラメータK、角膜球半径r、参照点二次元座標q {I}およびモデル座標p {X}を、外部または上位の装置から入力する。画像Iは処理の対象となるカメラCで撮像した画像であり、角膜球による参照点の一次反射像を含む画像である。内部パラメータKは、カメラCの内部パラメータであり、カメラCの焦点距離および画像中心を表すパラメータである。カメラ出荷時に定められた値やカメラCから出力される値が内部パラメータKに用いられてもよいし、非特許文献1に記載の技術を用いて推定された値が内部パラメータKに用いられてもよい。なお、カメラCが出力する値を用いる場合は、カメラCが計測する機能を有するときに限る。内部パラメータKは、例えば3行3列の行列で与えられる。角膜球半径rには、ユーザの角膜球半径を事前に測定して得られた値が用いられてもよいし、人間の角膜球半径の平均値(r=5.6mm)が用いられてもよい。 The input unit 11 inputs an image I, an internal parameter K, a corneal sphere radius r, a reference point two-dimensional coordinate q i {I}, and a model coordinate p i {X} from an external device or a host device. The image I is an image captured by the camera C to be processed and includes a primary reflection image of a reference point by a corneal sphere. The internal parameter K is an internal parameter of the camera C and is a parameter representing the focal length and the image center of the camera C. A value determined at the time of camera shipment or a value output from the camera C may be used as the internal parameter K, or a value estimated using the technique described in Non-Patent Document 1 is used as the internal parameter K. Also good. Note that the value output by the camera C is used only when the camera C has a measurement function. The internal parameter K is given by, for example, a 3 × 3 matrix. As the corneal sphere radius r, a value obtained by measuring a user's corneal sphere radius in advance may be used, or an average value of human corneal sphere radii (r = 5.6 mm) may be used. Good.

参照点二次元座標q {I}は、参照点pが角膜球Eによって反射されて画像Iに投影されたときの画像Iにおける座標である。参照点二次元座標qは、人が目視で検出してもよい。あるいは、事前に参照物体Xが角膜球Eによって反射されて投影されていないときの事前画像を取得しておき、参照物体Xが角膜球Eによって反射されて投影されているときの画像と事前画像との背景差分法を用いて参照点二次元座標q {I}を検出してもよい。 The reference point two-dimensional coordinates q i {I} are coordinates in the image I when the reference point p i is reflected by the corneal sphere E and projected onto the image I. The reference point two-dimensional coordinate q i may be detected by human eyes. Alternatively, a prior image when the reference object X is not reflected and projected by the corneal sphere E is acquired in advance, and an image and the previous image when the reference object X is reflected and projected by the corneal sphere E are obtained. The reference point two-dimensional coordinates q i {I} may be detected using the background difference method.

モデル座標p {X}は、参照物体座標系{X}における参照点pの三次元座標であり、事前に定めておくことが可能である。なお、参照点には、検出の容易さから一般にチェスパターンの交点などが用いられるが、モデル座標p {X}さえ既知であれば、様々なものが参照物体として利用できる。例えば、形状が既知の3次元物体や、ディスプレイ上に表示した映像コンテンツを参照物体として利用できる。映像コンテンツでは、映像に含まれる物の形状や、映像におけるピクセルの表示色が既知であることから参照物体として利用できる。 The model coordinates p i {X} are three-dimensional coordinates of the reference point p i in the reference object coordinate system {X}, and can be determined in advance. Note that an intersection of chess patterns or the like is generally used as a reference point for ease of detection, but various things can be used as a reference object as long as the model coordinates p i {X} are known. For example, a three-dimensional object having a known shape or video content displayed on a display can be used as a reference object. Video content can be used as a reference object since the shape of an object included in the video and the display color of pixels in the video are known.

角膜球座標推定部12は、入力部11において入力された画像Iと内部パラメータKと角膜球半径rとに基づいて、角膜球Eの中心座標S{C}を推定する。外部パラメータ推定部13は、入力部11において入力された内部パラメータKとモデル座標p {X}と参照点二次元座標q {I}と、角膜球座標推定部12において推定された角膜球中心座標S{C}とに基づいて、外部パラメータR、Tを推定する。 The corneal sphere coordinate estimation unit 12 estimates the center coordinate S {C} of the corneal sphere E based on the image I, the internal parameter K, and the corneal sphere radius r input by the input unit 11. The external parameter estimation unit 13 includes the internal parameter K, the model coordinates p i {X} , the reference point two-dimensional coordinates q i {I} input by the input unit 11, and the corneal sphere estimated by the corneal sphere coordinate estimation unit 12. The external parameters R and T are estimated based on the center coordinates S {C} .

図3は、本実施形態における画像データ処理装置1が行う画像データ処理を示すフローチャートである。画像データ処理装置1において画像データ処理が開始されると、入力部11は、画像I、内部パラメータK、角膜球半径r、参照点二次元座標q {I}およびモデル座標p {X}を入力する(ステップS101)。 FIG. 3 is a flowchart illustrating image data processing performed by the image data processing apparatus 1 according to the present embodiment. When the image data processing is started in the image data processing apparatus 1, the input unit 11 receives the image I, the internal parameter K, the corneal sphere radius r, the reference point two-dimensional coordinates q i {I}, and the model coordinates p i {X}. Is input (step S101).

角膜球座標推定部12は、ステップS101において入力された画像Iに対して角膜球Eの楕円パラメータを推定する(ステップS102)。図4は、角膜球Eの投影を表す図である。同図に示すように、角膜球Eの楕円パラメータは、楕円の中心座標i {I}(x座標:cx,y座標:cy)、楕円の長軸の長さ2rmax、楕円の短軸の長さ2rminおよび傾きφの5つの変数を含む。楕円パラメータの推定は、以下に説明する手法により行われる。なお、楕円パラメータの推定は、人が画像Iにおける角膜球Eの領域を計測することで行ってもよい。なお、図4における画像Iから角膜球Eまでの距離dは、カメラCから画像Iまでの焦点距離fと楕円パラメータとにより定まる。 The corneal sphere coordinate estimation unit 12 estimates the elliptic parameter of the corneal sphere E with respect to the image I input in step S101 (step S102). FIG. 4 is a diagram illustrating the projection of the corneal sphere E. As shown in the figure, the ellipse parameters of the corneal sphere E include the ellipse center coordinate i L {I} (x coordinate: cx, y coordinate: cy), the ellipse major axis length 2r max , and the ellipse minor axis. 5 variables including length 2r min and slope φ. The estimation of the ellipse parameter is performed by the method described below. The estimation of the ellipse parameter may be performed by a person measuring the region of the corneal sphere E in the image I. Note that the distance d from the image I to the corneal sphere E in FIG. 4 is determined by the focal length f from the camera C to the image I and the elliptic parameter.

角膜球座標推定部12は、例えば、画像Iに対して二値化を行った後にエッジ検出を行い、検出したエッジに対して角膜球Eの楕円パラメータを推定する。画像Iに対する二値化には、公知の技術を用いることができる。例えば、固定閾値処理や適応的閾値処理などが利用できる。また、エッジ検出にも、公知の技術を用いることができる。例えば、Cannyフィルタが利用できる。さらに、検出されたエッジにおける楕円パラメータの推定には、任意の方法を用いることができる。例えば、参考文献1(A.W.Fitzgibbon, R.B.Fisher, "A Buyer's Guide to Conic Fitting", BMVC '95 Proceedings of the 6th British conference on Machine vision (Vol.2), (UK), BMVA Press Surrey, 1995, p.513-522)に記載されている技術が利用できる。   For example, the corneal sphere coordinate estimation unit 12 performs edge detection after binarizing the image I, and estimates an elliptic parameter of the corneal sphere E with respect to the detected edge. A known technique can be used for the binarization of the image I. For example, fixed threshold processing or adaptive threshold processing can be used. A known technique can also be used for edge detection. For example, a Canny filter can be used. Furthermore, an arbitrary method can be used for estimating the ellipse parameter at the detected edge. For example, reference 1 (AWFitzgibbon, RBFisher, "A Buyer's Guide to Conic Fitting", BMVC '95 Proceedings of the 6th British conference on Machine vision (Vol.2), (UK), BMVA Press Surrey, 1995, p. .513-522) can be used.

角膜球座標推定部12は、推定した楕円パラメータから角膜球Eの中心座標S{C}を推定する(ステップS103)。角膜輪部の中心Lに位置する平均奥行き面と、角膜輪部を含む平面とがなす角τが式(1)で得られるとき、視線方向gは式(2)で表される。

Figure 0006302427
Figure 0006302427
The corneal sphere coordinate estimation unit 12 estimates the center coordinates S {C} of the corneal sphere E from the estimated ellipse parameters (step S103). When the angle τ formed by the average depth plane located at the center L of the corneal ring portion and the plane including the corneal ring portion is obtained by Expression (1), the line-of-sight direction g is expressed by Expression (2).
Figure 0006302427
Figure 0006302427

また、カメラ中心と角膜輪部の中心Lとの間の距離をdとすると、dは焦点距離f(ピクセル値)を用いて、d=f・(r/rmax)と表される。なお、rは角膜輪部の半径を表し、rの平均値は5.6mmとされている。さらに、カメラの内部パラメータKが行列で与えられるとき、角膜輪部の中心Lの座標L{C}は、式(3)で表される。

Figure 0006302427
Further, when the distance between the camera center and the center L of the cornea ring portion is d, d is expressed as d = f · (r L / r max ) using the focal length f (pixel value). Incidentally, r L denotes the radius of the limbus, the average value of r L is the 5.6 mm. Further, when the internal parameter K of the camera is given by a matrix, the coordinates L {C} of the center L of the corneal limbus are expressed by Expression (3).
Figure 0006302427

角膜球の中心座標S{C}は、角膜輪部の中心Lから−g方向にdLS(=5.6mm)進んだ方向にあることから、式(4)で得られる。

Figure 0006302427
The central coordinate S {C} of the corneal sphere is obtained by Expression (4) because it is in the direction advanced by d LS (= 5.6 mm) in the −g direction from the center L of the corneal limbus.
Figure 0006302427

外部パラメータ推定部13は、基底ベクトル表記の係数a i{C}を算出する(ステップS104)。本実施形態における基底ベクトル表記とは、あるN次元の空間を張る基底ベクトルをe(j=0,1,2,…,N−1)としたとき、あるベクトルpを基底ベクトルの多項式で表記すること、すなわち式(5)で表記することとする。なお、aは各基底ベクトルに対する係数であり、各基底ベクトルeは線形独立である。

Figure 0006302427
The external parameter estimation unit 13 calculates a coefficient a j i {C} in base vector notation (step S104). In the present embodiment, the basis vector notation means that a basis vector spanning a certain Ne- dimensional space is e j (j = 0, 1, 2,..., N e −1). It shall be expressed by a polynomial, that is, expressed by equation (5). Note that a j is a coefficient for each basis vector, and each basis vector e j is linearly independent.
Figure 0006302427

ここで、基底ベクトル表記を用いると、参照点pの座標は、参照物体座標系{X}およびカメラ座標系{C}において式(6)および式(7)で表される。

Figure 0006302427
Figure 0006302427
Here, using the basis vector notation, the coordinates of the reference point p i are expressed by the equations (6) and (7) in the reference object coordinate system {X} and the camera coordinate system {C}.
Figure 0006302427
Figure 0006302427

ここで、式(8)が満たされるとき、参照点pのカメラ座標系{C}における座標p {C}は、式(9)で表される。

Figure 0006302427
Figure 0006302427
Here, when Expression (8) is satisfied, the coordinates p i {C} of the reference point p i in the camera coordinate system {C} are expressed by Expression (9).
Figure 0006302427
Figure 0006302427

なお、式(9)における行列Rは、外部パラメータRであり、直交行列である。外部パラメータRによる変換は等長性をもつ線形変換であることから、a i{X}=a i{C}がいえる。また、p {X}は既知であることから、適当にe {X}を定めることで係数a i{X}(およびa i{C})を求めることができる。係数a i{X}は、どのように求めてもよい。例えば式(10)のように、e {X}(i=0,1,2)を定め、p {X}を式(11)のように定めると、各係数a i{X}(j=0,1,2)は式(12)で与えられる。これらにより、各a i{C}が得られる。

Figure 0006302427
Figure 0006302427
Figure 0006302427
In addition, the matrix R in Formula (9) is the external parameter R and is an orthogonal matrix. Since the transformation by the external parameter R is a linear transformation having an equal length, it can be said that a j i {X} = a j i {C} . Since p j {X} is known, the coefficient a j i {X} (and a j i {C} ) can be obtained by appropriately determining e j {X} . The coefficient a j i {X} may be obtained in any way. For example, when e i {X} (i = 0, 1, 2) is defined as in equation (10) and p i {X} is defined as in equation (11), each coefficient a j i {X} (J = 0, 1, 2) is given by equation (12). As a result, each a j i {C} is obtained.
Figure 0006302427
Figure 0006302427
Figure 0006302427

外部パラメータ推定部13は、参照点p(i=0,1,2,…,N−1)ごとに、角膜球Eにおける反射点を算出する(ステップS105)。ステップS105の処理は、参照点pごとに行われる。すなわち、外部パラメータ推定部13は、ステップS105の処理をN回繰り返す。前述のように、参照点pの画像Iにおける投影点をqとする。ここで、ベクトルvを参照点二次元座標q {I}と外部パラメータKとを用いて式(13)として定める。

Figure 0006302427
The external parameter estimation unit 13 calculates a reflection point on the corneal sphere E for each reference point p i (i = 0, 1, 2,..., N p −1) (step S105). The process of step S105 is performed for each reference point p i . That is, the external parameter estimating unit 13 repeats the processing in step S105 the N p times. As described above, the projection point in the image I of the reference point p i is defined as q i . Here, vector v i is defined as equation (13) using reference point two-dimensional coordinates q i {I} and external parameter K.
Figure 0006302427

また、参照点pは、角膜球E上の反射点mにおいて反射するとしたとき、カメラ中心Oから反射点mまでの距離kOmiは式(14)で表される。

Figure 0006302427
The reference point p i, when was reflected at the reflection point m i on the cornea sphere E, the distance k Omi from the camera center O to the reflection point m i is represented by the formula (14).
Figure 0006302427

これにより、反射点mの座標m {C}は式(15)により求められる。

Figure 0006302427
Thus, the coordinate m i of the reflection points m i {C} is calculated by the equation (15).
Figure 0006302427

外部パラメータ推定部13は、外部パラメータに関する線形方程式を解き、外部パラメータR、Tを取得する(ステップS106)。基底ベクトル表記において、e {X}(j=0,1,2)を式(10)のように定め、外部パラメータRを式(16)とすると、式(17)であることから、参照点pの座標p {C}は式(18)で表される。

Figure 0006302427
Figure 0006302427
Figure 0006302427
The external parameter estimation unit 13 solves the linear equation related to the external parameter and acquires the external parameters R and T (step S106). In the basis vector notation, when e j {X} (j = 0, 1, 2) is defined as in equation (10) and the external parameter R is defined as equation (16), it is expressed as equation (17). The coordinates p i {C} of the point p i are expressed by equation (18).
Figure 0006302427
Figure 0006302427
Figure 0006302427

一方、参照点pの座標p{C}は、反射点mと参照点pとを結ぶ単位ベクトルuとm−pとの間の距離kを用いて、式(19)で表される。

Figure 0006302427
On the other hand, the coordinates p i of the reference point p i {C}, using the distance k i between the unit vectors u i and m i -p i connecting the reference point p i and the reflection points m i, the formula ( 19).
Figure 0006302427

なお、単位ベクトルuは、反射の法則から式(20)で表される。

Figure 0006302427
The unit vector u i is expressed by the equation (20) from the law of reflection.
Figure 0006302427

ここで、nは、反射点mにおける法線ベクトルである。反射点mにおける法線ベクトルnは、球面鏡の中心と反射点mとを結ぶ単位ベクトルであることから、式(21)で求められる。

Figure 0006302427
Here, n i is the normal vector at reflection point m i. The normal vector n i at the reflection point m i, since a unit vector connecting the center of the spherical mirror and reflection points m i, is calculated by equation (21).
Figure 0006302427

ここで、式(18)と式(19)とから、式(22)が得られる。

Figure 0006302427
Here, Expression (22) is obtained from Expression (18) and Expression (19).
Figure 0006302427

さらに、式(22)をN点分用意し、式(23)のようにまとめる。

Figure 0006302427
Furthermore, Equation (22) is prepared for N p points and summarized as Equation (23).
Figure 0006302427

ただし、式(23)における行列A、X、Bは以下の式(24−1)〜式(24−4)、式(25)および式(26)で与えられる。

Figure 0006302427
Figure 0006302427
Figure 0006302427
However, the matrices A, X, and B in the equation (23) are given by the following equations (24-1) to (24-4), (25), and (26).
Figure 0006302427
Figure 0006302427
Figure 0006302427

なお、参照点pをN点用いる場合、式(23)における未知変数の数が(12+N)個であり、制約式は3N本得られることから、参照点pが6点以上(N≧6)のときに外部パラメータR、Tを含む未知変数が式(27)により求められる。すなわち、6点以上の参照点pから得られる制約式からなる連立方程式を解くことにより、外部パラメータR、Tを含む未知変数を求めることができる。なお、式(27)における行列Aは行列Aの疑似逆行列である。

Figure 0006302427
When N p points are used as reference points p i , the number of unknown variables in equation (23) is (12 + N p ), and 3N p constraint equations are obtained. Therefore, there are 6 or more reference points p i. When (N p ≧ 6), unknown variables including the external parameters R and T are obtained by Expression (27). That is, an unknown variable including external parameters R and T can be obtained by solving simultaneous equations composed of constraint equations obtained from six or more reference points p i . Note that the matrix A * in Equation (27) is a pseudo inverse matrix of the matrix A.
Figure 0006302427

また、基底ベクトル表記を用いることで、以下のように解くことも可能である。p を参照物体座標系{X}の原点としたとき、p {C}は並進ベクトルそのものとみなせることから、式(28)が成り立つ。

Figure 0006302427
Moreover, it is also possible to solve as follows by using the basis vector notation. When p 0 X is the origin of the reference object coordinate system {X}, since p 0 {C} can be regarded as a translation vector itself, Expression (28) is established.
Figure 0006302427

式(28)を、N点分用意し、式(29)のようにまとめる。

Figure 0006302427
Formula (28) is prepared for N p points, and summarized as Formula (29).
Figure 0006302427

ただし、式(29)における行列C、Y、Dは、式(30−1)〜式(30−3)、式(31)および式(32)で与えられる。

Figure 0006302427
Figure 0006302427
Figure 0006302427
However, the matrices C, Y, and D in Expression (29) are given by Expression (30-1) to Expression (30-3), Expression (31), and Expression (32).
Figure 0006302427
Figure 0006302427
Figure 0006302427

参照点pをN点用いる場合、式(29)における未知変数の数は(9+N)個であり、制約式が3(N−1)本得られることから、参照点pが6点以上(N≧6)のときに外部パラメータR、Tを含む未知変数が式(33)で求められる。

Figure 0006302427
When using a reference point p i N p points, the number of unknown variables in equation (29) (9 + N p) a number, from the constraint equation 3 (N p -1) by the obtained reference point p i is When 6 points or more (N p ≧ 6), unknown variables including the external parameters R and T are obtained by Expression (33).
Figure 0006302427

式(33)において、行列Cは行列Cの疑似逆行列である。このとき、外部パラメータTは式(34)で得られる。

Figure 0006302427
In Expression (33), the matrix C * is a pseudo inverse matrix of the matrix C. At this time, the external parameter T is obtained by Expression (34).
Figure 0006302427

また、ベクトルrは、回転行列Rの成分であるためノルムは1である。しかし、実際にはノイズや誤差などの影響から、必ずしも1になるとは限らない。そこで、式(35)で得られるr’を推定した回転行列Rの成分としてもよい。なお、このノルムの修正は行わずともよい。

Figure 0006302427
Further, since the vector r j is a component of the rotation matrix R, the norm is 1. However, in practice, it is not always 1 due to the influence of noise, error, and the like. Therefore, r ′ j obtained by Expression (35) may be a component of the rotation matrix R estimated. The norm need not be corrected.
Figure 0006302427

また、参照点が同一平面上に存在するとき、すなわちベクトルp を零ベクトルとしたとき、ベクトルr=(000)であることから、式(36)の関係が成り立つ。

Figure 0006302427
Further, when the reference point exists on the same plane, that is, when the vector p 2 X is a zero vector, since the vector r 2 = (000) T , the relationship of Expression (36) is established.
Figure 0006302427

ただし、式(36)において、行列A’、X’は、式(37)および式(38)で与えられる。

Figure 0006302427
Figure 0006302427
However, in Expression (36), the matrices A ′ and X ′ are given by Expression (37) and Expression (38).
Figure 0006302427
Figure 0006302427

参照点pをN点用いる場合、式(36)における未知変数の数は(9+N)個であり、制約式が3N本得られることから、参照点pが5点以上(N≧5)のときに、外部パラメータR、Tを含む未知変数が式(39)で求められる。

Figure 0006302427
When N p points are used as the reference points p i , the number of unknown variables in the equation (36) is (9 + N p ), and 3N p constraint equations are obtained. Therefore, the reference points p i are 5 or more (N When p ≧ 5), unknown variables including the external parameters R and T are obtained by Expression (39).
Figure 0006302427

式(39)において、行列A’は行列A’の疑似逆行列である。また、ベクトルrは、ベクトルr、rに対して直交していることから、式(40)として求められる。なお、前述したように、各ベクトルrはノルムを修正してもよいし、修正しなくてもよい。

Figure 0006302427
In Expression (39), the matrix A ′ * is a pseudo inverse matrix of the matrix A ′. Further, since the vector r 2 is orthogonal to the vectors r 0 and r 1 , it is obtained as Expression (40). As described above, each vector r j may or may not be corrected for the norm.
Figure 0006302427

また、基底ベクトル表を用いることで、式(41)により解くことも可能である。

Figure 0006302427
Moreover, it is also possible to solve by Formula (41) by using a basis vector table.
Figure 0006302427

ただし、式(41)において、行列C’、Y’、D’は、式(42)および式(43)で与えられる。

Figure 0006302427
Figure 0006302427
However, in Expression (41), the matrices C ′, Y ′, and D ′ are given by Expression (42) and Expression (43).
Figure 0006302427
Figure 0006302427

参照点pをN点用いる場合、式(41)における未知変数の数は(6+N)個であり、制約式が3(N−1)本得られることから、参照点pが5点以上(N≧5)のときに外部パラメータR、Tを含む未知変数が式(44)で求められる。

Figure 0006302427
When using a reference point p i N p points, the number of unknown variables in equation (41) (6 + N p) a number, from the constraint equation 3 (N p -1) by the obtained reference point p i is When 5 points or more (N p ≧ 5), unknown variables including the external parameters R and T are obtained by Expression (44).
Figure 0006302427

式(44)において、行列C’は行列C’の疑似逆行列である。このとき、外部パラメータTは式(45)で得られる。

Figure 0006302427
In Expression (44), the matrix C ′ * is a pseudo inverse matrix of the matrix C ′. At this time, the external parameter T is obtained by Expression (45).
Figure 0006302427

また、ベクトルrは、ベクトルr、rに対して直交していることから、式(46)として求められる。なお、前述したように、各ベクトルrはノルムを修正してもよいし、修正しなくてもよい。

Figure 0006302427
Further, since the vector r 2 is orthogonal to the vectors r 0 and r 1 , it is obtained as Expression (46). As described above, each vector r j may or may not be corrected for the norm.
Figure 0006302427

外部パラメータ推定部13は、得られた回転行列Rを修正する(ステップS107)。ステップS106において求められたベクトルr(j=0,1,2)は、ノイズなどの影響から回転行列が満たすべき制約(式(47)および式(48))を満たしているとは限らない。

Figure 0006302427
Figure 0006302427
The external parameter estimation unit 13 corrects the obtained rotation matrix R (step S107). The vector r j (j = 0, 1, 2) obtained in step S106 does not always satisfy the constraints (Equation (47) and Equation (48)) that the rotation matrix should satisfy due to the influence of noise and the like. .
Figure 0006302427
Figure 0006302427

そこで、回転行列R=(r)に対して、Orthogonal Procrustes Problemを用いることで、式(47)および式(48)を満たす回転行列R’を求めることが可能である。なお、Orthogonal Procrustes Problemは、公知の技術であり、例えば参考文献2(Gene H. Golub and Charles F. Van Loan, "Matrix Computations", (USA), The Johns Hopkins University Press, Third Edition, 1996)などに記載されている。なお、ノイズなどの影響が無視できる場合には、ステップS107における修正を省いてもよい。 Therefore, by using the Orthogonal Procrustes Problem for the rotation matrix R = (r 0 r 1 r 2 ), it is possible to obtain a rotation matrix R ′ that satisfies Expressions (47) and (48). The Orthogonal Procrustes Problem is a known technique, such as Reference 2 (Gene H. Golub and Charles F. Van Loan, "Matrix Computations", (USA), The Johns Hopkins University Press, Third Edition, 1996). It is described in. If the influence of noise or the like can be ignored, the correction in step S107 may be omitted.

外部パラメータ推定部13は、得られた外部パラメータR、Tを最適化し(ステップS108)、最適化された外部パラメータR、Tを外部の装置へ出力して画像データ処理を終了させる。最適化のコスト関数としては、どのようなコスト関数を用いてもよい。例えば、一般的に外部パラメータを最適化する上で用いられている再投影誤差を最小化する項を用いてもよい。このとき、外部パラメータR、Tは、各種パラメータを用いて算出した投影点と、実際に検出された投影点とが一致するように最適化されるため、投影点に対してノイズの少ない理想的な環境下において高精度に最適化されることが期待できる。なお、ノイズの影響が無視できる場合には、外部パラメータR、Tの最適化は行われなくてもよい。   The external parameter estimation unit 13 optimizes the obtained external parameters R and T (step S108), outputs the optimized external parameters R and T to an external device, and ends the image data processing. Any cost function may be used as the cost function for optimization. For example, a term that minimizes a reprojection error that is generally used in optimizing external parameters may be used. At this time, the external parameters R and T are optimized so that the projection points calculated using the various parameters coincide with the actually detected projection points. It can be expected to be optimized with high accuracy in a rough environment. If the influence of noise can be ignored, the external parameters R and T need not be optimized.

本実施形態の画像データ処理装置1によれば、角膜球座標推定部12が画像Iと内部パラメータKと角膜球半径rとに基づいて角膜球Eの中心座標S{C}を推定し、外部パラメータ推定部13が内部パラメータKと参照点pの三次元座標p {X}と参照点二次元座標q {I}と中心座標S{C}とに基づいて、参照物体座標系{X}を基準としたときのカメラCの外部パラメータR、Tを推定する。これにより、同一平面上に分布している5点の参照点あるいは同一平面上に分布していない6点の参照点に対して1姿勢の眼球(角膜球)を用いるという簡易な構成で、参照点、眼球位置やカメラ中心の位置関係に制約を課すことなくカメラの外部パラメータを推定する外部キャリブレーションを実現することができる。 According to the image data processing device 1 of the present embodiment, the corneal sphere coordinate estimation unit 12 estimates the center coordinate S {C} of the corneal sphere E based on the image I, the internal parameter K, and the corneal sphere radius r, and the external parameter estimating unit 13 based on the internal parameter K and the three-dimensional coordinates p i {X} of the reference point p i reference point two-dimensional coordinates q i {I} the center coordinates and the S {C}, the reference object coordinate system { The external parameters R and T of the camera C when X} is used as a reference are estimated. Thus, a simple configuration in which one eyeball (corneal sphere) is used for five reference points distributed on the same plane or six reference points not distributed on the same plane is used. External calibration for estimating external parameters of the camera can be realized without imposing restrictions on the positional relationship between the point, eyeball position, and camera center.

なお、図3に示した画像データ処理において、ステップS104の後にステップS105が行われる構成について説明したが、ステップS105の後にステップS104が行われるようにしてもよい。   In the image data processing shown in FIG. 3, the configuration in which step S105 is performed after step S104 has been described. However, step S104 may be performed after step S105.

上述した実施形態における画像データ処理装置1の全てまたは一部をコンピュータで実現するようにしてもよい。例えば、画像データ処理装置1が有する構成要素それぞれを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した構成要素の一部を実現するためのものであってもよく、さらに前述した構成要素をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   You may make it implement | achieve all or one part of the image data processing apparatus 1 in embodiment mentioned above with a computer. For example, it is realized by recording a program for realizing each component included in the image data processing apparatus 1 on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. May be. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be for realizing a part of the above-described components, or may be realized by combining the above-described components with a program already recorded in the computer system. It may be realized by using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

眼球中心、参照点およびカメラ中心の位置関係に制約を課すことなく、カメラとその視野外に存在する物体との間の外部キャリブレーションを行うことが不可欠な用途にも適用できる。   The present invention can also be applied to applications where it is indispensable to perform external calibration between a camera and an object existing outside the field of view without imposing restrictions on the positional relationship between the eyeball center, the reference point, and the camera center.

1…画像データ処理装置
11…入力部
12…角膜球座標推定部
13…外部パラメータ推定部
DESCRIPTION OF SYMBOLS 1 ... Image data processing apparatus 11 ... Input part 12 ... Corneal sphere coordinate estimation part 13 ... External parameter estimation part

Claims (7)

撮像装置により撮像された画像と、前記撮像装置の内部パラメータと、角膜を球の一部とみなした角膜球の半径と、参照物体における複数の参照点の三次元座標と、前記画像に含まれ前記角膜による前記複数の参照点の一次反射像の前記画像における二次元座標とに基づいて、前記撮像装置の視野外に位置する前記参照物体と前記撮像装置との位置姿勢関係を推定する画像データ処理方法であって、
前記画像と前記内部パラメータと前記半径とに基づいて、前記角膜球の中心座標を推定する角膜球座標推定ステップと、
前記内部パラメータと前記複数の参照点の三次元座標と前記複数の参照点の二次元座標と前記中心座標とに基づいて、前記参照物体の座標系を基準としたときの前記撮像装置の外部パラメータを推定する外部パラメータ推定ステップと、
を有する画像データ処理方法。
Included in the image are the image captured by the imaging device, the internal parameters of the imaging device, the radius of the corneal sphere that considered the cornea as part of the sphere, the three-dimensional coordinates of a plurality of reference points in the reference object Image data for estimating a position and orientation relationship between the reference object and the imaging device located outside the field of view of the imaging device based on two-dimensional coordinates in the image of primary reflection images of the plurality of reference points by the cornea A processing method,
A corneal sphere coordinate estimation step for estimating a center coordinate of the corneal sphere based on the image, the internal parameter, and the radius;
Based on the internal parameters, the three-dimensional coordinates of the plurality of reference points, the two-dimensional coordinates of the plurality of reference points, and the center coordinates, the external parameters of the imaging apparatus when the coordinate system of the reference object is used as a reference An external parameter estimation step for estimating
An image data processing method comprising:
前記角膜球座標推定ステップでは、
前記画像に含まれる前記角膜球の投影像に対する楕円パラメータを推定し、
推定された前記楕円パラメータに基づいて、前記中心座標を推定する、
請求項1に記載の画像データ処理方法。
In the corneal sphere coordinate estimation step,
Estimating an ellipse parameter for the projected image of the corneal sphere contained in the image;
Estimating the central coordinates based on the estimated ellipse parameters;
The image data processing method according to claim 1.
前記外部パラメータ推定ステップでは、
前記参照点ごとに、当該参照点の前記二次元座標と前記内部パラメータとから第1のベクトルを算出し、
前記中心座標と前記半径と前記第1のベクトルとに基づいて、前記参照点それぞれの前記角膜球上における反射点の三次元座標を算出し、
前記複数の参照点の三次元座標と、前記複数の参照点それぞれに対応する前記反射点の三次元座標と、前記複数の参照点それぞれに対応する前記第1のベクトルと、前記外部パラメータとに基づいて得られる連立方程式を解くことにより、前記外部パラメータを推定する、
請求項1または請求項2のいずれか一項に記載の画像データ処理方法。
In the external parameter estimation step,
For each reference point, calculate a first vector from the two-dimensional coordinates of the reference point and the internal parameters;
Based on the central coordinates, the radius, and the first vector, calculate the three-dimensional coordinates of the reflection point on the corneal sphere of each of the reference points,
The three-dimensional coordinates of the plurality of reference points, the three-dimensional coordinates of the reflection points corresponding to the plurality of reference points, the first vector corresponding to each of the plurality of reference points, and the external parameter Estimating the external parameters by solving simultaneous equations obtained from
The image data processing method according to claim 1.
前記外部パラメータ推定ステップでは、
基底ベクトル表記を用いることにより前記連立方程式を得て前記外部パラメータを線形に推定する、
請求項3に記載の画像データ処理方法。
In the external parameter estimation step,
Obtaining the simultaneous equations by using basis vector notation to estimate the external parameters linearly;
The image data processing method according to claim 3.
前記参照点は、少なくとも6点、または前記参照点が同一平面に位置するときには少なくとも5点、存在する、
請求項1から請求項4のいずれか一項に記載の画像データ処理方法。
The reference points exist at least 6 points, or at least 5 points when the reference points are in the same plane,
The image data processing method according to any one of claims 1 to 4.
撮像装置により撮像された画像と、前記撮像装置の内部パラメータと、角膜を球の一部とみなした角膜球の半径と、参照物体における複数の参照点の三次元座標と、前記画像に含まれ前記角膜による前記複数の参照点の一次反射像の前記画像における二次元座標とに基づいて、前記撮像装置の視野外に位置する前記参照物体と前記撮像装置との位置姿勢関係を推定する画像データ処理装置であって、
前記画像と前記内部パラメータと前記半径とに基づいて、前記角膜球の中心座標を推定する角膜球座標推定部と、
前記内部パラメータと前記複数の参照点の三次元座標と前記複数の参照点の二次元座標と前記中心座標とに基づいて、前記参照物体の座標系を基準としたときの前記撮像装置の外部パラメータを推定する外部パラメータ推定部と、
を備える画像データ処理装置。
Included in the image are the image captured by the imaging device, the internal parameters of the imaging device, the radius of the corneal sphere that considered the cornea as part of the sphere, the three-dimensional coordinates of a plurality of reference points in the reference object Image data for estimating a position and orientation relationship between the reference object and the imaging device located outside the field of view of the imaging device based on two-dimensional coordinates in the image of primary reflection images of the plurality of reference points by the cornea A processing device comprising:
A corneal sphere coordinate estimator for estimating a center coordinate of the corneal sphere based on the image, the internal parameter, and the radius;
Based on the internal parameters, the three-dimensional coordinates of the plurality of reference points, the two-dimensional coordinates of the plurality of reference points, and the center coordinates, the external parameters of the imaging apparatus when the coordinate system of the reference object is used as a reference An external parameter estimation unit for estimating
An image data processing apparatus comprising:
コンピュータに請求項1から請求項5のいずれか一項に記載のデータ処理方法を実行させるための画像データ処理プログラム。   An image data processing program for causing a computer to execute the data processing method according to any one of claims 1 to 5.
JP2015076005A 2015-04-02 2015-04-02 Image data processing method, image data processing apparatus, and image data processing program Active JP6302427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015076005A JP6302427B2 (en) 2015-04-02 2015-04-02 Image data processing method, image data processing apparatus, and image data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015076005A JP6302427B2 (en) 2015-04-02 2015-04-02 Image data processing method, image data processing apparatus, and image data processing program

Publications (2)

Publication Number Publication Date
JP2016197780A JP2016197780A (en) 2016-11-24
JP6302427B2 true JP6302427B2 (en) 2018-03-28

Family

ID=57358563

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015076005A Active JP6302427B2 (en) 2015-04-02 2015-04-02 Image data processing method, image data processing apparatus, and image data processing program

Country Status (1)

Country Link
JP (1) JP6302427B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110309751A (en) * 2019-06-24 2019-10-08 火石信科(广州)科技有限公司 A kind of recognition methods for reading and writing scene read-write posture
CN113345026A (en) * 2021-05-13 2021-09-03 北京三快在线科技有限公司 Camera parameter calibration method and device, storage medium and electronic equipment

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034628A (en) * 2005-07-26 2007-02-08 Canon Inc Method and system for image processing
JP2010239515A (en) * 2009-03-31 2010-10-21 T4 Co Ltd Calculation method of camera calibration
JP2010259605A (en) * 2009-05-01 2010-11-18 Nippon Hoso Kyokai <Nhk> Visual line measuring device and visual line measuring program
JP5453352B2 (en) * 2011-06-30 2014-03-26 株式会社東芝 Video display device, video display method and program
JP5857805B2 (en) * 2012-03-07 2016-02-10 株式会社Jvcケンウッド Camera calibration device
JP2014188322A (en) * 2013-03-28 2014-10-06 Panasonic Corp Visual line detection device, visual line detection method and program
JP6276713B2 (en) * 2015-01-14 2018-02-07 日本電信電話株式会社 Image data processing method, image data processing apparatus, and image data processing program

Also Published As

Publication number Publication date
JP2016197780A (en) 2016-11-24

Similar Documents

Publication Publication Date Title
US9429418B2 (en) Information processing method and information processing apparatus
JP6685827B2 (en) Image processing apparatus, image processing method and program
JP6371849B2 (en) Image alignment apparatus, image alignment method, and image alignment program
JP6067175B2 (en) Position measuring apparatus and position measuring method
Draelos et al. Intel realsense= real low cost gaze
JP2017016192A (en) Three-dimensional object detection apparatus and three-dimensional object authentication apparatus
JP2016019194A (en) Image processing apparatus, image processing method, and image projection device
JP6547754B2 (en) Triangulation apparatus, triangulation method and program thereof
WO2020237565A1 (en) Target tracking method and device, movable platform and storage medium
WO2021208486A1 (en) Camera coordinate transformation method, terminal, and storage medium
JP6515039B2 (en) Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image
JP6276713B2 (en) Image data processing method, image data processing apparatus, and image data processing program
KR102386444B1 (en) Image depth determining method and living body identification method, circuit, device, and medium
JP6885474B2 (en) Image processing device, image processing method, and program
KR20160095560A (en) Apparatus and methdo for calibrating a camera
DK3189493T3 (en) PERSPECTIVE CORRECTION OF DIGITAL PHOTOS USING DEPTH MAP
JP6302427B2 (en) Image data processing method, image data processing apparatus, and image data processing program
US20210118160A1 (en) Methods, devices and computer program products for 3d mapping and pose estimation of 3d images
JP6557640B2 (en) Camera calibration apparatus, camera calibration method, and camera calibration program
US20170256046A1 (en) Information processing apparatus, method of controlling information processing apparatus, and storage medium
JP6573196B2 (en) Distance information correction apparatus, distance information correction method, and distance information correction program
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
JP5801209B2 (en) Camera posture estimation device, program
US20230144111A1 (en) A method for generating a 3d model
JP2012173858A (en) Omnidirectional image generation method, image generation device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170626

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180227

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180302

R150 Certificate of patent or registration of utility model

Ref document number: 6302427

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150