JP6276713B2 - Image data processing method, image data processing apparatus, and image data processing program - Google Patents

Image data processing method, image data processing apparatus, and image data processing program Download PDF

Info

Publication number
JP6276713B2
JP6276713B2 JP2015005186A JP2015005186A JP6276713B2 JP 6276713 B2 JP6276713 B2 JP 6276713B2 JP 2015005186 A JP2015005186 A JP 2015005186A JP 2015005186 A JP2015005186 A JP 2015005186A JP 6276713 B2 JP6276713 B2 JP 6276713B2
Authority
JP
Japan
Prior art keywords
camera
data processing
reference point
image data
coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015005186A
Other languages
Japanese (ja)
Other versions
JP2016130693A (en
Inventor
康輔 高橋
康輔 高橋
弾 三上
弾 三上
明 小島
明 小島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015005186A priority Critical patent/JP6276713B2/en
Publication of JP2016130693A publication Critical patent/JP2016130693A/en
Application granted granted Critical
Publication of JP6276713B2 publication Critical patent/JP6276713B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カメラと被写体の位置姿勢関係を推定する(外部キャリブレーションを実行する)画像データ処理方法、画像データ処理装置および画像データ処理プログラムに関する。   The present invention relates to an image data processing method, an image data processing apparatus, and an image data processing program that estimate the position and orientation relationship between a camera and a subject (execute external calibration).

カメラと被写体の位置姿勢関係を推定する外部キャリブレーションはコンピュータビジョンの基礎となる問題であり、これまで数多くの研究がなされてきた(例えば、非特許文献1参照)。これら既存の外部キャリブレーションに関する手法の多くは、カメラが参照物体を直接観測できることを想定している。   External calibration for estimating the position and orientation relationship between a camera and a subject is a problem that is the basis of computer vision, and many studies have been made so far (for example, see Non-Patent Document 1). Many of these existing external calibration methods assume that the camera can directly observe the reference object.

近年ラップトップコンピュータ、スマートフォンやデジタルサイネージなどの普及に伴い、ディスプレイ−カメラシステムを用いた様々な研究が注目を集めている。その一つの例として、デジタルサイネージを用いた興味推定がある。これは、ユーザの視線方向とディスプレイでの提示内容との対応を取ることで実現されている。さらには、3次元形状復元への応用も研究されている。これは、ディスプレイを制御可能な面光源として利用し、提示内容の変化に伴う観測対象の輝度変化に基づくものである。   In recent years, with the spread of laptop computers, smartphones, digital signage, and the like, various studies using display-camera systems have attracted attention. One example is interest estimation using digital signage. This is realized by taking a correspondence between the user's line-of-sight direction and the content presented on the display. Furthermore, application to three-dimensional shape restoration is also being studied. This is based on a change in luminance of an observation target accompanying a change in the presentation contents, using the display as a controllable surface light source.

これらのように、ディスプレイの提示内容に対し、カメラで撮影した映像から推定した視線や観測対象の輝度変化を幾何的に対応付けるためには、ディスプレイとカメラの位置姿勢関係を求める外部キャリブレーションを行う必要がある。通常、ディスプレイにチェスパターンなどを提示し、それをカメラで撮影して外部キャリブレーションを行う。   In this way, external calibration is performed to determine the positional orientation between the display and the camera in order to geometrically associate the gaze estimated from the video captured by the camera and the luminance change of the observation target with the display content. There is a need. Usually, a chess pattern or the like is presented on the display, and this is photographed with a camera to perform external calibration.

しかしながら、ラップトップコンピュータやスマートフォンなどのディスプレイ−カメラシステムでは、一般にカメラの視野内に参照物体であるディスプレイが存在せず、従来の外部キャリブレーション手法の適用が困難である。   However, in a display-camera system such as a laptop computer or a smartphone, there is generally no display as a reference object in the field of view of the camera, and it is difficult to apply a conventional external calibration method.

このような参照物体がカメラの視野内に存在しない状況において、鏡を用いることで外部キャリブレーションを行う手法が提案されている。以下の説明では参照物体上には参照点が存在し、その参照点を用いて外部キャリブレーションを行うものとする。外部キャリブレーションでは、実施の手間や計算量の観点から、より簡易な構成を目指した研究が取り組まれている。Takahashiら(例えば、非特許文献2参照)およびHeschら(例えば、非特許文献3参照)らは平面鏡を用いた最小構成である、3点の参照点に対して平面鏡を3姿勢用いる手法を提案した。   There has been proposed a method of performing external calibration by using a mirror in a situation where such a reference object does not exist in the field of view of the camera. In the following description, a reference point exists on the reference object, and external calibration is performed using the reference point. In external calibration, research aimed at a simpler configuration is underway from the viewpoint of labor and calculation amount. Takahashi et al. (For example, see Non-Patent Document 2) and Hesch et al. (For example, Non-Patent Document 3) and others propose a method of using three orientations of a plane mirror with respect to three reference points, which is the minimum configuration using a plane mirror. did.

一方、鏡の姿勢の数の削減という観点から、Agrawal(例えば、非特許文献4参照)は8点の参照点に対して1姿勢の球面鏡を用いる手法を提案した。さらに、Nitschkeらは追加のデバイスを無くす試みとして、眼球の鏡面反射を利用した(例えば、非特許文献5参照)。これは3点の参照点に対して球面鏡とみなした両眼、つまり2姿勢の球面鏡を利用するものである。   On the other hand, from the viewpoint of reducing the number of mirror postures, Agrawal (for example, see Non-Patent Document 4) has proposed a method of using a spherical mirror with one posture for eight reference points. Furthermore, Nitschke et al. Used specular reflection of the eyeball as an attempt to eliminate an additional device (see Non-Patent Document 5, for example). This uses binoculars regarded as spherical mirrors with respect to three reference points, that is, spherical mirrors with two postures.

Z. Zhang. A flexible new technique for camera calibration. IEEE Transactions on Pattern Analysis and Machine Intelligence, 22(11):1330-1334, 2000.Z. Zhang.A flexible new technique for camera calibration.IEEE Transactions on Pattern Analysis and Machine Intelligence, 22 (11): 1330-1334, 2000. K. Takahashi, S. Nobuhara, and T. Matsuyama. A new mirror-based extrinsic camera calibration using an orthogonality constraint. In Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on, pages 1051-1058, June 2012.K. Takahashi, S. Nobuhara, and T. Matsuyama.A new mirror-based extrinsic camera calibration using an orthogonality constraint.In Computer Vision and Pattern Recognition (CVPR), 2012 IEEE Conference on, pages 1051-1058, June 2012. J. A. Hesch, A. I. Mourikis, and S. I. Roumeliotis. Algorithmic Foundation of Robotics VIII, volume 57 of Springer Tracts in Advanced Robotics, chapter Mirror-Based Extrinsic Camera Calibration, pages 285-299. Springer-Verlag, Berlin, Germany, Dec. 2009.J. A. Hesch, A. I. Mourikis, and S. I. Roumeliotis. Algorithmic Foundation of Robotics VIII, volume 57 of Springer Tracts in Advanced Robotics, chapter Mirror-Based Extrinsic Camera Calibration, pages 285-299.Springer-Verlag, Berlin, Germany, Dec. 2009. A. Agrawal. Extrinsic camera calibration without a direct view using spherical mirror. In Computer Vision (ICCV), 2013 IEEE International Conference on, pages 2368-2375, Dec 2013.A. Agrawal.Extrinsic camera calibration without a direct view using spherical mirror.In Computer Vision (ICCV), 2013 IEEE International Conference on, pages 2368-2375, Dec 2013. C. Nitschke, A. Nakazawa, and H. Takemura. Display-camera calibration using eye refections and geometry constraints. Computer Vision and Image Understanding, 115(6):835-853, 2011.C. Nitschke, A. Nakazawa, and H. Takemura.Display-camera calibration using eye refections and geometry constraints.Computer Vision and Image Understanding, 115 (6): 835-853, 2011.

しかしながら、非特許文献2、非特許文献3及び非特許文献4ではキャリブレーション実行の度に鏡を用意しなければならないという手間が発生する。また、眼球を用いる非特許文献5では、眼球という極小の領域に映った参照物体からキャリブレーションを行うため、精度の観点からカメラと眼球の距離を近づけて撮影することが望ましい。しかしながら、非特許文献5では両眼を用いていることから、両眼が同時に撮影できる距離まで両眼をカメラから離す必要がある。   However, in Non-Patent Document 2, Non-Patent Document 3, and Non-Patent Document 4, the trouble that a mirror must be prepared each time calibration is performed occurs. Further, in Non-Patent Document 5 using an eyeball, since calibration is performed from a reference object reflected in a minimal region called an eyeball, it is desirable to photograph with a close distance between the camera and the eyeball from the viewpoint of accuracy. However, since Non-Patent Document 5 uses both eyes, it is necessary to keep both eyes away from the camera to a distance that allows both eyes to photograph simultaneously.

本発明は、このような事情に鑑みてなされたもので、簡単な構成でカメラと被写体である物体の位置姿勢関係を推定する外部キャリブレーションを実施することができる画像データ処理方法、画像データ処理装置および画像データ処理プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an image data processing method and image data processing capable of performing external calibration for estimating the position and orientation relationship between a camera and an object as a subject with a simple configuration. An object is to provide an apparatus and an image data processing program.

本発明は、カメラによって撮像した画像と、前記カメラの内部パラメータと、角膜を球の一部として見なした角膜球の半径と、前記画像における所定の参照点の座標値と、前記参照点のモデル座標系を使用して、前記カメラとその視野外に存在する参照物体との位置姿勢関係を推定する外部キャリブレーションを行う画像データ処理方法であって、前記角膜球の中心座標を推定する角膜球座標推定ステップと、カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定ステップと、前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定ステップとを有することを特徴とする。   The present invention provides an image captured by a camera, an internal parameter of the camera, a radius of a corneal sphere in which the cornea is regarded as a part of a sphere, a coordinate value of a predetermined reference point in the image, and the reference point An image data processing method for performing external calibration for estimating a position and orientation relationship between the camera and a reference object existing outside the field of view using a model coordinate system, wherein the cornea estimates center coordinates of the corneal sphere A spherical coordinate estimation step, a reference point 3D coordinate estimation step for estimating a three-dimensional coordinate value of the reference point in the camera coordinate system, and an external parameter estimation step for estimating an external parameter between the camera and the reference object. It is characterized by.

本発明は、前記角膜球座標推定ステップでは、前記画像に対して前記角膜球の投影像の楕円パラメータを推定することにより前記角膜球の中心座標を推定することを特徴とする。   The present invention is characterized in that, in the corneal sphere coordinate estimation step, center coordinates of the corneal sphere are estimated by estimating an elliptic parameter of a projection image of the corneal sphere with respect to the image.

本発明は、前記参照点3D座標推定ステップでは、前記角膜球と前記参照物体と前記カメラ座標系の位置関係が所定の条件を満たすものとして前記3次元座標値を推定することを特徴とする。   The present invention is characterized in that, in the reference point 3D coordinate estimation step, the three-dimensional coordinate value is estimated on the assumption that a positional relationship between the corneal sphere, the reference object, and the camera coordinate system satisfies a predetermined condition.

本発明は、カメラによって撮像した画像と、前記カメラの内部パラメータと、角膜を球の一部として見なした角膜球の半径と、前記画像における所定の参照点の座標値と、前記参照点のモデル座標系を使用して、前記カメラとその視野外に存在する参照物体との位置姿勢関係を推定する外部キャリブレーションを行う画像データ処理装置であって、前記角膜球の中心座標を推定する角膜球座標推定部と、カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定部と、前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定部とを備えることを特徴とする。   The present invention provides an image captured by a camera, an internal parameter of the camera, a radius of a corneal sphere in which the cornea is regarded as a part of a sphere, a coordinate value of a predetermined reference point in the image, and the reference point An image data processing apparatus that performs external calibration using a model coordinate system to estimate a position and orientation relationship between the camera and a reference object that is outside the field of view, the cornea that estimates the center coordinates of the corneal sphere A spherical coordinate estimation unit; a reference point 3D coordinate estimation unit that estimates a three-dimensional coordinate value of the reference point in a camera coordinate system; and an external parameter estimation unit that estimates an external parameter between the camera and the reference object. It is characterized by.

本発明は、コンピュータに、前記画像データ処理方法を実行させるための画像データ処理プログラムである。   The present invention is an image data processing program for causing a computer to execute the image data processing method.

本発明によれば、簡単な構成でカメラとその視野外に存在する被写体である物体間の外部キャリブレーションを実施することができるという効果が得られる。   According to the present invention, it is possible to perform an external calibration between a camera and an object that is a subject existing outside the field of view with a simple configuration.

本発明が想定する環境を表す図である。It is a figure showing the environment which this invention assumes. 本発明の一実施形態による画像データ処理装置の構成を表すブロック図である。It is a block diagram showing the structure of the image data processing apparatus by one Embodiment of this invention. 鏡球として角膜球を用いた時の、図1に示す画像データ処理装置の処理動作を示すフローチャートである。It is a flowchart which shows the processing operation of the image data processing apparatus shown in FIG. 1 when a corneal sphere is used as a mirror ball. 角膜球の投影を表す図である。It is a figure showing projection of a corneal sphere.

以下、図面を参照して、本発明の一実施形態による画像データ処理装置を説明する。初めに、本発明が想定する環境を図1に示す。図1は、本実施形態が想定する環境のモデルを示す図である。本発明では1台のカメラ、1つの参照物体、1つの眼球(角膜球)を用いる。参照物体上には参照点が存在する。参照物体はカメラの視野内に存在せず、角膜球の一次反射によりカメラから観測するものとする。なお、本発明において、角膜球は次の条件を満たす位置に設置されていることとする。   Hereinafter, an image data processing apparatus according to an embodiment of the present invention will be described with reference to the drawings. First, an environment assumed by the present invention is shown in FIG. FIG. 1 is a diagram illustrating an environment model assumed in the present embodiment. In the present invention, one camera, one reference object, and one eyeball (corneal ball) are used. There is a reference point on the reference object. The reference object does not exist in the field of view of the camera, and is observed from the camera by the primary reflection of the corneal sphere. In the present invention, the corneal sphere is installed at a position that satisfies the following conditions.

角膜球の条件とは、角膜球中心とカメラ中心間距離が、角膜球中心と各参照点間の距離と等しいことである。角膜球中心とは図1の眼球(角膜球:角膜の表面を球の一部とする球のこと)の中心Sであり、カメラ中心とは撮影に用いているカメラの光学中心Oである。なお、多少の精度の誤差を許容するのであれば、厳密に(条件)を満たしている必要はない。この条件は、スマートフォンやディスプレイの上部にウェブカメラを設置した場合のようにディスプレイとカメラが同一平面上に存在している場合には容易に満たすことができる。具体的には、図1に示すように各参照点とカメラ中心がある円周上に存在するように参照点を表示し、かつその円の中心を垂直に貫く直線l上に眼球中心を設置すればよい。   The condition of the corneal sphere is that the distance between the corneal sphere center and the camera center is equal to the distance between the corneal sphere center and each reference point. The corneal sphere center is the center S of the eyeball of FIG. 1 (cornea sphere: a sphere whose surface is the corneal surface), and the camera center is the optical center O of the camera used for photographing. Note that it is not necessary to strictly satisfy (condition) if an error of some accuracy is allowed. This condition can be easily satisfied when the display and the camera are on the same plane, such as when a web camera is installed on the top of a smartphone or display. Specifically, as shown in FIG. 1, the reference points are displayed so that each reference point and the camera center exist on a certain circle, and the eyeball center is set on a straight line l that vertically passes through the circle center. do it.

また、本実施形態では図1に示すように、3つの座標系(カメラ座標系{C}、カメラで撮像した画像の画像座標系{I}、モデル座標系{X})を用いる。本実施形態の目的は画像座標系{I}における参照点の投影像の座標値から、カメラ座標系{C}とモデル座標系{X}間の外部パラメータRとTを求めることである。パラメータRとは、異なる座標系の姿勢変化を表す回転行列であり、パラメータTとは異なる座標系の位置変化を表す並進ベクトルである。なお、以下では「座標{a}」は座標系{a}における座標値を表すこととする。   In the present embodiment, as shown in FIG. 1, three coordinate systems (camera coordinate system {C}, image coordinate system {I} of an image captured by the camera, and model coordinate system {X}) are used. The purpose of this embodiment is to obtain external parameters R and T between the camera coordinate system {C} and the model coordinate system {X} from the coordinate values of the projected image of the reference point in the image coordinate system {I}. The parameter R is a rotation matrix that represents an attitude change in a different coordinate system, and the parameter R is a translation vector that represents a position change in a different coordinate system. In the following, “coordinate {a}” represents a coordinate value in the coordinate system {a}.

次に、画像データ処理装置の構成を説明する。図2は、コンピュータ装置等で構成する画像データ処理装置の詳細な構成を示すブロック図である。画像データ処理装置1は、入力部2、角膜球中心座標推定部3、参照点3D座標推定部4、外部パラメータ推定部5を備えている。   Next, the configuration of the image data processing apparatus will be described. FIG. 2 is a block diagram showing a detailed configuration of an image data processing apparatus constituted by a computer apparatus or the like. The image data processing apparatus 1 includes an input unit 2, a corneal sphere center coordinate estimation unit 3, a reference point 3D coordinate estimation unit 4, and an external parameter estimation unit 5.

入力部2は、画像、内部パラメータ、角膜球半径、参照点2D座標{I}、モデル座標系{X}を外部から入力する。これを受けて、入力部2は処理対象となる画像、カメラの内部パラメータ、角膜球半径、参照点2D座標およびモデル座標を入力して、画像、内部パラメータ、角膜球半径、参照点2D座標{I}、モデル座標{X}を出力する。   The input unit 2 inputs an image, an internal parameter, a corneal sphere radius, a reference point 2D coordinate {I}, and a model coordinate system {X} from the outside. In response to this, the input unit 2 inputs the image to be processed, the camera internal parameters, the corneal sphere radius, the reference point 2D coordinates, and the model coordinates, and the image, the internal parameters, the corneal sphere radius, the reference point 2D coordinates { I} and model coordinates {X} are output.

角膜球座標推定部3は、画像、内部パラメータ、角膜球半径を入力する。これを受けて、角膜球座標推定部3は、角膜球の投影された画像、カメラの内部パラメータ、角膜球半径を用いて角膜球中心座標を推定する。そして、角膜球座標推定部3は、角膜球中心座標{C}を出力する。   The corneal sphere coordinate estimation unit 3 inputs an image, internal parameters, and corneal sphere radius. In response to this, the corneal sphere coordinate estimation unit 3 estimates the corneal sphere center coordinates using the projected image of the corneal sphere, the internal parameters of the camera, and the corneal sphere radius. Then, the corneal sphere coordinate estimation unit 3 outputs the corneal sphere center coordinates {C}.

参照点3D座標推定部4は、角膜球中心座標{C}、参照点2D座標{I}、内部パラメータを入力する。これを受けて、参照点3D座標推定部4は、参照点2D座標{I}と角膜球中心座標{C}を用いて参照点3D座標を推定する。そして、参照点3D座標推定部4は、参照点3D座標{C}を出力する。   The reference point 3D coordinate estimation unit 4 inputs corneal sphere center coordinates {C}, reference point 2D coordinates {I}, and internal parameters. In response to this, the reference point 3D coordinate estimation unit 4 estimates the reference point 3D coordinates using the reference point 2D coordinates {I} and the corneal sphere center coordinates {C}. Then, the reference point 3D coordinate estimation unit 4 outputs the reference point 3D coordinate {C}.

外部パラメータ推定部5は、モデル座標{X}、参照点3D座標{C}を入力する。これを受けて、外部パラメータ推定部5は、モデル座標と参照点3D座標を用いて外部パラメータを推定する。そして、外部パラメータ(R,T)を出力する。   The external parameter estimation unit 5 inputs model coordinates {X} and reference point 3D coordinates {C}. In response to this, the external parameter estimation unit 5 estimates the external parameter using the model coordinates and the reference point 3D coordinates. Then, external parameters (R, T) are output.

次に、図3を参照して、図2に示す画像データ処理装置1の処理動作を説明する。図3は、図2に示す画像データ処理装置の処理動作を示すフローチャートである。まず、入力部2は、処理対象となる画像、カメラの内部パラメータ、角膜球半径、参照点2D座標およびモデル座標を入力する(ステップS101)。   Next, the processing operation of the image data processing apparatus 1 shown in FIG. 2 will be described with reference to FIG. FIG. 3 is a flowchart showing the processing operation of the image data processing apparatus shown in FIG. First, the input unit 2 inputs an image to be processed, camera internal parameters, corneal sphere radius, reference point 2D coordinates, and model coordinates (step S101).

なお、処理対象となる画像には、角膜球による参照点の一次反射像が含まれていることとする。カメラの内部パラメータとはカメラの焦点距離および画像中心を表すパラメータであり、非特許文献1などに記載の公知の技術を用いて事前に推定しているものとする。角膜球半径に関しては、人間の角膜球半径の平均値を用いればよい。   It is assumed that the image to be processed includes a primary reflection image of a reference point by a corneal sphere. The internal parameters of the camera are parameters representing the focal length and the image center of the camera, and are estimated in advance using a known technique described in Non-Patent Document 1 or the like. Regarding the corneal sphere radius, an average value of the human corneal sphere radius may be used.

参照点2D座標は、角膜球によって反射された参照点の像が画像平面上に投影された時の座標である。この点は目視で検出してもよい。あるいは、事前に参照点を表示していない状況を撮影しておき、その後参照点を時間差で表示して、背景差分法を用いて自動的に検出するようにしてもよい。また、モデル座標とはモデル座標系における参照点の3次元座標を表し、これは事前に定めておくこととする。   The reference point 2D coordinate is a coordinate when the image of the reference point reflected by the corneal sphere is projected on the image plane. This point may be detected visually. Alternatively, a situation in which the reference point is not displayed in advance may be taken, and then the reference point may be displayed with a time difference and automatically detected using the background difference method. The model coordinates represent the three-dimensional coordinates of the reference point in the model coordinate system, which is determined in advance.

次に、角膜球座標推定部3は、入力された画像に対して角膜球の楕円パラメータを推定する(ステップS102)。楕円パラメータとは楕円(円も含む)の中心座標(x座標、y座標){I}、楕円の長軸、短軸、およびその傾きの5変数を指す。楕円パラメータの推定方法は直接手で計測をしてもよいし、自動推定してもよい。以下の説明では自動推定する場合について説明する。   Next, the corneal sphere coordinate estimation unit 3 estimates an elliptic parameter of the corneal sphere with respect to the input image (step S102). The ellipse parameter refers to five variables: the center coordinates (x coordinate, y coordinate) {I} of the ellipse (including a circle), the major axis and minor axis of the ellipse, and the inclination thereof. The method for estimating the ellipse parameter may be directly measured by hand or automatically estimated. In the following description, the case of automatic estimation will be described.

楕円パラメータを自動推定する方法はどのような方法でもよい。例えば、画像に対して二値化を行った後、エッジ検出を行い、検出したエッジに対して角膜の画像である楕円の楕円パラメータ推定を行う手法が適用できる。なお、このとき、二値化を行う手法はどのような手法でもよい。例えば、固定式位置処理や適応的閾値処理などの利用が可能である。また、エッジ検出を行う手法はどのような手法でもよい。例えば、Cannyフィルタの利用が可能である。さらに、検出されたエッジにおける楕円パラメータの推定を行う手法はどのような手法でもよい。例えば、参考文献1に記載の公知の手法の利用が可能である。
参考文献1:Andrew W. Fitzgibbon, R.B.Fisher. A Buyer’s Guide to Conic Fitting. Proc.5th British Machine Vision Conference, Birmingham, pp. 513-522, 1995.
Any method may be used for automatically estimating the ellipse parameter. For example, it is possible to apply a method of performing edge detection after binarizing an image and estimating an ellipse parameter of an ellipse that is an image of the cornea with respect to the detected edge. At this time, any method may be used for binarization. For example, it is possible to use fixed position processing or adaptive threshold processing. Further, any method for performing edge detection may be used. For example, a Canny filter can be used. Furthermore, any method may be used for estimating the ellipse parameter at the detected edge. For example, a known technique described in Reference 1 can be used.
Reference 1: Andrew W. Fitzgibbon, RBFisher. A Buyer's Guide to Conic Fitting. Proc. 5th British Machine Vision Conference, Birmingham, pp. 513-522, 1995.

次に、角膜球座標推定部3は、楕円パラメータから角膜球の中心座標を推定する(ステップS103)。図4は、角膜球の投影を表す図である。図4に示すように、楕円パラメータは楕円の長軸の長さ:rmax、短軸の長さ:rmin、楕円の傾きΦ、楕円の中心座標i(x座標,y座標)の5変数である。また、τ=±arccos(rmin/rmax)とする。このとき、視線方向はg=[sinτsinφ −sinτcosφ cosτ]と表される。 Next, the corneal sphere coordinate estimation unit 3 estimates the center coordinates of the corneal sphere from the ellipse parameters (step S103). FIG. 4 is a diagram showing projection of a corneal sphere. As shown in FIG. 4, the ellipse parameters are the ellipse major axis length: r max , the minor axis length: r min , the ellipse inclination Φ, and the ellipse center coordinate i L (x coordinate, y coordinate). Is a variable. In addition, τ = ± arccos (r min / r max ). At this time, the line-of-sight direction is expressed as g = [sin τ sin φ−sin τ cos φ cos τ] T.

また、画像平面上のカメラ中心と角膜輪部の中心L間の距離をdとすると、dは焦点距離f(ピクセル値)を用いてd=f・r/rmaxと表される。なお、rは角膜輪部の半径を表し、人間のrの平均は5.6mmとされている。さらに、カメラの内部パラメータを表す行列をKとすると、角膜輪部の中心LはL{C}=dK−1{I}と表される。角膜球中心Sは角膜輪部の中心Lから−g方向にdLS(=5.6mm)進んだ方向にあることから、S{C}=L{C}−dLS{C}gで計算ができる。 Further, when the distance between the camera center on the image plane and the center L of the corneal ring portion is d, d is expressed as d = f · r L / r max using the focal length f (pixel value). R L represents the radius of the corneal limbus, and the average of human r L is 5.6 mm. Furthermore, if the matrix representing the internal parameters of the camera is K, the center L of the corneal limbus is represented as L {C} = dK −1 i L {I}. Since the corneal sphere center S is in a direction d LS (= 5.6 mm) advanced in the −g direction from the center L of the corneal limbus, it is calculated by S {C} = L {C} −d LS {C} g. Can do.

次に、図1に示す3つの参照点p(i=1,2,3)に対して処理を繰り返す(ステップS104)。参照点3D座標推定部4は、参照点pの3D座標を推定する(ステップS105)。参照点pの画像平面上への投影点をqとする。ベクトルvをv{C}=(K−1{I}/|K−1{I}とする。このとき、qは参照点2D座標である。また、参照点pは角膜球上のmにおいて反射するとした時、カメラ中心からmまでの距離は以下の値で表される。
0mi=(v {C}S{C)−√((v {C}S{C})−|S{C}|−r)))/|v{C}|
Next, the process is repeated for the three reference points p i (i = 1, 2, 3) shown in FIG. 1 (step S104). The reference point 3D coordinate estimation unit 4 estimates the 3D coordinates of the reference point p i (step S105). Let q i be the projection point of the reference point p i on the image plane. The vector v i v i {C} = (K -1 q i {I} / |.. And K -1 q i {I} At this time, q i is the reference point 2D coordinates The reference point p i when was reflected at m i on the cornea sphere, the distance from the camera center to m i is represented by the following values.
k 0mi = (v i T {C} S {C) −√ ((v i T {C} S {C}) 2 − | S {C} | 2 −r 2 ))) / | v i {C } | 2

このとき、反射点mはm{C}=k0mi{C}で求められる。また、反射点mにおける法線nは球面鏡の中心と反射点を結ぶ単位ベクトルなので、n{C}=(m{C}−S{C})/|m{C}−S{C}|となる。さらに、反射点mと参照点pを結ぶ単位ベクトルをuは、反射の法則からu{C}=v{C}+2(−v {C}・n{C})n{C}と表される。反射点mと参照点p間の距離をkmipiとすると、(条件)を満たすときkmipi=k0miである。以上のことから、参照点pは以下の式で求められる。
{C}=kmipi{C}+m(C}
以上の処理を全ての参照点に対して行う(ステップS106)。
In this case, the reflection point m i is determined by m i {C} = k 0mi V i {C}. Further, since the normal n i at the reflection point m i is a unit vector connecting the reflection point with the center of the spherical mirror, n i {C} = ( m i {C} -S {C}) / | m i {C} - S {C} | Further, u i the unit vector connecting the reference point p i and the reflection points m i is the law of reflection u i {C} = v i {C} +2 (-v i T {C} · n i {C} ) N i {C}. When the distance between the reference point p i and the reflection points m i and k MIPI, a k mipi = k 0mi when satisfying (Condition). From the above, the reference point p i is obtained by the following equation.
p i {C} = k mipi u i {C} + m i (C}
The above processing is performed for all reference points (step S106).

次に、外部パラメータ推定部5は、得られた参照点pの3D座標を用いて外部パラメータ(R,T)を求める(ステップS107)。外部パラメータ(R,T)を求める手法はどのような手法でもよい。2つの異なる座標系間における点の対応を用いて座標系間の外部パラメータを求める問題はAbsolute Orientation Problemとして知られており、この問題を解くことで外部パラメータを求めることが可能である。本実施形態では、入力として与えられたモデル座標および(ステップS104)〜(ステップS106)で求めたカメラ座標系における参照点pの3D座標を用いることで、モデル座標系とカメラ座標系間の外部パラメータが求められる。Absolute Orientation Problemの解き方は参考文献2に記載されている公知の手法であるため、ここでは詳細な説明を省略する。
参考文献2:D. Eggert, A. Lorusso, and R. Fisher. Estimating 3-d rigid body transformations: a comparison of four major algorithms. Machine Vision and Applications, 9(5-6):272{290, 1997.
Next, the external parameter estimating unit 5 calculates the external parameter using the 3D coordinates of the obtained reference point p i (R, T) (step S107). Any method for obtaining the external parameters (R, T) may be used. The problem of obtaining an external parameter between coordinate systems using the correspondence of points between two different coordinate systems is known as the Absolute Orientation Problem, and it is possible to obtain an external parameter by solving this problem. In the present embodiment, the model coordinates and (step S104) given as input ~ By using the 3D coordinates of the reference point p i in the camera coordinate system obtained in (step S106), the model coordinate system and between the camera coordinate system External parameters are determined. Since the method of solving the Absolute Orientation Problem is a known method described in Reference Document 2, detailed description thereof is omitted here.
Reference 2: D. Eggert, A. Lorusso, and R. Fisher. Estimating 3-d rigid body transformations: a comparison of four major algorithms. Machine Vision and Applications, 9 (5-6): 272 {290, 1997.

次に、外部パラメータ推定部5は、得られた外部パラメータ(R,T)を最適化する(ステップS108)。最適化のコスト関数としてはどのようなコスト関数を用いてもよい。例えば、一般的に外部パラメータを最適化する上で用いられている再投影誤差を最小化する項を用いてもよい。このとき、外部パラメータ(R,T)は、各種パラメータを用いて計算した投影点と実際に検出された投影点が一致するように最適化されるため、投影点に対してノイズの少ない理想的な環境下において高精度に最適化されることが期待できる。   Next, the external parameter estimation unit 5 optimizes the obtained external parameters (R, T) (step S108). Any cost function may be used as the cost function for optimization. For example, a term that minimizes a reprojection error that is generally used in optimizing external parameters may be used. At this time, the external parameters (R, T) are optimized so that the projection points calculated using the various parameters coincide with the actually detected projection points. It can be expected to be optimized with high accuracy in a rough environment.

あるいは、前述の条件を満たすように角膜球中心とカメラ中心の距離および角膜球中心と各参照点の距離が同じになるような項を用いてもよい。ノイズの存在する環境下では、推定された外部パラメータを用いて計算できる参照点の位置が、必ずしも(条件)を満たしているとは限らない。この最適化項はこれら物理的な制約条件を満たすように最適化するため、投影点にノイズの存在する環境下でも極端に精度の悪い局所解に最適化することなく、安定して高精度な最適化することが期待できる。また、これらの両方の項を用いてもよい。最適化の必要がなければ、最適化は必ずしも行わなくてもよい。   Alternatively, terms such that the distance between the corneal sphere center and the camera center and the distance between the corneal sphere center and each reference point may be the same so as to satisfy the above-described conditions. In an environment where noise exists, the position of the reference point that can be calculated using the estimated external parameter does not always satisfy (condition). Since this optimization term is optimized to satisfy these physical constraints, it is stable and highly accurate without optimizing for an extremely inaccurate local solution even in the presence of noise at the projection point. It can be expected to optimize. Both of these terms may be used. If there is no need for optimization, optimization does not necessarily have to be performed.

以上説明したように、カメラパラメータを推定する(外部キャリブレーション)際に、カメラと参照点が球面鏡の中心から同一距離に存在するという幾何制約および眼球の物理モデルの導入により、従来の方法に比して外部パラメータの算出に必要となる球面鏡の姿勢の数及び参照点の数を削減することができるため、参照点3点に対して1姿勢の眼球(角膜球)を用いるという簡易な構成において、得られた画像からカメラとその視野外に存在する物体間の外部キャリブレーションが実施できるが可能になる。   As described above, when camera parameters are estimated (external calibration), the introduction of a geometrical constraint that the camera and the reference point are at the same distance from the center of the spherical mirror and the physical model of the eyeball are compared with the conventional method. Since the number of spherical mirror postures and the number of reference points required for calculating external parameters can be reduced, a simple configuration in which one eyeball (corneal ball) is used for three reference points. From the obtained image, external calibration between the camera and an object existing outside the field of view can be performed.

前述した実施形態における画像データ処理装置をコンピュータで実現するようにしてもよい。その場合、この機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよく、PLD(Programmable Logic Device)やFPGA(Field Programmable Gate Array)等のハードウェアを用いて実現されるものであってもよい。   The image data processing apparatus in the above-described embodiment may be realized by a computer. In that case, a program for realizing this function may be recorded on a computer-readable recording medium, and the program recorded on this recording medium may be read into a computer system and executed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory inside a computer system serving as a server or a client in that case may be included and a program held for a certain period of time. Further, the program may be a program for realizing a part of the above-described functions, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system. It may be realized using hardware such as PLD (Programmable Logic Device) or FPGA (Field Programmable Gate Array).

以上、図面を参照して本発明の実施の形態を説明してきたが、上記実施の形態は本発明の例示に過ぎず、本発明が上記実施の形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び範囲を逸脱しない範囲で構成要素の追加、省略、置換、その他の変更を行ってもよい。   As mentioned above, although embodiment of this invention has been described with reference to drawings, the said embodiment is only the illustration of this invention, and it is clear that this invention is not limited to the said embodiment. is there. Therefore, additions, omissions, substitutions, and other modifications of the components may be made without departing from the technical idea and scope of the present invention.

簡単な構成でカメラとその視野外に存在する物体間の外部キャリブレーションを実施することが不可欠な用途に適用できる。   It can be applied to applications where it is indispensable to perform external calibration between a camera and an object existing outside the field of view with a simple configuration.

1・・・画像データ処理装置、2・・・入力部、3・・・角膜球座標推定部、4・・・参照点3D座標推定部、5・・・外部パラメータ推定部   DESCRIPTION OF SYMBOLS 1 ... Image data processing apparatus, 2 ... Input part, 3 ... Corneal sphere coordinate estimation part, 4 ... Reference point 3D coordinate estimation part, 5 ... External parameter estimation part

Claims (5)

カメラによって撮像した画像と、前記カメラの内部パラメータと、角膜を球の一部として見なした角膜球の半径と、前記画像における所定の参照点の座標値と、前記参照点のモデル座標系を使用して、前記カメラとその視野外に存在する参照物体との位置姿勢関係を推定する外部キャリブレーションを行う画像データ処理方法であって、
前記角膜球の中心座標を推定する角膜球座標推定ステップと、
カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定ステップと、
前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定ステップと
を有することを特徴とする画像データ処理方法。
An image captured by a camera, an internal parameter of the camera, a radius of a corneal sphere in which the cornea is regarded as a part of a sphere, a coordinate value of a predetermined reference point in the image, and a model coordinate system of the reference point Using an image data processing method for performing external calibration to estimate a position and orientation relationship between the camera and a reference object existing outside the field of view;
A corneal sphere coordinate estimation step for estimating a center coordinate of the corneal sphere;
A reference point 3D coordinate estimation step for estimating a three-dimensional coordinate value of the reference point in the camera coordinate system;
An external data estimation step for estimating an external parameter between the camera and the reference object.
前記角膜球座標推定ステップでは、前記画像に対して前記角膜球の投影像の楕円パラメータを推定することにより前記角膜球の中心座標を推定することを特徴とする請求項1に記載の画像データ処理方法。   2. The image data processing according to claim 1, wherein in the corneal sphere coordinate estimation step, center coordinates of the corneal sphere are estimated by estimating an elliptic parameter of a projection image of the corneal sphere with respect to the image. Method. 前記参照点3D座標推定ステップでは、前記角膜球と前記参照物体と前記カメラ座標系の位置関係が所定の条件を満たすものとして前記3次元座標値を推定することを特徴とする請求項1または2に記載の画像データ処理方法。   3. The reference point 3D coordinate estimation step estimates the three-dimensional coordinate value assuming that a positional relationship among the corneal sphere, the reference object, and the camera coordinate system satisfies a predetermined condition. 2. An image data processing method described in 1. カメラによって撮像した画像と、前記カメラの内部パラメータと、角膜を球の一部として見なした角膜球の半径と、前記画像における所定の参照点の座標値と、前記参照点のモデル座標系を使用して、前記カメラとその視野外に存在する参照物体との位置姿勢関係を推定する外部キャリブレーションを行う画像データ処理装置であって、
前記角膜球の中心座標を推定する角膜球座標推定部と、
カメラ座標系における前記参照点の3次元座標値を推定する参照点3D座標推定部と、
前記カメラと前記参照物体間の外部パラメータを推定する外部パラメータ推定部と
を備えることを特徴とする画像データ処理装置。
An image captured by a camera, an internal parameter of the camera, a radius of a corneal sphere in which the cornea is regarded as a part of a sphere, a coordinate value of a predetermined reference point in the image, and a model coordinate system of the reference point An image data processing apparatus that performs external calibration to estimate a position and orientation relationship between the camera and a reference object existing outside the field of view,
A corneal sphere coordinate estimation unit for estimating the center coordinates of the corneal sphere,
A reference point 3D coordinate estimation unit for estimating a three-dimensional coordinate value of the reference point in the camera coordinate system;
An image data processing apparatus comprising: an external parameter estimation unit that estimates an external parameter between the camera and the reference object.
コンピュータに、請求項1から3のいずれか1項に記載の画像データ処理方法を実行させるための画像データ処理プログラム。   An image data processing program for causing a computer to execute the image data processing method according to any one of claims 1 to 3.
JP2015005186A 2015-01-14 2015-01-14 Image data processing method, image data processing apparatus, and image data processing program Active JP6276713B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015005186A JP6276713B2 (en) 2015-01-14 2015-01-14 Image data processing method, image data processing apparatus, and image data processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015005186A JP6276713B2 (en) 2015-01-14 2015-01-14 Image data processing method, image data processing apparatus, and image data processing program

Publications (2)

Publication Number Publication Date
JP2016130693A JP2016130693A (en) 2016-07-21
JP6276713B2 true JP6276713B2 (en) 2018-02-07

Family

ID=56415283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015005186A Active JP6276713B2 (en) 2015-01-14 2015-01-14 Image data processing method, image data processing apparatus, and image data processing program

Country Status (1)

Country Link
JP (1) JP6276713B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107036557A (en) * 2017-03-17 2017-08-11 北京航宇振控科技有限责任公司 A kind of two-dimentional angle measuring system and method

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6302427B2 (en) * 2015-04-02 2018-03-28 日本電信電話株式会社 Image data processing method, image data processing apparatus, and image data processing program
CN111256592B (en) * 2020-03-13 2021-12-03 易思维(杭州)科技有限公司 External parameter calibration device and method for structured light sensor
JP7116770B2 (en) * 2020-12-04 2022-08-10 日本化薬株式会社 Analog meter pointer reading method and analog meter pointer reading system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007034628A (en) * 2005-07-26 2007-02-08 Canon Inc Method and system for image processing
JP5857805B2 (en) * 2012-03-07 2016-02-10 株式会社Jvcケンウッド Camera calibration device
JP2014188322A (en) * 2013-03-28 2014-10-06 Panasonic Corp Visual line detection device, visual line detection method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107036557A (en) * 2017-03-17 2017-08-11 北京航宇振控科技有限责任公司 A kind of two-dimentional angle measuring system and method
CN107036557B (en) * 2017-03-17 2019-04-26 北京航宇振控科技有限责任公司 A kind of two dimension angle measuring system and method

Also Published As

Publication number Publication date
JP2016130693A (en) 2016-07-21

Similar Documents

Publication Publication Date Title
JP7136875B2 (en) Eye Pose Identification Using Eye Features
Itoh et al. Interaction-free calibration for optical see-through head-mounted displays based on 3d eye localization
CN107004275B (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object
US10282913B2 (en) Markerless augmented reality (AR) system
JP6228320B2 (en) Sensor-based camera motion detection for unconstrained SLAM
US10535160B2 (en) Markerless augmented reality (AR) system
US20150029322A1 (en) Method and computations for calculating an optical axis vector of an imaged eye
JP6371849B2 (en) Image alignment apparatus, image alignment method, and image alignment program
US20210042520A1 (en) Deep learning for three dimensional (3d) gaze prediction
Draelos et al. Intel realsense= real low cost gaze
JP6276713B2 (en) Image data processing method, image data processing apparatus, and image data processing program
WO2020237565A1 (en) Target tracking method and device, movable platform and storage medium
JP5833507B2 (en) Image processing device
JP2016173313A (en) Visual line direction estimation system, visual line direction estimation method and visual line direction estimation program
JP6515039B2 (en) Program, apparatus and method for calculating a normal vector of a planar object to be reflected in a continuous captured image
US11403781B2 (en) Methods and systems for intra-capture camera calibration
US20210256733A1 (en) Resolving region-of-interest (roi) overlaps for distributed simultaneous localization and mapping (slam) in edge cloud architectures
US20140168204A1 (en) Model based video projection
WO2017187694A1 (en) Region of interest image generating device
JP6885474B2 (en) Image processing device, image processing method, and program
JP2017090420A (en) Three-dimensional information restoration device and three-dimensional information restoration method
Nitschke et al. I see what you see: point of gaze estimation from corneal images
JP6302427B2 (en) Image data processing method, image data processing apparatus, and image data processing program
US9830512B2 (en) Method and apparatus for tracking gaze
US20230144111A1 (en) A method for generating a 3d model

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171226

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180112

R150 Certificate of patent or registration of utility model

Ref document number: 6276713

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150