JP2013092407A - Three-dimensional coordinate acquisition device, camera attitude estimation device, and program - Google Patents

Three-dimensional coordinate acquisition device, camera attitude estimation device, and program Download PDF

Info

Publication number
JP2013092407A
JP2013092407A JP2011233586A JP2011233586A JP2013092407A JP 2013092407 A JP2013092407 A JP 2013092407A JP 2011233586 A JP2011233586 A JP 2011233586A JP 2011233586 A JP2011233586 A JP 2011233586A JP 2013092407 A JP2013092407 A JP 2013092407A
Authority
JP
Japan
Prior art keywords
dimensional
dimensional object
camera
coordinate acquisition
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011233586A
Other languages
Japanese (ja)
Other versions
JP5855416B2 (en
Inventor
Tatsuya Kobayashi
達也 小林
Haruhisa Kato
晴久 加藤
Akio Yoneyama
暁夫 米山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2011233586A priority Critical patent/JP5855416B2/en
Publication of JP2013092407A publication Critical patent/JP2013092407A/en
Application granted granted Critical
Publication of JP5855416B2 publication Critical patent/JP5855416B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve estimation accuracy of a camera attitude and reduce a processing load.SOLUTION: A three-dimensional coordinate acquisition device 100 acquires three-dimensional coordinates of a three-dimensional object that are used when the attitude of a camera is estimated from a photographed image of the three-dimensional object photographed by the camera. The three-dimensional coordinate acquisition device includes: a feature point detecting unit 111 that detects a feature point in an image plane from the photographed image; and a three-dimensional coordinate acquisition unit 113 that calculates an intersection of a straight line that passes through a focal point of the camera and the feature point in the image plane and the three-dimensional object, from an equation of the straight line and an equation of the three-dimensional object, and acquires the three-dimensional coordinates of the feature point.

Description

本発明は、3次元座標取得装置、カメラ姿勢推定装置、プログラムに関する。   The present invention relates to a three-dimensional coordinate acquisition device, a camera posture estimation device, and a program.

近年、現実空間の映像をコンピュータで処理して更なる情報を付加するAR(拡張現実感)技術が、種々の電子機器(例えば、WEBカメラが接続されたPC、カメラ付き携帯電話端末)上において、実現されるようになっている。
AR技術においては、カメラ画像内の立体対象物に対するカメラ姿勢(カメラの外部パラメータ)を推定する必要がある。
カメラ姿勢の推定には、基準マーカ等を利用する技術が知られているが、特定のマーカを利用せずに立体対象物に対するカメラ姿勢を推定する技術(3次元ポリゴンモデルを利用したマーカレスAR技術)も提案されている。例えば、特許文献1、2には、予め立体対象物の3次元ポリゴンモデルをオフラインで取得しておき、カメラ画像内の2次元ピクセル座標と3次元ポリゴンモデルの3次元座標とを対応させるカメラの姿勢を決定し、カメラ姿勢として推定する技術が開示されている。
一般にカメラ姿勢の推定では、推定精度が2次元ピクセル座標に対応する厳密な3次元座標を取得できるか否かに影響される。3次元ポリゴンモデルを利用した場合、一の2次元ピクセル座標に対応する3次元座標は、カメラの焦点及び画像平面内の一の2次元ピクセル座標を持つ点を通過する直線と、ポリゴンモデルを構成する一のポリゴン(平面)の交点Xとして取得されるため、3次元座標の取得精度は3次元ポリゴンモデル自体の精度に影響される。表面が平面のみから構成される立体対象物(例えば、直方体)を利用する場合、容易に高精度な3次元ポリゴンモデルを準備することができるため、比較的高精度に、カメラ姿勢を推定することができる。
In recent years, AR (Augmented Reality) technology for processing a real-space image by a computer and adding more information has been used on various electronic devices (for example, a PC to which a WEB camera is connected, a mobile phone terminal with a camera). , Has come to be realized.
In the AR technique, it is necessary to estimate the camera posture (external parameter of the camera) with respect to the three-dimensional object in the camera image.
For estimating the camera posture, a technique using a reference marker or the like is known. However, a technique for estimating a camera posture with respect to a three-dimensional object without using a specific marker (markerless AR technique using a three-dimensional polygon model). ) Has also been proposed. For example, in Patent Documents 1 and 2, a 3D polygon model of a three-dimensional object is acquired in advance offline, and a camera that associates the 2D pixel coordinates in the camera image with the 3D coordinates of the 3D polygon model. A technique for determining a posture and estimating it as a camera posture is disclosed.
In general, in estimating the camera posture, the estimation accuracy is affected by whether or not exact three-dimensional coordinates corresponding to the two-dimensional pixel coordinates can be acquired. When a 3D polygon model is used, the 3D coordinates corresponding to one 2D pixel coordinate form a polygon model with a straight line passing through the point of the camera focus and one 2D pixel coordinate in the image plane. Therefore, the acquisition accuracy of the three-dimensional coordinates is affected by the accuracy of the three-dimensional polygon model itself. When a three-dimensional object (for example, a rectangular parallelepiped) whose surface is composed only of a plane is used, a highly accurate three-dimensional polygon model can be easily prepared, so that the camera posture can be estimated with relatively high accuracy. Can do.

特表2010−519629号公報Special table 2010-519629 特開2011−118724号公報JP 2011-118724 A

しかしながら、曲面を有する立体対象物(表面の一部又は全部が曲面である立体対象物。例えば、球、円柱、円錐、円環体)を利用する場合、曲面部分において、個々の3次元座標がずれるなどの誤差が生じ、高い精度の3次元ポリゴンモデルを取得することができない。従って、曲面を有する立体対象物を利用した場合、カメラ姿勢の推定精度が悪化するという問題がある。
更に、カメラ姿勢の推定精度に係る問題点の他、2次元ピクセル座標に対応する3次元座標を取得する際には、2次元ピクセル座標に対応する一のポリゴン(平面)を計算によって特定する必要があるため、処理負荷が大きくなるという問題がある。
なお、3次元ポリゴンモデルの曲面部分の誤差の程度は、曲面部分を構成する平面の多寡によるため、誤差の程度を少なくし、カメラ姿勢の推定精度を高くするためには、曲面部分を構成する平面の数を大幅に増やす必要があるが、そうすると、処理負荷が更に大きくなるという問題がある。
However, when using a three-dimensional object having a curved surface (a three-dimensional object whose surface is part or all of a curved surface. For example, a sphere, a cylinder, a cone, a torus) Errors such as deviation occur, and a highly accurate three-dimensional polygon model cannot be acquired. Therefore, when a three-dimensional object having a curved surface is used, there is a problem that the estimation accuracy of the camera posture deteriorates.
Furthermore, in addition to the problem related to camera posture estimation accuracy, when acquiring three-dimensional coordinates corresponding to two-dimensional pixel coordinates, it is necessary to specify one polygon (plane) corresponding to the two-dimensional pixel coordinates by calculation. Therefore, there is a problem that the processing load increases.
Note that the degree of error of the curved surface portion of the 3D polygon model depends on the number of planes constituting the curved surface portion. Therefore, in order to reduce the degree of error and increase the estimation accuracy of the camera posture, the curved surface portion is configured. Although it is necessary to greatly increase the number of planes, there is a problem that the processing load further increases.

本発明は、上述の課題を鑑みてなされたものであり、カメラ姿勢の推定精度を向上させるとともに、処理負荷を軽減させる技術を提供する。特に、本発明は、曲面を有する立体対象物を用いる場合において、カメラ姿勢の推定精度を向上させるとともに、処理負荷を軽減させる技術を提供する。   The present invention has been made in view of the above-described problems, and provides a technique for improving the estimation accuracy of the camera posture and reducing the processing load. In particular, the present invention provides a technique for improving the estimation accuracy of the camera posture and reducing the processing load when using a three-dimensional object having a curved surface.

上記問題を解決するために、本発明の一態様である3次元座標取得装置は、カメラによって撮像された立体対象物の撮像画像から当該カメラのカメラ姿勢を推定する際に用いられる前記立体対象物の3次元座標を取得する3次元座標取得装置であって、前記撮像画像から、画像平面内の特徴点を検出する特徴点検出手段と、前記カメラの焦点及び前記画像平面内の特徴点を通過する直線の方程式と、前記立体対象物の方程式とから、前記直線と前記立体対象物との交点を算出し、前記特徴点の3次元座標として取得する3次元座標取得手段とを備えることを特徴とする。ここで、前記立体対象物の方程式とは、立体対象物全体の表面を表すものであり、例えば球体であれば球の方程式、円柱体であれば側面と底面を表す2平面を連立した方程式を指す。   In order to solve the above problem, the three-dimensional coordinate acquisition apparatus according to one aspect of the present invention uses the three-dimensional object used when estimating the camera posture of the camera from a captured image of the three-dimensional object captured by the camera. A three-dimensional coordinate acquisition apparatus for acquiring a three-dimensional coordinate of a feature point detecting means for detecting a feature point in an image plane from the captured image, passing through a focus point of the camera and a feature point in the image plane And a three-dimensional coordinate acquisition means for calculating an intersection of the straight line and the three-dimensional object from the equation of the straight line and the equation of the three-dimensional object, and acquiring the intersection as a three-dimensional coordinate of the feature point. And Here, the equation of the three-dimensional object represents the surface of the entire three-dimensional object. For example, if the object is a sphere, the equation of the sphere is used. Point to.

上記3次元座標取得装置において、前記カメラの内部パラメータ及び前記立体対象物の撮像画像を用いて、前記直線の方程式のパラメータ及び前記立体対象物の方程式のパラメータを算出するパラメータ算出手段を更に備えるようにしてもよい。   The three-dimensional coordinate acquisition apparatus may further include parameter calculation means for calculating the linear equation parameter and the three-dimensional object equation parameter using an internal parameter of the camera and a captured image of the three-dimensional object. It may be.

上記3次元座標取得装置において、前記3次元座標取得手段は、複数個の前記交点が算出された場合、複数個の前記交点のうち前記カメラの焦点に近い一の交点を前記3次元座標として取得するようにしてもよい。   In the three-dimensional coordinate acquisition apparatus, the three-dimensional coordinate acquisition unit acquires, as the three-dimensional coordinates, one intersection point close to the focal point of the camera among the plurality of intersection points when a plurality of the intersection points are calculated. You may make it do.

上記3次元座標取得装置において、前記立体対象物の特徴点を記憶する特徴情報データベースと、一の前記特徴点を通過する直線から前記交点が算出されなかった場合、当該特徴点を前記特徴情報データベースから削除する削除手段とを更に備えるようにしてもよい。   In the three-dimensional coordinate acquisition apparatus, if the intersection point is not calculated from a feature information database that stores feature points of the three-dimensional object and a straight line that passes through the one feature point, the feature points are stored in the feature information database. It may be further provided with a deleting means for deleting from.

上記3次元座標取得装置において、前記3次元座標取得手段は、前記交点を取得する方程式が2次方程式の場合、判別式を用いて、前記特徴点が立体対象物上の点であるか否かを判定するようにしてもよい。   In the above three-dimensional coordinate acquisition device, the three-dimensional coordinate acquisition unit uses a discriminant to determine whether the feature point is a point on a three-dimensional object when the equation for acquiring the intersection is a quadratic equation. May be determined.

上記3次元座標取得装置において、前記立体対象物は、表面の一部又は全部が曲面であってもよい。   In the above three-dimensional coordinate acquisition apparatus, the solid object may have a curved surface in part or in whole.

上記3次元座標取得装置において、前記立体対象物は、表面の一部が曲面であって、前記3次元座標取得手段は、前記立体対象物の曲面部分については、前記立体対象物の方程式を利用して前記特徴点の3次元座標を取得する一方、前記立体対象物の平面部分については3次元ポリゴンモデルを利用して前記特徴点の3次元座標を取得するようにしてもよい。   In the above three-dimensional coordinate acquisition apparatus, a part of the surface of the three-dimensional object is a curved surface, and the three-dimensional coordinate acquisition means uses the equation of the three-dimensional object for the curved surface portion of the three-dimensional object. Then, the three-dimensional coordinates of the feature points may be acquired using a three-dimensional polygon model for the planar portion of the three-dimensional object.

上記3次元座標取得装置において、前記3次元座標取得手段は、前記立体対象物の曲面上の位置であって前記カメラの焦点の側から見て周縁の位置を前記特徴点の3次元座標として取得しないようにしてもよい。   In the three-dimensional coordinate acquisition apparatus, the three-dimensional coordinate acquisition unit acquires a position of a peripheral edge as viewed from the focal point of the camera as a three-dimensional coordinate of the feature point on the curved surface of the three-dimensional object. You may make it not.

上記3次元座標取得装置において、前記3次元座標取得手段は、前記立体対象物上に前記交点が存在するか否かを判定する判定式の閾値を変化させることによって、前記立体対象物の曲面上の位置であって前記カメラの焦点の側から見て周縁の位置を3次元座標として取得しないようにしてもよい。   In the three-dimensional coordinate acquisition apparatus, the three-dimensional coordinate acquisition unit changes the threshold value of a determination formula for determining whether or not the intersection exists on the three-dimensional object, thereby changing the surface of the three-dimensional object. The position of the peripheral edge when viewed from the focal point of the camera may not be acquired as three-dimensional coordinates.

上記問題を解決するために、本発明の他の態様であるカメラ姿勢推定装置は、カメラによって撮像された立体対象物の撮像画像から当該カメラのカメラ姿勢を推定するカメラ姿勢推定装置であって、予め撮像した前記撮像画像内の前記立体対象物の特徴点の2次元ピクセル座標と、予め取得した前記立体対象物の特徴点の3次元座標とを対応付けて記憶するデータベース部と、今回撮像した撮像画像から前記立体対象物の特徴点を抽出し、前記データベース部内の前記2次元ピクセル座標と照合する照合部と、前記照合結果に基づいてカメラ姿勢を推定するカメラ姿勢推定部とを備え、前記データベース部は、前記カメラの焦点、及び、前記撮像画像から検出された画像平面内の特徴点を通過する直線の方程式と、前記立体対象物の方程式とから算出された、前記直線と前記立体対象物との交点を、前記立体対象物の特徴点の3次元座標として記憶することを特徴とする。   In order to solve the above problems, a camera posture estimation device according to another aspect of the present invention is a camera posture estimation device that estimates a camera posture of a camera from a captured image of a three-dimensional object captured by the camera, A database unit that stores the two-dimensional pixel coordinates of the feature points of the three-dimensional object in the captured image captured in advance and the three-dimensional coordinates of the feature points of the three-dimensional object acquired in advance in association with each other. A feature point of the three-dimensional object is extracted from the captured image, and includes a collation unit that collates with the two-dimensional pixel coordinates in the database unit, and a camera posture estimation unit that estimates a camera posture based on the collation result, The database unit includes an equation of a straight line that passes through a focus point of the camera and a feature point in an image plane detected from the captured image, and an equation of the three-dimensional object. Et is calculated, the intersection between the straight line and the three-dimensional object, and to store the 3-dimensional coordinates of the feature points of the three-dimensional object.

上記カメラ姿勢推定装置において、前記立体対象物は、表面の一部が曲面であって、前記データベース部は、前記立体対象物の曲面部分について前記立体対象物の方程式を利用して算出された前記3次元座標を記憶し、前記立体対象物の平面部分について3次元ポリゴンモデルを利用して算出された3次元座標を記憶するようにしてもよい。   In the camera posture estimation apparatus, the three-dimensional object has a part of a surface that is a curved surface, and the database unit is calculated using an equation of the three-dimensional object for a curved surface portion of the three-dimensional object. Three-dimensional coordinates may be stored, and the three-dimensional coordinates calculated using a three-dimensional polygon model for the planar portion of the three-dimensional object may be stored.

上記問題を解決するために、本発明の他の態様であるプログラムは、カメラによって撮像された立体対象物の撮像画像から当該カメラのカメラ姿勢を推定する際に用いられる前記立体対象物の3次元座標を取得する3次元座標取得装置のコンピュータに、前記撮像画像から、画像平面内の特徴点を検出する特徴点検出ステップと、前記カメラの焦点及び前記画像平面内の特徴点を通過する直線の方程式と、前記立体対象物の方程式とから、前記直線と前記立体対象物との交点を算出し、前記特徴点の3次元座標として取得する3次元座標取得ステップとを実行させることを特徴とする。   In order to solve the above problem, a program according to another aspect of the present invention provides a three-dimensional object of a three-dimensional object used when estimating a camera posture of the camera from a captured image of the object captured by the camera. A feature point detecting step for detecting a feature point in the image plane from the captured image, a straight line passing through the focal point of the camera and the feature point in the image plane, to the computer of the three-dimensional coordinate acquisition device that acquires the coordinates. A point of intersection between the straight line and the three-dimensional object is calculated from an equation and the equation of the three-dimensional object, and a three-dimensional coordinate acquisition step of acquiring the three-dimensional coordinate of the feature point is executed. .

本発明によれば、カメラ姿勢の推定精度を向上させるとともに、処理負荷を軽減させることができる。   According to the present invention, it is possible to improve the estimation accuracy of the camera posture and reduce the processing load.

本発明の実施形態であるカメラ姿勢推定装置20を含むARシステム1の概念図である。1 is a conceptual diagram of an AR system 1 including a camera posture estimation device 20 that is an embodiment of the present invention. カメラ姿勢推定装置20の機能ブロック図の一例である。2 is an example of a functional block diagram of a camera posture estimation device 20. FIG. 数式モデルを説明するための説明図である。It is explanatory drawing for demonstrating a numerical formula model. 本発明の実施形態である3次元座標取得装置100の機能ブロック図の一例である。It is an example of the functional block diagram of the three-dimensional coordinate acquisition apparatus 100 which is embodiment of this invention.

以下、本発明の実施形態について図面を参照して詳細に説明する。図1は、本発明の実施形態であるカメラ姿勢推定装置20を含むARシステム1の概念図である。ARシステム1は、図1に示すように、撮像装置10、カメラ姿勢推定装置20、表示装置30、付加情報データベース90から構成される。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. FIG. 1 is a conceptual diagram of an AR system 1 including a camera posture estimation device 20 according to an embodiment of the present invention. As shown in FIG. 1, the AR system 1 includes an imaging device 10, a camera posture estimation device 20, a display device 30, and an additional information database 90.

撮像装置10は、撮像画像(カメラ画像、又は、2次元画像とも称する)を取得する装置である。撮像装置10の一例は、図1に示すように、WEBカメラである。但し、撮像装置10は、WEBカメラの如く独立した装置でなく、例えば、カメラ付き携帯電話端末に搭載されているカメラモジュールのように、他の装置と一体化、若しくは、他の装置の一部を構成するものであってもよい。撮像装置10、立体対象物を撮像したカメラ画像(立体対象物が写っているカメラ画像)を連続的に取得する。撮像装置10は、カメラ姿勢推定装置20及び表示装置30にカメラ画像を出力する。   The imaging device 10 is a device that acquires a captured image (also referred to as a camera image or a two-dimensional image). An example of the imaging apparatus 10 is a WEB camera as shown in FIG. However, the imaging device 10 is not an independent device such as a WEB camera, but is integrated with another device or a part of another device such as a camera module mounted on a mobile phone terminal with a camera. May be included. The imaging device 10 continuously acquires a camera image obtained by imaging the three-dimensional object (a camera image in which the three-dimensional object is captured). The imaging device 10 outputs a camera image to the camera posture estimation device 20 and the display device 30.

ARシステム1において使用する立体対象物は、曲面を有する立体対象物(表面の一部又は全部が曲面である立体対象物。例えば、球、円柱、円錐、円環体)である。図1に示す例では、球状の地球儀を用いているが、ボール、飲料水の容器(例えば、缶、ビン、ペットボトル)、円柱に貼付された印刷物(例えば、広告、ポスター)などを用いても、同様のARシステムが構築可能である。   The three-dimensional object used in the AR system 1 is a three-dimensional object having a curved surface (a three-dimensional object whose surface is partly or entirely a curved surface. For example, a sphere, a cylinder, a cone, or a torus). In the example shown in FIG. 1, a spherical globe is used, but a ball, a container for drinking water (for example, a can, a bottle, a plastic bottle), a printed matter (for example, an advertisement or a poster) attached to a cylinder, or the like is used. A similar AR system can be constructed.

カメラ姿勢推定装置20は、撮像装置10から出力されたカメラ画像を取得する。カメラ画像を取得したカメラ姿勢推定装置20は、立体対象物に対するカメラの相対的な姿勢、即ち、カメラ姿勢(カメラの外部パラメータ)を推定する(詳細は後述)。カメラ姿勢を推定したカメラ姿勢推定装置20は、表示装置30にカメラ姿勢(カメラ姿勢を特定する情報)を出力する。
なお、ARシステム1において、複数の立体対象物を用いる場合には、カメラ姿勢とともに、カメラ姿勢の推定する際に利用した立体対象物を識別する情報を表示装置30に出力する。
The camera posture estimation device 20 acquires the camera image output from the imaging device 10. The camera posture estimation device 20 that has acquired the camera image estimates the relative posture of the camera with respect to the three-dimensional object, that is, the camera posture (external parameters of the camera) (details will be described later). The camera posture estimation device 20 that has estimated the camera posture outputs the camera posture (information for specifying the camera posture) to the display device 30.
In the AR system 1, when a plurality of three-dimensional objects are used, information for identifying the three-dimensional object used when estimating the camera posture is output to the display device 30 together with the camera posture.

付加情報データベース90は、表示装置30に出力する立体対象物に関する付加情報を記憶する記憶装置である。PCのHDD、携帯端末のメモリモジュールなどが付加情報データベース90に該当する。
付加情報の一例は、表示装置30の表示画面上において立体対象物に重畳して表示させるCG、他の画像、文字情報である。カメラ姿勢推定装置20によってカメラ姿勢が推定された場合、付加情報データベース90から当該カメラ姿勢に応じた付加情報が読み出され、表示装置30に出力され、表示装置30の表示画面上において、立体対象物に重畳して表示される。
The additional information database 90 is a storage device that stores additional information related to the three-dimensional object output to the display device 30. A PC HDD, a memory module of a portable terminal, and the like correspond to the additional information database 90.
Examples of additional information are CG, other images, and character information that are displayed superimposed on a three-dimensional object on the display screen of the display device 30. When the camera posture is estimated by the camera posture estimation device 20, additional information corresponding to the camera posture is read from the additional information database 90, output to the display device 30, and displayed on the display screen of the display device 30. It is displayed superimposed on the object.

付加情報は、表示部30からの要求に応じて表示装置30に出力されてもよいし、カメラ姿勢推定装置20からの制御(出力指示)に応じて表示装置30に出力されてもよい。   The additional information may be output to the display device 30 in response to a request from the display unit 30, or may be output to the display device 30 in response to control (output instruction) from the camera posture estimation device 20.

重畳表示の応用例は、立体対象物の種類に応じて異なるが、図1に示すように、立体対象物として地球儀を用いる場合には、カメラ画像内の地球儀に対し、気象情報(例えば、天気図、温度分布)の重畳表示、地理的情報(例えば、高度を視覚できる表示態様による地表の情報、各種資源の埋蔵位置/埋蔵量に関する情報、過去の大陸形状/予想される未来の大陸形状)の重畳表示、社会的情報(例えば、現在の国名、国境、及び、国境、国名の更新情報、何らかの勢力分布/構成割合を示す情報)の重畳表示といった応用例が想定される。更に、ジェスチャー認識技術を更に用いて、指差した位置(指示位置)に応じた情報(例えば、指示位置を領土/領海とする国名、国旗、国境線)を重畳表示するといった応用例も考えられる。   The application example of the superimposed display differs depending on the type of the three-dimensional object. However, as shown in FIG. 1, when a globe is used as the three-dimensional object, weather information (for example, weather information) is displayed on the globe in the camera image. Overlaid display of figure, temperature distribution), geographical information (for example, information on the ground surface in a display mode in which altitude can be visually observed, information on reserve positions / reserves of various resources, past continent shape / predicted future continent shape) Application examples such as superimposing display of social information (for example, current country name, border, and border, country name update information, information indicating some power distribution / composition ratio) are assumed. Furthermore, an application example is also conceivable in which gesture recognition technology is further used to superimpose and display information (for example, country name, national flag, border line with the indicated position as the territory / territorial sea) according to the pointed position (indicated position). .

表示装置30は、撮像装置10が連続的に取得したカメラ画像をユーザに掲示する装置である。表示装置30の一例は、図1に示すようなモニタである。但し、表示装置30は、図1に示したモニタの如く独立した装置でなく、例えば、カメラ付き携帯電話端末における表示部(表示制御部及びディスプレイ)のように、他の装置と一体化、若しくは、他の装置の一部を構成するものであってもよい。また、表示装置30は、ヘッドマウントディスプレイ(HMD)のような形態であってもよい。   The display device 30 is a device that posts camera images continuously acquired by the imaging device 10 to the user. An example of the display device 30 is a monitor as shown in FIG. However, the display device 30 is not an independent device such as the monitor shown in FIG. 1, but is integrated with other devices such as a display unit (display control unit and display) in a camera-equipped mobile phone terminal, or It may constitute a part of another device. Further, the display device 30 may be in the form of a head mounted display (HMD).

表示装置30としてモニタ(ディスプレイ)を用いる場合には、カメラ画像に、付加情報データベース90から入力された付加情報を、カメラ姿勢推定装置20から入力されたカメラ姿勢によって補正された位置に重畳表示する。また、表示部がシースルー形の表示装置30(例えば、シースルー型のHMD)を用いる場合には、カメラ画像を表示せず、視界に付加情報のみを表示してもよい。   When a monitor (display) is used as the display device 30, the additional information input from the additional information database 90 is superimposed and displayed on the camera image at the position corrected by the camera posture input from the camera posture estimation device 20. . When the display unit 30 uses a see-through display device 30 (for example, a see-through type HMD), only the additional information may be displayed in the field of view without displaying a camera image.

なお、カメラ付き携帯電話端末に搭載されているカメラモジュール及び表示部が、ARシステム1の撮像装置10及び表示装置30と成り得る旨を説明したが、例えば、携帯端末(ノートPC、携帯電話端末、携帯型ゲーム機)上で、ARシステム1全体を構成してもよい。   It has been described that the camera module and the display unit mounted on the camera-equipped mobile phone terminal can be the imaging device 10 and the display device 30 of the AR system 1, but for example, a mobile terminal (notebook PC, mobile phone terminal) The entire AR system 1 may be configured on a portable game machine).

(カメラ姿勢推定装置20の構成)
図2は、カメラ姿勢推定装置20の機能ブロック図の一例である。カメラ姿勢推定装置20は、図2に示すように、データベース部100、照合部200、及び、カメラ姿勢推定部300を備える。
(Configuration of Camera Posture Estimation Device 20)
FIG. 2 is an example of a functional block diagram of the camera posture estimation device 20. As shown in FIG. 2, the camera posture estimation device 20 includes a database unit 100, a collation unit 200, and a camera posture estimation unit 300.

データベース部100は、処理部110、特徴情報データベース120、及び、3次元座標データベース130から構成される。
特徴情報データベース120は、カメラ画像内の立体対象物(図1の例の場合、地球儀)の特徴情報(特徴点を含む情報)の座標(2次元ピクセル座標)を記憶する。
3次元座標データベース130は、立体対象物の3次元座標を記憶する。具体的には、3次元座標データベース130は、特徴情報データベース120に記憶された2次元ピクセル座標(カメラ画像内の立体対象物の特徴点を示す座標)に対応する、立体対象物の3次元座標(立体対象物の特徴点の3次元座標)を記憶する。
The database unit 100 includes a processing unit 110, a feature information database 120, and a three-dimensional coordinate database 130.
The feature information database 120 stores the coordinates (two-dimensional pixel coordinates) of feature information (information including feature points) of a three-dimensional object (a globe in the example of FIG. 1) in the camera image.
The three-dimensional coordinate database 130 stores the three-dimensional coordinates of the three-dimensional object. Specifically, the three-dimensional coordinate database 130 corresponds to the two-dimensional pixel coordinates (coordinates indicating the feature points of the three-dimensional object in the camera image) stored in the feature information database 120. (3D coordinates of feature points of a three-dimensional object) are stored.

処理部110は、種々の処理を実行する。例えば、処理部110は、立体対象物を撮像したカメラ画像から当該立体対象物の特徴点を検出し(特徴点検出手段)、当該特徴点の2次元ピクセル座標を特徴情報データベース120に記憶しておく。なお、処理部110は、例えば、Harrisコーナー検出器を用いて特徴点を検出する。また、例えば、処理部110は、立体対象物の特徴点の3次元座標を取得し(3次元座標取得手段)、2次元ピクセル座標に対応付けて、3次元座標データベース130に記憶しておく。また、処理部110は、特徴情報データベース120又は3次元座標データベース130に記憶されている情報を照合部230に提供する。
データベース部100の詳細については後述する。
The processing unit 110 executes various processes. For example, the processing unit 110 detects a feature point of the three-dimensional object from a camera image obtained by imaging the three-dimensional object (feature point detection unit), and stores the two-dimensional pixel coordinates of the feature point in the feature information database 120. deep. The processing unit 110 detects feature points using, for example, a Harris corner detector. Further, for example, the processing unit 110 acquires the three-dimensional coordinates of the feature points of the three-dimensional object (three-dimensional coordinate acquisition unit) and stores them in the three-dimensional coordinate database 130 in association with the two-dimensional pixel coordinates. In addition, the processing unit 110 provides information stored in the feature information database 120 or the three-dimensional coordinate database 130 to the collation unit 230.
Details of the database unit 100 will be described later.

照合部200は、特徴点検出部210、特徴量記述部220、及び、特徴量照合部230を備える。特徴点検出部210は、カメラ画像内の特徴点(立体対象物の特徴点を含む)を検出する。特徴点を検出した特徴点検出部210は、各特徴点の2次元ピクセル座標を特徴量記述部220に出力する。   The collation unit 200 includes a feature point detection unit 210, a feature amount description unit 220, and a feature amount collation unit 230. The feature point detection unit 210 detects feature points in the camera image (including feature points of the three-dimensional object). The feature point detection unit 210 that has detected the feature points outputs the two-dimensional pixel coordinates of each feature point to the feature amount description unit 220.

特徴量記述部220は、特徴点検出部210から取得した各特徴点における局所特徴量を計算する。局所特徴量を計算した特徴量記述部220は、計算結果を特徴量照合部230に出力する。また、特徴量記述部220は、特徴情報データベース120において記録されている特徴点について、局所特徴量を同様に計算し、例えば、特徴情報データベース120に記憶しておいてもよい(処理部110が当該処理を実行してもよい)。
なお、特徴量記述部220(又は処理部110)は、予め、データベース部100において記録されている特徴点の局所特徴量を計算し、データベース部100に記憶しておいてもよい。
The feature quantity description unit 220 calculates a local feature quantity at each feature point acquired from the feature point detection unit 210. The feature description unit 220 that has calculated the local feature outputs the calculation result to the feature verification unit 230. In addition, the feature quantity description unit 220 may calculate the local feature quantity in the same manner for the feature points recorded in the feature information database 120, and may store the local feature quantity in the feature information database 120, for example (the processing unit 110 may store the feature points). The process may be executed).
Note that the feature description unit 220 (or the processing unit 110) may calculate the local feature of feature points recorded in the database unit 100 in advance and store it in the database unit 100.

特徴量照合部230は、特徴量記述部220から取得した局所特徴量(即ち、カメラ画像から得られた局所特徴量)と、特徴情報データベース120に記録されている局所特徴量とを比較し、カメラ画像上の特徴点と特徴情報データベース120上の特徴点の照合計算を行って、カメラ画像上の特徴点と特徴情報データベース120上の特徴点をマッチングさせる。例えば、特徴量照合部230は、個々の特徴点について、SIFTやSURF等の局所特徴量を計算し、マッチングさせる特徴点として、局所特徴量間のユークリッド距離dが最小となる特徴点を導出する。   The feature amount matching unit 230 compares the local feature amount acquired from the feature amount description unit 220 (that is, the local feature amount obtained from the camera image) with the local feature amount recorded in the feature information database 120, The feature point on the camera image and the feature point on the feature information database 120 are collated to match the feature point on the camera image with the feature point on the feature information database 120. For example, the feature amount matching unit 230 calculates a local feature amount such as SIFT or SURF for each feature point, and derives a feature point having a minimum Euclidean distance d between the local feature amounts as a feature point to be matched. .

特徴量照合部230は、カメラ画像上の特徴点と特徴情報データベース120上の特徴点とのマッチングが完了した場合、マッチの一方側の特徴点として、カメラ画像上における、マッチさせた特徴点の2次元ピクセル座標を取得するとともに、他方側の特徴点である特徴情報データベース120上の特徴点に対応付けられている3次元座標を3次元座標データベース130から取得する。
特徴量照合部230は、照合結果として、上述の如く取得した2次元ピクセル座標と3次元座標のマッチ(組)をカメラ姿勢推定部300に出力する。
When the matching between the feature point on the camera image and the feature point on the feature information database 120 is completed, the feature amount matching unit 230 uses the matched feature point on the camera image as the feature point on one side of the match. The two-dimensional pixel coordinates are acquired, and the three-dimensional coordinates associated with the feature points on the feature information database 120 that are the other-side feature points are acquired from the three-dimensional coordinate database 130.
The feature amount matching unit 230 outputs a match (set) between the two-dimensional pixel coordinates and the three-dimensional coordinates acquired as described above to the camera posture estimation unit 300 as a matching result.

カメラ姿勢推定部300は、照合部200から取得した照合結果(3次元座標と2次元座標のマッチ)の関係を説明するカメラ姿勢(換言すれば、照合結果と整合するカメラ姿勢)を推定する。
なお、カメラ姿勢推定部300の詳細については後述する。
The camera posture estimation unit 300 estimates a camera posture (in other words, a camera posture that matches the collation result) that explains the relationship between the collation results (a match between the three-dimensional coordinates and the two-dimensional coordinates) acquired from the collation unit 200.
Details of the camera posture estimation unit 300 will be described later.

上記構成によって、カメラ姿勢推定装置20は、カメラ画像からカメラ姿勢を推定する。続いて、データベース部100、及び、カメラ姿勢推定部300について説明する。   With the above configuration, the camera posture estimation device 20 estimates the camera posture from the camera image. Next, the database unit 100 and the camera posture estimation unit 300 will be described.

(データベース部100)
3次元座標データベース130は、特徴情報データベース120に記憶された2次元ピクセル座標(カメラ画像内の立体対象物の特徴点を示す座標)に対応する、立体対象物の3次元座標(立体対象物の特徴点の3次元座標)を記憶するが、処理部110は、立体対象物の幾何情報を用いて、立体対象物の特徴点の2次元ピクセル座標に対応する、立体対象物の3次元座標を取得し(3次元座標取得手段)、3次元座標データベース130に記憶しておく。立体対象物の幾何情報とは、立体対象物の方程式である。以下、立体対象物の方程式を「数式モデル」とも称する。
(Database unit 100)
The three-dimensional coordinate database 130 corresponds to the two-dimensional pixel coordinates (coordinates indicating the feature points of the three-dimensional object in the camera image) stored in the feature information database 120 (three-dimensional coordinates of the three-dimensional object). The processing unit 110 uses the geometric information of the three-dimensional object to calculate the three-dimensional coordinates of the three-dimensional object corresponding to the two-dimensional pixel coordinates of the feature point of the three-dimensional object. Acquired (three-dimensional coordinate acquisition means) and stored in the three-dimensional coordinate database 130. The geometric information of the three-dimensional object is an equation of the three-dimensional object. Hereinafter, the equation of the three-dimensional object is also referred to as a “mathematical model”.

即ち、処理部110は、カメラ画像から立体対象物の特徴点を検出し(特徴点検出手段)、特徴点の2次元ピクセル座標を特徴情報データベース120に記憶するとともに、数式モデルを用いて、特徴点の2次元ピクセル座標に対応する3次元座標を取得し(3次元座標取得手段)、3次元座標データベース130に記憶する。
換言すれば、処理部110は、上述のようにして、特徴点のマッチングにおいて参照されるデータベース(3次元座標データベース130、特徴情報データベース120)を構築(生成)しておく。
In other words, the processing unit 110 detects feature points of the three-dimensional object from the camera image (feature point detection means), stores the two-dimensional pixel coordinates of the feature points in the feature information database 120, and uses the mathematical model to store the feature points. Three-dimensional coordinates corresponding to the two-dimensional pixel coordinates of the point are acquired (three-dimensional coordinate acquisition means) and stored in the three-dimensional coordinate database 130.
In other words, the processing unit 110 constructs (generates) a database (three-dimensional coordinate database 130, feature information database 120) referred to in feature point matching as described above.

ピンホールカメラモデルにおける透視投影は下記式(1)によって表される。   The perspective projection in the pinhole camera model is expressed by the following equation (1).

Figure 2013092407
Figure 2013092407

図3は、数式モデルを説明するための説明図である。球状立体物の数式モデルは、下記式(2)によって表される。換言すれば、下記式(2)は、球状立体物の方程式である。但し、下記式(2)において、pは球上の点、cは球の中心、rは球の半径である(図3(a)参照)。   FIG. 3 is an explanatory diagram for explaining the mathematical model. The mathematical model of the spherical solid object is represented by the following formula (2). In other words, the following equation (2) is an equation of a spherical solid object. In the following formula (2), p is a point on the sphere, c is the center of the sphere, and r is the radius of the sphere (see FIG. 3A).

Figure 2013092407
Figure 2013092407

焦点と画像平面内の特徴点を通過する直線は、例えば、下記式(3)によって表される。換言すれば、下記式(3)は、上記直線の方程式である。但し、下記式(3)において、qは直線上の点、sは焦点、vは直線の方向ベクトルである。   A straight line passing through the focal point and the feature point in the image plane is expressed by, for example, the following formula (3). In other words, the following equation (3) is the above linear equation. In the following formula (3), q is a point on a straight line, s is a focal point, and v is a direction vector of the straight line.

Figure 2013092407
Figure 2013092407

球状立体物の特徴点の3次元座標は、上記式(2)の数式モデル、上記式(3)の直線(焦点と画像平面内の特徴点を通過する直線とする)の交点の座標として得ることができる。換言すれば、球状立体物の方程式と、焦点と画像平面内の特徴点を通過する直線の方程式とから交点の座標を取得することができる。
具体的には、処理部110は、上記式(2)によって表される球状立体物の数式モデルのパラメータ(即ち、球状立体物の方程式のパラメータ)である中心c、上記式(3)によって表される直線のパラメータ(即ち、焦点と画像平面内の特徴点を通過する直線の方程式のパラメータ)である焦点s、方向ベクトルvを求め、p=qとし、p(又はq)を交点の座標として計算し、球状立体物の特徴点の3次元座標として取得する(3次元座標取得手段)。
The three-dimensional coordinates of the feature points of the spherical solid object are obtained as the coordinates of the intersection of the mathematical model of the above formula (2) and the straight line of the above formula (3) (the straight line passing through the focus and the feature point in the image plane). be able to. In other words, the coordinates of the intersection can be acquired from the equation of the spherical solid object and the equation of the straight line passing through the focal point and the feature point in the image plane.
Specifically, the processing unit 110 represents the center c, which is a parameter of the mathematical model of the spherical solid object represented by the above equation (2) (that is, the parameter of the equation of the spherical solid object), and the above equation (3). A focal point s and a direction vector v, which are parameters of a straight line to be performed (that is, parameters of a linear equation passing through a focal point and a feature point in an image plane), p = q, and p (or q) is a coordinate of an intersection And obtained as the three-dimensional coordinates of the feature points of the spherical three-dimensional object (three-dimensional coordinate acquisition means).

処理部110は、カメラの内部パラメータ及び立体対象物のカメラ画像を用いて、数式モデルのパラメータ、及び、直線のパラメータを算出する(パラメータ算出手段)。球状立体物の場合、処理部110は、上記式(2)の球状立体物の数式モデルのパラメータ(中心c)、及び、上記式(3)の直線のパラメータ(焦点s、方向ベクトルv)を算出する。   The processing unit 110 calculates mathematical model parameters and straight line parameters using the internal parameters of the camera and the camera image of the three-dimensional object (parameter calculation means). In the case of a spherical solid object, the processing unit 110 uses the parameters (center c) of the mathematical model of the spherical solid object of the above formula (2) and the straight line parameters (focal point s, direction vector v) of the above formula (3). calculate.

具体的には、球状立体物の撮像時における、球状立体物に対するカメラ姿勢W=[R、t](原点は球モデルの中心cとする)が予め与えられている場合、下記式(4)〜(7)が成立するため、処理部110は、上述のパラメータ(中心c、焦点s、方向ベクトルv)を算出することができる。   Specifically, when the camera posture W = [R, t] (the origin is the center c of the sphere model) with respect to the spherical three-dimensional object at the time of imaging the spherical three-dimensional object, the following equation (4) Since (7) is established, the processing unit 110 can calculate the above parameters (center c, focus s, direction vector v).

Figure 2013092407
Figure 2013092407

処理部110が特徴点の2次元ピクセル座標に対応する3次元座標を予めオフラインで計算し、データベースに登録しておくような場合、カメラ画像からカメラ姿勢を理想的に取得することができる。   In the case where the processing unit 110 previously calculates the three-dimensional coordinates corresponding to the two-dimensional pixel coordinates of the feature points offline and registers them in the database, the camera posture can be ideally acquired from the camera image.

カメラ姿勢をフレーム毎に追跡するような場合、前フレームの特徴点とカメラ姿勢の推定値を利用して3次元座標を取得し、データベースを更新していくことができる。   When the camera posture is tracked for each frame, the database can be updated by acquiring three-dimensional coordinates using the feature point of the previous frame and the estimated value of the camera posture.

また、カメラ姿勢が与えられていない場合には、カメラ画像内の立体対象物のピクセル座標(球の場合は楕円の中心(x0,y0)と長径2a)を取得することで、数式モデルのパラメータ、及び、直線のパラメータを求めることが可能である。   When the camera posture is not given, the pixel coordinates of the three-dimensional object in the camera image (in the case of a sphere, the center of the ellipse (x0, y0) and the major axis 2a) are obtained, thereby obtaining the parameters of the mathematical model. , And straight line parameters can be obtained.

例えば、cを原点とし、カメラの焦点距離と特徴点の2次元ピクセル座標から、上記式(7)のv’を求める。立体対象物がX軸、Y軸、Z軸に対し、夫々、θ、φ、ψだけ回転している場合、回転行列Rは、下記式(8)によって表現されるため、下記式(8)と上記式(7)とから方向ベクトルvを求める。   For example, with c as the origin, v ′ in the above equation (7) is obtained from the focal length of the camera and the two-dimensional pixel coordinates of the feature point. When the three-dimensional object is rotated by θ, φ, and ψ with respect to the X axis, the Y axis, and the Z axis, the rotation matrix R is expressed by the following expression (8). And the direction vector v is obtained from the above equation (7).

Figure 2013092407
Figure 2013092407

次に、カメラ画像内の球の位置と投影された球(楕円)の長径2a、回転行列R、球の半径rから球の中心と焦点間のベクトルdとその長さを計算し、焦点sを求める。   Next, a vector d between the center and the focal point of the sphere and its length are calculated from the position of the sphere in the camera image, the major axis 2a of the projected sphere (ellipse), the rotation matrix R, and the radius r of the sphere, and the focal point s. Ask for.

また、処理部110は、複数個の交点が算出された場合、複数個の交点のうちカメラの焦点に近い一の交点を3次元座標として取得する(3次元座標取得手段)。これにより、立体対象物の特徴点の2次元ピクセル座標に対し、正しい、立体対象物の特徴点の3次元座標を対応付けることができる。   Further, when a plurality of intersection points are calculated, the processing unit 110 acquires one intersection point close to the camera focus among the plurality of intersection points as a three-dimensional coordinate (three-dimensional coordinate acquisition unit). Thereby, the correct three-dimensional coordinate of the feature point of the three-dimensional object can be associated with the two-dimensional pixel coordinate of the feature point of the three-dimensional object.

また、処理部110は、一の特徴点を通過する直線を用いたときに交点が算出されなかった場合、当該特徴点を特徴情報データベース120から削除してもよい(削除手段)。つまり、交点が得られない場合、特徴点が立体対象物にないことを意味するため、特徴情報データベース120から削除してもよい。   Further, the processing unit 110 may delete the feature point from the feature information database 120 when the intersection is not calculated when using a straight line passing through one feature point (deleting unit). That is, when no intersection point is obtained, it means that there is no feature point in the three-dimensional object, and therefore it may be deleted from the feature information database 120.

また、処理部110は、交点を取得する方程式が2次方程式の場合、判別式(下記式(9)参照)を用いて、特徴点が立体対象物上の点であるか否かを判定してもよい(3次元座標取得手段)。   In addition, when the equation for obtaining the intersection is a quadratic equation, the processing unit 110 determines whether the feature point is a point on the three-dimensional object using a discriminant (see the following equation (9)). (Three-dimensional coordinate acquisition means).

また、処理部110は、立体対象物の曲面上の位置であってカメラの焦点の側から見て周縁に位置を特徴点の3次元座標として取得しないようにしてもよい(無視してもよい)(3次元座標取得手段)。   Further, the processing unit 110 may not acquire the position on the curved surface of the three-dimensional object as the three-dimensional coordinates of the feature point at the periphery as viewed from the focal point of the camera (may be ignored). (3D coordinate acquisition means).

一般に曲面の法線と直線の交わる角度が大きい3次元座標値は精度が悪くなるため、例えば球状立体物の場合、中心から離れた輪郭周辺の2次元ピクセル座標値に対応する3次元座標は誤差が大きくなる。従って、処理部110は、誤差が大きくなるような3次元座標については、3次元座標データベース130に記憶しないようにして、最終的なカメラ姿勢推定精度を向上させるようにしてもよい。   In general, since a three-dimensional coordinate value having a large angle at which a normal line of a curved surface and a straight line have a large accuracy deteriorates, for example, in the case of a spherical three-dimensional object, a three-dimensional coordinate corresponding to a two-dimensional pixel coordinate value around a contour away from the center is an error. Becomes larger. Therefore, the processing unit 110 may improve the final camera posture estimation accuracy by not storing the three-dimensional coordinates that increase the error in the three-dimensional coordinate database 130.

具体的には、処理部110は、立体対象物の曲面の法線と直線との間の角度(曲面の法線と直線の交わる角度)が大きい3次元座標値をマスキングし(即ち、交点として算出されないようにし)、特徴点の3次元座標として取得しないようにする。   Specifically, the processing unit 110 masks a three-dimensional coordinate value having a large angle between the normal line and the straight line of the curved surface of the three-dimensional object (the angle at which the normal line of the curved surface intersects the straight line) (that is, as an intersection point). It is not calculated) and is not acquired as the three-dimensional coordinates of the feature points.

また、処理部110は、交点の座標計算の式が2次方程式の場合、判別式の閾値を変更し、簡便に、上述のマスキングを実現してもよい。   Further, when the coordinate calculation formula for the intersection is a quadratic equation, the processing unit 110 may change the threshold value of the discriminant and simply realize the above-described masking.

下記式(9)は、球の場合の判別式の一例である。

Figure 2013092407
The following equation (9) is an example of a discriminant for a sphere.
Figure 2013092407

上記式(9)において、Dの閾値をαrとし、0<α<1と変化させることで球面の輪郭に近い3次元座標値を閾値以下として除外する。つまり、処理部110は、立体対象物上に交点が存在するか否かを判定する判定式(球の場合、上記式(9))の閾値を変化させることによって、立体対象物の曲面上の位置であってカメラの焦点の側から見て周縁の位置を3次元座標として取得しないようにしている(3次元座標取得手段)。 In the formula (9), the threshold value of D and αr 2, 0 <α <excluded as a threshold below the 3-dimensional coordinate values close to the contour of the sphere by changing 1. That is, the processing unit 110 changes the threshold value of a determination formula (in the case of a sphere, the above formula (9)) for determining whether or not an intersection exists on the three-dimensional object, thereby changing the value on the curved surface of the three-dimensional object. The position of the peripheral edge when viewed from the focal point of the camera is not acquired as a three-dimensional coordinate (three-dimensional coordinate acquisition means).

カメラ姿勢推定装置20における処理部110は、このようにして取得した3次元座標値を3次元座標データベース130に登録する。   The processing unit 110 in the camera posture estimation device 20 registers the three-dimensional coordinate value acquired in this way in the three-dimensional coordinate database 130.

なお、表面の一部又は全部が曲面である立体対象物の一例として、球状立体物の例を説明したが、表面の一部又は全部が曲面である他の立体対象物についても、夫々の数式モデルを用いて、球状立体物と同様、夫々の立体対象物の3次元座標を取得することができる。   Although an example of a spherical solid object has been described as an example of a three-dimensional object whose surface is partly or entirely curved, each mathematical expression can also be applied to other three-dimensional objects whose surface is partly or entirely curved. Using the model, the three-dimensional coordinates of each three-dimensional object can be acquired in the same manner as the spherical three-dimensional object.

例えば、円柱状立体物の場合、その側面の数式モデルは、下記式(10)によって表され、球状立体物と同様の方法を用いて3次元座標を取得することができる(図3(b)参照)。   For example, in the case of a cylindrical solid object, the mathematical model of the side surface is represented by the following expression (10), and three-dimensional coordinates can be obtained using the same method as that of the spherical solid object (FIG. 3B). reference).

Figure 2013092407
Figure 2013092407

なお、円柱状立体物の軸をy軸に平行とした場合、上記式(10)におけるAは、下記式(11)によって表される。   When the axis of the cylindrical solid object is parallel to the y-axis, A in the above formula (10) is represented by the following formula (11).

Figure 2013092407
Figure 2013092407

また例えば、円錐状立体物の場合、その側面の数式モデルは、下記式(12)によって表され、球状立体物と同様の方法を用いて3次元座標を取得することができる   Further, for example, in the case of a conical solid object, the mathematical model of the side surface is represented by the following expression (12), and three-dimensional coordinates can be obtained using the same method as that of the spherical solid object.

Figure 2013092407
Figure 2013092407

なお、円錐状立体物の軸がy軸に平行とした場合、上記式(12)におけるAは、下記式(13)によって表される。   When the axis of the conical solid object is parallel to the y-axis, A in the above formula (12) is represented by the following formula (13).

Figure 2013092407
Figure 2013092407

以上のように、データベース部100は、数式モデルによって表現可能な、表面の一部又は全部が曲面である立体対象物を含む、あらゆる立体対象物について、夫々の数式モデルを利用して、精密な3次元座標を取得することができる。特に、球、円柱、円錐、円環体のような幾何形状で構成される立体対象物(簡潔な数式モデルによって表現可能な立体対象物)の場合、処理の負荷も少なく、容易に、精密な3次元座標を取得することができる。   As described above, the database unit 100 uses each mathematical model to accurately represent all three-dimensional objects that can be expressed by a mathematical model, including solid objects whose surface is partly or entirely curved. Three-dimensional coordinates can be acquired. In particular, in the case of a three-dimensional object composed of a geometric shape such as a sphere, cylinder, cone, or torus (a three-dimensional object that can be expressed by a simple mathematical model), the processing load is small, and it is easy and precise. Three-dimensional coordinates can be acquired.

なお、データベース部100は、数式モデルに加え、3次元ポリゴンモデルを利用して3次元座標を取得するようにしてもよい。例えば、データベース部100は、立体対象物の平面部分については3次元ポリゴンモデルを利用し、曲面部分については数式モデルを利用し、3次元座標を取得してもよい。既存の3次元ポリゴンモデルを利用した3次元座標の取得方法と組み合わせることで、曲面と平面の両方含む複雑な形状の立体対象物であっても、カメラ姿勢を効率的に推定することが可能になる。   The database unit 100 may acquire the three-dimensional coordinates using a three-dimensional polygon model in addition to the mathematical model. For example, the database unit 100 may acquire a three-dimensional coordinate by using a three-dimensional polygon model for a plane portion of a three-dimensional object and using a mathematical model for a curved surface portion. Combined with a 3D coordinate acquisition method using an existing 3D polygon model, it is possible to estimate the camera posture efficiently even for 3D objects with complicated shapes including both curved and flat surfaces. Become.

つまり、3次元ポリゴンモデルを利用した場合、2次元ピクセル座標がどのポリゴンに対応するか計算する必要があるが、多くのポリゴンによって表現しなければならない曲面の部分について数式モデルを利用することによって、曲面の部分については上述の計算処理が不要となるため、負荷を軽減することができる。   In other words, when a 3D polygon model is used, it is necessary to calculate which polygon the 2D pixel coordinates correspond to, but by using a mathematical model for a portion of a curved surface that must be expressed by many polygons, Since the above-described calculation process is not necessary for the curved surface portion, the load can be reduced.

(カメラ姿勢推定部300)
カメラ姿勢推定部300は、照合部200から入力された3次元座標と2次元座標のマッチから3次元座標と2次元座標の関係を説明するカメラ姿勢を推定する。
具体的には、カメラ姿勢推定部300は、照合部200から入力された3次元座標Xと2次元ピクセル座標xのマッチと、カメラの内部パラメータAとを用いて、カメラ姿勢Wを推定する。例えば、カメラ姿勢推定部300は、下記式(14)の再投影誤差eを最小にするWを最小二乗アルゴリズムによって推定する。
(Camera posture estimation unit 300)
The camera posture estimation unit 300 estimates a camera posture that explains the relationship between the three-dimensional coordinates and the two-dimensional coordinates from the match between the three-dimensional coordinates and the two-dimensional coordinates input from the collation unit 200.
Specifically, the camera posture estimation unit 300 estimates the camera posture W using the match between the three-dimensional coordinate X and the two-dimensional pixel coordinate x input from the collation unit 200 and the internal parameter A of the camera. For example, the camera posture estimation unit 300 estimates W that minimizes the reprojection error e in the following equation (14) by a least square algorithm.

Figure 2013092407
Figure 2013092407

以上のように、カメラ姿勢推定装置20によれば、立体対象物が曲面を含む場合であっても、カメラ姿勢の推定精度を向上させるとともに、処理負荷を軽減させることができる。   As described above, according to the camera posture estimation apparatus 20, even when the three-dimensional object includes a curved surface, the estimation accuracy of the camera posture can be improved and the processing load can be reduced.

なお、カメラ姿勢推定装置20は、図2に示すように、データベース部100、照合部200、及び、カメラ姿勢推定部300を備えるが、各部(データベース部100、照合部200、カメラ姿勢推定部300)を独立した装置(即ち、別体)としてもよい。例えば、データベース部100は、カメラ姿勢推定装置20から独立させた別体としてもよい。   As shown in FIG. 2, the camera posture estimation device 20 includes a database unit 100, a collation unit 200, and a camera posture estimation unit 300, but each unit (database unit 100, collation unit 200, camera posture estimation unit 300). ) May be an independent device (ie, a separate unit). For example, the database unit 100 may be a separate body independent of the camera posture estimation device 20.

なお、データベース部100内の処理部110は、上述の如く、処理機能(特徴点検出手段、3次元座標取得手段、パラメータ算出手段、削除手段)を有し、カメラによって撮像された立体対象物のカメラ画像から当該カメラのカメラ姿勢を推定する際に用いられる立体対象物の3次元座標を取得する。以下では、別体としたデータベース部100の装置名を3次元座標取得装置と称する。   Note that the processing unit 110 in the database unit 100 has processing functions (feature point detection means, three-dimensional coordinate acquisition means, parameter calculation means, and deletion means) as described above, and the three-dimensional object captured by the camera. The three-dimensional coordinates of the three-dimensional object used when estimating the camera posture of the camera from the camera image are acquired. Hereinafter, the device name of the database unit 100 as a separate body is referred to as a three-dimensional coordinate acquisition device.

図4は、本発明の実施形態である3次元座標取得装置100の機能ブロック図の一例である。3次元座標取得装置100は、カメラ姿勢を推定する際に用いられる立体対象物の3次元座標を取得する。3次元座標取得装置100は、図4に示すように、処理部110、特徴情報データベース120、3次元座標データベース130、数式モデル記憶部140を備える。処理部110は、特徴点検出部111、パラメータ算出部112、3次元座標取得部113、削除部114、及び、データ送信部119を備える。なお、特徴情報データベース120、3次元座標データベース130については、既に説明したため、説明を省略する。   FIG. 4 is an example of a functional block diagram of the three-dimensional coordinate acquisition apparatus 100 according to the embodiment of the present invention. The three-dimensional coordinate acquisition apparatus 100 acquires the three-dimensional coordinates of the three-dimensional object used when estimating the camera posture. As illustrated in FIG. 4, the three-dimensional coordinate acquisition apparatus 100 includes a processing unit 110, a feature information database 120, a three-dimensional coordinate database 130, and a mathematical model storage unit 140. The processing unit 110 includes a feature point detection unit 111, a parameter calculation unit 112, a three-dimensional coordinate acquisition unit 113, a deletion unit 114, and a data transmission unit 119. Since the feature information database 120 and the three-dimensional coordinate database 130 have already been described, description thereof will be omitted.

数式モデル記憶部140は、立体対象物の数式モデル(即ち、立体対象物の方程式)を記憶する。なお、本実施形態においては、数式モデルを予め取得し記憶しているが、3次元座標を取得する都度、数式モデルを取得してもよく、3次元座標を取得する都度、数式モデルを取得する場合には、3次元座標取得装置100は、数式モデル記憶部140を備える必要はない。   The mathematical model storage unit 140 stores a mathematical model of a three-dimensional object (that is, an equation of the three-dimensional object). In this embodiment, the mathematical model is acquired and stored in advance. However, the mathematical model may be acquired every time the three-dimensional coordinates are acquired, and the mathematical model is acquired every time the three-dimensional coordinates are acquired. In some cases, the three-dimensional coordinate acquisition apparatus 100 does not need to include the mathematical formula model storage unit 140.

特徴点検出部111は、カメラ画像内の立体対象物の特徴点を検出する。具体的には、特徴点検出部111は、カメラ画像から、当該画像平面内の特徴点を検出する。パラメータ算出部112は、カメラの内部パラメータ及び立体対象物のカメラ画像を用いて、カメラの焦点及び前記画像平面内の特徴点を通過する直線のパラメータ、及び、立体対象物の数式モデルのパラメータを算出する。   The feature point detection unit 111 detects feature points of the three-dimensional object in the camera image. Specifically, the feature point detection unit 111 detects a feature point in the image plane from the camera image. The parameter calculation unit 112 uses the internal parameters of the camera and the camera image of the three-dimensional object, and calculates the parameters of the straight line passing through the focal point of the camera and the feature point in the image plane, and the parameters of the mathematical model of the three-dimensional object. calculate.

3次元座標取得部113は、上述の直線の方程式と、立体対象物の数式モデル(立体対象物の方程式)とから、直線と立体対象物との交点を算出し、特徴点の3次元座標として取得する。なお、3次元座標取得部113は、複数個の交点が算出された場合、複数個の交点のうちカメラの焦点に近い一の交点を3次元座標として取得する。また、3次元座標取得部113は、交点を取得する方程式が2次方程式の場合、立体対象物上に交点が存在するか否かを判定する判定式(例えば、球の場合、上記式(9)を用いて、特徴点が立体対象物上の点であるか否かを判定する。また、3次元座標取得部113は、立体対象物の曲面部分については、数式モデルを利用して特徴点の3次元座標を取得する一方、立体対象物の平面部分については3次元ポリゴンモデルを利用して特徴点の3次元座標を取得してもよい。   The three-dimensional coordinate acquisition unit 113 calculates the intersection of the straight line and the three-dimensional object from the above-described straight line equation and the mathematical model of the three-dimensional object (three-dimensional object equation), and uses it as the three-dimensional coordinates of the feature point. get. Note that, when a plurality of intersection points are calculated, the three-dimensional coordinate acquisition unit 113 acquires one intersection point close to the camera focus among the plurality of intersection points as a three-dimensional coordinate. In addition, when the equation for acquiring the intersection is a quadratic equation, the three-dimensional coordinate acquisition unit 113 determines whether or not the intersection exists on the three-dimensional object (for example, in the case of a sphere, the above equation (9 The three-dimensional coordinate acquisition unit 113 uses the mathematical model for the curved surface portion of the three-dimensional object. On the other hand, for the plane portion of the three-dimensional object, the three-dimensional coordinates of the feature points may be acquired using a three-dimensional polygon model.

また、3次元座標取得部113は、立体対象物の曲面上の位置であってカメラの焦点の側から見て周縁の位置を特徴点の3次元座標として取得しないようにしてもよい。具体的には、3次元座標取得部113は、上述の判定式の閾値を変化させることによって、上述の位置を3次元座標として取得しないようにしてもよい。   The three-dimensional coordinate acquisition unit 113 may not acquire the position of the peripheral edge as viewed from the focal point of the camera as the three-dimensional coordinates of the feature point on the curved surface of the three-dimensional object. Specifically, the three-dimensional coordinate acquisition unit 113 may not acquire the above-described position as the three-dimensional coordinate by changing the threshold value of the above-described determination formula.

削除部114は、一の特徴点を通過する直線から交点が算出されなかった場合、当該特徴点を特徴情報データベース120から削除する。   When the intersection is not calculated from a straight line passing through one feature point, the deletion unit 114 deletes the feature point from the feature information database 120.

送受信部119は、上述のように構築したデータベース(特徴情報データベース120、3次元座標データベース130)内の情報を、例えば、要求に応じて、カメラ姿勢推定装置(データベース部100を具備しないカメラ姿勢推定装置20)に送信する。   The transmission / reception unit 119 uses the information in the database (the feature information database 120, the three-dimensional coordinate database 130) constructed as described above, for example, in response to a request, as a camera posture estimation device (camera posture estimation without the database unit 100). Device 20).

以上のように、3次元座標取得装置100は、数式モデルによって表現可能な、表面の一部又は全部が曲面である立体対象物を含む、あらゆる立体対象物について、夫々の数式モデルを利用して、精密な3次元座標を取得することができる。特に、球、円柱、円錐、円環体のような幾何形状で構成される立体対象物の場合、処理の負荷も少なく、容易に、精密な3次元座標を取得することができる。   As described above, the three-dimensional coordinate acquisition apparatus 100 uses each mathematical model for any three-dimensional object that can be represented by a mathematical model and includes a solid object whose surface is partially or entirely curved. Accurate three-dimensional coordinates can be acquired. In particular, in the case of a three-dimensional object configured by a geometric shape such as a sphere, a cylinder, a cone, or a torus, the processing load is small, and precise three-dimensional coordinates can be easily acquired.

なお、本発明の一実施形態によるカメラ姿勢推定装置20の各処理を実行するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、当該記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、本発明の一実施形態によるカメラ姿勢推定装置20に係る処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものであってもよい。また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。   Note that a program for executing each process of the camera posture estimation apparatus 20 according to the embodiment of the present invention is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by a computer system. By executing, the processing related to the camera posture estimation apparatus 20 according to the embodiment of the present invention may be performed. Here, the “computer system” may include an OS and hardware such as peripheral devices. Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time. The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。   The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to this embodiment, and includes designs and the like that do not depart from the gist of the present invention.

1…ARシステム 10…撮像装置 20…カメラ姿勢推定装置 30…表示装置 90…付加情報データベース 100…データベース部(3次元座標取得装置) 110…処理部 111…特徴点検出部 112…パラメータ算出部 113…3次元座標取得部 114…削除部 119…データ送信部 120…特徴情報データベース 130…3次元座標データベース 200…照合部 210…特徴点検出部 220…特徴量記述部 230…特徴量照合部 300…カメラ姿勢推定部 DESCRIPTION OF SYMBOLS 1 ... AR system 10 ... Imaging device 20 ... Camera posture estimation apparatus 30 ... Display apparatus 90 ... Additional information database 100 ... Database part (three-dimensional coordinate acquisition apparatus) 110 ... Processing part 111 ... Feature point detection part 112 ... Parameter calculation part 113 ... 3D coordinate acquisition unit 114 ... Deletion unit 119 ... Data transmission unit 120 ... Feature information database 130 ... 3D coordinate database 200 ... Collation unit 210 ... Feature point detection unit 220 ... Feature quantity description unit 230 ... Feature quantity collation unit 300 ... Camera posture estimation unit

Claims (12)

カメラによって撮像された立体対象物の撮像画像から当該カメラのカメラ姿勢を推定する際に用いられる前記立体対象物の3次元座標を取得する3次元座標取得装置であって、
前記撮像画像から、画像平面内の特徴点を検出する特徴点検出手段と、
前記カメラの焦点及び前記画像平面内の特徴点を通過する直線の方程式と、前記立体対象物の方程式とから、前記直線と前記立体対象物との交点を算出し、前記特徴点の3次元座標として取得する3次元座標取得手段と
を備えることを特徴とする3次元座標取得装置。
A three-dimensional coordinate acquisition apparatus that acquires the three-dimensional coordinates of the three-dimensional object used when estimating the camera posture of the three-dimensional object from a captured image of the three-dimensional object captured by the camera,
Feature point detection means for detecting a feature point in the image plane from the captured image;
The intersection of the straight line and the three-dimensional object is calculated from the equation of a straight line passing through the focal point of the camera and the feature point in the image plane and the equation of the three-dimensional object, and the three-dimensional coordinates of the feature point A three-dimensional coordinate acquisition device, comprising:
前記カメラの内部パラメータ及び前記立体対象物の撮像画像を用いて、前記直線の方程式のパラメータ及び前記立体対象物の方程式のパラメータを算出するパラメータ算出手段
を更に備えることを特徴とする請求項1に記載の3次元座標取得装置。
2. The apparatus according to claim 1, further comprising: a parameter calculating unit that calculates a parameter of the straight line equation and a parameter of the three-dimensional object equation using an internal parameter of the camera and a captured image of the three-dimensional object. The three-dimensional coordinate acquisition apparatus described.
前記3次元座標取得手段は、
複数個の前記交点が算出された場合、複数個の前記交点のうち前記カメラの焦点に近い一の交点を前記3次元座標として取得する
ことを特徴とする請求項1又は請求項2に記載の3次元座標取得装置。
The three-dimensional coordinate acquisition means includes
3. The intersection according to claim 1, wherein when a plurality of intersection points are calculated, one intersection point close to the focal point of the camera among the plurality of intersection points is acquired as the three-dimensional coordinates. 3D coordinate acquisition device.
前記立体対象物の特徴点を記憶する特徴情報データベースと、
一の前記特徴点を通過する直線から前記交点が算出されなかった場合、当該特徴点を前記特徴情報データベースから削除する削除手段と
を更に備えることを特徴とする請求項1乃至請求項3の何れか1項に記載の3次元座標取得装置。
A feature information database for storing feature points of the three-dimensional object;
4. The apparatus according to claim 1, further comprising: a deletion unit that deletes the feature point from the feature information database when the intersection is not calculated from a straight line passing through the one feature point. The three-dimensional coordinate acquisition apparatus according to item 1.
前記3次元座標取得手段は、
前記交点を取得する方程式が2次方程式の場合、判別式を用いて、前記特徴点が立体対象物上の点であるか否かを判定する
ことを特徴とする請求項1乃至請求項4の何れか1項に記載の3次元座標取得装置。
The three-dimensional coordinate acquisition means includes
When the equation for acquiring the intersection is a quadratic equation, it is determined whether or not the feature point is a point on the three-dimensional object using a discriminant. The three-dimensional coordinate acquisition apparatus according to any one of the above.
前記立体対象物は、
表面の一部又は全部が曲面である
ことを特徴とする請求項1乃至請求項5の何れか1項に記載の3次元座標取得装置。
The three-dimensional object is
6. The three-dimensional coordinate acquisition apparatus according to claim 1, wherein a part or all of the surface is a curved surface.
前記立体対象物は、
表面の一部が曲面であって、
前記3次元座標取得手段は、
前記立体対象物の曲面部分については、前記立体対象物の方程式を利用して前記特徴点の3次元座標を取得する一方、前記立体対象物の平面部分については3次元ポリゴンモデルを利用して前記特徴点の3次元座標を取得する
ことを特徴とする請求項1乃至請求項5の何れか1項に記載の3次元座標取得装置。
The three-dimensional object is
A part of the surface is curved,
The three-dimensional coordinate acquisition means includes
For the curved surface portion of the three-dimensional object, the three-dimensional coordinates of the feature points are obtained using the equation of the three-dimensional object, while the three-dimensional polygon model is used for the planar portion of the three-dimensional object. The three-dimensional coordinate acquisition apparatus according to any one of claims 1 to 5, wherein the three-dimensional coordinates of the feature point are acquired.
前記3次元座標取得手段は、
前記立体対象物の曲面上の位置であって前記カメラの焦点の側から見て周縁の位置を前記特徴点の3次元座標として取得しないようにする
ことを特徴とする請求項6又は請求項7に記載の3次元座標取得装置。
The three-dimensional coordinate acquisition means includes
The position on the curved surface of the three-dimensional object and the position of the peripheral edge when viewed from the focal point of the camera is not acquired as the three-dimensional coordinates of the feature points. The three-dimensional coordinate acquisition apparatus described in 1.
前記3次元座標取得手段は、
前記立体対象物上に前記交点が存在するか否かを判定する判定式の閾値を変化させることによって、前記立体対象物の曲面上の位置であって前記カメラの焦点の側から見て周縁の位置を3次元座標として取得しないようにする
ことを特徴とする請求項8に記載の3次元座標取得装置。
The three-dimensional coordinate acquisition means includes
By changing a threshold value of a determination formula for determining whether or not the intersection exists on the three-dimensional object, the position on the curved surface of the three-dimensional object is a peripheral edge when viewed from the focal point of the camera. The three-dimensional coordinate acquisition apparatus according to claim 8, wherein the position is not acquired as three-dimensional coordinates.
カメラによって撮像された立体対象物の撮像画像から当該カメラのカメラ姿勢を推定するカメラ姿勢推定装置であって、
予め撮像した前記撮像画像内の前記立体対象物の特徴点の2次元ピクセル座標と、予め取得した前記立体対象物の特徴点の3次元座標とを対応付けて記憶するデータベース部と、
今回撮像した撮像画像から前記立体対象物の特徴点を抽出し、前記データベース部内の前記2次元ピクセル座標と照合する照合部と、
前記照合結果に基づいてカメラ姿勢を推定するカメラ姿勢推定部と
を備え、
前記データベース部は、
前記カメラの焦点、及び、前記撮像画像から検出された画像平面内の特徴点を通過する直線の方程式と、前記立体対象物の方程式とから算出された、前記直線と前記立体対象物との交点を、前記立体対象物の特徴点の3次元座標として記憶する
ことを特徴とするカメラ姿勢推定装置。
A camera posture estimation device that estimates a camera posture of a three-dimensional object imaged by a camera from a captured image of the camera,
A database unit that stores the two-dimensional pixel coordinates of the feature points of the three-dimensional object in the captured image captured in advance in association with the three-dimensional coordinates of the feature points of the three-dimensional object acquired in advance;
Extracting a feature point of the three-dimensional object from the captured image captured this time, and collating with the two-dimensional pixel coordinates in the database unit;
A camera posture estimation unit that estimates a camera posture based on the collation result,
The database part
The intersection of the straight line and the three-dimensional object calculated from the focal point of the camera and the equation of a straight line passing through the feature point in the image plane detected from the captured image and the equation of the three-dimensional object Is stored as a three-dimensional coordinate of the feature point of the three-dimensional object.
前記立体対象物は、
表面の一部が曲面であって、
前記データベース部は、
前記立体対象物の曲面部分について前記立体対象物の方程式を利用して算出された前記3次元座標を記憶し、前記立体対象物の平面部分について3次元ポリゴンモデルを利用して算出された3次元座標を記憶する
ことを特徴とする請求項10に記載のカメラ姿勢推定装置。
The three-dimensional object is
A part of the surface is curved,
The database part
The three-dimensional coordinates calculated using the equation of the three-dimensional object for the curved surface portion of the three-dimensional object are stored, and the three-dimensional calculated using the three-dimensional polygon model for the plane portion of the three-dimensional object The camera posture estimation apparatus according to claim 10, wherein coordinates are stored.
カメラによって撮像された立体対象物の撮像画像から当該カメラのカメラ姿勢を推定する際に用いられる前記立体対象物の3次元座標を取得する3次元座標取得装置のコンピュータに、
前記撮像画像から、画像平面内の特徴点を検出する特徴点検出ステップと、
前記カメラの焦点及び前記画像平面内の特徴点を通過する直線の方程式と、前記立体対象物の方程式とから、前記直線と前記立体対象物との交点を算出し、前記特徴点の3次元座標として取得する3次元座標取得ステップと
を実行させることを特徴とするプログラム。
In a computer of a three-dimensional coordinate acquisition device that acquires the three-dimensional coordinates of the three-dimensional object used when estimating the camera posture of the three-dimensional object from a captured image of the three-dimensional object captured by the camera,
A feature point detection step of detecting a feature point in the image plane from the captured image;
The intersection of the straight line and the three-dimensional object is calculated from the equation of a straight line passing through the focal point of the camera and the feature point in the image plane and the equation of the three-dimensional object, and the three-dimensional coordinates of the feature point And a three-dimensional coordinate acquisition step acquired as follows.
JP2011233586A 2011-10-25 2011-10-25 3D coordinate acquisition device, camera posture estimation device, program Active JP5855416B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011233586A JP5855416B2 (en) 2011-10-25 2011-10-25 3D coordinate acquisition device, camera posture estimation device, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011233586A JP5855416B2 (en) 2011-10-25 2011-10-25 3D coordinate acquisition device, camera posture estimation device, program

Publications (2)

Publication Number Publication Date
JP2013092407A true JP2013092407A (en) 2013-05-16
JP5855416B2 JP5855416B2 (en) 2016-02-09

Family

ID=48615635

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011233586A Active JP5855416B2 (en) 2011-10-25 2011-10-25 3D coordinate acquisition device, camera posture estimation device, program

Country Status (1)

Country Link
JP (1) JP5855416B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100669042B1 (en) * 2001-06-16 2007-01-15 충화 픽처 튜브스, 엘티디. Method for implementing error diffusion on plasma display panel
KR20180079089A (en) * 2016-12-30 2018-07-10 동의대학교 산학협력단 Coding Device and Method for Depth Information Compensation by Sphere Surface Modeling
KR20180079074A (en) * 2016-12-30 2018-07-10 동의대학교 산학협력단 Coding Method and Device Depth Video by Spherical Surface Modeling
US10198824B2 (en) 2015-11-05 2019-02-05 Samsung Electronics Co., Ltd. Pose estimation method and apparatus
WO2019142369A1 (en) 2018-01-18 2019-07-25 株式会社ほぼ日 Program, information processing device, and information processing method
WO2020101094A1 (en) * 2018-11-16 2020-05-22 포디리플레이코리아 주식회사 Method and apparatus for displaying stereoscopic strike zone
KR20200069823A (en) * 2018-12-07 2020-06-17 한국해양과학기술원 Real-time Scientific Visualization System for Ocean Data
US10818055B2 (en) 2017-11-14 2020-10-27 Hobonichi Co., Ltd. Computer readable media, information processing apparatus and information processing method
CN112882645A (en) * 2016-11-14 2021-06-01 深圳市大疆创新科技有限公司 Channel planning method, control end, aircraft and channel planning system
CN114788256A (en) * 2019-12-09 2022-07-22 富士胶片株式会社 Moving body, control device, and imaging method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06150016A (en) * 1992-11-05 1994-05-31 Fujitsu Ltd Graphic display device
JPH06307812A (en) * 1993-04-22 1994-11-04 Mazda Motor Corp Method and device for measuring three-dimensional position on curved surface
JP2004325186A (en) * 2003-04-23 2004-11-18 Katsuhiro Iida Measuring system and its method
JP2005055177A (en) * 2002-01-18 2005-03-03 Nippon Telegr & Teleph Corp <Ntt> Solid body for three-dimensional position/attitude detection, three-dimensional position/attitude detection method, three-dimensional position/attitude detector, three-dimensional position/attitude detection program, and recording medium for recording the same program
JP2010519629A (en) * 2007-02-23 2010-06-03 トタル イメルシオン Method and device for determining the pose of a three-dimensional object in an image and method and device for creating at least one key image for object tracking
JP2011118724A (en) * 2009-12-04 2011-06-16 Nippon Hoso Kyokai <Nhk> Apparatus and program for estimating posture of camera

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06150016A (en) * 1992-11-05 1994-05-31 Fujitsu Ltd Graphic display device
JPH06307812A (en) * 1993-04-22 1994-11-04 Mazda Motor Corp Method and device for measuring three-dimensional position on curved surface
JP2005055177A (en) * 2002-01-18 2005-03-03 Nippon Telegr & Teleph Corp <Ntt> Solid body for three-dimensional position/attitude detection, three-dimensional position/attitude detection method, three-dimensional position/attitude detector, three-dimensional position/attitude detection program, and recording medium for recording the same program
JP2004325186A (en) * 2003-04-23 2004-11-18 Katsuhiro Iida Measuring system and its method
JP2010519629A (en) * 2007-02-23 2010-06-03 トタル イメルシオン Method and device for determining the pose of a three-dimensional object in an image and method and device for creating at least one key image for object tracking
JP2011118724A (en) * 2009-12-04 2011-06-16 Nippon Hoso Kyokai <Nhk> Apparatus and program for estimating posture of camera

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100669042B1 (en) * 2001-06-16 2007-01-15 충화 픽처 튜브스, 엘티디. Method for implementing error diffusion on plasma display panel
US10198824B2 (en) 2015-11-05 2019-02-05 Samsung Electronics Co., Ltd. Pose estimation method and apparatus
CN112882645A (en) * 2016-11-14 2021-06-01 深圳市大疆创新科技有限公司 Channel planning method, control end, aircraft and channel planning system
KR20180079089A (en) * 2016-12-30 2018-07-10 동의대학교 산학협력단 Coding Device and Method for Depth Information Compensation by Sphere Surface Modeling
KR20180079074A (en) * 2016-12-30 2018-07-10 동의대학교 산학협력단 Coding Method and Device Depth Video by Spherical Surface Modeling
KR101904128B1 (en) * 2016-12-30 2018-10-04 동의대학교 산학협력단 Coding Method and Device Depth Video by Spherical Surface Modeling
KR101904170B1 (en) * 2016-12-30 2018-10-04 동의대학교 산학협력단 Coding Device and Method for Depth Information Compensation by Sphere Surface Modeling
US10818055B2 (en) 2017-11-14 2020-10-27 Hobonichi Co., Ltd. Computer readable media, information processing apparatus and information processing method
KR20190089117A (en) 2018-01-18 2019-07-30 가부시키가이샤 호보니치 Recording medium on which a program is recorded, an information processing apparatus, and an information processing method
US10885688B2 (en) 2018-01-18 2021-01-05 Hobonichi Co., Ltd. Computer readable media, information processing apparatus and information processing method
WO2019142369A1 (en) 2018-01-18 2019-07-25 株式会社ほぼ日 Program, information processing device, and information processing method
WO2020101094A1 (en) * 2018-11-16 2020-05-22 포디리플레이코리아 주식회사 Method and apparatus for displaying stereoscopic strike zone
KR20200057484A (en) * 2018-11-16 2020-05-26 포디리플레이코리아 주식회사 Method and apparatus for displaying a strike zone
KR102149003B1 (en) * 2018-11-16 2020-08-28 포디리플레이코리아 주식회사 Method and apparatus for displaying a strike zone
JP2022501748A (en) * 2018-11-16 2022-01-06 4ディーリプレー コリア,インコーポレイテッド 3D strike zone display method and equipment
KR20200069823A (en) * 2018-12-07 2020-06-17 한국해양과학기술원 Real-time Scientific Visualization System for Ocean Data
KR102201369B1 (en) * 2018-12-07 2021-01-11 한국해양과학기술원 Real-time Scientific Visualization System for Ocean Data
CN114788256A (en) * 2019-12-09 2022-07-22 富士胶片株式会社 Moving body, control device, and imaging method

Also Published As

Publication number Publication date
JP5855416B2 (en) 2016-02-09

Similar Documents

Publication Publication Date Title
JP5855416B2 (en) 3D coordinate acquisition device, camera posture estimation device, program
US10134196B2 (en) Mobile augmented reality system
Pintaric et al. Affordable infrared-optical pose-tracking for virtual and augmented reality
US10636168B2 (en) Image processing apparatus, method, and program
US8989518B2 (en) Information processing method and apparatus for calculating information regarding measurement target on the basis of captured images
US9361731B2 (en) Method and apparatus for displaying video on 3D map
CN113396442A (en) System and method for rendering digital assets in an artificial environment through a loosely coupled relocation service and asset management service
US11816926B2 (en) Interactive augmented reality content including facial synthesis
US20220319127A1 (en) Facial synthesis in augmented reality content for third party applications
Anagnostopoulos et al. Gaze-Informed location-based services
JP5833507B2 (en) Image processing device
KR101851303B1 (en) Apparatus and method for reconstructing 3d space
CN111459269B (en) Augmented reality display method, system and computer readable storage medium
US20220319231A1 (en) Facial synthesis for head turns in augmented reality content
US20220051372A1 (en) Feature matching using features extracted from perspective corrected image
JP6017343B2 (en) Database generation device, camera posture estimation device, database generation method, camera posture estimation method, and program
CN109255749A (en) From the map structuring optimization in non-autonomous platform of advocating peace
US11875600B2 (en) Facial synthesis in augmented reality content for online communities
CN107851331A (en) The threedimensional model of smooth object is to mitigate artifact
US20220321804A1 (en) Facial synthesis in overlaid augmented reality content
JP5801209B2 (en) Camera posture estimation device, program
Alam et al. Pose estimation algorithm for mobile augmented reality based on inertial sensor fusion.
JP6086491B2 (en) Image processing apparatus and database construction apparatus thereof
US11423609B2 (en) Apparatus and method for generating point cloud
JP5837404B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140723

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20140724

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150602

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150723

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20150724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151209

R150 Certificate of patent or registration of utility model

Ref document number: 5855416

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150