JP2000283719A - Method and instrument for measuring position of object and recording medium recording program thereof - Google Patents

Method and instrument for measuring position of object and recording medium recording program thereof

Info

Publication number
JP2000283719A
JP2000283719A JP11086916A JP8691699A JP2000283719A JP 2000283719 A JP2000283719 A JP 2000283719A JP 11086916 A JP11086916 A JP 11086916A JP 8691699 A JP8691699 A JP 8691699A JP 2000283719 A JP2000283719 A JP 2000283719A
Authority
JP
Japan
Prior art keywords
value
matrix
feature points
unit
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11086916A
Other languages
Japanese (ja)
Other versions
JP3616949B2 (en
Inventor
Yoshitaka Hamaguchi
佳孝 濱口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP08691699A priority Critical patent/JP3616949B2/en
Publication of JP2000283719A publication Critical patent/JP2000283719A/en
Application granted granted Critical
Publication of JP3616949B2 publication Critical patent/JP3616949B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a position measuring instrument, etc., which can measure the distance and direction to an object to be measured even when the number of actually measured values is few. SOLUTION: A position measuring instrument is provided with a camera section 100 which takes one or a plurality of pictures; a feature point tracking section 200 which detects the coordinate values of one or a plurality of feature points contained in the photographed pictures; and a coordinate matrix generating section 300 which normalizes the coordinate values with the focal distance, calculates the differences between the normalized coordinate values and the mean values of the normalized coordinate values in the pictures calculated at every feature point, and generates a matrix using the calculated difference values as elements. The measuring instrument is also provided with a matrix resolving section 400 which decides certain two matrixes which are the closet to the matrix generated by means of the generating section 300; a normalizing section 500 which multiplies one of the two matrixes by a certain value, adds a fixed value to the product, and divides the other matrix by a certain value so that the calculated value may correspond to actually measured values; and a coordinate calculating section 600 which calculates the distance and direction to each feature point based on the matrixes.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、カメラにより撮
影された画像を用いて、対象物体までの距離及び方向を
算出する方法等に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for calculating a distance and a direction to a target object using an image captured by a camera.

【0002】[0002]

【従来の技術】従来、カメラにより撮影された画像(2
次元)から3次元情報を抽出する方法として、例えば、
富田文明、「知能ロボットのためのステレオビジョ
ン」、第22回画像工学コンファレンス、1991に示
された方法(以下、従来例という)がある。
2. Description of the Related Art Conventionally, an image (2
As a method of extracting three-dimensional information from (dimensions), for example,
Tomita Fumiaki, “Stereo Vision for Intelligent Robots”, 22nd Image Engineering Conference, 1991 (hereinafter referred to as a conventional example).

【0003】従来例は、2つ以上の位置からカメラによ
り画像を撮影し、それぞれの位置で撮影した画像に写っ
た対象物体について、カメラから対象物体に向けたベク
トルが交差する位置を算出し、対象物体までの距離、方
向を得るものである。
[0003] In the conventional example, images are taken by a camera from two or more positions, and for a target object appearing in an image taken at each position, a position where a vector directed from the camera to the target object intersects is calculated. The distance and direction to the target object are obtained.

【0004】多眼での測定の場合、各カメラの位置及び
向きと、各カメラから見た物体の方向から物体の位置を
測定する。ここで、3眼以上ある場合は、そのうちの2
眼をメインとし、3眼以後は物体位置の測定ではなく、
特徴点の対応を検証することに主に使用される。また、
移動視の場合は、カメラを平行に既知の速度で等速移動
を行い、特徴点の軌跡からその距離を求める。
In the case of multi-view measurement, the position of an object is measured from the position and orientation of each camera and the direction of the object viewed from each camera. Here, when there are three or more eyes, two of them
Mainly on the eyes, after the third eye, not the measurement of the object position,
It is mainly used to verify the correspondence of feature points. Also,
In the case of moving vision, the camera is moved in parallel at a known speed at a known speed, and the distance is obtained from the locus of the feature point.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、従来例
に示されたような方法で位置を測定しようとすると、多
眼で測定する場合は、各カメラの向き、位置関係を正確
に把握する必要がある。また、3眼以上のカメラがあっ
たとしても、3眼以後は直接には物体の位置の測定には
用いられない。また、移動視の場合はカメラを平行に動
かす必要があるため、例えば、幅5mに分布する物体の
互いの位置を測定するには、カメラを5mの距離分、等
速で動かす機構が必要となる。したがって、両方法で測
定するには、精度の高い測定値が多く必要とされる。
However, when the position is measured by the method shown in the conventional example, when measuring with multiple eyes, it is necessary to accurately grasp the orientation and positional relationship of each camera. is there. Even if there are three or more cameras, the three or more cameras are not directly used for measuring the position of the object. In addition, in the case of moving vision, it is necessary to move the camera in parallel. For example, in order to measure the positions of objects distributed over a width of 5 m, a mechanism for moving the camera by a distance of 5 m at a constant speed is required. Become. Therefore, to measure by both methods, many highly accurate measurement values are required.

【0006】そこで、測定値が少なくても、カメラで撮
影された画像から対象物体までの距離及び方向が得られ
るような物体の位置測定方法の実現が望まれていた。
Therefore, it has been desired to realize a method for measuring the position of an object such that the distance and direction to the target object can be obtained from an image captured by a camera even if the measured values are small.

【0007】[0007]

【課題を解決するための手段】本発明に係る物体の位置
測定方法は、回転中心から一定距離にある円周上を移動
して、円周外側の1又は複数枚の画像をカメラで撮影す
る工程と、1又は複数枚の画像の全てに含まれる1又は
複数の特徴点を検出し、各画像における各特徴点の移動
方向の座標値を検出する工程と、各画像における各特徴
点の移動方向の座標値を、撮影したカメラに基づいた焦
点距離で正規化し、また、複数の画像における正規化し
た座標値の平均を特徴点ごとに算出して各正規化した座
標値との差を算出し、算出した差の値を成分とする行列
を作成する工程と、ある2つの行列の積が、作成した行
列に最も近い行列となるように、ある2つの行列を決定
する工程と、あらかじめ測定された実測値に対応するよ
うにある値及び一定値を算出し、ある2つの行列の一方
の行列にある値を乗じて一定値を加え、またある2つの
行列の他方の行列をある値で除し、それらの行列に基づ
いて、中心から各特徴点までの距離及び方向を算出する
工程とを有している。
According to a method for measuring the position of an object according to the present invention, one or more images outside the circumference are photographed by a camera while moving on a circumference at a fixed distance from a center of rotation. A step of detecting one or a plurality of feature points included in all of one or a plurality of images, and detecting a coordinate value in a moving direction of each feature point in each image; and a movement of each feature point in each image The coordinate values in the direction are normalized by the focal length based on the camera that has taken the image, and the average of the normalized coordinate values in a plurality of images is calculated for each feature point to calculate the difference from each normalized coordinate value Creating a matrix having the calculated difference values as components; determining two matrices so that the product of the two matrices is the matrix closest to the created matrix; Values and values corresponding to the measured values A value is calculated, one of two matrices is multiplied by a certain value to add a constant value, and the other of the two matrices is divided by a certain value. Calculating a distance and a direction to the feature point.

【0008】また、本発明に係る物体の位置測定方法
は、検出した前記全ての特徴点が、複数枚の画像の全て
に含まれていなかった場合、あらかじめ測定された実測
値に基づいて、画像を撮影したときのカメラの向きの値
並びに中心から各特徴点までの距離及び方向が算出可能
な特徴点及び画像の組合せを基本グループとして作成す
る工程と、基本グループに含まれる特徴点及び画像の組
合せについて、画像を撮影したときのカメラの向きの値
並びに中心から各特徴点までの距離及び方向を算出し、
算出結果を記憶する工程と、記憶した算出結果に基づい
て、画像を撮影したときのカメラの向きの値並びに中心
から各特徴点までの距離及び方向が算出可能な特徴点及
び画像の組合せを連鎖グループとして作成する工程と、
連鎖グループに含まれる特徴点及び画像の組合せについ
て、画像を撮影したときのカメラの向きの値並びに中心
から各特徴点までの距離及び方向を算出し、算出結果を
記憶する工程と、全ての特徴点に対して中心から各特徴
点までの距離及び方向が算出されるまで連鎖グループを
作成し、画像を撮影したときのカメラの向きの値並びに
中心から各特徴点までの距離及び方向を算出し、算出結
果を記憶する工程とを有している。
Further, in the object position measuring method according to the present invention, when all of the detected feature points are not included in all of a plurality of images, an image is measured based on an actually measured value measured in advance. Creating, as a basic group, a combination of a feature point and an image from which the value of the direction of the camera at the time of shooting and the distance and direction from the center to each feature point can be calculated; and For the combination, calculate the value of the direction of the camera when the image was taken and the distance and direction from the center to each feature point,
A step of storing the calculation result, and a combination of a combination of a feature point and an image that can calculate a distance and a direction from the center to each feature point and a value of a camera direction when the image is captured based on the stored calculation result. The process of creating as a group,
Calculating the value of the camera orientation when the image was taken and the distance and direction from the center to each feature point for the combination of the feature points and images included in the chained group, and storing the calculation results; and A chain group is created for the point until the distance and direction from the center to each feature point are calculated, and the value of the camera direction at the time of capturing the image and the distance and direction from the center to each feature point are calculated. And storing the calculation result.

【0009】また、本発明に係る物体の位置測定装置
は、回転中心から一定距離Lにある円周上を移動して、
前記円周外側のT枚の画像を撮影するカメラ部と、T枚
の画像の全てに含まれるN個の特徴点を検出し、各画像
tにおける各特徴点iの移動方向の座標値を検出する特
徴点追跡部と、各画像tにおける各特徴点iの移動方向
の座標値を、撮影したカメラ部に基づいた焦点距離で正
規化したuti(t=1,2,…,T、i=1,2,…,
N)を算出し、また、
Further, the object position measuring device according to the present invention moves on a circumference at a fixed distance L from the center of rotation,
A camera unit for taking T images outside the circumference, detecting N feature points included in all of the T images, and detecting coordinate values in the moving direction of each feature point i in each image t U ti (t = 1, 2,..., T, i) in which the coordinate values of the moving direction of each feature point i in each image t are normalized by the focal length based on the camera unit that captured the image. = 1,2,…,
N), and

【数8】 を成分とするT行N列の行列U’を作成する座標行列作
成部と、T行1列の行列Θ”と1行N列の行列A’につ
いて、行列Θ”と行列A’との積が、行列U’と見なせ
るように行列Θ”と行列A’を決定する行列分解部と、
あらかじめ測定された実測値に対応するようにある値q
及び一定値θ0 を算出し、行列Θ”にqを乗じてθ0
加えて、T枚の画像を撮影したときのカメラ部の向きを
成分とする行列Θを算出し、また行列A’をqで除して
行列Aを算出する正規化部と、正規化部が算出した行列
Θの成分をθt とし、また行列Aの各成分をαi とし
て、回転中心から特徴点までの距離ri をri =L/
(1−1/αi )で算出し、また、前記回転中心から特
徴点までの方向φi
(Equation 8) And a coordinate matrix creating unit that creates a matrix U ′ having T rows and N columns, and a matrix Θ ″ and a matrix A ′ for a matrix Θ ″ having T rows and one column and a matrix A ′ having one row and N columns Is a matrix decomposer that determines a matrix Θ ″ and a matrix A ′ so as to be regarded as a matrix U ′,
A value q that corresponds to a previously measured actual value
And a constant value θ 0 , multiplying the matrix Θ ″ by q and adding θ 0 , and calculating a matrix 成分 having the orientation of the camera unit when capturing T images as a component, and a matrix A ′ Is divided by q to obtain a matrix A, and the components of the matrix Θ calculated by the normalization unit are represented by θ t, and each component of the matrix A is represented by α i , and the distance from the rotation center to the feature point a r i r i = L /
(1-1 / α i ), and the direction φ i from the rotation center to the feature point is

【数9】 で算出する座標算出部とを備えている。(Equation 9) And a coordinate calculation unit for calculating the coordinates.

【0010】また、本発明に係る物体の位置測定装置
は、特徴点追跡部が検出した全ての特徴点が、複数枚の
画像の全てに含まれていなかった場合、あらかじめ測定
された実測値に基づいて、画像を撮影したときのカメラ
の向きの値並びに中心から各特徴点までの距離及び方向
が算出可能な特徴点及び画像の組合せを基本グループと
して作成し、座標行列作成部、行列分解部、正規化部及
び座標算出部に画像を撮影したときのカメラの向きの値
並びに中心から各特徴点までの距離及び方向を算出させ
る基本グループ作成部と、算出された撮影したときのカ
メラの向きの値並びに中心から各特徴点までの距離及び
方向を算出結果として記憶する位置記憶部と、位置記憶
部に記憶された算出結果に基づいて、画像を撮影したと
きのカメラの向きの値並びに中心から各特徴点までの距
離及び方向が算出可能な特徴点及び画像の組合せを連鎖
グループとして作成し、座標行列作成部、行列分解部、
正規化部及び座標算出部に画像を撮影したときのカメラ
の向きの値並びに中心から各特徴点までの距離及び方向
を算出させて算出結果として位置記憶部に記憶させ、全
ての画像に対して撮影したときのカメラの向きの値が算
出され、全ての特徴点に対して中心から各特徴点までの
距離及び方向が算出されるまで連鎖グループを作成する
連鎖グループ作成部とを備えている。
Further, the object position measuring apparatus according to the present invention, when not all of the feature points detected by the feature point tracking unit are included in all of the plurality of images, calculates the measured values in advance. Based on this, a combination of a feature point and an image in which the value of the direction of the camera at the time of capturing the image and the distance and direction from the center to each feature point can be calculated as a basic group, a coordinate matrix creating unit, a matrix decomposing unit A normalization unit and a coordinate calculation unit, a basic group creation unit for calculating the value of the direction of the camera when capturing the image and the distance and direction from the center to each feature point, and the calculated camera direction when capturing the image And a position storage unit that stores the distance and direction from the center to each feature point as a calculation result, and based on the calculation result stored in the position storage unit, the direction of the camera when the image is captured. And creating a combination of distance and direction can be calculated feature points and images to each feature point as a chain group from the center, the coordinate matrix creating unit, matrix decomposition unit,
The normalization unit and the coordinate calculation unit calculate the value of the direction of the camera at the time of capturing the image and the distance and direction from the center to each feature point, and store the calculation result in the position storage unit. A chain group creation unit that calculates a value of the direction of the camera at the time of shooting, and creates a chain group until the distance and direction from the center to each feature point are calculated for all feature points.

【0011】また、本発明に係る物体の位置測定方法の
プログラムを記録した記録媒体は、回転中心から一定距
離にある円周上を移動して、円周外側の1又は複数枚の
画像をカメラに撮影させ、1又は複数枚の画像の全てに
含まれる1又は複数の特徴点を検出し、各画像における
各特徴点の移動方向の座標値を検出させ、各画像におけ
る各特徴点の移動方向の座標値を、撮影したカメラに基
づいた焦点距離で正規化させ、また、複数の画像におけ
る正規化した座標値の平均を特徴点ごとに算出させて各
正規化した座標値との差を算出させ、算出した差の値を
成分とする行列を作成させ、ある2つの行列の積が、作
成した行列に最も近い行列となるように、ある2つの行
列を決定させ、あらかじめ測定された実測値に対応する
ようにある値及び一定値を算出させ、ある2つの行列の
一方の行列にある値を乗じて一定値を加えさせ、またあ
る2つの行列の他方の行列をある値で除させて、それら
の行列に基づいて、中心から各特徴点までの距離及び方
向を算出させることをコンピュータに行わせるプログラ
ムを記録したものである。
A recording medium on which a program for the method for measuring the position of an object according to the present invention is recorded is moved on a circle at a fixed distance from the center of rotation, and one or a plurality of images on the outside of the circle are taken by a camera. To detect one or a plurality of feature points included in all of the one or more images, to detect a coordinate value of a moving direction of each feature point in each image, and to detect a moving direction of each feature point in each image. Is normalized by the focal length based on the camera that captured the image, and the average of the normalized coordinate values in a plurality of images is calculated for each feature point to calculate the difference from each normalized coordinate value Then, a matrix having the calculated difference values as components is created, and two matrices are determined so that the product of the two matrices is the matrix closest to the created matrix. A value to correspond to A constant value is calculated, one of two matrices is multiplied by a certain value to add a constant value, and the other of the two matrices is divided by a certain value. And a program for causing a computer to calculate a distance and a direction from the image to each feature point.

【0012】また、本発明に係る物体の位置測定方法の
プログラムを記録した記録媒体は、検出した全ての特徴
点が、複数枚の画像の全てに含まれていなかった場合
に、あらかじめ測定された実測値に基づいて、画像を撮
影したときのカメラの向きの値並びに中心から各特徴点
までの距離及び方向が算出可能な特徴点及び画像の組合
せを基本グループとして作成させ、基本グループに含ま
れる特徴点及び画像の組合せについて、画像を撮影した
ときのカメラの向きの値並びに中心から各特徴点までの
距離及び方向を算出させて、その算出結果を記憶させ、
算出結果に基づいて、画像を撮影したときのカメラの向
きの値並びに中心から各特徴点までの距離及び方向が算
出可能な特徴点及び画像の組合せを連鎖グループとして
作成させ、連鎖グループに含まれる特徴点及び画像の組
合せについて、画像を撮影したときのカメラの向きの値
並びに中心から各特徴点までの距離及び方向を算出さ
せ、その算出結果を記憶させ、全ての特徴点に対して中
心から各特徴点までの距離及び方向が算出されるまで連
鎖グループを作成させて、画像を撮影したときのカメラ
の向きの値並びに中心から各特徴点までの距離及び方向
を算出させ、その算出結果を記憶させることをコンピュ
ータに行わせるプログラムを記録したものである。
[0012] Further, in the recording medium on which the program of the method for measuring the position of an object according to the present invention is recorded, if all the detected feature points are not included in all of the plurality of images, the measurement is performed in advance. Based on the actually measured values, a combination of a feature point and an image in which the value of the direction of the camera at the time of capturing the image and the distance and direction from the center to each feature point can be calculated as a basic group, and are included in the basic group For the combination of the feature point and the image, the value of the direction of the camera when the image was taken and the distance and direction from the center to each feature point are calculated, and the calculation result is stored,
Based on the calculation result, a combination of the value of the direction of the camera at the time of capturing the image and the feature point and the image from which the distance and the direction from the center to each feature point can be calculated are created as a chain group and included in the chain group. For the combination of the feature points and the image, the value of the direction of the camera when the image was taken and the distance and direction from the center to each feature point are calculated, and the calculation results are stored. A chain group is created until the distance and direction to each feature point are calculated, the value of the direction of the camera at the time of capturing the image and the distance and direction from the center to each feature point are calculated, and the calculation result is obtained. A program for causing a computer to store the program is recorded.

【0013】[0013]

【発明の実施の形態】実施形態1.図1は本発明の第1
の実施の形態に係る位置測定方法を実現するための装置
のブロック図である。図1において、100はカメラ
部、200は特徴点追跡部、300は座標行列作成部、
400は行列分解部、500は正規化部、600は座標
算出部である。具体的な構成及び動作説明をする前に、
本実施の形態による位置測定の原理について説明する。
本実施の形態は、撮影された画像のうち、少なくとも2
枚の画像についてカメラの向きの値が実測されている場
合に、回転中心から特徴点(例えば、対象物体の形状を
表すために特徴とされている点等)までの距離及び方向
を算出するものである。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG. FIG. 1 shows the first embodiment of the present invention.
It is a block diagram of an apparatus for realizing the position measuring method according to the embodiment. In FIG. 1, 100 is a camera unit, 200 is a feature point tracking unit, 300 is a coordinate matrix creation unit,
400 is a matrix decomposition unit, 500 is a normalization unit, and 600 is a coordinate calculation unit. Before explaining the specific configuration and operation,
The principle of position measurement according to the present embodiment will be described.
In the present embodiment, at least two of the captured images
Calculates the distance and direction from the center of rotation to a feature point (for example, a point that is characterized to represent the shape of a target object) when the camera orientation value is actually measured for a single image It is.

【0014】図2はカメラ部100の設置状態例を表す
図である。本実施の形態では、図2のように、撮影部分
となるカメラが、一定半径Lの円周上を移動し、その円
周の外側を撮影するように設置する。ここで、本実施の
形態は、撮影される全ての画像に特徴点が撮られている
ものとする。
FIG. 2 is a diagram showing an example of an installation state of the camera unit 100. In the present embodiment, as shown in FIG. 2, a camera serving as a photographing part is installed so as to move on a circumference having a constant radius L and photograph the outside of the circumference. Here, in the present embodiment, it is assumed that feature points are captured in all captured images.

【0015】図3は本実施の形態で用いる近似について
説明するための図である。ここで、特徴点はカメラ部1
00の回転中心から半径ri 上の円周上にあるものとす
る。特徴点がカメラの正面に十分近い位置にある場合、
特徴点は、回転中心とカメラ正面とを結ぶ線分の延長線
上にある距離ri の地点から延長線に垂直にli だけ移
動した点と近似しても、大きな誤差はない。したがっ
て、本実施の形態ではこの近似を用いることにする。本
発明はカメラの設置条件と近似の工夫により、カメラが
異なった向きとなる複数の画像と少ない実測値から、回
転中心から特徴点までの距離及び方向を得るものであ
る。
FIG. 3 is a diagram for explaining the approximation used in the present embodiment. Here, the feature point is the camera unit 1
From the rotation center 00 intended to be on the circumference of the radius r i. If the feature point is close enough to the front of the camera,
Even if the feature point is approximated to a point moved by l i perpendicularly to the extension line from a point at a distance r i on the extension line of the line connecting the rotation center and the front of the camera, there is no large error. Therefore, this embodiment uses this approximation. The present invention obtains a distance and a direction from a rotation center to a feature point from a plurality of images in different directions of the camera and a small number of actually measured values by devising a camera installation condition and approximation.

【0016】図4はカメラ部100上部から見たカメラ
部100と特徴点との関係を表す図である。図4ではカ
メラ部と特徴点との各関係をパラメータで表している。
撮影された画像上における特徴点の横方向の位置を、カ
メラより特有な値を有する焦点距離で正規化すると、正
規化された値は次式(1)で表される。 uti=xti/zti=αiθt+βi …(1) ここで、αi=1/(1−L/ri)、βi=φi/(1−
L/ri
FIG. 4 is a diagram showing the relationship between the camera unit 100 and the characteristic points as viewed from above the camera unit 100. In FIG. 4, each relationship between the camera unit and the feature points is represented by a parameter.
When the horizontal position of a feature point on a captured image is normalized by a focal length having a value more specific than the camera, the normalized value is represented by the following equation (1). u ti = x ti / z ti = α i θ t + β i ... (1) where, α i = 1 / (1 -L / r i), β i = φ i / (1-
L / r i)

【0017】実際に撮影された画像から得られるのは
(1)式のutiであり、このutiに基づいてri、φi
得ることが目的となる。ここで、iは各特徴点につけら
れた番号である。また、tは撮影された各画像につけら
れた番号である。
What is obtained from the actually photographed image is u ti in the equation (1), and the object is to obtain r i and φ i based on this u ti . Here, i is a number assigned to each feature point. In addition, t is a number given to each of the captured images.

【0018】(1)式のutiについて、各特徴点(i=
1,2,…N:Nは自然数)の全画像(t=1,2,…
T:Tは自然数)での平均値は次式(2)で表される。
(2)式では全ての値を平等に扱い、単なる平均値で算
出するようにしたが、場合によっては重み付けを行って
算出するようにしてもよい。
For u ti in equation (1), each feature point (i =
.., N: N is a natural number (t = 1, 2,...)
The average value in (T: T is a natural number) is represented by the following equation (2).
In equation (2), all values are treated equally and calculated by a simple average value, but may be calculated by weighting in some cases.

【0019】[0019]

【数10】 (Equation 10)

【0020】(2)式で算出した平均値から(1)式の
値を引くと、次式(3)が得られる。
When the value of equation (1) is subtracted from the average value calculated by equation (2), the following equation (3) is obtained.

【0021】[0021]

【数11】 [Equation 11]

【0022】これを全てのutiについて行い、行列で表
せば、次式(4)のようにU’=Θ’Aで表される。こ
こでU’は実際に撮影された画像から得られる特徴点の
位置のみで算出されるので、この式の左辺は画像を何ら
かの画像処理を行うことで得ることができる。そこで、
画像処理により得られたU’に基づいて、式(4)が成
り立つように、一定の条件の下でΘ’及びAを算出す
る。そして、Θ’及びAに基づいて、特徴点までの距離
i と各画像が撮影された時のカメラの向きとを得るこ
とができる。また、式(2)からβi を算出することが
できるので、そのβi を式(1)に代入し、φi を得る
ことができる。
This is performed for all u ti , and when expressed by a matrix, it is expressed by U ′ = よ う ′ A as in the following equation (4). Here, since U ′ is calculated only from the positions of the feature points obtained from the actually photographed image, the left side of this equation can be obtained by performing some kind of image processing on the image. Therefore,
Based on U ′ obtained by the image processing, Θ ′ and A are calculated under certain conditions so that Expression (4) holds. Then, theta 'and based on A, it can be the distance r i and the image to the feature point obtaining and camera orientation when shooting. Further, it is possible to calculate the beta i from equation (2), it is possible to substitute that beta i in Equation (1), obtain phi i.

【0023】[0023]

【数12】 (Equation 12)

【0024】次に図1の装置の具体的な構成を説明す
る。カメラ部100は、図2に示したように半径Lの円
周上で外方向に撮影するように設置されており、円周上
の任意の地点の画像を撮影及び出力する。特徴点追跡部
200は、カメラ100部が撮影した各画像において、
その距離を得ようとする1又は複数の特徴点について、
カメラの回転方向の座標を探索する。この特徴点追跡部
200では、各特徴点を各画像上での対応付けができれ
ばよく、対象物体に付けられた特定のマークを、パター
ン照合(パターンマッチング)等のような一般に知られ
た手法で探索してもよい。また、マークが付いていない
場合でもオプティカルフロー等のように一般に知られた
画像処理の手法を用いて探索してもよい。
Next, a specific configuration of the apparatus shown in FIG. 1 will be described. As shown in FIG. 2, the camera unit 100 is installed so as to photograph outward on the circumference of the radius L, and captures and outputs an image at an arbitrary point on the circumference. The feature point tracking unit 200 includes, for each image captured by the camera 100,
For one or more feature points whose distance is to be obtained,
Search for the coordinates of the camera rotation direction. The feature point tracking unit 200 only needs to be able to associate each feature point on each image, and a specific mark attached to a target object is identified by a generally known method such as pattern matching (pattern matching). You may search. Even when no mark is attached, the search may be performed using a generally known image processing method such as an optical flow.

【0025】座標行列作成部300は、特徴点追跡部2
00で探索した画像tにおける特徴点iについて、画像
中心を原点とし、横方向座標(カメラ回転方向座標)を
焦点距離で正規化したutiを算出する。そして、(3)
式に基づいてuti’を算出し、行列U’を算出する。し
たがって、各画像上でN個の特徴点を探索し、T枚の画
像が撮影されたとすると、行列U’はT行N列の行列と
なる。
The coordinate matrix creating unit 300 includes the feature point tracking unit 2
With respect to the feature point i in the image t searched in 00, uti is calculated by normalizing the horizontal coordinate (coordinate in the camera rotation direction) by the focal length with the image center as the origin. And (3)
U ti ′ is calculated based on the equation, and a matrix U ′ is calculated. Therefore, assuming that N feature points are searched on each image and T images are captured, the matrix U ′ becomes a matrix of T rows and N columns.

【0026】行列分解部400は、T行1列の行列Θ”
と1行N列の行列A’との積が行列U’に近くなるよう
に、行列Θ”と行列A’とを算出する。この行列Θ”及
び行列A’の算出は、例えば次のようにして実現する。
前述した近似が十分成り立つ場合には、U’の特異値
は、最大の特異値kを除いて0と近似できる。したがっ
て、U’=Θ”kA”と特異値分解することができる。
ここでA’=kA”として行列A’を算出し、行列Θ”
と行列A’の算出を実現する。
The matrix decomposition section 400 generates a matrix of T rows and 1 column Θ ″
The matrix Θ ″ and the matrix A ′ are calculated such that the product of the matrix '″ and the matrix A ′ of one row and N columns is close to the matrix U ′. And realize it.
When the above approximation is sufficiently established, the singular value of U ′ can be approximated to 0 except for the maximum singular value k. Therefore, the singular value decomposition can be performed as U ′ = Θ “kA”.
Here, the matrix A 'is calculated as A' = kA ", and the matrix Θ"
And the calculation of the matrix A ′.

【0027】正規化部500では、撮影された画像のう
ち、少なくとも2枚の画像についてカメラの向きの値が
実測されている場合に、カメラの向きの差があらかじめ
測定された値に最も近くなるように、行列Θ”にqをか
け、また行列A’に1/qをかけて、それぞれ行列Θ’
及び行列Aを得る。qは、行列Θ”にかけたqと行列
A’にかけた1/qとが互いに相殺されるので、行列
U’では現れない。また、行列Θ’について、撮影され
たときのカメラの向きの値があらかじめ測定された値に
なるように、Θ’の成分である各θt’ に一定値θ0
加えてθt (行列Θの成分)を得る。ここで、q及びθ
0 は、実測値とそれに対応する算出された行列の成分と
の差を少なくするように調整するための調整値である。
座標算出部600では、Aの各成分であるαi から次式
(5)に基づいて各特徴点のカメラ回転中心からの距離
i を算出する。また、次式(6)に基づいて、各特徴
点の位置φi を算出する。
In the normalizing section 500, when the camera orientation value is actually measured for at least two of the captured images, the difference in the camera orientation becomes closest to the previously measured value. Multiplying the matrix Θ ″ by q and the matrix A ′ by 1 / q,
And matrix A. q does not appear in the matrix U ′ because q applied to the matrix Θ ″ and 1 / q applied to the matrix A ′ cancel each other out. Also, for the matrix カ メ ラ ′, the value of the camera orientation when the image was taken Is added to each θ t ′, which is a component of Θ ′, by adding a constant value θ 0 to obtain θ t (a component of the matrix Θ), where q and θ
0 is an adjustment value for adjusting so as to reduce the difference between the actually measured value and the calculated matrix component corresponding thereto.
The coordinate calculation unit 600 calculates the distance r i of each feature point from the camera rotation center based on α i which is each component of A based on the following equation (5). Further, the position φ i of each feature point is calculated based on the following equation (6).

【0028】[0028]

【数13】 (Equation 13)

【0029】図5は対象物体の特徴点と撮影状況を表す
図である。次に具体的な数値に基づいて本実施の形態に
おける装置の動作を説明する。カメラの回転中心からカ
メラまでの距離Lは0.6mとして説明する。カメラ部
100のカメラ部分をカメラ回転中心を軸として回転移
動させる。このとき、各特徴点の距離と方向の実測値を
表1で示す(この値にできるだけ近づくような値を算出
するのが本実施の形態の目的である)。
FIG. 5 is a diagram showing the feature points of the target object and the photographing situation. Next, the operation of the apparatus according to the present embodiment will be described based on specific numerical values. The description is made on the assumption that the distance L from the rotation center of the camera to the camera is 0.6 m. The camera section of the camera section 100 is rotated about the camera rotation center as an axis. At this time, the measured values of the distance and direction of each feature point are shown in Table 1 (the purpose of the present embodiment is to calculate a value that approaches this value as much as possible).

【0030】[0030]

【表1】 [Table 1]

【0031】特徴点追跡部200では、パターンマッチ
ング、オプティカルフロー等の一般的な手法で各画像で
の各特徴点の位置を検出する。この場合、各画像につい
て各特徴点のカメラの回転方向(図2のような設置で
は、カメラは水平(横方向)に回転する)の位置を、カ
メラの焦点距離で正規化した値utiを、次の表2に示
す。
The feature point tracking section 200 detects the position of each feature point in each image by a general method such as pattern matching or optical flow. In this case, for each image, the position of the rotation direction of the camera at each feature point (in the installation as shown in FIG. 2, the camera rotates horizontally (horizontally)) is calculated as a value u ti normalized by the focal length of the camera. Are shown in Table 2 below.

【0032】[0032]

【表2】 [Table 2]

【0033】座標行列作成部300では、各特徴点毎
に、各画像から導かれた座標値(距離)の平均を算出
し、それと各座標との差を算出した行列を導き出す。例
えば、特徴点1の場合、t=1〜11までの各座標の平
均値は−0.166となる。これを各座標から減算し、
t=1、i=1では−0.309−(−0.166)=
−0.143であり、これが作成される行列の第1行第
1列目の成分となる。このようにして算出した行列を次
式(7)に示す。
The coordinate matrix creating section 300 calculates an average of coordinate values (distances) derived from each image for each feature point, and derives a matrix in which a difference between the average and coordinate values is calculated. For example, in the case of the feature point 1, the average value of each coordinate from t = 1 to 11 is −0.166. Subtract this from each coordinate,
At t = 1 and i = 1, −0.309 − (− 0.166) =
−0.143, which is a component of the first row and first column of the created matrix. The matrix calculated in this way is shown in the following equation (7).

【0034】[0034]

【数14】 [Equation 14]

【0035】行列分解部400では(7)式の行列を行
列Θ”と行列A’に分解する。具体的には、以下に例示
する手順で、最大の特異値以外は0であると近似した特
異値分解を行い、分解を実現する。まず、(7)式の行
列とその転置行列との積を算出する。その行列を次式
(8)に示す。
The matrix decomposing unit 400 decomposes the matrix of the formula (7) into a matrix Θ ″ and a matrix A ′. Specifically, in the procedure exemplified below, it was approximated that the values other than the largest singular value were 0. First, the singular value decomposition is performed to realize the decomposition.First, the product of the matrix of equation (7) and its transposed matrix is calculated, and the matrix is shown in the following equation (8).

【0036】[0036]

【数15】 (Equation 15)

【0037】次にこの行列の最大の固有値とそれに対す
る固有ベクトルを求める。これを次式(9)に示す。固
有値、固有ベクトルの算出方法については、累乗法等の
多数の方法が一般に知られている。
Next, the maximum eigenvalue of this matrix and the eigenvector corresponding thereto are obtained. This is shown in the following equation (9). Many methods for calculating eigenvalues and eigenvectors are generally known, such as the power method.

【0038】[0038]

【数16】 (Equation 16)

【0039】(7)式の行列とこの固有ベクトルとの積
を、固有値の平方根で除算したものを行列Θ”とする。
また、この固有値の平方根と固有ベクトルとの積を行列
A’とする。行列Θ”及び行列A’を次式(10)及び
(11)に示す。
The product of the matrix of the equation (7) and the eigenvector divided by the square root of the eigenvalue is defined as a matrix Θ ″.
The product of the square root of the eigenvalue and the eigenvector is defined as a matrix A ′. The matrix Θ ″ and the matrix A ′ are shown in the following equations (10) and (11).

【0040】[0040]

【数17】 [Equation 17]

【0041】ここで、例えばt=1とt=11の画像を
撮影したときのカメラの向きが、それぞれ−0.872
7rad及び0.8727radと測定されていたとす
る。正規化部500では次式(12)に基づいてqを算
出し、Θ”にqをかけて行列Θ’を算出する。また行列
A’に1/qをかけて行列Aを算出する。算出した行列
Θ’の成分及び行列Aの成分を表3に示す。 q={0.08727−(−0.08727)}/(θ11”−θ1”) …(12)
Here, for example, when the images at the time t = 1 and t = 11 are photographed, the directions of the cameras are -0.872, respectively.
It is assumed that the measured values are 7 rad and 0.8727 rad. The normalizing unit 500 calculates q based on the following equation (12), multiplies Θ ″ by q to calculate a matrix Θ ′, and multiplies matrix A ′ by 1 / q to calculate matrix A. The components of the calculated matrix Θ ′ and the components of the matrix A are shown in Table 3. q = {0.08727 − (− 0.08727)} / (θ 11 ″ −θ 1 ″) (12)

【0042】[0042]

【表3】 [Table 3]

【0043】さらに、通常、θ1’ が実測値−0.87
27radとなるように調整し、その調整に伴って、全
θt’ に一定値を加えるが、この例では、θ1’ はθ1
と既に一致しているので、θi’ がそのままθi とな
る。
Further, usually, θ 1 ′ is the measured value −0.87
27 rad, and a constant value is added to all θ t ′ with the adjustment. In this example, θ 1 ′ becomes θ 1
Since θ i ′ already matches, θ i ′ becomes θ i as it is.

【0044】座標算出部600では、例えば特徴点1に
ついて、(1)式に基づいて次式(13)のようにし
て、カメラ焦点から特徴点1までの距離r1 を算出す
る。また、同様に、(1)式に基づいて、β1 =−0.
166−1.648325×0=−0.166、φ1
−0.166と算出できる。このようにして算出した他
の特徴点の算出結果を表4に示す。これらの値と表1の
実測値とを比較すると、算出した値が、実測値に近い値
となっていることがわかる。 r1 =0.6/(1−1/1.648325)=1.525462 …(13)
The coordinate calculation section 600 calculates the distance r 1 from the camera focal point to the feature point 1 based on the equation (1) as shown in the following equation (13) for the feature point 1, for example. Similarly, based on equation (1), β 1 = −0.
166-1.648325 × 0 = −0.166, φ 1 =
-0.166 can be calculated. Table 4 shows the calculation results of the other feature points calculated in this manner. When these values are compared with the measured values in Table 1, it can be seen that the calculated values are close to the measured values. r 1 = 0.6 / (1-1 / 1.648325) = 1.525462 ... (13)

【0045】[0045]

【表4】 [Table 4]

【0046】以上のように、第1の実施の形態によれ
ば、中心から一定距離にある円周上を回転移動して、円
周外側画像を撮影するように条件を工夫したカメラ部1
00が撮影したT枚の画像について、特徴点追跡部20
0が全ての画像に含まれる特徴点をN個検出して、各画
像における各特徴点の回転方向の座標値を検出し、座標
行列作成部300が、それらの座標値を撮影したカメラ
部100に特有な焦点距離で正規化してutiを算出し、
また各特徴点について、T枚の画像のutiの平均を算出
してutiとの差を算出して、算出した差の値を成分とす
る行列U’を作成し、また行列分解部400が、T行1
列の行列Θ”と1行N列の行列A’との2つの行列の積
が、行列U’に最も近い行列となるように、行列Θ”と
行列A’を決定し、少なくとも2枚の画像を撮影したと
きのカメラの向きの値が実測されている場合に、正規化
部500は、その実測値と対応するように、行列Θ”に
ある値qをかけて、一定値θ0 を加えて行列Θを算出す
る。この行列Θが画像を撮影したときのカメラの向きの
値を表す。また、行列A’をある値qで割って、行列A
を算出し、座標算出部が、行列Aに基づいて、中心から
各特徴点までの距離及び方向を算出するようにしたの
で、少なくとも2枚の画像について撮影されたときのカ
メラの向きの値を実測するだけで、少ない実測値から精
度よく回転中心から特徴点までの距離及び方向並びに各
画像が撮影されたときのカメラの向きの値を算出するこ
とができる。また、行列分解部400は、座標行列作成
部300が作成した行列U’における最大の特異値以外
の特異値を0と近似し、特異値分解を行い、T行1列の
行列Θ”と1行N列の行列A’との2つの行列を決定す
るようにしたので、図3で示した近似が十分に成り立つ
場合には、はやくて有効な算出ができる。
As described above, according to the first embodiment, the camera unit 1 has been devised so as to rotate and move on the circumference at a fixed distance from the center to capture an image outside the circumference.
The feature point tracking unit 20 determines the T images
0 detects N feature points included in all images, detects coordinate values in the rotation direction of each feature point in each image, and sets the coordinate matrix creation unit 300 to the camera unit 100 that has captured those coordinate values. Is calculated by normalizing with a focal length unique to
Further, for each feature point, the average of u ti of the T images is calculated, the difference from u ti is calculated, a matrix U ′ having the calculated difference value as a component is created, and the matrix decomposition unit 400 But T row 1
The matrix Θ ″ and the matrix A ′ are determined so that the product of two matrices of the column matrix Θ ″ and the 1-row N-column matrix A ′ is the matrix closest to the matrix U ′. When the value of the direction of the camera at the time of capturing the image is actually measured, the normalization unit 500 multiplies the matrix q by a value q so as to correspond to the actually measured value to obtain a constant value θ 0 . In addition, the matrix Θ is calculated, and the matrix Θ represents the value of the direction of the camera at the time of capturing the image.
Is calculated, and the coordinate calculation unit calculates the distance and direction from the center to each feature point based on the matrix A. Therefore, the value of the camera direction when at least two images are captured is calculated. Only by actual measurement, the distance and direction from the rotation center to the feature point and the value of the direction of the camera when each image is photographed can be accurately calculated from the small actual measured values. Further, the matrix decomposing unit 400 approximates singular values other than the largest singular value in the matrix U ′ created by the coordinate matrix creating unit 300 to 0, performs singular value decomposition, and performs a matrix 行 ″ and 1 Since two matrices, that is, the matrix A ′ having N rows and N columns are determined, if the approximation shown in FIG. 3 is sufficiently established, a quick and effective calculation can be performed.

【0047】実施形態2.第1の実施の形態では、少な
くとも2つの画像を撮影したときのカメラの向きの値が
実測されている必要があった。本実施の形態では、実測
値が、少なくとも2つのカメラの向きの値ではなく、少
なくとも1つの特徴点について、回転中心からの距離及
び方向の値が実測されている場合の位置測定方法につい
て説明する。
Embodiment 2 In the first embodiment, the value of the direction of the camera when at least two images have been photographed has to be measured. In this embodiment, a description will be given of a position measurement method in a case where the measured value is not the value of the orientation of at least two cameras, but the value of the distance and direction from the rotation center is measured for at least one feature point. .

【0048】本実施の形態の位置測定方法を実現する装
置は、第1の実施の形態で説明した図1に示したものと
ほぼ同じである。ただ、正規化部500の代わりに正規
化部501を用いて実施する。正規化部500は、少な
くとも2つの画像を撮影したときに測定されたカメラの
向きに基づいてqを算出したが、正規化部501は、少
なくとも1つの特徴点について測定された回転中心から
の距離及び方向に基づいてqを算出する点で正規化部5
00とは異なる。
An apparatus for realizing the position measuring method according to the present embodiment is substantially the same as that shown in FIG. 1 described in the first embodiment. However, this is performed using the normalization unit 501 instead of the normalization unit 500. The normalization unit 500 calculates q based on the orientation of the camera measured when capturing at least two images, but the normalization unit 501 calculates the distance from the rotation center measured for at least one feature point. And normalizing unit 5 in calculating q based on the direction.
Different from 00.

【0049】具体的な動作説明をする前に、本実施の形
態の正規化部501の原理について説明する。ここで、
少なくとも1つの特徴点の回転中心からの距離及び方向
が実測されているものとする。ここでは、実測されてい
る距離から算出される値とそれに対応する行列Aの成分
とが最も近くなるように第1の実施の形態で述べたqの
値を決定する。例えば、1つの特徴点について位置(回
転中心からの距離及び方向)が測定されている場合、そ
の距離に対するA’の該当する成分の比をqとする。そ
して第1の実施の形態と同じように、行列Θ”にqをか
けて行列Θ’を算出する。また、行列A’に1/qをか
けて行列Aを算出する。
Before describing the specific operation, the principle of the normalizing section 501 of the present embodiment will be described. here,
It is assumed that the distance and the direction of at least one feature point from the rotation center are actually measured. Here, the value of q described in the first embodiment is determined so that the value calculated from the actually measured distance and the corresponding component of the matrix A are the closest. For example, when the position (distance and direction from the rotation center) is measured for one feature point, the ratio of the corresponding component of A ′ to the distance is defined as q. Then, as in the first embodiment, the matrix Θ ″ is multiplied by q to calculate the matrix Θ ′. Further, the matrix A ′ is multiplied by 1 / q to calculate the matrix A.

【0050】また、実測された方向と(6)式により算
出された方向とが最もよく一致するような次式(14)
が得られるように、Θ’の成分である各θt’ に一定値
θ0を加え、θt を得る。例えば、測定された特徴点が
1つであれば、次式(15)のようにθ0 を算出する。
Also, the following equation (14) is used such that the actually measured direction and the direction calculated by the equation (6) best match.
Then, a constant value θ 0 is added to each θ t ′, which is a component of Θ ′, to obtain θ t . For example, if there is one measured feature point, θ 0 is calculated as in the following equation (15).

【0051】[0051]

【数18】 (Equation 18)

【0052】次に第1の実施の形態と動作が異なる正規
化部501の動作について、具体的な数値に基づいて説
明する。ここで、表1に基づいて特徴点4の距離r4
2、方向φ4 が0であると実測されているものとする。
この場合、(1)式に基づいて、α4 =1/(1−0.
6/2)=1.428571と算出される。行列分解部
400で算出した行列A’における4列目の成分は0.
262202であるから、qの値は、q=0.2622
02/1.428571=0.183541となる。こ
のqの値に基づいて、Θ”にqをかけて行列Θ’を算出
する。また行列A’に1/qをかけて行列Aを算出す
る。算出した行列Θ’の成分及び行列Aの成分を表5に
示す。
Next, the operation of the normalizing section 501 which operates differently from the first embodiment will be described based on specific numerical values. Here, the distance r 4 of feature points 4 based on Table 1 is 2, assumed to be measured with the direction phi 4 is zero.
In this case, α 4 = 1 / (1-0.
6/2) = 1.428571. The component of the fourth column in the matrix A ′ calculated by the matrix decomposition unit 400 is 0.
262202, the value of q is q = 0.2622
02 / 1.428571 = 0.183541. Based on the value of q, Θ ″ is multiplied by q to calculate a matrix Θ ′. Matrix A ′ is multiplied by 1 / q to calculate a matrix A. The components of the calculated matrix Θ ′ and the matrix A The components are shown in Table 5.

【0053】[0053]

【表5】 [Table 5]

【0054】次にφ4 =0であるので、(9)式の右辺
の第1項と第2項では、0+(−0.125+(−0.
1)+(−0.075)+(−0.05)+(−0.0
25)+0+0.025+0.05+0.075+0.
1+0.125)=0となる。また、第3項については
Θ’の各成分の平均値は0となる。したがって、θ0
0−0=0となり、行列Θ’の各成分であるθt’が行
列Θの各成分θt となる。本実施の形態で算出した各特
徴点の位置の算出結果を表6に示す。
Next, since φ 4 = 0, in the first and second terms on the right side of the equation (9), 0 + (− 0.125 + (− 0.
1) + (− 0.075) + (− 0.05) + (− 0.0
25) + 0 + 0.025 + 0.05 + 0.075 + 0.
1 + 0.125) = 0. Also, for the third term, the average value of each component of Θ ′ is 0. Therefore, θ 0 =
0−0 = 0, and each component θ t ′ of the matrix Θ ′ becomes each component θ t of the matrix Θ. Table 6 shows the calculation results of the position of each feature point calculated in the present embodiment.

【0055】[0055]

【表6】 [Table 6]

【0056】以上のように、第2の実施の形態では、正
規化部501により、カメラの設置条件を工夫すること
により、カメラで撮影された特徴点のうち、少なくとも
1つの特徴点について、回転中心からの距離及び方向が
実測されていれば、全ての特徴点について回転中心から
の距離及び方向を算出することができるので、少ない実
測値でも精度の高い位置測定を行える。る。
As described above, in the second embodiment, the normalization section 501 devises the camera installation conditions to rotate at least one of the feature points captured by the camera. If the distance and the direction from the center are actually measured, the distance and the direction from the rotation center can be calculated for all the feature points. Therefore, highly accurate position measurement can be performed even with a small measured value. You.

【0057】実施形態3.第1の実施の形態では、少な
くとも2つの画像を撮影したときのカメラの向きが実測
されている必要があった。本実施の形態では、実測され
た値が、少なくとも2つのカメラの向きの値ではなく、
少なくとも2つの特徴点について回転中心からの方向が
値として実測されている場合の位置測定方法について説
明する。
Embodiment 3 In the first embodiment, the direction of the camera at the time of capturing at least two images needs to be actually measured. In this embodiment, the actually measured value is not the value of the orientation of at least two cameras,
A position measurement method in the case where the directions from the rotation center are actually measured as values for at least two feature points will be described.

【0058】本実施の形態の位置測定方法を実現する装
置は、第1の実施の形態で説明した図1に示したものと
ほぼ同じである。ただ、正規化部500の代わりに正規
化部502を用いて実施する。正規化部500は、少な
くとも2つの画像を撮影したときに測定されたカメラの
向きの値に基づいてqを算出したが、正規化部502
は、少なくとも2つの特徴点について測定された回転中
心からの方向の値に基づいてqを算出する点で正規化部
500とは異なる。
An apparatus for realizing the position measuring method according to the present embodiment is almost the same as that shown in FIG. 1 described in the first embodiment. However, the process is performed using the normalization unit 502 instead of the normalization unit 500. Although the normalization unit 500 calculates q based on the camera orientation value measured when at least two images are captured, the normalization unit 502
Is different from the normalization unit 500 in that q is calculated based on the value of the direction from the rotation center measured for at least two feature points.

【0059】具体的な動作説明をする前に、本実施の形
態の正規化部502の原理について説明する。ここで、
少なくとも2つの特徴点の回転中心からの方向が実測さ
れているものとする。(6)式に基づいて算出された特
徴点の回転中心からの方向と、実測された特徴点の方向
との差の二乗和が最小となるように、q及びθ0 を決定
する。例えば、i,jの2つの特徴点について、回転中
心からの方向が実測されているとすると、次式(16)
によりqを算出し、行列Θ’及び行列Aを算出する。こ
こでαi’ 及びαj’ は行列分解部400で算出されて
いる。(16)式により得られた行列Aのi列目の成分
α1 に基づいて、前述した(15)式によりθ0 を決定
する。
Before giving a specific description of the operation, the principle of the normalizing section 502 of the present embodiment will be described. here,
It is assumed that the directions of at least two feature points from the rotation center are actually measured. Q and θ 0 are determined such that the sum of squares of the difference between the direction from the rotation center of the feature point calculated based on the equation (6) and the direction of the actually measured feature point is minimized. For example, assuming that the directions from the rotation center are actually measured for two feature points i and j, the following equation (16) is obtained.
Is calculated, and the matrix 及 び ′ and the matrix A are calculated. Here, α i ′ and α j ′ are calculated by the matrix decomposition section 400. Based on the component α 1 of the i-th column of the matrix A obtained by the equation (16), θ 0 is determined by the above-described equation (15).

【0060】[0060]

【数19】 [Equation 19]

【0061】次に第1の実施の形態と動作が異なる正規
化部502の動作について、具体的な数値に基づいて説
明する。ここで、表1に基づいて特徴点1の方向φ1
0.09967、特徴点7の方向φ7 =0.09967
と実測されているものとする。(16)式に基づいてq
を算出すると、次式(17)のようになる。
Next, the operation of the normalizing section 502 which operates differently from the first embodiment will be described based on specific numerical values. Here, based on Table 1, the direction φ 1 of feature point 1 =
0.09967, direction φ 7 of feature point 7 = 0.09967
It is assumed that it is actually measured. Based on equation (16), q
Is calculated, the following equation (17) is obtained.

【0062】[0062]

【数20】 (Equation 20)

【0063】このqの値に基づいて、Θ”にqをかけて
行列Θ’を算出する。また行列A’に1/qをかけて行
列Aを算出する。算出した行列Θ’の成分及び行列Aの
成分を表7に示す。
Based on the value of q, a matrix Θ ′ is calculated by multiplying Θ ″ by q. A matrix A is calculated by multiplying matrix A ′ by 1 / q. Table 7 shows the components of the matrix A.

【0064】[0064]

【表7】 [Table 7]

【0065】ここで、行列Aの第1番目の成分は1.6
65502であるので、これに基づいてθ0 を算出する
と、θ0 =0.09967+(−1.826)/(11
×1.665502)=0であるので、行列Θ’の各成
分であるθt’ が行列Θの各成分θt となる。本実施の
形態で算出した各特徴点の位置の算出結果を表8に示
す。
Here, the first component of the matrix A is 1.6
Therefore, when θ 0 is calculated based on this, θ 0 = 0.09967 + (− 1.826) / (11)
× 1.665502) = 0, so that each component θ t ′ of the matrix Θ ′ becomes each component θ t of the matrix Θ. Table 8 shows the calculation result of the position of each feature point calculated in the present embodiment.

【0066】[0066]

【表8】 [Table 8]

【0067】以上のように第3の実施の形態では、正規
化部502により、カメラの設置条件を工夫することに
より、カメラで撮影された特徴点のうち、少なくとも2
つの特徴点について、回転中心からの方向が実測されて
いれば、全ての特徴点について回転中心からの距離及び
方向を算出することができるので、少ない実測値でも精
度の高い位置測定を行える。
As described above, in the third embodiment, the normalization section 502 devises the camera installation conditions so that at least two of the feature points photographed by the camera are obtained.
If the directions from the rotation center are actually measured for one feature point, the distances and directions from all the feature points to the rotation center can be calculated, so that highly accurate position measurement can be performed even with a small measured value.

【0068】実施形態4.図6は特徴点が広範囲にわた
って配置されている場合を示す図である。上述した第1
〜3の実施の形態では、測定対象となる全ての特徴点が
全ての画像に含まれている場合について説明した。
Embodiment 4 FIG. 6 is a diagram showing a case where the feature points are arranged over a wide range. The first mentioned above
In the third to third embodiments, a case has been described in which all feature points to be measured are included in all images.

【0069】図7は、各画像に含まれる特徴点の関係例
を表す図である。ここで、必ずしも全ての画像に全ての
特徴点が含まれていない場合について考える。例えば、
広範囲にわたって特徴点が配置されている場合、図17
のように、「○」で示された箇所しか特徴点が観測され
ない(含まれていない)場合がある。本実施の形態で
は、このような場合でも全ての特徴点について位置測定
ができるように処理する方法について説明する。
FIG. 7 is a diagram showing an example of the relationship between feature points included in each image. Here, consider a case where not all images necessarily include all feature points. For example,
When the feature points are arranged over a wide range, FIG.
In some cases, the feature point is observed (or not included) only at the location indicated by “○”. In the present embodiment, a description will be given of a method of processing so that position measurement can be performed for all feature points even in such a case.

【0070】図8は本発明の第4の実施の形態に係る位
置測定方法を実現するための装置のブロック図である。
図において、カメラ部100及び特徴点追跡部200は
第1の実施の形態で説明したことと同様の動作を行うの
で、説明を省略する。また、座標行列作成部10300
及び20300、行列分解部10400及び2040
0、座標算出部10600及び20600も、それぞれ
入力されるデータに基づいて座標行列作成部300、行
列分解部400、座標算出部600と同様の動作を行う
ので説明を省略する。また、正規化部10500及び2
0500についても、第1〜第3の実施の形態で説明し
た正規化部500、正規化部501又は正規化部502
と同様の動作を行う。ただ、ここで正規化部20500
については、実際の実測値ではなく、座標算出部106
00又は20600により算出され、位置記憶部900
に記憶されたカメラの向き並びにカメラの回転中心から
カメラまでの距離及び方向に基づいて行列Θ及び行列A
を算出する。
FIG. 8 is a block diagram of an apparatus for realizing the position measuring method according to the fourth embodiment of the present invention.
In the figure, the camera unit 100 and the feature point tracking unit 200 perform the same operations as those described in the first embodiment, and a description thereof will be omitted. Also, a coordinate matrix creation unit 10300
And 20300, matrix decomposition units 10400 and 2040
0, the coordinate calculation units 10600 and 20600 also perform the same operations as the coordinate matrix creation unit 300, the matrix decomposition unit 400, and the coordinate calculation unit 600 based on the input data. Also, normalization units 10500 and 2
0500, the normalizing unit 500, the normalizing unit 501, or the normalizing unit 502 described in the first to third embodiments.
The same operation as is performed. However, here, the normalization unit 20500
Is not the actual measured value, but the coordinate calculation unit 106
00 or 20600, and the position storage unit 900
Matrix A and matrix A based on the camera orientation and the distance and direction from the camera rotation center to the camera stored in
Is calculated.

【0071】図において、基本グループ作成部700
は、特徴点追跡部200において各画像の特徴点の中か
らまず第1、第2又は第3の実施の形態(以下、第1〜
第3の実施の形態という)で説明したような処理が行え
るような画像及び特徴点の組合せ(以下、基本グループ
という)を1つ選択し、作成する。この基本グループに
ついて、座標行列作成部10300、行列分解部104
00、正規化部10500及び座標算出部10600
は、第1〜第3の実施の形態で説明したような処理を行
い、基本グループに含まれる特徴点の回転中心からの距
離及び方向並びに各画像のカメラの向きを算出する。算
出された特徴点の回転中心からの距離及び方向並びに各
画像のカメラの向き(算出結果)は、位置記憶部900
に記憶される。
In the figure, a basic group creation unit 700
In the feature point tracking unit 200, first, among feature points of each image, the first, second, or third embodiment (hereinafter, first to second embodiments)
One combination of an image and a feature point (hereinafter, referred to as a basic group) that can perform the processing described in the third embodiment) is selected and created. For this basic group, a coordinate matrix creation unit 10300 and a matrix decomposition unit 104
00, normalization unit 10500 and coordinate calculation unit 10600
Performs the processing described in the first to third embodiments, and calculates the distance and direction of the feature points included in the basic group from the rotation center, and the direction of the camera of each image. The calculated distance and direction of the feature point from the rotation center and the camera orientation (calculation result) of each image are stored in the position storage unit 900.
Is stored.

【0072】この基本グループの選択方法とは、少なく
とも2枚の画像についてカメラの向きが実測されている
場合、それらの画像のうち、少なくともある2枚の画像
に共通して含まれている特徴点から1又は複数の特徴点
を選択する。その選択した特徴点と選択した特徴点を全
て含む画像とに関するデータの組合せを基本グループと
する方法である(この基本グループでは、第1の実施の
形態で説明した方法で処理ができる)。
The method of selecting a basic group means that, when the camera orientation is actually measured for at least two images, feature points that are commonly included in at least two of the images One or more feature points are selected from. In this method, a combination of data on the selected feature point and an image including all the selected feature points is used as a basic group (in this basic group, processing can be performed by the method described in the first embodiment).

【0073】また、少なくとも1つの特徴点について、
カメラ回転中心からの距離及び方向が実測されている場
合、それらの特徴点のうち、少なくともある1つの特徴
点を共通して含む画像を複数選択する。その選択した画
像と選択した画像全てに共通して含まれている特徴点に
関するデータの組合せを基本グループとする方法もある
(この基本グループでは、第2の実施の形態で説明した
方法で処理ができる)。
Further, for at least one feature point,
When the distance and the direction from the camera rotation center are actually measured, a plurality of images including at least one certain feature point in common among those feature points are selected. There is also a method in which a combination of data on feature points commonly included in the selected image and all the selected images is used as a basic group (in this basic group, processing is performed by the method described in the second embodiment). it can).

【0074】さらに、少なくとも2つの特徴点につい
て、カメラ回転中心からの方向が実測されている場合、
それらの特徴点のうち、少なくともある2つの特徴点を
共通して含む画像を複数選択する。その選択した画像と
選択した画像全てに共通して含まれている特徴点に関す
るデータの組合せを基本グループとする方法もある(こ
の基本グループでは、第3の実施の形態で説明した方法
で処理ができる)。なお、この選択方法においては、処
理に用いるデータ数が多くできるということから、例え
ば画像数と特徴点数の積が最大(座標行列作成部103
00で作成される行列の成分数が最大)になるように基
本グループを選択するのが一般的であると思われるが、
特にこれに限定されるわけではない。
Further, when the directions from the camera rotation center are actually measured for at least two feature points,
From those feature points, a plurality of images that include at least two feature points in common are selected. There is also a method in which a combination of data on feature points commonly included in the selected image and all the selected images is used as a basic group (in this basic group, processing is performed by the method described in the third embodiment). it can). In this selection method, since the number of data used for processing can be increased, for example, the product of the number of images and the number of feature points is maximized (coordinate matrix creation unit 103
It seems that it is common to select the basic group so that the number of components of the matrix created at 00 is the largest)
It is not particularly limited to this.

【0075】連鎖グループ作成部800は、既に位置記
憶部900に算出結果が記憶された特徴点及び画像のう
ちの、少なくとも1つの特徴点又は少なくとも2つの画
像を含み、まだ位置記憶部900に算出結果が記憶され
ていない特徴点又は画像を含む組合せを、第1〜第3の
実施の形態で説明したような処理が行えるように選択
し、連鎖グループとして作成する。この連鎖グループに
ついても、前述した基本グループの選択方法と同じ方法
で選択し、作成する。連鎖グループの選択方法において
も、処理に用いるデータ数が多くできるということか
ら、例えば画像数と特徴点数の積が最大(座標行列作成
部20300で作成される行列の成分数が最大)になる
ように連鎖グループを選択するのが一般的であると思わ
れるが、特にこれに限定されるわけではない。
The linkage group creation unit 800 includes at least one feature point or at least two images of the feature points and images for which the calculation results have already been stored in the location storage unit 900, and the calculation results are still stored in the location storage unit 900. A combination including a feature point or an image for which a result is not stored is selected so that the processing described in the first to third embodiments can be performed, and a combination is created. This chain group is also selected and created by the same method as the above-described basic group selection method. Also in the chain group selection method, since the number of data used for processing can be increased, for example, the product of the number of images and the number of feature points is maximized (the number of components of the matrix created by the coordinate matrix creating unit 20300 is maximized). In general, it is considered that a linkage group is selected, but the present invention is not limited to this.

【0076】この連鎖グループについて、座標行列作成
部20300、行列分解部20400、正規化部205
00及び座標算出部20600は、第1〜第3の実施の
形態で説明したような処理を行い、連鎖グループに含ま
れる特徴点の回転中心からの距離及び方向並びに各画像
のカメラの向きを算出する。算出された特徴点の回転中
心からの距離及び方向並びに各画像のカメラの向き(算
出結果)は、位置記憶部900に記憶される。この、連
鎖グループ作成部800の連鎖グループ作成から座標算
出部20600の算出結果を位置記憶部900に記憶す
るまでの処理は、全ての特徴点及び画像が何れかのグル
ープに含まれる(全ての特徴点及び画像に関して算出結
果が算出される)まで繰り返す。
For this chain group, a coordinate matrix creating section 20300, a matrix decomposing section 20400, a normalizing section 205
00 and the coordinate calculation unit 20600 perform the processing described in the first to third embodiments, and calculate the distance and direction from the rotation center of the feature points included in the chain group, and the direction of the camera of each image. I do. The calculated distance and direction of the feature point from the rotation center and the camera orientation of each image (calculation result) are stored in the position storage unit 900. In the processing from the creation of the linkage group by the linkage group creation unit 800 to the storage of the calculation result of the coordinate calculation unit 20600 in the position storage unit 900, all feature points and images are included in any group (all features). Until the calculation result is calculated for points and images).

【0077】例えば、既に位置記憶部900に算出結果
が記憶されている特徴点のうち、最も左端にある特徴点
を、基本グループ又は既に計算結果が算出されている連
鎖グループと共有している特徴点とする。この特徴点及
びこれより左側にある、1又は複数の特徴点を選択し、
選択した特徴点を全て含む複数の画像と選択した特徴点
に関するデータの組合せを新たな連鎖グループとして処
理を行う。これを、既に位置記憶部900に算出結果が
記憶されている特徴点のうち、最も右端にある特徴点に
ついても行う。
For example, among the feature points whose calculation results have already been stored in the position storage unit 900, the feature point at the left end is shared with the basic group or the chain group whose calculation results have already been calculated. Point. Select this feature point and one or more feature points to the left of it,
The combination of a plurality of images including all the selected feature points and data on the selected feature points is processed as a new chain group. This is also performed for the rightmost feature point among the feature points for which the calculation results have already been stored in the position storage unit 900.

【0078】次に具体的数値に基づいて、本実施の形態
の装置の動作について説明する。ここでは、図17にお
いて「○」で示された部分について、特徴点追跡部20
0が各画像において各特徴点を観測したものとする。ま
た、画像1と画像4を撮影したときのカメラの向きの値
が実測されているものとする。
Next, the operation of the apparatus of this embodiment will be described based on specific numerical values. Here, the portion indicated by “「 ”in FIG.
0 indicates that each feature point is observed in each image. It is also assumed that the values of the camera orientation when the images 1 and 4 are photographed are actually measured.

【0079】カメラ部100のカメラが撮影した画像に
基づいて、特徴点追跡部200が各画像において各特徴
点のカメラ回転方向の座標を探索する。基本グループ作
成部700は、まず、画像1と画像4でカメラの向きの
値が実測されていることから、画像1と画像4に共通し
て含まれる特徴点を検出する。ここでは特徴点1、特徴
点2、特徴点3及び特徴点4(以下、このような場合に
は特徴点1〜4のように記述する)が検出される。また
検出した特徴点1〜4を全て含んでいる画像として、画
像1及び画像4だけでなく、画像2及び画像3を検出す
る。このときの画像数と特徴点数との積は4×4=16
である。ここで、特徴点3及び特徴点4を含んでいる画
像として、画像1〜6を検出する等、様々な組合せが選
択可能である。しかし、この場合でも画像数と特徴点数
との積は2×6=12となり、特徴点は1〜4を選択し
た場合が、最も画素数と特徴点数との積が大きくなるの
で、ここでは特徴点1〜4、画像1〜4の組合せをを基
本グループとして選択する。
On the basis of the image captured by the camera of the camera section 100, the feature point tracking section 200 searches the coordinates of each feature point in the camera rotation direction in each image. First, since the values of the camera direction are actually measured in the images 1 and 4, the basic group creation unit 700 detects feature points that are commonly included in the images 1 and 4. Here, feature point 1, feature point 2, feature point 3, and feature point 4 (hereinafter, referred to as feature points 1 to 4 in such a case) are detected. As images including all the detected feature points 1 to 4, not only image 1 and image 4, but also image 2 and image 3 are detected. The product of the number of images and the number of feature points at this time is 4 × 4 = 16
It is. Here, as the image including the feature points 3 and 4, various combinations such as detection of images 1 to 6 can be selected. However, even in this case, the product of the number of images and the number of feature points is 2 × 6 = 12, and when the number of feature points is 1 to 4, the product of the number of pixels and the number of feature points is the largest. A combination of points 1 to 4 and images 1 to 4 is selected as a basic group.

【0080】この基本グループとして選択された特徴点
1〜4、画像1〜4に関するデータに基づいて、座標行
列作成部10300、行列分解部10400、正規化部
10500及び座標算出部10600は、第1の実施の
形態で説明した処理を行う。この結果、特徴点1〜4の
回転中心からの距離及び方向、画像1〜4のカメラの向
きが算出結果として位置記憶部900に記憶される。こ
の時点では、位置記憶部900には、特徴点1〜4、画
像1〜4に関するデータが記憶されていることになる。
Based on the data on the feature points 1 to 4 and the images 1 to 4 selected as the basic group, the coordinate matrix creation unit 10300, the matrix decomposition unit 10400, the normalization unit 10500, and the coordinate calculation unit 10600 The processing described in the embodiment is performed. As a result, the distances and directions of the feature points 1 to 4 from the rotation center and the directions of the cameras of the images 1 to 4 are stored in the position storage unit 900 as calculation results. At this point, the position storage unit 900 stores data on the feature points 1 to 4 and the images 1 to 4.

【0081】連鎖グループ作成部800は、まず、位置
記憶部900に記憶されている特徴点のうち、最も端に
ある特徴点1及び特徴点4を得る。ここで、特徴点1か
らはこれ以上の結果を出すことができないので、特徴点
4だけを対象とする。特徴点4を含む特徴点5以降の中
から、例えば特徴点4〜6を検出し、それらを全て含む
画像として画像4〜7を検出する。このときの特徴点数
と画像数との積は3×4=12となる。特徴点4を含
み、それ以後の特徴点からの組合せの中で、特徴点数と
画像数との積はこれが最も大きいので、これを連鎖グル
ープ1とする。ここで、第3の実施の形態に基づいて処
理を行うために、特徴点3及び特徴点4の回転中心から
の方向により、特徴点3〜6、画像4〜6の選択する方
法も考えられる。また新たな特徴点の算出結果は多くな
いが、第1の実施の形態に基づいて処理を行うために、
画像3及び画像4のカメラ向きの値により、特徴点3〜
5、画像3〜7の選択する方法も考えられる。
The chain group creation unit 800 first obtains the feature points 1 and 4 at the end of the feature points stored in the position storage unit 900. Here, since no more results can be obtained from the feature point 1, only the feature point 4 is targeted. For example, feature points 4 to 6 are detected from feature points 5 and after including feature point 4, and images 4 to 7 are detected as images including all of them. The product of the number of feature points and the number of images at this time is 3 × 4 = 12. Since the product of the number of feature points and the number of images is the largest among the combinations from the feature points including the feature point 4 and thereafter, this is set as the chain group 1. Here, in order to perform processing based on the third embodiment, a method of selecting feature points 3 to 6 and images 4 to 6 depending on the directions of the feature points 3 and 4 from the rotation center is also conceivable. . Although the calculation result of the new feature point is not large, in order to perform the processing based on the first embodiment,
The feature points 3 to 3 are determined by the values of the images 3 and 4 in the camera direction.
5. A method of selecting images 3 to 7 is also conceivable.

【0082】この連鎖グループとして選択した特徴点4
〜6、画像4〜7に関するデータに基づいて、座標行列
作成部20300、行列分解部20400、正規化部2
0500及び座標算出部20600は、第2の実施の形
態で説明した処理を行う。正規化部20500では位置
記憶部900に記憶された特徴点4の中心からの距離及
び方向を実測値として用いた処理を行う。この結果、特
徴点5〜6の回転中心からの距離及び方向、画像5〜7
のカメラの向きが新たな算出結果として位置記憶部90
0に記憶される。この時点では、位置記憶部900に
は、特徴点1〜6、画像1〜7に関するデータが記憶さ
れていることになる。
The feature point 4 selected as this chain group
6, a coordinate matrix creating unit 20300, a matrix decomposing unit 20400, a normalizing unit 2
0500 and the coordinate calculation unit 20600 perform the processing described in the second embodiment. The normalization unit 20500 performs a process using the distance and the direction from the center of the feature point 4 stored in the position storage unit 900 as the actually measured values. As a result, the distances and directions of the feature points 5 to 6 from the rotation center and the images 5 to 7
Of the camera of the position storage unit 90 as a new calculation result.
0 is stored. At this point, the data regarding the feature points 1 to 6 and the images 1 to 7 are stored in the position storage unit 900.

【0083】ここで、特徴点7〜9(画像8及び画像
9)に関しては、まだ算出結果が記憶されていないの
で、連鎖グループ作成部800は再び連鎖グループを作
成する。位置記憶部900に記憶されている特徴点のう
ち、最も端にある特徴点6を得る。特徴点6を含む特徴
点7以降の中から、例えば特徴点6〜9を検出し、それ
らを全て含む画像として画像7〜9を検出する。このと
きの特徴点数と画像数との積は4×3=12となる。特
徴点6を含み、それ以後の特徴点からの組合せの中で、
特徴点数と画像数との積はこれが最も大きいので、これ
を連鎖グループ2とする。この連鎖グループとして選択
された特徴点6〜9、画像7〜9に関するデータに基づ
いて、座標行列作成部20300、行列分解部2040
0、正規化部20500及び座標算出部20600は、
第2の実施の形態で説明した処理を行い、算出結果を位
置記憶部900に記憶する。以上で全ての特徴点につい
てカメラ回転中心からの距離及び方向が得られる。また
全画像について、カメラの向きを得ることができる。
Here, as for the feature points 7 to 9 (images 8 and 9), since the calculation results have not been stored yet, the chained group creating unit 800 creates a chained group again. Among the feature points stored in the position storage unit 900, the feature point 6 at the end is obtained. For example, feature points 6 to 9 are detected from feature points 7 and later including feature point 6, and images 7 to 9 are detected as images including all of them. The product of the number of feature points and the number of images at this time is 4 × 3 = 12. Including the feature point 6, in the combination from the subsequent feature points,
Since the product of the number of feature points and the number of images is the largest, this is set as a chain group 2. Based on the data on the feature points 6 to 9 and the images 7 to 9 selected as the chain group, a coordinate matrix creation unit 20300 and a matrix decomposition unit 2040
0, the normalization unit 20500 and the coordinate calculation unit 20600,
The processing described in the second embodiment is performed, and the calculation result is stored in the position storage unit 900. As described above, the distance and the direction from the rotation center of the camera are obtained for all the feature points. In addition, the camera orientation can be obtained for all images.

【0084】以上のように第4の実施の形態では、特徴
点追跡部200が検出した全ての特徴点が、全ての画像
に含まれていなかった場合、基本グループ作成部700
が、あらかじめ測定された実測値に基づいて、第1〜第
3の実施の形態により、特徴点の位置が測定できるよう
な特徴点及び画像の組合せを基本グループとして作成
し、座標行列作成部10300、行列分解部1040
0、正規化部10500及び座標算出部10600が画
像を撮影したときのカメラの向きの値並びに中心から各
特徴点までの距離及び方向を第1〜第3の実施の形態で
説明したように算出して、位置記憶部900に算出結果
として記憶し、連鎖グループ作成部800が、算出結果
に基づいて、第1〜第3の実施の形態により、特徴点の
位置が測定できるような特徴点及び画像の組合せを連鎖
グループとして作成し、座標行列作成部20300、行
列分解部20400、正規化部20500及び座標算出
部20600が画像を撮影したときのカメラの向きの値
並びに中心から各特徴点までの距離及び方向を第1〜第
3の実施の形態で説明したように算出して、位置記憶部
900に算出結果として記憶し、これを全ての特徴点に
対して回転中心からの距離及び方向が算出されるまで繰
り返すようにしたので、全画像に、全特徴点が含まれて
いなくても、全ての特徴点に対して回転中心からの距離
及び方向を算出することができ、全ての画像に対して、
その画像を撮影したときのカメラの向きの値を算出する
ことができる。
As described above, in the fourth embodiment, if all the feature points detected by the feature point tracking unit 200 are not included in all the images, the basic group creation unit 700
However, according to the first to third embodiments, a combination of a feature point and an image for which the position of the feature point can be measured is created as a basic group based on actually measured values measured in advance, and a coordinate matrix creation unit 10300 , Matrix decomposition unit 1040
0, the normalization unit 10500 and the coordinate calculation unit 10600 calculate the value of the direction of the camera when capturing the image, and the distance and direction from the center to each feature point as described in the first to third embodiments. Then, it is stored in the position storage unit 900 as a calculation result, and the chain group creation unit 800 can determine the position of the feature point based on the calculation result according to the first to third embodiments. A combination of images is created as a chain group, and the coordinate matrix creating unit 20300, the matrix decomposing unit 20400, the normalizing unit 20500, and the coordinate calculating unit 20600 obtain the values of the camera orientation when the image was captured and the values from the center to each feature point The distance and the direction are calculated as described in the first to third embodiments, and are stored in the position storage unit 900 as the calculation result. Is repeated until the distance and direction are calculated, so that the distance and direction from the rotation center can be calculated for all the feature points even if not all the feature points are included in all the images. , For all images,
The value of the direction of the camera at the time of capturing the image can be calculated.

【0085】また第4の実施の形態によれば、実測値
が、2枚以上の画像を撮影したときのカメラの向きの値
であった場合に、基本グループ作成部700は、カメラ
の向きの値が実測されている2枚の画像の両方に含まれ
る複数の特徴点を選択し、選択した複数の特徴点と選択
した複数の特徴点を全て含む画像との組合せを基本グル
ープとして作成するようにしたので、第1の実施の形態
で説明した処理に基づいて、基本グループ内の全ての特
徴点に対して回転中心からの距離及び方向を算出するこ
とができ、全ての画像に対して、その画像を撮影したと
きのカメラの向きの値を算出することができる。
According to the fourth embodiment, when the measured value is the value of the camera orientation when two or more images are captured, the basic group creation unit 700 A plurality of feature points included in both of the two images whose values are actually measured are selected, and a combination of the selected plurality of feature points and an image including all of the selected plurality of feature points is created as a basic group. Therefore, based on the processing described in the first embodiment, it is possible to calculate the distance and the direction from the rotation center for all the feature points in the basic group. The value of the direction of the camera at the time of capturing the image can be calculated.

【0086】また第4の実施の形態によれば、実測値
が、少なくとも1つの特徴点の回転中心からの距離及び
方向の値であった場合に、基本グループ作成部700
は、実測されている特徴点を含む複数の画像を選択し、
選択した前記複数の画像の全てに含まれている特徴点と
選択した複数の画像との組合せを基本グループとして作
成するようにしたので、第2の実施の形態で説明した処
理に基づいて、基本グループ内の全ての特徴点に対して
回転中心からの距離及び方向を算出することができ、全
ての画像に対して、その画像を撮影したときのカメラの
向きの値を算出することができる。
According to the fourth embodiment, if the measured value is the value of the distance and direction from the rotation center of at least one feature point, the basic group creation unit 700
Selects multiple images containing the measured feature points,
Since a combination of the feature points included in all of the selected plurality of images and the selected plurality of images is created as a basic group, the basic group is created based on the processing described in the second embodiment. The distance and the direction from the rotation center can be calculated for all the feature points in the group, and the value of the direction of the camera when the image is shot can be calculated for all the images.

【0087】また第4の実施の形態によれば、連鎖グル
ープ作成部800は、位置記憶部900に記憶された特
徴点のうち、位置的に最も端にある特徴点を検出し、そ
の特徴点と位置記憶部900に記憶されていない特徴点
を全て含む画像を選択し、それらの特徴点と選択した画
像との組合せを連鎖グループとして作成するようにした
ので、第2の実施の形態で説明した処理に基づいて、連
鎖グループ内の全ての特徴点に対して回転中心からの距
離及び方向を算出することができ、全ての画像に対し
て、その画像を撮影したときのカメラの向きの値を算出
することができる。
Further, according to the fourth embodiment, chained group creation section 800 detects a position-most end point among the characteristic points stored in position storage section 900, and detects the characteristic point. And an image including all the feature points that are not stored in the position storage unit 900, and a combination of the feature points and the selected image is created as a chained group, which will be described in the second embodiment. Based on the above processing, the distance and direction from the rotation center can be calculated for all the feature points in the chain group, and the value of the direction of the camera when the image was taken for all the images. Can be calculated.

【0088】また第4の実施の形態によれば、選択した
特徴点と画像との組合せのうち、画像数とその画像に含
まれる特徴点の数との積が最も大きいものを基本グルー
プ及び連鎖グループとして作成するようにしたので、よ
り多くのデータ数に基づいて、基本グループ内又は連鎖
グループ内の特徴点及び画像について算出結果を算出す
ることができる。
According to the fourth embodiment, among the combinations of selected feature points and images, the combination of the number of images and the number of feature points included in the image is determined by the basic group and the chain. Since the data is created as a group, the calculation result can be calculated for the feature points and images in the basic group or the chained group based on a larger number of data.

【0089】実施形態5.例えば、次に示す表9のよう
に各画像での各特徴点のカメラ回転方向の座標が探索さ
れているものとする。ここで、特徴点1及び特徴点7に
ついて、カメラ回転中心からの方向が実測されている場
合、特徴点1と特徴点7とを同時に含む画像がないた
め、基本グループ及び連鎖グループを作成できず、第4
の実施の形態に基づく位置測定は行えない。そこで、本
実施の形態では、仮の実測値を設定した上で、第4の実
施の形態で説明した処理を行い、実際の実測値と最もよ
く合う計算結果を最終的に算出結果とし、位置測定を行
う方法について説明する。
Embodiment 5 For example, it is assumed that the coordinates in the camera rotation direction of each feature point in each image are searched as shown in Table 9 below. Here, when the directions of the feature point 1 and the feature point 7 from the rotation center of the camera are actually measured, there is no image including the feature point 1 and the feature point 7 at the same time, so that the basic group and the chain group cannot be created. , Fourth
The position measurement based on the embodiment cannot be performed. Therefore, in the present embodiment, after setting a temporary actual measurement value, the processing described in the fourth embodiment is performed, and the calculation result that best matches the actual actual measurement value is finally determined as the calculation result, and the position is calculated. A method for performing the measurement will be described.

【0090】[0090]

【表9】 [Table 9]

【0091】図9は本発明の第5の実施の形態に係る位
置測定方法を実現するための装置のブロック図である。
図において、カメラ部100、特徴点追跡部200、基
本グループ作成部700、連鎖グループ作成部800、
位置記憶部900、座標行列作成部10300及び20
300、行列分解部10400及び20400、座標算
出部10600及び20600並びに正規化部2050
0は、第4の実施の形態で説明したことと同様の動作を
行うので説明を省略する。正規化部10501について
も正規化部10500とほぼ同様の動作を行うが、実測
値ではなく、仮カメラ向き提供部1000から提供され
た2つの画像に割り当てられた1又は複数の仮のカメラ
向きの値に基づいて、行列Θ及び行列Aを算出する点で
異なる。
FIG. 9 is a block diagram of an apparatus for realizing the position measuring method according to the fifth embodiment of the present invention.
In the figure, a camera unit 100, a feature point tracking unit 200, a basic group creation unit 700, a chain group creation unit 800,
Position storage unit 900, coordinate matrix creation units 10300 and 20
300, matrix decomposition units 10400 and 20400, coordinate calculation units 10600 and 20600, and normalization unit 2050
Since 0 performs the same operation as that described in the fourth embodiment, the description is omitted. The normalization unit 10501 also performs substantially the same operation as the normalization unit 10500, but does not use the measured values but one or a plurality of temporary camera directions assigned to the two images provided from the temporary camera direction providing unit 1000. The difference is that the matrix Θ and the matrix A are calculated based on the values.

【0092】画像選択部1300は、仮のカメラ向きを
設定するために2枚の画像を選択する。画像選択部13
00における画像の選択方法は、第1の実施の形態を行
うことができるような2枚の画像が選択できればどのよ
うな方法を用いて選択してもよい。例えば、最初に選択
した画像(最初の画像)を2枚のうちの1枚として選択
する。その画像に含まれる特徴点から複数の特徴点を選
択し、選択した特徴点を全て含む画像の中で最初の画像
と最も離れた位置を撮影した画像を、もう1枚の画像と
して選択する。ここで複数の特徴点の選択は、選択した
特徴点数とそれらの特徴点を全て含む画像との積が最大
になるように選択する。
The image selection section 1300 selects two images to set a temporary camera orientation. Image selection unit 13
As the image selection method in 00, any method may be used as long as two images that can perform the first embodiment can be selected. For example, the image selected first (first image) is selected as one of the two images. A plurality of feature points are selected from the feature points included in the image, and an image obtained by photographing a position farthest from the first image among images including all the selected feature points is selected as another image. Here, a plurality of feature points are selected such that the product of the selected number of feature points and an image including all of the feature points is maximized.

【0093】仮カメラ向き提供部1000は、画像選択
部1300で選択された画像に対する1又は複数の仮の
カメラ向きの値を算出し、正規化部10501に送信す
る。仮カメラ向き提供部1000は、実測されている特
徴点の回転中心からの方向に基づいて適当な方法で仮の
カメラ向きを予測し、算出する。例えば、実測されてい
る2つの特徴点について、それぞれの特徴点が最も中心
近くに撮影された画像のカメラの向きが、仮にその特徴
点の実測された回転中心からの方向に一致するものとし
て、外挿又は内挿により、各特徴点が等距離間隔で分布
しているものとして計算し、予測する。仮のカメラ向き
を複数送信した場合は、それぞれについて位置測定処理
を行い、それぞれの算出結果を出力することになる。
The provisional camera direction providing unit 1000 calculates one or a plurality of provisional camera direction values for the image selected by the image selection unit 1300 and transmits the values to the normalization unit 10501. The provisional camera direction providing unit 1000 predicts and calculates the provisional camera direction by an appropriate method based on the measured direction of the feature point from the rotation center. For example, for two actually measured feature points, assuming that the direction of the camera of an image of which each feature point is closest to the center coincides with the direction from the actually measured rotation center of the feature point, By extrapolation or interpolation, each feature point is calculated and estimated as being distributed at equal distance intervals. When a plurality of temporary camera directions are transmitted, position measurement processing is performed for each of them, and each calculation result is output.

【0094】実測値比較部1100は、2つの特徴点の
回転中心からの方向の実測値と計算値とを比較する。そ
の結果、必要な精度以下の誤差となる計算結果が算出さ
れたか、又は仮カメラ向き修正部1200で修正を行っ
ても誤差が小さくならないと判断すると、その計算結果
を最終的な算出結果とする。仮カメラ向き修正部120
0では、実測値比較部1100での実測値と計算値との
比較結果に基づいて、よりよい仮のカメラ向きを仮カメ
ラ向き提供部1000に設定し、再度計算を行わせる。
例えば、2つの特徴点の回転中心からの方向が実測され
ている場合、それらの値をそれぞれφi φj とし、また
算出された値をφci、φcjとする。その値が得られた仮
カメラ向きに対し、φi −φj /(φci−φcj)をか
け、 (φjφci−φiφcj) /(φi −φj )を加えた
ものを新たに修正された仮カメラ向きとして、仮カメラ
向き提供部1000に送信する。φi −φj /(φci
φcj)は実測値における2つのカメラ向きの角度差と計
算結果におけるカメラ向きの角度差の比を表す。また、
(φjφci−φiφcj)/(φi −φj )は、実測値と計
算結果のカメラ向きの回転角の基準のずれを表す。
The measured value comparison unit 1100 compares the measured value of the two feature points in the direction from the rotation center with the calculated value. As a result, if it is determined that a calculation result having an error smaller than the required accuracy has been calculated, or if it is determined that the error is not reduced even if the correction is performed by the temporary camera direction correction unit 1200, the calculation result is set as a final calculation result. . Temporary camera orientation correction unit 120
In the case of 0, a better temporary camera direction is set in the temporary camera direction providing unit 1000 based on the comparison result between the actually measured value in the actually measured value comparison unit 1100 and the calculated value, and the calculation is performed again.
For example, when the directions of the two feature points from the rotation center are actually measured, their values are respectively set as φ i φ j , and the calculated values are set as φ ci and φ cj . Multiplied by φ i −φ j / (φ ci −φ cj ) to the direction of the temporary camera from which the value was obtained, and (φ j φci −φ i φ cj ) / (φ i −φ j ) was added. The object is transmitted to the provisional camera direction providing unit 1000 as a newly corrected provisional camera direction. φ i −φ j / (φ ci
φ cj ) represents the ratio of the angle difference between the two camera directions in the measured value and the angle difference between the camera directions in the calculation result. Also,
j φ ci −φ i φ cj ) / (φ i −φ j ) represents the difference between the measured value and the calculation result of the reference rotation angle for the camera.

【0095】次に具体的数値に基づいて、本実施の形態
の装置の動作について説明する。ここでは図5の対象物
体について、カメラの視野角が第1の実施の形態1で使
用したものより狭かったために、特徴点の追跡の結果が
表13のようになったものとして説明する。また、回転
中心からの方向が実測されている特徴点は特徴点1と特
徴点7とし、その実測値はそれぞれ0.009967r
ad及び−0.009967radであるとする。さら
に、実測値比較部1100は0.001rad以下の精
度を目標とする。
Next, the operation of the apparatus according to the present embodiment will be described based on specific numerical values. Here, the description will be given on the assumption that the tracking result of the feature point is as shown in Table 13 because the viewing angle of the camera of the target object in FIG. 5 is narrower than that used in the first embodiment. The feature points whose directions from the rotation center are actually measured are feature points 1 and 7, and the measured values are 0.009967 r, respectively.
ad and -0.009967 rad. Further, the measured value comparison unit 1100 aims at an accuracy of 0.001 rad or less.

【0096】カメラ部100のカメラが撮影した画像に
基づいて、特徴点追跡部200が各画像において各特徴
点のカメラ回転方向の座標を探索する。画像選択部13
00は、画像1を仮カメラ向きを設定する2枚の画像う
ちの1枚として選択する。画像1に含まれる特徴点4〜
7を全て含んだ画像は画像1〜6の6枚で、特徴点数と
画像数との積が4×6=24で最大であるため、特徴点
4〜7を全て含み、画像1から最も離れた画像6を2枚
目の画像として選択する。
On the basis of the image captured by the camera of the camera unit 100, the feature point tracking unit 200 searches for the coordinates of each feature point in the camera rotation direction in each image. Image selection unit 13
00 selects image 1 as one of the two images for which the temporary camera orientation is set. Feature point 4 included in image 1
7 are all images 1 to 6 and the product of the number of feature points and the number of images is 4 × 6 = 24, which is the maximum. Therefore, all the feature points 4 to 7 are included and the image is farthest from image 1. The selected image 6 is selected as the second image.

【0097】仮カメラ向き提供部1000は、仮のカメ
ラ向きの値を算出する。特徴点1が最も中心近くで撮影
されているのは画像11である。そこで、仮に画像11
のカメラ向きを0.009967とする。また、特徴点
7が最も中心近くで撮影されているのは画像1である。
そこで、仮に画像1のカメラ向きを−0.009967
とする。ここで、画像選択部1300で選択された画像
1は仮のカメラ向きをそのまま−0.009967とす
る。画像6は、画像1と画像11とに基づいて内挿して
算出する。したがって、{0.009967−(−0.
009967)}×(6−1)/(11−1)+(−
0.009967)=0radとし、これを画像6の仮
のカメラ向きの値とする。仮カメラ向き提供部1000
は、正規化部10501にこれらの値を送信する。
The provisional camera direction providing section 1000 calculates a value of the provisional camera direction. The image 11 is taken at the feature point 1 closest to the center. Therefore, suppose image 11
Is set to 0.009967. In addition, image 1 is the one where feature point 7 is photographed closest to the center.
Therefore, suppose that the camera direction of image 1 is -0.009967.
And Here, the image 1 selected by the image selection unit 1300 has the temporary camera direction set to −0.009967. The image 6 is calculated by interpolation based on the image 1 and the image 11. Therefore, $ 0.009967-(-0.
0099967)} × (6-1) / (11-1) + (−
0.009967) = 0 rad, which is the value of the image 6 for the temporary camera. Temporary camera orientation providing unit 1000
Transmits these values to the normalization unit 10501.

【0098】基本グループ作成部700、連鎖グループ
作成部800、位置記憶部900、座標行列作成部10
300及び20300、行列分解部10400及び20
400、正規化部10501及び20500並びに座標
算出部10600及び20600は、第4の実施の形態
で説明したことと同様の動作を行い、全ての特徴点及び
画像に関して算出結果を算出する。このとき、基本グル
ープと連鎖グループは表9に波線で示したようにグルー
プ分けする。これらの値に基づいて算出した計算結果を
示したのが表10の「1回目」の行である。計算によっ
て特徴点1及び特徴点7についても回転中心からの方向
の計算値が得られたが、その誤差はそれぞれ0.014
815、0.01461であり、実測値比較部1100
が目標値とする0.001rad以下の精度には達して
いない。
Basic group creating section 700, chained group creating section 800, position storage section 900, coordinate matrix creating section 10
300 and 20300, matrix decomposition units 10400 and 20
400, the normalizing units 10501 and 20500, and the coordinate calculating units 10600 and 20600 perform the same operations as described in the fourth embodiment, and calculate the calculation results for all the feature points and images. At this time, the basic group and the chain group are divided into groups as shown by the dotted lines in Table 9. The result of calculation based on these values is shown in the “first time” row of Table 10. Although the calculation values of the directions from the rotation center were obtained for the feature points 1 and 7 by the calculation, the error was 0.014 for each.
815 and 0.01461, and the measured value comparison unit 1100
Does not reach the target value of 0.001 rad or less.

【0099】[0099]

【表10】 [Table 10]

【0100】仮カメラ向き修正部1200は、画像1と
画像6との仮のカメラ向き−0.009967、0に、
{0.009967−(−0.009967)}/
{0.1144848−(−0.1142805)=
0.87137をかける。また、{0.1144848
×(−0.009967)−(−0.1142805)
×0.009967}/{0.1144848−(−
0.1142805)}=−0.000089を加え
る。その結果、修正された画像1と画像6との仮のカメ
ラ向きは、それぞれ−0.086938、−0.000
089となる。この値を新たな仮のカメラ向きとして仮
カメラ向き提供部1000に送信し、再度位置測定処理
を行う。この計算結果を示したのが表10の「修正後」
の行である。実測比較部1100は計算結果と実測値と
を比較する。特徴点1及び特徴点7共にその誤差は0.
001rad以下なので、ここで処理を終了し、このと
きの計算結果を最終的な算出結果として出力する。本実
施の形態で算出した各特徴点の位置の算出結果を表11
に示す。
The temporary camera direction correcting section 1200 calculates the temporary camera direction of the image 1 and the image 6 as −0.009967,0.
{0.009967-(-0.009967)} /
{0.1144848-(− 0.1142805) =
Multiply by 0.87137. Also, $ 0.1144848
× (-0.009967)-(-0.1142805)
× 0.009967} / {0.1144848-(-
0.1142805)} = − 0.000089 is added. As a result, the provisional camera directions of the corrected image 1 and image 6 are -0.086938 and -0.000, respectively.
089. This value is transmitted to the provisional camera direction providing unit 1000 as a new provisional camera direction, and the position measurement processing is performed again. The result of this calculation is shown in "After correction" in Table 10.
Line. The measurement comparison unit 1100 compares the calculation result with the measurement value. The error of both feature point 1 and feature point 7 is 0.
Since it is less than 001 rad, the process is terminated here, and the calculation result at this time is output as a final calculation result. Table 11 shows the calculation result of the position of each feature point calculated in the present embodiment.
Shown in

【0101】[0101]

【表11】 [Table 11]

【0102】以上のように第5の実施の形態によれば、
画像選択部1300が2枚の画像を選択して、それらの
画像に基づいて仮カメラ向き提供部1000が算出した
仮のカメラ向きに基づいて、正規化部10501に処理
させて算出した算出結果に基づいて、実測値比較部11
00が、実測値に基づいて仮のカメラ向きを再度設定し
て再度計算を行うかどうかの判断を行い、再度計算を行
うものと判断すると、カメラ向き修正部1200が仮の
カメラ向きを再度設定する計算を行い、再度位置測定処
理を行って、最も精度のいい計算結果を算出結果として
出力するようにしたので、たとえ、回転中心からの方向
の値が実測された少なくとも2つの特徴点を同時に含む
画像が存在しない場合でも、全ての特徴点について位置
の測定を行うことができる。また、このため、実測する
特徴点は、同一画面に含まれてなくてもよくなり、特徴
点の選択に関しての制限が緩和される。また、カメラ向
き修正部1200において、仮のカメラ向きに対して
(φi −φj )/(φci−φ cj)を乗じ、 (φjφci
φiφcj) /(φi −φj )を加えた値を、修正した仮
のカメラ向きとするようにしたので、より精度の高い仮
のカメラ向きを正規化部10501に提供でき、精度の
高い位置測定を行うことができる。
As described above, according to the fifth embodiment,
The image selection unit 1300 selects two images, and selects those images.
Calculated by provisional camera orientation providing unit 1000 based on the image
Processed by the normalization unit 10501 based on the temporary camera orientation
Based on the calculated result, the measured value comparison unit 11
00 sets the temporary camera orientation again based on the measured values.
To determine whether to perform the calculation again, and perform the calculation again.
If the camera orientation correction unit 1200 determines that the
Perform the calculation to set the camera orientation again, and then
The most accurate calculation result as the calculation result.
Output, so even if the direction from the center of rotation
Includes at least two feature points measured at the same time
Even if no image exists, the positions of all feature points
Can be measured. Also, because of this,
Feature points do not have to be included in the same screen.
Restrictions on point selection are relaxed. Also for camera
Correction unit 1200 for the temporary camera orientation
i −φj ) / (Φci−φ cj) And (φjφci
φiφcj) / (Φi −φj ) Is added to the modified temporary
Of the camera, so the more accurate temporary
Can be provided to the normalization unit 10501,
High position measurements can be made.

【0103】実施形態6.本実施の形態では、カメラ部
100のカメラを約1回転させ、約2πrad(360
度)にわたって画像を撮影する場合を考える。最初の画
像上で撮影されたある特徴点とカメラを約1回転させた
時に撮影された別の画像上の同一の特徴点とを、2π離
れた異なる特徴点として2つの特徴点の回転中心からの
方向の実測値とする。そして、第5の実施の形態の実測
値比較部1100において、計算結果と比較するための
実測値として用い、第5の実施の形態の位置測定処理を
行うものである。
Embodiment 6 FIG. In the present embodiment, the camera of the camera unit 100 is rotated by about one rotation to obtain about 2πrad (360
Let's consider a case where an image is taken over the same degree). A feature point shot on the first image and the same feature point on another image shot when the camera is rotated about one turn are defined as different feature points separated by 2π from the rotation center of the two feature points. Is the measured value in the direction of. The measured value comparison unit 1100 according to the fifth embodiment performs the position measurement processing according to the fifth embodiment by using the measured values as the measured values to be compared with the calculation results.

【0104】図10は本発明の第6の実施の形態に係る
位置測定方法を実現するための装置のブロック図であ
る。図において、同一点検出部1400と実測値保持部
1500以外は、図9で同じ番号を付したものと同様の
動作を行い、第5の実施の形態で既に説明したので省略
する。同一点検出部1400は、特徴点追跡部200で
探索された座標が特徴点のうち、例えば、最初の数枚の
画像中に含まれる特徴点と、カメラを約1回転した後の
数枚の画像中に含まれる特徴点とから同一の特徴点を検
出する。この検出は、単純なパターンマッチングにより
で同一の特徴点を探してもよいし、オペレータが同一の
特徴点を指定してもよい。実測値保持部1500は、同
一点検出部1400で同一の特徴点として検出された一
組の特徴点のうち、最初の方の画像に含まれる特徴点の
回転中心からの方向の実測値を0radとする。また、
カメラを約1回転した後の画像に含まれる特徴点の回転
中心からの方向の実測値を2πradとして別の特徴点
として扱い、実測値比較部1100の比較対象とするた
めの2つの実測値とする。
FIG. 10 is a block diagram of an apparatus for realizing the position measuring method according to the sixth embodiment of the present invention. In the figure, the same operations as those denoted by the same reference numerals in FIG. 9 are performed except for the same point detection unit 1400 and the actual measurement value holding unit 1500, and a description thereof will be omitted because it has already been described in the fifth embodiment. The same point detection unit 1400 includes, for example, the feature points included in the first few images and the coordinates of the coordinates searched by the feature point tracking unit 200, which are included in the first few images. The same feature point is detected from the feature points included in the image. In this detection, the same feature point may be searched for by simple pattern matching, or the same feature point may be specified by the operator. The measured value holding unit 1500 stores, in a set of feature points detected as the same feature point by the same point detection unit 1400, a measured value in the direction from the rotation center of the feature point included in the first image to 0 rad. And Also,
The actual measured value of the direction from the rotation center of the feature point included in the image after the camera has been rotated about 1 is treated as another feature point as 2πrad, and two actual measured values for comparison with the actual measured value comparison unit 1100 are included. I do.

【0105】図11は第6の実施の形態における装置の
動作を説明するための図である。図11に基づいて、具
体的数値を用いて本実施の形態の装置の動作について説
明する。カメラ部100のカメラを約1回転させ、約2
πrad(360度)にわたって画像を撮影したものと
する。ここで、図24に示したようにカメラ位置1での
画像を画像1とし、カメラ位置Tでの画像を画像Tとす
る。また、特徴点1は画像1では特徴点A、画像Tでは
特徴点Bとして検出されているものとする。
FIG. 11 is a diagram for explaining the operation of the device according to the sixth embodiment. The operation of the apparatus according to the present embodiment will be described using specific numerical values with reference to FIG. The camera of the camera unit 100 is rotated about one turn, and
It is assumed that an image has been captured over πrad (360 degrees). Here, as shown in FIG. 24, the image at the camera position 1 is referred to as an image 1, and the image at the camera position T is referred to as an image T. It is assumed that feature point 1 is detected as feature point A in image 1 and feature point B in image T.

【0106】例えば、オペレータが画像1及び画像Tに
基づいて、特徴点Aと特徴点Bが同一の特徴点であると
同一点検出部1400に指定すると、同一点検出部14
00は特徴点Aと特徴点Bが同一の特徴点であるとのデ
ータを実測値保持部1500に送信する。実測値保持部
150は、特徴点A(画像1における特徴点1)の回転
中心からの方向の実測値を0radとする。また特徴点
B(画像Tにおける特徴点1)の回転中心からの方向の
実測値を2πradとし、特徴点Bを新たに特徴点(N
+1)として実測値比較部1100に出力する。2つの
特徴点の回転中心からの方向の実測値を得た実測値比較
部1100は、その実測値を用いて比較を行える。ここ
では、特に精密な実測をしているわけではないが、第5
の実施の形態で説明したように、仮のカメラ向きに基づ
いて位置測定処理を行うことができ、算出結果を得るこ
とができる。
For example, when the operator designates the feature point A and the feature point B to be the same feature point on the same point detection unit 1400 based on the image 1 and the image T, the same point detection unit 14
00 transmits to the measured value holding unit 1500 data indicating that the feature points A and B are the same feature point. The measured value holding unit 150 sets the measured value in the direction from the rotation center of the feature point A (the feature point 1 in the image 1) to 0 rad. Also, the measured value of the direction of the feature point B (the feature point 1 in the image T) from the rotation center is set to 2πrad, and the feature point B is newly added to the feature point (N
+1) is output to the measured value comparison unit 1100. The measured value comparison unit 1100 that has obtained the measured values of the two feature points in the direction from the rotation center can perform comparison using the measured values. Here, although not particularly precise actual measurement, the fifth
As described in the embodiment, the position measurement processing can be performed based on the temporary camera direction, and the calculation result can be obtained.

【0107】以上のように第6の実施の形態によれば、
カメラ部100が約1周して撮影する場合に、同一点検
出部が、ある特徴点について0radを撮影した画像と
2πradを撮影した画像とを検出し、実測値保持部1
500において、一方の特徴点の回転中心からの方向の
実測値を0radとし、もう一方の特徴点の回転中心か
らの方向の実測値を2πradとして別の特徴点として
扱い、実測値比較部1100において、比較対象の実測
値とするようにしたので、特徴点を選択するだけで、0
rad、2πradの2つの特徴点の回転中心からの方
向を得られるので、特に精密な実測を必要としなくて
も、全ての特徴点について回転中心からの距離及び方向
を算出することができる。
As described above, according to the sixth embodiment,
When the camera unit 100 shoots for one round, the same point detection unit detects an image obtained by shooting 0 rad and an image obtained by shooting 2πrad for a certain feature point,
At 500, the measured value of one feature point in the direction from the rotation center is set to 0 rad, and the measured value of the other feature point in the direction from the rotation center is treated as 2πrad as another feature point. , The actual measurement value of the comparison object is set,
Since the directions from the rotation center of the two feature points of rad and 2πrad can be obtained, the distance and the direction from the rotation center can be calculated for all the feature points without particularly requiring precise measurement.

【0108】実施形態7.上述の第1の実施の形態にお
いて、正規化部500では、最小二乗和を用いてq及び
θ0 を算出することができる。例えば、第1の実施の形
態では、3枚以上の画像でカメラの向きが実測されてい
る場合、例えば最小二乗法等の一般的な方法で、θ1
とθ1 とが最もよく一致するように最小二乗和によりq
を決定することができる。
Embodiment 7 FIG. In the first embodiment described above, the normalization unit 500 can calculate q and θ 0 using the least square sum. For example, in the first embodiment, when the orientation of the camera is actually measured in three or more images, θ 1 ′ is obtained by a general method such as the least square method.
And θ 1 by the least square sum so that
Can be determined.

【0109】実施形態8.また、上述の第2の実施の形
態において、正規化部501では、最小二乗和を用いて
qを算出することができる。例えば2つ以上の特徴点で
回転中心からの距離ri 及び方向φi が実測されている
場合、実測されたそれぞれの距離ri に対して、1/
(1−L/ri )を算出して最小二乗和を算出し、これ
をqとする。また、θ0 は(15)式で求める。
Embodiment 8 FIG. Further, in the above-described second embodiment, the normalization unit 501 can calculate q using the least square sum. For example, when the distance r i and the direction φ i from the rotation center are actually measured at two or more feature points, 1/1 is calculated for each actually measured distance r i .
(1-L / r i) is calculated to calculate a minimum square sum, which is referred to as q. Further, θ 0 is obtained by Expression (15).

【0110】実施形態9.また、上述の第3の実施の形
態において、正規化部502では、最小二乗和を用いて
q及びθ0 を算出することができる。例えば2つ以上の
特徴点で回転中心からの方向φi が実測されている場
合、行列Θ”の成分をθt” とし、行列A’の成分をα
i’ として、各特徴点について次式(18)を算出し、
この二乗和が最小になるようにq及びθ0 を決定する。
Embodiment 9 FIG. In the third embodiment, the normalizing unit 502 can calculate q and θ 0 using the least square sum. For example, when the direction φ i from the rotation center is actually measured at two or more feature points, the component of the matrix Θ ″ is set to θ t ″, and the component of the matrix A ′ is set to α
The following equation (18) is calculated for each feature point as i ′,
Q and θ 0 are determined so that the sum of squares is minimized.

【0111】[0111]

【数21】 (Equation 21)

【0112】実施形態10.上述の実施の形態は、各部
を設けてそれぞれの算出を行ったが、カメラ部100以
外の各部については、実際にはコンピュータ、コンピュ
ータに上述した実施の形態の動作を行わせるプログラム
及びそのプログラムを記録する記録媒体によって実現す
るものである。
Embodiment 10 FIG. In the above-described embodiment, each unit is provided and each calculation is performed. However, regarding each unit other than the camera unit 100, a computer and a program for causing the computer to perform the operations of the above-described embodiment and a program for the computer are actually used. This is realized by a recording medium for recording.

【0113】[0113]

【発明の効果】以上のように本発明によれば、中心から
一定距離にある円周上を回転移動して、円周外側画像を
撮影するように条件を工夫して撮影した1又は複数枚の
画像について、全ての画像に含まれる特徴点を1又は複
数検出して、各画像における各特徴点の回転方向の座標
値を検出し、撮影したカメラの焦点距離で正規化して、
また各特徴点について、正規化した値の平均を算出して
差を算出して行列を作成し、ある2つの行列の積が、作
成した行列に最も近くなるように、ある2つの行列を決
定し、実測値に対応するようにある値及び一定値を算出
し、一方の行列にある値をかけて一定値を加え、また他
方の行列をある値で割り、それらの行列に基づいて、中
心から各特徴点までの距離及び方向を算出するようにし
たので、少ない実測値(例えば、1つの特徴点の回転中
心からの距離と方向、2つの特徴点の回転中心からの方
向、ある2つの画像を撮影したときのカメラの向き)で
も精度よく、回転中心から全ての特徴点までの距離及び
方向並びに各画像が撮影されたときのカメラの向きの値
を算出することができる。
As described above, according to the present invention, one or a plurality of images obtained by rotating and moving on the circumference at a fixed distance from the center and devising conditions so as to capture an image outside the circumference are obtained. For one image, one or more feature points included in all images are detected, the coordinate value of each feature point in each image in the rotation direction is detected, and the coordinate value is normalized by the focal length of the captured camera.
Also, for each feature point, a matrix is created by calculating the average of the normalized values and calculating the difference, and two certain matrices are determined such that the product of the two matrices is closest to the created matrix. Then, a certain value and a certain value are calculated so as to correspond to the actually measured value, a certain value is multiplied by one of the matrices, a certain value is added, and the other matrix is divided by a certain value. , The distance and direction to each feature point are calculated, so that the measured values are small (for example, the distance and direction from the rotation center of one feature point, the direction from the rotation center of two feature points, It is possible to accurately calculate the distances and directions from the rotation center to all the feature points and the camera orientation values at the time of capturing each image.

【0114】また、本発明によれば、検出した全ての特
徴点が、全ての画像に含まれていなかった場合でも、あ
らかじめ測定された実測値に基づいて、特徴点の位置が
測定できるような特徴点及び画像の組合せを基本グルー
プとして作成して、基本グループについてカメラの向き
の値並びに中心から各特徴点までの距離及び方向を算出
して記憶し、また基本グループで算出された算出結果を
一部に含んだ特徴点又は画像の組合せを連鎖グループと
して作成して、連鎖グループについてカメラの向きの値
並びに中心から各特徴点までの距離及び方向を算出して
記憶し、これを全ての特徴点について回転中心からの距
離及び方向が算出されるまで行われるようにしたので、
全画像に、全特徴点が含まれていなくても、全ての特徴
点に対して回転中心からの距離及び方向を算出すること
ができ、全ての画像に対して、その画像を撮影したとき
のカメラの向きの値を算出することができる。
Further, according to the present invention, even if all the detected feature points are not included in all the images, the positions of the feature points can be measured based on the actually measured values measured in advance. A combination of feature points and images is created as a basic group, the values of the direction of the camera and the distance and direction from the center to each feature point are calculated and stored for the basic group, and the calculation result calculated in the basic group is calculated. A combination of feature points or images included in a part is created as a chain group, and the value of the camera direction and the distance and direction from the center to each feature point are calculated and stored for the chain group, and this is calculated for all the features. As the distance and direction from the rotation center are calculated for the point,
Even if all the feature points are not included in all the images, the distance and the direction from the rotation center can be calculated for all the feature points, and when all the images are photographed, The value of the camera direction can be calculated.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態に係る位置測定方法
を実現するための装置のブロック図である。
FIG. 1 is a block diagram of an apparatus for realizing a position measuring method according to a first embodiment of the present invention.

【図2】カメラ部100の設置状態例を表す図である。FIG. 2 is a diagram illustrating an example of an installation state of a camera unit 100.

【図3】本実施の形態で用いる近似について説明するた
めの図である。
FIG. 3 is a diagram for describing approximation used in the present embodiment.

【図4】カメラ部100上部から見たカメラ部100と
特徴点との関係を表す図である。
FIG. 4 is a diagram illustrating a relationship between the camera unit 100 and feature points as viewed from above the camera unit 100.

【図5】対象物体の特徴点と撮影状況を表す図である。FIG. 5 is a diagram illustrating a feature point of a target object and a shooting state.

【図6】特徴点が広範囲にわたって配置されている場合
を示す図である。
FIG. 6 is a diagram showing a case where feature points are arranged over a wide range.

【図7】各画像に含まれる特徴点の関係例を表す図であ
る。
FIG. 7 is a diagram illustrating a relationship example of feature points included in each image.

【図8】本発明の第4の実施の形態に係る位置測定方法
を実現するための装置のブロック図である。
FIG. 8 is a block diagram of an apparatus for realizing a position measuring method according to a fourth embodiment of the present invention.

【図9】本発明の第5の実施の形態に係る位置測定方法
を実現するための装置のブロック図である。
FIG. 9 is a block diagram of an apparatus for realizing a position measuring method according to a fifth embodiment of the present invention.

【図10】本発明の第6の実施の形態に係る位置測定方
法を実現するための装置のブロック図である。
FIG. 10 is a block diagram of an apparatus for realizing a position measuring method according to a sixth embodiment of the present invention.

【図11】第6の実施の形態における装置の動作を説明
するための図である。
FIG. 11 is a diagram for explaining an operation of the device according to the sixth embodiment.

【符号の説明】[Explanation of symbols]

100 カメラ部 200 特徴点追跡部 300、10300、20300 座標行列作成部 400、10400、20400 行列分解部 500、501、502、10500、10501、2
0500 正規化部 600、10600、20600 座標算出部 700 基本グループ作成部 800 連鎖グループ作成部 900 位置記憶部 1000 仮カメラ向き提供部 1100 実測値比較部 1200 仮カメラ向き修正部 1300 画像選択部 1400 同一点検出部 1500 実測値保持部
Reference Signs List 100 camera unit 200 feature point tracking unit 300, 10300, 20300 coordinate matrix creation unit 400, 10400, 20400 matrix decomposition unit 500, 501, 502, 10500, 10501, 2
0500 Normalization unit 600, 10600, 20600 Coordinate calculation unit 700 Basic group creation unit 800 Chained group creation unit 900 Position storage unit 1000 Temporary camera direction providing unit 1100 Actual measured value comparison unit 1200 Temporary camera direction correction unit 1300 Image selection unit 1400 Same inspection Output unit 1500 Actual value holding unit

Claims (21)

【特許請求の範囲】[Claims] 【請求項1】 回転中心から一定距離にある円周上を移
動して、前記円周外側の1又は複数枚の画像をカメラで
撮影する工程と、 前記1又は複数枚の画像の全てに含まれる1又は複数の
特徴点を検出し、各画像における各特徴点の前記移動方
向の座標値を検出する工程と、 前記各画像における各特徴点の移動方向の座標値を、前
記撮影したカメラに基づいた焦点距離で正規化し、ま
た、前記複数の画像における前記正規化した座標値の平
均を前記特徴点ごとに算出して前記各正規化した座標値
との差を算出し、算出した差の値を成分とする行列を作
成する工程と、 ある2つの行列の積が、作成した行列に最も近い行列と
なるように、前記ある2つの行列を決定する工程と、 あらかじめ測定された実測値に対応するようにある値及
び一定値を算出し、前記ある2つの行列の一方の行列に
ある値を乗じて一定値を加え、また前記ある2つの行列
の他方の行列を前記ある値で除し、それらの行列に基づ
いて、前記中心から前記各特徴点までの距離及び方向を
算出する工程とを有することを特徴とする物体の位置測
定方法。
1. a step of moving on a circumference at a fixed distance from a center of rotation and photographing one or more images outside the circumference with a camera; and including all of the one or more images Detecting one or a plurality of feature points to be detected, and detecting the coordinate value of each feature point in each image in the movement direction, and the coordinate value of each feature point in each image in the movement direction in the image-captured camera. Normalized by the focal length based on, the average of the normalized coordinate values in the plurality of images is calculated for each of the feature points to calculate a difference between the normalized coordinate values, and the calculated difference Creating a matrix having values as components; determining the two matrices so that the product of the two matrices is the matrix closest to the created matrix; and A certain value and a constant value to correspond Multiplying one of the two matrices by a certain value to add a constant value, and dividing the other of the two matrices by the certain value, and based on those matrices, from the center, Calculating a distance and a direction to each of the feature points.
【請求項2】 前記検出した前記全ての特徴点が、複数
枚の画像の全てに含まれていなかった場合、 前記あらかじめ測定された実測値に基づいて、前記画像
を撮影したときのカメラの向きの値並びに前記中心から
前記各特徴点までの距離及び方向が算出可能な特徴点及
び画像の組合せを基本グループとして作成する工程と、 前記基本グループに含まれる特徴点及び画像の組合せに
ついて、画像を撮影したときのカメラの向きの値並びに
前記中心から前記各特徴点までの距離及び方向を算出
し、算出結果を記憶する工程と、 前記記憶した算出結果に基づいて、前記画像を撮影した
ときのカメラの向きの値並びに前記中心から前記各特徴
点までの距離及び方向が算出可能な特徴点及び画像の組
合せを連鎖グループとして作成する工程と、 前記連鎖グループに含まれる特徴点及び画像の組合せに
ついて、画像を撮影したときのカメラの向きの値並びに
前記中心から前記各特徴点までの距離及び方向を算出
し、算出結果を記憶する工程と、 全ての特徴点に対して前記中心から前記各特徴点までの
距離及び方向が算出されるまで連鎖グループを作成し、
画像を撮影したときのカメラの向きの値並びに前記中心
から前記各特徴点までの距離及び方向を算出し、算出結
果を記憶する工程とを有することを特徴とする請求項1
記載の物体の位置測定装置。
2. When all of the detected feature points are not included in all of the plurality of images, a camera orientation at the time of capturing the image based on the previously measured actual measurement value. Creating a combination of feature points and images from which the values and distances and directions from the center to the feature points can be calculated as a basic group; and for the combination of feature points and images included in the basic group, Calculating the value of the orientation of the camera at the time of shooting and the distance and direction from the center to each of the feature points, and storing the calculation result, based on the stored calculation result, when the image is shot Creating a combination of a feature point and an image for which a value of a camera direction and a distance and a direction from the center to each of the feature points can be calculated as a chain group; For the combination of feature points and images included in the group, calculate the value of the direction of the camera when the image was captured and the distance and direction from the center to each of the feature points, and store the calculation results. Creating a chain group until a distance and a direction from the center to each of the feature points are calculated for the feature points,
A step of calculating a value of a direction of a camera at the time of capturing an image, a distance and a direction from the center to each of the feature points, and storing a calculation result.
An apparatus for measuring the position of an object as described.
【請求項3】 回転中心から一定距離Lにある円周上を
移動して、前記円周外側のT(Tは自然数)枚の画像を
撮影するカメラ部と、 前記T枚の画像の全てに含まれるN(Nは自然数)個の
特徴点を検出し、各画像tにおける各特徴点iの前記移
動方向の座標値を検出する特徴点追跡部と、 前記各画像tにおける各特徴点iの移動方向の座標値
を、前記撮影したカメラ部に基づいた焦点距離で正規化
したuti(t=1,2,…,T、i=1,2,…,N)
を算出し、また、 【数1】 を成分とするT行N列の行列U’を作成する座標行列作
成部と、 T行1列の行列Θ”と1行N列の行列A’について、前
記行列Θ”と前記行列A’との積が、前記行列U’と見
なせるように前記行列Θ”と前記行列A’を決定する行
列分解部と、 あらかじめ測定された実測値に対応するようにある値q
及び一定値θ0 を算出し、前記行列Θ”に前記qを乗じ
て前記θ0 を加えて、前記T枚の画像を撮影したときの
前記カメラ部の向きを成分とする行列Θを算出し、また
前記行列A’を前記qで除して行列Aを算出する正規化
部と、 該正規化部が算出した行列Θの成分をθt とし、また行
列Aの各成分をαi として、前記回転中心から特徴点ま
での距離ri をri =L/(1−1/αi )で算出し、
また、前記回転中心から特徴点までの方向φi を 【数2】 で算出する座標算出部とを備えたことを特徴とする物体
の位置測定装置。
3. A camera unit that moves on a circumference at a fixed distance L from a rotation center and captures T (T is a natural number) images outside the circumference, and a camera unit that captures all of the T images. A feature point tracking unit that detects N (N is a natural number) included feature points and detects coordinate values in the moving direction of each feature point i in each image t; U ti (t = 1, 2,..., T, i = 1, 2,..., N) in which coordinate values in the moving direction are normalized by the focal length based on the camera unit at which the image was taken.
Is calculated, and And a coordinate matrix creating unit that creates a matrix U ′ having T rows and N columns, and a matrix Θ ″ having T rows and 1 column and a matrix A ′ having 1 row and N columns. A matrix decomposer that determines the matrix Θ ″ and the matrix A ′ so that the product of the matrix U ′ can be regarded as the matrix U ′, and a value q that corresponds to a previously measured actual value
And a constant value θ 0 , multiplying the matrix Θ ″ by the q, and adding the θ 0 to calculate a matrix と す る with the orientation of the camera unit when the T images have been taken as components. A normalizing unit that divides the matrix A ′ by the q to calculate a matrix A; a component of the matrix Θ calculated by the normalizing unit is θ t, and each component of the matrix A is α i , the distance r i from the rotational center to the feature points calculated by r i = L / (1-1 / α i),
In addition, the direction φ i from the rotation center to the feature point is given by An object position measuring device, comprising: a coordinate calculating unit that calculates the position of the object.
【請求項4】 前記行列分解部は、前記座標行列作成部
が作成した行列における最大の特異値以外の特異値を0
と近似して特異値分解を行い、前記行列Θ”と前記行列
A’とを決定することを特徴とする請求項3記載の物体
の位置測定装置。
4. The matrix decomposing unit sets a singular value other than the largest singular value in a matrix created by the coordinate matrix creating unit to 0.
4. An apparatus according to claim 3, wherein the matrix Θ ″ and the matrix A ′ are determined by performing singular value decomposition by approximating.
【請求項5】 前記あらかじめ測定された実測値が、2
枚以上の画像を撮影したときのそれぞれのカメラの向き
の値であった場合に、前記正規化部は、前記実測値とそ
の実測値と対応する行列Θの成分との差の二乗和が最小
となるように、前記q及び前記θ0 を算出することを特
徴とする請求項3記載の物体の位置測定装置。
5. The method according to claim 1, wherein the previously measured actual value is 2
When the values of the orientations of the respective cameras at the time of capturing more than one image are obtained, the normalization unit minimizes the sum of squares of the difference between the measured value and the component of the matrix す る corresponding to the measured value. The object position measuring apparatus according to claim 3, wherein the q and the θ 0 are calculated so that
【請求項6】 前記あらかじめ測定された実測値が、2
枚の画像を撮影したときの2つのカメラの向きの値であ
った場合に、前記正規化部は、前記2つのカメラの向き
の実測値の差と、前記2つのカメラの向きの実測値に対
応する前記行列Θ”の成分の差との比を前記qとし、ま
た、前記2つのカメラの向きの実測値の何れか1つと、
その実測値に対応する前記行列Θ”の成分にqを乗じた
値とのとの差を前記θ0 とすることを特徴とする請求項
3記載の物体の位置測定装置。
6. The method according to claim 1, wherein the previously measured actual value is 2
When the values of the orientations of the two cameras at the time of capturing the two images are taken, the normalization unit calculates the difference between the measured values of the orientations of the two cameras and the measured value of the orientations of the two cameras. The ratio of the difference between the components of the matrix Θ ″ to the corresponding component is defined as q, and any one of the measured values of the directions of the two cameras,
4. The object position measuring apparatus according to claim 3, wherein a difference from a value obtained by multiplying the component of the matrix Θ ″ corresponding to the actually measured value by q is defined as θ 0 .
【請求項7】 前記あらかじめ測定された実測値が、少
なくとも1つの特徴点の回転中心からの距離ri 及び方
向φi の値であった場合に、前記正規化部は、1/(1
−L/ri )の値を算出し、その値と対応する行列Aの
成分αi との差の二乗和が最小となるような前記qを算
出し、また、実測された各φi について算出した、 【数3】 の値の平均値と前記行列Θ”にqを乗じたときの各成分
の平均値との差を前記θ 0 とすることを特徴とする請求
項3記載の物体の位置測定装置。
7. The method according to claim 6, wherein the previously measured actual value is small.
Distance r from the center of rotation of at least one feature pointi And who
Direction φi When the value is the value of 1 / (1
-L / ri ) Is calculated, and the value of the corresponding matrix A is calculated.
Component αi Is calculated so that the sum of squares of the difference between
Out, and each measured φi Was calculated forEach component when the average of the values of
The difference from the average value of θ 0 Claims characterized by
Item 3. An apparatus for measuring a position of an object according to Item 3.
【請求項8】 前記あらかじめ測定された実測値が、1
つの特徴点の回転中心からの距離ri 及び方向φi の値
であった場合に、前記正規化部は、1/(1−L/r
i )の値を算出し、その値と対応する行列Aの成分αi
との比を前記qとして算出し、また、実測された各φi
について算出した、 【数4】 の値の平均値と前記行列Θ”にqを乗じたときの各成分
の平均値との差を前記θ 0 とすることを特徴とする請求
項3記載の物体の位置測定装置。
8. The method according to claim 1, wherein the previously measured actual value is 1
Distance r from the center of rotation of one feature pointi And direction φi The value of the
When it is, the normalization unit calculates 1 / (1-L / r
i ) Is calculated, and the corresponding component α of the matrix A is calculated.i 
Is calculated as the above q, and each actually measured φi 
Was calculated forEach component when the average of the values of
The difference from the average value of θ 0 Claims characterized by
Item 3. An apparatus for measuring a position of an object according to Item 3.
【請求項9】 前記あらかじめ測定された実測値が、少
なくとも2つの特徴点の回転中心からの方向φi の値で
あった場合に、前記行列Θ”の対応する成分をθi” 、
前記行列A’の対応する成分をαi’とすると、 【数5】 の実測された全てのφi についての二乗和が最小となる
ように前記q及び前記θ 0 を算出することを特徴とする
請求項3記載の物体の位置測定装置。
9. The method according to claim 8, wherein the previously measured actual value is small.
Direction φ from the center of rotation of at least two feature pointsi With the value of
If there is, the corresponding component of the matrix Θ ″ is θi
The corresponding component of the matrix A 'is αi’, Then:All measured φ ofi Minimizes the sum of squares for
So that q and θ 0 Is characterized by calculating
An object position measuring apparatus according to claim 3.
【請求項10】 前記あらかじめ測定された実測値が、
2つの特徴点の回転中心からの方向の値φi 、φj であ
った場合に、前記正規化部は、前記行列A’の対応する
成分であるαi’ 、αj’ より、 【数6】 を満たす前記qを算出し、前記行列Θ”に前記qを乗じ
て作成した行列Θ’の成分θt’ 及び前記行列A’を前
記qで除して作成した行列Aの成分αi に基づいて、 【数7】 を満たす前記θ0 を算出することを特徴とする請求項3
記載の物体の位置測定装置。
10. The pre-measured actual value is:
When the values of the directions of the two feature points from the rotation center are φ i and φ j , the normalization unit calculates the following components from α i ′ and α j ′ corresponding to the components of the matrix A ′. 6] Is calculated based on the components θ t ′ of the matrix Θ ′ created by multiplying the matrix Θ ″ by the q and the components α i of the matrix A created by dividing the matrix A ′ by the q. Then, 4. The θ 0 that satisfies the following is calculated.
An apparatus for measuring the position of an object as described.
【請求項11】 前記特徴点追跡部が検出した全ての特
徴点が、複数枚の画像の全てに含まれていなかった場
合、 前記あらかじめ測定された実測値に基づいて、前記画像
を撮影したときのカメラの向きの値並びに前記中心から
前記各特徴点までの距離及び方向が算出可能な特徴点及
び画像の組合せを基本グループとして作成し、前記座標
行列作成部、前記行列分解部、前記正規化部及び前記座
標算出部に画像を撮影したときのカメラの向きの値並び
に前記中心から前記各特徴点までの距離及び方向を算出
させる基本グループ作成部と、 算出された前記撮影したときのカメラの向きの値並びに
前記中心から前記各特徴点までの距離及び方向を算出結
果として記憶する位置記憶部と、 該位置記憶部に記憶された算出結果に基づいて、前記画
像を撮影したときのカメラの向きの値並びに前記中心か
ら前記各特徴点までの距離及び方向が算出可能な特徴点
及び画像の組合せを連鎖グループとして作成し、前記座
標行列作成部、前記行列分解部、前記正規化部及び前記
座標算出部に画像を撮影したときのカメラの向きの値並
びに前記中心から前記各特徴点までの距離及び方向を算
出させて算出結果として前記位置記憶部に記憶させ、全
ての画像に対して撮影したときのカメラの向きの値が算
出され、全ての特徴点に対して前記中心から前記各特徴
点までの距離及び方向が算出されるまで連鎖グループを
作成する連鎖グループ作成部とを備えたことを特徴とす
る請求項3記載の物体の位置測定装置。
11. When all the feature points detected by the feature point tracking unit are not included in all of the plurality of images, when the image is shot based on the previously measured actual value. A combination of a feature point and an image for which the value of the camera direction and the distance and direction from the center to each of the feature points can be calculated are created as a basic group, and the coordinate matrix creation unit, the matrix decomposition unit, and the normalization And a basic group creation unit that calculates a value of the direction of the camera when the image is captured by the unit and the coordinate calculation unit, and a distance and a direction from the center to each of the feature points. A position storage unit that stores, as a calculation result, a value of an orientation and a distance and a direction from the center to each of the feature points; A combination of a feature point and an image in which the value of the direction of the camera when shadowed and the distance and direction from the center to each of the feature points can be calculated are created as a chain group, the coordinate matrix creating unit, the matrix decomposing unit, The normalization unit and the coordinate calculation unit calculate the value of the direction of the camera when capturing the image and the distance and direction from the center to each of the feature points, store the calculation result in the position storage unit, and The value of the direction of the camera at the time of shooting for the image is calculated, and a chain group is created until the distances and directions from the center to the respective feature points are calculated for all the feature points. The object position measuring apparatus according to claim 3, further comprising a unit.
【請求項12】 前記あらかじめ測定された実測値が、
2枚以上の画像を撮影したときのカメラの向きの値であ
った場合に、前記基本グループ作成部は、前記カメラの
向きの値が実測されている2枚の画像の両方に含まれる
複数の特徴点を選択し、選択した前記複数の特徴点と前
記選択した複数の特徴点を全て含む画像との組合せを選
択し、基本グループとして作成することを特徴とする請
求項11記載の物体の位置測定装置。
12. The method according to claim 12, wherein the previously measured actual value is:
If the values of the camera orientations at the time of capturing two or more images are the same, the basic group creation unit sets the plurality of images included in both of the two images whose camera orientation values are actually measured. The position of the object according to claim 11, wherein a feature point is selected, and a combination of the selected plurality of feature points and an image including all of the selected plurality of feature points is selected and created as a basic group. measuring device.
【請求項13】 前記あらかじめ測定された実測値が、
少なくとも1つの特徴点の回転中心からの距離及び方向
の値であった場合に、前記基本グループ作成部は、回転
中心からの距離及び方向の値が実測されているある1つ
の特徴点を含む複数の画像を選択し、選択した前記複数
の画像の全てに含まれている特徴点と前記選択した複数
の画像との組合せを選択し、基本グループとして作成す
ることを特徴とする請求項11記載の物体の位置測定装
置。
13. The pre-measured actual value is:
When the value of the distance and the direction from the rotation center of at least one feature point is the value of the one or more feature points including the value of the distance and the direction from the rotation center which is actually measured. 12. The image processing method according to claim 11, further comprising: selecting a combination of feature points included in all of the plurality of selected images and the selected plurality of images to create a basic group. Object position measuring device.
【請求項14】 前記基本グループは、選択した特徴点
と画像との組合せのうち、画像数とその画像に含まれる
特徴点の数との積が最も大きいものを基本グループとし
て作成することを特徴とする請求項12又は13記載の
物体の位置測定装置。
14. The basic group, wherein, among combinations of selected feature points and images, a group having the largest product of the number of images and the number of feature points included in the image is created as a basic group. 14. The object position measuring apparatus according to claim 12, wherein:
【請求項15】 前記連鎖グループ作成部は、前記位置
記憶部に記憶された特徴点のうち、位置的に最も端にあ
る特徴点を検出し、検出した前記特徴点並びに前記中心
からの距離及び方向が算出されていない1又は複数の特
徴点を全て含む画像を選択し、前記検出した前記特徴点
並びに前記中心からの距離及び方向が算出されていない
1又は複数の特徴点と選択した画像との組合せを選択
し、連鎖グループとして作成することを特徴とする請求
項11記載の物体の位置測定装置。
15. The linkage group creation unit detects a feature point located at the end of a position among feature points stored in the position storage unit, and detects the detected feature point and a distance and a distance from the center. An image including all the one or more feature points for which the direction has not been calculated is selected, and the detected image and the selected feature point and one or more feature points for which the distance and direction from the center have not been calculated are selected. 12. The object position measuring apparatus according to claim 11, wherein the combination is selected and created as a chain group.
【請求項16】 前記連鎖グループは、選択した特徴点
と画像との組合せのうち、画像数とその画像に含まれる
特徴点の数との積が最も大きいものを連鎖グループとし
て作成することを特徴とする請求項15記載の物体の位
置測定装置。
16. The chain group, wherein, among combinations of selected feature points and images, a group having the largest product of the number of images and the number of feature points included in the image is created as a chain group. The object position measuring apparatus according to claim 15, wherein
【請求項17】 前記あらかじめ測定された実測値が、
少なくとも2つの特徴点の回転中心からの方向の値であ
って、それらの特徴点を同時に含む画像が存在しない場
合、 前記基本グループ作成部が作成する基本グループの画像
のうち、2枚の画像を選択する画像選択部と、 該画像選択部が選択した前記2枚のそれぞれの画像に1
又は複数の仮のカメラ向きを設定し、前記実測値として
前記正規化部に処理させる仮カメラ向き提供部と、 前記座標行列作成部、前記行列分解部、前記正規化部及
び前記座標算出部に前記回転中心からの方向が実測され
いてる少なくとも2つの特徴点について回転中心からの
方向を算出させると、その算出値と前記あらかじめ測定
された実測値とを比較し、その比較に基づいて、再度仮
のカメラ向きを設定して、前記座標行列作成部、前記行
列分解部、前記正規化部及び前記座標算出部に算出結果
を算出させるかどうかを判断する実測値比較部と、 該実測値比較部が再度仮のカメラ向きを設定して算出結
果を算出させるものと判断すると、算出値と前記あらか
じめ測定された実測値に基づいて行った一定の計算結果
を前記仮カメラ向き提供部に送り、あらたな仮のカメラ
向きを設定させる仮カメラ向き修正部とを備えたことを
特徴とする請求項11記載の物体の位置測定装置。
17. The method according to claim 16, wherein the previously measured actual value is:
If there is no image that includes at least two feature points in the direction from the rotation center and includes these feature points at the same time, two of the images of the basic group created by the basic group creation unit are An image selection unit to be selected, and 1 to each of the two images selected by the image selection unit.
Or, a plurality of temporary camera directions are set, and a temporary camera direction providing unit that causes the normalization unit to process the actual measurement value, and the coordinate matrix creation unit, the matrix decomposition unit, the normalization unit, and the coordinate calculation unit When the direction from the rotation center is calculated for at least two feature points whose directions from the rotation center are actually measured, the calculated value is compared with the previously measured actual value, and based on the comparison, the temporary value is again determined. An actual measurement value comparison unit that determines whether the coordinate matrix creation unit, the matrix decomposition unit, the normalization unit, and the coordinate calculation unit calculate a calculation result; and the actual measurement value comparison unit If it is determined that the temporary camera direction is set again and the calculation result is calculated, the calculated value and the constant calculation result based on the previously measured actual measurement value are provided to the temporary camera direction. A feed, a position measuring device of an object according to claim 11, characterized in that a temporary camera direction correcting section for setting the camera facing new tentative.
【請求項18】 実測値をφi 、φj とし、算出された
2つの特徴点の回転中心からの方向をそれぞれφci、φ
cjとしたとき、前記仮のカメラ向きに対して(φi −φ
j )/(φci−φcj)を乗じ、 (φjφci−φiφcj
/(φi −φ j )を加えた値を、前記新たな仮のカメラ
向きとすることを特徴とする請求項17記載の物体の位
置測定装置。
18. The measured value is φi , Φj And calculated
The direction from the rotation center of the two feature points is φci, Φ
cj, And (φi −φ
j ) / (Φci−φcj) And (φjφci−φiφcj)
/ (Φi −φ j ) Is added to the new temporary camera
18. The position of an object according to claim 17, wherein the position is an orientation.
Position measuring device.
【請求項19】 前記カメラ部において、少なくとも2
πradにわたって撮影する場合、 少なくとも2枚の画像に基づいて、ある特徴点について
0radを撮影した画像と2πradを撮影した画像と
を検出する同一点検出部と、 前記検出した同一の特徴点に対し、一方の特徴点の回転
中心からの方向の実測値を0radとし、もう一方の特
徴点の回転中心からの方向の実測値を2πradとして
別の特徴点とし、前記実測値比較部において、比較対象
の実測値とする実測値とを備えたことを特徴とする請求
項17記載の物体の位置測定装置。
19. In the camera unit, at least 2
When photographing over πrad, based on at least two images, the same point detection unit that detects an image obtained by capturing 0 rad and an image obtained by capturing 2πrad for a certain feature point, The measured value of one feature point in the direction from the rotation center is set to 0 rad, and the measured value of the other feature point in the direction from the rotation center is set to 2πrad as another feature point. 18. The object position measuring apparatus according to claim 17, further comprising an actual measurement value.
【請求項20】 回転中心から一定距離にある円周上を
移動して、前記円周外側の1又は複数枚の画像をカメラ
に撮影させ、 前記1又は複数枚の画像の全てに含まれる1又は複数の
特徴点を検出し、各画像における各特徴点の前記移動方
向の座標値を検出させ、 前記各画像における各特徴点の移動方向の座標値を、前
記撮影したカメラに基づいた焦点距離で正規化させ、ま
た、前記複数の画像における前記正規化した座標値の平
均を前記特徴点ごとに算出させて前記各正規化した座標
値との差を算出させ、算出した差の値を成分とする行列
を作成させ、 ある2つの行列の積が、該座標行列作成部が作成した行
列に最も近い行列となるように、前記ある2つの行列を
決定させ、 あらかじめ測定された実測値に対応するようにある値及
び一定値を算出させ、前記ある2つの行列の一方の行列
にある値を乗じて一定値を加えさせ、また前記ある2つ
の行列の他方の行列を前記ある値で除させて、それらの
行列に基づいて、前記中心から前記各特徴点までの距離
及び方向を算出させることをコンピュータに行わせる物
体の位置測定方法のプログラムを記録した記録媒体。
20. The camera moves on a circumference at a fixed distance from the center of rotation to cause a camera to capture one or more images outside the circumference, and includes one or more images included in all of the one or more images. Or detecting a plurality of feature points, detecting the coordinate value of each feature point in each image in the movement direction, and calculating the coordinate value of each feature point in each image in the movement direction, a focal length based on the photographed camera. In addition, the average of the normalized coordinate values in the plurality of images is calculated for each of the feature points to calculate a difference from each of the normalized coordinate values, and the calculated difference value is used as a component. The two matrices are determined so that the product of the two matrices is the matrix closest to the matrix created by the coordinate matrix creating unit, and the two matrices correspond to actual measured values measured in advance. A certain value and a constant value Calculation, multiplying one of the two matrices by a certain value to add a certain value, and dividing the other of the two matrices by the certain value, based on those matrices, A recording medium recording a program of an object position measurement method for causing a computer to calculate a distance and a direction from the center to each of the feature points.
【請求項21】 前記検出した前記全ての特徴点が、複
数枚の画像の全てに含まれていなかった場合、 前記あらかじめ測定された実測値に基づいて、前記画像
を撮影したときのカメラの向きの値並びに前記中心から
前記各特徴点までの距離及び方向が算出可能な特徴点及
び画像の組合せを基本グループとして作成させ、 前記基本グループに含まれる特徴点及び画像の組合せに
ついて、画像を撮影したときのカメラの向きの値並びに
前記中心から前記各特徴点までの距離及び方向を算出さ
せて、その算出結果を記憶させ、 前記算出結果に基づいて、前記画像を撮影したときのカ
メラの向きの値並びに前記中心から前記各特徴点までの
距離及び方向が算出可能な特徴点及び画像の組合せを連
鎖グループとして作成させ、 前記連鎖グループに含まれる特徴点及び画像の組合せに
ついて、画像を撮影したときのカメラの向きの値並びに
前記中心から前記各特徴点までの距離及び方向を算出さ
せ、その算出結果を記憶させ、 全ての特徴点に対して前記中心から前記各特徴点までの
距離及び方向が算出されるまで連鎖グループを作成させ
て、画像を撮影したときのカメラの向きの値並びに前記
中心から前記各特徴点までの距離及び方向を算出させ、
その算出結果を記憶させることをコンピュータに行わせ
る請求項20記載の物体の位置測定方法のプログラムを
記録した記録媒体。
21. When all of the detected feature points are not included in all of the plurality of images, a camera orientation at the time of capturing the image based on the previously measured actual measurement value. And a combination of feature points and images from which the distance and the direction from the center to each of the feature points can be calculated are created as a basic group, and for the combination of feature points and images included in the basic group, an image is taken. The value of the direction of the camera and the distance and direction from the center to each of the feature points are calculated, and the calculation result is stored.Based on the calculation result, the direction of the camera when the image is captured is calculated. A combination of a feature point and an image for which a value and a distance and a direction from the center to each of the feature points can be calculated are created as a chain group, and are included in the chain group. For each combination of feature points and images, the value of the direction of the camera when the image was taken and the distance and direction from the center to each of the feature points are calculated, and the calculation results are stored. A chain group is created until a distance and a direction from the center to each of the feature points are calculated, and a value of a camera direction when an image is captured and a distance and a direction from the center to each of the feature points are calculated. Let me calculate
21. A recording medium storing a program for the method for measuring a position of an object according to claim 20, wherein the program causes a computer to store the calculation result.
JP08691699A 1999-03-29 1999-03-29 Object position measuring method and apparatus, and recording medium storing object position measuring method program Expired - Fee Related JP3616949B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08691699A JP3616949B2 (en) 1999-03-29 1999-03-29 Object position measuring method and apparatus, and recording medium storing object position measuring method program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08691699A JP3616949B2 (en) 1999-03-29 1999-03-29 Object position measuring method and apparatus, and recording medium storing object position measuring method program

Publications (2)

Publication Number Publication Date
JP2000283719A true JP2000283719A (en) 2000-10-13
JP3616949B2 JP3616949B2 (en) 2005-02-02

Family

ID=13900188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08691699A Expired - Fee Related JP3616949B2 (en) 1999-03-29 1999-03-29 Object position measuring method and apparatus, and recording medium storing object position measuring method program

Country Status (1)

Country Link
JP (1) JP3616949B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057016A1 (en) * 2015-09-29 2017-04-06 ソニー株式会社 Measurement device and method, and program
CN107548449A (en) * 2015-04-21 2018-01-05 卡尔蔡司工业测量技术有限公司 For the method and apparatus for the actual size feature for determining measurand

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0666519A (en) * 1992-08-14 1994-03-08 Mitsubishi Heavy Ind Ltd Correlation detecting type measuring apparatus for three-dimensional position
JPH09326029A (en) * 1996-06-04 1997-12-16 Fujitsu Ltd Three-dimensional measuring method and device
JPH11167628A (en) * 1997-08-05 1999-06-22 Canon Inc Picture processor

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0666519A (en) * 1992-08-14 1994-03-08 Mitsubishi Heavy Ind Ltd Correlation detecting type measuring apparatus for three-dimensional position
JPH09326029A (en) * 1996-06-04 1997-12-16 Fujitsu Ltd Three-dimensional measuring method and device
JPH11167628A (en) * 1997-08-05 1999-06-22 Canon Inc Picture processor

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107548449A (en) * 2015-04-21 2018-01-05 卡尔蔡司工业测量技术有限公司 For the method and apparatus for the actual size feature for determining measurand
CN107548449B (en) * 2015-04-21 2019-11-12 卡尔蔡司工业测量技术有限公司 Method and apparatus for determining the actual size feature of measurand
WO2017057016A1 (en) * 2015-09-29 2017-04-06 ソニー株式会社 Measurement device and method, and program
CN108139211A (en) * 2015-09-29 2018-06-08 索尼公司 For the device and method and program of measurement
JPWO2017057016A1 (en) * 2015-09-29 2018-08-09 ソニー株式会社 Measuring apparatus and method, and program
US20180274915A1 (en) * 2015-09-29 2018-09-27 Sony Corporation Apparatus and method for measurement, and program
EP3358297A4 (en) * 2015-09-29 2019-05-29 Sony Corporation Measurement device and method, and program
US10508911B2 (en) 2015-09-29 2019-12-17 Sony Corporation Apparatus and method for measurement, and program
CN108139211B (en) * 2015-09-29 2021-01-15 索尼公司 Apparatus and method for measurement and program

Also Published As

Publication number Publication date
JP3616949B2 (en) 2005-02-02

Similar Documents

Publication Publication Date Title
US5757674A (en) Three-dimensional position detecting apparatus
EP2926543B1 (en) A method of calibrating a camera and a system therefor
US20120162220A1 (en) Three-dimensional model creation system
JP2016516977A (en) Generating a 3D model of the environment
JP2007278845A (en) Image processing apparatus and its processing method
JPH08233556A (en) Picked-up image processor and picked-up image processing method
CN113409391B (en) Visual positioning method and related device, equipment and storage medium
JP7151879B2 (en) Camera calibration device, camera calibration method, and program
JP2019190974A (en) Calibration device, calibration method and program
SG191452A1 (en) Automatic calibration method and apparatus
KR20080029080A (en) System for estimating self-position of the mobile robot using monocular zoom-camara and method therefor
CN114445506A (en) Camera calibration processing method, device, equipment and storage medium
JP2022500793A (en) How to calibrate a multi-degree-of-freedom movable visual system
WO2017130650A1 (en) Stereo camera and image pickup system
JPH0680404B2 (en) Camera position and orientation calibration method
JP4085671B2 (en) Data processing method, data processing program, and recording medium
Rudakova et al. Camera matrix calibration using circular control points and separate correction of the geometric distortion field
CN113034565B (en) Depth calculation method and system for monocular structured light
KR102138333B1 (en) Apparatus and method for generating panorama image
JP2000283719A (en) Method and instrument for measuring position of object and recording medium recording program thereof
JP2005275789A (en) Three-dimensional structure extraction method
WO2019058487A1 (en) Three-dimensional reconstructed image processing device, three-dimensional reconstructed image processing method, and computer-readable storage medium having three-dimensional reconstructed image processing program stored thereon
JPH076769B2 (en) Object measuring device
JPH1153549A (en) Device and method for processing image and transmission medium
Hemayed et al. The CardEye: A trinocular active vision system

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040720

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20041019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20041027

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081119

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091119

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101119

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111119

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees