JP5648159B2 - Three-dimensional relative coordinate measuring apparatus and method - Google Patents
Three-dimensional relative coordinate measuring apparatus and method Download PDFInfo
- Publication number
- JP5648159B2 JP5648159B2 JP2012143314A JP2012143314A JP5648159B2 JP 5648159 B2 JP5648159 B2 JP 5648159B2 JP 2012143314 A JP2012143314 A JP 2012143314A JP 2012143314 A JP2012143314 A JP 2012143314A JP 5648159 B2 JP5648159 B2 JP 5648159B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- points
- viewpoint
- pixel
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 22
- 238000004364 calculation method Methods 0.000 claims description 62
- 238000003384 imaging method Methods 0.000 claims description 56
- 238000005259 measurement Methods 0.000 claims description 42
- 230000003287 optical effect Effects 0.000 claims description 28
- 238000000691 measurement method Methods 0.000 claims description 6
- 239000013598 vector Substances 0.000 description 50
- 238000000605 extraction Methods 0.000 description 32
- 238000010586 diagram Methods 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 238000012937 correction Methods 0.000 description 9
- 239000000284 extract Substances 0.000 description 7
- 238000001514 detection method Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000007306 turnover Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
Description
本発明は、3次元座標系において、相対座標が既知である3点の基準点のいずれかと、座標が未知である1点の対象点との相対座標を計測する3次元相対座標計測装置に関する。 The present invention relates to a three-dimensional relative coordinate measuring apparatus for measuring a relative coordinate between any one of three reference points whose relative coordinates are known and one target point whose coordinates are unknown in a three-dimensional coordinate system.
画像から相対座標を計測する方法として、ステレオ法が知られている。 A stereo method is known as a method for measuring relative coordinates from an image.
ステレオ法は、異なる位置に置かれた2つのカメラで撮像する、または、1つのカメラで異なる2つの位置から撮影することにより、2つの画像を得る。そして、ステレオ法は、人間の両眼視のように、視差に基づく画像の微妙な違いから、相対座標情報を得る。 In the stereo method, two images are obtained by photographing with two cameras placed at different positions or by photographing from two different positions with one camera. In the stereo method, relative coordinate information is obtained from subtle differences in images based on parallax, as in human binocular vision.
特許文献1では、ステレオ法により、精度の高い測量を行うことができる写真計測システムが開示されている。
しかしながら、特許文献1では、傾斜角センサ等の検知機器を用いることにより、撮影点におけるカメラの位置および姿勢を事前に把握していることが前提となる。
However, in
そこで、本発明は、このような状況に鑑みてなされたものであり、撮影点におけるカメラの位置および姿勢を事前に把握することなく相対座標を計測することができる3次元相対座標計測装置を提供することを目的とする。 Therefore, the present invention has been made in view of such a situation, and provides a three-dimensional relative coordinate measuring apparatus capable of measuring relative coordinates without grasping in advance the position and orientation of a camera at a shooting point. The purpose is to do.
上記目的を達成するために、本発明の一形態に係る相対座標計測装置は、3次元座標系における相対座標が既知である3点の第1の基準点のいずれかと、前記3次元座標系における座標が未知である1点の対象点との相対座標を計測する3次元相対座標計測装置であって、第1の視点より前記3点の第1の基準点が第1の撮像装置で撮像された第1の取得画像を取得する画像取得部と、各画素に対する第1の画素視点投影角の情報を保持し、前記情報を用いて、前記第1の取得画像に投影される前記3点の第1の基準点に対応する前記第1の画素視点投影角である3つの第1の基準視点投影角を取得する視点投影角抽出部とを備え、前記第1の画素視点投影角は、前記第1の取得画像における各画素の座標である第1の画素2次元座標に投影される前記3次元座標系の各点と前記第1の視点とを結ぶ線分と、前記第1の撮像装置の光軸とのなす角であり、さらに、前記3つの第1の基準視点投影角と前記3点の第1の基準点の相対座標とを用いて、前記第1の取得画像の撮像面である第1の撮像面と前記3点の第1の基準点を含む第1の基準平面とのなす第1の傾斜角を算出する傾斜角算出部と、前記第1の傾斜角を用いて、前記3点の第1の基準点のいずれかと前記対象点との相対座標を計測する計測部とを備える。 In order to achieve the above object, a relative coordinate measuring apparatus according to an aspect of the present invention includes any one of three first reference points whose relative coordinates in a three-dimensional coordinate system are known, and the three-dimensional coordinate system. A three-dimensional relative coordinate measuring apparatus that measures relative coordinates with a single target point whose coordinates are unknown, wherein the three first reference points are imaged by a first imaging device from a first viewpoint. An image acquisition unit for acquiring the first acquired image, and information on a first pixel viewpoint projection angle for each pixel, and using the information, the three points projected on the first acquired image A viewpoint projection angle extraction unit that acquires three first reference viewpoint projection angles that are the first pixel viewpoint projection angles corresponding to the first reference point, and the first pixel viewpoint projection angle is Projected to first pixel two-dimensional coordinates, which are the coordinates of each pixel in the first acquired image An angle formed by a line segment connecting each point of the three-dimensional coordinate system and the first viewpoint, and the optical axis of the first imaging device, and the three first reference viewpoint projection angles. And the relative coordinates of the first reference points of the three points, the first reference plane including the first imaging plane that is the imaging plane of the first acquired image and the first reference points of the three points. Relative coordinates between any one of the three first reference points and the target point are measured using an inclination angle calculation unit that calculates a first inclination angle formed with a plane and the first inclination angle. A measuring unit.
これにより、視点投影角を用いることによって、撮影点におけるカメラの位置および姿勢を事前に把握することなく相対座標を計測することができる。 Thereby, by using the viewpoint projection angle, it is possible to measure relative coordinates without grasping in advance the position and orientation of the camera at the photographing point.
また、前記3点の第1の基準点は、前記3次元座標系における相対座標が既知である3点以上の基準点のうちのいずれか3点であり、前記画像取得部は、前記第1の視点より前記3点の第1の基準点と前記対象点とが前記第1の撮像装置で撮像された前記第1の取得画像を取得し、第2の視点より、前記3点以上の基準点のうちのいずれか3点である3点の第2の基準点と前記対象点とが、前記第1の撮像装置と同一又は異なる第2の撮像装置で撮像された第2の取得画像を取得し、前記視点投影角抽出部はさらに、各画素に対する第2の画素視点投影角の情報を保持し、前記第2の画素視点投影角の情報を用いて、前記第2の取得画像に投影される前記3点の第2の基準点に対応する前記第2の画素視点投影角である3つの第2の基準視点投影角を取得し、前記第2の画素視点投影角は、前記第2の取得画像における各画素の座標である第2の画素2次元座標に投影される前記3次元座標系の各点と前記第2の視点とを結ぶ線分と、前記第2の撮像装置の光軸とのなす角であり、前記傾斜角算出部はさらに、前記3つの第2の基準視点投影角と前記3点の第2の基準点の相対座標とを用いて、前記第2の取得画像の撮像面である第2の撮像面と前記3点の第2の基準点を含む第2の基準平面とのなす第2の傾斜角を算出し、前記計測部は、前記3点の第1の基準点と前記3点の第2の基準点との相対位置関係と、前記第1の傾斜角と、前記第2の傾斜角とを用いて、前記3点の第1の基準点および前記3点の第2の基準点のいずれかと前記対象点との相対座標を計測してもよい。 The three first reference points are any three of three or more reference points whose relative coordinates in the three-dimensional coordinate system are known, and the image acquisition unit includes the first reference point. The first reference image of the three first reference points and the target point from the viewpoint are acquired by the first imaging device, and the reference points of the three or more points are acquired from the second viewpoint. A second acquired image obtained by imaging a second reference point, which is any three of the three points, and the target point with a second imaging device that is the same as or different from the first imaging device. The viewpoint projection angle extraction unit further holds information on a second pixel viewpoint projection angle for each pixel, and projects the second acquired image on the second acquired image using the information on the second pixel viewpoint projection angle. Three second reference viewpoints corresponding to the second pixel viewpoint projection angles corresponding to the three second reference points A shadow angle is acquired, and the second pixel viewpoint projection angle is calculated based on each point of the three-dimensional coordinate system projected on a second pixel two-dimensional coordinate that is a coordinate of each pixel in the second acquired image, and An angle formed by a line segment connecting the second viewpoint and the optical axis of the second imaging device, and the tilt angle calculation unit further includes the three second reference viewpoint projection angles and the three points. Using the relative coordinates of the second reference point, the second imaging plane formed by the second imaging plane, which is the imaging plane of the second acquired image, and the second reference plane including the three second reference points. 2, and the measurement unit calculates a relative positional relationship between the first reference point of the three points and the second reference point of the three points, the first inclination angle, and the second inclination point. May be used to measure the relative coordinates between the target point and any one of the three first reference points and the three second reference points.
上記により、2枚の画像を使用して、視点投影角を用いることにより、各撮影点におけるカメラの相対姿勢関係を事前に把握することなく、また、各撮影点におけるカメラの相対位置関係を確定させることなく3点の基準点のいずれかと対象点との相対座標を計測することができる。 As described above, by using the viewpoint projection angle using two images, the relative positional relationship of the camera at each shooting point is determined without grasping in advance the relative posture relationship of the camera at each shooting point. Relative coordinates between any one of the three reference points and the target point can be measured without doing so.
また、前記傾斜角算出部は、前記3つの第1および第2の基準視点投影角と前記3点の第1および第2の基準点とを用いて、前記第1の視点と前記第1の取得画像に投影される前記3点の第1の基準点のそれぞれとを結ぶ直線上にある前記3点の第1の基準点を含む前記第1の基準平面を決定し、前記第2の視点と前記第2の取得画像に投影される前記3点の第2の基準点のそれぞれとを結ぶ直線上にある前記3点の第2の基準点を含む前記第2の基準平面を決定してもよい。 Further, the tilt angle calculation unit uses the three first and second reference viewpoint projection angles and the three first and second reference points to use the first viewpoint and the first reference point. Determining the first reference plane including the first reference points of the three points on a straight line connecting the first reference points of the three points projected on the acquired image, and the second viewpoint And determining the second reference plane including the three second reference points on a straight line connecting the three second reference points projected onto the second acquired image Also good.
また、前記視点投影角抽出部はさらに、前記第1の取得画像に投影される前記対象点に対応する前記第1の画素視点投影角である第1の対象視点投影角を取得し、前記第2の取得画像に投影される前記対象点に対応する前記第2の画素視点投影角である第2の対象視点投影角を取得し、前記計測部は、前記第1の対象視点投影角と、前記第1の傾斜角とを用いて、前記3次元座標系における、前記第1の視点と前記第1の取得画像に投影される前記対象点とを通る第1のベクトルを算出し、前記第2の対象視点投影角と、前記第2の傾斜角とを用いて、前記3次元座標系における、前記第2の視点と前記第2の取得画像に投影される前記対象点とを通る第2のベクトルを算出し、前記相対位置関係を用いて、前記3次元座標系における、前記第1のベクトルと前記第2のベクトルとの最接近点の座標を、前記3点の第1の基準点及び前記3点の第2の基準点のいずれかと前記対象点との相対座標として算出してもよい。 Further, the viewpoint projection angle extraction unit further acquires a first target viewpoint projection angle that is the first pixel viewpoint projection angle corresponding to the target point projected on the first acquired image, and A second target viewpoint projection angle that is the second pixel viewpoint projection angle corresponding to the target point projected on the two acquired images, and the measurement unit includes the first target viewpoint projection angle, Calculating a first vector passing through the first viewpoint and the target point projected on the first acquired image in the three-dimensional coordinate system using the first inclination angle; A second passing through the second viewpoint and the target point projected on the second acquired image in the three-dimensional coordinate system using the second target viewpoint projection angle and the second inclination angle. And calculating the vector of the three-dimensional coordinate system using the relative positional relationship. The coordinates of the closest point between one vector and the second vector are calculated as relative coordinates between the target point and one of the three first reference points and the three second reference points. May be.
また、前記3点の第1の基準点のうち少なくとも一つは、前記3点の第2の基準点と異なってもよい。 Also, at least one of the three first reference points may be different from the three second reference points.
また、前記対象点は前記第1の視点であってもよい。 The target point may be the first viewpoint.
上記により、1枚の画像を使用して、視点投影角を用いることにより、撮影点におけるカメラの姿勢を事前に把握することなく、3点の基準点のいずれかと撮影点との相対座標を計測することができる。 As described above, by using a single image and using the viewpoint projection angle, the relative coordinates between any of the three reference points and the shooting point can be measured without previously knowing the posture of the camera at the shooting point. can do.
また、前記傾斜角算出部は、前記3つの第1の基準視点投影角と前記3点の第1の基準点とを用いて、前記第1の視点と前記第1の取得画像に投影される前記3点の第1の基準点のそれぞれとを結ぶ直線上にある前記3点の第1の基準点を含む前記第1の基準平面を決定してもよい。 Further, the tilt angle calculation unit projects the first viewpoint and the first acquired image using the three first reference viewpoint projection angles and the three first reference points. The first reference plane including the three first reference points on a straight line connecting each of the three first reference points may be determined.
上記により、傾斜角算出部によって、撮影点におけるカメラの姿勢を算出することができる。 As described above, the tilt angle calculation unit can calculate the posture of the camera at the photographing point.
また、前記計測部は、前記3つの第1の基準視点投影角のうち2つの角と、前記第1の傾斜角とを用いて、前記第1の基準平面における、前記2つの角に対応する前記3点の第1の基準点のうち2点とを通る2本のベクトルを算出し、前記2本のベクトルの最接近点の座標を、前記3点の第1の基準点のいずれかと前記対象点との相対座標として算出してもよい。 Further, the measurement unit corresponds to the two angles in the first reference plane by using two of the three first reference viewpoint projection angles and the first inclination angle. Two vectors passing through two of the three first reference points are calculated, and the coordinates of the closest point of the two vectors are set as one of the three first reference points and the You may calculate as a relative coordinate with an object point.
なお、本発明は、このような3次元相対座標計測装置として実現することができるだけでなく、このような3次元相対座標計測装置が備える特徴的な構成部の動作をステップとする3次元相対座標計測方法、または、それらのステップをコンピュータに実行させるプログラムとして実現することもできる。 Note that the present invention can be realized not only as such a three-dimensional relative coordinate measuring apparatus, but also as a step in the operation of the characteristic components included in such a three-dimensional relative coordinate measuring apparatus. It can also be realized as a measurement method or a program for causing a computer to execute these steps.
本発明は、撮影点におけるカメラの位置および姿勢を事前に把握することなく相対座標を計測することができる3次元相対座標計測装置を提供することができる。 The present invention can provide a three-dimensional relative coordinate measuring apparatus capable of measuring relative coordinates without grasping in advance the position and orientation of a camera at a photographing point.
以下、本発明の実施の形態について図面を用いて詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
まず、本発明に係る3次元相対座標計測装置を含むシステムの構成を、本発明の実施の形態に係る3次元相対座標計測時と画像のピクセルキャリブレーション時とに分けて説明する。 First, the configuration of a system including a three-dimensional relative coordinate measuring apparatus according to the present invention will be described separately for three-dimensional relative coordinate measurement and image pixel calibration according to an embodiment of the present invention.
図1Aは、本発明に係る3次元相対座標計測時における、3次元相対座標計測装置を含むシステムの構成を示す図である。なお、図1Aは、2つの視点から、2枚の画像を取得する際におけるシステムの構成を示している。本発明に係る3次元相対座標計測装置90は、ケーブル30を介して、カメラ10と接続される。ケーブル30は、例えば、USB(Universal Serial Bus)ケーブルである。このことにより、3次元相対座標計測装置90は、カメラ10によって撮像された画像データ60を、ケーブル30を介して取得することができる。なお、ケーブル30は、USB以外のケーブルを用いてもよい。また、画像データ60は、無線や記録媒体経由で取得してもよい。
FIG. 1A is a diagram showing a configuration of a system including a three-dimensional relative coordinate measurement device at the time of three-dimensional relative coordinate measurement according to the present invention. Note that FIG. 1A shows a system configuration when acquiring two images from two viewpoints. A three-dimensional relative coordinate measuring
カメラ10は、基準構造物40と対象構造物50とが共に写るように、それぞれ異なる第1の視点M1および第2の視点M2において撮像する。ここで、M1およびM2は、カメラ10の撮影レンズの主点の位置に対応している。また、図1A中、2点鎖線で書かれているO1およびO2は、それぞれM1およびM2に視点があるときの撮影レンズの光軸(カメラの光軸)を示している。なお、1つの視点から、1枚の画像を取得する際には、カメラ10は、基準構造物40が写るように、第1の視点において撮像すればよい。基準構造物40は、3次元座標系において、相対座標が既知である3点の基準点A、B、Cを有している。言い換えると、点A、B、Cによって定義される三角形を基準構造物40と呼ぶ。
対象構造物50は、3次元座標系において、座標が未知である対象点Wを有している。なお、1つの視点から、1枚の画像を取得する際には、対象構造物50は使用しなくてもよい。
The
図1Bは、本発明に係る画像のピクセルキャリブレーション時における、3次元相対座標計測装置を含むシステムの構成を示す図である。本発明に係る3次元相対座標計測装置90は、ケーブル30を介して、カメラ10と接続される。ケーブル30は、例えば、USBケーブルである。このことにより、3次元相対座標計測装置90は、カメラ10によって撮像された画像データ61を、ケーブル30を介して取得することができる。なお、ケーブル30は、USB以外のケーブルを用いてもよい。また、画像データ61は、無線や記録媒体経由で取得してもよい。
FIG. 1B is a diagram showing a configuration of a system including a three-dimensional relative coordinate measuring apparatus at the time of pixel calibration of an image according to the present invention. A three-dimensional relative coordinate measuring
カメラ10は、キャリブレーション板70が写るように、視点Mにおいて撮像する。ここで、Mは、カメラ10の撮影レンズの主点の位置に対応している。また、図1B中、2点鎖線で書かれているOは、Mに視点があるときの撮影レンズの光軸(カメラの光軸)を示している。
The
キャリブレーション板70は、剛性が高い透明な板であり、表面には碁盤の目が記されている。また、キャリブレーション板70には、糸71によって錘72が取り付けられている。
The
3次元相対座標計測装置90は、例えば、コンピュータである。なお、本実施の形態では、3次元相対座標計測時と画像のピクセルキャリブレーション時とで共通のコンピュータを使用しているが、別々のコンピュータとしてもよい。また、コンピュータは2台以上使用してもよい。
The three-dimensional relative coordinate measuring
図2は、本発明に係る3次元相対座標計測装置の特徴的な機能構成を示すブロック図である。 FIG. 2 is a block diagram showing a characteristic functional configuration of the three-dimensional relative coordinate measuring apparatus according to the present invention.
3次元相対座標計測システム90は、本発明に係る3次元相対座標計測部20および画像のピクセルキャリブレーション部80を備える。
The three-dimensional relative coordinate
また、本発明に係る3次元相対座標計測部20は、画像取得部100、2次元座標抽出部110、視点投影角抽出部120、演算部130および表示部140を備える。さらに、画像のピクセルキャリブレーション部80は、調整部200を備える。
The three-dimensional relative coordinate
調整部200は、視点Mより、キャリブレーション板70、糸71および錘72が撮像された画像データ61から、画像ピクセルの歪み補正を行い、任意の画像ピクセル(画素)の視点投影角(本発明の第1および第2の画素視点投影角に相当する)を算出する。
The
画像取得部100は、第1の視点M1より、3点の基準点、または、3点の基準点と対象点とがカメラ(本発明の第1のおよび第2の撮像装置に相当する)で撮像された画像データ60を第1の取得画像として取得する。また、画像取得部100は、第2の視点M2より、3点の基準点と対象点とがカメラで撮像された画像データ60を第2の取得画像として取得する。
2次元座標抽出部110は、画像取得部100によって取得された第1の取得画像に投影される3点の基準点、または、3点の基準点および対象点の2次元座標を抽出する。また、2次元座標抽出部110は、画像取得部100によって取得された第2の取得画像に投影される3点の基準点および対象点の2次元座標を抽出する。
The two-dimensional coordinate
視点投影角抽出部120は、予め調整部200によって算出された任意の画像ピクセルの視点投影角を保持し、保持する任意の画像ピクセルの視点投影角の中から、2次元座標抽出部110によって抽出された2次元座標に対応する視点投影角を、任意の画像ピクセルの視点投影角の中から抽出する。なお、視点投影角の定義については、後で図4を用いて説明する。
The viewpoint projection
ここで、演算部130は、さらに、傾斜角算出部130a、ベクトル算出部130b、変換ベクトル算出部130cおよび相対座標計測部130dを備える。
Here, the
傾斜角算出部130aは、3点の基準点の相対座標並びに視点投影角抽出部120で抽出された視点投影角を用いて、それぞれ第1の傾斜角および第2の傾斜角を算出する。
The tilt
ベクトル算出部130bは、視点投影角抽出部120で抽出された視点投影角を用いて、それぞれ第1のベクトルおよびベクトル2を算出する。また、ベクトル算出部130bは、視点投影角抽出部120で抽出された視点投影角および傾斜角算出部130aで算出された第1の傾斜角を用いて、2本のベクトルを算出する。
The
変換ベクトル算出部130cは、傾斜角算出部130aで算出された、第1の傾斜角および第2の傾斜角と、ベクトル算出部130bで算出されたベクトル2とを用いて、第2のベクトルを算出する。
The conversion
相対座標計測部130dは、ベクトル算出部130bで算出された第1のベクトルと変換ベクトル算出部130cで算出された第2のベクトルとを用いて、3点の基準点のいずれかと対象点との相対座標を計測する。また、相対座標計測部130dは、ベクトル算出部130bで算出された2本のベクトルを用いて、3点の基準点のいずれかと撮影点との相対座標を計測する。
The relative coordinate
表示部140は、例えば、画像取得部100によって取得された取得画像の表示を行ったり、2次元座標抽出部110により抽出された2次元座標を表示したり、視点投影角抽出部120によって抽出された視点投影角を表示したり、演算部130によって行われた各種演算結果を表示したりする。
The
次に、以上のように構成された本実施形態における3次元相対座標計測装置を含むシステムの動作について説明する。 Next, the operation of a system including the three-dimensional relative coordinate measuring apparatus according to this embodiment configured as described above will be described.
前提として、3次元相対座標計測部20が相対座標計測を行う前に、画像のピクセルキャリブレーションを行う必要がある。
As a premise, it is necessary to perform pixel calibration of the image before the three-dimensional relative coordinate
図3は、本発明に係る画像のピクセルキャリブレーションの処理手順を示すフローチャートである。画像のピクセルキャリブレーションとは、撮像面の中心点である光学中心位置Cpを設定し(S101)、歪み補正を行い(S102)、任意の画像ピクセル(画素)の視点投影角θ(本発明の第1および第2の画素視点投影角に相当する)を算出する(S103)ことである。ここで、任意の画像ピクセルの視点投影角θとは、図4に示すように、画像上の任意の画像ピクセルPの2次元座標(本発明の第1および第2の画素2次元座標に相当する)に投影される3次元空間上の任意の点P3と視点Mとを結ぶ線分と、カメラの光軸O(本発明の第1および第2の撮像装置の光軸に相当する)とのなす角のことである。なお、図4において、カメラの光軸Oと撮像面とは直交するので、視点Mと、カメラの光軸Oと撮像面の交点である光学中心位置Cpとの距離xと、例えば、光学中心位置Cpを原点とする、任意の画像ピクセルPの2次元座標とを用いて、任意の画像ピクセルPの視点投影角θを算出することができる。 FIG. 3 is a flowchart showing a procedure for pixel calibration of an image according to the present invention. The pixel calibration image, set the optical center position C p is the center point of the imaging plane (S101), performs distortion correction (S102), perspective projection angle of an arbitrary image pixels (pixel) theta (present invention (Corresponding to the first and second pixel viewpoint projection angles) (S103). Here, the viewpoint projection angle θ of an arbitrary image pixel is a two-dimensional coordinate (corresponding to the first and second pixel two-dimensional coordinates of the present invention) of an arbitrary image pixel P on the image, as shown in FIG. a line segment connecting the to) to the arbitrary point P 3 of the three-dimensional space to be projected and viewpoint M, the camera optical axis O (corresponding to the optical axis of the first and second imaging device of the present invention) It is the angle formed by. In FIG. 4, since the optical axis O and the imaging surface of the camera are orthogonal, and the viewpoint M, and the distance x between the optical center position C p is the intersection of the optical axis O and the imaging surface of the camera, for example, optical the center position C p as the origin, by using the two-dimensional coordinates of any image pixel P, it is possible to calculate the perspective projection angle θ of the arbitrary image pixels P.
まず、光学中心位置Cpの設定を行う(S101)。はじめに、剛性が高い透明な板(以下、キャリブレーション板70と記載)には、糸71によって錘72が取り付けられている。キャリブレーション板70は水準器などにより、水平が保たれているものとする。また、キャリブレーション板70の表面には碁盤の目が記されているものとする。次に、上記キャリブレーション板70を上からカメラ10で撮像する。そして、撮像面を、(1)キャリブレーション板70と糸71との取り付け位置と、錘72と糸71との取り付け位置とが重なるように、(2)糸71の取り付け位置を中心に、碁盤の目の表示が対称になるように調整したとき、キャリブレーション板70上の糸71の取り付け位置が光学中心位置Cpとなる。
First, the optical center position Cp is set (S101). First, a
次に、調整部200は、画像の歪み補正を行う(S102)。図5Aに示すように、歪み補正前においては、キャリブレーション板70を撮影したときの画像は、カメラ10の撮影レンズの特性により、図5Aのように碁盤の目が歪んだ画像となる。調整部200は、撮像した画像に正規化処理を行うことにより、撮像した画像を図5Bに示すような画像に調整する。
Next, the
最後に、調整部200は、図4に示すように、任意の画像ピクセルPの視点投影角θを算出する(S103)。
Finally, the
図6は、本発明に係るキャリブレーション板と視点との距離を算出するための処理を説明する図である。 FIG. 6 is a diagram for explaining processing for calculating the distance between the calibration board and the viewpoint according to the present invention.
まず、調整部200は、図5Bに示すような、キャリブレーション板70を撮影した歪み補正後の画像である、移動前の板の画像を取得する。次に、調整部200は、キャリブレーション板70を水平に保ったまま、キャリブレーション板70を視点Mに距離y接近させたときのキャリブレーション板70を撮像した歪み補正後の画像である、移動後の板の画像を取得する。そして、調整部200は、移動前の板の画像と移動後の板の画像を用いて、例えば、光学中心位置Cpを原点とする、点P1’、及び点P2’の2次元座標を抽出する。
First, the
ここで、視点Mと光学中心位置Cpとを結ぶ直線と、キャリブレーション板70の表面との交点をC1とする。また、キャリブレーション板70表面の任意の点をP1とする。また、視点MとP1とを結ぶ直線と、撮像面との交点をP1’とする。また、移動前のキャリブレーション板70表面のP1に対応する、移動後のキャリブレーション板70表面の点をP2とする。また、視点MとP2とを結ぶ直線と、撮像面との交点をP2’とする。また、点P2と点P2’とを通る直線と、移動前のキャリブレーション板70の表面との交点をQとする。
Here, a line connecting the viewpoint M and the optical center position C p, the intersection of the surface of the
このとき、線分P1Qの長さd1は、式1で表される。
At this time, the length d 1 of the line segment P 1 Q is expressed by
ここで、d2は線分C1P1の長さ、d3は線分P1’P2’の長さ、d4は線分CpP1’の長さを示す。 Here, d 2 represents the length of the line segment C 1 P 1 , d 3 represents the length of the line segment P 1 ′ P 2 ′, and d 4 represents the length of the line segment C p P 1 ′.
また、点Qの視点投影角θ1は、式2で表される。 Further, the viewpoint projection angle θ 1 of the point Q is expressed by Expression 2.
したがって、キャリブレーション板70と視点Mとの距離zは、式3で表される。
Therefore, the distance z between the
ここで、d5は、線分C1Qの長さを示す。 Here, d 5 indicates the length of the line segment C 1 Q.
そして、キャリブレーション板70と視点Mとの距離zを用いて、例えば、図6におけるP1’の視点投影角θ2は、式4で表される。
Then, using the distance z between the
視点Mと光学中心位置Cpとを結ぶ線分の長さxは、式5で表される。 Viewpoint M and the length x of a line connecting the optical center position C p can be expressed by equation 5.
したがって、任意のピクセル点Pの視点投影角θは、式6にて算出することができる。 Therefore, the viewpoint projection angle θ of an arbitrary pixel point P can be calculated by Expression 6.
ここで、d6は、線分CpPの長さを示す。 Here, d 6 indicates the length of the line segment C p P.
つまり、光学中心位置Cpを原点とする、任意の画像ピクセルPの2次元座標は既知であるため、任意の画像ピクセルPの視点投影角θを算出することができる。 That is, since the two-dimensional coordinates of an arbitrary image pixel P with the optical center position C p as the origin are known, the viewpoint projection angle θ of the arbitrary image pixel P can be calculated.
このようにして、光学中心位置Cpを設定し、歪み補正を行い、任意の画像ピクセルの視点投影角θを算出されることにより、画像のピクセルキャリブレーションが完了する。 In this way, the optical center position Cp is set, distortion correction is performed, and the viewpoint projection angle θ of an arbitrary image pixel is calculated, whereby the pixel calibration of the image is completed.
以上、画像のピクセルキャリブレーション手法について、実施の形態に基づいて説明したが、画像のピクセルキャリブレーション手法は、この実施の形態に限定されるものではない。 The image pixel calibration method has been described based on the embodiment, but the image pixel calibration method is not limited to this embodiment.
例えば、本実施の形態では、キャリブレーション板70には碁盤の目が記されているものとしていたが、キャリブレーション板には、間隔が既知である印が記されているものとしてもよい。
For example, in the present embodiment, the grid of the grid is written on the
また、本実施の形態では、キャリブレーション時に糸及び錘を用いる例を述べたが、糸及び錘の代わりに、キャリブレーション板と垂直に加工された筒状の構造を通した、ランプ光源からの光線またはレーザ光を用いてもよい。 In this embodiment, an example of using a thread and a weight at the time of calibration has been described. However, instead of the thread and the weight, the light from the lamp light source passes through a cylindrical structure processed perpendicularly to the calibration plate. A light beam or a laser beam may be used.
次に、3次元相対座標計測部20が相対座標計測を行う動作について説明する。
Next, the operation in which the three-dimensional relative coordinate
(実施の形態1)
実施の形態1では、2枚の画像を使用して、3次元相対座標計測部20が、3点の基準点のいずれかと対象点との相対座標を計測する動作について説明する。
(Embodiment 1)
In the first embodiment, the operation in which the three-dimensional relative coordinate
図7は、本発明の実施の形態1に係る3次元相対座標計測装置による、相対座標計測の処理手順を示すフローチャートである。
FIG. 7 is a flowchart showing a processing procedure of relative coordinate measurement by the three-dimensional relative coordinate measurement apparatus according to
まず、画像取得部100は、図8に示すように、第1の取得画像および第2の取得画像を取得する(S110)。ここで、第1の取得画像および第2の取得画像は、第1の視点M1および第2の視点M2より、座標が既知である3点の基準点A,B,Cと、座標が未知である対象点Wとが共に写るようにカメラ(本発明の第1および第2の撮像装置に相当する)で撮像された画像データ60である。
First, as shown in FIG. 8, the
なお、本実施例では、説明の簡略化のため、第1の取得画像および第2の取得画像に含まれる3点の基準点が同一である場合を例に説明するが、第1の取得画像および第2の取得画像に含まれる3点の基準点は異なってもよい。 In the present embodiment, for the sake of simplicity of explanation, a case where the three reference points included in the first acquired image and the second acquired image are the same will be described as an example. The three reference points included in the second acquired image may be different.
次に、2次元座標抽出部110は、図9Aに示すように、例えば、第1の取得画像における光学中心位置Cp1を原点として、第1の取得画像に投影される基準点A、B,Cである点A01,B01、C01の座標(3点の第1の基準2次元座標)を第1の取得画像から抽出する。また、2次元座標抽出部110は、第1の取得画像に投影される対象点Wである点W01の座標(第1の対象2次元座標)を第1の取得画像から抽出する(S120)。同様に、2次元座標抽出部110は、図9Bに示すように、例えば、第2の取得画像における光学中心位置Cp2を原点として、第2の取得画像に投影される基準点A、B,Cである点A02,B02、C02の座標(3点の第2の基準2次元座標)を第2の取得画像から抽出する。また、2次元座標抽出部110は、第2の取得画像に投影される対象点Wである点W02の座標(第2の対象2次元座標)を第2の取得画像から抽出する(S120)。
Next, as illustrated in FIG. 9A, the two-dimensional coordinate
また、視点投影角抽出部120は、予め調整部200によって算出された任意の画像ピクセルの視点投影角を保持し、保持する任意の画像ピクセルの視点投影角の中から、2次元座標抽出部110によって抽出された3点の第1および第2の基準2次元座標並びに第1および第2の対象2次元座標に対応する任意の画像ピクセルの視点投影角を、3つの第1および第2の基準視点投影角並びに第1および第2の対象視点投影角として抽出する(S130)。
The viewpoint projection
そして、傾斜角算出部130aは、第1および第2の取得画像の撮像面である第1および第2の撮像面と、基準点を含む基準平面(第1および第2の基準平面)とのなす角(第1および第2の傾斜角)を算出する(S140)。
Then, the inclination
図10は、本発明に係る傾斜角算出部が行う処理手順を示すフローチャートである。また、図11は、本発明に係る、図10のフローチャートに示される処理を説明する図である。以下、主に図10および図11に基づいて、第1の傾斜角を算出する過程を説明する。 FIG. 10 is a flowchart showing a processing procedure performed by the tilt angle calculation unit according to the present invention. Moreover, FIG. 11 is a figure explaining the process shown by the flowchart of FIG. 10 based on this invention. Hereinafter, the process of calculating the first inclination angle will be described mainly based on FIGS. 10 and 11.
まず、傾斜角算出部130aは、相対座標が既知である3点の基準点A,B,Cのうちいずれか1点、例えば、点Aを原点とするX1−Y1−Z1座標系(第1の3次元座標系)を設定する(S141)。このとき、傾斜角算出部130aは、X1軸およびY1軸は、第1の視点M1より撮像された第1の撮像面と平行になるように設定する。また、傾斜角算出部130aは、Z1軸は、第1の視点M1より撮像された第1の撮像面と垂直になるように設定する。なお、このときのX1−Y1平面を、第1の変換平面とも呼ぶ。
First, the tilt
次に、傾斜角算出部130aは、相対座標が既知である3点の基準点A,B,Cと同等な第1の仮想点B1およびC1の座標を設定する(S142)。ここで、点B1は点Bに相当し、点C1は点Cに相当する。例えば、本実施の形態では、点B1の座標を(B1x,0,0)、点C1の座標を(0,C1y,0)と設定する。
Then, the inclination
そして、傾斜角算出部130aは、点B1およびC1を、X1軸まわりに角度α1n、Y1軸まわりに角度β1n、Z1軸まわりに角度γ1n、細かく別々に回転させた複数の第1の変換基準点である、点B1n’(B1nx’,B1ny’,B1nz’)および点C1n’(C1nx’,C1ny’,C1nz’)を算出する(S143)。ここで、n=1、2、3・・・である。
Then, the tilt
次に、傾斜角算出部130aは、視点投影角抽出部120より抽出された視点投影角を用いて、点B1n’および点C1n’を、X1−Y1平面に投影させた複数の第1の変換投影基準点である、点B1n”(B1nx”,B1ny”,0)および点C1n”(C1nx”,C1ny”,0)を算出する(S144)。ここで、n=1、2、3・・・である。
Next, the inclination
ここで、視点投影角抽出部120により抽出された、点B01のZ1−X1面の視点投影角をε1x、点B01のZ1−Y1面の視点投影角をε1y、点C01のZ1−X1面の視点投影角をφ1x、点C01のZ1−Y1面の視点投影角をφ1yとする。第1の撮像面における基準点A、B,Cである点A01,B01、C01を結ぶ三角形A01B01C01と、点A、点B1n” 点C1n”を結ぶ三角形A、B1n” C1n”が相似となるときには、図12に示すように、∠B1n’M1Cp1および∠B1n”M1Cp1はε1xとなる。
Here, extracted by the viewpoint projection
したがって、B1nx”は、式7にて算出することができる。
Therefore, B 1nx ″ can be calculated using
同様にして、B1ny”、C1nx”およびC1ny”は、式8〜式10にて算出することができる。 Similarly, B 1ny ″, C 1nx ″ and C 1ny ″ can be calculated using Equations 8 to 10.
最後に、傾斜角算出部130aは、第1の撮像面における基準点A、B、Cである点A01,B01、C01を結ぶ三角形A01B01C01と、点A、点B1n”、点C1n”を結ぶ三角形AB1n”C1n”とが最も相似となる第1の変換投影基準点B1”およびC1”を決定することにより、第1の傾斜角(α1,β1,γ1)を算出することができる(S145)。
Finally, the inclination
具体的な相似比較計算法として、線分A01B01を、線分AB1n”と同じ長さにして、点A01を点Aと一致させるように点B01および点C01を移動させたとき、線分B01B1n”の長さと線分C01C1n”の長さとの和が最小となるように、第1の傾斜角(α1,β1,γ1)を算出する方法がある。 As a specific similarity calculation method, the line segment A 01 B 01 is made the same length as the line segment AB 1n ″, and the point B 01 and the point C 01 are moved so that the point A 01 coincides with the point A. Then, the first inclination angle (α 1 , β 1 , γ 1 ) is calculated so that the sum of the length of the line segment B 01 B 1n ″ and the length of the line segment C 01 C 1n ″ is minimized. There is a way.
ただし、相似比較計算法は、上記の方法に限られない。例えば、線分A01B01を、線分AB1n”と同じ長さにして、線分A01B01を線分AB1n”と一致させるように点C01を移動させたとき、点C01と点C1n”とのずれ量が最小となるように、第1の傾斜角(α1,β1,γ1)を算出してもよい。
However, the similarity comparison calculation method is not limited to the above method. For example, when a
同様にして、傾斜角算出部130aは、第2の撮像面と、基準点を含む平面とのなす角である第2の傾斜角(α2,β2,γ2)を算出することができる。
Similarly, the inclination
このようにして、第1の傾斜角および第2の傾斜角が算出される。 In this way, the first tilt angle and the second tilt angle are calculated.
以上、傾斜角の算出について、実施の形態に基づいて説明したが、傾斜角の算出は、この実施の形態に限定されるものではない。 Although the calculation of the tilt angle has been described based on the embodiment, the calculation of the tilt angle is not limited to this embodiment.
例えば、本実施の形態では、傾斜角算出部130aは、座標が既知である3点の基準点A,B,Cのうちいずれか1点を原点とするX1−Y1−Z1座標系を設定していたが、原点は、座標が既知である3点の基準点以外から選定してもよい。
For example, in the present embodiment, the tilt
また、例えば、基準点A、B、Cがある時、点Aを点Aの視点投影角線上のある位置に置き、点Bを点Bの視点投影角線上のある指定ピッチで、かつある範囲間を順次スライドさせた時、あるピッチの時の点Bによる線分ABを元に相似形であることで点Cを求めていき、点Cが線分ABを軸とした円周上にあることがわかる。点Cの視点投影角上に最接近した条件を記憶しておき、点Bを順次スライドさせてその時の点Cの最接近点を算出し、最も接近した時が求める傾斜角としてもよい。 Further, for example, when there are reference points A, B, and C, the point A is placed at a certain position on the viewpoint projection angle line of the point A, and the point B is at a certain pitch on the viewpoint projection angle line of the point B and in a certain range. When the space is sequentially slid, the point C is obtained by being a similar shape based on the line segment AB by the point B at a certain pitch, and the point C is on the circumference with the line segment AB as an axis. I understand that. The condition of the closest approach on the viewpoint projection angle of the point C may be stored, the point B may be sequentially slid to calculate the closest point of the point C at that time, and the inclination angle obtained when the closest approach is obtained.
また、例えば、基準点A、B、Cがあり、それぞれの各点間の長さが既知の時、点Aを点Aの視点投影角線上のある位置に置き、その時の点Bを点Bの視点投影角線上に置くか近傍に置き、その場合に点Cが線分ABを軸とした円周上にあることがわかるので、点Cの視点投影角線上に最接近した条件を記憶しておき、点Aをある範囲で上記の計算を行ったときの各点が視点投影角線上に最も接近した時が求める傾斜角としてもよい。 Also, for example, when there are reference points A, B, and C, and the length between the respective points is known, the point A is placed at a certain position on the viewpoint A projection angle line of the point A, and the point B at that time is the point B Since the point C is on the circumference around the line segment AB, the condition closest to the point C projection angle line is memorized. The inclination angle obtained when the point A is closest to the viewpoint projection angle line when the above-described calculation is performed for the point A within a certain range may be used.
再度、図7を用いて、本発明の実施の形態1に係る3次元相対座標計測装置による、相対座標計測の処理手順の説明を行う。
With reference to FIG. 7 again, the processing procedure of relative coordinate measurement by the three-dimensional relative coordinate measurement apparatus according to
図7において、傾斜角の算出(S140)が完了した後、ベクトル算出部130bは、第1のベクトルおよびベクトル2を算出する(S150)。
In FIG. 7, after the calculation of the tilt angle (S140) is completed, the
まず、第1の撮像面における対象点Wである点W01の第1の対象2次元座標を、三角形A、B1”、C1”が存在する第1の変換平面上に相似形により換算した点を、W1(W1x,W1y,0)とする。 First, the first target two-dimensional coordinates of the point W 01 that is the target point W on the first imaging surface are converted into similar shapes on the first conversion plane where the triangles A, B 1 ″, C 1 ″ exist. This point is defined as W 1 (W 1x , W 1y , 0).
次に、点W1と第1の視点M1を結ぶ線分上の点を、W1’(W1x’,W1z’,W1z’)としたとき、第1のベクトルは、視点投影角抽出部120により抽出された、点W01のZ1−X1面の視点投影角η1xおよび点W01のZ1−Y1面の視点投影角η1yとW1z’とを用いて、(W1x−W1z’tanη1x,W1y−W1z’tanη1y,W1z’)と算出することができる。
Next, when the point on the line segment connecting the point W 1 and the first viewpoint M 1 is W 1 ′ (W 1x ′, W 1z ′, W 1z ′), the first vector is the viewpoint projection. Using the viewpoint projection angle η 1x of the Z 1 -X 1 plane of the point W 01 and the viewpoint projection angles η 1y and W 1z ′ of the Z 1 -Y 1 plane of the point W 01 extracted by the
同様にして、ベクトル算出部130bは、ベクトル2を算出することができる。
Similarly, the
そして、変換ベクトル算出部130cは、点A、B1”、C1”のうちいずれか2点を結ぶ線分、例えば、線分AB1”と、点A、B2”、C2” のうち、線分AB1”に対応する線分AB2”とを抽出する。そして、変換ベクトル算出部130cは、傾斜角算出部130aで求めた第1の傾斜角(α1,β1,γ1)および第2の傾斜角(α2,β2,γ2)を用いて、線分AB2”と線分AB1”とが重なりあうように、ベクトル2を移動させることで、第2のベクトルを算出する(S160)。
Then, the conversion
最後に、相対座標計測部130dは、第1のベクトルと第2のベクトルとの最接近点の座標を算出することにより、基準点のうちいずれか1点である原点Aと対象点Wとの相対座標を算出する(S170)。
Finally, the relative coordinate measuring
なお、上述したベクトル算出部130b、変換ベクトル算出部130c及び相対座標計測部130dは、本発明の計測部に相当する。
Note that the
このようにして、基準点のうちいずれかと対象点との相対座標が算出される。 In this way, the relative coordinates between any of the reference points and the target point are calculated.
(実施の形態2)
実施の形態2では、1枚の画像を使用して、3次元相対座標計測部20が、3点の基準点のいずれかと撮影点(本発明の第1の視点に相当する)との相対座標を計測する動作について説明する。
(Embodiment 2)
In the second embodiment, using a single image, the three-dimensional relative coordinate measuring
図13は、本発明の実施の形態2に係る3次元相対座標計測装置による、相対座標計測の処理手順を示すフローチャートである。 FIG. 13 is a flowchart showing a processing procedure of relative coordinate measurement by the three-dimensional relative coordinate measurement apparatus according to Embodiment 2 of the present invention.
まず、画像取得部100は、図14に示すように、第1の取得画像を取得する(S210)。ここで、第1の取得画像は、第1の視点M1より、座標が既知である3点の基準点A,B,Cが共に写るようにカメラ(本発明の第1の撮像装置に相当する)で撮像された画像データ60である。
First, the
次に、2次元座標抽出部110は、図15に示すように、例えば、第1の取得画像における光学中心位置Cp1を原点として、第1の取得画像に投影される基準点A、B,Cである点A01,B01、C01の座標(3点の第1の基準2次元座標)を第1の取得画像から抽出する(S220)。
Next, as illustrated in FIG. 15, the two-dimensional coordinate
また、視点投影角抽出部120は、予め調整部200によって算出された任意の画像ピクセルの視点投影角を保持し、保持する任意の画像ピクセルの視点投影角の中から、2次元座標抽出部110によって抽出された3点の第1の基準2次元座標に対応する任意の画像ピクセルの視点投影角を、3つの第1の基準視点投影角として抽出する(S230)。
The viewpoint projection
そして、傾斜角算出部130aは、第1の取得画像の撮像面である第1の撮像面と、基準点を含む第1の基準平面とのなす角(第1の傾斜角)を算出する(S240)。
Then, the tilt
なお、第1の傾斜角を算出する際の、傾斜角算出部130aが行う処理手順は、図10におけるS141〜S145と同様であるため、説明は省略する。
Note that the processing procedure performed by the inclination
また、ベクトル算出部130bは、2本のベクトルを算出する(S250)。
Further, the
ここで、2本のベクトルとは、例えば、(S145)において決定したB1”と、そのときの点B1n’に対応するB1’とを結ぶ直線B1’B1”及び(S145)において決定したC1”と、そのときの点C1n’に対応するC1’とを結ぶ直線C1’C1”のことである。 Here, the two vectors, for example, B 1 determined in (S145) and "the, and the straight line B 1 'B 1 connecting the' B 1 corresponding to 'point B 1n at that time" (S145) C 1 determined in is that of "a, linear C 1 'C 1 connecting the' C 1 corresponding to the 'C 1n terms of their time".
最後に、相対座標計測部130dは、2本のベクトルの最接近点の座標を算出することにより、基準点のうちいずれか1点である点Aと撮影点との相対座標を算出する(S260)。
Finally, the relative coordinate measuring
また、例えば、基準点A、B、Cがあり、それぞれの各点間の長さが既知の時、点Aを点Aの視点投影角線上のある位置に置き、その時の点Bを点Bの視点投影角線上に置くか近傍に置き、その場合に点Cが線分ABを軸とした円周上にあることがわかるので、点Cの視点投影角線上に最接近した条件を記憶しておき、点Aをある範囲で上記の計算を行ったときの各点が視点投影角線上に最も接近した時が求める傾斜角としてもよい。この場合、点Aと点Bと点M1を結ぶ三角形ABM1について、線分ABの長さ並びに∠M1AB及び∠M1BAが既知であるため、三角形ABM1を用いて、基準点のうちいずれか1点と撮影点との相対座標を算出することができる。また、視点M1から線分ABを見たとして∠AM1Bが視点投影角により既知であるので、同様に、三角形ABM1を用いて、基準点のうちいずれか1点と撮影点との相対座標を算出することができる。 Further, for example, when there are reference points A, B, and C, and the length between each point is known, the point A is placed at a certain position on the viewpoint projection angle line of the point A, and the point B at that time is set to Since the point C is on the circumference around the line segment AB, the condition closest to the point C projection angle line is memorized. The inclination angle obtained when the point A is closest to the viewpoint projection angle line when the above-described calculation is performed for the point A within a certain range may be used. This case, the triangle ABM 1 connecting the point A and point B and the point M 1, because the length and ∠M 1 AB and ∠M 1 BA line segment AB is known, using the triangle ABM 1, the reference point The relative coordinates of any one of the points and the shooting point can be calculated. Further, since ∠AM 1 B is known from the viewpoint projection angle when the line segment AB is viewed from the viewpoint M 1 , similarly, using the triangle ABM 1 , any one of the reference points and the shooting point Relative coordinates can be calculated.
このようにして、基準点のうちいずれかと撮影点との相対座標が算出される。 In this way, the relative coordinates between any of the reference points and the shooting point are calculated.
以上、本発明の実施の形態に係る3次元相対座標計測装置について説明したが、本発明は、この実施の形態に限定されるものではない。 Although the three-dimensional relative coordinate measuring apparatus according to the embodiment of the present invention has been described above, the present invention is not limited to this embodiment.
本実施の形態では、視点投影角抽出部120は、予め調整部200によって算出された任意の画像ピクセルの視点投影角を保持し、保持する任意の画像の視点投影角の中から、2次元座標抽出部110によって抽出された2次元座標に対応する基準および対象視点投影角を抽出していた。しかし、例えば、視点投影角抽出部120は、式6を保持し、保持する式6を用いて、2次元座標抽出部110によって抽出された2次元座標と歪み補正式とを用いて基準および対象視点投影角を算出してもよい。この場合、調整部200は、式5により、視点Mと光学中心位置Cpとの距離xを求めておく必要がある。
In the present embodiment, the viewpoint projection
また、本実施の形態では、2次元座標抽出部110において、第1および第2の取得画像における3点の基準点および対象点の2次元座標を抽出していたが、例えば、画像取得部100が上記2次元座標を抽出してもよい。この場合には、2次元座標抽出部110は不要となる。
In the present embodiment, the two-dimensional coordinate
また、本実施の形態では、傾斜角算出部130aにおいて、2つの異なる3次元座標系を設定することにより、第1の傾斜角および第2の傾斜角を算出したが、1つの3次元座標系のみを設定することより、第1の傾斜角および第2の傾斜角を算出してもよい。この場合、ベクトル算出部130bにおいて、第1の対象視点投影角と第1の傾斜角を用いて、1つの3次元座標系における点M1と点W01とを通る第1のベクトルを算出する。また、ベクトル算出部130bにおいて、第2の対象視点投影角と第2の傾斜角を用いて、1つの3次元座標系における点M2と点W02とを通る第2のベクトルを算出する。したがって、この場合には、変換ベクトル算出部130cは不要となる。
In the present embodiment, the tilt
また、本実施の形態では、傾斜角算出部130aにおいて、2つの異なる3次元座標系を設定することにより、第1の傾斜角および第2の傾斜角を算出する場合においても、変換ベクトル算出部130cの代わりにベクトル算出部130bで演算を行ってもよい。
In the present embodiment, even when the tilt
また、本実施の形態では、2つの視点から撮影を行ったが、3つ以上の視点から撮影を行ったり、相対座標が既知である基準点の数を4点以上に増やしたりしてもよい。 In the present embodiment, shooting is performed from two viewpoints, but shooting may be performed from three or more viewpoints, or the number of reference points whose relative coordinates are known may be increased to four or more. .
また、相対座標が既知である4点以上の基準点を用いる場合、2つの画像の各々には、この4点以上の基準点のうち、少なくとも3点の基準点が撮影されていればよい。また、各画像に撮影される少なくとも3点の基準点の組み合わせは異なってもよい。また、4点以上の基準点は同一平面に配置されるのではなく、立体的に配置されていることが好ましい。例えば、三角錐、又は四角錐の頂点のうち4点以上を基準点として用いることができる。これにより、広範囲で安定的な角度検出を行える。例えば、上述した3点の基準点のみを用いる場合では、3点の基準点を含む平面と視点との角度が無いと誤差が発生しやすくなる。一方で、例えば、2つの視点から、上記三角錐の異なる面を撮影することで、このような場合でも安定して角度検出を行える。 In addition, when using four or more reference points whose relative coordinates are known, it is sufficient that at least three of the four or more reference points are captured in each of the two images. Further, the combination of at least three reference points photographed in each image may be different. Further, it is preferable that four or more reference points are arranged in a three-dimensional manner rather than in the same plane. For example, four or more of the apexes of a triangular pyramid or a quadrangular pyramid can be used as the reference point. Thereby, a wide range and stable angle detection can be performed. For example, when only the above-described three reference points are used, an error is likely to occur if there is no angle between the plane including the three reference points and the viewpoint. On the other hand, for example, by photographing different surfaces of the triangular pyramid from two viewpoints, angle detection can be performed stably even in such a case.
この場合、傾斜角は、異なる基準変面(第1および第2の基準平面)に対する角度である。また、相対座標計測部130dは、3点の第1の基準点と3点の第2の基準点との相対位置関係を用いて、対象点の相対座標を算出する。具体的には、相対座標計測部130dは、当該相対位置関係を用いて、2本のベクトルの最接近点を算出する。また、この相対位置関係は、傾斜角算出時に計算されてもよい。言い換えると、算出される傾斜角はどちらかの基準平面に合わせたものであってもよい。または、算出される傾斜角は、3次元座標系で統一された角度で算出されてもよい。
In this case, the inclination angle is an angle with respect to different reference deformation surfaces (first and second reference planes). The relative coordinate
また、相対座標が既知である基準点の数を多く用いて、非線形近似計算を行うことにより、第1の傾斜角および第2の傾斜角を算出してもよい。 Alternatively, the first tilt angle and the second tilt angle may be calculated by performing nonlinear approximation calculation using a large number of reference points whose relative coordinates are known.
また、例えば、相対座標が既知である3点の基準点A、B、Cと、第1の撮像面における基準点A、B,Cである点A01,B01、C01とのうち、点Aと点A01、点Bと点B01、点Cと点C01のそれぞれが対応づけられない場合には、特別なマーカーやラインを使用することにより、対応関係を識別することができる。 Further, for example, among the three reference points A, B, and C whose relative coordinates are known and the points A 01 , B 01 , and C 01 that are the reference points A, B, and C on the first imaging surface, When the points A and A 01 , the points B and B 01 , and the points C and C 01 are not associated with each other, the correspondence can be identified by using a special marker or line. .
また、基準点の回転による反転(裏返り)および誤った解(傾斜角)の算出を防ぐために相対座標が既知の検証用の基準点を用いてもよい。 In addition, in order to prevent reversal (turn over) due to rotation of the reference point and calculation of an incorrect solution (tilt angle), a reference point for verification whose relative coordinates are known may be used.
また、誤った解を算出しないために制限(例えば、回転条件)を加えてもよい。 Further, a restriction (for example, a rotation condition) may be added so as not to calculate an incorrect solution.
また、本発明の実施の形態に係る、3次元相対座標計測装置の機能の一部または全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。 Moreover, you may implement | achieve part or all of the function of the three-dimensional relative coordinate measuring device based on embodiment of this invention, when processors, such as CPU, run a program.
さらに、構成要素間の接続関係は、本発明を具体的に説明するために例示するものであり、本発明の機能を実現する接続関係はこれに限定されない。 Furthermore, the connection relationship between the components is exemplified for specifically explaining the present invention, and the connection relationship for realizing the function of the present invention is not limited to this.
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを一つの機能ブロックとして実現したり、一つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を上記3次元計測装置が並列または時分割に処理してもよい。 In addition, division of functional blocks in the block diagram is an example, and a plurality of functional blocks can be realized as one functional block, a single functional block can be divided into a plurality of functions, or some functions can be transferred to other functional blocks. May be. Further, the functions of a plurality of functional blocks having similar functions may be processed by the three-dimensional measuring apparatus in parallel or in time division.
さらに、本発明は上記プログラムであってもよいし、上記プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。 Furthermore, the present invention may be the above program or a non-transitory computer-readable recording medium on which the above program is recorded. Needless to say, the program can be distributed via a transmission medium such as the Internet.
また、上記3次元計測装置の構成は、本発明を具体的に説明するために例示するためのものであり、本発明に係る3次元計測装置は、上記構成の全てを必ずしも備える必要はない。言い換えると、本発明に係る3次元計測装置は、本発明の効果を実現できる最小限の構成のみを備えればよい。 In addition, the configuration of the three-dimensional measurement apparatus is for illustration in order to specifically describe the present invention, and the three-dimensional measurement apparatus according to the present invention does not necessarily have all of the above-described configurations. In other words, the three-dimensional measuring apparatus according to the present invention only needs to have a minimum configuration that can realize the effects of the present invention.
同様に、上記の3次元計測装置による3次元計測方法は、本発明を具体的に説明するために例示するためのものであり、本発明に係る3次元計測装置による3次元計測方法は、上記ステップの全てを必ずしも含む必要はない。言い換えると、本発明に係る3次元計測方法は、本発明の効果を実現できる最小限のステップのみを含めばよい。 Similarly, the three-dimensional measurement method using the three-dimensional measurement apparatus is for illustration in order to specifically describe the present invention, and the three-dimensional measurement method using the three-dimensional measurement apparatus according to the present invention is described above. It is not necessary to include all of the steps. In other words, the three-dimensional measurement method according to the present invention needs to include only the minimum steps that can realize the effects of the present invention.
また、上記のステップが実行される順序は、本発明を具体的に説明するために例示するためのものであり、上記以外の順序であってもよい。 In addition, the order in which the above steps are executed is for illustration in order to specifically describe the present invention, and may be in an order other than the above.
また、上記ステップの一部が、他のステップと同時(並列)に実行されてもよい。 Also, some of the above steps may be executed simultaneously (in parallel) with other steps.
さらに、本発明の主旨を逸脱しない限り、本実施の形態に対して当業者が思いつく範囲内の変更を施した各種変形例も本発明に含まれる。 Further, various modifications in which the present embodiment is modified within the scope conceived by those skilled in the art are also included in the present invention without departing from the gist of the present invention.
本発明は、3次元相対座標計測、例えば機械的および電気的に相対座標を計測することができない環境において、2点間の間隔を自動測定する場合に利用することができる。 The present invention can be used when three-dimensional relative coordinate measurement, for example, an interval between two points is automatically measured in an environment where relative coordinates cannot be measured mechanically and electrically.
10 カメラ
20 3次元相対座標計測部
30 ケーブル
40 基準構造物
50 対象構造物
60、61 画像データ
70 キャリブレーション板
71 糸
72 錘
80 画像のピクセルキャリブレーション部
90 3次元相対座標計測装置
100 画像取得部
110 2次元座標抽出部
120 視点投影角抽出部
130 演算部
130a 傾斜角算出部
130b ベクトル算出部
130c 変換ベクトル算出部
130d 相対座標計測部
140 表示部
200 調整部
DESCRIPTION OF
Claims (4)
第1の視点より前記3点の第1の基準点と前記対象点とが第1の撮像装置で撮像された第1の取得画像を取得し、第2の視点より前記3点の第2の基準点と前記対象点とが前記第1の撮像装置と同一又は異なる第2の撮像装置で撮像された第2の取得画像を取得する画像取得部と、
予め算出された、各画素に対する第1の画素視点投影角の情報を保持し、前記第1の画素視点投影角の情報を用いて、前記第1の取得画像に投影される前記3点の第1の基準点である3点の第1の画像基準点に対応する前記第1の画素視点投影角である3つの第1の基準視点投影角と、前記第1の取得画像に投影される前記対象点に対応する前記第1の画素視点投影角である第1の対象視点投影角とを取得し、予め算出された、各画素に対する第2の画素視点投影角の情報を保持し、前記第2の画素視点投影角の情報を用いて、前記第2の取得画像に投影される前記3点の第2の基準点である3点の第2の画像基準点に対応する前記第2の画素視点投影角である3つの第2の基準視点投影角と、前記第2の取得画像に投影される前記対象点に対応する前記第2の画素視点投影角である第2の対象視点投影角とを取得する視点投影角抽出部とを備え、
前記第1の画素視点投影角は、前記第1の取得画像における各画素の座標である第1の画素2次元座標に投影される前記3次元座標系の各点と前記第1の視点とを結ぶ線分と、前記第1の撮像装置の光軸とのなす角であり、
前記第2の画素視点投影角は、前記第2の取得画像における各画素の座標である第2の画素2次元座標に投影される前記3次元座標系の各点と前記第2の視点とを結ぶ線分と、前記第2の撮像装置の光軸とのなす角であり、
さらに、
前記3つの第1の基準視点投影角と前記3点の第1の基準点の相対座標とを用いて、前記第1の取得画像の撮像面である第1の撮像面と前記3点の第1の基準点を含む第1の基準平面とのなす第1の傾斜角を算出し、前記3つの第2の基準視点投影角と前記3点の第2の基準点の相対座標とを用いて、前記第2の取得画像の撮像面である第2の撮像面と前記3点の第2の基準点を含む第2の基準平面とのなす第2の傾斜角を算出する傾斜角算出部と、
前記第1の対象視点投影角の方向に延び、かつ、前記第1の取得画像に投影される前記対象点を通る第1の直線を算出し、前記第2の対象視点投影角の方向に延び、かつ、前記第2の取得画像に投影される前記対象点を通る第2の直線を算出するとともに、前記第1の傾斜角および前記第2の傾斜角を用いて当該第1の直線及び当該第2の直線を同一の前記3次元座標系に変換し、前記3点の第1の基準点と前記3点の第2の基準点との相対位置関係を用いて、前記3次元座標系における、前記第1の直線と前記第2の直線との最接近点の座標を、前記3点の第1の基準点及び前記3点の第2の基準点のいずれかと前記対象点との相対座標として算出する計測部とを備える
3次元相対座標計測装置。 At any three of the three first reference points and the three or more reference points, which are any three of the three or more reference points whose relative coordinates in the three-dimensional coordinate system are known A three-dimensional relative coordinate measuring apparatus that measures relative coordinates between any one of the three second reference points and one target point whose coordinates in the three-dimensional coordinate system are unknown,
The first reference image of the three points and the target point from the first viewpoint are acquired by the first imaging device, and the second second of the three points is acquired from the second viewpoint. An image acquisition unit for acquiring a second acquired image captured by a second imaging device having a reference point and the target point that are the same as or different from the first imaging device;
Information on the first pixel viewpoint projection angle for each pixel , which is calculated in advance , is stored, and the information on the first pixel viewpoint projection angle is used to calculate the three points of the three points projected on the first acquired image. Three first reference viewpoint projection angles that are the first pixel viewpoint projection angles corresponding to three first image reference points that are one reference point, and the first image that is projected onto the first acquired image A first target viewpoint projection angle that is the first pixel viewpoint projection angle corresponding to the target point is acquired, information on a second pixel viewpoint projection angle for each pixel calculated in advance is held, and the first The second pixels corresponding to the three second image reference points that are the second reference points of the three points projected on the second acquired image using the information of the two pixel viewpoint projection angles Three second reference viewpoint projection angles, which are viewpoint projection angles, and the target point projected on the second acquired image And a perspective projection angle extracting unit for acquiring second target viewpoint projection angle is the second pixel viewpoint projection angle to respond,
The first pixel viewpoint projection angle is obtained by calculating each point of the three-dimensional coordinate system projected on the first pixel two-dimensional coordinates, which are coordinates of each pixel in the first acquired image, and the first viewpoint. An angle formed by a connecting line segment and the optical axis of the first imaging device;
The second pixel viewpoint projection angle is obtained by calculating each point of the three-dimensional coordinate system projected on the second pixel two-dimensional coordinate which is a coordinate of each pixel in the second acquired image and the second viewpoint. An angle formed by a connecting line segment and the optical axis of the second imaging device;
further,
Using the three first reference viewpoint projection angles and the relative coordinates of the three first reference points, the first imaging surface, which is the imaging surface of the first acquired image, and the three points A first inclination angle formed with a first reference plane including one reference point is calculated, and the three second reference viewpoint projection angles and the relative coordinates of the three second reference points are used. An inclination angle calculation unit for calculating a second inclination angle formed by a second imaging plane which is an imaging plane of the second acquired image and a second reference plane including the three second reference points; ,
Extending in the direction of the first object viewpoints projection angle, and said first calculating a first straight line passing through the target point to be projected in the acquired image, the direction of the second target viewpoints projection angle And the second straight line passing through the target point projected on the second acquired image is calculated, and the first straight line is calculated using the first inclination angle and the second inclination angle. And the second straight line is converted into the same three-dimensional coordinate system, and the three-dimensional coordinates are obtained by using the relative positional relationship between the three first reference points and the three second reference points. In the system, the coordinates of the closest point between the first straight line and the second straight line are set to be either the first reference point of the three points or the second reference point of the three points and the target point. A three-dimensional relative coordinate measurement apparatus comprising a measurement unit that calculates relative coordinates.
請求項1に記載の3次元相対座標計測装置。 The three-dimensional relative coordinate measuring apparatus according to claim 1, wherein at least one of the three first reference points is different from the three second reference points.
第1の視点より前記3点の第1の基準点と前記対象点とが第1の撮像装置で撮像された第1の取得画像を取得し、第2の視点より前記3点の第2の基準点と前記対象点とが前記第1の撮像装置と同一又は異なる第2の撮像装置で撮像された第2の取得画像を取得する画像取得ステップと、
予め算出された、各画素に対する第1の画素視点投影角の情報を保持し、前記第1の画素視点投影角の情報を用いて、前記第1の取得画像に投影される前記3点の第1の基準点である3点の第1の画像基準点に対応する前記第1の画素視点投影角である3つの第1の基準視点投影角と、前記第1の取得画像に投影される前記対象点に対応する前記第1の画素視点投影角である第1の対象視点投影角とを取得し、予め算出された、各画素に対する第2の画素視点投影角の情報を保持し、前記第2の画素視点投影角の情報を用いて、前記第2の取得画像に投影される前記3点の第2の基準点である3点の第2の画像基準点に対応する前記第2の画素視点投影角である3つの第2の基準視点投影角と、前記第2の取得画像に投影される前記対象点に対応する前記第2の画素視点投影角である第2の対象視点投影角とを取得する視点投影角抽出ステップとを含み、
前記第1の画素視点投影角は、前記第1の取得画像における各画素の座標である第1の画素2次元座標に投影される前記3次元座標系の各点と前記第1の視点とを結ぶ線分と、前記第1の撮像装置の光軸とのなす角であり、
前記第2の画素視点投影角は、前記第2の取得画像における各画素の座標である第2の画素2次元座標に投影される前記3次元座標系の各点と前記第2の視点とを結ぶ線分と、前記第2の撮像装置の光軸とのなす角であり、
さらに、
前記3つの第1の基準視点投影角と前記3点の第1の基準点の相対座標とを用いて、前記第1の取得画像の撮像面である第1の撮像面と前記3点の第1の基準点を含む第1の基準平面とのなす第1の傾斜角を算出し、前記3つの第2の基準視点投影角と前記3点の第2の基準点の相対座標とを用いて、前記第2の取得画像の撮像面である第2の撮像面と前記3点の第2の基準点を含む第2の基準平面とのなす第2の傾斜角を算出する傾斜角算出ステップと、
前記第1の対象視点投影角の方向に延び、かつ、前記第1の取得画像に投影される前記対象点を通る第1の直線を算出し、前記第2の対象視点投影角の方向に延び、かつ、前記第2の取得画像に投影される前記対象点を通る第2の直線を算出するとともに、前記第1の傾斜角および前記第2の傾斜角を用いて当該第1の直線及び当該第2の直線を同一の前記3次元座標系に変換し、前記3点の第1の基準点と前記3点の第2の基準点との相対位置関係を用いて、前記3次元座標系における、前記第1の直線と前記第2の直線との最接近点の座標を、前記3点の第1の基準点及び前記3点の第2の基準点のいずれかと前記対象点との相対座標として算出する計測ステップとを含む
3次元相対座標計測方法。 At any three of the three first reference points and the three or more reference points, which are any three of the three or more reference points whose relative coordinates in the three-dimensional coordinate system are known A three-dimensional relative coordinate measurement method for measuring a relative coordinate between any one of the three second reference points and one target point whose coordinates in the three-dimensional coordinate system are unknown,
The first reference image of the three points and the target point from the first viewpoint are acquired by the first imaging device, and the second second of the three points is acquired from the second viewpoint. An image acquisition step of acquiring a second acquired image captured by a second imaging device in which a reference point and the target point are the same as or different from the first imaging device;
Information on the first pixel viewpoint projection angle for each pixel , which is calculated in advance , is stored, and the information on the first pixel viewpoint projection angle is used to calculate the three points of the three points projected on the first acquired image. Three first reference viewpoint projection angles that are the first pixel viewpoint projection angles corresponding to three first image reference points that are one reference point, and the first image that is projected onto the first acquired image A first target viewpoint projection angle that is the first pixel viewpoint projection angle corresponding to the target point is acquired, information on a second pixel viewpoint projection angle for each pixel calculated in advance is held, and the first The second pixels corresponding to the three second image reference points that are the second reference points of the three points projected on the second acquired image using the information of the two pixel viewpoint projection angles Three second reference viewpoint projection angles, which are viewpoint projection angles, and the target point projected on the second acquired image And a perspective projection angle extracting step of obtaining a second target viewpoint projection angle is the second pixel viewpoint projection angle to respond,
The first pixel viewpoint projection angle is obtained by calculating each point of the three-dimensional coordinate system projected on the first pixel two-dimensional coordinates, which are coordinates of each pixel in the first acquired image, and the first viewpoint. An angle formed by a connecting line segment and the optical axis of the first imaging device;
The second pixel viewpoint projection angle is obtained by calculating each point of the three-dimensional coordinate system projected on the second pixel two-dimensional coordinate which is a coordinate of each pixel in the second acquired image and the second viewpoint. An angle formed by a connecting line segment and the optical axis of the second imaging device;
further,
Using the three first reference viewpoint projection angles and the relative coordinates of the three first reference points, the first imaging surface, which is the imaging surface of the first acquired image, and the three points A first inclination angle formed with a first reference plane including one reference point is calculated, and the three second reference viewpoint projection angles and the relative coordinates of the three second reference points are used. An inclination angle calculating step of calculating a second inclination angle formed by a second imaging plane which is an imaging plane of the second acquired image and a second reference plane including the three second reference points; ,
Extending in the direction of the first object viewpoints projection angle, and said first calculating a first straight line passing through the target point to be projected in the acquired image, the direction of the second target viewpoints projection angle And the second straight line passing through the target point projected on the second acquired image is calculated, and the first straight line is calculated using the first inclination angle and the second inclination angle. And the second straight line is converted into the same three-dimensional coordinate system, and the three-dimensional coordinates are obtained by using the relative positional relationship between the three first reference points and the three second reference points. In the system, the coordinates of the closest point between the first straight line and the second straight line are set to be either the first reference point of the three points or the second reference point of the three points and the target point. A three-dimensional relative coordinate measurement method including a measurement step of calculating as relative coordinates.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012143314A JP5648159B2 (en) | 2012-06-26 | 2012-06-26 | Three-dimensional relative coordinate measuring apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012143314A JP5648159B2 (en) | 2012-06-26 | 2012-06-26 | Three-dimensional relative coordinate measuring apparatus and method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011541976A Division JP5070435B1 (en) | 2011-07-01 | 2011-07-01 | Three-dimensional relative coordinate measuring apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013015519A JP2013015519A (en) | 2013-01-24 |
JP5648159B2 true JP5648159B2 (en) | 2015-01-07 |
Family
ID=47688305
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012143314A Expired - Fee Related JP5648159B2 (en) | 2012-06-26 | 2012-06-26 | Three-dimensional relative coordinate measuring apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5648159B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105025193B (en) | 2014-04-29 | 2020-02-07 | 钰立微电子股份有限公司 | Portable stereo scanner and method for generating stereo scanning result of corresponding object |
CN109871620B (en) * | 2019-02-22 | 2022-11-25 | 深圳市瑞源祥橡塑制品有限公司 | Method and device for acquiring projection point of target point on reference surface and application of method and device |
CN112446917B (en) * | 2019-09-03 | 2023-12-15 | 北京地平线机器人技术研发有限公司 | Gesture determination method and device |
CN115388826B (en) * | 2022-11-01 | 2023-02-17 | 中交第一航务工程局有限公司 | Method for establishing final joint measuring reference and measuring method |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0680402B2 (en) * | 1985-05-28 | 1994-10-12 | 富士通株式会社 | Position measuring device |
JPH0493705A (en) * | 1990-08-09 | 1992-03-26 | Topcon Corp | Apparatus and method for measuring three-dimensional position |
JPH07218251A (en) * | 1994-02-04 | 1995-08-18 | Matsushita Electric Ind Co Ltd | Method and device for measuring stereo image |
JP3426459B2 (en) * | 1997-02-03 | 2003-07-14 | ペンタックス株式会社 | Photogrammetry system and photogrammetry method |
JP3777067B2 (en) * | 1999-07-07 | 2006-05-24 | ペンタックス株式会社 | Photogrammetry image processing apparatus, photogrammetry image processing method, and storage medium storing photogrammetry image processing program |
JP2004271292A (en) * | 2003-03-07 | 2004-09-30 | Meidensha Corp | Calibrator and stereo camera position/attitude calibration device |
JP4095491B2 (en) * | 2003-05-19 | 2008-06-04 | 本田技研工業株式会社 | Distance measuring device, distance measuring method, and distance measuring program |
JP4732392B2 (en) * | 2007-03-30 | 2011-07-27 | 日本電信電話株式会社 | 3D shape data generation method |
JP5343210B2 (en) * | 2009-06-15 | 2013-11-13 | マツノデザイン店舗建築株式会社 | Subject area calculation device, subject area calculation system, and subject area calculation method |
JP5479005B2 (en) * | 2009-09-15 | 2014-04-23 | 株式会社ブリヂストン | Shape measuring apparatus, method for measuring shape of rotating body, and program |
-
2012
- 2012-06-26 JP JP2012143314A patent/JP5648159B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013015519A (en) | 2013-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5070435B1 (en) | Three-dimensional relative coordinate measuring apparatus and method | |
JP6585006B2 (en) | Imaging device and vehicle | |
CN106548489B (en) | A kind of method for registering, the three-dimensional image acquisition apparatus of depth image and color image | |
US10621753B2 (en) | Extrinsic calibration of camera systems | |
US11039121B2 (en) | Calibration apparatus, chart for calibration, chart pattern generation apparatus, and calibration method | |
JP3624353B2 (en) | Three-dimensional shape measuring method and apparatus | |
JP6363863B2 (en) | Information processing apparatus and information processing method | |
TW201717613A (en) | An image calibrating, composing and depth rebuilding method of a panoramic fish-eye camera and a system thereof | |
JP2013122434A (en) | Three-dimensional shape position measuring device by monocular camera using laser, method for measuring three-dimensional shape position, and three-dimensional shape position measuring program | |
CN107808398B (en) | Camera parameter calculation device, calculation method, program, and recording medium | |
JPWO2008053649A1 (en) | Wide-angle image acquisition method and wide-angle stereo camera device | |
JP2008096162A (en) | Three-dimensional distance measuring sensor and three-dimensional distance measuring method | |
JP2016100698A (en) | Calibration device, calibration method, and program | |
JP5648159B2 (en) | Three-dimensional relative coordinate measuring apparatus and method | |
KR20240089161A (en) | Filming measurement methods, devices, instruments and storage media | |
JP6645140B2 (en) | Image calibration apparatus and calibration method | |
JP2015031601A (en) | Three-dimensional measurement instrument, method, and program | |
JP2022024688A (en) | Depth map generation device and program thereof, and depth map generation system | |
JP4837538B2 (en) | End position measuring method and dimension measuring method | |
JP4764896B2 (en) | Camera calibration apparatus, camera calibration method, camera calibration program, and recording medium recording the program | |
CN108062790B (en) | Three-dimensional coordinate system establishing method applied to object three-dimensional reconstruction | |
US11481917B2 (en) | Compensation of three-dimensional measuring instrument having an autofocus camera | |
JP5727969B2 (en) | Position estimation apparatus, method, and program | |
JP2018044942A (en) | Camera parameter calculation device, camera parameter calculation method, program and recording medium | |
TWM594322U (en) | Camera configuration system with omnidirectional stereo vision |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130918 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140304 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140317 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140930 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141008 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5648159 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |