JPS63133002A - 3-d coordinate measuring apparatus - Google Patents

3-d coordinate measuring apparatus

Info

Publication number
JPS63133002A
JPS63133002A JP28099086A JP28099086A JPS63133002A JP S63133002 A JPS63133002 A JP S63133002A JP 28099086 A JP28099086 A JP 28099086A JP 28099086 A JP28099086 A JP 28099086A JP S63133002 A JPS63133002 A JP S63133002A
Authority
JP
Japan
Prior art keywords
camera
coordinate system
dimensional
image
vector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP28099086A
Other languages
Japanese (ja)
Inventor
Toshio Horiguchi
敏男 堀口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP28099086A priority Critical patent/JPS63133002A/en
Publication of JPS63133002A publication Critical patent/JPS63133002A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To measure the position and attitude of an object simply at a high accuracy in a 3-D space, by determining parameters with a first calculator to obtain an origin vector, an attitude vector and the like with a second calculator from the parameters. CONSTITUTION:Feature points 1-n are taken with a TV camera 21 at (n) points on an object 22. Image output signals from the TV camera 21 are processed with an image processor 23 to determine the position (pi, qi) of the feature points 1-n in an image coordinate system. Parameters k1-k11 are determined with a calculator 24 according to the formula I from the image position (pi, qi) of the feature points 1-n and a 3-D position (aj, bj, cj) (wherein j=1-n) of feature points 1-n in an object coordinate system. Then, an origin position vector R=(rx, ry, rz) and an attitude vector L=(lx, ly, lz) in an object coordinate system (a, b, c) are determined with a calculator 25 according to the formula II from the parameters k1-k11.

Description

【発明の詳細な説明】 (産業上の利用分野) 本発明はカメラを用いて物体の三次元空間内の位置を測
定する装置に関する。
DETAILED DESCRIPTION OF THE INVENTION (Field of Industrial Application) The present invention relates to an apparatus for measuring the position of an object in a three-dimensional space using a camera.

(従来の技術) 工場自動化においては、テレビ、カメラ(視覚センサ)
を用いて物体の位置を決める必要性がしばしば生じる。
(Conventional technology) In factory automation, televisions, cameras (visual sensors)
The need often arises to determine the position of an object using .

例えば、平面上に開けられた穴にビンを挿入する場合に
は、平面が正しい位置および姿勢になるようにセットし
なければならない。
For example, when inserting a bottle into a hole drilled on a flat surface, the flat surface must be set in the correct position and orientation.

平面を正しい位置および姿勢にセットするためには、平
面の位置と姿勢を測定する必要がある。このような平面
の位置や姿勢を測定する手法として、ニービンハング(
Yubin Hung )等により1985年のアイ・
イー・イー・イー インターナショナルフンファレンス
オンロボテクスアンドオ−トメーション(IEEE I
nternational Conferenceon
 Robotics and Automation 
)の予稿集80ページから85ページに「パッジプラン
ジング トウーノープラナ−ポイントセット(Pa5s
ive rangingto known plana
r point 5ets) 、4として述べられてい
る手法がある。この論文では平面上に記された幾何学的
関係が既知の4点のマークをテレビ・カメラで撮像して
、前記マークの三次元空間内における位置を測定する手
法を述べている。すなわち、前記4点のマークの前記平
面上における二次元位置(a、b)が既知であるとし、
テレビ・カメラで測定される前記各マークの二次元イメ
ージ座標系における位置(p、q)と前記平面上の二次
元位置(a、b)とから各マークの三次元空間内の位置
を計算する。従って、この手法によって、前記平面の位
置と姿勢を測定することができる。
In order to set the plane in the correct position and orientation, it is necessary to measure the position and orientation of the plane. Kneebing hang (
Yubin Hung) and others in 1985.
IEEE International Conference on Robotics and Automation (IEEE I)
international conference
Robotics and Automation
) on pages 80 to 85 of the proceedings of ``Pudge Plunging Touno Planar Point Set (Pa5s
ive ranging to known plana
There is a method described as r point 5ets), 4. This paper describes a method for measuring the position of four marks in a three-dimensional space by capturing images of four marks marked on a plane with a known geometrical relationship using a television camera. That is, assuming that the two-dimensional positions (a, b) of the four marks on the plane are known,
The position of each mark in three-dimensional space is calculated from the position (p, q) of each mark in a two-dimensional image coordinate system measured by a television camera and the two-dimensional position (a, b) on the plane. . Therefore, by this method, the position and orientation of the plane can be measured.

(発明が解決しようとする問題点) しかしながら、上述の従来の方法を三次元物体に適用す
る場合、物体の表面を平面に分割し、各平面に対して前
記二次元平面に関する測定手法を逐次適用しなければな
らず、手続きが複雑でしかも計算量が多くなるという欠
点を有する。又、物体表面が十分に平面に分割できない
という場合も考えられる。
(Problem to be Solved by the Invention) However, when applying the above-mentioned conventional method to a three-dimensional object, the surface of the object is divided into planes, and the measurement method regarding the two-dimensional plane is sequentially applied to each plane. The disadvantage is that the procedure is complicated and the amount of calculation is large. Furthermore, there may be cases where the surface of the object cannot be sufficiently divided into planes.

本発明は、従来の方式の欠点を解決するために、三次元
物体に適用可能な位置/姿勢測定手段を提供することを
目的とする。より具体的には、本発明の目的は、三次元
物体の表面を平面に分割することなく、三次元物体の位
置または姿勢のうちの少なくとも一方を測定する手段を
提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide a position/orientation measuring means applicable to three-dimensional objects in order to overcome the drawbacks of conventional methods. More specifically, an object of the present invention is to provide a means for measuring at least one of the position and orientation of a three-dimensional object without dividing the surface of the three-dimensional object into planes.

(問題点を解決するための手段) 前述の問題点を解決し、上記目的を達成するために本発
明が提供する手段は、カメラを用いて該カメラのレンズ
中心を原点とする三次元座標系であるカメラ座標系にお
ける立体物体の位置または姿勢のうちの少なくとも一方
を測定する装置において、幾何学的関係が既知なn点(
n≧6)の特徴点を有する物体を撮像するカメラと、前
記カメラのイメージ出力信号を処理して前記各特徴点の
前記レンズの焦点を原点とする二次元イメージ座標系に
おける位置(p、q)を測定する画像処理装置と、前記
物体の形状を三次元座標で記述する物体座標系(a *
 b * c )における前記n点の特徴点の座標値(
al、b+pc+)(:i−1,2゜・・・、n)と前
記特徴点のイメージ座標値(p、。
(Means for Solving the Problems) Means provided by the present invention in order to solve the above-mentioned problems and achieve the above objects is to use a camera to create a three-dimensional coordinate system whose origin is the center of the lens of the camera. In a device that measures at least one of the position or orientation of a three-dimensional object in a camera coordinate system, n points (
a camera that images an object having feature points (n≧6); and a camera that processes an image output signal of the camera to determine the position (p, q) of each feature point in a two-dimensional image coordinate system with the focal point of the lens as the origin. ), and an object coordinate system (a*) that describes the shape of the object in three-dimensional coordinates.
The coordinate values (
al,b+pc+)(:i-1,2°...,n) and the image coordinate value of the feature point (p,.

q+)(i−1,2,・・・、n)とに基づいて透視射
影関係 におけるパラメータに、〜kllを求める第1の計算装
置と、前記求められたパラメータに、−wk、。
q+) (i-1, 2, . . . , n) as a parameter in a perspective projection relationship, a first calculation device that determines ~kll, and -wk, as the determined parameter.

から前記カメラ座標系(x 、y * z )における
前記物体座標系(a、b、c)の原点の位置ベクトルR
−(r t # r y 、r * ) 、a軸の方向
余弦ベクトルL−(i、、、j2.、!、)、b軸の方
向余弦ベクトルM=(m、、m、、m、)およびa軸の
方向余弦ベクトル(nア1nFynt)を、(ここで、
r 、、=g f’/  k% + k、!+ f’ 
”k%  。
from the position vector R of the origin of the object coordinate system (a, b, c) in the camera coordinate system (x, y * z)
−(rt #ry, r*), a-axis direction cosine vector L−(i,,,j2.,!,), b-axis direction cosine vector M=(m,,m,,m,) and the direction cosine vector of the a-axis (nA1nFynt), (where,
r,,=g f'/k% + k,! +f'
”k%.

r、!−f’/  −zks” + ky”+ f ”
k+e”  。
r,! -f'/-zks"+ky"+f"
k+e”.

T ts糟f’/  ka” + k、1+ f ”k
1%又、fはカメラ・レンズ系の焦点距離)rg−に、
r、/f’ ry ” k s r t/ f’ Rt −k * r g/ f’ r f! y −k
 * T t/ f’ * fl t−k e T *
m z =k s T t/ f’ + !11 y 
” k t r 7 f’ + mt ” k r *
 T wn x −k a T w/ f * n y
 −k s T */ f * n m ” k t 
r T *に従って求める第2の計算装置とから成るこ
とを特徴とする。
T ts 糟f'/ ka” + k, 1+ f ”k
1% and f is the focal length of the camera/lens system) rg-,
r, /f' ry ” k s r t/ f' Rt -k * r g/ f' r f! y -k
* T t/ f' * fl t-k e T *
m z =k s T t/ f' + ! 11y
"k t r 7 f' + mt" k r *
T wn x −k a T w/ f * ny
−k s T */ f * n m ” k t
and a second calculation device that calculates r T *.

(作用) 第2図に示すテレビ・カメラ21と、三次元物体22か
ら成る測定系は、第3図に示すようにテレビカメラ21
を基準とした三次元座標系(カメラ座標系)(x、y、
x)、画像座標系(イメージ座標系)(p 、 q) 
、前記平面22の形状を記述するための物体座標系(a
、b、c)で表わネれる0本発明では、これらの座標系
はいづれも直交座標系とする。
(Function) The measurement system consisting of the television camera 21 shown in FIG. 2 and the three-dimensional object 22 is as shown in FIG.
A three-dimensional coordinate system (camera coordinate system) (x, y,
x), image coordinate system (image coordinate system) (p, q)
, an object coordinate system (a
, b, c) In the present invention, all of these coordinate systems are orthogonal coordinate systems.

また、前記物体22のn個の特徴点の、物体座標系(a
 * b * C)における座標値を(a (g b 
l*c、)、15m1 、2.・・・、nとし、これら
の座標値(a I * t) I * CI )は全て
既知とする。
Furthermore, the object coordinate system (a
* b * C) coordinate values at (a (g b
l*c, ), 15m1, 2. ..., n, and these coordinate values (a I * t) I * CI) are all known.

三次元座標系(x + y 、z )は三次元空間を記
述するための直交座標系であり、その原点Oは第3図に
示すようにレンズ中心と一致し、さらにz軸がレンズの
光軸と一致するものとする。又、2−r<rは上記レン
ズの実効焦点距離)の平面上に二次元イメージ座標系(
p、q)を設定し、p。
The three-dimensional coordinate system (x + y, z) is an orthogonal coordinate system for describing three-dimensional space, and its origin O coincides with the center of the lens as shown in Figure 3, and the z-axis coincides with the optical axis of the lens. It shall coincide with the axis. Also, a two-dimensional image coordinate system (
p, q), and p.

q軸がそれぞれX e F軸に平行とし、その原点をレ
ンズ光軸(2軸)と前記平面との交点とする。
The q axes are parallel to the X e F axes, and the origin is the intersection of the lens optical axis (two axes) and the plane.

前、記物体座標系(a * b * c )のa、b、
a軸の三次元空間(1,3F、Z)における単位方向余
弦ベクトルをそれぞれL−C1,,1,、N、”)、M
−(mt、m、、mI+)、N=(nt+ n、、n、
)原点をRm (y 、 、 y 、 、 y 、 )
とすれば、点(a、b、c)の三次元空間内の位置X−
(x。
In the above object coordinate system (a * b * c), a, b,
Let the unit direction cosine vectors in the three-dimensional space (1, 3F, Z) of the a-axis be L-C1,,1,,N,''), M
−(mt, m,, mI+), N=(nt+ n,, n,
) the origin is Rm (y, , y, , y, )
Then, the position of point (a, b, c) in three-dimensional space
(x.

y、z)はX=R+aL+bM+cNで表わされる。一
方、点X = (x 、y * z )の透視射影像(
p、q)はp=f、/、、q−f’y八であるから、前
記物体座標系の点(a、b、c)のイメージ座標系にお
ける像(p、q)は次式(la)。
y, z) is represented by X=R+aL+bM+cN. On the other hand, the perspective projection image (
Since p, q) is p=f, /, q-f'y8, the image (p, q) in the image coordinate system of the point (a, b, c) in the object coordinate system is expressed by the following equation ( la).

(1b)で表わされる。(1b).

ここで、 である。here, It is.

従って、前記各特徴点(al+ 1)I+ l:I)の
透視射影像を(’p++ q+)i=1.2 、・・・
、nとすれば、次式が成り立つ。
Therefore, the perspective projection image of each feature point (al+ 1)I+ l:I) is ('p++ q+)i=1.2,...
, n, the following equation holds.

これより、 前式(3)を整理すれば次のパラメータに、〜ICt+
に関する線形方程式が得られる。
From this, if we rearrange the previous equation (3), we get the following parameter: ~ICt+
A linear equation for is obtained.

JQ−U              ・・・(4)但
し ここで、二乗平均誤差を最小化する解(l小二乗解)Q
は、 Q−(J”J )−’J”U        ・・・(
5)で与えられる。
JQ-U ... (4) However, here, the solution that minimizes the root mean square error (l small square solution) Q
is Q-(J"J)-'J"U...(
5) is given by

ここでベクトルL、M、Nが単位ベクトルであるから fl 、’+ l 、”+ l 、”x mf”+ f
n、”+ m%w n、” +n、” +n、s fi
 l・・・(6) が成り立つ。前式(6)に前式(1b)を代入すれば に*”+ ks”+ r ”ks’−kx”+ ky”
+ f’ ”k+*”・・・(7) 前式(7)より、焦点距離rが既知ならばrlは・・・
(8a) のいづれかで求められる。但し、 r8が求まれば、前式(1b)より rzr rye L−(j! g、l y、j! ++
) *M !(fn ! 、m y Hfn g ) 
+ N−(n z 、 n y Hn g )は下式で
求められる。
Here, since the vectors L, M, and N are unit vectors, fl , '+ l , "+ l , "x mf"+ f
n,”+m%w n,”+n,”+n,s fi
l...(6) holds true. Substituting the previous equation (1b) into the previous equation (6), we get *”+ ks”+ r ”ks’-kx”+ ky”
+ f'"k+*"...(7) From the previous equation (7), if the focal length r is known, rl is...
(8a) It can be found by either of the following. However, if r8 is found, from the previous formula (1b), rzr rye L-(j! g, l y, j! ++
) *M! (fn!, my Hfn g)
+N-(nz, nyHng) is determined by the following formula.

(実施例) 第1図は本発明の一実施例を示す全体構成図である。第
1図においての物体22上にn点の特徴点1〜nをテレ
ビ・カメラ21で撮像する。上記特徴点としては物体の
頂点、穴の中心等を選択すれば良い。又、物体上に特定
のマークを付与しても良い。
(Embodiment) FIG. 1 is an overall configuration diagram showing an embodiment of the present invention. A television camera 21 images n feature points 1 to n on an object 22 in FIG. The apex of an object, the center of a hole, etc. may be selected as the feature point. Further, a specific mark may be added to the object.

画像処理装置23は前記テレビ・カメラ21のイメージ
出力信号を処理し、各特徴点1〜nのイメージ座標系に
おける位置(p+、q+)(i−t〜n)を求める装置
である。現在市販されている画像処理装置の多くは、こ
のような特徴抽出機能とイメージ処理機能を有しており
、本発明はこのような画像処理装置の利用を前提として
いる。
The image processing device 23 is a device that processes the image output signal of the television camera 21 and determines the position (p+, q+) (it to n) of each feature point 1 to n in the image coordinate system. Many image processing devices currently on the market have such feature extraction functions and image processing functions, and the present invention is premised on the use of such image processing devices.

第1図における計算装置24は、前記特徴点のイメージ
位置(p+、q+)(i=1〜n)と前記物体座標系に
おける特徴点の三次元位置(a l rb r 、 c
 r ) (i −1〜n )とから前式(5)に従っ
てパラメータに、〜k11を求める装置である。
The calculation device 24 in FIG. 1 calculates the image position (p+, q+) (i=1 to n) of the feature point and the three-dimensional position (a l rb r , c ) of the feature point in the object coordinate system.
This is a device that calculates ~k11 as a parameter from r ) (i −1 to n ) according to the above equation (5).

計算装置25は前記パラメータk r ” k 11か
ら前式(8a)、(8b)、(9)に従って、物体座標
系(a + b * C)の原点位置ベクトルR−(r
工。
The calculation device 25 calculates the origin position vector R−(r
Engineering.

rF+rり+姿勢ベクトルL−(Q、、l 、、fl 
、) 。
rF+rri+posture vector L-(Q,,l,,fl
,).

M ” (m t + m y + m s ) 、 
N ” (n x 、 n y 、 n 、 )を求め
る装置である。以上の計算装置24 、25はマイクロ
・コンピュータによって容易に実現可能である。
M ” (m t + m y + m s ),
This is a device for calculating N'' (n x , ny , n , ). The above calculation devices 24 and 25 can be easily realized by a microcomputer.

(発明の効果) このように本発明によれば、物体の三次元空間内の位置
と姿勢を高精度に測定する装置が得られる。
(Effects of the Invention) As described above, according to the present invention, it is possible to obtain a device that measures the position and orientation of an object in a three-dimensional space with high precision.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の一実施例を示すブロック図、第2図は
本発明の詳細な説明するためにテレビ・カメラ21と三
次元物体22からなる測定系を示す斜視図、第3図は三
次元座標系(a、b、c)及び(x、y、z)とイメー
ジ座標系(p、q)の対応関係を説明するための座標系
対応図である。 1.2.3〜18・・・特徴点、21・・・テレビ・カ
メラ、22・・・物体、23・・・画像処理装置、24
 、25 、・・・計算装置。
FIG. 1 is a block diagram showing an embodiment of the present invention, FIG. 2 is a perspective view showing a measurement system consisting of a television camera 21 and a three-dimensional object 22, and FIG. 3 is a perspective view for explaining the invention in detail. FIG. 2 is a coordinate system correspondence diagram for explaining the correspondence between three-dimensional coordinate systems (a, b, c) and (x, y, z) and an image coordinate system (p, q). 1.2.3 to 18...Feature point, 21...TV camera, 22...Object, 23...Image processing device, 24
, 25, ... calculation device.

Claims (1)

【特許請求の範囲】 カメラを用いて該カメラのレンズ中心を原点とする三次
元座標系であるカメラ座標系における立体物体の位置ま
たは姿勢のうちの少なくとも一方を測定する装置におい
て、幾何学的関係が既知なn点(n≧6)の特徴点を有
する物体を撮像するカメラと、前記カメラのイメージ出
力信号を処理して前記各特徴点の前記レンズの焦点を原
点とする二次元イメージ座標系における位置(p、q)
を測定する画像処理装置と、前記物体の形状を三次元座
標で記述する物体座標系(a、b、c)における前記n
点の特徴点の座標値(a_i、b_i、c_i)(i=
1、2、・・・、n)と前記特徴点のイメージ座標値(
p_i、q_i)(i=1、2、・・・、n)とに基づ
いて透視射影関係 p_i=(k_1+a_ik_2+b_ik_3+c_
ik_4)/(1+a_ik_9+b_ik_1_0+
c_ik_1_1)q_i=(k_6+a_ik_8+
b_ik_7+c_ik_8)/(1+a_ik_9+
b_ik_1_0+c_ik_1_1)におけるパラメ
ータk_1〜k_1_1を求める第1の計算装置と、前
記求められたパラメータk_1〜k_1_1から前記カ
メラ座標系(x、y、z)における前記物体座標系(a
、b、c)の原点の位置ベクトルR=(r_x、r_y
、r_z)、a軸の方向余弦ベクトルL=(l_x、l
_y、l_z)、b軸の方向余弦ベクトルM=(m_x
、m_y、m_z)およびc軸の方向余弦ベクトル(n
_x、n_y、n_z)を、r_z=r_z_1、r_
z_2、r_z_3又は(r_z_1+r_z_2+r
_z_3)/3(ここで、r_z_1=f/√(k_2
^2+k_■^2+f^2k_9^2)、r_z_2=
f/√(k_8^2+k_7^2+f^2k_1_0^
2)、r_z_3=f/√(k_4^2+k_■^2+
f^2k_1_1^2)fはカメラ・レンズ系の焦点距
離) r_x=k_1r_z/f r_y=k_5r_z/f l_x=k_2r_z/f、l_y=k_6r_z/f
、l_z=k_9r_zm_x=k_3r_z/f、m
_y=k_7r_z/f、m_z=k_1_0r_zn
_x=k_4r_z/f、n_y=k_8r_z/f、
n_z=k_1_1r_zに従って求める第2の計算装
置とから成ることを特徴とする三次元座標測定装置。
[Scope of Claims] A device that uses a camera to measure at least one of the position or orientation of a three-dimensional object in a camera coordinate system, which is a three-dimensional coordinate system with the origin at the center of the lens of the camera. a camera that images an object having n feature points (n≧6) with a known value, and a two-dimensional image coordinate system that processes the image output signal of the camera and has the focal point of the lens of each feature point as the origin. position (p, q) in
and an image processing device that measures the n in an object coordinate system (a, b, c) that describes the shape of the object in three-dimensional coordinates.
Coordinate values of feature points (a_i, b_i, c_i) (i=
1, 2, ..., n) and the image coordinate value of the feature point (
p_i, q_i) (i=1, 2, ..., n), the perspective projection relation p_i=(k_1+a_ik_2+b_ik_3+c_
ik_4)/(1+a_ik_9+b_ik_1_0+
c_ik_1_1) q_i=(k_6+a_ik_8+
b_ik_7+c_ik_8)/(1+a_ik_9+
a first calculation device that calculates parameters k_1 to k_1_1 in the camera coordinate system (x, y, z) from the determined parameters k_1 to k_1_1;
, b, c) position vector R=(r_x, r_y
, r_z), a-axis direction cosine vector L=(l_x, l
_y, l_z), b-axis direction cosine vector M=(m_x
, m_y, m_z) and the direction cosine vector of the c-axis (n
_x, n_y, n_z), r_z=r_z_1, r_
z_2, r_z_3 or (r_z_1+r_z_2+r
_z_3)/3 (where r_z_1=f/√(k_2
^2+k_■^2+f^2k_9^2), r_z_2=
f/√(k_8^2+k_7^2+f^2k_1_0^
2), r_z_3=f/√(k_4^2+k_■^2+
f^2k_1_1^2) f is the focal length of the camera/lens system) r_x=k_1r_z/f r_y=k_5r_z/f l_x=k_2r_z/f, l_y=k_6r_z/f
, l_z=k_9r_zm_x=k_3r_z/f, m
_y=k_7r_z/f, m_z=k_1_0r_zn
_x=k_4r_z/f, n_y=k_8r_z/f,
and a second calculation device that calculates n_z=k_1_1r_z.
JP28099086A 1986-11-25 1986-11-25 3-d coordinate measuring apparatus Pending JPS63133002A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28099086A JPS63133002A (en) 1986-11-25 1986-11-25 3-d coordinate measuring apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28099086A JPS63133002A (en) 1986-11-25 1986-11-25 3-d coordinate measuring apparatus

Publications (1)

Publication Number Publication Date
JPS63133002A true JPS63133002A (en) 1988-06-04

Family

ID=17632719

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28099086A Pending JPS63133002A (en) 1986-11-25 1986-11-25 3-d coordinate measuring apparatus

Country Status (1)

Country Link
JP (1) JPS63133002A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5131754A (en) * 1989-09-21 1992-07-21 Kabushiki Kaisha Kobe Seiko Sho Method of and device for detecting position of body
JP2007533963A (en) * 2003-09-26 2007-11-22 マイクロ−エプシロン・メステヒニク・ゲーエムベーハー・ウント・コンパニー・カー・ゲー Non-contact optical measuring method and measuring apparatus for 3D position of object
US8897961B2 (en) 2012-03-28 2014-11-25 Honda Motor Co., Ltd. Method for determining installation position of portable information terminal on vehicle

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5131754A (en) * 1989-09-21 1992-07-21 Kabushiki Kaisha Kobe Seiko Sho Method of and device for detecting position of body
JP2007533963A (en) * 2003-09-26 2007-11-22 マイクロ−エプシロン・メステヒニク・ゲーエムベーハー・ウント・コンパニー・カー・ゲー Non-contact optical measuring method and measuring apparatus for 3D position of object
US8897961B2 (en) 2012-03-28 2014-11-25 Honda Motor Co., Ltd. Method for determining installation position of portable information terminal on vehicle

Similar Documents

Publication Publication Date Title
CN108648237B (en) Space positioning method based on vision
CN103110429B (en) The optical calibration method of ultrasound probe
CN109238235B (en) Method for realizing rigid body pose parameter continuity measurement by monocular sequence image
CN111415391B (en) External azimuth parameter calibration method for multi-camera by adopting mutual shooting method
CN111220129B (en) Focusing measurement method with rotating holder and terminal
Shiu et al. Finding the mounting position of a sensor by solving a homogeneous transform equation of the form AX= XB
Heller et al. A branch-and-bound algorithm for globally optimal hand-eye calibration
CN113870366B (en) Calibration method and calibration system of three-dimensional scanning system based on pose sensor
Muffert et al. The estimation of spatial positions by using an omnidirectional camera system
CN109493378B (en) Verticality detection method based on combination of monocular vision and binocular vision
JPS63133002A (en) 3-d coordinate measuring apparatus
CN109712200B (en) Binocular positioning method and system based on least square principle and side length reckoning
WO2020024150A1 (en) Map processing method, apparatus, and computer readable storage medium
Tian et al. A camera calibration method for large field vision metrology
JPS6256814A (en) Calibration system for three-dimensional position measuring camera
Huang et al. A novel multi-camera calibration method based on flat refractive geometry
CN108844486B (en) Fixed-image-distance binocular bionic three-dimensional measuring instrument
CN111210476B (en) Method and device for simultaneously positioning and mapping
JPS6254108A (en) Coordinate measuring instrument
CN112629410A (en) Non-contact measuring equipment and method for inclination angle of space rod piece
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot
Yin et al. Improving 3D Measurement Accuracy in Epipolar Directions via Trinocular Spherical Stereo
JP2661118B2 (en) Conversion method of object coordinates and visual coordinates using image processing device
JPS6336101A (en) Three-dimensional position/attitude measuring instrument
Chai et al. Enhanced indoor navigation using fusion of IMU and RGB-D camera