JPH0444201B2 - - Google Patents

Info

Publication number
JPH0444201B2
JPH0444201B2 JP28895486A JP28895486A JPH0444201B2 JP H0444201 B2 JPH0444201 B2 JP H0444201B2 JP 28895486 A JP28895486 A JP 28895486A JP 28895486 A JP28895486 A JP 28895486A JP H0444201 B2 JPH0444201 B2 JP H0444201B2
Authority
JP
Japan
Prior art keywords
optical
point
optical systems
optical system
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired
Application number
JP28895486A
Other languages
Japanese (ja)
Other versions
JPS63142212A (en
Inventor
Mitsuo Eguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
RAITORON KK
Original Assignee
RAITORON KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by RAITORON KK filed Critical RAITORON KK
Priority to JP28895486A priority Critical patent/JPS63142212A/en
Publication of JPS63142212A publication Critical patent/JPS63142212A/en
Publication of JPH0444201B2 publication Critical patent/JPH0444201B2/ja
Granted legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、非接触で物点の3次元位置座標を
検出する3次元位置計測方法及びその装置に関す
る。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a three-dimensional position measuring method and apparatus for detecting three-dimensional position coordinates of an object point in a non-contact manner.

〔従来の技術〕[Conventional technology]

従来、物体の3次元位置を計測するには、物体
との接触を検知するプローブとXYZステージと
の組合せにより、プローブと物体との接触点を検
知するか、あるいはスタイラス先端で物体の表面
をならつて移動させることにより物体上の各点の
座標値を求めていた。
Conventionally, to measure the three-dimensional position of an object, the point of contact between the probe and the object is detected using a combination of a probe that detects contact with the object and an XYZ stage, or the surface of the object is traced with the tip of a stylus. The coordinate values of each point on the object were determined by moving the object.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

しかしながら、このような従来の3次元位置計
測方法にあつては、いずれも物体に接触すること
により計測を行つているので、柔軟な物体や接触
不能が物体の3次元位置計測ができず、前者にあ
つてはXYZステージの機械的移動が必要になる
ので、機械的な精度に伴う計測誤差発生の恐れが
あり、後者にあつてはスタイラス先端が球状をな
しているため、物体の微細構造の計測は不可能で
あると共に、計測速度も高速化することは極めて
困難であつた。
However, in all of these conventional three-dimensional position measurement methods, measurement is performed by touching the object, so if the object is flexible or cannot be touched, the three-dimensional position of the object cannot be measured, and the former In the latter case, mechanical movement of the XYZ stage is required, so there is a risk of measurement errors due to mechanical precision.In the latter case, the tip of the stylus is spherical, so it is difficult to understand the fine structure of the object. Not only is measurement impossible, but it is also extremely difficult to increase the measurement speed.

この発明は、このような従来の問題点を解決し
得る3次元位置計測方法及びその装置を提供する
ことを目的とする。
An object of the present invention is to provide a three-dimensional position measuring method and apparatus that can solve these conventional problems.

〔問題点を解決するための手段〕[Means for solving problems]

そのため、この発明による3次元位置計測方法
及びその装置は、第1の発明では、第1の光軸を
有する第1の光学系と、この第1の光軸を挾んで
同一平面内で対称的に平行する第2、第3の光軸
を有するそれぞれ同一焦点距離のテレセントリツ
クな第2、第3の光学系とを、第1の光学系の後
側焦平面を第2、第3の光学系の前側焦平面に一
致させて配置し、計測すべき物点の第1、第2及
び第1、第3の光学系による像点のそれぞれの原
点からの座標から、物点の3次元位置座標を算出
するものである。
Therefore, in the first invention, the three-dimensional position measuring method and device according to the present invention include: a first optical system having a first optical axis; telecentric second and third optical systems having the same focal length and second and third optical axes parallel to The three-dimensional position of the object point is determined from the coordinates from the origin of each of the image points of the first, second, first, and third optical systems of the object point to be measured, which are arranged to match the front focal plane of the system. It calculates coordinates.

また、第2の発明は第1の発明を実施するため
の装置であつて、第1の光軸を有する第1の光学
系と、第1の光軸を挾んで同一平面内で対称的に
平行する第2、第3の光軸を有し、第1の光学系
の後側焦平面に前側焦平面を一致させたそれぞれ
同一焦点距離の第2、第3の光学系と、これら第
2、第3の光学系の前側焦点の周辺に設けられ、
第2、第3の光学系をテレセントリツクにする第
2、第3の絞りと、第2、第3の光学系の後側焦
点の近傍に設けた第2、第3の光電変換センサ
と、これら第2、第3の光電変換センサからの出
力信号を演算処理する演算手段とを設けたもので
ある。
Further, a second invention is an apparatus for carrying out the first invention, which comprises: a first optical system having a first optical axis; second and third optical systems having parallel second and third optical axes and having the same focal length and whose front focal plane coincides with the rear focal plane of the first optical system; , provided around the front focal point of the third optical system,
second and third apertures that make the second and third optical systems telecentric; second and third photoelectric conversion sensors provided near the rear focal points of the second and third optical systems; The device is provided with calculation means for processing output signals from these second and third photoelectric conversion sensors.

さらに、第3の発明は、第2の発明に加えて、
被計測物を照射する光スポツトの走査を行うスキ
ヤナを設けたものである。
Furthermore, the third invention, in addition to the second invention,
It is equipped with a scanner that scans a light spot that illuminates the object to be measured.

ここで、焦平面とは焦点を含んで光軸に直交す
る平面を意味する。
Here, the focal plane means a plane that includes the focal point and is perpendicular to the optical axis.

〔作 用〕[Effect]

上記のように構成した3次元位置計測装置によ
り、第2、第3の光電変換センサ上の像点の位置
を、それぞれの原点からの座標値として読み取
り、この値を所定の算出式に投入して演算手段に
より処理することにより、物点の3次元位置を知
ることができる。
The three-dimensional position measuring device configured as described above reads the positions of the image points on the second and third photoelectric conversion sensors as coordinate values from their respective origins, and inputs these values into a predetermined calculation formula. The three-dimensional position of the object point can be determined by processing the information using the calculation means.

また、物体の計測点を照射する光スポツトをス
キヤナにより走査すれば、物体の3次元座標を高
速度でサンプリングすることができる。
Furthermore, by scanning a light spot that illuminates a measurement point on an object with a scanner, the three-dimensional coordinates of the object can be sampled at high speed.

〔実施例〕〔Example〕

以下、添付図面を参照してこの発明による計測
方法及びその装置を具体的に説明するが、この発
明の説明に先立ち、3次元空間の点の一般的な表
示方法について簡単に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, a measuring method and an apparatus thereof according to the present invention will be specifically explained with reference to the accompanying drawings, but prior to explaining the present invention, a general method of displaying points in a three-dimensional space will be briefly explained.

原点からの座標x,y,zを有する3次元空間
の点P(xyz)を4次元量P(XYZH)を用いて表
す。
A point P (xyz) in a three-dimensional space having coordinates x, y, and z from the origin is expressed using a four-dimensional quantity P (XYZH).

ここで、 x=X/H, y=Y/H, z=Z/H であり、H=0の時は∞の点を表している。例え
ば、P(2341)及びP(4682)は同じ点P(234)を
表し、P(1000)はx=∞の点を表す。
Here, x=X/H, y=Y/H, z=Z/H, and when H=0, it represents a point ∞. For example, P(2341) and P(4682) represent the same point P(234), and P(1000) represents the point at x=∞.

説明を簡単にするために、以下に述べる光学系
は曲率半径に比して厚さがきわめて薄いレンズ系
であり、その前側主点と後側主点とは共にレンズ
の中心すなわち光心に一致し、前側焦点距離は後
側焦点距離に等しいものと仮定する。
To simplify the explanation, the optical system described below is a lens system whose thickness is extremely thin compared to the radius of curvature, and its front principal point and rear principal point are both aligned with the center of the lens, that is, the optical center. Assume that the front focal length is equal to the back focal length.

一般に、原点Oの3次元空間の点P(0yz1)を
第4図に示すような焦点距離fの光学系1によつ
て原点O′の像空間に結像させた時、その像点を
P′(0y′z′h′)とすると、メリデイオナル面内では
点P(0yz1)とP′(0y′z′h′)との間には (0y′z′h′)=(0yz1)T T=0 0 0 0 0 f 00 0 0 0 −f2 0 0 1 0 (a) なる関係が成立する。
Generally, when a point P (0yz1) in a three-dimensional space at the origin O is imaged in the image space at the origin O' by an optical system 1 with a focal length f as shown in Fig. 4, the image point is
If P′(0y′z′h′), then in the meridional plane, between the points P(0yz1) and P′(0y′z′h′), (0y′z′h′)=(0yz1) T T = 0 0 0 0 0 f 00 0 0 0 −f 2 0 0 1 0 (a) The following relationship holds true.

また、一般の点P(xyz1)の変換は Ψ=RTR-1 (b) で表される。 Also, the transformation of the general point P (xyz1) is expressed as Ψ=RTR -1 (b).

但し、Rは回転マトリツクスを示し、 R=cosθ −sinθ 0 0 sinθ cosθ 0 0 0 0 1 0 0 0 0 0 (c) R-1=cosθ sinθ 0 0 −sinθ cosθ 0 0 0 0 1 0 0 0 0 1 (d) ここで、 θ=π/2−tan-1y/x (a)、(c)、(d)式を(b)に代入すると Ψ=fsin2θ fsinθcosθ 0 0 fsinθcosθ fcos2θ 0 0 0 0 0 −f2 0 0 1 0 (e) となり、これから一般の点P(xyz1)の変換は (x′y′z′h′)=(xyz1)Ψ (e′) となる。 However, R represents a rotation matrix, R=cosθ −sinθ 0 0 sinθ cosθ 0 0 0 0 1 0 0 0 0 0 (c) R -1 = cosθ sinθ 0 0 −sinθ cosθ 0 0 0 0 1 0 0 0 0 1 (d) Here, θ=π/2−tan -1 y/x (a), (c), (d) Substituting equations into (b), Ψ=fsin 2 θ fsinθcosθ 0 0 fsinθcosθ fcos 2 θ 0 0 0 0 0 −f 2 0 0 1 0 (e) From this, the transformation of the general point P (xyz1) becomes (x′y′z′h′) = (xyz1)Ψ (e′) .

ここで、一般の光学系における焦点外れの時の
像点の位置を第5図を用いて考察すると、焦点合
致時の像点P′は、後ピン状態では像Aに、前ピン
状態では像Bになり、像面に広がると共に、その
主光線の位置、すなわち像A,Bの中心P′,P
のx′座標及びy′座標も変化することが分る。
Here, when considering the position of the image point when out of focus in a general optical system using Fig. 5, the image point P' when in focus is image A in the rear focus state, and image A in the front focus state. B, spreads to the image plane, and changes the position of its chief ray, that is, the center P', P of images A and B.
It can be seen that the x′ and y′ coordinates of are also changed.

一方、テレセントリツク光学系においては、第
6図に示すように、像側の主光線が光学系の光軸
に平行しているので、焦点のずれを無視すれば像
P′の重心座標(x′y′)はx′y′平面への正投影と考
えることができる。
On the other hand, in a telecentric optical system, as shown in Figure 6, the chief ray on the image side is parallel to the optical axis of the optical system, so if the focus shift is ignored, the image
The barycentric coordinates (x′y′) of P′ can be considered as an orthogonal projection onto the x′y′ plane.

この場合、z′情報が失なわれてもx′,y′情報は
失なわれない。
In this case, even if z′ information is lost, x′ and y′ information are not lost.

光学系をテレセントリツクにする方法はいくつ
かあるが、通常用いられるもつとも簡単な方法
は、第7図に示すように、光学系1の前側焦点F
の位置に絞り4をできるだけ絞ることによつて実
現できる。
There are several ways to make the optical system telecentric, but the simplest and most commonly used method is to make the front focal point F of the optical system 1 telecentric, as shown in Figure 7.
This can be achieved by narrowing down the diaphragm 4 to the position as much as possible.

このようなテレセントリツクな光学系による投
影のように点P(xyz1)をz=n平面の点P′へ正
投影した場合を考えると P(xyz1)→P′(xyn1) であるので、その変換マトリツクスSは S=1 0 0 0 0 1 0 0 0 0 0 n 0 0 0 1 (f) で表現される。
If we consider the case where the point P (xyz1) is orthogonally projected onto the point P' on the z=n plane, as in the case of projection by such a telecentric optical system, then P (xyz1) → P' (xyn1), so that The transformation matrix S is expressed as S=1 0 0 0 0 1 0 0 0 0 0 n 0 0 0 1 (f).

したがつて、テレセントリツクな光学系による
3次元空間の点Pの焦点面への投影は(e)式に示す
変換Ψと(f)式に示す変換Sとの合成として表現さ
れることになり、焦点面をz′=0とすると、 ΨS=fsin2θ fsinθcos 0 0 fsinθcosθ fcos2θ 0 0 0 0 0 −f2 0 0 1 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 から ΨS=fs2 fsc 0 0 fsc fc2 0 0 0 0 0 0 0 0 1 0 (1) 但し S=sinθ,c=cosθ, θ=π/2−tan-1y/x この(1)式から3次元物点Pが焦点面上のいかな
る点に変換されるかを知ることができる。
Therefore, the projection of a point P in three-dimensional space onto the focal plane by a telecentric optical system can be expressed as a combination of the transformation Ψ shown in equation (e) and the transformation S shown in equation (f). , if the focal plane is z'=0, ΨS=fsin 2 θ fsinθcos 0 0 fsinθcosθ fcos 2 θ 0 0 0 0 0 −f 2 0 0 1 0 1 0 0 0 0 1 0 0 0 0 0 0 0 0 0 1 to ΨS=fs 2 fsc 0 0 fsc fc 2 0 0 0 0 0 0 0 0 1 0 (1) However, S=sinθ, c=cosθ, θ=π/2−tan -1 y/x This (1) From the equation, it can be known to what point on the focal plane the three-dimensional object point P is converted.

逆に、焦点面上の点が与えられた場合物点の3
次元位置を見出す方法について考える。
Conversely, if a point on the focal plane is given, the object point 3
Think about how to find dimensional positions.

第8図に示すように第2の光軸O2を有する距
離f2のテレセントリツクな第2の光学系2と、こ
の第2の光軸O2に距離2Bだけ隔てて平行する第
3の光軸を有する焦点距離f3のテレセントリツク
な第3の光学系3とを設けて第2、第3の光学系
2,3の前側焦点F2,F3が第2、第3の光軸
O2・O3に直交するようにしてこれらの前側焦点
F2,F3のZ座標を一致させ、物点側3次元空間
の原点Oを前記焦点F2,F3を結ぶ線F2F3の中点
にとる。
As shown in FIG. 8, a telecentric second optical system 2 having a second optical axis O 2 at a distance f 2 and a third telecentric optical system 2 parallel to the second optical axis O 2 separated by a distance 2B. A telecentric third optical system 3 with a focal length f 3 having an optical axis is provided, and the front focal points F 2 and F 3 of the second and third optical systems 2 and 3 are located on the second and third optical axes.
These front focal points are perpendicular to O 2 and O 3 .
The Z coordinates of F 2 and F 3 are made to match, and the origin O of the three-dimensional space on the object point side is set at the midpoint of the line F 2 F 3 connecting the focal points F 2 and F 3 .

また、第2、第3の光学系2,3の後側焦点位
置に第2、第3の平面Σ2及びΣ3を光軸O2,O3
直交して設け、3次元空間の点P(xyz)の第2、
第3の平面Σ2,Σ3への投影座標x2′,y2′,θ2及び
x3′,y3′,θ3を(1)式を用いて展開すると、 となる。
In addition, second and third planes Σ 2 and Σ 3 are provided at the rear focal positions of the second and third optical systems 2 and 3 orthogonally to the optical axes O 2 and O 3 , and points in the three-dimensional space are provided. the second of P(xyz),
Projection coordinates x 2 , y 2 , θ 2 and
Expanding x 3 ′, y 3 ′, θ 3 using equation (1), we get becomes.

これを未知数x、y、zについての方程式の形
に直すと (f2s2)・x+(f2s2c2)・y−(x2′)・z
=−Bf2s2 2 (f2s2)・x+(f2s2c2)・y−(x2′)・z
=−Bf2s2 2 (f2s2c2)・x+(f2c2 2)・y−(y2′)・z=−Bf2
s2c2 (f2s2)・x+(f2s2c2)・y−(x2′)・z
=−Bf2s2 2 (f2s2c2)・x+(f2c2 2)・y−(y2′)・z=−Bf2
s2c2 (f3S3 2)・x+(f3s3c3)・y−(x3′)・z=Bf3s3
2 (f2s2)・x+(f2s2c2)・y−(x2′)・z
=−Bf2s2 2 (f2s2c2)・x+(f2c2 2)・y−(y2′)・z=−Bf2
s2c2 (f3S3 2)・x+(f3s3c3)・y−(x3′)・z=Bf3s3
2 (f3s3c3)・x+(f3c3 2)・y−(y3′)・z=Bf3s3
c3(3) 但し、 が得られる。
If we convert this into the form of an equation for the unknowns x, y, and z, we get (f 2 s 2 )・x+(f 2 s 2 c 2 )・y−(x 2 ′)・z
=−Bf 2 s 2 2 (f 2 s 2 )・x+(f 2 s 2 c 2 )・y−(x 2 ′)・z
=−Bf 2 s 2 2 (f 2 s 2 c 2 )・x+(f 2 c 2 2 )・y−(y 2 ′)・z=−Bf 2
s 2 c 2 (f 2 s 2 )・x+(f 2 s 2 c 2 )・y−(x 2 ′)・z
=−Bf 2 s 2 2 (f 2 s 2 c 2 )・x+(f 2 c 2 2 )・y−(y 2 ′)・z=−Bf 2
s 2 c 2 (f 3 S 3 2 )・x+(f 3 s 3 c 3 )・y−(x 3 ′)・z=Bf 3 s 3
2 (f 2 s 2 )・x+(f 2 s 2 c 2 )・y−(x 2 ′)・z
=−Bf 2 s 2 2 (f 2 s 2 c 2 )・x+(f 2 c 2 2 )・y−(y 2 ′)・z=−Bf 2
s 2 c 2 (f 3 S 3 2 )・x+(f 3 s 3 c 3 )・y−(x 3 ′)・z=Bf 3 s 3
2 (f 3 s 3 c 3 )・x+(f 3 c 3 2 )・y−(y 3 ′)・z=Bf 3 s 3
c 3 (3) However, is obtained.

すなわち、像点(x2′y2′)及び(x3′y3′)が与え
られると、(4)式によりs2、c2、s3、c3が求められ、
これらの値と既知の値f2、f3、Bとから方程式(3)
を用いて点P(xyz1)の3次元座標x,y,zを
求めることができる。
That is, when the image points (x 2 ′y 2 ′) and (x 3 ′y 3 ′) are given, s 2 , c 2 , s 3 , and c 3 are found by equation (4),
From these values and the known values f 2 , f 3 , B, equation (3)
The three-dimensional coordinates x, y, z of point P (xyz1) can be found using

この時、未知数3個に対して方程式は4組ある
ので、最適あてはめを行つて点Pの位置座標xyz
を求める必要がある。
At this time, since there are 4 sets of equations for 3 unknowns, optimal fitting is performed to calculate the position coordinates xyz of point P.
It is necessary to ask for

次に、(2)式において、物点のxy座標を一定に
保つてz座標だけを変化させた時の像点の座標の
変化を調べると、 ∂x2′/∂z=−1/z2{(x+B)f2sin2θ2 +yf2sinθ2cosθ2}(5) ∂y2′/∂z=−1/z2{(x+B)f2sinθ2cosθ2 +yf2cos2θ2}(6) (5)、(6)式において{ }内はx、y及びBで定
まる定数であるのでこれをそれぞれK2(x,y,
B)及びK3(x,y,B)とすると Δx2′=−K2/z2・Δz (7) Δy2′=−K3/z2・Δz (8) ここで、x=y=0の場合を考えると、 K2=Bf2,K3=0 であるので Δx2′=−Bf2/z2・Δz (9) |Δz|=z2/Bf2・|Δx2′| (10) 第2、第3の平面Σ2、Σ3に配する光電変換セ
ンサであるCCDやPSD等のイメージセンサの分
解能をεとすると計測誤差|Δz|は |Δz|=z2/Bf2・ε (11) となり、精度1/|Δz|はzの自乗に逆比例す
ることが分る。
Next, in equation (2), if we examine the change in the coordinates of the image point when we keep the xy coordinates of the object point constant and change only the z coordinate, we find that ∂x 2 ′/∂z=−1/z 2 {(x+B)f 2 sin 2 θ 2 +yf 2 sinθ 2 cosθ 2 }(5) ∂y 2 ′/∂z=−1/z 2 {(x+B)f 2 sinθ 2 cosθ 2 +yf 2 cos 2 θ 2 }(6) In equations (5) and (6), the numbers inside { } are constants determined by x, y, and B, so these can be expressed as K 2 (x, y,
B) and K 3 (x, y, B), Δx 2 ′=−K 2 /z 2・Δz (7) Δy 2 ′=−K 3 /z 2・Δz (8) Here, x=y Considering the case where K 2 =Bf 2 , K 3 =0, Δx 2 ′=−Bf 2 /z 2・Δz (9) |Δz|=z 2 /Bf 2・|Δx 2 ′ | (10) If the resolution of image sensors such as CCDs and PSDs, which are photoelectric conversion sensors placed on the second and third planes Σ 2 and Σ 3 , is ε, the measurement error |Δz| is |Δz|=z 2 / Bf 2 ·ε (11) It is found that the accuracy 1/|Δz| is inversely proportional to the square of z.

このように、位置測定精度が測定しようとする
物点Pの位置によつて変化することは望ましくな
い。
In this way, it is undesirable that the position measurement accuracy changes depending on the position of the object point P to be measured.

上記の欠点を回避するには、第9図に示すよう
に第2、第3のテレセントリツクな光学系2,3
を同一のものとし、両光学系の前側焦平面を一致
させると共に第2、第3の光学系2,3の前側焦
点F2,F3の中点Oに後側焦点を有する第1の光
学系1を配して第1の光軸O1を挾んで第2、第
3の光軸O2,O3が同一平面内で対称となるよう
にすればよい。
In order to avoid the above drawbacks, as shown in FIG.
are the same, the front focal planes of both optical systems are matched, and the first optical system has a rear focal point at the midpoint O between the front focal points F 2 and F 3 of the second and third optical systems 2 and 3. The system 1 may be arranged to sandwich the first optical axis O 1 so that the second and third optical axes O 2 and O 3 are symmetrical within the same plane.

このような構成からなる第9図において、第1
の光学系1の焦点距離をf1とし、この第1の光学
系1による第1の光軸O1上の点P(z)の像を像点
P1′(z′)とすると、レンズに関するニユートンの
公式から z′=−f1 2/z (12) さらに、(11)の式から像点P1′における検出精度
として、 |Δz′|=z′2/Bf2・ε (13) が得られる。
In FIG. 9 with such a configuration, the first
Let the focal length of the optical system 1 be f 1 , and the image of the point P(z) on the first optical axis O 1 by this first optical system 1 is the image point.
If P 1 ′(z′), then from Newton's formula for lenses, z′=−f 1 2 /z (12) Furthermore, from equation (11), the detection accuracy at image point P 1 ′ is |Δz′| =z′ 2 /Bf 2 ·ε (13) is obtained.

(12)式を微分してこれに(13)式を代入すると |Δz|=f1 2/Bf2・ε (14) (14)式から分るように、このような光学系による
計測精度は、第1、第2、第3の光学系1,2,
3の特性と配置並びにイメージセンサの分解能ε
で決定され、測定しようとする物点Pの位置に無
関係となる。
Differentiating equation (12) and substituting equation (13) into it, we get |Δz|=f 1 2 /Bf 2・ε (14) As can be seen from equation (14), the measurement accuracy with such an optical system is are the first, second, and third optical systems 1, 2,
3. Characteristics and arrangement and image sensor resolution ε
, and is independent of the position of the object point P to be measured.

さらに、x方向及びy方向については、その結
像特性からのその計測誤差が物点の位置に依存し
ないことは明らかである。
Furthermore, for the x and y directions, it is clear that the measurement error from the imaging characteristics does not depend on the position of the object point.

第9図に示す光学系において、第1図に示すよ
うに第2、第3の光学系2,3の前側焦点位置に
第2、第3の絞り4,5を設けた通過する光束を
制限すると、第2、第3の平面上に設けられた
PSD(ポジシヨン・センシテイブ・デイバイス)
やCCD(チヤージ・カツプルド・デイバイス)等
のイメージセンサ6,7上にはレーザ光等で照明
された物点Pの像が主光線を中心とする光分布の
形となつて投影される。
In the optical system shown in FIG. 9, as shown in FIG. 1, second and third apertures 4 and 5 are provided at the front focal positions of the second and third optical systems 2 and 3 to limit the passing light flux. Then, the
PSD (Position Sensitive Device)
An image of an object point P illuminated by a laser beam or the like is projected onto image sensors 6 and 7 such as a CCD (Charge Coupled Device) or the like in the form of a light distribution centered on the chief ray.

ここで、イメージセンサ6,7がPSDの場合
は光分布の重心が自動的に検出されるが、CCD
の場合は演算回路を介してその中心を決定すれば
よい。
Here, if the image sensors 6 and 7 are PSD, the center of gravity of the light distribution is automatically detected, but
In this case, the center can be determined via an arithmetic circuit.

したがつて、第1図に示す光学系において計測
すべき物体10の三次元座標P(xyz)を計測す
るには、まずイメージセンサ6,7上の像点P2′,
P3′の座標x2′,y2′,x3′,y3′を検出し、方程式(A
)
を解いて点P1′(x′,y′z′)を求める。
Therefore, in order to measure the three-dimensional coordinates P (xyz) of the object 10 to be measured using the optical system shown in FIG .
Find the coordinates x 2 ′, y 2 ′, x 3 ′, y 3 ′ of P 3 ′, and write the equation (A
)
Solve to find the point P 1 ′(x′, y′z′).

(f2s2)x′+P(2s2C2)y′−(x2′)z′
=−Bf2s2 2 (f2s2)x′+P(2s2C2)y′−(x2′)z′
=−Bf2s2 2 (f2s2C2)x′+(f2C2 2)y′−(y2′)z′=−Bf2s2C
2 (f2s3 2)x′+(f2s3C3)y′−(x3′)z′=Bf2s3 3 (f2s3 2)x′+(f2s3C3)y′−(x3′)z′=Bf2s3 3 (f2s3C3)x′+(f2C3 2)y′−(y3′)z′=Bf2s3C3(
A) 但し、 s2=sin(π/2−tan-1y2′/x2′) c2=cos(π/2−tan-1y2′/x2′) s3=sin(π/2−tan-1y3′/x3′) c3=cos(π/2−tan-1y3′/x3′) 次にP1′(x′y′z′)を方程式(B)に代入して物点P
の3次元位置座標を求めると、 但し、 S′=sinθ=sin(π/2−tan-1y′/x′) c′=cosθ=cos(π/2−tan-1y′/x′) となる。
(f 2 s 2 )x′+P( 2 s 2 C 2 )y′−(x 2 ′)z′
= −Bf 2 s 2 2 (f 2 s 2 ) x′ + P ( 2 s 2 C 2 ) y′ − (x 2 ′) z′
= −Bf 2 s 2 2 (f 2 s 2 C 2 )x′+(f 2 C 2 2 )y′−(y 2 ′)z′=−Bf 2 s 2 C
2 ( f 2 s 3 2 ) _ _ _ _ _ _ _ _ C 3 )y′−(x 3 ′)z′=Bf 2 s 3 3 (f 2 s 3 C 3 )x′+(f 2 C 3 2 )y′−(y 3 ′)z′=Bf 2 s 3 C 3 (
A) However, s 2 = sin (π/2−tan -1 y 2 ′/x 2 ′) c 2 = cos (π/2− tan −1 y 2 ′/x 2 ′) s 3 = sin (π /2−tan -1 y 3 ′/x 3 ′) c 3 = cos (π/2−tan −1 y 3 ′/x 3 ′) Next, P 1 ′(x′y′z′) is expressed as equation ( B) and the object point P
Finding the three-dimensional position coordinates of However, S′=sinθ=sin(π/2−tan −1 y′/x′) c′=cosθ=cos(π/2−tan −1 y′/x′).

方程式(A)は式(3)から、方程式(B)は式(e′)を展開
して導出されたものである。
Equation (A) is derived from equation (3), and equation (B) is derived by expanding equation (e′).

すなわち、第2、第3のイメージセンサ6,7
上の像点P2′,P3′の座標(x2′,y2′)、(x3′,y3
′)
を検出し、これから方程式(A)を解いて像点P1′の
座標(x′,y′,z′)を求め、その値を(B)式に代入
すれば、3次元空間の点Pの座標(xyz)を知る
ことができる。
That is, the second and third image sensors 6 and 7
Coordinates of upper image points P 2 ′, P 3 ′ (x 2 ′, y 2 ′), (x 3 ′, y 3
′)
, and solve equation (A) to find the coordinates (x', y', z') of the image point P 1 ', and substitute those values into equation (B), then the point P in three-dimensional space can be found. You can know the coordinates (xyz) of

この場合、計測精度Δはイメージセンサ6,7
の分解能をεとすると、 Δ=f1 2/Bf2・ε となる。
In this case, the measurement accuracy Δ is the image sensor 6, 7
If the resolution of is ε, then Δ=f 1 2 /Bf 2 ·ε.

実際の計測に際しては、物体の一部にレーザ光
を照射して光スポツトを形成し、マニユアルでこ
の光スポツトを物体上の所要の位置へ移動させ
て、その点の3次元位置情報を得る方法や、光ス
ポツトをスキヤナで走査してデータフアイル
{(x2′,y2′),(x3′,y3′)}iを得、これを3
次元
フアイル{(xyz)}iに変換して3次元物体の形
状情報を得る方法等、幅広い各種の応用例が考え
られる。
In actual measurement, a part of the object is irradiated with a laser beam to form a light spot, and this light spot is manually moved to a desired position on the object to obtain three-dimensional position information at that point. Alternatively, the optical spot is scanned with a scanner to obtain a data file {(x 2 ′, y 2 ′), (x 3 ′, y 3 ′)}i, which is
A wide variety of application examples are possible, such as a method of converting to a dimensional file {(xyz)}i to obtain shape information of a three-dimensional object.

ここで、この発明による3次元位置計測装置の
若干の実施例を示す。
Here, some embodiments of the three-dimensional position measuring device according to the present invention will be shown.

第2図は、この発明を例えばデイジタル実体顕
微鏡装置に適用した一実施例を示すもので、第1
の光学系である対物レンズ1と、その光軸を挾ん
で同一平面上で対称位置を保つて平行する光軸を
有するそれぞれ同一焦点距離の第2、第3の光学
系である結像レンズ2,3とを、対物レンズ1の
後側焦平面を結像レンズ2,3の前側焦平面に一
致させて配置する。
FIG. 2 shows an embodiment in which the present invention is applied to, for example, a digital stereoscopic microscope device.
an objective lens 1, which is an optical system, and an imaging lens 2, which is a second and third optical system, each having the same focal length and having parallel optical axes that maintain symmetrical positions on the same plane, sandwiching the optical axis of the objective lens 1. , 3 are arranged so that the rear focal plane of the objective lens 1 coincides with the front focal plane of the imaging lenses 2 and 3.

結像レンズ2,3の前側焦点の周辺に口径の小
さい絞り4,5をそれぞれ設けて結像レンズ2,
3をテレセントリツクな光学系となし、これらの
結像レンズ2,3の後側焦点の近傍にCCDから
なる第2、第3のイメージセンサ6,7をそれぞ
れの結像レンズ2,3から等距離に光軸に直交に
して設ける。
Apertures 4 and 5 with small apertures are provided around the front focal points of the imaging lenses 2 and 3, respectively.
3 is a telecentric optical system, and second and third image sensors 6 and 7 consisting of CCDs are installed near the rear focal points of these imaging lenses 2 and 3, respectively, from the respective imaging lenses 2 and 3. The distance is perpendicular to the optical axis.

さらに、イメージセンサ6,7からの出力信号
を観察用のブラウン管11に表示すると共に
CPUを備えた制御装置12に入力して所定の演
算処理をさせ、この制御装置12をブラウン管1
1及び制御盤13に接続する。
Furthermore, the output signals from the image sensors 6 and 7 are displayed on a cathode ray tube 11 for observation, and
The input is input to a control device 12 equipped with a CPU to perform predetermined arithmetic processing, and the control device 12 is connected to the cathode ray tube 1.
1 and the control panel 13.

このように構成した顕微鏡装置によれば、ブラ
ウン管11上の図形の所要の点をカーソル14で
指定することにより、その点の3次元座標を容易
に計測することができると共に、製品と標準ワー
クとの3次元的比較を行うことも可能である。
According to the microscope device configured in this way, by specifying a desired point of a figure on the cathode ray tube 11 with the cursor 14, the three-dimensional coordinates of that point can be easily measured, and the product and standard workpiece can be easily measured. It is also possible to perform a three-dimensional comparison.

なお、ブラウン管11上の点をライトペンで指
定してもよい。
Note that a point on the cathode ray tube 11 may be designated with a light pen.

次に、第3図はこの発明を3次元デイジタイザ
に適用した他の実施例を示すもので、第1の光学
系1の背後に可視光をカツトして赤外等のレーザ
光だけを反射するミラー15a,15b,16
a,16bを配してその反射光線を、第1の光軸
O1を挾んで同一平面内で対称位置を保つて平行
する第2、第3の光軸O2,O3を有するそれぞれ
同一焦点距離の第2、第3の光学系2,3に導入
し得るようにし、第1の光学系1の後側焦平面を
第2、第3の光学系2,3の前側焦平面に一致さ
せて配置する。
Next, FIG. 3 shows another embodiment in which the present invention is applied to a three-dimensional digitizer, in which visible light is cut behind the first optical system 1 and only laser light such as infrared light is reflected. Mirrors 15a, 15b, 16
a, 16b and direct the reflected light beam to the first optical axis.
They are introduced into second and third optical systems 2 and 3 having the same focal length and having second and third optical axes O 2 and O 3 that are parallel to each other and maintain symmetrical positions in the same plane with O 1 in between. The rear focal plane of the first optical system 1 is arranged to coincide with the front focal planes of the second and third optical systems 2 and 3 so that the optical system 1 has a rear focal plane.

そして、第2、第3の光学系2,3の前側焦点
の周辺に絞り4,5を配してこれらの光学系2,
3をテレセントリツクな光学系となし、その後側
焦点の近傍にPSDからなる第2、第3のイメー
ジセンサ6,7をそれぞれの光軸O2,O3に直交
して第2、第3の光学系2,3から等距離の位置
に設ける。
Then, apertures 4 and 5 are arranged around the front focal points of the second and third optical systems 2 and 3, and these optical systems 2,
3 is a telecentric optical system, and second and third image sensors 6 and 7 consisting of PSD are installed near the rear focal point and are perpendicular to the optical axes O 2 and O 3 respectively. It is provided at a position equidistant from the optical systems 2 and 3.

また、第1の光学系1の後方の同一光軸O1
に投光レンズ17を設け、この投光レンズ17の
後方にハーフミラー18を斜設し、その背後にモ
ニタ用のCCDからなるイメージセンサ19を設
ける。
Further, a light projecting lens 17 is provided on the same optical axis O 1 behind the first optical system 1, a half mirror 18 is provided obliquely behind the light projecting lens 17, and a CCD for monitoring is provided behind the projecting lens 17. An image sensor 19 is provided.

さらに、ハーフミラー18に対応して光スポツ
トの走査を行うスキヤナを構成する角度可変のス
キヤナミラー20を設け、その背後に集光レンズ
21及びレーザダイオード22を配し、このレー
ザダイオード22から発する赤外光が集光レンズ
21により集光されスキヤナミラー20、ハーフ
ミラー18に反射され、投光レンズ17及び第1
の光学系1を介して物体10の点Pに達するよう
にしている。
Further, an angle-variable scanner mirror 20 constituting a scanner for scanning a light spot is provided corresponding to the half mirror 18, and a condensing lens 21 and a laser diode 22 are arranged behind it. The light is focused by the condensing lens 21, reflected by the scanner mirror 20 and the half mirror 18, and then reflected by the light projecting lens 17 and the first
The point P of the object 10 is reached through the optical system 1 of .

点Pで反射したレーザ光は第1の光学系1、投
光レンズ17及びハーフミラー18を通つてイメ
ージセンサ19上に結像して図示しないブラウン
管上でモニタできる。
The laser beam reflected at point P passes through the first optical system 1, the projection lens 17, and the half mirror 18, forms an image on the image sensor 19, and can be monitored on a cathode ray tube (not shown).

同時に、第1の光学系1を通過したレーザ光は
ミラー15a,15b及び16a,16bによつ
て第2、第3の光路O2,O3上を進み、絞り4,
5を通り、第2、第3の光学系2,3によつて第
2、第3のイメージセンサ6,7上に像点P2′,
P3′を形成し、その点x2,y2及びx3,y3から(A)式
及び(B)式を用いて物点Pの3次元座標x,y,z
を求めることができる。
At the same time, the laser beam that has passed through the first optical system 1 travels on second and third optical paths O 2 and O 3 by mirrors 15a, 15b and 16a, 16b, and the aperture 4,
5, image points P 2 ′,
P 3 ', and from the points x 2 , y 2 and x 3 , y 3, calculate the three-dimensional coordinates x, y, z of the object point P using equations (A) and (B).
can be found.

この時、スキヤナミラー20の角度を自動又は
手動で連続的に変更すれば物体10の3次元座標
を高速にサンプリングすることが可能となる。
At this time, if the angle of the scanner mirror 20 is continuously changed automatically or manually, it becomes possible to sample the three-dimensional coordinates of the object 10 at high speed.

〔発明の効果〕〔Effect of the invention〕

以上述べたように、この発明による3次元位置
計測方法及びその装置は、その第1、第2の発明
では、第1の光軸を有する第1の光学系と、第1
の光軸を挾んで同一平面内で対称的に平行する第
2、第3の光軸を有するそれぞれ同一焦点距離の
テレセントリツクな第2、第3の光学系とを、第
1の光学系の後側焦平面を第2、第3の光学系の
前側焦平面に一致させて配置し、計測すべき物点
の第1、第2及び第3の光学系による像点のそれ
ぞれの原点からの座標から、物点の3次元位置座
標を算出するようにしたので、非接触で極めて簡
単な操作により高精度に、物点の3次元位置を計
測することができる。
As described above, in the first and second inventions, the three-dimensional position measuring method and device according to the present invention include a first optical system having a first optical axis;
telecentric second and third optical systems each having the same focal length and having second and third optical axes symmetrically parallel to each other in the same plane, sandwiching the optical axis of the first optical system; The rear focal plane is arranged to match the front focal planes of the second and third optical systems, and the image points of the object point to be measured by the first, second, and third optical systems are arranged from their respective origins. Since the three-dimensional positional coordinates of the object point are calculated from the coordinates, the three-dimensional position of the object point can be measured with high precision by a non-contact and extremely simple operation.

また、必要とあれば、計測装置に機械的な作動
部分を設けなくてすみ、可能部の機械的誤差に伴
う計測精度の誤差を皆無にすることができる。
Furthermore, if necessary, it is not necessary to provide a mechanically operating part in the measuring device, and errors in measurement accuracy due to mechanical errors in the operating part can be completely eliminated.

さらに、第3の発明によれば、第2の発明に加
えて光スポツトの走査を行うスキヤナを設けて、
物体の3次元位置座標を高速にサンプリングする
ことが可能となる。
Furthermore, according to a third invention, in addition to the second invention, a scanner for scanning a light spot is provided,
It becomes possible to sample the three-dimensional position coordinates of an object at high speed.

【図面の簡単な説明】[Brief explanation of drawings]

第1図はこの発明の光学系を示す構成図、第2
図はこの発明による3次元位置計測装置の一実施
例の構成図、第3図は他の実施例の構成図、第4
図は一般の光学系による3次元空間の点と像点と
の関係を示す説明図、第5図は一般の光学系の焦
点外れ状態を示す光路図、第6図はテレセントリ
ツク光学系の像の状態を示す光路図、第7図は光
学系をテレセントリツクにする絞りの作用を示す
光路図、第8図はこの発明の光学系の後半部のみ
を示す構成図、第9図はこの発明の計測方法の原
理を示す説明図である。 1…第1の光学系、2…第2の光学系、3…第
3の光学系、4…第2の絞り、5…第3の絞り、
6…第2のイメージセンサ、7…第3のイージセ
ンサ、10…物体、11…ブラウン管、12…制
御装置、13…タブレツト、14…カーソル、1
5a,15b,16a,16b…可視光をカツト
するミラー、17…投光レンズ、18…ハーフミ
ラー、19…イメージセンサ、20…スキヤンミ
ラー、21…集光レンズ、22…レーザダイオー
ド、f1…第1の光学系の焦点距離、f2…第2、第
3の光学系の焦点距離、O1…第1の光軸、O2
第2の光軸、O3…第3の光軸、2B…第2、第
3の光軸間の距離、P…物点、P1′…第1の光学
系による像点、P2′…第2のイメージセンサ上の
像点、P3′…第3のイメージセンサ上の像点。
Figure 1 is a configuration diagram showing the optical system of this invention, Figure 2 is a configuration diagram showing the optical system of this invention.
The figure is a block diagram of one embodiment of the three-dimensional position measuring device according to the present invention, FIG. 3 is a block diagram of another embodiment, and FIG.
The figure is an explanatory diagram showing the relationship between a point in a three-dimensional space and an image point in a general optical system, Figure 5 is an optical path diagram showing an out-of-focus state in a general optical system, and Figure 6 is an image of a telecentric optical system. FIG. 7 is an optical path diagram showing the effect of the aperture to make the optical system telecentric. FIG. 8 is a configuration diagram showing only the latter half of the optical system of this invention. FIG. 9 is a diagram showing the configuration of the optical system of this invention. FIG. 2 is an explanatory diagram showing the principle of a measuring method. 1...First optical system, 2...Second optical system, 3...Third optical system, 4...Second aperture, 5...Third aperture,
6... Second image sensor, 7... Third easy sensor, 10... Object, 11... Braun tube, 12... Control device, 13... Tablet, 14... Cursor, 1
5a, 15b, 16a, 16b...Mirror that cuts visible light, 17...Light projection lens, 18...Half mirror, 19...Image sensor, 20...Scanning mirror, 21...Condensing lens, 22...Laser diode, f1 ... Focal length of the first optical system, f 2 ... Focal length of the second and third optical systems, O 1 ... First optical axis, O 2 ...
Second optical axis, O 3 ...Third optical axis, 2B...Distance between the second and third optical axes, P...Object point, P1 '...Image point by the first optical system, P2 ' ...image point on the second image sensor, P 3 '...image point on the third image sensor.

Claims (1)

【特許請求の範囲】 1 第1の光軸を有する第1の光学系と、該第1
の光軸を挾んで同一平面内で対称的に平行する第
2、第3の光軸を有するそれぞれ同一焦点距離の
テレセントリツクな第2、第3の光学系とを、上
記第1の光学系の後側焦平面を上記第2、第3の
光学系の前側焦平面に一致させて配置し、計測す
べき物点の上記第1、第2及び第1、第3の光学
系による像点のそれぞれの原点からの座標から、
上記物点の3次元位置座標を算出することを特徴
とする3次元位置計測方法。 2 第1の光軸を有する第1の光学系と、該第1
の光軸を挾んで同一平面内で対称的に平行する第
2、第3の光軸を有し、上記第1の光学系の後側
焦平面位置に前側焦平面を一致させたそれぞれ同
一焦点距離の第2、第3の光学系と、該第2、第
3の光学系の前側焦点の周辺に設けられ、該第
2、第3の光学系をテレセントリツクにする第
2、第3の絞りと、上記第2、第3の光学系の後
側焦点の近傍に設けた第2、第3の光電変換セン
サと、該第2、第3の光電変換センサからの出力
信号を演算処理する演算手段とを設けたことを特
徴とする3次元位置計測装置。 3 第1の光軸を有する第1の光学系と、該第1
の光軸を挾んで同一平面内で対称的に平行する第
2、第3の光軸を有し、上記第1の光学系の後側
焦平面位置に前側焦平面を一致させたそれぞれ同
一焦点距離の第2、第3の光学系と、該第2、第
3の光学系の前側焦点の周辺に設けられ、該第
2、第3の光学系をテレセントリツクにする第
2、第3の絞りと、上記第2、第3の光学系の後
側焦点の近傍に設けた第2、第3の光電変換セン
サと、該第2、第3の光電変換センサからの出力
信号を演算処理する演算手段と、計測すべき物体
を照射する光スポツトの走査を行うスキヤナとを
設けたことを特徴とする3次元位置計測装置。
[Claims] 1. A first optical system having a first optical axis;
telecentric second and third optical systems having the same focal length and having second and third optical axes that are symmetrically parallel to each other in the same plane, sandwiching the optical axis of the first optical system; The rear focal plane is arranged so as to coincide with the front focal plane of the second and third optical systems, and the image point of the object point to be measured is determined by the first, second and first and third optical systems. From the coordinates from each origin,
A three-dimensional position measuring method characterized by calculating three-dimensional position coordinates of the object point. 2 a first optical system having a first optical axis;
have second and third optical axes that are symmetrically parallel to each other in the same plane with the optical axis of second and third optical systems for telecentricity, and second and third optical systems that are provided around the front focal points of the second and third optical systems and that make the second and third optical systems telecentric. aperture, second and third photoelectric conversion sensors provided near the rear focal points of the second and third optical systems, and arithmetic processing of output signals from the second and third photoelectric conversion sensors. A three-dimensional position measuring device, characterized in that it is provided with a calculation means. 3 a first optical system having a first optical axis;
have second and third optical axes that are symmetrically parallel to each other in the same plane with the optical axis of second and third optical systems for telecentricity, and second and third optical systems that are provided around the front focal points of the second and third optical systems and that make the second and third optical systems telecentric. aperture, second and third photoelectric conversion sensors provided near the rear focal points of the second and third optical systems, and arithmetic processing of output signals from the second and third photoelectric conversion sensors. A three-dimensional position measuring device comprising a calculation means and a scanner that scans a light spot that illuminates an object to be measured.
JP28895486A 1986-12-05 1986-12-05 Method and apparatus for measuring three-dimensional position Granted JPS63142212A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP28895486A JPS63142212A (en) 1986-12-05 1986-12-05 Method and apparatus for measuring three-dimensional position

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP28895486A JPS63142212A (en) 1986-12-05 1986-12-05 Method and apparatus for measuring three-dimensional position

Publications (2)

Publication Number Publication Date
JPS63142212A JPS63142212A (en) 1988-06-14
JPH0444201B2 true JPH0444201B2 (en) 1992-07-21

Family

ID=17736951

Family Applications (1)

Application Number Title Priority Date Filing Date
JP28895486A Granted JPS63142212A (en) 1986-12-05 1986-12-05 Method and apparatus for measuring three-dimensional position

Country Status (1)

Country Link
JP (1) JPS63142212A (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100424287B1 (en) * 2001-09-10 2004-03-24 주식회사 제이앤에이치테크놀러지 Non-parallel optical axis real-time three-demensional image processing system and method
DE102011053232B4 (en) * 2011-09-02 2020-08-06 Leica Microsystems Cms Gmbh Microscopic device and microscopic method for the three-dimensional localization of punctiform objects
US10222199B2 (en) 2014-12-02 2019-03-05 Mitsubishi Electric Corporation Displacement sensor, displacement detection apparatus, and displacement detection method
JP6750350B2 (en) * 2016-07-05 2020-09-02 富士ゼロックス株式会社 Measuring device

Also Published As

Publication number Publication date
JPS63142212A (en) 1988-06-14

Similar Documents

Publication Publication Date Title
US6480287B2 (en) Three dimensional scanning system
US5090811A (en) Optical radius gauge
CA2253085A1 (en) Methods and system for measuring three dimensional spatial coordinates and for external camera calibration necessary for that measurement
US6730926B2 (en) Sensing head and apparatus for determining the position and orientation of a target object
JP2582118B2 (en) Synchronous optical scanning device
WO2018168757A1 (en) Image processing device, system, image processing method, article manufacturing method, and program
US7102740B2 (en) Method and system for determining surface feature characteristics using slit detectors
EP0316624A2 (en) Improved imaging and inspection apparatus and method
JPH0444201B2 (en)
JPH05306915A (en) Method and instrument for measuring shape
JP2007183181A (en) Three-dimensional shape measuring apparatus
US5600123A (en) High-resolution extended field-of-view tracking apparatus and method
JPH10267624A (en) Measuring apparatus for three-dimensional shape
JP2572637B2 (en) Configuration of Optical Distance Sensor for Surface Condition Detection
JPH0450521B2 (en)
JP2001317922A (en) Optical shape measuring device
JPH05329793A (en) Visual sensor
JPH09329417A (en) Light projector-receiver inter-calibration method for three-dimensional measurement
CA2356618C (en) Sensing head and apparatus for determining the position and orientation of a target object
JPH03255910A (en) Three-dimensional position measurement system
JP2002031511A (en) Three-dimensional digitizer
JP2675051B2 (en) Optical non-contact position measuring device
JPH0926316A (en) Noncontact three-dimensional displacement detection apparatus
JP3287263B2 (en) Height measuring device
CA2013337C (en) Optical radius gauge

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees