JPH09145320A - Three-dimensional input camera - Google Patents

Three-dimensional input camera

Info

Publication number
JPH09145320A
JPH09145320A JP7299922A JP29992295A JPH09145320A JP H09145320 A JPH09145320 A JP H09145320A JP 7299922 A JP7299922 A JP 7299922A JP 29992295 A JP29992295 A JP 29992295A JP H09145320 A JPH09145320 A JP H09145320A
Authority
JP
Japan
Prior art keywords
light
light receiving
data
sensor
slit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7299922A
Other languages
Japanese (ja)
Other versions
JP3324367B2 (en
Inventor
Akira Yahashi
暁 矢橋
Fumiya Yagi
史也 八木
Satoru Hirose
悟 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP29992295A priority Critical patent/JP3324367B2/en
Priority to US08/748,325 priority patent/US6141105A/en
Publication of JPH09145320A publication Critical patent/JPH09145320A/en
Priority to US09/676,767 priority patent/US6529280B1/en
Application granted granted Critical
Publication of JP3324367B2 publication Critical patent/JP3324367B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional input camera in which the error can be reduced in the positional relation between a projector and a light receiving unit and measurement can be carried out accurately while reducing error even when a zoom lens is mounted. SOLUTION: The three-dimensional input camera comprises a projector 40 for scanning an object optically by irradiating a detection light, and a light receiving unit 50 spaced apart specifically from the projector 40 and receiving the detection light reflected on an object. The projector 40 and light receiving unit 50 are fixed such that they can be rotary adjusted relatively about a first rotary axis AX1 extending along the optical axis AX3 of light receiving unit and a second rotary axis AX2 extending along a line connecting the projector 40 and light receiving unit 50 in the direction perpendicular to the first rotary axis AX1.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、物体にスリット光
又はスポット光を照射して物体形状を非接触で計測して
データを入力するための3次元入力カメラに関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional input camera for irradiating an object with slit light or spot light to measure the shape of the object in a non-contact manner and input data.

【0002】[0002]

【従来の技術】レンジファインダと呼称される非接触型
の3次元入力カメラは、接触型に比べて高速の計測が可
能であることから、CGシステムやCADシステムへの
データ入力、身体計測、ロボットの視覚認識などに利用
されている。
2. Description of the Related Art Since a non-contact type three-dimensional input camera called a range finder can measure at a higher speed than a contact type, data input to a CG system or a CAD system, body measurement, robot It is used for visual recognition.

【0003】レンジファインダに好適な計測方法として
スリット光投影法(光切断法ともいう)が知られてい
る。この方法は、物体を光学的に走査して3次元画像
(距離画像)を得る方法であり、特定の検出光を照射し
て物体を撮影する能動的計測方法の一種である。3次元
画像は、物体上の複数の部位の3次元位置を示す画素の
集合である。スリット光投影法では、検出光として断面
が直線状のスリット光が用いられる。
[0003] As a measurement method suitable for a range finder, a slit light projection method (also called a light cutting method) is known. This method is a method of obtaining a three-dimensional image (distance image) by optically scanning an object, and is a kind of an active measurement method of irradiating specific detection light and photographing the object. The three-dimensional image is a set of pixels indicating the three-dimensional positions of a plurality of parts on the object. In the slit light projection method, a slit light having a linear cross section is used as detection light.

【0004】図20はスリット光投影法の概要を示す
図、図21はスリット光投影法による計測の原理を説明
するための図である。計測対象の物体Qに断面が細い帯
状のスリット光Uを照射し、その反射光を例えば2次元
イメージセンサの撮像面S2に入射させる〔図20
(a)〕。物体Qの照射部分が平坦であれば、撮影像
(スリット画像)は直線になる〔図20(b)〕。照射
部分に凹凸があれば、直線が曲がったり階段状になった
りする〔図20(c)〕。つまり、計測装置と物体Qと
の距離の大小が撮像面S2における反射光の入射位置に
反映する〔図20(d)〕。スリット光Uをその幅方向
に偏向することにより、受光側から見える範囲の物体表
面を走査して3次元位置をサンプリングすることができ
る。サンプリング点数はイメージセンサの画素数に依存
する。
FIG. 20 is a diagram showing an outline of the slit light projection method, and FIG. 21 is a diagram for explaining the principle of measurement by the slit light projection method. An object Q to be measured is irradiated with slit light U having a narrow cross section, and the reflected light is incident on, for example, the imaging surface S2 of the two-dimensional image sensor [FIG.
(A)]. If the irradiated portion of the object Q is flat, the captured image (slit image) becomes a straight line [FIG. 20 (b)]. If the irradiated portion has irregularities, the straight line may be curved or stepped [Fig. 20 (c)]. That is, the magnitude of the distance between the measuring device and the object Q is reflected on the incident position of the reflected light on the imaging surface S2 [FIG. 20 (d)]. By deflecting the slit light U in the width direction, a three-dimensional position can be sampled by scanning the object surface in a range visible from the light receiving side. The number of sampling points depends on the number of pixels of the image sensor.

【0005】図21において、投光の起点Aと受光系の
レンズの主点Oとを結ぶ基線AOが受光軸と垂直になる
ように、投光系と受光系とが配置されている。受光軸は
撮像面S2に対して垂直である。なお、レンズの主点と
は、有限遠の被写体の像が撮像面S2に結像したとき
の、いわゆる像距離(image distance)bだけ撮像面S
2から離れた受光軸上の点である。像距離bは、受光系
の焦点距離fとピント調整のためのレンズ繰出し量との
和である。
In FIG. 21, the light projecting system and the light receiving system are arranged so that the base line AO connecting the light projecting origin A and the principal point O of the lens of the light receiving system is perpendicular to the light receiving axis. The light receiving axis is perpendicular to the image pickup surface S2. Note that the principal point of the lens is defined as an image distance S by a so-called image distance (image distance) b when an image of a subject at a finite distance is formed on the imaging surface S2.
It is a point on the light receiving axis away from 2. The image distance b is the sum of the focal length f of the light receiving system and the lens extension for focus adjustment.

【0006】主点Oを3次元直交座標系の原点とする。
受光軸がZ軸、基線AOがY軸、スリット光の長さ方向
がX軸である。スリット光Uが物体上の点P(X,Y,
Z)を照射したときの投光軸と投光基準面(受光軸と平
行な投光面)との角度をθa、受光角をθpとすると、
点Pの座標Zは(1)式で表される。
The principal point O is defined as the origin of a three-dimensional rectangular coordinate system.
The light receiving axis is the Z axis, the base line AO is the Y axis, and the length direction of the slit light is the X axis. When the slit light U reaches a point P (X, Y,
When the angle between the light projecting axis and the light projecting reference plane (the light projecting surface parallel to the light receiving axis) when irradiating Z) is θa and the light receiving angle is θp,
The coordinate Z of the point P is represented by the equation (1).

【0007】 基線長L=L1+L2=Ztanθa+Ztanθp ∴ Z=L/(tanθa+tanθp) …(1) なお、受光角θpとは、点Pと主点Oとを結ぶ直線と、
受光軸を含む平面(受光軸平面)とのなす角度である。
Base line length L = L1 + L2 = Ztan θa + Ztan θp∴Z = L / (tan θa + tan θp) (1) The light receiving angle θp is a straight line connecting the point P and the principal point O.
This is an angle formed with a plane including the light receiving axis (light receiving axis plane).

【0008】撮像倍率β=b/Z であるので、撮像面
S2の中心と受光画素とのX方向の距離をxp、Y方向
の距離をypとすると〔図21(a)参照〕、点Pの座
標X,Yは、(2),(3)式で表される。
Since the image pickup magnification β = b / Z, assuming that the distance in the X direction between the center of the image pickup surface S2 and the light receiving pixel is xp and the distance in the Y direction is yp [see FIG. 21 (a)], point P Coordinates X and Y are expressed by equations (2) and (3).

【0009】X=xp/β …(2) Y=yp/β …(3) 角度θaはスリット光Uの偏向の角速度によって一義的
に決まる。受光角θpはtanθp=b/ypの関係か
ら算出できる。つまり、撮像面S2上での位置(xp,
yp)を測定することにより、そのときの角度θaに基
づいて点Pの3次元位置を求めることができる。
X = xp / β (2) Y = yp / β (3) The angle θa is uniquely determined by the angular velocity of the deflection of the slit light U. The light receiving angle θp can be calculated from the relationship tan θp = b / yp. In other words, the position (xp,
By measuring yp), the three-dimensional position of the point P can be obtained based on the angle θa at that time.

【0010】図21(c)のように受光系にズームレン
ズ群を設けた場合には、主点Oは後側主点H’となる。
後側主点H’と前側主点Hとの距離をMとすると、点P
の座標Zは(1B)式で表される。
When a zoom lens group is provided in the light receiving system as shown in FIG. 21 (c), the principal point O becomes the rear principal point H '.
Assuming that the distance between the rear principal point H ′ and the front principal point H is M, the point P
Is represented by equation (1B).

【0011】 L=L1+L2=Ztanθa+(Z−M)tanθp ∴ Z=(L+Mtanθp)/(tanθa+tanθp) …(1B) 以上の原理のスリット光投影法による計測において、例
えばCCDセンサのように撮像面S2が有限個の画素か
らなる撮像手段を用いる場合には、計測の分解能が撮像
手段の画素ピッチに依存する。ただし、撮像面S2上で
のスリット光UのY方向(走査方向)の幅が複数画素分
となるようにスリット光Uを設定することにより、分解
能を高めることができる。
L = L1 + L2 = Ztan θa + (Z−M) tan θp ∴Z = (L + Mtan θp) / (tan θa + tan θp) ... When using an image pickup means composed of a finite number of pixels, the resolution of measurement depends on the pixel pitch of the image pickup means. However, the resolution can be increased by setting the slit light U so that the width of the slit light U in the Y direction (scanning direction) on the imaging surface S2 is a plurality of pixels.

【0012】従来において、投光系を構成する投光装置
と受光系を構成する装置とは、互いに位置関係が固定さ
れており、それらの光軸又は中心軸線や走査方向を調整
する構造とはなっていない(特開平7−174536
号)。
Conventionally, the positional relationship between the light projecting device forming the light projecting system and the device forming the light receiving system is fixed, and the structure for adjusting the optical axis, the central axis or the scanning direction of them is not provided. No (Japanese Patent Laid-Open No. 174536/1995)
issue).

【0013】[0013]

【発明が解決しようとする課題】したがって、従来の3
次元入力カメラでは、投光装置と受光装置の互いの光
軸、中心軸線、又は走査方向の間にねじれが生じていた
り、それらが同一平面上になかったりし、互いの位置関
係に誤差を有している。ズームレンズを用いない3次元
入力カメラでは、それらの誤差があっても、撮影によっ
て得られる補正データによる演算に基づいてそれらの誤
差を比較的簡単に補正することができた。
Therefore, the conventional three
In the two-dimensional input camera, there is an error in the positional relationship between the light projecting device and the light receiving device because the optical axis, the central axis line, or the twisting is generated between them in the scanning direction or they are not on the same plane. doing. With a three-dimensional input camera that does not use a zoom lens, even if there are these errors, those errors could be corrected relatively easily based on the calculation based on the correction data obtained by shooting.

【0014】しかし、3次元入力カメラにズームレンズ
を装備した場合には、ズームレンズの操作量又は移動量
に応じて補正データが相違するため、補正データの量又
はパラメータの個数が非常に多くなり、誤差の補正が極
めて複雑となって簡単な演算では対応が不可能であると
ともに、演算処理に多くの時間を要する。そのため、入
力したデータに多くの誤差が含まれることとなり、正確
な計測ができない。
However, when the three-dimensional input camera is equipped with a zoom lens, the correction data differs depending on the operation amount or the movement amount of the zoom lens, so that the amount of correction data or the number of parameters becomes very large. However, the correction of the error is extremely complicated and cannot be handled by a simple calculation, and the calculation process requires a lot of time. Therefore, the input data contains many errors, and accurate measurement cannot be performed.

【0015】請求項1の発明は、上述の問題に鑑みてな
されたもので、投光装置と受光装置との間の位置関係の
誤差をなくすことを可能とし、ズームレンズを装備した
場合でも少ない誤差で正確に計測することのできる3次
元入力カメラを提供することを目的とする。
The invention of claim 1 is made in view of the above-mentioned problems, and it is possible to eliminate an error in the positional relationship between the light projecting device and the light receiving device, and it is small even when a zoom lens is equipped. An object of the present invention is to provide a three-dimensional input camera capable of accurately measuring with an error.

【0016】[0016]

【課題を解決するための手段】請求項1の発明に係る3
次元入力カメラは、検出光を照射して物体を光学的に走
査するための投光装置と、前記投光装置とは所定の間隔
をおいて設けられ前記物体で反射した前記検出光を受光
する受光装置とを有してなる3次元入力カメラであっ
て、前記投光装置と受光装置とが、前記受光装置の光軸
に沿う方向の第1回転軸、及び前記投光装置と受光装置
とを結ぶ線に沿う方向であり且つ前記第1回転軸に垂直
な方向の第2回転軸をそれぞれ中心として、互いに相対
的に回転調整が可能に取り付けられてなる。
[Means for Solving the Problems] 3 according to the invention of claim 1
A three-dimensional input camera is provided with a light projecting device for irradiating detection light to optically scan an object, and receives the detection light reflected by the object provided at a predetermined distance from the light projecting device. A three-dimensional input camera including a light receiving device, wherein the light projecting device and the light receiving device include a first rotation axis in a direction along an optical axis of the light receiving device, and the light projecting device and the light receiving device. The second rotary shafts, which are in the direction along the line connecting the two and are perpendicular to the first rotary shaft, are mounted so that their rotations can be adjusted relative to each other.

【0017】第2回転軸の調整によって、第1回転軸と
受光軸とが平行となるように調整され、第1回転軸の調
整によって、スリット光の走査方向(偏向方向)が第2
回転軸の方向と一致するように調整される。これらの調
整によって、投光装置と受光装置との位置関係の誤差が
なくなり、その補正を行わなくても精度のよい計測を行
うことができる。
By adjusting the second rotating shaft, the first rotating shaft and the light receiving shaft are adjusted to be parallel to each other, and by adjusting the first rotating shaft, the scanning direction (deflection direction) of the slit light is changed to the second direction.
Adjusted to match the direction of the axis of rotation. By these adjustments, there is no error in the positional relationship between the light projecting device and the light receiving device, and accurate measurement can be performed without correction.

【0018】[0018]

【発明の実施の形態】図1は本発明に係る計測システム
1の構成図である。計測システム1は、スリット光投影
法によって立体計測を行う3次元カメラ(レンジファイ
ンダ)2と、3次元カメラ2の出力データを処理するホ
スト3とから構成されている。
FIG. 1 is a configuration diagram of a measurement system 1 according to the present invention. The measurement system 1 includes a three-dimensional camera (range finder) 2 that performs three-dimensional measurement by the slit light projection method, and a host 3 that processes output data of the three-dimensional camera 2.

【0019】3次元カメラ2は、物体Q上の複数のサン
プリング点の3次元位置を特定する計測データ(スリッ
ト画像データ)とともに、物体Qのカラー情報を示す2
次元画像及びキャリブレーションに必要なデータを出力
する。三角測量法を用いてサンプリング点の座標を求め
る演算処理はホスト3が担う。
The three-dimensional camera 2 displays color information of the object Q together with measurement data (slit image data) for specifying the three-dimensional positions of a plurality of sampling points on the object Q.
Outputs a dimensional image and data necessary for calibration. The host 3 is responsible for the arithmetic processing for obtaining the coordinates of the sampling points using the triangulation method.

【0020】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、及びマウス3dなどから構成され
たコンピュータシステムである。CPU3aには計測デ
ータ処理のためのソフトウェアが組み込まれている。ホ
スト3と3次元カメラ2との間では、オンライン及び可
搬型の記録メディア4によるオフラインの両方の形態の
データ受渡しが可能である。記録メディア4としては、
光磁気ディスク(MO)、ミニディスク(MD)、メモ
リカードなどがある。
The host 3 includes a CPU 3a, a display 3
This is a computer system including a keyboard b, a keyboard 3c, a mouse 3d, and the like. Software for processing measurement data is incorporated in the CPU 3a. Between the host 3 and the three-dimensional camera 2, both online and offline data transfer by the portable recording medium 4 is possible. As the recording medium 4,
There are magneto-optical disks (MO), mini disks (MD), memory cards and the like.

【0021】図2は3次元カメラ2の外観を示す図であ
る。図2は3次元カメラ2の外観を示す図である。ハウ
ジング20の前面に投光窓20a及び受光窓20bが設
けられている。投光窓20aは受光窓20bに対して上
側に位置する。内部の光学ユニットOUが射出するスリ
ット光(所定幅wの帯状のレーザビーム)Uは、投光窓
20aを通って計測対象の物体(被写体)に向かう。ス
リット光Uの長さ方向M1の放射角度φは固定である。
物体の表面で反射したスリット光Uの一部が受光窓20
bを通って光学ユニットOUに入射する。なお、光学ユ
ニットOUは、投光軸と受光軸との相対関係を適正化す
るための2軸調整機構を備えている。これについては後
で詳細に説明する。
FIG. 2 is a view showing the appearance of the three-dimensional camera 2. FIG. 2 is a diagram showing the appearance of the three-dimensional camera 2. A light projecting window 20a and a light receiving window 20b are provided on the front surface of the housing 20. The light projecting window 20a is located above the light receiving window 20b. The slit light (band-shaped laser beam with a predetermined width w) U emitted from the internal optical unit OU goes through the light projecting window 20a toward the object (subject) to be measured. The emission angle φ of the slit light U in the length direction M1 is fixed.
Part of the slit light U reflected on the surface of the object is received by the light receiving window 20.
It is incident on the optical unit OU through b. The optical unit OU includes a biaxial adjustment mechanism for optimizing the relative relationship between the light projecting axis and the light receiving axis. This will be described in detail later.

【0022】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、及びシャッタボタン27が設けられてい
る。図2(b)のように、ハウジング20の背面には、
液晶ディスプレイ21、カーソルボタン22、セレクト
ボタン23、キャンセルボタン24、アナログ出力端子
31,32、デジタル出力端子33、及び記録メディア
4の着脱口30aが設けられている。
On the upper surface of the housing 20, zooming buttons 25a and 25b, a manual focusing button 26
a, 26b, and a shutter button 27 are provided. As shown in FIG. 2B, on the back surface of the housing 20,
A liquid crystal display 21, a cursor button 22, a select button 23, a cancel button 24, analog output terminals 31, 32, a digital output terminal 33, and an attachment / detachment port 30a for the recording medium 4 are provided.

【0023】液晶ディスプレイ21(LCD)は、操作
画面の表示手段及び電子ファインダとして用いられる。
撮影者は背面の各ボタン21〜24によって撮影モード
の設定を行うことができる。アナログ出力端子31から
は計測データが出力され、アナログ出力端子31からは
2次元画像信号が例えばNTSC形式で出力される。デ
ジタル出力端子33は例えばSCSI端子である。
The liquid crystal display 21 (LCD) is used as an operation screen display means and an electronic finder.
The photographer can set the photographing mode by using the buttons 21 to 24 on the rear surface. Measurement data is output from the analog output terminal 31, and a two-dimensional image signal is output from the analog output terminal 31 in the NTSC format, for example. The digital output terminal 33 is, for example, a SCSI terminal.

【0024】図3は3次元カメラ2の機能構成を示すブ
ロック図である。図中の実線矢印は電気信号の流れを示
し、破線矢印は光の流れを示している。3次元カメラ2
は、上述の光学ユニットOUを構成する投光側及び受光
側の2つの光学系40,50を有している。光学系40
において、半導体レーザ(LD)41が射出する波長6
70nmのレーザビームは、投光レンズ系42を通過す
ることによってスリット光Uとなり、ガルバノミラー
(走査手段)43によって偏向される。半導体レーザ4
1のドライバ44、投光レンズ系42の駆動系45、及
びガルバノミラー43の駆動系46は、システムコント
ローラ61によって制御される。
FIG. 3 is a block diagram showing a functional configuration of the three-dimensional camera 2. In the figure, solid arrows indicate the flow of electric signals, and broken arrows indicate the flow of light. 3D camera 2
Has two optical systems 40 and 50 on the light-projecting side and the light-receiving side that constitute the above-mentioned optical unit OU. Optical system 40
At the wavelength 6 emitted by the semiconductor laser (LD) 41
The 70 nm laser beam becomes slit light U by passing through the light projecting lens system 42 and is deflected by the galvanomirror (scanning means) 43. Semiconductor laser 4
The No. 1 driver 44, the drive system 45 of the projection lens system 42, and the drive system 46 of the galvanometer mirror 43 are controlled by the system controller 61.

【0025】光学系50において、ズームユニット51
によって集光された光はビームスプリッタ52によって
分光される。半導体レーザ41の発振波長帯域の光は、
計測用のセンサ53に入射する。可視帯域の光は、モニ
タ用のカラーセンサ54に入射する。センサ53及びカ
ラーセンサ54は、どちらもCCDエリアセンサであ
る。ズームユニット51は内焦型であり、入射光の一部
がオートフォーカシング(AF)に利用される。AF機
能は、AFセンサ57とレンズコントローラ58とフォ
ーカシング駆動系59によって実現される。ズーミング
駆動系60は電動ズーミングのために設けられている。
In the optical system 50, a zoom unit 51
The light condensed by the beam splitter 52 is split by the beam splitter 52. The light in the oscillation wavelength band of the semiconductor laser 41 is
The light enters the sensor 53 for measurement. Light in the visible band enters the monitor color sensor 54. The sensor 53 and the color sensor 54 are both CCD area sensors. The zoom unit 51 is of an in-focus type, and a part of the incident light is used for auto focusing (AF). The AF function is realized by an AF sensor 57, a lens controller 58, and a focusing drive system 59. The zooming drive system 60 is provided for electric zooming.

【0026】センサ53による撮像情報は、ドライバ5
5からのクロックに同期して出力処理回路62へ転送さ
れる。出力処理回路62によってセンサ53の各画素毎
に対応する計測データが生成され、メモリ63,64に
格納される。その後、オペレータがデータ出力を指示す
ると、計測データは、SCSIコントローラ66又はN
TSC変換回路65によって所定形式でオンライン出力
され、又は記録メディア4に格納される。計測データの
オンライン出力には、アナログ出力端子31又はディジ
タル出力端子33が用いられる。カラーセンサ54によ
る撮像情報は、ドライバ56からのクロックに同期して
カラー処理回路67へ転送される。カラー処理を受けた
撮像情報は、NTSC変換回路70及びアナログ出力端
子32を経てオンライン出力され、又はディジタル画像
生成部68で量子化されてカラー画像メモリ69に格納
される。その後、カラー画像データがカラー画像メモリ
69からSCSIコントローラ66へ転送され、ディジ
タル出力端子33からオンライン出力され、又は計測デ
ータと対応づけて記録メディア4に格納される。なお、
カラー画像は、センサ53による距離画像と同一の画角
の像であり、ホスト3側におけるアプリケーション処理
に際して参考情報として利用される。カラー情報を利用
する処理としては、例えばカメラ視点の異なる複数組の
計測データを組み合わせて3次元形状モデルを生成する
処理、3次元形状モデルの不要の頂点を間引く処理など
がある。システムコントローラ61は、キャラクタジェ
ネレータ71に対して、LCD21の画面上に適切な文
字や記号を表示するための指示を与える。
Information on the image picked up by the sensor 53 is obtained by the driver 5
The data is transferred to the output processing circuit 62 in synchronization with the clock from 5. The output processing circuit 62 generates measurement data corresponding to each pixel of the sensor 53 and stores it in the memories 63 and 64. After that, when the operator instructs the data output, the measured data is displayed by the SCSI controller 66 or N.
The TSC conversion circuit 65 outputs the data online in a predetermined format or stores it in the recording medium 4. The analog output terminal 31 or the digital output terminal 33 is used for online output of the measurement data. Image information from the color sensor 54 is transferred to the color processing circuit 67 in synchronization with a clock from the driver 56. The color-processed imaging information is output online via the NTSC conversion circuit 70 and the analog output terminal 32, or quantized by the digital image generation unit 68 and stored in the color image memory 69. After that, the color image data is transferred from the color image memory 69 to the SCSI controller 66, online output from the digital output terminal 33, or stored in the recording medium 4 in association with the measurement data. In addition,
The color image is an image having the same angle of view as the distance image obtained by the sensor 53, and is used as reference information during application processing on the host 3 side. The processing using color information includes, for example, processing of generating a three-dimensional shape model by combining a plurality of sets of measurement data having different camera viewpoints, and processing of thinning out unnecessary vertices of the three-dimensional shape model. The system controller 61 gives an instruction to the character generator 71 to display appropriate characters and symbols on the screen of the LCD 21.

【0027】図4は投光レンズ系42の構成を示す模式
図である。図4(a)は正面図であり、図4(b)は側
面図である。投光レンズ系42は、コリメータレンズ4
21、バリエータレンズ422、及びエキスパンダレン
ズ423の3つのレンズから構成されている。半導体レ
ーザ41が射出したレーザビームに対して、次の順序で
適切なスリット光Uを得るための光学的処理が行われ
る。まず、コリメータレンズ421によってビームが平
行化される。次にバリエータレンズ422によってレー
ザビームのビーム径が調整される。最後にエキスパンダ
レンズ423によってビームがスリット長さ方向M1に
拡げられる。
FIG. 4 is a schematic diagram showing the structure of the projection lens system 42. FIG. 4A is a front view and FIG. 4B is a side view. The projection lens system 42 includes the collimator lens 4
21, a variator lens 422, and an expander lens 423. The laser beam emitted from the semiconductor laser 41 is subjected to an optical process for obtaining an appropriate slit light U in the following order. First, the collimator lens 421 collimates the beam. Next, the beam diameter of the laser beam is adjusted by the variator lens 422. Finally, the beam is expanded in the slit length direction M1 by the expander lens 423.

【0028】バリエータレンズ422は、撮影距離及び
撮影の画角に係わらず、センサ53に3以上の複数画素
分の幅のスリット光Uを入射させるために設けられてい
る。駆動系45は、システムコントローラ61の指示に
従って、センサ53上でのスリット光Uの幅wを一定に
保つようにバリエータレンズ422を移動させる。バリ
エータレンズ422と受光側のズームユニット51とは
連動する。
The variator lens 422 is provided to allow the slit light U having a width of three or more pixels to enter the sensor 53 regardless of the shooting distance and the angle of view for shooting. The drive system 45 moves the variator lens 422 according to an instruction from the system controller 61 so as to keep the width w of the slit light U on the sensor 53 constant. The variator lens 422 and the zoom unit 51 on the light receiving side work together.

【0029】ガルバノミラー43による偏向の以前にス
リット長を拡げることにより、偏向の後で行う場合に比
べてスリット光Uの歪みを低減することができる。エキ
スパンダレンズ423を投光レンズ系42の最終段に配
置することにより、すなわちガルバノミラー43に近づ
けることにより、ガルバノミラー43を小型化すること
ができる。
By expanding the slit length before the deflection by the galvanometer mirror 43, the distortion of the slit light U can be reduced as compared with the case where the slit light is deflected. By disposing the expander lens 423 at the final stage of the projection lens system 42, that is, by bringing the expander lens 423 close to the galvanometer mirror 43, the galvanometer mirror 43 can be downsized.

【0030】図5は受光のためのズームユニット51の
模式図である。ズームユニット51は、前側結像部51
5、バリエータ部514、コンペンセータ部513、フ
ォーカシング部512、後側結像部511、及び入射光
の一部をAFセンサ57に導くビームスプリッタ516
から構成されている。前側結像部515及び後側結像部
511は、光軸に対して固定である。
FIG. 5 is a schematic diagram of the zoom unit 51 for receiving light. The zoom unit 51 includes a front imaging unit 51.
5, a variator unit 514, a compensator unit 513, a focusing unit 512, a rear imaging unit 511, and a beam splitter 516 that guides a part of incident light to the AF sensor 57.
It is composed of The front imaging unit 515 and the rear imaging unit 511 are fixed with respect to the optical axis.

【0031】フォーカシング部512の移動はフォーカ
シング駆動系59が担い、バリエータ部514の移動は
ズーミング駆動系60が担う。フォーカシング駆動系5
9は、フォーカシング部512の移動距離(繰り出し
量)を指し示すフォーカシングエンコーダ59Aを備え
ている。ズーミング駆動系60は、バリエータ部514
の移動距離(ズーム刻み値)を指し示すズーミングエン
コーダ60Aを備えている。
The focusing drive system 59 is responsible for the movement of the focusing unit 512, and the zooming drive system 60 is responsible for the movement of the variator unit 514. Focusing drive system 5
Reference numeral 9 includes a focusing encoder 59A that indicates the moving distance (extending amount) of the focusing unit 512. The zooming drive system 60 includes a variator unit 514.
The zooming encoder 60A for indicating the moving distance (zoom increment value) of the.

【0032】図6はビームスプリッタ52の模式図、図
7は計測用のセンサ53の受光波長を示すグラフ、図8
はモニタ用のカラーセンサ54の受光波長を示すグラフ
である。
FIG. 6 is a schematic diagram of the beam splitter 52, FIG. 7 is a graph showing the light receiving wavelength of the sensor 53 for measurement, and FIG.
4 is a graph showing the light receiving wavelength of the monitor color sensor 54.

【0033】ビームスプリッタ52は、色分解膜(ダイ
クロックミラー)521、色分解膜521を挟む2つの
プリズム522,523、プリズム522の射出面52
2bに設けられた赤外線カットフィルタ524、センサ
53の前面側に設けられた可視カットフィルタ525、
プリズム523の射出面523bに設けられた赤外線カ
ットフィルタ526、及びローパスフィルタ527,5
28から構成されている。
The beam splitter 52 includes a color separation film (dich lock mirror) 521, two prisms 522 and 523 sandwiching the color separation film 521, and an exit surface 52 of the prism 522.
2b, an infrared cut filter 524, a visible cut filter 525 provided on the front side of the sensor 53,
The infrared cut filter 526 and the low pass filters 527, 5 provided on the exit surface 523b of the prism 523.
28.

【0034】ズームユニット51から入射した光UC
は、ローパスフィルタ527、プリズム522を通って
色分解膜521に入射する。半導体レーザ41の発振帯
域の光U0は色分解膜521で反射し、プリズム522
の入射面522aで反射した後、射出面522bからセ
ンサ53に向かって射出する。プリズム522から射出
した光U0の内、赤外線カットフィルタ524及び可視
カットフィルタ525を透過した光がセンサ53によっ
て受光される。一方、色分解膜521を透過した光C0
は、プリズム523を通って射出面523bからカラー
センサ54に向かって射出する。プリズム523から射
出した光C0の内、赤外線カットフィルタ526及びロ
ーパスフィルタ528を透過した光がカラーセンサ54
によって受光される。
Light UC incident from the zoom unit 51
Enter the color separation film 521 through the low-pass filter 527 and the prism 522. Light U0 in the oscillation band of the semiconductor laser 41 is reflected by the color separation film 521, and is reflected by the prism 522.
After being reflected by the incident surface 522a of the light emitting element 522, the light is emitted from the emitting surface 522b toward the sensor 53. Of the light U0 emitted from the prism 522, the light that has passed through the infrared cut filter 524 and the visible cut filter 525 is received by the sensor 53. On the other hand, the light C0 transmitted through the color separation film 521
Exits from the exit surface 523b toward the color sensor 54 through the prism 523. Of the light C0 emitted from the prism 523, the light transmitted through the infrared cut filter 526 and the low-pass filter 528 is the color sensor 54.
Is received by the

【0035】図7において、破線で示されるように色分
解膜521は、スリット光の波長(λ:670nm)を
含む比較的に広範囲の波長帯域の光を反射する。つま
り、色分解膜521の波長選択性は、スリット光のみを
選択的にセンサ53に入射させる上で不十分である。し
かし、ビームスプリッタ52では、鎖線で示される特性
の赤外線カットフィルタ524と、実線で示される特性
の可視カットフィルタ525とが設けられているので、
最終的にセンサ53に入射する光は、図7において斜線
で示される狭い範囲の波長の光である。これにより、環
境光の影響の小さい、すなわち光学的SN比が大きい計
測を実現することができる。
In FIG. 7, the color separation film 521 reflects light in a relatively wide wavelength band including the slit light wavelength (λ: 670 nm) as shown by the broken line. That is, the wavelength selectivity of the color separation film 521 is insufficient for selectively allowing only the slit light to enter the sensor 53. However, since the beam splitter 52 is provided with the infrared cut filter 524 having the characteristic indicated by the chain line and the visible cut filter 525 having the characteristic indicated by the solid line,
The light that finally enters the sensor 53 has a narrow range of wavelengths indicated by the diagonal lines in FIG. 7. As a result, measurement with a small influence of ambient light, that is, a large optical SN ratio can be realized.

【0036】一方、カラーセンサ54には、図8に実線
で示される特性の赤外線カットフィルタ528によっ
て、破線で示される特性の色分解膜521を透過した赤
外帯域の光が遮断されるので、可視光のみが入射する。
これにより、モニタ画像の色再現性が高まる。
On the other hand, in the color sensor 54, since the infrared cut filter 528 having the characteristic shown by the solid line in FIG. 8 blocks the light in the infrared band transmitted through the color separation film 521 having the characteristic shown by the broken line, Only visible light is incident.
Thereby, the color reproducibility of the monitor image is improved.

【0037】なお、赤外線カットフィルタ524及び可
視カットフィルタ525の2個のフィルタを用いる代わ
りに、赤外線及び可視光を遮断する特性をもつ1個のフ
ィルタを用いてもよい。赤外線カットフィルタ524及
び可視カットフィルタ525の両方をプリズム522の
側に設けてもよいし、逆に両方のフィルタをセンサ53
の側に設けてもよい。図6の例とは逆に、可視カットフ
ィルタ525をプリズム522の側に設け、赤外線カッ
トフィルタ524をセンサ53の側に設けてもよい。
Instead of using the two filters, the infrared cut filter 524 and the visible cut filter 525, one filter having a characteristic of blocking infrared light and visible light may be used. Both the infrared cut filter 524 and the visible cut filter 525 may be provided on the prism 522 side, or conversely, both filters may be provided on the sensor 53.
May be provided on the side of. Contrary to the example of FIG. 6, the visible cut filter 525 may be provided on the prism 522 side, and the infrared cut filter 524 may be provided on the sensor 53 side.

【0038】次に、光学ユニットOUに備えられた2軸
調整機構について説明する。図9は光学ユニットOUの
2軸調整機構の概略を説明するための斜視図、図10は
図9に示す光学ユニットOUの上側部分を矢印KA方向
から見た正面図、図11は図9に示す光学ユニットOU
の上側部分を矢印KB方向から見た右側面図、図12は
図9に示す光学ユニットOUを矢印KC方向から見た下
面図、図13は光学ユニットOUの2軸調整機構の調整
方法を説明するための図である。
Next, the biaxial adjustment mechanism provided in the optical unit OU will be described. 9 is a perspective view for explaining the outline of the biaxial adjustment mechanism of the optical unit OU, FIG. 10 is a front view of the upper portion of the optical unit OU shown in FIG. 9 as seen from the direction of arrow KA, and FIG. 11 is FIG. Optical unit OU shown
12 is a right side view of the upper part of the optical unit OU as viewed from the direction of arrow KB, FIG. 12 is a bottom view of the optical unit OU shown in FIG. 9 as viewed from the direction of arrow KC, and FIG. FIG.

【0039】図9に示すように、光学ユニットOUは、
投光装置である光学系40と受光装置である光学系50
とが、ブラケット211,212に取り付けられて構成
されている。これら2つのブラケット211,212
は、Y方向軸である第2回転軸AX2を中心に互いに回
転可能に連結されている。光学系40は、ブラケット2
11に対して、Z方向軸である第1回転軸AX1を中心
に回転可能に取り付けられている。光学系50はブラケ
ット212に固定されている。第1回転軸AX1は受光
光学系50の受光軸AX3と平行となるように調整され
る。
As shown in FIG. 9, the optical unit OU is
Optical system 40 which is a light projecting device and optical system 50 which is a light receiving device
And are attached to the brackets 211 and 212. These two brackets 211, 212
Are rotatably connected to each other about a second rotation axis AX2 that is a Y-direction axis. The optical system 40 includes the bracket 2
It is attached to 11 so as to be rotatable about a first rotation axis AX1 which is a Z-direction axis. The optical system 50 is fixed to the bracket 212. The first rotation axis AX1 is adjusted to be parallel to the light receiving axis AX3 of the light receiving optical system 50.

【0040】図10乃至図12に示すように、各ブラケ
ット211,212は、その側面視が略L字形を呈して
おり、それぞれ水平板部211a,212aの外面が互
いに接触した状態で回転可能である。すなわち、水平板
部212aに設けられた穴215にはカラー216が回
転可能に嵌め込まれ、そのカラー216はボルト217
によって水平板部211aに固定されている。ボルト2
17は、頭部にネジ穴が設けられており、図示しない有
底筒状のキャップが頭部に被せられた後、そのキャップ
の中央に設けられた穴を貫通して頭部のネジ穴に螺合す
るボルトによって固定され、これによってボルト217
の頭部が覆われている。なお、ボルト217の頭部には
回転係合用の溝が設けられている。
As shown in FIGS. 10 to 12, each of the brackets 211 and 212 has a substantially L-shape when viewed from the side, and is rotatable while the outer surfaces of the horizontal plate portions 211a and 212a are in contact with each other. is there. That is, the collar 216 is rotatably fitted in the hole 215 provided in the horizontal plate portion 212a, and the collar 216 is fitted with the bolt 217.
It is fixed to the horizontal plate portion 211a by. Bolt 2
No. 17 has a screw hole on the head, and after a cap with a bottomed cylindrical shape (not shown) is put on the head, the screw hole of the head is passed through the hole provided at the center of the cap. It is fixed by means of a screwing bolt, which allows the bolt 217
Is covered. Note that a groove for rotational engagement is provided on the head of the bolt 217.

【0041】水平板部212aの突出端部218に設け
られたネジ穴には、回転角度位置を調整するための調整
ボルト219が螺合している。調整ボルト219の先端
部は、水平板部211aにボルト221により取り付け
られたカラー222の周面に当接する。そのボルト22
1と水平板部212aに取り付けられたボルト223と
の間には引張りバネ224が装着されており、これによ
って、水平板部211a,212aの間において、調整
ボルト219の先端部がカラー222に当接する方向に
互いに付勢されている。したがって、調整ボルト219
を回転させてその軸方向位置を調整することにより、第
2回転軸AX2を中心としてブラケット211とブラケ
ット212との相対的な回転角度位置が調整される。調
整ボルト219の調整後は、調整ボルト219をロック
ナット220で固定するとともに、水平板部212aに
設けられた3つの長穴225を貫通して水平板部211
aのネジ穴に螺合する3つのボルト226を締めること
によって、両水平板部211a,212a間を固定す
る。
An adjusting bolt 219 for adjusting the rotational angle position is screwed into the screw hole provided in the protruding end 218 of the horizontal plate portion 212a. The tip of the adjustment bolt 219 contacts the peripheral surface of the collar 222 attached to the horizontal plate portion 211a by the bolt 221. The bolt 22
1 and a bolt 223 attached to the horizontal plate portion 212a, a tension spring 224 is mounted, whereby the tip of the adjustment bolt 219 contacts the collar 222 between the horizontal plate portions 211a and 212a. They are urged toward each other in a contacting direction. Therefore, the adjustment bolt 219
Is rotated to adjust its axial position, whereby the relative rotation angle position between the bracket 211 and the bracket 212 about the second rotation axis AX2 is adjusted. After the adjustment bolt 219 is adjusted, the adjustment bolt 219 is fixed with the lock nut 220 and the horizontal plate portion 211 is inserted through three long holes 225 provided in the horizontal plate portion 212a.
By tightening the three bolts 226 screwed into the screw holes a, the horizontal plate portions 211a and 212a are fixed.

【0042】光学系40のハウジングの背面部には軸部
材231が取り付けられており、この軸部材231が、
ブラケット211の垂直板部に第1回転軸AX1を中心
に設けられた軸穴232に回転可能に嵌め込まれてい
る。第1回転軸AX1を中心とする光学系40の回転角
度位置を調整した後、光学系40のハウジングに設けら
れた穴を貫通してブラケット211に設けられたネジ穴
に螺合する図示しない複数のボルトを締めることによっ
て、光学系40がブラケット211に固定される。ブラ
ケット212には取付け板213がボルトで固定されて
おり、取付け板213が光学ユニットOUのケーシング
に取り付けられている。
A shaft member 231 is attached to the rear surface of the housing of the optical system 40, and this shaft member 231 is
The vertical plate portion of the bracket 211 is rotatably fitted in a shaft hole 232 provided around the first rotation axis AX1. After adjusting the rotation angle position of the optical system 40 about the first rotation axis AX1, a plurality of holes (not shown) are inserted through the holes provided in the housing of the optical system 40 and screwed into the screw holes provided in the bracket 211. The optical system 40 is fixed to the bracket 211 by tightening the bolts. A mounting plate 213 is fixed to the bracket 212 with bolts, and the mounting plate 213 is mounted on the casing of the optical unit OU.

【0043】なお、投光光学系40における投光の起点
Aと受光光学系50のレンズの主点O(後側主点H’)
とを結ぶ基線AOは、受光軸AX3と垂直である。撮像
面S2は屈折した受光軸AX3に対して垂直である。
It should be noted that the projection start point A in the projection optical system 40 and the principal point O (rear side principal point H ') of the lens of the light receiving optical system 50.
A base line AO connecting with and is perpendicular to the light receiving axis AX3. The imaging surface S2 is perpendicular to the refracted light receiving axis AX3.

【0044】次に、第1回転軸AX1及び第2回転軸A
X2の調整方法について説明する。図13(A)に示す
スクリーンSCRは、受光軸AX3上の前方において受
光軸AX3と垂直に配置されている。まず、投光光学系
40からスクリーンSCR上に投影されたスリット光U
について、スリット光Uを走査したときに、走査の前後
におけるスリット光Uの左右の移動距離AL1,AL2
が互いに同一となるように、第2回転軸AX2を調整す
る。次に、図13(B)に示す撮像面S2上に受光され
るスリット光Uについて、その左右の位置BL1,BL
2が互いに同一となるように、つまりスリット光Uが撮
像面S2のX軸と平行になるように、第1回転軸AX1
を調整する。これらの調整を何回か繰り返す。
Next, the first rotation axis AX1 and the second rotation axis A
A method of adjusting X2 will be described. The screen SCR shown in FIG. 13A is disposed in front of the light receiving axis AX3 and perpendicular to the light receiving axis AX3. First, the slit light U projected from the light projecting optical system 40 on the screen SCR
, When the slit light U is scanned, the left and right moving distances AL1 and AL2 of the slit light U before and after the scanning.
The second rotation axis AX2 is adjusted so that the two are the same. Next, with respect to the slit light U received on the imaging surface S2 shown in FIG.
2 are the same as each other, that is, the slit light U is parallel to the X axis of the imaging surface S2, the first rotation axis AX1.
To adjust. Repeat these adjustments several times.

【0045】これらの調整によって、第1回転軸AX1
が受光軸AX3と平行となり、スリット光Uの走査方向
(偏向方向)が第2回転軸AX2の方向と一致する。し
たがって、光学系40と光学系50との位置関係の誤差
がなくなり、その補正を行わなくても精度のよい計測を
行うことができる。また、より良い精度を得るために補
正を行う場合でも、ズームユニット51においてズーミ
ングを行ってもその補正値を変更する必要がない。した
がって、補正のための演算処理が不要又は最小限でよ
く、その処理時間が極めて短くなる。
By these adjustments, the first rotation axis AX1
Are parallel to the light receiving axis AX3, and the scanning direction (deflection direction) of the slit light U matches the direction of the second rotation axis AX2. Therefore, there is no error in the positional relationship between the optical system 40 and the optical system 50, and accurate measurement can be performed without correction. Further, even when performing correction to obtain better accuracy, it is not necessary to change the correction value even if zooming is performed in the zoom unit 51. Therefore, the calculation process for correction may be unnecessary or minimized, and the processing time becomes extremely short.

【0046】図14は計測システム1における3次元位
置の算出の原理図である。同図では理解を容易にするた
め、図20及び図21と対応する要素には同一の符号を
付してある。
FIG. 14 is a principle diagram of calculation of a three-dimensional position in the measurement system 1. In the same figure, the elements corresponding to those in FIGS. 20 and 21 are denoted by the same reference numerals for easy understanding.

【0047】センサ53の撮像面S2上で複数画素分と
なる比較的に幅の広いスリット光Uを物体Qに照射す
る。具体的にはスリット光Uの幅を5画素分とする。ス
リット光Uは、サンプリング周期毎に撮像面S2上で1
画素ピッチpvだけ移動するように、図14の上から下
に向かって偏向され、それによって物体Qが走査され
る。サンプリング周期毎にセンサ53から1フレーム分
の光電変換情報が出力される。
The object Q is irradiated with a relatively wide slit light U for a plurality of pixels on the imaging surface S2 of the sensor 53. Specifically, the width of the slit light U is set to 5 pixels. The slit light U is generated on the imaging surface S2 by one every sampling cycle.
It is deflected from the top to the bottom of FIG. 14 so that it moves by the pixel pitch pv, so that the object Q is scanned. The photoelectric conversion information for one frame is output from the sensor 53 for each sampling cycle.

【0048】撮像面S2の1つの画素gに注目すると、
走査中に行うN回のサンプリングの内の5回のサンプリ
ングにおいて有効な受光データが得られる。これら5回
分の受光データに対する補間演算によって注目画素gが
にらむ範囲の物体表面agをスリット光Uの光軸が通過
するタイミング(時間重心Npeak:注目画素gの受
光量が最大となる時刻)を求める。図14(b)の例で
は、n回目とその1つ前の(n−1)回目の間のタイミ
ングで受光量が最大である。求めたタイミングにおける
スリット光の照射方向と、注目画素に対するスリット光
の入射方向との関係に基づいて、物体Qの位置(座標)
を算出する。これにより、撮像面の画素ピッチpvで規
定される分解能より高い分解能の計測が可能となる。
Focusing on one pixel g on the imaging surface S2,
Effective light reception data can be obtained in 5 out of N samplings performed during scanning. The timing at which the optical axis of the slit light U passes through the object surface ag in the range in which the pixel of interest g gazes (time centroid Npeak: the time at which the amount of light received by the pixel of interest g becomes maximum) is obtained by interpolation calculation on these five times of received light data. . In the example of FIG. 14B, the amount of received light is maximum between the n-th time and the (n-1) -th time before the n-th time. The position (coordinates) of the object Q based on the relationship between the irradiation direction of the slit light at the determined timing and the incident direction of the slit light with respect to the pixel of interest.
Is calculated. This enables measurement with a higher resolution than the resolution defined by the pixel pitch pv of the imaging surface.

【0049】注目画素gの受光量は物体Qの反射率に依
存する。しかし、5回のサンプリングの各受光量の相対
比は受光の絶対量に係わらず一定である。つまり、物体
色の濃淡は計測精度に影響しない。
The amount of light received by the target pixel g depends on the reflectance of the object Q. However, the relative ratio of each received light amount of the five samplings is constant regardless of the absolute amount of received light. That is, the shading of the object color does not affect the measurement accuracy.

【0050】本実施形態の計測システム1では、3次元
カメラ2がセンサ53の画素g毎に5回分の受光データ
を計測データとしてホスト3に出力し、ホスト3が計測
データに基づいて物体Qの座標を算出する。3次元カメ
ラ2の出力処理回路62(図3参照)は、各画素gに対
応した計測データの生成を担う。
In the measurement system 1 of this embodiment, the three-dimensional camera 2 outputs the received light data for five times for each pixel g of the sensor 53 to the host 3 as measurement data, and the host 3 detects the object Q based on the measurement data. Calculate the coordinates. The output processing circuit 62 (see FIG. 3) of the three-dimensional camera 2 is responsible for generating measurement data corresponding to each pixel g.

【0051】図15は出力処理回路62のブロック図、
図16はセンサ53の読出し範囲を示す図である。出力
処理回路62は、センサ53の出力する各画素gの光電
変換信号を8ビットの受光データに変換するAD変換部
620、直列接続された4つのフレームディレイメモリ
621〜624、有効な5回分の受光データを記憶する
ための5つのメモリバンク625A〜E、受光データが
最大となるフレーム番号(サンプリング番号)FNを記
憶するためのメモリバンク625F、コンパレータ62
6、フレーム番号FNを指し示すジェネレータ627、
及びメモリバンク625A〜Fのアドレス指定などを行
う図示しないメモリ制御手段から構成されている。各メ
モリバンク625A〜Eは、計測のサンプリング点数
(つまり、センサ53の有効画素数)と同数の受光デー
タを記憶可能な容量をもつ。
FIG. 15 is a block diagram of the output processing circuit 62,
FIG. 16 is a diagram showing a read range of the sensor 53. The output processing circuit 62 includes an AD conversion unit 620 that converts the photoelectric conversion signal of each pixel g output from the sensor 53 into 8-bit received light data, four frame delay memories 621 to 624 connected in series, and effective five times. Five memory banks 625A to 625E for storing received light data, a memory bank 625F for storing a frame number (sampling number) FN that maximizes received light data, and a comparator 62
6, a generator 627 pointing to the frame number FN,
And a memory control unit (not shown) for addressing the memory banks 625A-F. Each of the memory banks 625A to 625E has a capacity capable of storing the same number of received light data as the number of measurement sampling points (that is, the number of effective pixels of the sensor 53).

【0052】4つのフレームディレイメモリ621〜6
24でデータ遅延を行うことにより、個々の画素gにつ
いて5フレーム分の受光データを同時にメモリバンク6
25A〜Eに格納することが可能になっている。なお、
センサ53における1フレームの読出しは、撮像面S2
の全体ではなく、高速化を図るために図16のように撮
像面S2の一部の有効受光領域(帯状画像)Aeのみを
対象に行われる。有効受光領域Aeはスリット光Uの偏
向に伴ってフレーム毎に1画素分だけシフトする。本実
施形態では、有効受光領域Aeのシフト方向の画素数は
32に固定されている。CCDエリアセンサの撮影像の
一部のみを読み出す手法は、特開平7−174536号
公報に開示されている。
Four frame delay memories 621 to 6
By delaying the data at 24, the received light data of 5 frames for each pixel g is simultaneously stored in the memory bank 6.
25A to 25E can be stored. In addition,
The reading of one frame by the sensor 53 is performed by the imaging surface S2.
In order to increase the speed, not only the whole of the above, but only the effective light-receiving area (belt-shaped image) Ae of a part of the imaging surface S2 as shown in FIG. The effective light receiving area Ae is shifted by one pixel for each frame as the slit light U is deflected. In the present embodiment, the number of pixels of the effective light receiving area Ae in the shift direction is fixed to 32. A method of reading out only a part of the captured image of the CCD area sensor is disclosed in Japanese Patent Application Laid-Open No. 7-174536.

【0053】AD変換部620は、1フレーム毎に32
ライン分の受光データD620を画素gの配列順にシリ
アルに出力する。各フレームディレイメモリ621〜6
24は、31(=32−1)ライン分の容量をもつFI
FOである。
The AD converter 620 sets 32 for each frame.
The received light data D620 for a line is serially output in the arrangement order of the pixels g. Each frame delay memory 621-6
24 is an FI having a capacity of 31 (= 32-1) lines
It is FO.

【0054】AD変換部620から出力された注目画素
gの受光データD620は、2フレーム分だけ遅延され
た時点で、コンパレータ626によって、メモリバンク
625Cが記憶する注目画素gについての過去の受光デ
ータD620の最大値と比較される。遅延された受光デ
ータD620(フレームディレイメモリ622の出力)
が過去の最大値より大きい場合に、その時点のAD変換
部620の出力及び各フレームディレイメモリ621〜
624の出力が、メモリバンク625A〜Eにそれぞれ
格納され、メモリバンク625A〜Eの記憶内容が書換
えられる。これと同時にメモリバンク625Fには、メ
モリバンク625Cに格納する受光データD620に対
応したフレーム番号FNが格納される。
The light reception data D620 of the target pixel g output from the AD conversion unit 620 is delayed by two frames, and the past light reception data D620 for the target pixel g stored in the memory bank 625C is stored by the comparator 626. Is compared to the maximum value of. Delayed received light data D620 (output of frame delay memory 622)
Is larger than the maximum value in the past, the output of the AD converter 620 at that time and each frame delay memory 621 to
The outputs of 624 are stored in the memory banks 625A-E, respectively, and the stored contents of the memory banks 625A-E are rewritten. At the same time, the frame number FN corresponding to the received light data D620 stored in the memory bank 625C is stored in the memory bank 625F.

【0055】すなわち、n番目(n<N)のフレームで
注目画素gの受光量が最大になった場合には、メモリバ
ンク625Aに(n+2)番目のフレームのデータが格
納され、メモリバンク625Bに(n+1)番目のフレ
ームのデータが格納され、メモリバンク625Cにn番
目のフレームのデータが格納され、メモリバンク625
Dに(n−1)番目のフレームのデータが格納され、メ
モリバンク625Eに(n−2)番目のフレームのデー
タが格納され、メモリバンク625Fにnが格納され
る。
That is, when the amount of light received by the target pixel g is maximized in the nth (n <N) frame, the data of the (n + 2) th frame is stored in the memory bank 625A and the memory bank 625B is stored. The data of the (n + 1) th frame is stored, and the data of the nth frame is stored in the memory bank 625C.
Data of the (n-1) th frame is stored in D, data of the (n-2) th frame is stored in the memory bank 625E, and n is stored in the memory bank 625F.

【0056】次に、3次元カメラ2及びホスト3の動作
を計測の手順と合わせて説明する。以下では、計測のサ
ンプリング点数を200×231とする。すなわち、撮
像面S2におけるスリット長さ方向の画素数は231で
あり、実質的なフレーム数Nも200である。
Next, the operations of the three-dimensional camera 2 and the host 3 will be described together with the measurement procedure. Below, the number of sampling points for measurement is set to 200 × 231. That is, the number of pixels in the slit length direction on the imaging surface S2 is 231 and the substantial number of frames N is 200.

【0057】ユーザー(撮影者)は、LCD21が表示
するカラーモニタ像を見ながら、カメラ位置と向きとを
決め、画角を設定する。その際、必要に応じてズーミン
グ操作を行う。3次元カメラ2ではカラーセンサ54に
対する絞り調整は行われず、電子シャッタ機能により露
出制御されたカラーモニタ像が表示される。これは、絞
りを開放状態とすることによってセンサ53の入射光量
をできるだけ多くするためである。
The user (photographer) determines the camera position and direction and sets the angle of view while looking at the color monitor image displayed on the LCD 21. At that time, zooming operation is performed as necessary. The three-dimensional camera 2 does not adjust the aperture of the color sensor 54, and displays a color monitor image whose exposure is controlled by the electronic shutter function. This is because the amount of light incident on the sensor 53 is increased as much as possible by opening the diaphragm.

【0058】図17は3次元カメラ2におけるデータの
流れを示す図、図18はホスト3におけるデータの流れ
を示す図、図19は光学系の各点と物体Qとの関係を示
す図である。
FIG. 17 is a diagram showing the data flow in the three-dimensional camera 2, FIG. 18 is a diagram showing the data flow in the host 3, and FIG. 19 is a diagram showing the relationship between each point of the optical system and the object Q. .

【0059】ユーザーによる画角選択操作(ズーミン
グ)に応じて、ズームユニット51のバリエータ部51
4の移動が行われる。また、フォーカシング部512の
移動による手動又は自動のフォーカシングが行われる。
フォーカシングの過程でおおよその対物間距離d0 が測
定される。
The variator section 51 of the zoom unit 51 is operated in response to a user's operation of selecting a field angle (zooming).
4 moves are made. Further, manual or automatic focusing is performed by moving the focusing unit 512.
An approximate object distance d 0 is measured during the focusing process.

【0060】このような受光系のレンズ駆動に呼応し
て、投光側のバリエータレンズ422の移動量が図示し
ない演算回路によって算出され、算出結果に基づいてバ
リエータレンズ422の移動制御が行われる。
In response to such lens driving of the light receiving system, the moving amount of the variator lens 422 on the light projecting side is calculated by an arithmetic circuit (not shown), and the movement control of the variator lens 422 is performed based on the calculated result.

【0061】システムコントローラ61は、レンズコン
トローラ58を介して、フォーカシングエンコーダ59
Aの出力(繰り出し量Ed)及びズーミングエンコーダ
60Aの出力(ズーム刻み値fp)を読み込む。システ
ムコントローラ61の内部において、歪曲収差テーブル
T1、主点位置テーブルT2、及び像距離テーブルT3
が参照され、繰り出し量Ed及びズーム刻み値fpに対
応した撮影条件データがホスト2へ出力される。ここで
の撮影条件データは、歪曲収差パラメータ(レンズ歪み
補正係数d1,d2)、前側主点位置FH、及び像距離
bである。前側主点位置FHは、ズームユニット51の
前側端点Fと前側主点Hとの距離で表される。前側端点
Fは固定であるので、前側主点位置FHにより前側主点
Hを特定することができる。
The system controller 61 receives the focusing encoder 59 via the lens controller 58.
The output of A (extending amount Ed) and the output of the zooming encoder 60A (zoom increment value fp) are read. Inside the system controller 61, the distortion aberration table T1, the principal point position table T2, and the image distance table T3.
Is referred to, and shooting condition data corresponding to the extension amount Ed and the zoom step value fp is output to the host 2. The shooting condition data here is a distortion aberration parameter (lens distortion correction coefficients d1, d2), a front principal point position FH, and an image distance b. The front principal point position FH is represented by the distance between the front end point F of the zoom unit 51 and the front principal point H. Since the front end point F is fixed, the front main point H can be specified by the front main point position FH.

【0062】システムコントローラ61は、半導体レー
ザ41の出力(レーザ強度)及びスリット光Uの偏向条
件(走査開始角、走査終了角、偏向角速度)を算定す
る。この算定方法を詳しく説明する。まず、おおよその
対物間距離d0 に平面物体が存在するものとして、セン
サ53の中央で反射光を受光するように投射角設定を行
う。以下で説明するレーザ強度の算定のためのパルス点
灯は、この設定された投射角で行う。
The system controller 61 calculates the output (laser intensity) of the semiconductor laser 41 and the deflection conditions (scan start angle, scan end angle, deflection angular velocity) of the slit light U. This calculation method will be described in detail. First, assuming that a plane object exists at an approximate object distance d 0 , the projection angle is set so that the reflected light is received at the center of the sensor 53. The pulse lighting for calculating the laser intensity described below is performed at this set projection angle.

【0063】次にレーザ強度を算定する。レーザ強度の
算定に際しては、人体を計測する場合があるので、安全
性に対する配慮が不可欠である。まず、最小強度LDm
inでパルス点灯し、センサ53の出力を取り込む。取
り込んだ信号〔Son(LDmin)〕と適正レベルS
typとの比を算出し、仮のレーザ強度LD1を設定す
る。
Next, the laser intensity is calculated. Since the human body may be measured when calculating the laser intensity, it is essential to consider safety. First, the minimum strength LDm
The pulse light is turned on at in, and the output of the sensor 53 is captured. Captured signal [Son (LDmin)] and appropriate level S
The ratio with typ is calculated, and the temporary laser intensity LD1 is set.

【0064】LD1=LDmin×Styp/MAX
〔Son(LDmin)〕 続いてレーザ強度LD1で再びパルス点灯し、センサ5
3の出力を取り込む。取り込んだ信号〔Son(LD
1)〕が適正レベルStyp又はそれに近い値であれ
ば、LD1をレーザ強度LDsと決める。他の場合に
は、レーザ強度LD1とMAX〔Son(LD1)〕と
を用いて仮のレーザ強度LD1を設定し、センサ53の
出力と適正レベルStypとを比較する。センサ53の
出力が許容範囲内の値となるまで、レーザ強度の仮設定
と適否の確認とを繰り返す。なお、センサ53の出力の
取り込みは、撮像面S2の全面を対象に行う。これは、
AFによる受動的な距離算出では、スリット光Uの受光
位置を高精度に推定することが難しいためである。セン
サ53におけるCCDの積分時間は1フィールド時間
(例えば1/60秒)であり、実際の計測時における積
分時間より長い。このため、パルス点灯を行うことによ
り、計測時と等価なセンサ出力を得る。
LD1 = LDmin × Styp / MAX
[Son (LDmin)] Subsequently, the laser light intensity LD1 is turned on again for a pulse, and the sensor 5
Capture the output of 3. Captured signal [Son (LD
1)] is an appropriate level Styp or a value close thereto, LD1 is determined as the laser intensity LDs. In other cases, the laser intensity LD1 and MAX [Son (LD1)] are used to set the temporary laser intensity LD1 and the output of the sensor 53 is compared with the appropriate level Styp. The temporary setting of the laser intensity and the confirmation of suitability are repeated until the output of the sensor 53 becomes a value within the allowable range. Note that the output of the sensor 53 is captured for the entire image pickup surface S2. this is,
This is because it is difficult to accurately estimate the light receiving position of the slit light U in the passive distance calculation by AF. The integration time of the CCD in the sensor 53 is one field time (for example, 1/60 seconds), which is longer than the integration time in actual measurement. Therefore, by performing pulse lighting, a sensor output equivalent to that at the time of measurement is obtained.

【0065】次に、投射角と、レーザ強度が決定したと
きのスリット光Uの受光位置から、三角測量により対物
間距離dを決定する。最後に、決定された対物間距離d
に基づいて、偏向条件を算出する。偏向条件の算定に際
しては、対物間距離dの測距基準点である受光系の後側
主点H’と投光の起点AとのZ方向(図21参照)のオ
フセットdoffを考慮する。また、走査方向の端部に
おいても中央部と同様の計測可能距離範囲d’を確保す
るため、所定量(例えば8画素分)のオーバースキャン
を行うようにする。走査開始角th1、走査終了角th
2、偏向角速度ωは、次式で表される。
Next, the distance d between the objectives is determined by triangulation from the projection angle and the light receiving position of the slit light U when the laser intensity is determined. Finally, the determined objective distance d
The deflection condition is calculated based on When calculating the deflection condition, an offset doff in the Z direction (see FIG. 21) between the rear principal point H ′ of the light receiving system, which is the distance measurement reference point of the object distance d, and the projection origin point A is considered. In addition, in order to secure the same measurable distance range d ′ at the ends in the scanning direction as well, a predetermined amount (for example, 8 pixels) of overscan is performed. Scan start angle th1, scan end angle th
2. The deflection angular velocity ω is expressed by the following equation.

【0066】th1=tan-1〔β×pv(np/2+
8)+L)/(d+doff)〕×180/π th2=tan-1〔−β×pv(np/2+8)+L)
/(d+doff)〕×180/π ω=(th1−th2)/np β:撮像倍率(=d/実効焦点距離freal) pv:画素ピッチ np:撮像面S2のY方向の有効画素数 L:基線長 このようにして算出された条件で次に本発光に移り、物
体Qの走査(スリット投影)が行われ、上述の出力処理
回路52によって得られた1画素当たり5フレーム分の
計測データ(スリット画像データ)D62がホスト2へ
送られる。同時に、偏向条件(偏向制御データ)及びセ
ンサ53の仕様などを示す装置情報D10も、ホスト3
へ送られる。表1は3次元カメラ2がホスト3へ送る主
なデータをまとめたものである。
Th1 = tan -1 [β × pv (np / 2 +
8) + L) / (d + doff)] × 180 / π th2 = tan −1 [−β × pv (np / 2 + 8) + L)
/ (D + doff)] × 180 / π ω = (th1-th2) / np β: Imaging magnification (= d / effective focal length freal) pv: Pixel pitch np: Number of effective pixels in Y direction on imaging surface S2 L: Base line Length Under the conditions calculated in this way, the main light emission is next performed, the object Q is scanned (slit projection), and the measurement data (slits) for 5 frames per pixel obtained by the output processing circuit 52 is obtained. The image data) D62 is sent to the host 2. At the same time, the device information D10 indicating the deflection conditions (deflection control data) and the specifications of the sensor 53 is also stored in the host 3
Sent to Table 1 summarizes main data that the three-dimensional camera 2 sends to the host 3.

【0067】[0067]

【表1】 [Table 1]

【0068】図18のように、ホスト3においては、ス
リット重心演算#31、歪曲収差の補正演算#32、カ
メラ視線方程式の演算#33、スリット面方程式の演算
#34、及び3次元位置演算#35が実行され、それに
よって200×231個のサンプリング点の3次元位置
(座標X,Y,Z)が算定される。サンプリング点はカ
メラ視線(サンプリング点と後側主点H’とを結ぶ直
線)とスリット面(サンプリング点を照射するスリット
光Uの光軸面)との交点である。
As shown in FIG. 18, in the host 3, the slit barycenter calculation # 31, the distortion aberration correction calculation # 32, the camera line-of-sight equation calculation # 33, the slit surface equation calculation # 34, and the three-dimensional position calculation #. 35 is executed, whereby the three-dimensional positions (coordinates X, Y, Z) of 200 × 231 sampling points are calculated. The sampling point is the intersection of the camera line of sight (the straight line connecting the sampling point and the rear principal point H ′) and the slit surface (the optical axis surface of the slit light U illuminating the sampling point).

【0069】スリット光Uの時間重心Npeak(図1
4参照)は、各サンプリング時の受光データD(i)を
用いて(3)式で与えられる。 Npeak=n+Δn …(3) Δn=〔−2×D(n−2)−D(n−1)+D(n+
1)+2×D(n+2)〕/ΣD(i) (i=n−2,n−1,n,n+1,n+2) 又は Δn=[−2×〔D〔n−2)−minD(i)〕−
〔D(n−1)−minD(i)〕+〔D(n+1)−
minD(i)〕+2×〔D(n+2)−minD
(i)〕]/ΣD(i) 5つの受光データの内の最小のデータminD(i)を
差し引いて加重平均を求めることにより、環境光の影響
を軽減することができる。
The time center Npeak of the slit light U (FIG. 1)
4) is given by equation (3) using the received light data D (i) at each sampling. Npeak = n + Δn (3) Δn = [− 2 × D (n−2) −D (n−1) + D (n +)
1) + 2 × D (n + 2)] / ΣD (i) (i = n−2, n−1, n, n + 1, n + 2) or Δn = [− 2 × [D [n−2) −minD (i) ] −
[D (n-1) -minD (i)] + [D (n + 1)-
minD (i)] + 2 × [D (n + 2) -minD
(I)]] / ΣD (i) The influence of ambient light can be reduced by subtracting the minimum data minD (i) of the five received light data to obtain the weighted average.

【0070】カメラ視線方程式は(4)式及び(5)式
である。 (u−u0)=(xp)=(b/pu)×〔X/(Z−FH)〕 …(4) (v−v0)=(yp)=(b/pv)×〔Y/(Z−FH)〕 …(5) b:像距離 FH:前側主点位置 pu:撮像面における水平方向の画素ピッチ pv:撮像面における垂直方向の画素ピッチ u:撮像面における水平方向の画素位置 u0:撮像面における水平方向の中心画素位置 v:撮像面における垂直方向の画素位置 v0:撮像面における垂直方向の中心画素位置 スリット面方程式は(6)式である。
The camera line-of-sight equations are equations (4) and (5). (U-u0) = (xp) = (b / pu) × [X / (Z-FH)] (4) (v−v0) = (yp) = (b / pv) × [Y / (Z -FH)] (5) b: Image distance FH: Front principal point position pu: Horizontal pixel pitch on the imaging surface pv: Vertical pixel pitch on the imaging surface u: Horizontal pixel position on the imaging surface u0: Center pixel position in the horizontal direction on the imaging surface v: Pixel position in the vertical direction on the imaging surface v0: Center pixel position in the vertical direction on the imaging surface The slit plane equation is given by equation (6).

【0071】[0071]

【数1】 (Equation 1)

【0072】幾何収差は画角に依存する。歪はほぼ中心
画素を中心として対象に生じる。したがって、歪み量は
中心画素からの距離の関数で表される。ここでは、距離
の3次関数で近似する。2次の補正係数をd1、3次の
補正係数をd2とする。補正後の画素位置u’,v’は
(7)式及び(8)式で与えられる。
The geometric aberration depends on the angle of view. Distortion occurs in the target substantially at the center pixel. Therefore, the amount of distortion is represented by a function of the distance from the center pixel. Here, the distance is approximated by a cubic function. The secondary correction coefficient is d1, and the tertiary correction coefficient is d2. The corrected pixel positions u ′ and v ′ are given by equations (7) and (8).

【0073】 u’=u+d1×t22 ×(u−u0)/t2 +d2×t23 ×(u−u0)/t2 …(7) v’=v+d1×t22 ×(v−v0)/t2 +d2×t23 ×(v−v0)/t2 …(8) t2=(t1)-2 t1=(u−u0)2 +(v−v0)2 上述の(4)式及び(5)式において、uに代えてu’
を代入し、vに代えてv’を代入することにより、歪曲
収差を考慮した3次元位置を求めることができる。な
お、キャリブレーションについては、電子情報通信学会
研究会資料PRU91-113[カメラの位置決めのいらない
画像の幾何学的補正]小野寺・金谷、電子情報通信学会
論文誌D-II vol. J74-D-II No.9 pp.1227-1235,'91/9
[光学系の3次元モデルに基づくレンジファインダの高
精度キャリブレーション法]植芝・吉見・大島、などに
詳しい開示がある。
U ′ = u + d1 × t2 2 × (u−u0) / t2 + d2 × t2 3 × (u−u0) / t2 (7) v ′ = v + d1 × t2 2 × (v−v0) / t2 + d2 × t2 3 × (v−v0) / t2 (8) t2 = (t1) −2 t1 = (u−u0) 2 + (v−v0) 2 In the above formulas (4) and (5), u'instead of u
And substituting v ′ for v, a three-dimensional position taking distortion into account can be obtained. Regarding calibration, the Institute of Electronics, Information and Communication Engineers Study Group material PRU91-113 [Geometric correction of images without camera positioning] Onodera / Kanaya, IEICE Transactions D-II vol. J74-D-II No.9 pp.1227-1235, '91 / 9
[High-precision calibration method of range finder based on three-dimensional model of optical system] Ueshiba, Yoshimi, Oshima, etc. have detailed disclosure.

【0074】上述の実施形態は、計測データD62に基
づいて3次元位置を算出する演算をホスト3が担うもの
であるが、3次元カメラ2に3次元位置を算出する演算
機能を設けてもよい。3次元位置をルックアップテーブ
ル方式で算定することも可能である。受光側の光学系5
0において、ズームユニット51に代えて交換レンズに
よって撮像倍率を変更してもよい。
In the above embodiment, the host 3 carries out the calculation for calculating the three-dimensional position based on the measurement data D62, but the three-dimensional camera 2 may be provided with a calculation function for calculating the three-dimensional position. . It is also possible to calculate the three-dimensional position by a look-up table method. Optical system 5 on the light receiving side
In 0, the imaging magnification may be changed by an interchangeable lens instead of the zoom unit 51.

【0075】[0075]

【発明の効果】請求項1の発明によれば、投光装置と受
光装置との間の位置関係の誤差をなくすことが可能とな
り、ズームレンズを装備した3次元入力カメラによって
少ない誤差で正確に計測することができる。
According to the first aspect of the present invention, it is possible to eliminate an error in the positional relationship between the light projecting device and the light receiving device, and a three-dimensional input camera equipped with a zoom lens can accurately perform with a small error. It can be measured.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る計測システムの構成図である。FIG. 1 is a configuration diagram of a measurement system according to the present invention.

【図2】3次元カメラの外観を示す図である。FIG. 2 is a diagram showing an appearance of a three-dimensional camera.

【図3】3次元カメラの機能構成を示すブロック図であ
る。
FIG. 3 is a block diagram showing a functional configuration of a three-dimensional camera.

【図4】投光レンズ系の構成を示す模式図である。FIG. 4 is a schematic diagram showing a configuration of a light projecting lens system.

【図5】受光のためのズームユニットの模式図である。FIG. 5 is a schematic diagram of a zoom unit for receiving light.

【図6】ビームスプリッタの模式図である。FIG. 6 is a schematic diagram of a beam splitter.

【図7】計測用のセンサの受光波長を示すグラフであ
る。
FIG. 7 is a graph showing a light receiving wavelength of a sensor for measurement.

【図8】モニタ用のカラーセンサの受光波長を示すグラ
フである。
FIG. 8 is a graph showing a light receiving wavelength of a monitor color sensor.

【図9】光学ユニットの2軸調整機構の概略を説明する
ための斜視図である。
FIG. 9 is a perspective view schematically illustrating a two-axis adjustment mechanism of the optical unit.

【図10】図9に示す光学ユニットの上側部分を矢印K
A方向から見た正面図である。
FIG. 10 shows an arrow K on the upper portion of the optical unit shown in FIG.
It is the front view seen from the A direction.

【図11】図9に示す光学ユニットの上側部分を矢印K
B方向から見た右側面図である。
FIG. 11 shows an arrow K on the upper side of the optical unit shown in FIG.
It is a right side view seen from the B direction.

【図12】図9に示す光学ユニットを矢印KC方向から
見た下面図である。
12 is a bottom view of the optical unit shown in FIG. 9 as seen from the direction of arrow KC.

【図13】光学ユニットの2軸調整機構の調整方法を説
明するための図である。
FIG. 13 is a diagram for explaining a method of adjusting a two-axis adjustment mechanism of the optical unit.

【図14】計測システムにおける3次元位置の算出の原
理図である。
FIG. 14 is a principle diagram of calculation of a three-dimensional position in the measurement system.

【図15】出力処理回路のブロック図である。FIG. 15 is a block diagram of an output processing circuit.

【図16】センサの読出し範囲を示す図である。FIG. 16 is a diagram showing a reading range of a sensor.

【図17】3次元カメラにおけるデータの流れを示す図
である。
FIG. 17 is a diagram showing a data flow in a three-dimensional camera.

【図18】ホストにおけるデータの流れを示す図であ
る。
FIG. 18 is a diagram showing a data flow in a host.

【図19】光学系の各点と物体との関係を示す図であ
る。
FIG. 19 is a diagram showing a relationship between each point of the optical system and an object.

【図20】スリット光投影法の概要を示す図である。FIG. 20 is a diagram showing an outline of a slit light projection method.

【図21】スリット光投影法による計測の原理を説明す
るための図である。
FIG. 21 is a diagram for explaining the principle of measurement by the slit light projection method.

【符号の説明】[Explanation of symbols]

2 3次元カメラ(3次元入力カメラ) 40 光学系(投光装置) 50 光学系(受光装置) AX1 第1回転軸 AX2 第2回転軸 U スリット光(検出光) Q 物体 2 3D camera (3D input camera) 40 Optical system (projector) 50 Optical system (photoreceiver) AX1 1st rotation axis AX2 2nd rotation axis U Slit light (detection light) Q Object

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 7/00 G06F 15/62 415 1/00 15/64 M ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 7/00 G06F 15/62 415 1/00 15/64 M

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】検出光を照射して物体を光学的に走査する
ための投光装置と、前記投光装置とは所定の間隔をおい
て設けられ前記物体で反射した前記検出光を受光する受
光装置とを有してなる3次元入力カメラであって、 前記投光装置と受光装置とが、前記受光装置の光軸に沿
う方向の第1回転軸、及び前記投光装置と受光装置とを
結ぶ線に沿う方向であり且つ前記第1回転軸に垂直な方
向の第2回転軸をそれぞれ中心として、互いに相対的に
回転調整が可能に取り付けられてなる、 ことを特徴とする3次元入力カメラ。
1. A light projecting device for irradiating detection light to optically scan an object, and a light projecting device provided at a predetermined interval to receive the detection light reflected by the object. A three-dimensional input camera including a light receiving device, wherein the light projecting device and the light receiving device include a first rotation axis in a direction along an optical axis of the light receiving device, and the light projecting device and the light receiving device. A three-dimensional input, characterized in that the rotation is adjustable relative to each other about a second rotation axis that is in a direction along a line connecting the two and that is perpendicular to the first rotation axis. camera.
JP29992295A 1995-11-17 1995-11-17 3D input camera Expired - Lifetime JP3324367B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP29992295A JP3324367B2 (en) 1995-11-17 1995-11-17 3D input camera
US08/748,325 US6141105A (en) 1995-11-17 1996-11-13 Three-dimensional measuring device and three-dimensional measuring method
US09/676,767 US6529280B1 (en) 1995-11-17 2000-10-02 Three-dimensional measuring device and three-dimensional measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29992295A JP3324367B2 (en) 1995-11-17 1995-11-17 3D input camera

Publications (2)

Publication Number Publication Date
JPH09145320A true JPH09145320A (en) 1997-06-06
JP3324367B2 JP3324367B2 (en) 2002-09-17

Family

ID=17878554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29992295A Expired - Lifetime JP3324367B2 (en) 1995-11-17 1995-11-17 3D input camera

Country Status (1)

Country Link
JP (1) JP3324367B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6421114B1 (en) 1999-03-30 2002-07-16 Minolta Co., Ltd. Three-dimensional information measuring apparatus
JP2004309318A (en) * 2003-04-07 2004-11-04 Honda Motor Co Ltd Position detection method, its device and its program, and calibration information creation method
JP2012078098A (en) * 2010-09-30 2012-04-19 Pulstec Industrial Co Ltd Three-dimensional shape measuring apparatus
JP2013092456A (en) * 2011-10-26 2013-05-16 Topcon Corp Image measuring device
WO2013118312A1 (en) * 2012-02-10 2013-08-15 三菱重工業株式会社 Geometry-measurement device
JP2015517100A (en) * 2012-03-30 2015-06-18 ニコン メトロロジー エン ヴェー Improved optical scanning probe

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6421114B1 (en) 1999-03-30 2002-07-16 Minolta Co., Ltd. Three-dimensional information measuring apparatus
JP2004309318A (en) * 2003-04-07 2004-11-04 Honda Motor Co Ltd Position detection method, its device and its program, and calibration information creation method
JP2012078098A (en) * 2010-09-30 2012-04-19 Pulstec Industrial Co Ltd Three-dimensional shape measuring apparatus
JP2013092456A (en) * 2011-10-26 2013-05-16 Topcon Corp Image measuring device
WO2013118312A1 (en) * 2012-02-10 2013-08-15 三菱重工業株式会社 Geometry-measurement device
JP2015517100A (en) * 2012-03-30 2015-06-18 ニコン メトロロジー エン ヴェー Improved optical scanning probe
US9696146B2 (en) 2012-03-30 2017-07-04 Nikon Metrology Nv Optical scanning probe

Also Published As

Publication number Publication date
JP3324367B2 (en) 2002-09-17

Similar Documents

Publication Publication Date Title
US6141105A (en) Three-dimensional measuring device and three-dimensional measuring method
JP4032603B2 (en) 3D measuring device
JP4111166B2 (en) 3D shape input device
JP2000002518A (en) Three dimensional input device
US6172755B1 (en) Three dimensional measurement system and pickup apparatus
US6424422B1 (en) Three-dimensional input device
US6556307B1 (en) Method and apparatus for inputting three-dimensional data
JP3493403B2 (en) 3D measuring device
JPH102712A (en) Three-dimensional measuring device
JP3235485B2 (en) Spectroscopic device for three-dimensional measurement
JPH10124646A (en) Three-dimensional measuring device
US6421114B1 (en) Three-dimensional information measuring apparatus
JP3324367B2 (en) 3D input camera
JP3360505B2 (en) Three-dimensional measuring method and device
JP2000304508A (en) Three-dimensional input device
US6297881B1 (en) Three-dimensional measurement method and three-dimensional measurement device
JPH085344A (en) Three-dimensional shape input device
JP3733625B2 (en) Imaging device for 3D measurement
JP3196614B2 (en) 3D measuring device
JP3740848B2 (en) 3D input device
JP2003315028A (en) Three-dimensional measuring apparatus
JPH09325019A (en) Three-dimensional measuring device
JP3861475B2 (en) 3D input device
JP2000002520A (en) Three-dimensional input apparatus
JPH09325010A (en) Three-dimensional measuring device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080705

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080705

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090705

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090705

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100705

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110705

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120705

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130705

Year of fee payment: 11

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term