JP3360505B2 - Three-dimensional measuring method and device - Google Patents

Three-dimensional measuring method and device

Info

Publication number
JP3360505B2
JP3360505B2 JP29992195A JP29992195A JP3360505B2 JP 3360505 B2 JP3360505 B2 JP 3360505B2 JP 29992195 A JP29992195 A JP 29992195A JP 29992195 A JP29992195 A JP 29992195A JP 3360505 B2 JP3360505 B2 JP 3360505B2
Authority
JP
Japan
Prior art keywords
light
light receiving
amount
imaging
detection light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29992195A
Other languages
Japanese (ja)
Other versions
JPH09145319A (en
Inventor
寿夫 糊田
英郎 藤井
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP29992195A priority Critical patent/JP3360505B2/en
Priority to US08/748,325 priority patent/US6141105A/en
Publication of JPH09145319A publication Critical patent/JPH09145319A/en
Priority to US09/676,767 priority patent/US6529280B1/en
Application granted granted Critical
Publication of JP3360505B2 publication Critical patent/JP3360505B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体にスリット光
又はスポット光を照射して物体形状を非接触で計測する
3次元計測方法、及び3次元計測装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional measuring method and a three-dimensional measuring apparatus for irradiating an object with slit light or spot light to measure the shape of the object in a non-contact manner.

【0002】[0002]

【従来の技術】レンジファインダと呼称される非接触型
の3次元計測装置は、接触型に比べて高速の計測が可能
であることから、CGシステムやCADシステムへのデ
ータ入力、身体計測、ロボットの視覚認識などに利用さ
れている。
2. Description of the Related Art A non-contact type three-dimensional measuring device called a range finder can perform higher-speed measurement than a contact type. Therefore, data input to a CG system or CAD system, body measurement, robot It is used for visual recognition.

【0003】レンジファインダに好適な計測方法として
スリット光投影法(光切断法ともいう)が知られてい
る。この方法は、物体を光学的に走査して3次元画像
(距離画像)を得る方法であり、特定の検出光を照射し
て物体を撮影する能動的計測方法の一種である。3次元
画像は、物体上の複数の部位の3次元位置を示す画素の
集合である。スリット光投影法では、検出光として断面
が直線状のスリット光が用いられる。
[0003] As a measurement method suitable for a range finder, a slit light projection method (also called a light cutting method) is known. This method is a method of obtaining a three-dimensional image (distance image) by optically scanning an object, and is a kind of an active measurement method of irradiating specific detection light and photographing the object. The three-dimensional image is a set of pixels indicating the three-dimensional positions of a plurality of parts on the object. In the slit light projection method, a slit light having a linear cross section is used as detection light.

【0004】図15はスリット光投影法の概要を示す
図、図16はスリット光投影法による計測の原理を説明
するための図である。計測対象の物体Qに断面が細い帯
状のスリット光Uを照射し、その反射光を例えば2次元
イメージセンサの撮像面S2に入射させる〔図15
(a)〕。物体Qの照射部分が平坦であれば、撮影像
(スリット画像)は直線になる〔図15(b)〕。照射
部分に凹凸があれば、直線が曲がったり階段状になった
りする〔図15(c)〕。つまり、計測装置と物体Qと
の距離の大小が撮像面S2における反射光の入射位置に
反映する〔図15(d)〕。スリット光Uをその幅方向
に偏向することにより、受光側から見える範囲の物体表
面を走査して3次元位置をサンプリングすることができ
る。サンプリング点数はイメージセンサの画素数に依存
する。
FIG. 15 is a diagram showing an outline of the slit light projection method, and FIG. 16 is a diagram for explaining the principle of measurement by the slit light projection method. The object Q to be measured is irradiated with slit light U having a narrow cross section and the reflected light is incident on, for example, an imaging surface S2 of a two-dimensional image sensor [FIG.
(A)]. If the irradiated portion of the object Q is flat, the captured image (slit image) becomes a straight line (FIG. 15B). If the irradiated portion has irregularities, the straight line may be bent or stepped (FIG. 15C). That is, the magnitude of the distance between the measurement device and the object Q reflects on the incident position of the reflected light on the imaging surface S2 (FIG. 15D). By deflecting the slit light U in the width direction, a three-dimensional position can be sampled by scanning the object surface in a range visible from the light receiving side. The number of sampling points depends on the number of pixels of the image sensor.

【0005】図16において、投光の起点Aと受光系の
レンズの主点Oとを結ぶ基線AOが受光軸と垂直になる
ように、投光系と受光系とが配置されている。受光軸は
撮像面S2に対して垂直である。なお、レンズの主点と
は、有限遠の被写体の像が撮像面S2に結像したとき
の、いわゆる像距離(image distance)bだけ撮像面S
2から離れた受光軸上の点である。像距離bは、受光系
の焦点距離fとピント調整のためのレンズ繰出し量との
和である。
In FIG. 16, the light projecting system and the light receiving system are arranged such that the base line AO connecting the starting point A of the light projecting and the principal point O of the lens of the light receiving system is perpendicular to the light receiving axis. The light receiving axis is perpendicular to the imaging surface S2. Note that the principal point of the lens is defined as an image distance S by a so-called image distance (image distance) b when an image of a subject at a finite distance is formed on the imaging surface S2.
It is a point on the light receiving axis away from 2. The image distance b is the sum of the focal length f of the light receiving system and the lens extension for focus adjustment.

【0006】主点Oを3次元直交座標系の原点とする。
受光軸がZ軸、基線AOがY軸、スリット光の長さ方向
がX軸である。スリット光Uが物体上の点P(X,Y,
Z)を照射したときの投光軸と投光基準面(受光軸と平
行な投光面)との角度をθa、受光角をθpとすると、
点Pの座標Zは(1)式で表される。
The principal point O is defined as the origin of a three-dimensional rectangular coordinate system.
The light receiving axis is the Z axis, the base line AO is the Y axis, and the length direction of the slit light is the X axis. When the slit light U reaches a point P (X, Y,
Assuming that the angle between the light projecting axis and the light projecting reference plane (light projecting surface parallel to the light receiving axis) when irradiating Z) is θa and the light receiving angle is θp,
The coordinate Z of the point P is represented by the equation (1).

【0007】 基線長L=L1+L2=Ztanθa+Ztanθp ∴ Z=L/(tanθa+tanθp) …(1) なお、受光角θpとは、点Pと主点Oとを結ぶ直線と、
受光軸を含む平面(受光軸平面)とのなす角度である。
Base line length L = L1 + L2 = Ztan θa + Ztan θp∴Z = L / (tan θa + tan θp) (1) The light receiving angle θp is a straight line connecting the point P and the principal point O.
This is an angle formed with a plane including the light receiving axis (light receiving axis plane).

【0008】撮像倍率β=b/Z であるので、撮像面
S2の中心と受光画素とのX方向の距離をxp、Y方向
の距離をypとすると〔図16(a)参照〕、点Pの座
標X,Yは、(2),(3)式で表される。
Since the imaging magnification β = b / Z, if the distance in the X direction between the center of the imaging surface S2 and the light receiving pixel is xp and the distance in the Y direction is yp (see FIG. 16A), the point P Are represented by equations (2) and (3).

【0009】X=xp/β …(2) Y=yp/β …(3) 角度θaはスリット光Uの偏向の角速度によって一義的
に決まる。受光角θpはtanθp=b/ypの関係か
ら算出できる。つまり、撮像面S2上での位置(xp,
yp)を測定することにより、そのときの角度θaに基
づいて点Pの3次元位置を求めることができる。
X = xp / β (2) Y = yp / β (3) The angle θa is uniquely determined by the angular velocity of the deflection of the slit light U. The light receiving angle θp can be calculated from the relationship tan θp = b / yp. In other words, the position (xp,
By measuring yp), the three-dimensional position of the point P can be obtained based on the angle θa at that time.

【0010】図16(c)のように受光系にズームレン
ズ群を設けた場合には、主点Oは後側主点H’となる。
後側主点H’と前側主点Hとの距離をMとすると、点P
の座標Zは(1B)式で表される。
When a zoom lens group is provided in the light receiving system as shown in FIG. 16C, the principal point O is the rear principal point H '.
Assuming that the distance between the rear principal point H ′ and the front principal point H is M, the point P
Is represented by equation (1B).

【0011】 L=L1+L2=Ztanθa+(Z−M)tanθp ∴ Z=(L+Mtanθp)/(tanθa+tanθp) …(1B) 以上の原理のスリット光投影法による計測において、例
えばCCDセンサのように撮像面S2が有限個の画素か
らなる撮像手段を用いる場合には、計測の分解能が撮像
手段の画素ピッチに依存する。ただし、撮像面S2上で
のスリット光UのY方向(走査方向)の幅が複数画素分
となるようにスリット光Uを設定することにより、分解
能を高めることができる。
L = L1 + L2 = Ztanθa + (Z−M) tanθp∴Z = (L + Mtanθp) / (tanθa + tanθp) (1B) In the measurement by the slit light projection method based on the above principle, the imaging surface S2 is, for example, like a CCD sensor. In the case of using an imaging unit having a finite number of pixels, the measurement resolution depends on the pixel pitch of the imaging unit. However, the resolution can be increased by setting the slit light U such that the width of the slit light U on the imaging surface S2 in the Y direction (scanning direction) is equivalent to a plurality of pixels.

【0012】図17は従来の計測方法の原理を説明する
ための図である。物体上の照射部分の反射率が均一であ
るものと仮定すると、受光強度はY方向に拡がる正規分
布となる。この正規分布の有効強度範囲が複数画素分で
あれば、各画素gの受光量に対する補間演算を行うこと
により、最大強度位置(重心と呼ぶ)を画素ピッチ以下
の単位で測定できることになる。補間演算は、各画素の
受光量に正規分布をフィットさせるものである。演算で
求めた重心に基づいて座標Z,X,Yを求める。この手
法によれば、実際の分解能は1/8〜1/10画素程度
になる。
FIG. 17 is a diagram for explaining the principle of a conventional measuring method. Assuming that the reflectance of the irradiated portion on the object is uniform, the received light intensity has a normal distribution extending in the Y direction. If the effective intensity range of the normal distribution is for a plurality of pixels, the maximum intensity position (referred to as the center of gravity) can be measured in units equal to or less than the pixel pitch by performing an interpolation operation on the amount of received light of each pixel g. The interpolation calculation is to fit a normal distribution to the light receiving amount of each pixel. The coordinates Z, X, and Y are obtained based on the center of gravity obtained by the calculation. According to this method, the actual resolution is about 1/8 to 1/10 pixel.

【0013】撮像面S2上でのスリット光Uの幅を複数
画素分とするには、投光の段階でスリット光Uの幅(走
査方向の長さ)を拡げておけばよい。ただし、そうする
と、物体Q上でもスリット光UのY方向の幅が拡がるの
で、照射部分(点P)が例えば物体色の境目である場合
に、受光強度の分布が正規分布でなくなり、測定誤差が
大きくなる。
In order to make the width of the slit light U on the imaging surface S2 a plurality of pixels, the width (length in the scanning direction) of the slit light U may be increased at the stage of light projection. However, in this case, the width of the slit light U in the Y direction is also widened on the object Q. Therefore, when the irradiated portion (point P) is, for example, a boundary between object colors, the distribution of the received light intensity is not a normal distribution, and the measurement error is reduced. growing.

【0014】従来では、物体Q上でのスリット幅ができ
るだけ細くなるように投光条件を設定し、受光系におい
てフィルタなどによりスリット光Uの幅を拡げて撮像面
S2に入射させていた(特開平7−174536号)。
Conventionally, the light projecting conditions are set so that the slit width on the object Q is as small as possible, and the width of the slit light U is expanded by a filter or the like in the light receiving system to be incident on the image pickup surface S2. Kaihei 7-174536).

【0015】[0015]

【発明が解決しようとする課題】しかし、スリット光U
の幅を細くするのには光学的に限界がある。投光の起点
Aから遠いほど、物体Q上の照射範囲(スリット幅)が
拡がる。したがって、従来では、物体Qの反射率の分布
に係わらず、所定の精度の計測が可能となる計測距離
(計測装置と物体Qとの距離)が短いという問題があっ
た。
However, the slit light U
There is an optical limit to narrowing the width of the. The farther from the projection start point A, the wider the irradiation range (slit width) on the object Q. Therefore, conventionally, there has been a problem that the measurement distance (distance between the measurement device and the object Q) at which measurement with a predetermined accuracy is possible is irrespective of the distribution of the reflectance of the object Q.

【0016】本発明は、物体の反射率が不均一である場
合にも均一である場合と同様に高分解能で高精度の計測
が可能であり、計測距離の設定の自由度が大きい3次元
計測装置を実現することを目的としている。
According to the present invention, even when the reflectivity of an object is non-uniform, high-resolution and high-precision measurement can be performed similarly to the case where the reflectivity is uniform, and three-dimensional measurement with a large degree of freedom in setting a measurement distance. It is intended to realize the device.

【0017】請求項1の発明の方法は、検出光を照射し
て物体を光学的に走査するための投光手段と、前記物体
で反射した前記検出光を受光する撮像手段とを用いる3
次元計測方法であって、前記物体に対する前記検出光の
照射方向を変化させながら、前記撮像手段の撮像面内の
特定の受光領域に入射している間に前記特定の受光領域
に入射する前記検出光の光量を前記撮像手段により周期
的に複数回サンプリングし、前記特定の受光領域の前記
光量のサンプリング値の最大値と、当該最大値を得たサ
ンプリングの前後のサンプリングにおける前記特定の受
光領域の前記光量のサンプリング値に基づいて、補間演
算によって前記特定の受光領域の前記光量が最大となる
照射タイミングを求める方法である。請求項2の発明の
方法では、前記物体上の前記受光領域に対応した部位の
位置を、前記照射タイミングにおける前記検出光の照射
方向及び前記受光領域に対する前記検出光の入射方向と
の関係に基づいて求める。
The method according to the first aspect of the present invention uses light projecting means for irradiating a detection light to optically scan an object, and imaging means for receiving the detection light reflected by the object.
A dimension measurement method, wherein the specific light receiving area is incident on a specific light receiving area in an imaging surface of the imaging unit while changing an irradiation direction of the detection light to the object.
The amount of the detection light incident to periodically sampled multiple times by the imaging means, the maximum value of the sampled values of the amount of the specific light receiving region, wherein before and after the sampling of the sampling obtained the maximum value Specific recipient
This is a method of obtaining an irradiation timing at which the light amount in the specific light receiving region is maximized by interpolation based on a sampling value of the light amount in the light region . In the method according to the second aspect of the present invention, a position of a portion corresponding to the light receiving region on the object is determined based on a relationship between an irradiation direction of the detection light at the irradiation timing and an incident direction of the detection light on the light receiving region. Ask.

【0018】請求項3の発明の3次元計測装置は、検出
光を照射して物体を光学的に走査するための投光手段
と、複数の受光領域からなる撮像面を有し、前記物体で
反射した前記検出光を受光する撮像手段と、前記物体に
対する前記検出光の照射方向を変化させる走査手段と、
検出光が前記各受光領域に入射している間に受光された
前記検出光の前記各受光領域における光量を複数回周期
的に出力するように前記撮像手段を駆動する撮像制御手
段と、前記各受光領域毎に、前記撮像手段が周期的に出
力する前記光量の最大値と、当該最大値の出力タイミン
グの前後に出力された光量を記憶する記憶手段と、前記
記憶手段に記憶された光量に基づいて、前記各受光領域
の前記光量が最大となる照射タイミングを求める照射タ
イミング演算手段とを有する。請求項4の発明の3次元
計測装置では、前記物体上の前記各受光領域に対応した
部位の位置を、前記照射タイミングにおける前記検出光
の照射方向及び前記受光領域に対する前記検出光の入射
方向との関係に基づいて求める位置演算手段を有する。
According to a third aspect of the present invention, there is provided a three-dimensional measuring apparatus comprising: a light projecting means for irradiating a detection light to optically scan an object; and an imaging surface comprising a plurality of light receiving areas. Imaging means for receiving the reflected detection light, and scanning means for changing the irradiation direction of the detection light on the object,
Imaging control means for the detection light to drive the imaging means so as to output a plurality of times periodically the light intensity of each light receiving area of the light receiving been <br/> the detection light while incident on the respective light receiving regions And a storage unit for storing, for each of the light receiving regions, a maximum value of the light amount periodically output by the imaging unit, and a light amount output before and after the output timing of the maximum value, and storage in the storage unit. Irradiation timing calculating means for obtaining an irradiation timing at which the light quantity of each of the light receiving areas is maximum based on the light quantity obtained. In the three-dimensional measurement apparatus according to the fourth aspect of the present invention, the position of a part corresponding to each of the light receiving regions on the object is determined by the irradiation direction of the detection light at the irradiation timing and the incident direction of the detection light to the light receiving region. And position calculation means for obtaining based on the relationship.

【0019】[0019]

【発明の実施の形態】図1は本発明に係る計測システム
1の構成図である。計測システム1は、スリット光投影
法によって立体計測を行う3次元カメラ(レンジファイ
ンダ)2と、3次元カメラ2の出力データを処理するホ
スト3とから構成されている。
FIG. 1 is a configuration diagram of a measurement system 1 according to the present invention. The measurement system 1 includes a three-dimensional camera (range finder) 2 that performs three-dimensional measurement by a slit light projection method, and a host 3 that processes output data of the three-dimensional camera 2.

【0020】3次元カメラ2は、物体Q上の複数のサン
プリング点の3次元位置を特定する計測データ(スリッ
ト画像データ)とともに、物体Qのカラー情報を示す2
次元画像及びキャリブレーションに必要なデータを出力
する。三角測量法を用いてサンプリング点の座標を求め
る演算処理はホスト3が担う。
The three-dimensional camera 2 displays color information of the object Q together with measurement data (slit image data) for specifying the three-dimensional positions of a plurality of sampling points on the object Q.
Outputs a dimensional image and data necessary for calibration. The host 3 is in charge of calculating the coordinates of the sampling points using the triangulation method.

【0021】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、及びマウス3dなどから構成され
たコンピュータシステムである。CPU3aには計測デ
ータ処理のためのソフトウェアが組み込まれている。ホ
スト3と3次元カメラ2との間では、オンライン及び可
搬型の記録メディア4によるオフラインの両方の形態の
データ受渡しが可能である。記録メディア4としては、
光磁気ディスク(MO)、ミニディスク(MD)、メモ
リカードなどがある。
The host 3 includes a CPU 3a, a display 3
b, a keyboard 3c, a mouse 3d, and the like. Software for processing measurement data is incorporated in the CPU 3a. Between the host 3 and the three-dimensional camera 2, both online and offline data transfer by the portable recording medium 4 is possible. As the recording medium 4,
There are a magneto-optical disk (MO), a mini disk (MD), and a memory card.

【0022】図2は3次元カメラ2の外観を示す図であ
る。ハウジング20の前面に投光窓20a及び受光窓2
0bが設けられている。投光窓20aは受光窓20bに
対して上側に位置する。内部の光学ユニットOUが射出
するスリット光(所定幅wの帯状のレーザビーム)U
は、投光窓20aを通って計測対象の物体(被写体)に
向かう。スリット光Uの長さ方向M1の放射角度φは固
定である。物体の表面で反射したスリット光Uの一部が
受光窓20bを通って光学ユニットOUに入射する。な
お、光学ユニットOUは、投光軸と受光軸との相対関係
を適正化するための2軸調整機構を備えている。
FIG. 2 is a diagram showing the appearance of the three-dimensional camera 2. A light emitting window 20a and a light receiving window 2 are provided on the front of the housing 20.
0b is provided. The light projecting window 20a is located above the light receiving window 20b. Slit light (band-like laser beam with a predetermined width w) U emitted from the internal optical unit OU
Goes to the object (subject) to be measured through the light emitting window 20a. The radiation angle φ in the length direction M1 of the slit light U is fixed. A part of the slit light U reflected on the surface of the object enters the optical unit OU through the light receiving window 20b. Note that the optical unit OU includes a two-axis adjustment mechanism for optimizing the relative relationship between the light projecting axis and the light receiving axis.

【0023】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、及びシャッタボタン27が設けられてい
る。図2(b)のように、ハウジング20の背面には、
液晶ディスプレイ21、カーソルボタン22、セレクト
ボタン23、キャンセルボタン24、アナログ出力端子
31,32、デジタル出力端子33、及び記録メディア
4の着脱口30aが設けられている。
On the upper surface of the housing 20, zooming buttons 25a and 25b, a manual focusing button 26
a, 26b and a shutter button 27 are provided. As shown in FIG. 2B, on the back of the housing 20,
A liquid crystal display 21, a cursor button 22, a select button 23, a cancel button 24, analog output terminals 31 and 32, a digital output terminal 33, and a detachable opening 30a for the recording medium 4 are provided.

【0024】液晶ディスプレイ21(LCD)は、操作
画面の表示手段及び電子ファインダとして用いられる。
撮影者は背面の各ボタン21〜24によって撮影モード
の設定を行うことができる。アナログ出力端子31から
は計測データが出力され、アナログ出力端子31からは
2次元画像信号が例えばNTSC形式で出力される。デ
ジタル出力端子33は例えばSCSI端子である。
The liquid crystal display 21 (LCD) is used as an operation screen display means and an electronic finder.
The photographer can set the photographing mode by using the buttons 21 to 24 on the back. The analog output terminal 31 outputs measurement data, and the analog output terminal 31 outputs a two-dimensional image signal in, for example, the NTSC format. The digital output terminal 33 is, for example, a SCSI terminal.

【0025】図3は3次元カメラ2の機能構成を示すブ
ロック図である。図中の実線矢印は電気信号の流れを示
し、破線矢印は光の流れを示している。3次元カメラ2
は、上述の光学ユニットOUを構成する投光側及び受光
側の2つの光学系40,50を有している。光学系40
において、半導体レーザ(LD)41が射出する波長6
70nmのレーザビームは、投光レンズ系42を通過す
ることによってスリット光Uとなり、ガルバノミラー
(走査手段)43によって偏向される。半導体レーザ4
1のドライバ44、投光レンズ系42の駆動系45、及
びガルバノミラー43の駆動系46は、システムコント
ローラ61によって制御される。
FIG. 3 is a block diagram showing a functional configuration of the three-dimensional camera 2. In the figure, solid arrows indicate the flow of electric signals, and broken arrows indicate the flow of light. 3D camera 2
Has two optical systems 40 and 50 on the light projecting side and the light receiving side that constitute the optical unit OU described above. Optical system 40
, The wavelength 6 emitted by the semiconductor laser (LD) 41
The 70 nm laser beam becomes slit light U by passing through the light projecting lens system 42 and is deflected by the galvanomirror (scanning means) 43. Semiconductor laser 4
The driver 44, the driving system 45 of the light projecting lens system 42, and the driving system 46 of the galvanomirror 43 are controlled by a system controller 61.

【0026】光学系50において、ズームユニット51
によって集光された光はビームスプリッタ52によって
分光される。半導体レーザ41の発振波長帯域の光は、
計測用のセンサ53に入射する。可視帯域の光は、モニ
タ用のカラーセンサ54に入射する。センサ53及びカ
ラーセンサ54は、どちらもCCDエリアセンサであ
る。ズームユニット51は内焦型であり、入射光の一部
がオートフォーカシング(AF)に利用される。AF機
能は、AFセンサ57とレンズコントローラ58とフォ
ーカシング駆動系59によって実現される。ズーミング
駆動系60は電動ズーミングのために設けられている。
In the optical system 50, a zoom unit 51
The light condensed by the beam splitter 52 is split by the beam splitter 52. The light in the oscillation wavelength band of the semiconductor laser 41 is
The light enters the sensor 53 for measurement. Light in the visible band enters the monitor color sensor 54. The sensor 53 and the color sensor 54 are both CCD area sensors. The zoom unit 51 is of an in-focus type, and a part of the incident light is used for auto focusing (AF). The AF function is realized by an AF sensor 57, a lens controller 58, and a focusing drive system 59. The zooming drive system 60 is provided for electric zooming.

【0027】センサ53による撮像情報は、ドライバ5
5からのクロックに同期して出力処理回路62へ転送さ
れる。出力処理回路62によってセンサ53の各画素毎
に対応する計測データが生成され、メモリ63,64に
格納される。その後、オペレータがデータ出力を指示す
ると、計測データは、SCSIコントローラ66又はN
TSC変換回路65によって所定形式でオンライン出力
され、又は記録メディア4に格納される。計測データの
オンライン出力には、アナログ出力端子31又はディジ
タル出力端子33が用いられる。カラーセンサ54によ
る撮像情報は、ドライバ56からのクロックに同期して
カラー処理回路67へ転送される。カラー処理を受けた
撮像情報は、NTSC変換回路70及びアナログ出力端
子32を経てオンライン出力され、又はディジタル画像
生成部68で量子化されてカラー画像メモリ69に格納
される。その後、カラー画像データがカラー画像メモリ
69からSCSIコントローラ66へ転送され、ディジ
タル出力端子33からオンライン出力され、又は計測デ
ータと対応づけて記録メディア4に格納される。なお、
カラー画像は、センサ53による距離画像と同一の画角
の像であり、ホスト3側におけるアプリケーション処理
に際して参考情報として利用される。カラー情報を利用
する処理としては、例えばカメラ視点の異なる複数組の
計測データを組み合わせて3次元形状モデルを生成する
処理、3次元形状モデルの不要の頂点を間引く処理など
がある。システムコントローラ61は、キャラクタジェ
ネレータ71に対して、LCD21の画面上に適切な文
字や記号を表示するための指示を与える。
The image information obtained by the sensor 53 is transmitted to the driver 5.
5 and is transferred to the output processing circuit 62 in synchronization with the clock from the fifth clock. Measurement data corresponding to each pixel of the sensor 53 is generated by the output processing circuit 62 and stored in the memories 63 and 64. Thereafter, when the operator instructs data output, the measurement data is transmitted to the SCSI controller 66 or N
The data is output online in a predetermined format by the TSC conversion circuit 65 or stored in the recording medium 4. An analog output terminal 31 or a digital output terminal 33 is used for online output of measurement data. Image information from the color sensor 54 is transferred to the color processing circuit 67 in synchronization with a clock from the driver 56. The color-processed imaging information is output online via the NTSC conversion circuit 70 and the analog output terminal 32, or quantized by the digital image generation unit 68 and stored in the color image memory 69. Thereafter, the color image data is transferred from the color image memory 69 to the SCSI controller 66, output online from the digital output terminal 33, or stored in the recording medium 4 in association with the measurement data. In addition,
The color image is an image having the same angle of view as the distance image obtained by the sensor 53, and is used as reference information during application processing on the host 3 side. The processing using color information includes, for example, processing of generating a three-dimensional shape model by combining a plurality of sets of measurement data having different camera viewpoints, and processing of thinning out unnecessary vertices of the three-dimensional shape model. The system controller 61 gives an instruction to the character generator 71 to display appropriate characters and symbols on the screen of the LCD 21.

【0028】図4は投光レンズ系42の構成を示す模式
図である。図4(a)は正面図であり、図4(b)は側
面図である。投光レンズ系42は、コリメータレンズ4
21、バリエータレンズ422、及びエキスパンダレン
ズ423の3つのレンズから構成されている。半導体レ
ーザ41が射出したレーザビームに対して、次の順序で
適切なスリット光Uを得るための光学的処理が行われ
る。まず、コリメータレンズ421によってビームが平
行化される。次にバリエータレンズ422によってレー
ザビームのビーム径が調整される。最後にエキスパンダ
レンズ423によってビームがスリット長さ方向M1に
拡げられる。
FIG. 4 is a schematic diagram showing the configuration of the light projecting lens system 42. FIG. 4A is a front view, and FIG. 4B is a side view. The projection lens system 42 includes the collimator lens 4
21, a variator lens 422, and an expander lens 423. The laser beam emitted from the semiconductor laser 41 is subjected to an optical process for obtaining an appropriate slit light U in the following order. First, the beam is collimated by the collimator lens 421. Next, the beam diameter of the laser beam is adjusted by the variator lens 422. Finally, the beam is expanded in the slit length direction M1 by the expander lens 423.

【0029】バリエータレンズ422は、撮影距離及び
撮影の画角に係わらず、センサ53に3以上の複数画素
分の幅のスリット光Uを入射させるために設けられてい
る。駆動系45は、システムコントローラ61の指示に
従って、センサ53上でのスリット光Uの幅wを一定に
保つようにバリエータレンズ422を移動させる。バリ
エータレンズ422と受光側のズームユニット51とは
連動する。
The variator lens 422 is provided to allow the slit light U having a width of three or more pixels to enter the sensor 53 regardless of the photographing distance and the angle of view of photographing. The drive system 45 moves the variator lens 422 so as to keep the width w of the slit light U on the sensor 53 constant according to an instruction from the system controller 61. The variator lens 422 and the zoom unit 51 on the light receiving side are linked.

【0030】ガルバノミラー43による偏向の以前にス
リット長を拡げることにより、偏向の後で行う場合に比
べてスリット光Uの歪みを低減することができる。エキ
スパンダレンズ423を投光レンズ系42の最終段に配
置することにより、すなわちガルバノミラー43に近づ
けることにより、ガルバノミラー43を小型化すること
ができる。
By increasing the slit length before deflection by the galvanomirror 43, distortion of the slit light U can be reduced as compared with the case where deflection is performed after deflection. By arranging the expander lens 423 at the last stage of the light projecting lens system 42, that is, by bringing it closer to the galvanometer mirror 43, the size of the galvanometer mirror 43 can be reduced.

【0031】図5は受光のためのズームユニット51の
模式図である。ズームユニット51は、前側結像部51
5、バリエータ部514、コンペンセータ部513、フ
ォーカシング部512、後側結像部511、及び入射光
の一部をAFセンサ57に導くビームスプリッタ516
から構成されている。前側結像部515及び後側結像部
511は、光軸に対して固定である。
FIG. 5 is a schematic diagram of a zoom unit 51 for receiving light. The zoom unit 51 includes a front image forming unit 51
5, a variator unit 514, a compensator unit 513, a focusing unit 512, a rear image forming unit 511, and a beam splitter 516 for guiding a part of incident light to the AF sensor 57.
It is composed of The front imaging unit 515 and the rear imaging unit 511 are fixed with respect to the optical axis.

【0032】フォーカシング部512の移動はフォーカ
シング駆動系59が担い、バリエータ部514の移動は
ズーミング駆動系60が担う。フォーカシング駆動系5
9は、フォーカシング部512の移動距離(繰り出し
量)を指し示すフォーカシングエンコーダ59Aを備え
ている。ズーミング駆動系60は、バリエータ部514
の移動距離(ズーム刻み値)を指し示すズーミングエン
コーダ60Aを備えている。
The movement of the focusing unit 512 is performed by the focusing drive system 59, and the movement of the variator unit 514 is performed by the zooming drive system 60. Focusing drive system 5
Reference numeral 9 includes a focusing encoder 59A that indicates a moving distance (amount of extension) of the focusing unit 512. The zooming drive system 60 includes a variator unit 514.
The zooming encoder 60A indicates the moving distance (the zoom step value) of the moving image.

【0033】図6はビームスプリッタ52の模式図、図
7は計測用のセンサ53の受光波長を示すグラフ、図8
はモニタ用のカラーセンサ54の受光波長を示すグラフ
である。
FIG. 6 is a schematic diagram of the beam splitter 52, FIG. 7 is a graph showing the light receiving wavelength of the sensor 53 for measurement, and FIG.
Is a graph showing the light receiving wavelength of the color sensor 54 for monitoring.

【0034】ビームスプリッタ52は、色分解膜(ダイ
クロックミラー)521、色分解膜521を挟む2つの
プリズム522,523、プリズム522の射出面52
2bに設けられた赤外線カットフィルタ524、センサ
53の前面側に設けられた可視カットフィルタ525、
プリズム523の射出面523bに設けられた赤外線カ
ットフィルタ526、及びローパスフィルタ527,5
28から構成されている。
The beam splitter 52 includes a color separation film (a dichroic mirror) 521, two prisms 522 and 523 sandwiching the color separation film 521, and an emission surface 52 of the prism 522.
2b, an infrared cut filter 524 provided on the front side of the sensor 53, a visible cut filter 525 provided on the front side of the sensor 53,
Infrared cut filter 526 provided on exit surface 523b of prism 523, and low-pass filters 527 and 5
28.

【0035】ズームユニット51から入射した光UC
は、ローパスフィルタ527、プリズム522を通って
色分解膜521に入射する。半導体レーザ41の発振帯
域の光U0は色分解膜521で反射し、プリズム522
の入射面522aで反射した後、射出面522bからセ
ンサ53に向かって射出する。プリズム522から射出
した光U0の内、赤外線カットフィルタ524及び可視
カットフィルタ525を透過した光がセンサ53によっ
て受光される。一方、色分解膜521を透過した光C0
は、プリズム523を通って射出面523bからカラー
センサ54に向かって射出する。プリズム523から射
出した光C0の内、赤外線カットフィルタ526及びロ
ーパスフィルタ528を透過した光がカラーセンサ54
によって受光される。
Light UC incident from the zoom unit 51
Enter the color separation film 521 through the low-pass filter 527 and the prism 522. Light U0 in the oscillation band of the semiconductor laser 41 is reflected by the color separation film 521 and
After being reflected by the incident surface 522a, the light exits from the exit surface 522b toward the sensor 53. Of the light U0 emitted from the prism 522, the light transmitted through the infrared cut filter 524 and the visible cut filter 525 is received by the sensor 53. On the other hand, the light C0 transmitted through the color separation film 521
Are emitted from the emission surface 523b toward the color sensor 54 through the prism 523. Of the light C0 emitted from the prism 523, the light transmitted through the infrared cut filter 526 and the low-pass filter 528 is the color sensor 54.
Is received by the

【0036】図7において、破線で示されるように色分
解膜521は、スリット光の波長(λ:670nm)を
含む比較的に広範囲の波長帯域の光を反射する。つま
り、色分解膜521の波長選択性は、スリット光のみを
選択的にセンサ53に入射させる上で不十分である。し
かし、ビームスプリッタ52では、鎖線で示される特性
の赤外線カットフィルタ524と、実線で示される特性
の可視カットフィルタ525とが設けられているので、
最終的にセンサ53に入射する光は、図7において斜線
で示される狭い範囲の波長の光である。これにより、環
境光の影響の小さい、すなわち光学的SN比が大きい計
測を実現することができる。
In FIG. 7, as indicated by the broken line, the color separation film 521 reflects light in a relatively wide wavelength band including the wavelength of the slit light (λ: 670 nm). That is, the wavelength selectivity of the color separation film 521 is insufficient to selectively cause only the slit light to enter the sensor 53. However, since the beam splitter 52 is provided with the infrared cut filter 524 having the characteristics indicated by the dashed line and the visible cut filter 525 having the characteristics indicated by the solid line,
The light finally incident on the sensor 53 is light having a wavelength in a narrow range indicated by oblique lines in FIG. As a result, measurement with a small influence of ambient light, that is, a large optical SN ratio can be realized.

【0037】一方、カラーセンサ54には、図8に実線
で示される特性の赤外線カットフィルタ528によっ
て、破線で示される特性の色分解膜521を透過した赤
外帯域の光が遮断されるので、可視光のみが入射する。
これにより、モニタ画像の色再現性が高まる。
On the other hand, the color sensor 54 blocks the infrared band light transmitted through the color separation film 521 having the characteristic shown by the broken line by the infrared cut filter 528 having the characteristic shown by the solid line in FIG. Only visible light enters.
Thereby, the color reproducibility of the monitor image is improved.

【0038】なお、赤外線カットフィルタ524及び可
視カットフィルタ525の2個のフィルタを用いる代わ
りに、赤外線及び可視光を遮断する特性をもつ1個のフ
ィルタを用いてもよい。赤外線カットフィルタ524及
び可視カットフィルタ525の両方をプリズム522の
側に設けてもよいし、逆に両方のフィルタをセンサ53
の側に設けてもよい。図6の例とは逆に、可視カットフ
ィルタ525をプリズム522の側に設け、赤外線カッ
トフィルタ524をセンサ53の側に設けてもよい。
Instead of using two filters, the infrared cut filter 524 and the visible cut filter 525, a single filter having a characteristic of blocking infrared and visible light may be used. Both the infrared cut filter 524 and the visible cut filter 525 may be provided on the prism 522 side.
May be provided on the side of. 6, the visible cut filter 525 may be provided on the prism 522 side, and the infrared cut filter 524 may be provided on the sensor 53 side.

【0039】図9は計測システム1における3次元位置
の算出の原理図である。同図では理解を容易にするた
め、図15及び図16と対応する要素には同一の符号を
付してある。
FIG. 9 is a principle diagram for calculating a three-dimensional position in the measurement system 1. In the figure, the components corresponding to those in FIGS. 15 and 16 are denoted by the same reference numerals for easy understanding.

【0040】センサ53の撮像面S2上で複数画素分と
なる比較的に幅の広いスリット光Uを物体Qに照射す
る。具体的にはスリット光Uの幅を5画素分とする。ス
リット光Uは、サンプリング周期毎に撮像面S2上で1
画素ピッチpvだけ移動するように、図9の上から下に
向かって偏向され、それによって物体Qが走査される。
サンプリング周期毎にセンサ53から1フレーム分の光
電変換情報が出力される。
The object Q is irradiated with a relatively wide slit light U corresponding to a plurality of pixels on the imaging surface S2 of the sensor 53. Specifically, the width of the slit light U is set to 5 pixels. The slit light U is generated on the imaging surface S2 by one every sampling cycle.
The object Q is scanned by being deflected from top to bottom in FIG. 9 so as to move by the pixel pitch pv.
One frame of photoelectric conversion information is output from the sensor 53 every sampling period.

【0041】撮像面S2の1つの画素gに注目すると、
走査中に行うN回のサンプリングの内の5回のサンプリ
ングにおいて有効な受光データが得られる。これら5回
分の受光データに対する補間演算によって注目画素gが
にらむ範囲の物体表面agをスリット光Uの光軸が通過
するタイミング(時間重心Npeak:注目画素gの受
光量が最大となる時刻)を求める。図9(b)の例で
は、n回目とその1つ前の(n−1)回目の間のタイミ
ングで受光量が最大である。求めたタイミングにおける
スリット光の照射方向と、注目画素に対するスリット光
の入射方向との関係に基づいて、物体Qの位置(座標)
を算出する。これにより、撮像面の画素ピッチpvで規
定される分解能より高い分解能の計測が可能となる。
Focusing on one pixel g on the imaging surface S2,
Effective light receiving data is obtained in five samplings out of N samplings performed during scanning. The timing at which the optical axis of the slit light U passes through the object surface ag in the range in which the target pixel g is glazed (the time barycenter Npeak: the time when the amount of received light of the target pixel g is maximum) is obtained by an interpolation operation on these five received light data. . In the example of FIG. 9B, the amount of received light is maximum between the n-th time and the (n−1) -th time immediately before the n-th time. The position (coordinate) of the object Q based on the relationship between the irradiation direction of the slit light at the obtained timing and the incident direction of the slit light on the target pixel
Is calculated. This enables measurement with a higher resolution than the resolution defined by the pixel pitch pv of the imaging surface.

【0042】注目画素gの受光量は物体Qの反射率に依
存する。しかし、5回のサンプリングの各受光量の相対
比は受光の絶対量に係わらず一定である。つまり、物体
色の濃淡は計測精度に影響しない。
The amount of light received by the target pixel g depends on the reflectance of the object Q. However, the relative ratio of the amount of received light in the five samplings is constant regardless of the absolute amount of received light. That is, the shading of the object color does not affect the measurement accuracy.

【0043】本実施形態の計測システム1では、3次元
カメラ2がセンサ53の画素g毎に5回分の受光データ
を計測データとしてホスト3に出力し、ホスト3が計測
データに基づいて物体Qの座標を算出する。3次元カメ
ラ2の出力処理回路62(図3参照)は、各画素gに対
応した計測データの生成を担う。
In the measurement system 1 of the present embodiment, the three-dimensional camera 2 outputs the received light data for five times for each pixel g of the sensor 53 to the host 3 as measurement data, and the host 3 outputs the object Q based on the measurement data. Calculate the coordinates. The output processing circuit 62 (see FIG. 3) of the three-dimensional camera 2 is responsible for generating measurement data corresponding to each pixel g.

【0044】図10は出力処理回路62のブロック図、
図11はセンサ53の読出し範囲を示す図である。出力
処理回路62は、センサ53の出力する各画素gの光電
変換信号を8ビットの受光データに変換するAD変換部
620、直列接続された4つのフレームディレイメモリ
621〜624、有効な5回分の受光データを記憶する
ための5つのメモリバンク625A〜E、受光データが
最大となるフレーム番号(サンプリング番号)FNを記
憶するためのメモリバンク625F、コンパレータ62
6、フレーム番号FNを指し示すジェネレータ627、
及びメモリバンク625A〜Fのアドレス指定などを行
う図示しないメモリ制御手段から構成されている。各メ
モリバンク625A〜Eは、計測のサンプリング点数
(つまり、センサ53の有効画素数)と同数の受光デー
タを記憶可能な容量をもつ。
FIG. 10 is a block diagram of the output processing circuit 62.
FIG. 11 is a diagram showing a reading range of the sensor 53. The output processing circuit 62 includes an AD conversion unit 620 that converts the photoelectric conversion signal of each pixel g output from the sensor 53 into 8-bit light reception data, four frame delay memories 621 to 624 connected in series, and five effective times. Five memory banks 625A to 625E for storing received light data, a memory bank 625F for storing a frame number (sampling number) FN at which the received light data is maximum, and a comparator 62
6, a generator 627 indicating the frame number FN,
And memory control means (not shown) for specifying addresses of the memory banks 625A to 625A. Each of the memory banks 625A to 625E has a capacity capable of storing the same number of received light data as the number of measurement sampling points (that is, the number of effective pixels of the sensor 53).

【0045】4つのフレームディレイメモリ621〜6
24でデータ遅延を行うことにより、個々の画素gにつ
いて5フレーム分の受光データを同時にメモリバンク6
25A〜Eに格納することが可能になっている。なお、
センサ53における1フレームの読出しは、撮像面S2
の全体ではなく、高速化を図るために図11のように撮
像面S2の一部の有効受光領域(帯状画像)Aeのみを
対象に行われる。有効受光領域Aeはスリット光Uの偏
向に伴ってフレーム毎に1画素分だけシフトする。本実
施形態では、有効受光領域Aeのシフト方向の画素数は
32に固定されている。CCDエリアセンサの撮影像の
一部のみを読み出す手法は、特開平7−174536号
公報に開示されている。
Four frame delay memories 621 to 6
24, the received light data of 5 frames for each pixel g is simultaneously stored in the memory bank 6.
25A to 25E. In addition,
The reading of one frame by the sensor 53 is performed by the imaging surface S2
Is performed on only a part of the effective light receiving area (band image) Ae of the imaging surface S2 as shown in FIG. The effective light receiving area Ae shifts by one pixel for each frame with the deflection of the slit light U. In the present embodiment, the number of pixels of the effective light receiving area Ae in the shift direction is fixed to 32. A method of reading out only a part of the captured image of the CCD area sensor is disclosed in Japanese Patent Application Laid-Open No. 7-174536.

【0046】AD変換部620は、1フレーム毎に32
ライン分の受光データD620を画素gの配列順にシリ
アルに出力する。各フレームディレイメモリ621〜6
24は、31(=32−1)ライン分の容量をもつFI
FOである。
The AD conversion section 620 has 32
The light receiving data D620 for the line is serially output in the arrangement order of the pixels g. Each frame delay memory 621-6
24 is an FI having a capacity of 31 (= 32-1) lines.
FO.

【0047】AD変換部620から出力された注目画素
gの受光データD620は、2フレーム分だけ遅延され
た時点で、コンパレータ626によって、メモリバンク
625Cが記憶する注目画素gについての過去の受光デ
ータD620の最大値と比較される。遅延された受光デ
ータD620(フレームディレイメモリ622の出力)
が過去の最大値より大きい場合に、その時点のAD変換
部620の出力及び各フレームディレイメモリ621〜
624の出力が、メモリバンク625A〜Eにそれぞれ
格納され、メモリバンク625A〜Eの記憶内容が書換
えられる。これと同時にメモリバンク625Fには、メ
モリバンク625Cに格納する受光データD620に対
応したフレーム番号FNが格納される。
When the light reception data D620 of the target pixel g output from the AD converter 620 is delayed by two frames, the comparator 626 outputs the previous light reception data D620 of the target pixel g stored in the memory bank 625C. Is compared to the maximum value of Delayed light reception data D620 (output of frame delay memory 622)
Is larger than the past maximum value, the output of the AD converter 620 at that time and the frame delay memories 621 to 621
The output of 624 is stored in each of memory banks 625A to 625E, and the stored contents of memory banks 625A to 625E are rewritten. At the same time, a frame number FN corresponding to the received light data D620 stored in the memory bank 625C is stored in the memory bank 625F.

【0048】すなわち、n番目(n<N)のフレームで
注目画素gの受光量が最大になった場合には、メモリバ
ンク625Aに(n+2)番目のフレームのデータが格
納され、メモリバンク625Bに(n+1)番目のフレ
ームのデータが格納され、メモリバンク625Cにn番
目のフレームのデータが格納され、メモリバンク625
Dに(n−1)番目のフレームのデータが格納され、メ
モリバンク625Eに(n−2)番目のフレームのデー
タが格納され、メモリバンク625Fにnが格納され
る。
That is, when the amount of light received by the target pixel g becomes the maximum in the n-th (n <N) frame, the data of the (n + 2) th frame is stored in the memory bank 625A, and is stored in the memory bank 625B. The data of the (n + 1) th frame is stored, and the data of the nth frame is stored in the memory bank 625C.
Data of the (n-1) th frame is stored in D, data of the (n-2) th frame is stored in the memory bank 625E, and n is stored in the memory bank 625F.

【0049】次に、3次元カメラ2及びホスト3の動作
を計測の手順と合わせて説明する。以下では、計測のサ
ンプリング点数を200×231とする。すなわち、撮
像面S2におけるスリット長さ方向の画素数は231で
あり、実質的なフレーム数Nも200である。
Next, the operation of the three-dimensional camera 2 and the host 3 will be described together with the measurement procedure. Hereinafter, the number of measurement sampling points is assumed to be 200 × 231. That is, the number of pixels in the slit length direction on the imaging surface S2 is 231 and the substantial number of frames N is 200.

【0050】ユーザー(撮影者)は、LCD21が表示
するカラーモニタ像を見ながら、カメラ位置と向きとを
決め、画角を設定する。その際、必要に応じてズーミン
グ操作を行う。3次元カメラ2ではカラーセンサ54に
対する絞り調整は行われず、電子シャッタ機能により露
出制御されたカラーモニタ像が表示される。これは、絞
りを開放状態とすることによってセンサ53の入射光量
をできるだけ多くするためである。
The user (photographer) determines the camera position and orientation while watching the color monitor image displayed on the LCD 21, and sets the angle of view. At that time, a zooming operation is performed as needed. In the three-dimensional camera 2, the aperture adjustment of the color sensor 54 is not performed, and a color monitor image whose exposure is controlled by the electronic shutter function is displayed. This is because the incident light amount of the sensor 53 is increased as much as possible by opening the aperture.

【0051】図12は3次元カメラ2におけるデータの
流れを示す図、図13はホスト3におけるデータの流れ
を示す図、図14は光学系の各点と物体Qとの関係を示
す図である。
FIG. 12 is a diagram showing the data flow in the three-dimensional camera 2, FIG. 13 is a diagram showing the data flow in the host 3, and FIG. 14 is a diagram showing the relationship between each point of the optical system and the object Q. .

【0052】ユーザーによる画角選択操作(ズーミン
グ)に応じて、ズームユニット51のバリエータ部51
4の移動が行われる。また、フォーカシング部512の
移動による手動又は自動のフォーカシングが行われる。
フォーカシングの過程でおおよその対物間距離d0 が測
定される。
The variator 51 of the zoom unit 51 is operated in accordance with the angle of view selection operation (zooming) by the user.
4 is performed. Also, manual or automatic focusing by moving the focusing unit 512 is performed.
In the course of focusing, the approximate inter-object distance d 0 is measured.

【0053】このような受光系のレンズ駆動に呼応し
て、投光側のバリエータレンズ422の移動量が図示し
ない演算回路によって算出され、算出結果に基づいてバ
リエータレンズ422の移動制御が行われる。
In response to such lens driving of the light receiving system, the amount of movement of the variator lens 422 on the light projecting side is calculated by an arithmetic circuit (not shown), and the movement of the variator lens 422 is controlled based on the calculation result.

【0054】システムコントローラ61は、レンズコン
トローラ58を介して、フォーカシングエンコーダ59
Aの出力(繰り出し量Ed)及びズーミングエンコーダ
60Aの出力(ズーム刻み値fp)を読み込む。システ
ムコントローラ61の内部において、歪曲収差テーブル
T1、主点位置テーブルT2、及び像距離テーブルT3
が参照され、繰り出し量Ed及びズーム刻み値fpに対
応した撮影条件データがホスト2へ出力される。ここで
の撮影条件データは、歪曲収差パラメータ(レンズ歪み
補正係数d1,d2)、前側主点位置FH、及び像距離
bである。前側主点位置FHは、ズームユニット51の
前側端点Fと前側主点Hとの距離で表される。前側端点
Fは固定であるので、前側主点位置FHにより前側主点
Hを特定することができる。
The system controller 61 is provided with a focusing encoder 59 via a lens controller 58.
The output of A (the feed amount Ed) and the output of the zooming encoder 60A (the zoom step value fp) are read. Inside the system controller 61, a distortion table T1, a principal point position table T2, and an image distance table T3
, And the photographing condition data corresponding to the feeding amount Ed and the zoom step value fp are output to the host 2. The photographing condition data here includes a distortion aberration parameter (lens distortion correction coefficient d1, d2), a front principal point position FH, and an image distance b. The front principal point position FH is represented by the distance between the front end point F of the zoom unit 51 and the front principal point H. Since the front end point F is fixed, the front principal point H can be specified by the front principal point position FH.

【0055】システムコントローラ61は、半導体レー
ザ41の出力(レーザ強度)及びスリット光Uの偏向条
件(走査開始角、走査終了角、偏向角速度)を算定す
る。この算定方法を詳しく説明する。まず、おおよその
対物間距離d0 に平面物体が存在するものとして、セン
サ53の中央で反射光を受光するように投射角設定を行
う。以下で説明するレーザ強度の算定のためのパルス点
灯は、この設定された投射角で行う。
The system controller 61 calculates the output (laser intensity) of the semiconductor laser 41 and the deflection conditions (scan start angle, scan end angle, deflection angular velocity) of the slit light U. This calculation method will be described in detail. First, assuming that a planar object exists at an approximate distance d 0 between the objectives, the projection angle is set so that the reflected light is received at the center of the sensor 53. The pulse lighting for calculating the laser intensity described below is performed at the set projection angle.

【0056】次にレーザ強度を算定する。レーザ強度の
算定に際しては、人体を計測する場合があるので、安全
性に対する配慮が不可欠である。まず、最小強度LDm
inでパルス点灯し、センサ53の出力を取り込む。取
り込んだ信号〔Son(LDmin)〕と適正レベルS
typとの比を算出し、仮のレーザ強度LD1を設定す
る。
Next, the laser intensity is calculated. When calculating the laser intensity, a human body may be measured, so safety considerations are indispensable. First, the minimum strength LDm
The pulse is turned on at “in”, and the output of the sensor 53 is captured. Captured signal [Son (LDmin)] and appropriate level S
Calculate the ratio with typ and set a temporary laser intensity LD1.

【0057】LD1=LDmin×Styp/MAX
〔Son(LDmin)〕 続いてレーザ強度LD1で再びパルス点灯し、センサ5
3の出力を取り込む。取り込んだ信号〔Son(LD
1)〕が適正レベルStyp又はそれに近い値であれ
ば、LD1をレーザ強度LDsと決める。他の場合に
は、レーザ強度LD1とMAX〔Son(LD1)〕と
を用いて仮のレーザ強度LD1を設定し、センサ53の
出力と適正レベルStypとを比較する。センサ53の
出力が許容範囲内の値となるまで、レーザ強度の仮設定
と適否の確認とを繰り返す。なお、センサ53の出力の
取り込みは、撮像面S2の全面を対象に行う。これは、
AFによる受動的な距離算出では、スリット光Uの受光
位置を高精度に推定することが難しいためである。セン
サ53におけるCCDの積分時間は1フィールド時間
(例えば1/60秒)であり、実際の計測時における積
分時間より長い。このため、パルス点灯を行うことによ
り、計測時と等価なセンサ出力を得る。
LD1 = LDmin × Type / MAX
[Son (LDmin)] Subsequently, the pulse is turned on again with the laser intensity LD1 and the sensor 5
Capture the output of # 3. Captured signal [Son (LD
If 1)] is an appropriate level Type or a value close thereto, LD1 is determined as the laser intensity LDs. In other cases, a temporary laser intensity LD1 is set using the laser intensity LD1 and MAX [Son (LD1)], and the output of the sensor 53 is compared with the appropriate level Styp. Until the output of the sensor 53 becomes a value within the allowable range, the temporary setting of the laser intensity and the confirmation of suitability are repeated. Note that the output of the sensor 53 is captured for the entire imaging surface S2. this is,
This is because it is difficult to estimate the light receiving position of the slit light U with high accuracy in passive distance calculation by AF. The integration time of the CCD in the sensor 53 is one field time (for example, 1/60 second), which is longer than the integration time at the time of actual measurement. Therefore, by performing pulse lighting, a sensor output equivalent to that at the time of measurement is obtained.

【0058】次に、投射角と、レーザ強度が決定したと
きのスリット光Uの受光位置から、三角測量により対物
間距離dを決定する。最後に、決定された対物間距離d
に基づいて、偏向条件を算出する。偏向条件の算定に際
しては、対物間距離dの測距基準点である受光系の後側
主点H’と投光の起点AとのZ方向(図16参照)のオ
フセットdoffを考慮する。また、走査方向の端部に
おいても中央部と同様の計測可能距離範囲d’を確保す
るため、所定量(例えば8画素分)のオーバースキャン
を行うようにする。走査開始角th1、走査終了角th
2、偏向角速度ωは、次式で表される。
Next, the distance d between the objects is determined by triangulation from the projection angle and the light receiving position of the slit light U when the laser intensity is determined. Finally, the determined objective distance d
The deflection condition is calculated based on. In calculating the deflection condition, the offset doff in the Z direction (see FIG. 16) between the rear principal point H ′ of the light receiving system, which is the distance measurement reference point of the object distance d, and the projection start point A is considered. Further, in order to secure the same measurable distance range d 'as that at the center in the scanning direction, an overscan of a predetermined amount (for example, for 8 pixels) is performed. Scan start angle th1, scan end angle th
2. The deflection angular velocity ω is expressed by the following equation.

【0059】th1=tan-1〔β×pv(np/2+
8)+L)/(d+doff)〕×180/π th2=tan-1〔−β×pv(np/2+8)+L)
/(d+doff)〕×180/π ω=(th1−th2)/np β:撮像倍率(=d/実効焦点距離freal) pv:画素ピッチ np:撮像面S2のY方向の有効画素数 L:基線長 このようにして算出された条件で次に本発光に移り、物
体Qの走査(スリット投影)が行われ、上述の出力処理
回路52によって得られた1画素当たり5フレーム分の
計測データ(スリット画像データ)D62がホスト2へ
送られる。同時に、偏向条件(偏向制御データ)及びセ
ンサ53の仕様などを示す装置情報D10も、ホスト3
へ送られる。表1は3次元カメラ2がホスト3へ送る主
なデータをまとめたものである。
Th1 = tan −1 [β × pv (np / 2 +
8) + L) / (d + doff)] × 180 / π th2 = tan −1 [−β × pv (np / 2 + 8) + L)
/ (D + doff)] × 180 / π ω = (th1−th2) / np β: imaging magnification (= d / effective focal length freal) pv: pixel pitch np: effective number of pixels in the Y direction of the imaging surface S2 L: base line Length Next, the main emission is performed under the conditions calculated in this manner, the object Q is scanned (slit projection), and the measurement data (slits) for five frames per pixel obtained by the output processing circuit 52 is obtained. Image data) D62 is sent to the host 2. At the same time, device information D10 indicating the deflection condition (deflection control data) and the specifications of the sensor 53 are also transmitted to the host 3.
Sent to Table 1 summarizes main data that the three-dimensional camera 2 sends to the host 3.

【0060】[0060]

【表1】 [Table 1]

【0061】図13のように、ホスト3においては、ス
リット重心演算#31、歪曲収差の補正演算#32、カ
メラ視線方程式の演算#33、スリット面方程式の演算
#34、及び3次元位置演算#35が実行され、それに
よって200×231個のサンプリング点の3次元位置
(座標X,Y,Z)が算定される。サンプリング点はカ
メラ視線(サンプリング点と後側主点H’とを結ぶ直
線)とスリット面(サンプリング点を照射するスリット
光Uの光軸面)との交点である。
As shown in FIG. 13, in the host 3, the slit center of gravity calculation # 31, the distortion aberration correction calculation # 32, the camera line-of-sight equation calculation # 33, the slit plane equation calculation # 34, and the three-dimensional position calculation # 35 is performed, whereby the three-dimensional position (coordinates X, Y, Z) of the 200 × 231 sampling points is calculated. The sampling point is the intersection of the camera's line of sight (a straight line connecting the sampling point and the rear principal point H ') and the slit plane (the optical axis plane of the slit light U irradiating the sampling point).

【0062】スリット光Uの時間重心Npeak(図9
参照)は、各サンプリング時の受光データD(i)を用
いて(3)式で与えられる。 Npeak=n+Δn …(3) Δn=〔−2×D(n−2)−D(n−1)+D(n+
1)+2×D(n+2)〕/ΣD(i) (i=n−2,n−1,n,n+1,n+2) 又は Δn=[−2×〔D〔n−2)−minD(i)〕−
〔D(n−1)−minD(i)〕+〔D(n+1)−
minD(i)〕+2×〔D(n+2)−minD
(i)〕]/ΣD(i) 5つの受光データの内の最小のデータminD(i)を
差し引いて加重平均を求めることにより、環境光の影響
を軽減することができる。
The time center of gravity Npeak of the slit light U (FIG. 9)
) Is given by equation (3) using the received light data D (i) at each sampling. Npeak = n + Δn (3) Δn = [− 2 × D (n−2) −D (n−1) + D (n +
1) + 2 × D (n + 2)] / ΣD (i) (i = n−2, n−1, n, n + 1, n + 2) or Δn = [− 2 × [D [n−2] −minD (i)) ]-
[D (n-1) -minD (i)] + [D (n + 1)-
minD (i)] + 2 × [D (n + 2) -minD
(I)]] / ΣD (i) By subtracting the minimum data minD (i) from the five received light data to obtain a weighted average, the influence of ambient light can be reduced.

【0063】カメラ視線方程式は(4)式及び(5)式
である。 (u−u0)=(xp)=(b/pu)×〔X/(Z−FH)〕 …(4) (v−v0)=(yp)=(b/pv)×〔Y/(Z−FH)〕 …(5) b:像距離 FH:前側主点位置 pu:撮像面における水平方向の画素ピッチ pv:撮像面における垂直方向の画素ピッチ u:撮像面における水平方向の画素位置 u0:撮像面における水平方向の中心画素位置 v:撮像面における垂直方向の画素位置 v0:撮像面における垂直方向の中心画素位置 スリット面方程式は(6)式である。
The camera line-of-sight equations are equations (4) and (5). (U-u0) = (xp) = (b / pu) × [X / (Z-FH)] (4) (v−v0) = (yp) = (b / pv) × [Y / (Z -FH)] (5) b: Image distance FH: Front principal point position pu: Horizontal pixel pitch on the imaging surface pv: Vertical pixel pitch on the imaging surface u: Horizontal pixel position on the imaging surface u0: Center pixel position in the horizontal direction on the imaging surface v: Pixel position in the vertical direction on the imaging surface v0: Center pixel position in the vertical direction on the imaging surface The slit plane equation is given by equation (6).

【0064】[0064]

【数1】 (Equation 1)

【0065】幾何収差は画角に依存する。歪はほぼ中心
画素を中心として対象に生じる。したがって、歪み量は
中心画素からの距離の関数で表される。ここでは、距離
の3次関数で近似する。2次の補正係数をd1、3次の
補正係数をd2とする。補正後の画素位置u’,v’は
(7)式及び(8)式で与えられる。
The geometric aberration depends on the angle of view. Distortion occurs in the target substantially at the center pixel. Therefore, the amount of distortion is represented by a function of the distance from the center pixel. Here, the distance is approximated by a cubic function. The secondary correction coefficient is d1, and the tertiary correction coefficient is d2. The corrected pixel positions u ′ and v ′ are given by equations (7) and (8).

【0066】 u’=u+d1×t22 ×(u−u0)/t2 +d2×t23 ×(u−u0)/t2 …(7) v’=v+d1×t22 ×(v−v0)/t2 +d2×t23 ×(v−v0)/t2 …(8) t2=(t1)-2 t1=(u−u0)2 +(v−v0)2 上述の(4)式及び(5)式において、uに代えてu’
を代入し、vに代えてv’を代入することにより、歪曲
収差を考慮した3次元位置を求めることができる。な
お、キャリブレーションについては、電子情報通信学会
研究会資料PRU91-113[カメラの位置決めのいらない
画像の幾何学的補正]小野寺・金谷、電子情報通信学会
論文誌D-II vol. J74-D-II No.9 pp.1227-1235,'91/9
[光学系の3次元モデルに基づくレンジファインダの高
精度キャリブレーション法]植芝・吉見・大島、などに
詳しい開示がある。
[0066] u '= u + d1 × t2 2 × (u-u0) / t2 + d2 × t2 3 × (u-u0) / t2 ... (7) v' = v + d1 × t2 2 × (v-v0) / t2 + d2 × t2 3 × (v−v0) / t2 (8) t2 = (t1) −2 t1 = (u−u0) 2 + (v−v0) 2 In the above equations (4) and (5), u 'instead of u
And substituting v ′ for v, a three-dimensional position taking distortion into account can be obtained. For calibration, IEICE Technical Report, PRU91-113 [Geometric correction of images without camera positioning] Onodera and Kanaya, IEICE Transactions D-II vol. J74-D-II No.9 pp.1227-1235, '91 / 9
[High-precision calibration method of range finder based on three-dimensional model of optical system] Ueshiba, Yoshimi, Oshima, etc. have detailed disclosure.

【0067】上述の実施形態は、計測データD62に基
づいて3次元位置を算出する演算をホスト3が担うもの
であるが、3次元カメラ2に3次元位置を算出する演算
機能を設けてもよい。3次元位置をルックアップテーブ
ル方式で算定することも可能である。受光側の光学系5
0において、ズームユニット51に代えて交換レンズに
よって撮像倍率を変更してもよい。
In the above embodiment, the host 3 performs the calculation for calculating the three-dimensional position based on the measurement data D62. However, the three-dimensional camera 2 may be provided with a calculation function for calculating the three-dimensional position. . It is also possible to calculate the three-dimensional position by a look-up table method. Optical system 5 on the receiving side
At 0, the imaging magnification may be changed by an interchangeable lens instead of the zoom unit 51.

【0068】[0068]

【発明の効果】本発明によれば、物体の反射率が不均一
である場合にも均一である場合と同様に高分解能で高精
度の計測が可能であり、計測距離の設定の自由度が大き
い3次元計測装置を提供することができる。
According to the onset light according to the present invention, is capable of high precision measurement with high resolution similarly to the reflectance of the object is uniform even when a heterogeneous, degree of freedom in setting the measurement distance It is possible to provide a three-dimensional measurement device having a large value.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る計測システムの構成図である。FIG. 1 is a configuration diagram of a measurement system according to the present invention.

【図2】3次元カメラの外観を示す図である。FIG. 2 is a diagram illustrating an appearance of a three-dimensional camera.

【図3】3次元カメラの機能構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a functional configuration of a three-dimensional camera.

【図4】投光レンズ系の構成を示す模式図である。FIG. 4 is a schematic diagram illustrating a configuration of a light projecting lens system.

【図5】受光のためのズームユニットの模式図である。FIG. 5 is a schematic diagram of a zoom unit for receiving light.

【図6】ビームスプリッタの模式図である。FIG. 6 is a schematic diagram of a beam splitter.

【図7】計測用のセンサの受光波長を示すグラフであ
る。
FIG. 7 is a graph showing a light receiving wavelength of a sensor for measurement.

【図8】モニタ用のカラーセンサの受光波長を示すグラ
フである。
FIG. 8 is a graph showing a light receiving wavelength of a monitor color sensor.

【図9】計測システムにおける3次元位置の算出の原理
図である。
FIG. 9 is a principle diagram of calculation of a three-dimensional position in the measurement system.

【図10】出力処理回路のブロック図である。FIG. 10 is a block diagram of an output processing circuit.

【図11】センサの読出し範囲を示す図である。FIG. 11 is a diagram showing a reading range of a sensor.

【図12】3次元カメラにおけるデータの流れを示す図
である。
FIG. 12 is a diagram showing a data flow in the three-dimensional camera.

【図13】ホストにおけるデータの流れを示す図であ
る。
FIG. 13 is a diagram showing a data flow in the host.

【図14】光学系の各点と物体との関係を示す図であ
る。
FIG. 14 is a diagram illustrating a relationship between each point of the optical system and an object.

【図15】スリット光投影法の概要を示す図である。FIG. 15 is a diagram showing an outline of a slit light projection method.

【図16】スリット光投影法による計測の原理を説明す
るための図である。
FIG. 16 is a diagram for explaining the principle of measurement by the slit light projection method.

【図17】従来の計測方法の原理を説明するための図で
ある。
FIG. 17 is a diagram for explaining the principle of a conventional measurement method.

【符号の説明】[Explanation of symbols]

1 計測システム(3次元計測装置) 3 ホスト(演算手段) 40 光学系(投光手段) 43 ガルバノミラー(走査手段) 53 センサ(撮像手段) 61 システムコントローラ(撮像制御手段) 62 出力処理回路(記憶手段) g 画素(受光領域) Npeak 時間重心(照射タイミング) S2 撮像面 U スリット光(検出光) Q 物体 Reference Signs List 1 measurement system (three-dimensional measurement device) 3 host (computing means) 40 optical system (light emitting means) 43 galvanometer mirror (scanning means) 53 sensor (imaging means) 61 system controller (imaging control means) 62 output processing circuit (storage) Means) g Pixel (light receiving area) Npeak Time barycenter (irradiation timing) S2 Imaging surface U Slit light (detection light) Q Object

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 昭58−80510(JP,A) 特開 平7−174536(JP,A) 特開 平6−34366(JP,A) (58)調査した分野(Int.Cl.7,DB名) G01B 11/00 G01B 11/24 G06T 7/00 ────────────────────────────────────────────────── ─── Continuation of the front page (56) References JP-A-58-80510 (JP, A) JP-A-7-174536 (JP, A) JP-A-6-34366 (JP, A) (58) Field (Int.Cl. 7 , DB name) G01B 11/00 G01B 11/24 G06T 7/00

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】検出光を照射して物体を光学的に走査する
ための投光手段と、前記物体で反射した前記検出光を受
光する撮像手段とを用いる3次元計測方法であって、 前記物体に対する前記検出光の照射方向を変化させなが
ら、前記撮像手段の撮像面内の特定の受光領域に入射
ている間に前記特定の受光領域に入射する前記検出光の
光量を前記撮像手段により周期的に複数回サンプリング
し、前記特定の受光領域の 前記光量のサンプリング値の最大
値と、当該最大値を得たサンプリングの前後のサンプリ
ングにおける前記特定の受光領域の前記光量のサンプリ
ング値に基づいて、補間演算によって前記特定の受光領
域の前記光量が最大となる照射タイミングを求める、こ
とを特徴とする3次元計測方法。
1. A three-dimensional measuring method using light projecting means for irradiating a detection light to optically scan an object, and imaging means for receiving the detection light reflected by the object, while changing the irradiation direction of the detecting light relative to the object, incident on the specific light receiving area in the imaging plane of the image pickup means
While the imaging means periodically samples the light amount of the detection light incident on the specific light receiving region a plurality of times by the imaging unit, and calculates the maximum value of the sampling value of the light amount of the specific light receiving region and the maximum value. based on the sampling <br/> ring value of the amount of the specific light receiving region before and after the sampling of the resulting sampling, the specific light receiving territory by interpolation
A three-dimensional measurement method , wherein an irradiation timing at which the light amount in a region becomes maximum is obtained.
【請求項2】前記物体上の前記受光領域に対応した部位
の位置を、前記照射タイミングにおける前記検出光の照
射方向及び前記受光領域に対する前記検出光の入射方向
との関係に基づいて求める、 請求項1記載の3次元計測方法。
2. The method according to claim 1, wherein a position of a part corresponding to the light receiving area on the object is determined based on a relationship between an irradiation direction of the detection light at the irradiation timing and an incident direction of the detection light on the light receiving area. Item 3. The three-dimensional measurement method according to Item 1.
【請求項3】検出光を照射して物体を光学的に走査する
ための投光手段と、 複数の受光領域からなる撮像面を有し、前記物体で反射
した前記検出光を受光する撮像手段と、 前記物体に対する前記検出光の照射方向を変化させる走
査手段と、検出光が 前記各受光領域に入射している間に受光された
前記検出光の前記各受光領域における光量を複数回周期
的に出力するように前記撮像手段を駆動する撮像制御手
段と、 前記各受光領域毎に、前記撮像手段が周期的に出力する
前記光量の最大値と、当該最大値の出力タイミングの前
後に出力された光量を記憶する記憶手段と、 前記記憶手段に記憶された光量に基づいて、前記各受光
領域の前記光量が最大となる照射タイミングを求める照
射タイミング演算手段と、を有したことを特徴とする3
次元計測装置。
3. An illuminating means for irradiating a detection light to optically scan an object, and an imaging means having an imaging surface comprising a plurality of light receiving areas and receiving the detection light reflected by the object. Scanning means for changing the irradiation direction of the detection light on the object, and the amount of the detection light received in each of the light receiving areas while the detection light is incident on each of the light receiving areas. Imaging control means for driving the imaging means so as to periodically output a plurality of times; and for each of the light receiving regions, a maximum value of the light amount periodically output by the imaging means, and an output timing of the maximum value. Storage means for storing the amount of light output before and after, and irradiation timing calculating means for obtaining an irradiation timing at which the amount of light in each of the light receiving regions is maximum based on the amount of light stored in the storage means. 3 characterized by
Dimension measurement device.
【請求項4】前記物体上の前記各受光領域に対応した部
位の位置を、前記照射タイミングにおける前記検出光の
照射方向及び前記受光領域に対する前記検出光の入射方
向との関係に基づいて求める位置演算手段を有した、請
求項3記載の3次元計測装置。
4. A position for obtaining a position of a portion corresponding to each of said light receiving regions on said object based on a relationship between an irradiation direction of said detection light at said irradiation timing and an incident direction of said detection light to said light receiving region. The three-dimensional measurement device according to claim 3, further comprising a calculation unit.
JP29992195A 1995-11-17 1995-11-17 Three-dimensional measuring method and device Expired - Fee Related JP3360505B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP29992195A JP3360505B2 (en) 1995-11-17 1995-11-17 Three-dimensional measuring method and device
US08/748,325 US6141105A (en) 1995-11-17 1996-11-13 Three-dimensional measuring device and three-dimensional measuring method
US09/676,767 US6529280B1 (en) 1995-11-17 2000-10-02 Three-dimensional measuring device and three-dimensional measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29992195A JP3360505B2 (en) 1995-11-17 1995-11-17 Three-dimensional measuring method and device

Publications (2)

Publication Number Publication Date
JPH09145319A JPH09145319A (en) 1997-06-06
JP3360505B2 true JP3360505B2 (en) 2002-12-24

Family

ID=17878542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29992195A Expired - Fee Related JP3360505B2 (en) 1995-11-17 1995-11-17 Three-dimensional measuring method and device

Country Status (1)

Country Link
JP (1) JP3360505B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6252659B1 (en) 1998-03-26 2001-06-26 Minolta Co., Ltd. Three dimensional measurement apparatus
US7492398B1 (en) 1998-09-29 2009-02-17 Minolta Co., Ltd Three-dimensional input apparatus and image sensing control method
JP2003269935A (en) * 2002-03-18 2003-09-25 Hamano Engineering:Kk Measurement method of three-dimensional surface shape, measurement device for three-dimensional surface shape, computer program and computer program recording medium
JP4238891B2 (en) 2006-07-25 2009-03-18 コニカミノルタセンシング株式会社 3D shape measurement system, 3D shape measurement method
JP5488456B2 (en) * 2008-03-07 2014-05-14 株式会社ニコン Shape measuring apparatus and method, and program

Also Published As

Publication number Publication date
JPH09145319A (en) 1997-06-06

Similar Documents

Publication Publication Date Title
JP3873401B2 (en) 3D measurement system
US6141105A (en) Three-dimensional measuring device and three-dimensional measuring method
JP4111166B2 (en) 3D shape input device
JP4111592B2 (en) 3D input device
JP4032603B2 (en) 3D measuring device
US6172755B1 (en) Three dimensional measurement system and pickup apparatus
US6233049B1 (en) Three-dimensional measurement apparatus
US20020089675A1 (en) Three-dimensional input device
US6556307B1 (en) Method and apparatus for inputting three-dimensional data
JP3893169B2 (en) 3D measuring device
JP3493403B2 (en) 3D measuring device
JP3235485B2 (en) Spectroscopic device for three-dimensional measurement
US6421114B1 (en) Three-dimensional information measuring apparatus
JPH10124646A (en) Three-dimensional measuring device
JP3360505B2 (en) Three-dimensional measuring method and device
JP3324367B2 (en) 3D input camera
US6297881B1 (en) Three-dimensional measurement method and three-dimensional measurement device
JP3733625B2 (en) Imaging device for 3D measurement
JPH11271030A (en) Three-dimensional measuring apparatus
JP3196614B2 (en) 3D measuring device
JP3861475B2 (en) 3D input device
JP3740848B2 (en) 3D input device
JP2000275024A (en) Three-dimensional input apparatus
JP2000002520A (en) Three-dimensional input apparatus
JP2003315028A (en) Three-dimensional measuring apparatus

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071018

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081018

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091018

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091018

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101018

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101018

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111018

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111018

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121018

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121018

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131018

Year of fee payment: 11

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees