JPH09325019A - Three-dimensional measuring device - Google Patents

Three-dimensional measuring device

Info

Publication number
JPH09325019A
JPH09325019A JP8142831A JP14283196A JPH09325019A JP H09325019 A JPH09325019 A JP H09325019A JP 8142831 A JP8142831 A JP 8142831A JP 14283196 A JP14283196 A JP 14283196A JP H09325019 A JPH09325019 A JP H09325019A
Authority
JP
Japan
Prior art keywords
measurement
measuring
light
mode
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8142831A
Other languages
Japanese (ja)
Inventor
Toshio Norita
寿夫 糊田
Hiroshi Uchino
浩志 内野
Takuto Uefuru
琢人 上古
Hidekazu Ide
英一 井手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP8142831A priority Critical patent/JPH09325019A/en
Priority to US08/867,877 priority patent/US6049385A/en
Publication of JPH09325019A publication Critical patent/JPH09325019A/en
Priority to US09/465,446 priority patent/US6172755B1/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To expand the application range of measurement by providing a function which allows a range finder to perform measurement cyclicly. SOLUTION: When a power is tuned on, control parameters including bits of a CTRL registor are set intially, and a mode is set according to the command from a host. When an instruction to start operation is received, the measurement starts. In the first scanning sequence, a passive AF starts and the position of a focusing lens is adjusted corresponding to the relative movement of an object to a three-dimensional camera. Scanning processing is executed to obtain a distance picture, and the passive AF starts again after the scanning is completed. After the command input and its operation starts, its completion is checked for appropriateness by confirming whether the input count value of frame synchronization signal reaches the set value. In the case of one-shot mode or when the completion instruction is received in continuous mode, the operation returns to main routine.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、物体にスリット光
に代表される検出光を照射して物体形状を非接触で計測
する3次元計測装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional measuring device that irradiates an object with detection light typified by slit light to measure the shape of the object in a non-contact manner.

【0002】[0002]

【従来の技術】レンジファインダと呼称される非接触型
の3次元計測装置(3次元カメラ)は、接触型に比べて
高速の計測が可能であることから、CGシステムやCA
Dシステムへのデータ入力、身体計測、ロボットの視覚
認識などに利用されている。
2. Description of the Related Art A non-contact type three-dimensional measuring device (three-dimensional camera) called a range finder is capable of high-speed measurement as compared with a contact type, and therefore a CG system or a CA.
It is used for data input to the D system, body measurement, and visual recognition of robots.

【0003】レンジファインダに好適な計測方法として
スリット光投影法(光切断法ともいう)が知られてい
る。この方法は、物体を光学的に走査して三角測量の原
理に基づいて距離画像(3次元画像)を得る方法であ
り、検出光を照射して物体を撮影する能動的計測方法の
一種である。距離画像は、物体上の複数の部位の3次元
位置を示す画素の集合である。スリット光投影法では、
検出光として断面が直線状のスリット光が用いられる。
スリット光に代えて、スポット光、ステップ光、濃度パ
ターン光などを照射する光投影法も知られている。
[0003] As a measurement method suitable for a range finder, a slit light projection method (also called a light cutting method) is known. This method is a method of optically scanning an object to obtain a distance image (three-dimensional image) based on the principle of triangulation, and is a kind of active measurement method of irradiating detection light to photograph an object. . The range image is a set of pixels indicating the three-dimensional positions of a plurality of parts on the object. In slit light projection,
Slit light having a linear cross section is used as the detection light.
A light projection method is also known in which spot light, step light, density pattern light, or the like is emitted instead of slit light.

【0004】[0004]

【発明が解決しようとする課題】レンジファインダに周
期的に計測を行う機能を設けることにより、3次元計測
の応用範囲が拡がる。例えば工場の生産ラインにおける
物品の形状検査、移動ロボットの視覚認識、警備の監視
システムなどの実用性を高めることができる。周期的な
3次元計測で得られた時系列の複数の距離画像を比較す
れば、物体の前後移動と形状変化とを容易に見分けるこ
とができる。
By providing the range finder with a function of periodically measuring, the range of application of three-dimensional measurement is expanded. For example, it is possible to enhance the practicality of the shape inspection of articles in the production line of a factory, the visual recognition of a mobile robot, the surveillance system of security, and the like. By comparing a plurality of time-series distance images obtained by the periodic three-dimensional measurement, it is possible to easily distinguish the front-back movement and the shape change of the object.

【0005】本発明は、周期的に計測を行い且つ用途に
適した条件設定動作を行う3次元計測装置の提供を目的
としている。
It is an object of the present invention to provide a three-dimensional measuring device that performs periodic measurement and performs a condition setting operation suitable for the purpose.

【0006】[0006]

【課題を解決するための手段】周期的に計測を行う際
に、計測条件を一定に保つ方が望ましい場合と、計測の
都度にその時点の計測環境に適した計測条件を設定する
方が望ましい場合とがある。例えば、前者には工場の製
品検査があり、後者には移動ロボットの視覚認識があ
る。計測条件を固定すれば時系列の計測データの取扱い
が容易になり、可変とすれば計測環境の変化に係わらず
適正な計測データが得られる。計測環境とは、物体との
距離、物体の材質(反射率)、環境光といった計測領域
の状態である。計測条件としては、検出光の投射角度範
囲、検出光の強度、フォーカシング状態などを挙げるこ
とができる。
[Means for Solving the Problems] When periodically measuring, it is preferable to keep the measurement conditions constant, and it is preferable to set the measurement conditions suitable for the measurement environment at each time of measurement. There are cases. For example, the former involves product inspection in factories and the latter involves visual recognition of mobile robots. If the measurement conditions are fixed, time-series measurement data can be easily handled, and if the measurement conditions are variable, appropriate measurement data can be obtained regardless of changes in the measurement environment. The measurement environment is the state of the measurement area such as the distance from the object, the material (reflectance) of the object, and the ambient light. Examples of the measurement conditions include the projection light angle range of the detection light, the intensity of the detection light, and the focusing state.

【0007】計測条件を固定とするモードと、可変とす
るモードとをユーザーが選択できるようにすれば、装置
の汎用性は高まる。一方、モードを限定すれば、コスト
面で有利となる。
If the user can select a mode in which the measurement condition is fixed and a mode in which the measurement condition is variable, the versatility of the apparatus is enhanced. On the other hand, limiting the mode is advantageous in terms of cost.

【0008】請求項1の発明の装置は、検出光を照射し
て物体を光学的に走査するための投光手段と、前記物体
で反射した前記検出光を受光する撮像手段とを有し、光
投影法によって物体形状を計測する3次元計測装置であ
って、計測環境を測定する予備測定手段と、前記予備測
定手段によって測定された計測環境に応じて計測条件を
設定する制御手段とを有し、周期的に計測する連続計測
モードが設けられ、さらに、連続計測モードにおける前
記制御手段の動作モードの選択肢として、各回の計測条
件を最初の計測時に設定した計測条件に固定する第1モ
ードと、各回の計測条件を計測毎に新たに測定された計
測環境に応じて設定する第2モードと、が設けられたも
のである。
The apparatus according to the invention of claim 1 has a light projecting means for irradiating the detection light to optically scan the object, and an imaging means for receiving the detection light reflected by the object. A three-dimensional measuring device for measuring an object shape by a light projection method, comprising: preliminary measuring means for measuring a measuring environment, and control means for setting a measuring condition according to the measuring environment measured by the preliminary measuring means. However, a continuous measurement mode for periodically measuring is provided, and as a choice of the operation mode of the control means in the continuous measurement mode, a first mode in which the measurement condition of each time is fixed to the measurement condition set at the time of the first measurement. , A second mode in which the measurement condition for each time is set in accordance with the measurement environment newly measured for each measurement.

【0009】請求項2の発明の装置は、検出光を照射し
て物体を光学的に走査するための投光手段と、前記物体
で反射した前記検出光を受光する撮像手段とを有し、光
投影法によって物体形状を計測する3次元計測装置であ
って、計測環境を測定する予備測定手段と、前記予備測
定手段によって測定された計測環境に応じて計測条件を
設定する制御手段とを有し、周期的に計測する連続計測
モードが設けられ、連続計測モードにおいて、前記制御
手段は、各回の計測条件を最初の計測時に設定した計測
条件に固定するように構成されている。
According to a second aspect of the present invention, there is provided a device for projecting light for irradiating detection light to optically scan an object, and imaging means for receiving the detection light reflected by the object. A three-dimensional measuring device for measuring an object shape by a light projection method, comprising: preliminary measuring means for measuring a measuring environment, and control means for setting a measuring condition according to the measuring environment measured by the preliminary measuring means. Then, a continuous measurement mode for periodically measuring is provided, and in the continuous measurement mode, the control means is configured to fix the measurement condition of each time to the measurement condition set at the time of the first measurement.

【0010】請求項3の発明の装置は、検出光を照射し
て物体を光学的に走査するための投光手段と、前記物体
で反射した前記検出光を受光する撮像手段とを有し、光
投影法によって物体形状を計測する3次元計測装置であ
って、計測環境を測定する予備測定手段と、前記予備測
定手段によって測定された計測環境に応じて計測条件を
設定する制御手段とを有し、周期的に計測する連続計測
モードが設けられ、連続計測モードにおいて、前記制御
手段が、各回の計測条件を計測毎に新たに測定された計
測環境に応じて設定するように構成されている。
According to a third aspect of the present invention, there is provided a device for projecting light for irradiating the detection light to optically scan the object, and imaging means for receiving the detection light reflected by the object. A three-dimensional measuring device for measuring an object shape by a light projection method, comprising: preliminary measuring means for measuring a measuring environment, and control means for setting a measuring condition according to the measuring environment measured by the preliminary measuring means. Then, a continuous measurement mode for periodically measuring is provided, and in the continuous measurement mode, the control means is configured to set the measurement condition for each time according to the measurement environment newly measured for each measurement. .

【0011】[0011]

【発明の実施の形態】図1は本発明に係る計測システム
1の構成図である。計測システム1は、スリット光投影
法によって立体計測を行う3次元カメラ(レンジファイ
ンダ)2と、3次元カメラ2の出力データを処理するホ
スト3とから構成されている。
FIG. 1 is a configuration diagram of a measurement system 1 according to the present invention. The measurement system 1 includes a three-dimensional camera (range finder) 2 that performs three-dimensional measurement by the slit light projection method, and a host 3 that processes output data of the three-dimensional camera 2.

【0012】3次元カメラ2は、物体Q上の複数のサン
プリング点の3次元位置を特定する計測データ(距離画
像)とともに、物体Qのカラー情報を示す2次元画像及
びキャリブレーションに必要なデータを出力する。三角
測量法を用いてサンプリング点の座標を求める演算処理
はホスト3が担う。
The three-dimensional camera 2 collects measurement data (distance image) for specifying three-dimensional positions of a plurality of sampling points on the object Q, a two-dimensional image showing color information of the object Q and data necessary for calibration. Output. The host 3 is responsible for the arithmetic processing for obtaining the coordinates of the sampling points using the triangulation method.

【0013】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、及びマウス3dなどから構成され
たコンピュータシステムである。CPU3aには計測デ
ータ処理のためのソフトウェアが組み込まれている。ホ
スト3と3次元カメラ2との間では、オンライン形態の
データ受渡しが行われる。
The host 3 includes a CPU 3a and a display 3
This is a computer system including a keyboard b, a keyboard 3c, a mouse 3d, and the like. Software for processing measurement data is incorporated in the CPU 3a. Online data transfer is performed between the host 3 and the three-dimensional camera 2.

【0014】図2は3次元カメラ2の外観を示す図であ
る。ハウジング20の前面に投光窓20a及び受光窓2
0bが設けられている。投光窓20aは受光窓20bに
対して上側に位置する。内部の光学ユニットOUが射出
するスリット光(所定幅wの帯状のレーザビーム)U
は、投光窓20aを通って計測対象の物体(被写体)に
向かう。スリット光Uの長さ方向M1の放射角度φは固
定である。物体の表面で反射したスリット光Uの一部が
受光窓20bを通って光学ユニットOUに入射する。光
学ユニットOUは、投光軸と受光軸との相対関係を適正
化するための2軸調整機構を備えている。
FIG. 2 is a view showing the outer appearance of the three-dimensional camera 2. A light projecting window 20a and a light receiving window 2 are provided on the front surface of the housing 20.
0b is provided. The light projecting window 20a is located above the light receiving window 20b. Slit light (band-shaped laser beam with a predetermined width w) U emitted from the internal optical unit OU
Goes to the object (subject) to be measured through the light projecting window 20a. The emission angle φ of the slit light U in the length direction M1 is fixed. A part of the slit light U reflected on the surface of the object enters the optical unit OU through the light receiving window 20b. The optical unit OU includes a biaxial adjustment mechanism for optimizing the relative relationship between the light projecting axis and the light receiving axis.

【0015】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、及びスタート/ストップボタン27が設け
られている。図2(b)のように、ハウジング20の背
面には、液晶ディスプレイ21、カーソルボタン22、
セレクトボタン23、キャンセルボタン24、アナログ
出力端子31,32、及びデジタル出力端子33が設け
られている。アナログ出力端子31からは計測データと
して距離画像DGが出力され、アナログ出力端子32か
らは2次元画像DMが出力される。アナログ信号の出力
形式は例えばNTSC形式である。デジタル出力端子3
3は例えばRS232−C端子であり、撮影条件データ
DSの出力に用いられる。
On the top surface of the housing 20, there are zooming buttons 25a, 25b and a manual focusing button 26.
a, 26b, and a start / stop button 27 are provided. As shown in FIG. 2B, on the rear surface of the housing 20, a liquid crystal display 21, cursor buttons 22,
A select button 23, a cancel button 24, analog output terminals 31, 32, and a digital output terminal 33 are provided. A distance image DG is output as measurement data from the analog output terminal 31, and a two-dimensional image DM is output from the analog output terminal 32. The output format of the analog signal is, for example, the NTSC format. Digital output terminal 3
Reference numeral 3 is, for example, an RS232-C terminal, which is used to output the shooting condition data DS.

【0016】液晶ディスプレイ(LCD)21は、操作
画面の表示手段及び電子ファインダとして用いられる。
撮影者は背面の各ボタン22〜24によって撮影モード
の設定を行うことができる。
A liquid crystal display (LCD) 21 is used as a display means for an operation screen and an electronic finder.
The photographer can set the photographing mode by using the buttons 22 to 24 on the rear surface.

【0017】図3は3次元カメラ2の機能構成を示すブ
ロック図である。図中の実線矢印は電気信号の流れを示
し、破線矢印は光の流れを示している。3次元カメラ2
は、上述の光学ユニットOUを構成する投光側及び受光
側の2つの光学系40,50を有している。光学系40
において、半導体レーザ(LD)41が射出する波長6
70nmのレーザビームは、投光レンズ系42を通過す
ることによってスリット光Uとなり、ガルバノミラー
(走査手段)43によって偏向される。半導体レーザ4
1のドライバ44、投光レンズ系42の駆動系45、及
びガルバノミラー43の駆動系46は、システムコント
ローラ61によって制御される。
FIG. 3 is a block diagram showing the functional arrangement of the three-dimensional camera 2. In the figure, solid arrows indicate the flow of electric signals, and broken arrows indicate the flow of light. 3D camera 2
Has two optical systems 40 and 50 on the light-projecting side and the light-receiving side that constitute the above-mentioned optical unit OU. Optical system 40
At the wavelength 6 emitted by the semiconductor laser (LD) 41
The 70 nm laser beam becomes slit light U by passing through the light projecting lens system 42 and is deflected by the galvanomirror (scanning means) 43. Semiconductor laser 4
The No. 1 driver 44, the drive system 45 of the projection lens system 42, and the drive system 46 of the galvanometer mirror 43 are controlled by the system controller 61.

【0018】光学系50において、ズームユニット51
によって集光された光はビームスプリッタ52によって
分光される。半導体レーザ41の発振波長帯域の光は、
計測用のセンサ53に入射する。可視帯域の光は、モニ
タ用のカラーセンサ54に入射する。センサ53及びカ
ラーセンサ54は、どちらもCCDエリアセンサであ
る。ズームユニット51は内焦型であり、入射光の一部
がオートフォーカシング(AF)に利用される。AF機
構は、一眼レフカメラで採用されているパッシブ方式で
あり、AFセンサ57とレンズコントローラ58とフォ
ーカシング駆動系59とから構成されている。ズーミン
グ駆動系60は電動ズーミングのために設けられてい
る。AFセンサ57によるパッシブ方式の測距には、後
述するアクティブ方式の測距と比べて、測定可能な距離
範囲が広く短い周期で測定を繰り返すことができるとい
う利点がある。しかし、パッシブ方式の測距精度(分解
能)は十分ではない。
In the optical system 50, the zoom unit 51
The light condensed by the beam splitter 52 is split by the beam splitter 52. The light in the oscillation wavelength band of the semiconductor laser 41 is
The light enters the sensor 53 for measurement. Light in the visible band enters the monitor color sensor 54. Both the sensor 53 and the color sensor 54 are CCD area sensors. The zoom unit 51 is of an in-focus type, and a part of the incident light is used for auto focusing (AF). The AF mechanism is a passive system adopted in a single-lens reflex camera, and is composed of an AF sensor 57, a lens controller 58, and a focusing drive system 59. The zooming drive system 60 is provided for electric zooming. The passive distance measurement using the AF sensor 57 has an advantage over the active distance measurement described later in that the measurable distance range is wide and the measurement can be repeated in a short cycle. However, the passive range measurement accuracy (resolution) is not sufficient.

【0019】センサ53による撮像情報は、ドライバ5
5からのクロックに同期して出力処理回路62へ転送さ
れる。出力処理回路62によってセンサ53の各画素毎
に対応するスリットデータが生成され、メモリ63に格
納される。その後、スリットデータはメモリ63から読
み出されて重心演算回路64に送られる。重心演算回路
64は、スリットデータに基づいて高分解能の距離画像
を生成する。距離画像は、NTSC変換回路65を経
て、計測データとしてフレーム同期の映像信号の形式で
オンライン出力される。重心演算回路64には、システ
ムコントローラ61による制御のためのビットデータ
(GCALC)を格納するCTRLレジスタR1が設け
られている。
Information on the image picked up by the sensor 53 is stored in the driver
The data is transferred to the output processing circuit 62 in synchronization with the clock from 5. The output processing circuit 62 generates slit data corresponding to each pixel of the sensor 53 and stores the slit data in the memory 63. After that, the slit data is read from the memory 63 and sent to the gravity center calculation circuit 64. The center-of-gravity calculation circuit 64 generates a high-resolution range image based on the slit data. The distance image is output online as measurement data in the form of a frame-synchronized video signal via the NTSC conversion circuit 65. The center-of-gravity calculation circuit 64 is provided with a CTRL register R1 that stores bit data (GCALC) for control by the system controller 61.

【0020】一方、カラーセンサ54による撮像情報
は、ドライバ56からのクロックに同期してカラー処理
回路67へ転送される。カラー処理を受けた撮像情報
(2次元画像DM)は、NTSC変換回路70及びアナ
ログ出力端子32を経てオンライン出力される。2次元
画像DMは、センサ53による距離画像と同一の画角の
カラー画像であり、ホスト3側におけるアプリケーショ
ン処理に際して参考情報として利用される。
On the other hand, the image pickup information from the color sensor 54 is transferred to the color processing circuit 67 in synchronization with the clock from the driver 56. The imaging information (two-dimensional image DM) that has undergone color processing is output online via the NTSC conversion circuit 70 and the analog output terminal 32. The two-dimensional image DM is a color image having the same angle of view as the distance image obtained by the sensor 53, and is used as reference information for application processing on the host 3 side.

【0021】なお、システムコントローラ61は、キャ
ラクタジェネレータ71に対して、LCD21の画面上
にその時点の動作状態に応じた適切な文字・記号を表示
するための指示を与える。
The system controller 61 gives an instruction to the character generator 71 to display appropriate characters / symbols on the screen of the LCD 21 according to the operation state at that time.

【0022】図4は計測システム1における3次元位置
の算出の原理図である。センサ53の撮像面S2上で複
数画素分となる比較的に幅の広いスリット光Uを物体Q
に照射する。具体的にはスリット光Uの幅を5画素分と
する。スリット光Uは、サンプリング周期毎に撮像面S
2上で1画素ピッチpvだけ移動するように上から下に
向かって偏向され、それによって物体Qが走査される。
サンプリング周期毎にセンサ53から1フィールド分の
光電変換情報が出力される。
FIG. 4 is a principle diagram of the calculation of the three-dimensional position in the measuring system 1. The slit light U having a relatively wide width corresponding to a plurality of pixels on the image pickup surface S2 of the sensor 53 is transmitted to the object Q.
Irradiation. Specifically, the width of the slit light U is set to 5 pixels. The slit light U has an image pickup surface S for each sampling cycle.
It is deflected from top to bottom so that it moves by one pixel pitch pv on 2, thereby scanning the object Q.
The photoelectric conversion information for one field is output from the sensor 53 every sampling period.

【0023】撮像面S2の1つの画素gに注目すると、
走査中に行うN回のサンプリングの内の5回のサンプリ
ングにおいて有効な受光データが得られる。これら5回
分の受光データに対する補間演算によって、注目画素g
がにらむ範囲の物体表面agをスリット光Uの光軸が通
過するタイミング(時間重心Npeak:注目画素gの
受光量が最大となる時刻)を求める。図4(b)の例で
は、n回目とその1つ前の(n−1)回目の間のタイミ
ングで受光量が最大である。求めた時間重心Npeak
におけるスリット光の照射方向と、注目画素に対するス
リット光の入射方向との関係に基づいて、物体Qの位置
(座標)を算出する。これにより、撮像面の画素ピッチ
pvで規定される分解能より高い分解能の計測が可能と
なる。なお、スリット光の照射方向は、照射開始方向と
偏向角速度とが既知であれば、時間重心Npeakによ
って一義的に特定される。また、入射方向はセンサ53
と受光レンズとの位置関係情報によって特定される。
Focusing on one pixel g on the image pickup surface S2,
Effective light reception data can be obtained in 5 out of N samplings performed during scanning. The pixel of interest g
The timing at which the optical axis of the slit light U passes through the object surface ag in the glare range (time barycenter Npeak: the time at which the amount of light received by the target pixel g becomes maximum) is determined. In the example of FIG. 4B, the amount of received light is maximum between the n-th time and the (n-1) -th time before the n-th time. Obtained time center of gravity Npeak
The position (coordinates) of the object Q is calculated based on the relationship between the irradiation direction of the slit light and the incident direction of the slit light with respect to the target pixel. As a result, it is possible to measure with a resolution higher than the resolution defined by the pixel pitch pv on the imaging surface. The irradiation direction of the slit light is uniquely specified by the time centroid Npeak if the irradiation start direction and the deflection angular velocity are known. Also, the incident direction is the sensor
And the light receiving lens.

【0024】注目画素gの受光量は物体Qの反射率に依
存する。しかし、5回のサンプリングの各受光量の相対
比は受光の絶対量に係わらず一定である。つまり、物体
色の濃淡は計測精度に影響しない。
The amount of light received by the pixel of interest g depends on the reflectance of the object Q. However, the relative ratio of each received light amount of the five samplings is constant regardless of the absolute amount of received light. That is, the shading of the object color does not affect the measurement accuracy.

【0025】本実施形態の計測システム1では、3次元
カメラ2の重心演算回路64によってセンサ53の画素
g毎に時間重心Npeakが算出され、有効画素数の時
間重心Npeakが距離画像としてNTSC形式でホス
ト3へ伝送される。これにより、5フィールド分の受光
データをホスト3へ送ってホスト3の側で時間重心Np
eakを求める場合と比べて、伝送データ量が大幅に少
なくなり、アナログ信号によるシリアル伝送の所要時間
を短縮することができる。なお、時間重心Npeakか
ら物体の座標を求めるのに必要な撮影条件及び装置条件
は、距離画像の伝送と並行してディジタル出力端子33
を介してホスト3へ伝送される。
In the measurement system 1 of the present embodiment, the center of gravity calculation circuit 64 of the three-dimensional camera 2 calculates the time center of gravity Npeak for each pixel g of the sensor 53, and the time center of gravity Npeak of the number of effective pixels is in NTSC format as a range image. It is transmitted to the host 3. As a result, the received light data for 5 fields is sent to the host 3 and the time center Np is
Compared with the case where eak is calculated, the amount of transmission data is significantly reduced, and the time required for serial transmission using an analog signal can be shortened. Note that the imaging condition and the device condition necessary for obtaining the coordinates of the object from the time center of gravity Npeak are the digital output terminal 33 in parallel with the transmission of the range image.
Is transmitted to the host 3 via.

【0026】図5は出力処理回路62及びメモリ63の
ブロック図、図6はセンサ53の読出し範囲を示す図で
ある。出力処理回路62は、センサ53の出力する光電
変換信号を8ビットの受光データに変換するAD変換部
620、直列接続された4つのディレイメモリ621〜
624、コンパレータ626、及び、フィールド番号
(サンプリング番号)FNを指し示すジェネレータ62
7から構成されている。メモリ63は、有効な5フィー
ルド分の受光データ(スリットデータ)を記憶するため
の5つのメモリバンク63A〜E、受光データが最大と
なるフィールド番号FNを記憶するためのメモリバンク
63F、及びメモリバンク63A〜Fのアドレス指定な
どを行う図示しないメモリ制御手段から構成されてい
る。各メモリバンク63A〜Eは、計測のサンプリング
点数(つまり、センサ53の有効画素数)と同数の受光
データを記憶可能な容量をもつ。
FIG. 5 is a block diagram of the output processing circuit 62 and the memory 63, and FIG. 6 is a diagram showing a read range of the sensor 53. The output processing circuit 62 includes an AD conversion unit 620 that converts the photoelectric conversion signal output from the sensor 53 into 8-bit received light data, and four delay memories 621 to 621 connected in series.
624, a comparator 626, and a generator 62 indicating the field number (sampling number) FN.
7. The memory 63 includes five memory banks 63A to 63E for storing effective received light data (slit data) for five fields, a memory bank 63F for storing a field number FN having the maximum received light data, and a memory bank. It is composed of a memory control means (not shown) for addressing 63A to 63F. Each of the memory banks 63A to 63E has a capacity capable of storing the same number of received light data as the number of sampling points for measurement (that is, the number of effective pixels of the sensor 53).

【0027】4つのディレイメモリ621〜624でデ
ータ遅延を行うことにより、個々の画素gについて5フ
ィールド分の受光データを同時にメモリバンク63A〜
Eに格納することが可能になっている。なお、センサ5
3における1フィールドの読出しは、撮像面S2の全体
ではなく、高速化を図るために図6のように撮像面S2
の一部の有効受光領域(帯状画像)Aeのみを対象に行
われる。有効受光領域Aeはスリット光Uの偏向に伴っ
てフィールド毎に1画素分だけシフトする。本実施形態
では、有効受光領域Aeのシフト方向の画素数は32に
固定されている。CCDエリアセンサの撮影像の一部の
みを読み出す手法は、特開平7−174536号公報に
開示されている。
By performing data delay in the four delay memories 621 to 624, the received light data for 5 fields for each pixel g is simultaneously stored in the memory banks 63A to 63A.
It can be stored in E. The sensor 5
In order to speed up reading of one field in S3, not the entire image pickup surface S2, as shown in FIG.
Is performed only on a part of the effective light receiving area (belt-shaped image) Ae. The effective light receiving area Ae is shifted by one pixel for each field as the slit light U is deflected. In the present embodiment, the number of pixels of the effective light receiving area Ae in the shift direction is fixed to 32. A method of reading out only a part of the captured image of the CCD area sensor is disclosed in Japanese Patent Application Laid-Open No. 7-174536.

【0028】AD変換部620は、1フィールド毎に3
2ライン分の受光データD620を画素gの配列順にシ
リアルに出力する。各ディレイメモリ621〜624
は、31(=32−1)ライン分の容量をもつFIFO
である。
The AD conversion unit 620 uses 3 fields for each field.
The received light data D620 for two lines are serially output in the order of arrangement of the pixels g. Each delay memory 621 to 624
Is a FIFO having a capacity of 31 (= 32-1) lines
It is.

【0029】AD変換部620から出力された注目画素
gの受光データD620は、2フィールド分だけ遅延さ
れた時点で、コンパレータ626によって、メモリバン
ク63Cが記憶する注目画素gについての過去の受光デ
ータD620の最大値と比較される。遅延された受光デ
ータD620(ディレイメモリ622の出力)が過去の
最大値より大きい場合に、その時点のAD変換部620
の出力及び各ディレイメモリ621〜624の出力が、
メモリバンク63E,63D,63C,63B,63A
にそれぞれ格納され、メモリバンク63A〜Eの記憶内
容が書換えられる。これと同時にメモリバンク63Fに
は、メモリバンク63Cに格納する受光データD620
に対応したフィールド番号FNが格納される。
The light reception data D620 of the pixel of interest g output from the AD conversion unit 620 is delayed by two fields, and the past light reception data D620 of the pixel of interest g stored in the memory bank 63C is stored by the comparator 626. Is compared to the maximum value of. When the delayed received light data D620 (output of the delay memory 622) is larger than the past maximum value, the AD conversion unit 620 at that time point
And the outputs of the delay memories 621 to 624 are
Memory banks 63E, 63D, 63C, 63B, 63A
And the stored contents of the memory banks 63A to 63E are rewritten. At the same time, the received light data D620 stored in the memory bank 63C is stored in the memory bank 63F.
The field number FN corresponding to is stored.

【0030】すなわち、n番目(n<N)のフィールド
で注目画素gの受光量が最大になった場合には、メモリ
バンク63Aに(n−2)番目のフィールドのデータが
格納され、メモリバンク63Bに(n−1)番目のフィ
ールドのデータが格納され、メモリバンク63Cにn番
目のフィールドのデータが格納され、メモリバンク63
Dに(n+1)番目のフィールドのデータが格納され、
メモリバンク63Eに(n+2)番目のフィールドのデ
ータが格納され、メモリバンク63Fにnが格納され
る。
That is, when the amount of light received by the target pixel g is maximized in the nth (n <N) field, the data of the (n-2) th field is stored in the memory bank 63A, The data of the (n-1) th field is stored in 63B and the data of the nth field is stored in the memory bank 63C.
The data of the (n + 1) th field is stored in D,
The data of the (n + 2) th field is stored in the memory bank 63E, and n is stored in the memory bank 63F.

【0031】図7は重心演算回路64のブロック図であ
る。重心演算回路64は、5個の掛算器641〜64
5、計3個の加算器646〜648、除算器649、及
び遅延回路640を有している。(n−2)〜(n+
2)の5つのフィールド番号(つまりサンプリング時
刻)にそれぞれ−2,−1,0,1,2の重みを付け、
各メモリバンク63A〜Eからの受光データに対する加
重平均演算を行う。除算器649の出力である加重平均
値は、n番目のサンプリング時刻と時間重心Npeak
との時間的ズレ量である〔図4(b)参照〕。この時間
的ズレ量と、メモリバンク63Fからのフィールド番号
FNとを加算すれば、時間重心Npeakが求まる。遅
延回路640は、時間的ズレ量と同時にフィールド番号
FNを加算器648に入力するために設けられており、
加重平均演算の所要時間分だけフィールド番号FNを遅
延させる。
FIG. 7 is a block diagram of the gravity center calculation circuit 64. The center of gravity calculation circuit 64 includes five multipliers 641 to 64.
5, a total of three adders 646 to 648, a divider 649, and a delay circuit 640 are included. (N-2) to (n +
The weights of -2, -1, 0, 1, and 2 are assigned to the five field numbers of 2) (that is, sampling time),
A weighted average calculation is performed on the received light data from each of the memory banks 63A to 63E. The weighted average value output from the divider 649 is the n-th sampling time and the time centroid Npeak.
It is the amount of time difference with respect to [see FIG. 4 (b)]. The time center of gravity Npeak can be obtained by adding this time shift amount and the field number FN from the memory bank 63F. The delay circuit 640 is provided to input the field number FN to the adder 648 at the same time as the time shift amount,
The field number FN is delayed by the time required for the weighted average calculation.

【0032】メモリバンク63A〜Fから各画素に対応
したデータを順に読み出して重心演算回路64に入力す
ることにより、1回分の計測情報である距離画像DGが
生成される。距離画像DGは、例えば1秒間に30回の
周期で繰り返し出力される。
By sequentially reading the data corresponding to each pixel from the memory banks 63A to 63F and inputting it to the center of gravity computing circuit 64, the distance image DG which is the measurement information for one time is generated. The distance image DG is repeatedly output, for example, at a cycle of 30 times per second.

【0033】次に、3次元カメラ2による計測の基本手
順を説明する。計測システム1では、3次元カメラ2と
計測対象との配置関係が可変である。つまり、ユーザー
は撮影距離やアングルを用途に応じて適宜変更すること
ができる。このため、計測に先立って、計測対象との配
置関係を調べて撮影条件を設定する前処理(撮影準備)
が自動的に行われる。
Next, the basic procedure of measurement by the three-dimensional camera 2 will be described. In the measurement system 1, the positional relationship between the three-dimensional camera 2 and the measurement target is variable. That is, the user can appropriately change the shooting distance and the angle according to the application. Therefore, prior to the measurement, the pre-processing of checking the layout relationship with the measurement target and setting the shooting conditions (shooting preparation)
Is done automatically.

【0034】図8は光学系の各点と物体Qとの関係を示
す図である。3次元カメラ2に対して、直接の操作又は
ホスト3による遠隔操作でズーミングの指示が与えられ
ると、ズームユニット51のバリエータ部が移動すると
ともにフォーカシング部の移動によるフォーカシングが
行われる。フォーカシングの過程でおおよその対物間距
離d0 が測定される。このような受光系のレンズ駆動に
呼応して、投光側のバリエータレンズの移動量の演算が
行われ、演算結果に基づいてレンズ移動制御が行われ
る。ただし、撮影中は、レンズ移動によって撮影条件が
変わるのを避けるため、ズーミング及びフォーカシング
が禁止される。
FIG. 8 is a diagram showing the relationship between each point of the optical system and the object Q. When a zooming instruction is given to the three-dimensional camera 2 by a direct operation or a remote operation by the host 3, the variator part of the zoom unit 51 moves and the focusing part moves to perform focusing. An approximate object distance d 0 is measured during the focusing process. In response to the driving of the lens of the light receiving system, the movement amount of the variator lens on the light projecting side is calculated, and the lens movement control is performed based on the calculation result. However, during shooting, zooming and focusing are prohibited to avoid changing shooting conditions due to lens movement.

【0035】システムコントローラ61は、レンズコン
トローラ58を介して、フォーカシング駆動系59のエ
ンコーダ出力(繰り出し量Ed)及びズーミング駆動系
60のエンコーダ出力(ズーム刻み値fp)を読み込
む。システムコントローラ61の内部において、歪曲収
差テーブル、主点位置テーブル、及び像距離テーブルが
参照され、繰り出し量Ed及びズーム刻み値fpに対応
した撮影条件データがホスト2へ出力される。ここでの
撮影条件データは、前側主点位置、像距離などである。
The system controller 61 reads the encoder output of the focusing drive system 59 (extending amount Ed) and the encoder output of the zooming drive system 60 (zoom increment value fp) via the lens controller 58. Inside the system controller 61, the distortion aberration table, the principal point position table, and the image distance table are referred to, and shooting condition data corresponding to the extension amount Ed and the zoom step value fp are output to the host 2. The shooting condition data here includes a front principal point position, an image distance, and the like.

【0036】また、システムコントローラ61は、半導
体レーザ41の出力(レーザ強度)及びスリット光Uの
偏向条件(投射開始角、投射終了角、偏向角速度)を算
定する。
The system controller 61 also calculates the output (laser intensity) of the semiconductor laser 41 and the deflection conditions (projection start angle, projection end angle, deflection angular velocity) of the slit light U.

【0037】まず、おおよその対物間距離d0 に平面物
体が存在するものとして、センサ53の中央で反射光を
受光するように投射角を設定する。次にレーザ強度を算
定する。人体に対する安全を考慮して最小強度で半導体
レーザ41をパルス点灯し、センサ53の出力を取り込
む。このときの投射角は先に対物間距離d0 に基づいて
設定した角度である。取り込んだ信号と適正レベルとの
比を算出し、仮のレーザ強度を設定する。設定した仮の
レーザ強度で再びパルス点灯し、センサ53の出力を取
り込む。センサ53の出力が許容範囲内の値となるま
で、レーザ強度の仮設定と適否の確認とを繰り返す。な
お、最大強度で点灯しても受光量が不十分である場合
は、センサ53の電荷蓄積時間を延長する露出制御を行
う。
First, assuming that a plane object exists at an approximate object distance d 0 , the projection angle is set so that the reflected light is received at the center of the sensor 53. Next, the laser intensity is calculated. In consideration of safety for the human body, the semiconductor laser 41 is pulse-lighted with the minimum intensity, and the output of the sensor 53 is captured. The projection angle at this time is the angle previously set based on the object distance d 0 . The ratio between the captured signal and the proper level is calculated, and the temporary laser intensity is set. The pulse is turned on again with the set temporary laser intensity, and the output of the sensor 53 is captured. The temporary setting of the laser intensity and the confirmation of suitability are repeated until the output of the sensor 53 becomes a value within the allowable range. If the amount of received light is insufficient even if the light is emitted at the maximum intensity, exposure control is performed to extend the charge accumulation time of the sensor 53.

【0038】続いて、スリット光Uの投射角と受光位置
とから三角測量法により対物間距離dを決定する。そし
て、最後に、決定された対物間距離dに基づいて、偏向
条件を算出する。偏向条件の算定に際しては、対物間距
離dの測距基準点である受光系の後側主点H’と投光の
起点Aとのオフセットdoffを考慮する。また、走査
方向の端部においても中央部と同様の計測可能距離範囲
d’を確保するため、所定量(例えば8画素分)のオー
バースキャンを行うようにする。投射開始角th1、投
射終了角th2、偏向角速度ωは、次式で表される。
Subsequently, the distance d between the objectives is determined by the triangulation method from the projection angle of the slit light U and the light receiving position. Then, finally, the deflection condition is calculated based on the determined inter-object distance d. When the deflection condition is calculated, the offset doff between the rear principal point H ′ of the light receiving system, which is the distance measurement reference point of the inter-object distance d, and the light emission starting point A is considered. In addition, in order to secure the same measurable distance range d ′ at the ends in the scanning direction as well, a predetermined amount (for example, 8 pixels) of overscan is performed. The projection start angle th1, the projection end angle th2, and the deflection angular velocity ω are represented by the following equations.

【0039】th1=tan-1〔β×pv(np/2+
8)+L)/(d+doff)〕×180/π th2=tan-1〔−β×pv(np/2+8)+L)
/(d+doff)〕×180/π ω=(th1−th2)/np β:撮像倍率(=d/実効焦点距離freal) pv:画素ピッチ np:撮像面S2の水平方向の有効画素数 L:基線長 このようにして算出された条件の下で実際の計測が行わ
れ、センサ53の仕様を含む装置情報及び撮影条件が距
離画像DGとともに3次元カメラ2からホスト3へ伝送
される。ただし、後述のコンティニュアスモードにおい
ては、初回の計測時のみに装置情報が伝送される。表1
は3次元カメラ2がホスト3へ送る主なデータをまとめ
たものである。
Th1 = tan -1 [β × pv (np / 2 +
8) + L) / (d + doff)] × 180 / π th2 = tan −1 [−β × pv (np / 2 + 8) + L)
/ (D + doff)] × 180 / π ω = (th1-th2) / np β: Imaging magnification (= d / effective focal length freal) pv: Pixel pitch np: Number of effective pixels in the horizontal direction of the imaging surface S2 L: Base line Length Actual measurement is performed under the conditions calculated in this way, and device information including the specifications of the sensor 53 and shooting conditions are transmitted from the three-dimensional camera 2 to the host 3 together with the distance image DG. However, in the continuous mode described later, the device information is transmitted only at the first measurement. Table 1
Is a collection of main data that the three-dimensional camera 2 sends to the host 3.

【0040】[0040]

【表1】 [Table 1]

【0041】以下、計測システム1の動作をさらに詳し
く説明する。3次元カメラ2の動作は、スタート指示に
呼応して1回だけ計測を行うワンショットモードと、ス
タート指示を受けた後にストップ指示がなされるまで周
期的に計測を行うコンティニュアスモード(連続撮影モ
ード)とに大別される。
The operation of the measuring system 1 will be described in more detail below. The operation of the three-dimensional camera 2 is a one-shot mode in which measurement is performed only once in response to a start instruction, and a continuous mode (continuous shooting in which continuous measurement is performed until a stop instruction is issued after receiving a start instruction). Mode)).

【0042】コンティニュアスモードにおけるAFモー
ドとして、可変モードと固定モードとがある。可変モー
ドは、計測中を除く期間において、AFセンサ57の出
力に応じてフォーカシングを行うモードである。固定モ
ードは、初回の計測時のみにおいてフォーカシングを行
うモードである。どちらのモードであってもAFセンサ
57による対物間距離の測定は計測中を含めて恒常的に
実施される。撮影の倍率が大きい場合(テレ状態)で
は、ピントずれが生じ易いので、鮮明な距離画像を得る
上で可変モードが適している。また、可変モードによれ
ば、物体が大きく移動する場合にも物体の位置を把握す
ることができる。一方、固定モードによれば、レンズの
駆動制御を省略することができる。
AF modes in the continuous mode include a variable mode and a fixed mode. The variable mode is a mode in which focusing is performed according to the output of the AF sensor 57 during a period other than during measurement. The fixed mode is a mode in which focusing is performed only at the first measurement. In either mode, the measurement of the object-to-object distance by the AF sensor 57 is constantly performed, including during measurement. When the photographing magnification is large (telephoto state), focus shift easily occurs, so the variable mode is suitable for obtaining a clear distance image. Further, according to the variable mode, the position of the object can be grasped even when the object moves largely. On the other hand, according to the fixed mode, the drive control of the lens can be omitted.

【0043】図9及び図10はコンティニュアスモード
における3次元カメラ2の動作を示すタイムチャートで
ある。また、表2は制御信号の内容を示してる。
9 and 10 are time charts showing the operation of the three-dimensional camera 2 in the continuous mode. Table 2 shows the contents of control signals.

【0044】[0044]

【表2】 [Table 2]

【0045】ここでは、システムコントローラ61に注
目してその動作を説明する。 [1] スタート/ストップボタン27のオン又はホスト
3からのスタートコマンドの入力に呼応して、撮影準備
(前処理)を開始する。撮影準備は、上述したように光
投影法により対物間距離dを求め、アクティブAF(A
−AF)・投射角度の設定・レーザ強度の設定などを行
う処理である。
Here, the operation of the system controller 61 will be described focusing on the system controller 61. [1] In response to turning on of the start / stop button 27 or input of a start command from the host 3, preparation for photographing (preprocessing) is started. To prepare for shooting, as described above, the inter-object distance d is obtained by the light projection method, and the active AF (A
-AF) / projection angle setting / laser intensity setting.

【0046】[2] 撮影準備が終了すると、CTRLレ
ジスタR1のRUNビットを1にする。そして、SSt
artビットが1になるのを待つ。 [3] RUNビットが1になった後の最初のVSync
に呼応してSStartビットを1にするとともに、フ
レームカウンタをリセットする。SStartビットは
次のVSyncで0に戻す。
[2] When the preparation for photographing is completed, the RUN bit of the CTRL register R1 is set to 1. And SSt
Wait for the art bit to become 1. [3] First VSync after the RUN bit becomes 1
In response to, the SStart bit is set to 1 and the frame counter is reset. The SStart bit is set back to 0 at the next VSync.

【0047】[4][5] SStartビットが1になれ
ば、撮影条件を固定するためレンズ移動を禁止し、スリ
ット光Uによる物体のスキャンニング(撮影)を開始す
る。これ以後の約0.8秒の期間において、システムコ
ントローラ61はスキャンニング制御に専念し、レンズ
コントローラ58は、AFセンサ57による測距を実行
する。この測距において、対物間距離の推移から次のス
キャンニング開始時の対物間距離を予想することができ
る。
[4] [5] When the SStart bit becomes 1, the lens movement is prohibited in order to fix the photographing condition, and the scanning (photographing) of the object by the slit light U is started. During a period of about 0.8 seconds thereafter, the system controller 61 concentrates on scanning control, and the lens controller 58 executes distance measurement by the AF sensor 57. In this distance measurement, it is possible to predict the object distance at the start of the next scanning from the transition of the object distance.

【0048】[6][7] スキャンニングが終了すると、
CTRLレジスタR1のGCALCビットを1にする。
これを受けて、重心演算回路64は時間重心Npeak
の算出を開始する。GCALCビットは、距離画像DG
の生成が完了した時点で重心演算回路64により0にリ
セットされる。
[6] [7] When scanning is completed,
The GCALC bit of the CTRL register R1 is set to 1.
In response to this, the center-of-gravity calculation circuit 64 receives the time center of gravity Npeak
The calculation of is started. GCALC bit is a range image DG
When the generation of is completed, it is reset to 0 by the gravity center calculation circuit 64.

【0049】レンズコントローラ58に対してレンズ移
動の再開を許可する。これを受けて、レンズコントロー
ラ58は、AFセンサ57により対物間距離を測定して
レンズ移動を行うパッシブAF(P−AF)を開始す
る。
The lens controller 58 is permitted to restart lens movement. In response to this, the lens controller 58 starts passive AF (P-AF) in which the AF sensor 57 measures the distance between the objectives and moves the lens.

【0050】[8][9] GCALCビットが0になった
後の最初のVSyncに呼応してNextIビットを1
にするとともに、フレームメモリを切り換えて最新の距
離画像DGの出力を開始する。この後、次のスキャンニ
ングが行われて新たに距離画像DGが生成されるまで、
同じ内容の距離画像DGを繰り返し出力する。Next
Iビットは、1にした後の最初のVSyncで0に戻
す。
[8] [9] The NextI bit is set to 1 in response to the first VSync after the GCALC bit becomes 0.
At the same time, the frame memory is switched and the output of the latest distance image DG is started. After that, until the next scanning is performed and a new range image DG is generated,
The distance image DG having the same content is repeatedly output. Next
The I bit is reset to 0 at the first VSync after setting it to 1.

【0051】[10] 距離画像DGとは別のポート(デ
ィジタル出力端子33)から撮影条件及び装置情報をホ
スト3に出力する。ホスト3はこの信号入力によって、
最新の距離画像DGが出力されていることを認識する。
所定のデータ出力が終わると、今回の撮影情報に基づい
て次回の撮影の距離条件及び露出条件を求める計算を実
行し、SStartビットが1になるのを待つ。なお、
この段階において、上述の可変モードであれば、パッシ
ブAFの出力に基づいて対物間距離の変化を検出する。
そして、許容値を越える対物間距離の変化があった場合
には、改めて光投影法によって高精度の測距を行い、フ
ォーカシングと撮影条件の算定を行う。
[10] Imaging conditions and device information are output to the host 3 from a port (digital output terminal 33) different from the distance image DG. Host 3 receives this signal
It is recognized that the latest distance image DG is output.
After the output of the predetermined data, the calculation for obtaining the distance condition and the exposure condition for the next shooting is executed based on the shooting information of this time, and waits until the SStart bit becomes 1. In addition,
At this stage, in the variable mode described above, the change in the object distance is detected based on the output of the passive AF.
Then, when there is a change in the distance between the objectives that exceeds the allowable value, high-precision distance measurement is performed again by the optical projection method, and focusing and shooting conditions are calculated.

【0052】[11] フレームカウンタのカウント値が
指定値(OPR)より1つ少ない値に達すると、次のV
Syncでカウント値をリセットするとともに、SSt
artビットを1にする。さらに次のVSyncでSS
tartビットを0に戻す。なお、OPRはホスト側で
手動設定される。つまり、ユーザーは所望の計測周期を
設定することができる。
[11] When the count value of the frame counter reaches one less than the specified value (OPR), the next V
The count value is reset with Sync and SSt
Set the art bit to 1. SS at the next VSync
Reset the start bit to 0. The OPR is manually set on the host side. That is, the user can set a desired measurement cycle.

【0053】[12][13] SStartビットが1に
なれば、 [4][5] と同様にレンズ移動を禁止してスキ
ャンニング(撮影)を開始する。以降は [6] 〜 [1
1] の動作を行い、SStartビットが1になる毎
に、 [3] 〜 [11] の計測動作を繰り返す。ただし、
スタート指示から数えて2番目以降の計測においては、
装置情報の出力を省略する。
[12] [13] If the SStart bit becomes 1, the lens movement is prohibited and scanning (imaging) is started, as in [4] [5]. After that, [6] to [1
1] is performed, and the measurement operations of [3] to [11] are repeated each time the SStart bit becomes 1. However,
In the second and subsequent measurements, counting from the start instruction,
The output of device information is omitted.

【0054】[14][15] 図10のように、再度のス
タート/ストップボタン27のオン又はホスト3からの
ストップコマンドの入力に呼応して、RUNビットを0
に戻す。ストップ指示が重心演算の途中で行われた場合
は、その時点でGCALCビットを0に戻す。どの時点
でストップ指示が行われても、最後に得られた距離画像
DGの出力を継続する。
[14] [15] As shown in FIG. 10, the RUN bit is set to 0 in response to turning on the start / stop button 27 again or inputting a stop command from the host 3.
Return to When the stop instruction is given during the calculation of the center of gravity, the GCALC bit is reset to 0 at that point. No matter at what point in time the stop instruction is given, the output of the last obtained distance image DG is continued.

【0055】図11はワンショットモードにおける3次
元カメラ2の動作を示すタイムチャートである。 [21] 〜 [29] 上述のコンティニュアスモードにお
ける [1] 〜 [9] と同様の動作を行う。
FIG. 11 is a time chart showing the operation of the three-dimensional camera 2 in the one-shot mode. [21] to [29] Perform the same operations as [1] to [9] in the continuous mode described above.

【0056】[30] NextIビットが1になれば、
RUNビットを0に戻す。 [31] ディジタル出力端子33から撮影条件及び装置
情報をホスト3に出力する。以降にスタート指示が行わ
れ、新たな距離画像DGが得られるまで、最後に得られ
た距離画像DGの出力を継続する。
[30] If the NextI bit becomes 1,
Set the RUN bit back to 0. [31] The shooting condition and device information are output to the host 3 from the digital output terminal 33. After that, a start instruction is given, and the output of the last obtained distance image DG is continued until a new distance image DG is obtained.

【0057】図12は3次元カメラ2のシステムコント
ローラ61の動作のメインフローチャートである。電源
が投入されると、CTRLレジスタR1のビットを含む
制御パラメータの初期設定を行う(#1)。ボタン操作
又はホスト3からのコマンドに従ってモードを設定する
(#2)。このとき、ユーザーは、コンティニュアスモ
ードにおける計測の周期をフレーム単位で設定すること
ができる。
FIG. 12 is a main flowchart of the operation of the system controller 61 of the three-dimensional camera 2. When the power is turned on, the control parameters including the bits of the CTRL register R1 are initialized (# 1). The mode is set according to a button operation or a command from the host 3 (# 2). At this time, the user can set the measurement cycle in the continuous mode in frame units.

【0058】スタート指示を受けると計測動作に移る
(#3)。AFモードが可変モードであれば第1スキャ
ンシーケンスを実行し(#4,5)、固定モードであれ
ば第2スキャンシーケンスを実行する(#6)。
When the start instruction is received, the measurement operation starts (# 3). If the AF mode is the variable mode, the first scan sequence is executed (# 4, 5), and if it is the fixed mode, the second scan sequence is executed (# 6).

【0059】図13は第1スキャンシーケンス及び第2
スキャンシーケンスのフローチャートである。図13
(A)のように第1スキャンシーケンスでは、まずパッ
シブAFを開始し、3次元カメラ2に対する物体の相対
的な移動に合わせてフォーカシングレンズ位置を調整す
る(#51)。スタート指示を受けると、スキャンニン
グ中のレンズ移動を防止するために、パッシブAFを停
止するとともに、ズーミングを禁止する(#52、5
3)。
FIG. 13 shows the first scan sequence and the second scan sequence.
It is a flowchart of a scan sequence. FIG.
As in (A), in the first scan sequence, passive AF is first started, and the focusing lens position is adjusted according to the relative movement of the object with respect to the three-dimensional camera 2 (# 51). When the start instruction is received, the passive AF is stopped and zooming is prohibited in order to prevent the lens movement during scanning (# 52, 5).
3).

【0060】距離画像DGを得るためのスキャンニング
処理を実行し、スキャンニングが終わるとパッシブAF
を再開するとともに、ズーミングの禁止を解除する(#
54〜56)。コマンド入力及び操作を受け付けた後、
フレーム同期信号VSyncのカウント値が設定値に達
するのを待って終了の適否をチェックする(#57〜5
9)。ワンショットモードの場合、又はコンティニュア
スモードにおいて終了指示を受けた場合にはメインルー
チンへリターンする。コンティニュアスモードにおいて
終了指示がなければ、ステップ#52に戻って計測を繰
り返す。
The scanning process for obtaining the range image DG is executed, and when the scanning is completed, the passive AF is performed.
And resume zooming and remove the prohibition of zooming (#
54-56). After accepting command input and operation,
Waiting for the count value of the frame synchronization signal VSync to reach the set value, it is checked whether or not the end is appropriate (# 57-5).
9). In the one-shot mode, or when the end instruction is received in the continuous mode, the process returns to the main routine. If there is no end instruction in the continuous mode, the process returns to step # 52 to repeat the measurement.

【0061】一方、図13(B)のように第2スキャン
シーケンスでは、まずパッシブAFを開始し、スタート
指示を受けるとパッシブAFを停止するとともにズーミ
ングを禁止する(#61〜63)。スキャンニング処理
を実行した後、ズーミングの禁止を解除する(#64、
65)。パッシブAFは再開しない。コマンド入力及び
操作を受け付け、フレーム同期信号VSyncのカウン
ト値が設定値に達するのを待って終了の適否をチェック
する(#66〜68)。ワンショットモードの場合、又
はコンティニュアスモードにおいて終了指示を受けた場
合にはメインルーチンへリターンする。コンティニュア
スモードにおいて終了指示がなければ、ステップ#63
に戻って計測を繰り返す。
On the other hand, in the second scan sequence as shown in FIG. 13B, first, the passive AF is started, and when the start instruction is received, the passive AF is stopped and zooming is prohibited (# 61 to 63). After performing the scanning process, the prohibition of zooming is released (# 64,
65). Passive AF does not restart. The command input and operation are accepted, and the suitability of the end is checked after waiting for the count value of the frame synchronization signal VSync to reach the set value (# 66 to 68). In the one-shot mode, or when the end instruction is received in the continuous mode, the process returns to the main routine. If there is no end instruction in the continuous mode, step # 63.
Return to and repeat the measurement.

【0062】図14は図13のスキャンニング処理(#
54及び#64)のフローチャートである。上述のよう
に被写体(計測対象の物体)までの距離は、測距センサ
57によって常に測定されている。この距離(対物間距
離)の変化量をチェックし、変化量が許容値を越える場
合に、スリット光投影法により対物間距離を求めて撮影
条件を決める設定処理を実行する(#100、10
1)。変化量が許容値を越えない場合であっても、スタ
ート指示に呼応した1回目の計測のときには設定処理を
実行する(#102)。つまり、原則として2回目以降
の計測では設定処理(#100)を省略し、対物間距離
の大きな変化があったときだけ設定処理を実行する。こ
れにより、3次元計測の精度が確保され、制御の負担が
軽減される。
FIG. 14 shows the scanning process (#
54 and # 64). As described above, the distance to the subject (object to be measured) is constantly measured by the distance measuring sensor 57. The amount of change in this distance (distance between objectives) is checked, and if the amount of change exceeds an allowable value, setting processing is performed to determine the distance between objectives by the slit light projection method and determine the imaging conditions (# 100, 10).
1). Even if the change amount does not exceed the allowable value, the setting process is executed in the first measurement in response to the start instruction (# 102). That is, as a general rule, the setting process (# 100) is omitted in the second and subsequent measurements, and the setting process is executed only when there is a large change in the object distance. This ensures the accuracy of the three-dimensional measurement and reduces the control load.

【0063】コンティニュアスモードにおける撮影条件
の設定モードとして距離計算モードが指定されている場
合には、その時点の撮影条件で距離画像DGを得るスキ
ャンニング制御を実行した後に、直前の撮影情報に基づ
いて次回の計測の撮影条件を算定するための処理とし
て、投射角度の演算及びスリット光量の演算を行う(#
103〜106)。また、輝度計算モードが指定されて
いる場合には、スキャンニング制御を実行した後に、ス
リット光量の演算を行う(#107〜109)。距離計
算モード及び輝度計算モードのどちらも指定されていな
い場合、すなわちワンショットモードの場合は、スキャ
ンニング制御を実行してメインルーチンへリターンする
(#103、107、110)。
When the distance calculation mode is designated as the shooting condition setting mode in the continuous mode, the scanning control is executed to obtain the distance image DG under the shooting condition at that time, and then the immediately preceding shooting information is set. As a process for calculating the imaging condition for the next measurement based on this, the projection angle and the slit light amount are calculated (#
103-106). When the brightness calculation mode is designated, the slit light amount is calculated after executing the scanning control (# 107 to 109). When neither the distance calculation mode nor the brightness calculation mode is designated, that is, in the one-shot mode, the scanning control is executed and the process returns to the main routine (# 103, 107, 110).

【0064】直前の撮影情報に基づいて次回の計測の撮
影条件を算定することにより、計測毎に予備計測を行っ
て撮影条件を算定する場合と比べて、予備計測の所要時
間分だけ計測周期を短縮することができる。また、計測
では走査範囲の空間の詳しい情報が得られるので、各回
の計測情報を次回の計測の予備計測情報として利用する
場合には、例えば一方向にスリット光Uを投射する予備
計測による場合と比べて、より的確な撮影条件の算定が
可能である。
By calculating the shooting condition for the next measurement based on the immediately preceding shooting information, the measurement cycle is set to the time required for the preliminary measurement, as compared with the case where the preliminary measurement is performed for each measurement and the shooting condition is calculated. It can be shortened. In addition, since detailed information on the space of the scanning range can be obtained in the measurement, when the measurement information of each time is used as the preliminary measurement information of the next measurement, for example, the case of the preliminary measurement in which the slit light U is projected in one direction is used. Compared with this, it is possible to calculate the shooting conditions more accurately.

【0065】図15は投射角度の演算のフローチャート
である。まず、距離画像を解析して対物間距離の代表値
を決定する(#1051)。その決定方法には次の〜
を含む種々の方法がある。
FIG. 15 is a flowchart for calculating the projection angle. First, the distance image is analyzed to determine the representative value of the distance between the objectives (# 1051). The decision method is as follows.
There are various methods including.

【0066】画像全体から均一に画素をサンプリング
し、最も短い距離を代表値とする。これによれば、画像
中の背景部分の距離を代表値とする誤りを避けることが
できる。
Pixels are uniformly sampled from the entire image, and the shortest distance is used as a representative value. According to this, it is possible to avoid an error in which the distance of the background portion in the image is used as the representative value.

【0067】画像の中央付近の縦横に並ぶ複数個の画
素をサンプリングし、距離の平均値又は中間値を代表値
とする。この方法は、ノイズの影響が小さい利点をも
つ。 ととを組み合わせた方法であり、画像を均等に分
割した各エリアから縦横に並ぶ複数個の画素をサンプリ
ングするものである。
A plurality of pixels arranged vertically and horizontally near the center of the image are sampled, and the average value or the intermediate value of the distances is used as the representative value. This method has the advantage that the influence of noise is small. This is a method in which and are combined, and a plurality of pixels arranged vertically and horizontally from each area obtained by equally dividing the image are sampled.

【0068】次に、代表値、画素ピッチなどの装置条
件、及び焦点距離などの撮影条件に基づいて、三角測量
の原理を適用して実際の距離を求める(#1052)。
そして、求めた距離の位置の前後の所定範囲が計測対象
となるように、スキャンニングにおける投射の開始角度
及び終了角度を設定する。
Next, the principle of triangulation is applied to find the actual distance based on the device conditions such as the representative value and the pixel pitch, and the photographing conditions such as the focal length (# 1052).
Then, the start angle and the end angle of the projection in the scanning are set so that the predetermined range before and after the position of the obtained distance becomes the measurement target.

【0069】図16はスリット光量の演算のフローチャ
ートである。メモリ63のメモリバンク63Cが記憶す
るn番目のフィールドの受光データ(反射光量)を均一
にサンプリングし、最も大きいサンプリング値を代表値
とする。このとき、最も大きいサンプリング値が上限値
である場合、すなわち計測用センサ53の受光量が飽和
している場合には、(n±1)番目のフィールドの注目
画素の受光データに基づいて補間演算によって最大光量
を求め、その結果を代表値とする(#1061)。
FIG. 16 is a flow chart for calculating the slit light amount. The received light data (reflected light amount) of the nth field stored in the memory bank 63C of the memory 63 is uniformly sampled, and the largest sampled value is used as the representative value. At this time, if the largest sampling value is the upper limit value, that is, if the amount of light received by the measurement sensor 53 is saturated, interpolation calculation is performed based on the light reception data of the pixel of interest in the (n ± 1) th field. The maximum amount of light is obtained by and the result is used as a representative value (# 1061).

【0070】次に、代表値に応じて、計測用センサ53
の受光量が最適値になるように、スリット光量の設定値
を増減する(#1062)。このとき、必要に応じてス
リット光量の調整と合わせて計測用センサ53の露出時
間を調整することにより、受光量を最適化する。
Next, according to the representative value, the measuring sensor 53
The set value of the slit light amount is increased or decreased so that the received light amount of is the optimum value (# 1062). At this time, the amount of received light is optimized by adjusting the exposure time of the measurement sensor 53 together with the adjustment of the slit light amount as needed.

【0071】図17は図14の設定処理のフローチャー
トである。操作又はコマンド入力による撮影距離の指定
がなければ、スリット光Uを照射して撮影情報に基づい
て対物間距離を求め、求めた距離の位置の前後の所定範
囲が計測対象となるように、スキャンニングにおける投
射の開始角度及び終了角度を設定する(#1011〜1
015)。そして、スリット光量の指定がない場合は、
撮影情報に基づいて、計測用センサ53の受光量が最適
値になるようにスリット光量の設定値を増減する(#1
015、1019)。
FIG. 17 is a flow chart of the setting process of FIG. If the shooting distance is not specified by operation or command input, the slit light U is emitted to obtain the distance between the objects based on the shooting information, and the scan is performed so that a predetermined range before and after the position of the obtained distance becomes the measurement target. Set the start angle and the end angle of the projection in the training (# 1011 to 1).
015). If the slit light intensity is not specified,
Based on the photographing information, the set value of the slit light amount is increased or decreased so that the received light amount of the measurement sensor 53 becomes the optimum value (# 1
015, 1019).

【0072】撮影距離の指定があり且つスリット光量の
指定がない場合は、スリット光Uを照射し、撮影情報に
基づいてスリット光量の設定値を増減する(#1016
〜1019)。
When the photographing distance is designated but the slit light amount is not designated, the slit light U is emitted and the set value of the slit light amount is increased or decreased based on the photographing information (# 1016).
-1019).

【0073】図18はホスト3の計測処理のフローチャ
ートである。3次元カメラ2に対してスタートコマンド
を送出し、撮影条件データDSの入力を待つ(#31、
32)。
FIG. 18 is a flowchart of the measuring process of the host 3. A start command is sent to the three-dimensional camera 2 and the input of the shooting condition data DS is waited (# 31,
32).

【0074】撮影条件データDSの入力に呼応して、距
離画像DGを1回分の計測情報として取り込む(#3
3)。そして、距離画像DGに対する情報処理を行う
(#34)。この情報処理としては、距離画像DGと撮
影条件とに基づく座標演算、距離画像DGの記録媒体へ
の書込みなどがある。予め定められた終了条件(時間、
取り込み数終了操作)が成立するまで、撮影条件データ
DSの入力に呼応した最新の距離画像DGの取り込みを
繰り返す。
In response to the input of the photographing condition data DS, the distance image DG is fetched as one measurement information (# 3).
3). Then, information processing is performed on the distance image DG (# 34). This information processing includes coordinate calculation based on the distance image DG and shooting conditions, writing the distance image DG to a recording medium, and the like. Predetermined end conditions (time,
Until the capture number end operation) is established, the capture of the latest range image DG in response to the input of the shooting condition data DS is repeated.

【0075】終了条件が成立すると、3次元カメラ2に
対してストップコマンドを送出し、計測処理を終える
(#35)。なお、ユーザーは、ホスト3のディスプレ
イ3b上で距離画像DGを表示させて計測の状況をモニ
ターすることができる。距離画像DGと2次元のカラー
撮影画像とを表示させることも可能である。
When the end condition is satisfied, a stop command is sent to the three-dimensional camera 2 to end the measurement process (# 35). The user can monitor the measurement situation by displaying the distance image DG on the display 3b of the host 3. It is also possible to display the distance image DG and the two-dimensional color photographed image.

【0076】上述の実施形態によれば、撮影条件データ
DSが距離画像DGの取り込み制御信号として利用され
るので、取り込み制御信号を別途に設ける必要がない。
ユーザーは、コンティニュアスモードにおける計測の周
期を、用途に応じてフレーム単位で変更することができ
る。
According to the above-mentioned embodiment, since the photographing condition data DS is used as the capture control signal for the distance image DG, it is not necessary to separately provide the capture control signal.
The user can change the measurement cycle in the continuous mode in frame units according to the application.

【0077】[0077]

【発明の効果】請求項1乃至請求項3の発明によれば、
周期的に計測を行い且つ各回の計測条件の設定を用途に
適合させることができる。
According to the first to third aspects of the present invention,
The measurement can be performed periodically and the setting of the measurement condition for each time can be adapted to the application.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る計測システムの構成図である。FIG. 1 is a configuration diagram of a measurement system according to the present invention.

【図2】3次元カメラの外観を示す図である。FIG. 2 is a diagram showing an appearance of a three-dimensional camera.

【図3】3次元カメラの機能構成を示すブロック図であ
る。
FIG. 3 is a block diagram showing a functional configuration of a three-dimensional camera.

【図4】計測システムにおける3次元位置の算出の原理
図である。
FIG. 4 is a principle diagram of calculation of a three-dimensional position in the measurement system.

【図5】出力処理回路及びメモリのブロック図である。FIG. 5 is a block diagram of an output processing circuit and a memory.

【図6】センサの読出し範囲を示す図である。FIG. 6 is a diagram showing a reading range of a sensor.

【図7】重心演算回路のブロック図である。FIG. 7 is a block diagram of a centroid calculation circuit.

【図8】光学系の各点と物体との関係を示す図である。FIG. 8 is a diagram showing a relationship between each point of the optical system and an object.

【図9】コンティニュアスモードにおける3次元カメラ
の動作を示すタイムチャートである。
FIG. 9 is a time chart showing the operation of the three-dimensional camera in the continuous mode.

【図10】コンティニュアスモードにおける3次元カメ
ラの動作を示すタイムチャートである。
FIG. 10 is a time chart showing the operation of the three-dimensional camera in the continuous mode.

【図11】ワンショットモードにおける3次元カメラの
動作を示すタイムチャートである。
FIG. 11 is a time chart showing the operation of the three-dimensional camera in the one-shot mode.

【図12】3次元カメラのシステムコントローラの動作
のメインフローチャートである。
FIG. 12 is a main flowchart of the operation of the system controller of the three-dimensional camera.

【図13】第1スキャンシーケンス及び第2スキャンシ
ーケンスのフローチャートである。
FIG. 13 is a flowchart of a first scan sequence and a second scan sequence.

【図14】図13のスキャンニング処理のフローチャー
トである。
14 is a flowchart of the scanning process of FIG.

【図15】投射角度の演算のフローチャートである。FIG. 15 is a flowchart of calculation of a projection angle.

【図16】スリット光量の演算のフローチャートであ
る。
FIG. 16 is a flowchart of a calculation of a slit light amount.

【図17】図14の設定処理のフローチャートである。17 is a flowchart of the setting process of FIG.

【図18】ホストの計測処理のフローチャートである。FIG. 18 is a flowchart of a host measurement process.

【符号の説明】[Explanation of symbols]

2 3次元カメラ(3次元計測装置) 40 投光系(投光手段) 53 計測用センサ(撮像手段) 61 システムコントローラ(予備測定手段、制御手
段) Q 物体 U スリット光(検出光)
2 three-dimensional camera (three-dimensional measuring device) 40 light projecting system (light projecting means) 53 measurement sensor (imaging means) 61 system controller (preliminary measuring means, control means) Q object U slit light (detection light)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 上古 琢人 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 井手 英一 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Takuto Ueko 2-33 Azuchi-cho, Chuo-ku, Osaka-shi, Osaka, Osaka International Building Minolta Co., Ltd. (72) Eiichi Ide Chuo-ku, Osaka-shi, Osaka 2-3-3 Azuchicho Osaka International Building Minolta Co., Ltd.

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】検出光を照射して物体を光学的に走査する
ための投光手段と、前記物体で反射した前記検出光を受
光する撮像手段とを有し、光投影法によって物体形状を
計測する3次元計測装置であって、 計測環境を測定する予備測定手段と、 前記予備測定手段によって測定された計測環境に応じて
計測条件を設定する制御手段とを有し、 周期的に計測する連続計測モードが設けられ、 さらに、連続計測モードにおける前記制御手段の動作モ
ードの選択肢として、各回の計測条件を最初の計測時に
設定した計測条件に固定する第1モードと、各回の計測
条件を計測毎に新たに測定された計測環境に応じて設定
する第2モードと、が設けられたことを特徴とする3次
元計測装置。
1. An object shape is formed by a light projection method, comprising: a light projecting means for irradiating a detection light to optically scan an object, and an imaging means for receiving the detection light reflected by the object. A three-dimensional measuring device for measuring, comprising a preliminary measuring means for measuring a measuring environment, and a control means for setting a measuring condition according to the measuring environment measured by the preliminary measuring means, and measuring periodically. A continuous measurement mode is provided, and as a choice of the operation mode of the control means in the continuous measurement mode, a first mode in which the measurement condition of each time is fixed to the measurement condition set at the time of the first measurement, and a measurement condition of each time is measured. And a second mode for setting each measurement environment according to the newly measured measurement environment.
【請求項2】検出光を照射して物体を光学的に走査する
ための投光手段と、前記物体で反射した前記検出光を受
光する撮像手段とを有し、光投影法によって物体形状を
計測する3次元計測装置であって、 計測環境を測定する予備測定手段と、 前記予備測定手段によって測定された計測環境に応じて
計測条件を設定する制御手段とを有し、 周期的に計測する連続計測モードが設けられ、連続計測
モードにおいて、前記制御手段は、各回の計測条件を最
初の計測時に設定した計測条件に固定することを特徴と
する3次元計測装置。
2. An object shape is formed by a light projection method, comprising: a light projecting means for irradiating the detection light to optically scan the object, and an imaging means for receiving the detection light reflected by the object. A three-dimensional measuring device for measuring, comprising a preliminary measuring means for measuring a measuring environment, and a control means for setting a measuring condition according to the measuring environment measured by the preliminary measuring means, and measuring periodically. A continuous measurement mode is provided, and in the continuous measurement mode, the control means fixes the measurement condition of each time to the measurement condition set at the time of the first measurement.
【請求項3】検出光を照射して物体を光学的に走査する
ための投光手段と、前記物体で反射した前記検出光を受
光する撮像手段とを有し、光投影法によって物体形状を
計測する3次元計測装置であって、 計測環境を測定する予備測定手段と、 前記予備測定手段によって測定された計測環境に応じて
計測条件を設定する制御手段とを有し、 周期的に計測する連続計測モードが設けられ、 連続計測モードにおいて、前記制御手段は、各回の計測
条件を計測毎に新たに測定された計測環境に応じて設定
することを特徴とする3次元計測装置。
3. An object shape is formed by a light projection method, comprising a light projecting means for irradiating the detection light to optically scan the object, and an imaging means for receiving the detection light reflected by the object. A three-dimensional measuring device for measuring, comprising a preliminary measuring means for measuring a measuring environment, and a control means for setting a measuring condition according to the measuring environment measured by the preliminary measuring means, and measuring periodically. A continuous measurement mode is provided, and in the continuous measurement mode, the control means sets a measurement condition for each measurement in accordance with a newly measured measurement environment for each measurement.
JP8142831A 1996-06-05 1996-06-05 Three-dimensional measuring device Pending JPH09325019A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP8142831A JPH09325019A (en) 1996-06-05 1996-06-05 Three-dimensional measuring device
US08/867,877 US6049385A (en) 1996-06-05 1997-06-04 Three dimensional measurement system and pickup apparatus
US09/465,446 US6172755B1 (en) 1996-06-05 1999-12-17 Three dimensional measurement system and pickup apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8142831A JPH09325019A (en) 1996-06-05 1996-06-05 Three-dimensional measuring device

Publications (1)

Publication Number Publication Date
JPH09325019A true JPH09325019A (en) 1997-12-16

Family

ID=15324640

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8142831A Pending JPH09325019A (en) 1996-06-05 1996-06-05 Three-dimensional measuring device

Country Status (1)

Country Link
JP (1) JPH09325019A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219421A (en) * 1998-01-30 1999-08-10 Toshiba Corp Image recognizing device and method therefor
JP2009025125A (en) * 2007-07-19 2009-02-05 Nikon Corp Apparatus for measuring shape
US7492398B1 (en) 1998-09-29 2009-02-17 Minolta Co., Ltd Three-dimensional input apparatus and image sensing control method
JP2022525374A (en) * 2019-03-15 2022-05-12 上海図漾信息科技有限公司 Depth data measuring head, measuring device and measuring method

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11219421A (en) * 1998-01-30 1999-08-10 Toshiba Corp Image recognizing device and method therefor
US7492398B1 (en) 1998-09-29 2009-02-17 Minolta Co., Ltd Three-dimensional input apparatus and image sensing control method
JP2009025125A (en) * 2007-07-19 2009-02-05 Nikon Corp Apparatus for measuring shape
JP2022525374A (en) * 2019-03-15 2022-05-12 上海図漾信息科技有限公司 Depth data measuring head, measuring device and measuring method
US11885613B2 (en) 2019-03-15 2024-01-30 Shanghai Percipio Technology Limited Depth data measuring head, measurement device and measuring method

Similar Documents

Publication Publication Date Title
JP4111592B2 (en) 3D input device
EP0782100B1 (en) Three-dimensional shape extraction apparatus and method
US6049385A (en) Three dimensional measurement system and pickup apparatus
US6233049B1 (en) Three-dimensional measurement apparatus
US6424422B1 (en) Three-dimensional input device
JP3493403B2 (en) 3D measuring device
JPH102712A (en) Three-dimensional measuring device
JP3235485B2 (en) Spectroscopic device for three-dimensional measurement
JP3991501B2 (en) 3D input device
JPH10124646A (en) Three-dimensional measuring device
JPH09325019A (en) Three-dimensional measuring device
JPH09325010A (en) Three-dimensional measuring device
JP3360505B2 (en) Three-dimensional measuring method and device
JP3324367B2 (en) 3D input camera
JPH09325009A (en) Three-dimensional measuring device
JPH09325006A (en) Three-dimensional measuring device
JPH09325018A (en) Three-dimensional measuring system and three-dimensional photographing device
JP2000292121A (en) Three-dimensional measurement method and three- dimensional input device
JP3733625B2 (en) Imaging device for 3D measurement
JP2000275024A (en) Three-dimensional input apparatus
JP2000002520A (en) Three-dimensional input apparatus
JP3740848B2 (en) 3D input device
JP3861475B2 (en) 3D input device
JP3196614B2 (en) 3D measuring device
JP4032556B2 (en) 3D input device