JP2001074412A - Method for correcting lens position and three- dimensional input device - Google Patents

Method for correcting lens position and three- dimensional input device

Info

Publication number
JP2001074412A
JP2001074412A JP25253899A JP25253899A JP2001074412A JP 2001074412 A JP2001074412 A JP 2001074412A JP 25253899 A JP25253899 A JP 25253899A JP 25253899 A JP25253899 A JP 25253899A JP 2001074412 A JP2001074412 A JP 2001074412A
Authority
JP
Japan
Prior art keywords
lens
control data
magnification
memory
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP25253899A
Other languages
Japanese (ja)
Inventor
Akira Yahashi
暁 矢橋
Makoto Miyazaki
誠 宮崎
Tadashi Fukumoto
忠士 福本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP25253899A priority Critical patent/JP2001074412A/en
Publication of JP2001074412A publication Critical patent/JP2001074412A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a method for positioning as designed irrespective of a magnitude of the error of an unfixed quantity such as variations of parts, an assembling error in lens moving. SOLUTION: In this method for correcting a lens position in an image pickup device 2, capable of varying a magnification, comprising a lens moving in the optical axis direction and a controller 58A moving a lens based on control data indicating a lens moving amount in correspondence with each of a plurality of setting magnifications, the control data are stored in a memory 61 writable at least once, and an actual magnification is measured when moving the lens, based on the control data stored in the memory 61A, and the control data are corrected in correspondence with an error between the measured magnification and the setting magnification in correspondence with the control data, and the corrected control data are stored in the memory 61A instead of the control data prior to correction.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ズーミングにおけ
るレンズ位置の補正方法及びズーミング機能を有した光
学式の3次元入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for correcting a lens position in zooming and an optical three-dimensional input device having a zooming function.

【0002】[0002]

【従来の技術】光学式の3次元入力装置(レンジファイ
ンダ)は、CGシステムやCADシステムへのデータ入
力、身体計測、ロボットの視覚認識などに利用されてい
る。光学的に非接触で物体形状を測定する方法として
は、スリット光投影法(光切断法)、パターン光投影
法、ステレオ視法、及び干渉縞法がある。例えば、スリ
ット光投影法では、スリット光の投光角度と、測定対象
の物体で反射して戻ったスリット光の入射角度と、基線
長(投光起点と受光主点との距離)とから三角測量法を
適用した演算によって対物間距離を算出する。物体上の
複数の点について対物間距離を算出することにより、物
体の形状を示す3次元データが得られる。
2. Description of the Related Art An optical three-dimensional input device (range finder) is used for data input to a CG system or a CAD system, body measurement, visual recognition of a robot, and the like. Methods for optically measuring the shape of an object without contact include a slit light projection method (light cutting method), a pattern light projection method, a stereoscopic method, and an interference fringe method. For example, in the slit light projection method, a triangle is obtained from the projection angle of the slit light, the incident angle of the slit light reflected by the object to be measured and returned, and the base line length (the distance between the projection start point and the light receiving principal point). The distance between the objectives is calculated by a calculation to which the survey method is applied. By calculating the inter-object distance for a plurality of points on the object, three-dimensional data indicating the shape of the object can be obtained.

【0003】測定対象範囲を可変にするズーミング機能
を有したレンジファインダでは、受光の主点位置や像距
離といった光学パラメータが演算に関係する。これら光
学パラメータの値は可動部の位置(ズーミング状態)に
よって変化する。特にバリエータレンズの移動の影響が
大きい。したがって、この種のレンジファインダによる
3次元入力では、あらかじめレンズ移動範囲内の適当な
複数の設定位置における光学パラメータ値を示すレンズ
情報が用意される。これらの設定位置以外のレンズ位置
における光学パラメータ値はレンズ情報に基づく内挿補
間演算で算出可能である。また、スリット光投影法によ
る場合は、受光の画角の変化に合わせて投光角度範囲を
最適化するのが望ましいので、レンズ位置と画角との関
係を示すレンズ情報が必要である。
In a range finder having a zooming function for changing a measurement range, optical parameters such as a principal point position of light reception and an image distance are related to calculation. The values of these optical parameters change depending on the position of the movable part (zooming state). In particular, the influence of the movement of the variator lens is great. Therefore, in three-dimensional input using this type of range finder, lens information indicating optical parameter values at a plurality of appropriate set positions within the lens movement range is prepared in advance. Optical parameter values at lens positions other than these set positions can be calculated by interpolation based on lens information. In the case of using the slit light projection method, it is desirable to optimize the projection angle range in accordance with the change in the angle of view of the received light, so that lens information indicating the relationship between the lens position and the angle of view is required.

【0004】このようなレンズ情報は、ズームレンズ系
の設計値に基づく計算によって作成することができる。
ただし、実際にはズームレンズ系における部品のばらつ
きや組立て誤差があるので、必ずしも光学パラメータ値
が設計値どおりになるとは限らない。つまり、レンジフ
ァインダの量産において、製品間で光学パラメータ値に
ある程度のばらつきが生じる。
[0004] Such lens information can be created by calculation based on the design values of the zoom lens system.
However, in practice, there are variations in components and assembly errors in the zoom lens system, so that the optical parameter values do not always match the design values. That is, in mass production of the range finder, a certain degree of variation occurs in the optical parameter value between products.

【0005】一方、従来では、ズームレンズ系における
可動部の移動にDCモータが用いられ、エンコーダ(例
えば金属ブラシ式)でレンズ位置を検出しながら移動量
を調整するフィードバック形式の移動制御が行われてい
た。そして、移動停止位置の再現性を高めるため、ギヤ
のバックラッシを打ち消す程度の微小戻り量の片送りが
行われていた。
On the other hand, in the related art, a DC motor is used for moving a movable portion in a zoom lens system, and feedback type movement control is performed in which the amount of movement is adjusted while detecting the lens position with an encoder (for example, a metal brush type). I was Then, in order to enhance the reproducibility of the movement stop position, one-sided feeding with a minute return amount that cancels backlash of the gear has been performed.

【0006】[0006]

【発明が解決しようとする課題】正確な3次元入力を行
うには、上述の各設定位置における光学パラメータ値を
測定してレンズ情報を修正する校正(キャリブレーショ
ン)が必要である。このキャリブレーションでは、各設
定位置にレンズを配置するときの位置決め状態に再現性
のあることが不可欠である。キャリブレーション時の状
態とその後の実際の測定時とで位置決め状態が異なれ
ば、3次元データに誤差が生じる。また、設定位置と実
際のレンズ配置位置とを一致させるのが望ましい。これ
らの位置のずれが大きいほどキャリブレーションの精度
が低下する。
In order to perform an accurate three-dimensional input, it is necessary to calibrate the lens information by measuring the optical parameter value at each of the above-described set positions. In this calibration, it is essential that the positioning state when the lens is disposed at each set position has reproducibility. If the positioning state differs between the state at the time of calibration and the time of actual measurement thereafter, an error occurs in the three-dimensional data. Further, it is desirable that the set position and the actual lens arrangement position are made to coincide with each other. The greater the displacement between these positions, the lower the accuracy of calibration.

【0007】従来においては、レンズ制御に係わる部品
のばらつき、組立て誤差、エンコーダによる検出から移
動停止までのタイムラグがあるので、レンズを正確に設
定位置に配置するのが困難であり、結像倍率の誤差で表
して5〜10%程度の位置ずれが生じた。移動停止時の
レンズ姿勢が不安定で再現性が低かった。そして、レン
ズ制御に係わる部品のばらつき、組立て誤差があった場
合に、その影響が位置決めのずれとなって現れるという
問題があった。
Conventionally, there are variations in parts related to lens control, assembly errors, and a time lag from detection by the encoder to stop of movement, so that it is difficult to accurately arrange the lens at the set position, and it is difficult to adjust the imaging magnification. A displacement of about 5 to 10%, which is represented by an error, occurred. The lens posture when the movement was stopped was unstable and the reproducibility was low. In addition, there is a problem in that when there is a variation in parts related to lens control and an assembly error, the influence appears as a displacement of positioning.

【0008】本発明は、レンズ移動において、部品のば
らつき及び組立て誤差といった不定量の誤差の大小に係
わらず、設計どおりの位置決めを実現することを目的と
している。他の目的は、不定量の誤差の影響のない3次
元入力を可能にすることである。
An object of the present invention is to realize positioning as designed irrespective of the magnitude of an indeterminate error such as component variation and assembly error in moving a lens. Another object is to enable a three-dimensional input without variable error effects.

【0009】[0009]

【課題を解決するための手段】請求項1の発明の方法
は、光軸方向に移動可能なレンズと、複数の設定倍率の
それぞれに対応したレンズ移動量を示す制御データに基
づいて前記レンズを移動させるコントローラとを備えた
倍率可変の結像装置におけるレンズ位置の補正方法であ
って、前記制御データを少なくとも1回の書換えが可能
なメモリに記憶させておき、前記メモリに記憶されてい
る前記制御データに基づいて前記レンズを移動させたと
きの実際の倍率を測定し、測定された倍率と当該制御デ
ータに対応する設定倍率との誤差に応じて当該制御デー
タを修正し、修正後の制御データを修正前の制御データ
に代えて前記メモリに記憶させるものである。
According to a first aspect of the present invention, there is provided a method according to the first aspect, wherein the lens is movable based on control data indicating a lens movement amount corresponding to each of a plurality of set magnifications. A method for correcting a lens position in a variable magnification imaging apparatus comprising a controller for moving the control data, wherein the control data is stored in a memory that can be rewritten at least once, and the control data stored in the memory is stored in the memory. The actual magnification when the lens is moved based on the control data is measured, and the control data is corrected according to an error between the measured magnification and a set magnification corresponding to the control data. The data is stored in the memory in place of the control data before correction.

【0010】請求項2の発明の装置は、光軸方向に移動
可能なレンズを有する倍率可変の結像手段を備え、前記
結像手段によって得られた物体像とその結像の倍率とに
応じたデータを出力する3次元入力装置であって、前記
レンズの位置を検知するための原点スイッチと、前記原
点スイッチの配置状態によって定まる基準位置から、複
数の設定倍率のそれぞれに対応したレンズ位置までのレ
ンズ移動量を示す制御データを記憶する、少なくとも1
回の書き換えが可能な不揮発性のメモリと、前記メモリ
によって記憶されている前記制御データに基づいて前記
レンズを移動させるコントローラとを備える。
According to a second aspect of the present invention, there is provided an apparatus having variable magnification imaging means having a lens movable in the direction of the optical axis, wherein the magnification is variable according to the object image obtained by the imaging means and the magnification of the imaging. A three-dimensional input device that outputs data obtained from a reference position determined by an arrangement state of the origin switch for detecting the position of the lens and an arrangement of the origin switch, to a lens position corresponding to each of a plurality of set magnifications. Control data indicating the amount of lens movement of at least one
A nonvolatile memory that can be rewritten a number of times; and a controller that moves the lens based on the control data stored in the memory.

【0011】請求項3の発明の3次元入力装置において
は、前記レンズの移動がパルスモータによって行われ、
前記制御データは前記パルスモータの回転ステップ単位
の数値である。
In a three-dimensional input device according to a third aspect of the present invention, the movement of the lens is performed by a pulse motor.
The control data is a numerical value per rotation step of the pulse motor.

【0012】[0012]

【発明の実施の形態】〔システム構成及び動作〕図1は
本発明に係る測定システムの構成図である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS [System Configuration and Operation] FIG. 1 is a configuration diagram of a measurement system according to the present invention.

【0013】測定システム1は、スリット光投影法によ
って立体測定を行う3次元カメラ(レンジファインダ)
2と、3次元カメラ2の出力データを処理するホスト3
とから構成されている。
The measurement system 1 is a three-dimensional camera (range finder) for performing three-dimensional measurement by a slit light projection method.
2 and a host 3 for processing output data of the three-dimensional camera 2
It is composed of

【0014】3次元カメラ2は、測定対象物である物体
Q上のサンプリング点の3次元位置に応じた測定データ
とともに、物体Qのカラー画像及びキャリブレーション
に必要なデータを出力する。三角測量法を用いてサンプ
リング点の座標を求める演算処理はホスト3が担う。
The three-dimensional camera 2 outputs a color image of the object Q and data necessary for calibration, together with measurement data corresponding to the three-dimensional position of a sampling point on the object Q as a measurement target. The host 3 is in charge of calculating the coordinates of the sampling points using the triangulation method.

【0015】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、及びマウス3dなどから構成され
たコンピュータシステムである。CPU3aには測定デ
ータ処理のためのソフトウェアが組み込まれている。ホ
スト3と3次元カメラ2との間では、ケーブル又は赤外
通信によるオンライン及び可搬型の記録メディア4によ
るオフラインの2形態のデータ受渡しが可能である。記
録メディア4としては、光磁気ディスク(MO)、ミニ
ディスク(MD)、メモリカードなどがある。
The host 3 includes a CPU 3a, a display 3
b, a keyboard 3c, a mouse 3d, and the like. Software for processing measurement data is incorporated in the CPU 3a. Two forms of data transfer between the host 3 and the three-dimensional camera 2 are possible: online by cable or infrared communication, and offline by a portable recording medium 4. Examples of the recording medium 4 include a magneto-optical disk (MO), a mini disk (MD), and a memory card.

【0016】図2は3次元カメラの外観を示す図であ
る。ハウジング20の前面に投光窓20a及び受光窓2
0bが設けられている。投光窓20aは受光窓20bに
対して上側に位置する。内部の光学ユニットOUが射出
する所定幅wのスリット光Uは、投光窓20aを通って
測定対象の物体(被写体)に向かう。スリット光Uの長
さ方向M1の放射角度φは固定である。物体の表面で反
射したスリット光Uの一部が受光窓20bを通って光学
ユニットOUに入射する。なお、光学ユニットOUは、
投光軸と受光軸との相対関係を適正化するための2軸調
整機構を備えている。
FIG. 2 is a diagram showing the appearance of the three-dimensional camera. A light emitting window 20a and a light receiving window 2 are provided on the front of the housing 20.
0b is provided. The light projecting window 20a is located above the light receiving window 20b. The slit light U having a predetermined width w emitted from the internal optical unit OU passes through the light projecting window 20a toward the object (subject) to be measured. The radiation angle φ in the length direction M1 of the slit light U is fixed. A part of the slit light U reflected on the surface of the object enters the optical unit OU through the light receiving window 20b. The optical unit OU is
A two-axis adjustment mechanism is provided for optimizing the relative relationship between the light emitting axis and the light receiving axis.

【0017】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、オートフォーカシングボタン26c、及び
シャッタボタン27が設けられている。図2(b)のよ
うに、ハウジング20の背面には、液晶ディスプレイ2
1、カーソルボタン22、セレクトボタン23、キャン
セルボタン24、アナログ信号端子32、ディジタル信
号端子としてのSCSI端子33、及び記録メディア4
の着脱口30aが設けられている。
On the upper surface of the housing 20, zoom buttons 25a and 25b, a manual focusing button 26
a, 26b, an auto-focusing button 26c, and a shutter button 27 are provided. As shown in FIG. 2B, the liquid crystal display 2
1. cursor button 22, select button 23, cancel button 24, analog signal terminal 32, SCSI terminal 33 as a digital signal terminal, and recording medium 4.
Are provided.

【0018】液晶ディスプレイ(LCD)21は、操作
画面の表示手段及び電子ファインダとして用いられる。
ユーザー(撮影者)は背面の各ボタン21〜24によっ
て撮影モードの設定を行うことができる。アナログ信号
端子32からは、カラー画像信号が例えばNTSC形式
で出力される。
A liquid crystal display (LCD) 21 is used as an operation screen display means and an electronic finder.
The user (photographer) can set the photographing mode by using the buttons 21 to 24 on the back. From the analog signal terminal 32, a color image signal is output, for example, in the NTSC format.

【0019】図3は3次元カメラ2の機能構成を示すブ
ロック図である。図中の実線矢印は電気信号の流れを示
し、破線矢印は光の流れを示している。3次元カメラ2
は、上述の光学ユニットOUを構成する投光側及び受光
側の2つの光学系40,50を有している。光学系40
において、半導体レーザ(LD)41が射出する波長6
85nmのレーザビームは、投光レンズ系42を通過す
ることによってスリット光Uとなり、ガルバノミラー
(走査手段)43によって偏向される。半導体レーザ4
1のドライバ44及びガルバノミラー43の駆動系46
は、システムコントローラ61によって制御される。制
御に必要なデータは、本発明に特有の書き換え可能な不
揮発性の制御データメモリ61Aに記録されている。投
光レンズ系42の駆動系45は、レンズコントローラ5
8によって制御される。レンズコントローラ58は、制
御のためのワークエリアとして用いるRAM58Aを有
している。
FIG. 3 is a block diagram showing a functional configuration of the three-dimensional camera 2. In the figure, solid arrows indicate the flow of electric signals, and broken arrows indicate the flow of light. 3D camera 2
Has two optical systems 40 and 50 on the light projecting side and the light receiving side that constitute the optical unit OU described above. Optical system 40
, The wavelength 6 emitted by the semiconductor laser (LD) 41
The 85 nm laser beam becomes slit light U by passing through the light projecting lens system 42 and is deflected by a galvanomirror (scanning means) 43. Semiconductor laser 4
1 driver 44 and drive system 46 of galvanometer mirror 43
Is controlled by the system controller 61. Data required for control is recorded in a rewritable nonvolatile control data memory 61A unique to the present invention. The drive system 45 of the light projecting lens system 42 includes the lens controller 5
8. The lens controller 58 has a RAM 58A used as a work area for control.

【0020】受光側の光学系50において、ズームユニ
ット51によって集光された光は、ビームスプリッタ5
2によって分光される。半導体レーザ41の発振波長帯
域の光は、測定用のイメージセンサ53に入射する。可
視帯域の光は、モニタ用のカラーイメージセンサ54に
入射する。イメージセンサ53及びカラーイメージセン
サ54はどちらもCCD撮像デバイスである。オートフ
ォーカシング(AF)を行うため、ズームユニット51
の近傍にAFモジュール57が配置される。AFモジュ
ール57が出力する距離データ(測距結果)に基づいて
レンズコントローラ58がフォーカシング駆動系59を
制御する。ズーミング駆動系60は、電動ズーミングの
ために設けられている。
In the optical system 50 on the light receiving side, the light condensed by the zoom unit 51 is transmitted to the beam splitter 5.
2 is split. Light in the oscillation wavelength band of the semiconductor laser 41 is incident on the image sensor 53 for measurement. The light in the visible band enters the monitor color image sensor 54. Both the image sensor 53 and the color image sensor 54 are CCD imaging devices. To perform auto focusing (AF), the zoom unit 51
AF module 57 is arranged in the vicinity of. The lens controller 58 controls the focusing drive system 59 based on the distance data (distance measurement result) output from the AF module 57. The zooming drive system 60 is provided for electric zooming.

【0021】3次元カメラ2における物体情報の流れは
次のとおりである。まず、イメージセンサ53による撮
影情報は、ドライバ55からのクロックに同期して信号
処理回路62へ転送される。信号処理回路62は、イメ
ージセンサ53の出力する各画素の光電変換信号を増幅
する増幅器、及び光電変換信号を8ビットの受光データ
に変換するAD変換器を有している。信号処理回路62
で得られた受光データはメモリ63で一時的に記憶され
た後、重心演算回路73へ送られる。その際のアドレス
指定はメモリコントローラ65が行う。重心演算回路7
3は、入力された受光データに基づいて3次元位置を算
出するための基となるデータ(後述の“重心ip”)を
算出し、それを出力メモリ64に出力する。また、重心
ipはモニタ情報として表示用メモリ74へも送られ、
LCD21による距離画像の表示に用いられる。システ
ムコントローラ61は、図示しないキャラクタジェネレ
ータに対して、LCD21の画面上に適切な文字や記号
を表示するための指示を与える。
The flow of object information in the three-dimensional camera 2 is as follows. First, shooting information from the image sensor 53 is transferred to the signal processing circuit 62 in synchronization with a clock from the driver 55. The signal processing circuit 62 includes an amplifier for amplifying the photoelectric conversion signal of each pixel output from the image sensor 53, and an AD converter for converting the photoelectric conversion signal into 8-bit light reception data. Signal processing circuit 62
Are temporarily stored in the memory 63 and then sent to the center-of-gravity calculation circuit 73. The address designation at this time is performed by the memory controller 65. Center of gravity calculation circuit 7
Reference numeral 3 calculates data (hereinafter referred to as a “center of gravity ip”) serving as a basis for calculating a three-dimensional position based on the input light receiving data, and outputs it to the output memory 64. The center of gravity ip is also sent to the display memory 74 as monitor information.
The LCD 21 is used for displaying a distance image. The system controller 61 gives a character generator (not shown) an instruction to display appropriate characters and symbols on the screen of the LCD 21.

【0022】一方、カラーイメージセンサ54による撮
像情報は、ドライバ56からのクロックに同期してカラ
ー処理回路67へ転送される。カラー処理を受けた撮像
情報は、NTSC変換回路70及びアナログ出力端子3
2を経てオンライン出力され、又はディジタル化回路6
8で量子化されてカラー画像メモリ69に格納される。
その後、カラー画像メモリ69からSCSIコントロー
ラ66へカラー画像データが転送され、オンライン出力
され又は記録メディア4に格納される。
On the other hand, imaging information from the color image sensor 54 is transferred to the color processing circuit 67 in synchronization with a clock from the driver 56. The color-processed imaging information is supplied to the NTSC conversion circuit 70 and the analog output terminal 3
2 or on-line output or digitizing circuit 6
8 and stored in the color image memory 69.
Thereafter, the color image data is transferred from the color image memory 69 to the SCSI controller 66, and is output online or stored in the recording medium 4.

【0023】なお、カラー画像は、イメージセンサ53
による距離画像と同一の画角の像であり、ホスト3にお
けるアプリケーション処理に際して参考情報として利用
される。カラー画像を利用する処理としては、例えばカ
メラ視点の異なる複数組の測定データを組み合わせて形
状モデルを生成する処理、形状モデルの不要の頂点を間
引く処理がある。
It should be noted that the color image is output from the image sensor 53.
Is an image having the same angle of view as that of the distance image, and is used as reference information in application processing in the host 3. Examples of the process using a color image include a process of generating a shape model by combining a plurality of sets of measurement data having different camera viewpoints and a process of thinning out unnecessary vertices of the shape model.

【0024】図4は投光レンズ系の構成図である。図4
(a)は正面図であり、図4(b)は側面図である。投
光レンズ系42は、コリメータレンズ421、バリエー
タレンズ422、及びエキスパンダレンズ423の3つ
のレンズから構成されている。半導体レーザ41が射出
したレーザビームに対して、次の順序で適切なスリット
光Uを得るための光学的処理が行われる。まず、コリメ
ータレンズ421によってビームがわずかに内に向いた
略平行光にされる。次にバリエータレンズ422によっ
てレーザビームのビーム径が調整される。最後にエキス
パンダレンズ423によってビームがスリット長さ方向
M1に拡げられる。
FIG. 4 is a diagram showing the construction of the light projecting lens system. FIG.
(A) is a front view and FIG. 4 (b) is a side view. The light projection lens system 42 includes three lenses: a collimator lens 421, a variator lens 422, and an expander lens 423. The laser beam emitted from the semiconductor laser 41 is subjected to an optical process for obtaining an appropriate slit light U in the following order. First, the collimator lens 421 converts the beam into substantially parallel light slightly inward. Next, the beam diameter of the laser beam is adjusted by the variator lens 422. Finally, the beam is expanded in the slit length direction M1 by the expander lens 423.

【0025】バリエータレンズ422は、撮影距離及び
画角に係わらず、イメージセンサ53に複数画素分の幅
のスリット光Uを入射させるために設けられている。駆
動系45はレンズコントローラ58の指示に従って、イ
メージセンサ53上でのスリット光Uの幅wを一定に保
つようにバリエータレンズ422を移動させる。バリエ
ータレンズ422は受光側のズームレンズと連動する。
The variator lens 422 is provided to allow the slit light U having a width corresponding to a plurality of pixels to enter the image sensor 53 regardless of the photographing distance and the angle of view. The drive system 45 moves the variator lens 422 so as to keep the width w of the slit light U on the image sensor 53 constant according to an instruction from the lens controller 58. The variator lens 422 works with the zoom lens on the light receiving side.

【0026】ガルバノミラー43による偏向の以前にス
リット長を拡げることにより、偏向の後で行う場合に比
べてスリット光Uの歪みを低減することができる。エキ
スパンダレンズ423を投光レンズ系42の最終段に配
置することにより、すなわちガルバノミラー43に近づ
けることにより、ガルバノミラー43を小型化すること
ができる。
By increasing the slit length before deflection by the galvanomirror 43, distortion of the slit light U can be reduced as compared with the case where deflection is performed after deflection. By arranging the expander lens 423 at the last stage of the light projecting lens system 42, that is, by bringing it closer to the galvanometer mirror 43, the size of the galvanometer mirror 43 can be reduced.

【0027】図5はズームユニットの構成図である。ズ
ームユニット51は、前側固定レンズ515、バリエー
タ部514、フォーカシング部511、及び後側固定レ
ンズ512から構成されている。バリエータ部514及
びフォーカシング部511は、光軸に沿って互いに独立
に移動可能である。
FIG. 5 is a block diagram of the zoom unit. The zoom unit 51 includes a front fixed lens 515, a variator unit 514, a focusing unit 511, and a rear fixed lens 512. The variator unit 514 and the focusing unit 511 can move independently of each other along the optical axis.

【0028】フォーカシング部511の移動はフォーカ
シング駆動系59が担う。フォーカシング駆動系59
は、レンズを駆動するパルスモータ59Aと、位置決め
のための原点スイッチ59Bとを備えている。フォーカ
シング部511は、原点スイッチ59Bがオンする位置
を基準として、パルスモータ59Aの回転量に応じた距
離だけ移動する。バリエータ部514の移動はズーミン
グ駆動系60が担う。ズーミング駆動系60も、パルス
モータ60Aと原点スイッチ60Bとを備えている。バ
リエータ部514は、原点スイッチ60Bがオンする位
置を基準として、パルスモータ60Aの回転量に応じた
距離だけ移動する。
The movement of the focusing unit 511 is carried out by the focusing drive system 59. Focusing drive system 59
Has a pulse motor 59A for driving the lens and an origin switch 59B for positioning. Focusing unit 511 moves by a distance corresponding to the amount of rotation of pulse motor 59A with reference to the position where origin switch 59B is turned on. The movement of the variator unit 514 is performed by the zooming drive system 60. The zooming drive system 60 also includes a pulse motor 60A and an origin switch 60B. The variator unit 514 moves by a distance corresponding to the rotation amount of the pulse motor 60A based on the position where the origin switch 60B is turned on.

【0029】図6はビームスプリッタ52の構成の一例
を示す模式図である。ビームスプリッタ52は、色分解
膜(ダイクロックミラー)521、色分解膜521を挟
む2つのプリズム522,523、プリズム522の射
出面522bに設けられた赤外線カットフィルタ52
4、イメージセンサ53の前面側に設けられた可視カッ
トフィルタ525、プリズム523の射出面523bに
設けられた赤外線カットフィルタ526、及びローパス
フィルタ527,528から構成されている。
FIG. 6 is a schematic diagram showing an example of the configuration of the beam splitter 52. The beam splitter 52 includes a color separation film (a dichroic mirror) 521, two prisms 522 and 523 sandwiching the color separation film 521, and an infrared cut filter 52 provided on an emission surface 522 b of the prism 522.
4, a visible cut filter 525 provided on the front side of the image sensor 53, an infrared cut filter 526 provided on the exit surface 523b of the prism 523, and low-pass filters 527 and 528.

【0030】ズームユニット51から入射した光UC
は、ローパスフィルタ527、プリズム522を通って
色分解膜521に入射する。半導体レーザ41の発振帯
域の光U0は色分解膜521で反射し、プリズム522
の入射面522aで反射した後、射出面522bからセ
ンサ53に向かって射出する。プリズム522から射出
した光U0の内、赤外線カットフィルタ524及び可視
カットフィルタ525を透過した光がイメージセンサ5
3によって受光される。一方、色分解膜521を透過し
た光C0は、プリズム523を通って射出面523bか
らカラーイメージセンサ54に向かって射出する。プリ
ズム523から射出した光C0の内、赤外線カットフィ
ルタ526及びローパスフィルタ528を透過した光が
カラーイメージセンサ54によって受光される。
Light UC incident from the zoom unit 51
Enter the color separation film 521 through the low-pass filter 527 and the prism 522. Light U0 in the oscillation band of the semiconductor laser 41 is reflected by the color separation film 521, and is reflected by the prism 522.
After being reflected by the incident surface 522a, the light exits from the exit surface 522b toward the sensor 53. Of the light U0 emitted from the prism 522, the light transmitted through the infrared cut filter 524 and the visible cut filter 525 becomes the image sensor 5
3 is received. On the other hand, the light C0 transmitted through the color separation film 521 passes through the prism 523 and exits from the exit surface 523b toward the color image sensor 54. Of the light C0 emitted from the prism 523, the light transmitted through the infrared cut filter 526 and the low-pass filter 528 is received by the color image sensor 54.

【0031】色分解膜521は、スリット光の波長(6
85nm)を含む比較的に広範囲の波長帯域の光を反射
する。しかし、赤外線カットフィルタ524と可視カッ
トフィルタ525とが設けられているので、最終的にイ
メージセンサ53に入射する光は685nmを含む狭い
範囲の波長の光である。これにより、環境光の影響の小
さい、すなわち光学的SN比が大きい測定を実現するこ
とができる。一方、赤外線カットフィルタ528は色分
解膜521を透過した赤外帯域の光を遮断するので、カ
ラーイメージセンサ54には可視光のみが入射する。こ
れにより、モニタ画像の色再現性が高まる。
The color separation film 521 has a wavelength of the slit light (6
85 nm) is reflected. However, since the infrared cut filter 524 and the visible cut filter 525 are provided, the light finally incident on the image sensor 53 is light in a narrow range including 685 nm. As a result, measurement with a small influence of ambient light, that is, a large optical SN ratio can be realized. On the other hand, since the infrared cut filter 528 blocks light in the infrared band transmitted through the color separation film 521, only visible light enters the color image sensor 54. Thereby, the color reproducibility of the monitor image is improved.

【0032】図7はイメージセンサの読出し範囲を示す
図である。イメージセンサセンサ53における1フレー
ムの読出しは、撮像面S2の全体ではなく、高速化を図
るために撮像面S2の一部である有効受光領域(帯状画
像)Aeのみを対象に行われる。有効受光領域Aeは、
測定可能な距離範囲内の物体の起伏を示す輝線が結像す
る領域であり、スリット光Uの偏向に伴ってフレーム毎
に1画素分ずつシフトする。本実施形態では、有効受光
領域Aeのシフト方向の画素数は32に固定されてお
り、長さ方向(水平方向)の画素数は例えば200に選
定されている。なお、CCDエリアセンサの撮影像の一
部のみを読み出す手法は、特開平7−174536号公
報に開示されている。
FIG. 7 is a diagram showing a read range of the image sensor. The reading of one frame by the image sensor 53 is performed not on the entire imaging surface S2 but only on the effective light receiving area (band image) Ae that is a part of the imaging surface S2 in order to increase the speed. The effective light receiving area Ae is
This is an area where a bright line indicating the undulation of the object within the measurable distance range forms an image, and shifts by one pixel for each frame with the deflection of the slit light U. In the present embodiment, the number of pixels in the shift direction of the effective light receiving area Ae is fixed to 32, and the number of pixels in the length direction (horizontal direction) is selected to be, for example, 200. A method of reading out only a part of the captured image of the CCD area sensor is disclosed in Japanese Patent Application Laid-Open No. 7-174536.

【0033】図8は測定システムにおける3次元位置の
算出の原理図である。同図では理解を容易にするため、
各画素gの受光量のサンプリングについて5回分のみが
示されている。
FIG. 8 is a principle diagram for calculating a three-dimensional position in the measurement system. In the figure, for easy understanding,
Only five samples of the received light amount of each pixel g are shown.

【0034】3次元カメラ2は、イメージセンサ53の
受光面(撮像面)S2上でのスリット幅がピッチpvで
並ぶ画素gの複数個分となる比較的に幅の広いスリット
光Uを物体Qに投射する。具体的にはスリット光Uの幅
を3〜5画素分程度とする。スリット光Uは起点Aを中
心に図の上下方向に等角速度で偏向される。物体Qで反
射したスリット光Uは受光光学系を通ってイメージセン
サ53の受光面S2に入射する。スリット光Uの投射中
に受光面S2の各画素gの受光量を周期的にサンプリン
グすることにより、物体Q(厳密には奥行き方向と直交
する仮想面)が走査される。サンプリング周期毎にイメ
ージセンサ53から1フレーム分の光電変換信号が出力
される。
The three-dimensional camera 2 outputs a relatively wide slit light U whose slit width on the light receiving surface (imaging surface) S2 of the image sensor 53 is a plurality of pixels g arranged at a pitch pv to the object Q. To project. Specifically, the width of the slit light U is set to about 3 to 5 pixels. The slit light U is deflected around the starting point A at a constant angular velocity in the vertical direction in the figure. The slit light U reflected by the object Q passes through the light receiving optical system and enters the light receiving surface S2 of the image sensor 53. By periodically sampling the amount of light received by each pixel g on the light receiving surface S2 during the projection of the slit light U, the object Q (strictly, a virtual surface orthogonal to the depth direction) is scanned. One frame of photoelectric conversion signal is output from the image sensor 53 every sampling period.

【0035】受光面S2の1つの画素gに注目すると、
本実施形態においては、走査中に行う32回のサンプリ
ングによって32回分の受光データが得られる。これら
32回分の受光データに対する重心演算によって重心
(時間重心)ipを求める。重心ipは、物体表面のう
ちの注目画素gがにらむ範囲agの中心をスリット光U
の光軸が通過する時点である。
Focusing on one pixel g on the light receiving surface S2,
In the present embodiment, 32 samples of light reception data are obtained by 32 samplings performed during scanning. A barycenter (time barycenter) ip is obtained by a barycenter calculation for these 32 received light data. The center of gravity ip is such that the center of a range ag of the object surface where the pixel of interest g is glazed is a slit light U
Is the point at which the optical axis passes.

【0036】物体Qの表面が平面であって光学系の特性
によるノイズがないとすると、注目画素gの受光量は、
図8(B)に示すようにスリット光Uの像が通過する期
間において多くなり、通常はほぼ正規分布曲線を描くよ
うに推移する。図8(B)の例ではn回目のサンプリン
グ時点Tn とその1つ前の(n−1)回目のサンプリン
グ時点Tn-1 との間で受光量が最大になっており、その
時点は演算結果の重心ipとほぼ一致する。ここで、主
点Oと受光面S2の各画素gとの位置関係から、各画素
gの視線方向が一義的に決まる。
Assuming that the surface of the object Q is flat and there is no noise due to the characteristics of the optical system, the amount of light received by the target pixel g is
As shown in FIG. 8 (B), the number increases in a period during which the image of the slit light U passes, and usually changes almost like a normal distribution curve. In the example of FIG. 8B, the amount of received light is maximum between the n- th sampling time T n and the immediately preceding (n−1) -th sampling time T n−1 , It substantially matches the center of gravity ip of the calculation result. Here, the line-of-sight direction of each pixel g is uniquely determined from the positional relationship between the principal point O and each pixel g on the light receiving surface S2.

【0037】求めた重心ipにおけるスリット光の照射
方向と、注目画素gの視線方向との関係に基づいて、物
体Qの位置(座標)を算出する。これにより、受光面の
画素ピッチpvで規定される分解能よりも高い分解能の
測定が可能となる。なお、注目画素gの受光量は物体Q
の反射率に依存する。しかし、サンプリングの各受光量
の相対比は受光の絶対量に係わらず一定である。つま
り、物体色の濃淡は測定精度に影響しない。
The position (coordinates) of the object Q is calculated based on the relationship between the direction of irradiation of the slit light at the obtained center of gravity ip and the direction of the line of sight of the target pixel g. This enables measurement with a higher resolution than the resolution defined by the pixel pitch pv of the light receiving surface. Note that the amount of light received by the target pixel g is
Depends on the reflectance of However, the relative ratio of each received light amount of sampling is constant regardless of the absolute amount of received light. That is, the shading of the object color does not affect the measurement accuracy.

【0038】図9はイメージセンサの受光面におけるラ
インとフレームとの関係を示す図、図10は各フレーム
の受光データの記憶状態を示す図である。受光面S2の
最初のフレーム1には、先頭ラインであるライン1から
ライン32までの32ライン分の受光データが含まれ
る。フレーム2はライン2からライン33まで、フレー
ム3はライン3からライン34までというように、フレ
ーム毎に1ライン分だけシフトされる。フレーム32は
ライン32からライン63までの32ラインである。
FIG. 9 is a diagram showing the relationship between lines and frames on the light receiving surface of the image sensor, and FIG. 10 is a diagram showing the storage state of the received light data of each frame. The first frame 1 of the light receiving surface S2 includes light receiving data for 32 lines from the line 1 to the line 32, which are the first lines. Frame 2 is shifted by one line per frame, such as from line 2 to line 33, frame 3 from line 3 to line 34, and so on. The frame 32 is 32 lines from a line 32 to a line 63.

【0039】これらフレーム1からフレーム32までの
受光データが、信号処理回路62を介してメモリ63に
順次転送されて記憶される。つまり、メモリ63には、
フレーム1、2、3…の順に受光データが記憶される。
サンプリング範囲の先頭ラインであるライン32のデー
タは、フレーム1については32ライン目、フレーム2
については31ライン目というように、フレーム毎に1
ラインずつ上方にシフトされて記憶される。フレーム1
からフレーム32までの受光データがメモリ63に記憶
されると、ライン32の各画素について、重心ipの算
出が行われる。ライン32についての演算が行われてい
る間に、フレーム33の受光データがメモリ63に転送
されて記憶される。フレーム33の受光データは、メモ
リ63のフレーム32の次のアドレスに記憶される。フ
レーム33のデータがメモリ63に記憶されると、これ
らフレーム2からフレーム33までに含まれるライン3
3の各画素について重心ipの算出が行われる。
The received light data from frame 1 to frame 32 are sequentially transferred to the memory 63 via the signal processing circuit 62 and stored. That is, in the memory 63,
The light receiving data is stored in the order of frames 1, 2, 3,.
The data of the line 32 which is the first line of the sampling range is the 32nd line of the frame 1 and the data of the frame 2
1 for each frame, such as the 31st line
The data is shifted upward by lines and stored. Frame 1
Is stored in the memory 63, the barycenter ip is calculated for each pixel on the line 32. While the calculation for the line 32 is being performed, the received light data of the frame 33 is transferred to the memory 63 and stored. The light receiving data of the frame 33 is stored in the memory 63 at the next address of the frame 32. When the data of the frame 33 is stored in the memory 63, the lines 3 to 3
The calculation of the centroid ip is performed for each pixel of No. 3.

【0040】図11は重心の概念を示す図である。重心
ipは、32回のサンプリングによって得られた32個
の時系列の受光データについての時間重心である。各画
素についての32個の受光データに、1〜32のサンプ
リング番号を付す。i番目の受光データはxiで表され
る。iは1〜32の整数である。このとき、iは1つの
画素について、その画素が有効受光領域に入ってからの
フレーム数を示している。
FIG. 11 is a diagram showing the concept of the center of gravity. The barycenter ip is a time barycenter for 32 time-series received light data obtained by 32 samplings. Sampling numbers 1 to 32 are assigned to 32 pieces of received light data for each pixel. The i-th received light data is represented by xi. i is an integer of 1 to 32. At this time, i indicates the number of frames for one pixel after the pixel enters the effective light receiving area.

【0041】1〜32番の受光データx1〜x32につ
いての重心ipは、32個の受光データについて、i・
xiの総和Σi・xiをxiの総和Σxiで除すことに
より求められる。すなわち、
The center of gravity ip for the 1st to 32nd received light data x1 to x32 is i ·
It is obtained by dividing the sum Σi · xi of xi by the sum Σxi of xi. That is,

【0042】[0042]

【数1】 (Equation 1)

【0043】となる。重心演算回路73はこの(1)式
の演算を行って重心ipを算出する。重心ipの値は物
体Qの表面の位置が3次元カメラ2に近い場合に大き
く、遠い場合に小さい。したがって、受光面S2の各画
素の重心ipを濃度データとして濃淡画像を表示させる
ことによって、測定結果である距離分布を可視化するこ
とができる。ホスト3は、求められた重心ipにおける
スリット光Uの照射方向と注目画素gの視線方向との関
係に基づいて、三角測量の手法を適用して物体Qの位置
(座標)を算出する。
Is as follows. The center-of-gravity calculating circuit 73 calculates the center of gravity ip by performing the calculation of the equation (1). The value of the center of gravity ip is large when the position of the surface of the object Q is close to the three-dimensional camera 2, and is small when it is far from the three-dimensional camera 2. Therefore, by displaying a grayscale image using the barycenter ip of each pixel on the light receiving surface S2 as density data, the distance distribution as a measurement result can be visualized. The host 3 calculates the position (coordinates) of the object Q by applying a triangulation method based on the relationship between the irradiation direction of the slit light U at the calculated center of gravity ip and the line of sight of the target pixel g.

【0044】3次元カメラ2による測定において、ユー
ザーはLCD21が表示するカラーモニタ像を見なが
ら、カメラ位置と向きとを決めて画角を設定する。その
際、必要に応じてズーミング操作及びフォーカシング操
作の一方又は両方を行う。操作に応じてズームユニット
51の中のバリエータ部514及びフォーカシング部5
11が移動する。ユーザーがシャッタボタン27をオン
すると、画角が設定されたことになる。これを受けてシ
ステムコントローラ61は、スリット光Uの偏向条件
(走査開始角、走査終了角、偏向角速度)を設定する。
In the measurement by the three-dimensional camera 2, the user determines the camera position and the direction while setting the angle of view while watching the color monitor image displayed on the LCD 21. At that time, one or both of a zooming operation and a focusing operation are performed as necessary. The variator unit 514 and the focusing unit 5 in the zoom unit 51 according to the operation
11 moves. When the user turns on the shutter button 27, the angle of view is set. In response to this, the system controller 61 sets the deflection conditions (scan start angle, scan end angle, deflection angular velocity) of the slit light U.

【0045】図12は光学系の主要な点と物体との位置
関係の模式図である。偏向条件の設定の基本的な内容は
次のとおりである。AFモジュール57で測定した対物
間距離Dの位置に基準面Ssが存在するものと仮定し、
ズームユニット51の結像倍率から基準面Ssのうちの
受光面S2に写る(投影される)領域を割り出す。その
領域の全域に下端側からスリット光Uを投射するように
走査開始角及び走査終了角を定め、走査の所要時間が一
定値となるように偏向角速度を定める。
FIG. 12 is a schematic diagram of a positional relationship between a main point of the optical system and an object. The basic contents of setting the deflection conditions are as follows. Assuming that the reference plane Ss exists at the position of the inter-object distance D measured by the AF module 57,
From the imaging magnification of the zoom unit 51, an area of the reference surface Ss which is projected (projected) on the light receiving surface S2 is determined. The scanning start angle and the scanning end angle are determined so that the slit light U is projected from the lower end side over the entire area, and the deflection angular velocity is determined so that the required scanning time becomes a constant value.

【0046】実際の設定では、対物間距離Dの測距基準
点である受光系の前側主点Hと投光の起点AとのZ方向
のオフセットDoffを考慮する。また、走査方向の端
部においても中央部と同様の測定可能距離範囲dを確保
するため、所定量(例えば16画素分)のオーバースキ
ャンを行うようにする。走査開始角th1、走査終了角
th2、偏向角速度ωは、次式で表される。 th1= tan-1〔β×pv(np/2+16)+L)/( D+Doff )〕 ×180/π …(2) th2= tan-1〔−β×pv(np/2+16)+L)/(D+Doff )〕 ×180/π …(3) ω=(th1−th2)/np …(4) β:倍率(=D/実効焦点距離freal) pv:画素ピッチ np:受光面S2のY方向の有効画素数 L:基線長 このようにして算出された条件の走査で得られた重心i
pは、xiの総和ΣxiとともにSCSIコントローラ
66により測定結果としてホスト3又は記録メディア4
に出力される。これと同時に、偏向条件及びイメージセ
ンサ53の仕様を含む装置情報も出力される。表1は3
次元カメラ2がホスト3へ送る主なデータをまとめたも
のである。
In the actual setting, the Z-direction offset Doff between the front principal point H of the light receiving system, which is the distance measurement reference point of the inter-object distance D, and the projection start point A is considered. Also, in order to secure the same measurable distance range d at the end in the scanning direction as at the center, an overscan of a predetermined amount (for example, for 16 pixels) is performed. The scan start angle th1, the scan end angle th2, and the deflection angular velocity ω are represented by the following equations. th1 = tan −1 [β × pv (np / 2 + 16) + L) / (D + Doff)] × 180 / π (2) th2 = tan −1 [−β × pv (np / 2 + 16) + L) / (D + Doff) × 180 / π (3) ω = (th1−th2) / np (4) β: magnification (= D / effective focal length freal) pv: pixel pitch np: number of effective pixels in the Y direction of the light receiving surface S2 L: Base line length The center of gravity i obtained by scanning under the conditions calculated as described above.
p is the host 3 or the recording medium 4 as a measurement result by the SCSI controller 66 together with the sum xi of xi.
Is output to At the same time, device information including deflection conditions and specifications of the image sensor 53 is also output. Table 1 is 3
The main data sent by the two-dimensional camera 2 to the host 3 is summarized.

【0047】[0047]

【表1】 [Table 1]

【0048】図13はホストにおける3次元位置演算の
処理手順を示すフローチャートである。まず、3次元カ
メラ2から送られてきたxiの総和Σxiが所定値を上
回っているかどうかを判定する(#11)。xiが小さ
い場合、つまりスリット光成分の総和Σxiが所定の基
準に満たない場合には誤差を多く含んでいるので、その
画素については3次元位置の算出を実行しない。そし
て、その画素については「エラー」を示すデータを設定
して記憶する(#17)。Σxiが所定値を上回ってい
る場合には十分な精度が得られるので、3次元位置の算
出を実行する。
FIG. 13 is a flowchart showing the processing procedure of the three-dimensional position calculation in the host. First, it is determined whether or not the sum ixi of xi sent from the three-dimensional camera 2 exceeds a predetermined value (# 11). When xi is small, that is, when the sum ス リ ッ ト xi of the slit light components does not satisfy the predetermined criterion, a large error is included, and the calculation of the three-dimensional position is not executed for the pixel. Then, data indicating "error" is set and stored for the pixel (# 17). If Σxi exceeds a predetermined value, a sufficient accuracy is obtained, so that the calculation of the three-dimensional position is executed.

【0049】3次元位置の算出に先立って、スリット光
Uの通過タイミングnopを算出する(#12)。通過
タイミングnopは、重心ipにライン番号を加算する
ことによって算出される。すなわち、算出された重心i
pは、その画素の出力が得られている32フレーム内の
タイミングであるので、ライン番号を加えることによっ
て走査開始からの通過タイミングnopに変換する。具
体的には、ライン番号は、最初に算出されるライン32
の画素については「32」、次のライン33については
「33」となる。注目画素gのラインが1つ進む毎にラ
イン番号は1つ増大する。ただし、これらの値は他の適
当な値とすることが可能である。
Prior to the calculation of the three-dimensional position, the passage timing nop of the slit light U is calculated (# 12). The passage timing nop is calculated by adding the line number to the center of gravity ip. That is, the calculated center of gravity i
Since p is the timing in the 32 frames at which the output of the pixel is obtained, the pixel is converted into a passage timing nop from the start of scanning by adding a line number. Specifically, the line number is the line 32 calculated first.
The pixel of "32" is "32", and the next line 33 is "33". Each time the line of the target pixel g advances by one, the line number increases by one. However, these values can be other suitable values.

【0050】そして3次元位置算出を行う(#13)。
算出された3次元位置は、その画素に対応するメモリ領
域に記憶し(#14)、次の画素について同様の処理を
行う(#16)。全ての画素についての処理が終わると
ルーチンから抜ける(#15でイエス)。
Then, a three-dimensional position is calculated (# 13).
The calculated three-dimensional position is stored in the memory area corresponding to the pixel (# 14), and the same processing is performed for the next pixel (# 16). When the processing for all the pixels is completed, the process exits from the routine (Yes in # 15).

【0051】3次元位置の算出方法は次のとおりであ
る。カメラ視線方程式は次の(5)式及び(6)式であ
る。 (u−u0)=(xp)=(b/pu)×〔X/(Z−FH)〕 …(5) (v−v0)=(yp)=(b/pv)×〔Y/(Z−FH)〕 …(6) b:像距離 FH:前側主点位置 pu:撮像面における水平方向の画素ピッチ pv:撮像面における垂直方向の画素ピッチ u:撮像面における水平方向の画素位置 u0:撮像面における水平方向の中心画素位置 v:撮像面における垂直方向の画素位置 v0:撮像面における垂直方向の中心画素位置 スリット面方程式は(7)式である。
The method of calculating the three-dimensional position is as follows. The camera line-of-sight equations are the following equations (5) and (6). (U-u0) = (xp) = (b / pu) × [X / (Z-FH)] (5) (v−v0) = (yp) = (b / pv) × [Y / (Z −FH)] (6) b: Image distance FH: Front principal point position pu: Horizontal pixel pitch on the imaging surface pv: Vertical pixel pitch on the imaging surface u: Horizontal pixel position on the imaging surface u0: Center pixel position in the horizontal direction on the imaging plane v: Pixel position in the vertical direction on the imaging plane v0: Center pixel position in the vertical direction on the imaging plane The slit plane equation is given by equation (7).

【0052】[0052]

【数2】 (Equation 2)

【0053】幾何収差は画角に依存する。歪はほぼ中心
画素を中心として対象に生じる。したがって、歪み量は
中心画素からの距離の関数で表される。ここでは、距離
の3次関数で近似する。2次の補正係数をd1、3次の
補正係数をd2とする。補正後の画素位置u’,v’は
(8)式及び(9)式で与えられる。
The geometric aberration depends on the angle of view. Distortion occurs in the target substantially at the center pixel. Therefore, the amount of distortion is represented by a function of the distance from the center pixel. Here, the distance is approximated by a cubic function. The secondary correction coefficient is d1, and the tertiary correction coefficient is d2. The corrected pixel positions u ′ and v ′ are given by equations (8) and (9).

【0054】 u’=u+d1×t22 ×(u−u0)/t2 +d2×t23 ×(u−u0)/t2 …(8) v’=v+d1×t22 ×(v−v0)/t2 +d2×t23 ×(v−v0)/t2 …(9) t2=(t1)-2 t1=(u−u0)2 +(v−v0)2 上述の(5)、(6)式において、uに代えてu’を代
入し、vに代えてv’を代入することにより、歪曲収差
を考慮した3次元位置を求めることができる。なお、キ
ャリブレーションについては、電子情報通信学会研究会
資料PRU91-113[カメラの位置決めのいらない画像の
幾何学的補正]小野寺・金谷、電子情報通信学会論文誌
D-II vol. J74-D-II No.9 pp.1227-1235,'91/9 [光学
系の3次元モデルに基づくレンジファインダの高精度キ
ャリブレーション法]植芝・吉見・大島、などに詳しい
開示がある。 〔レンズ位置の補正及びレンズ制御〕以下、本発明を適
用したレンズ位置の補正方法を説明する。3次元カメラ
2の仕様において、ズーミングは段階式とされ、各ズー
ム段のレンズ位置は原点スイッチ60Bによって規定さ
れる。すなわち、原点スイッチ60Bがバリエータ部5
14を検知してオンするときのバリエータ部514の位
置を基準位置(原点)とし、この原点から一定距離だけ
バリエータ部514を移動させるズーミングが行われ
る。移動量はズーム段毎に設定され、移動量に応じたパ
ルス数がパルスモータ60Aに対する制御量として制御
データメモリ61Aに記録される。
[0054] u '= u + d1 × t2 2 × (u-u0) / t2 + d2 × t2 3 × (u-u0) / t2 ... (8) v' = v + d1 × t2 2 × (v-v0) / t2 + d2 × t2 3 × (v−v0) / t2 (9) t2 = (t1) −2 t1 = (u−u0) 2 + (v−v0) 2 In the above equations (5) and (6), u By substituting u ′ instead of, and substituting v ′ instead of v, it is possible to obtain a three-dimensional position in consideration of distortion. For calibration, IEICE Technical Report, PRU91-113 [Geometric correction of images without camera positioning] Onodera and Kanaya, IEICE Transactions D-II vol. J74-D-II No.9 pp.1227-1235, '91 / 9 [High-precision calibration method of range finder based on three-dimensional model of optical system] Ueshiba, Yoshimi, Oshima, etc. have detailed disclosure. [Lens Position Correction and Lens Control] Hereinafter, a lens position correction method to which the present invention is applied will be described. In the specification of the three-dimensional camera 2, zooming is performed in a stepwise manner, and the lens position of each zoom stage is defined by the origin switch 60B. That is, the origin switch 60B is connected to the variator 5
The position of the variator 514 at the time of detecting and turning on the variator 14 is set as a reference position (origin), and zooming for moving the variator 514 by a certain distance from the origin is performed. The movement amount is set for each zoom stage, and the number of pulses corresponding to the movement amount is recorded in the control data memory 61A as a control amount for the pulse motor 60A.

【0055】図14は原点とレンズ停止位置との関係を
示す図である。例示において、ズーム段数mは5とさ
れ、バリエータ部514の停止位置は段1、段2、段
3、段4、段5の計5箇所である。ただし、設計に際し
ては、5個の停止位置とこれらのそれぞれを挟む位置と
を合わせた段0.5、段1、段1.5、…段4.5、段
5、段5.5の計11(=2m+1)個の位置につい
て、倍率などの光学パラメータ値が算出される。
FIG. 14 is a diagram showing the relationship between the origin and the lens stop position. In the example, the number m of zoom stages is 5, and the stop positions of the variator unit 514 are a total of five positions of stage 1, stage 2, stage 3, stage 4, and stage 5. However, at the time of design, a total of stage 0.5, stage 1, stage 1.5,... Stage 4.5, stage 5, and stage 5.5 in which the five stop positions and the positions sandwiching each of the five stop positions are combined. Optical parameter values such as magnification are calculated for 11 (= 2m + 1) positions.

【0056】図14(A)のように原点P0が設計どお
りの正規の位置であれば、設計パルス数分の移動によっ
て正規の停止位置にバリエータ部514を配置すること
ができる。しかし、実際には原点スイッチ60Bや支持
体の寸法誤差や取付け誤差に起因して、図14(B)の
ように原点P0’が設計位置(P0)から若干ずれる場
合がある。この場合、設計パルス数分の移動ではバリエ
ータ部514を正規の停止位置に配置することができな
い。すなわち、ビームスプリッタ52及びイメージセン
サ53との相対位置にずれΔzが生じ、倍率などの光学
パラメータ値が設計値と異なることになる。3次元位置
の演算にはズーム段に応じた光学パラメータ値の設計値
が用いられるので、原点P0’のずれによって3次元入
力の精度が低下してしまう。
If the origin P0 is a regular position as designed as shown in FIG. 14 (A), the variator 514 can be arranged at a regular stop position by moving by the number of design pulses. However, actually, the origin P0 'may be slightly deviated from the design position (P0) as shown in FIG. 14B due to a dimensional error or a mounting error of the origin switch 60B or the support. In this case, the variator unit 514 cannot be arranged at a regular stop position by moving the number of design pulses. That is, a deviation Δz occurs in the relative position between the beam splitter 52 and the image sensor 53, and the optical parameter values such as the magnification are different from the design values. Since the design value of the optical parameter value according to the zoom stage is used for the calculation of the three-dimensional position, the accuracy of the three-dimensional input is reduced due to the shift of the origin P0 '.

【0057】したがって、高精度の測定を実現するため
にはレンズ位置の補正が必要である。3次元カメラ2に
おいては、各ズーム段で設計どおりの光学パラメータ値
となるようにレンズ移動量を規定するパルス数を補正
し、補正後のパルス数を設計パルス数に代えて制御デー
タメモリ61Aに書き込む。
Therefore, it is necessary to correct the lens position in order to realize a highly accurate measurement. In the three-dimensional camera 2, the number of pulses defining the lens movement amount is corrected so that the optical parameter value becomes as designed at each zoom stage, and the corrected pulse number is replaced with the design pulse number and stored in the control data memory 61A. Write.

【0058】図15は光学パラメータの設計値を示す
図、図16は設計パルス数を示す図である。前側主点、
後側主点、バックフォーカス、及び倍率(横倍率)は対
物間距離の関数として表される。例示の仕様における測
定可能な距離範囲は0.5m〜2.5mであり、この範
囲のうちの代表として選んだ10個の距離毎に各ズーム
段の設計値が算出されている。なお、実際の3次元測定
に際しては、対物間距離が10個の代表距離以外の場合
に、その対物間距離における光学パラメータが代表距離
における光学パラメータに基づく内挿補間演算によって
算出される。設計パルス数は、レンズ停止位置と基準位
置との距離(mm単位)を、パルスモータ59A,60
Aのステップ角及びギア比などの機構条件を適用してス
テップ数に換算した数値である。
FIG. 15 is a diagram showing design values of optical parameters, and FIG. 16 is a diagram showing design pulse numbers. Front principal point,
The back principal point, the back focus, and the magnification (lateral magnification) are expressed as a function of the distance between the objects. The measurable distance range in the example specification is 0.5 m to 2.5 m, and the design value of each zoom stage is calculated for each of the ten distances selected as representatives of this range. In the actual three-dimensional measurement, when the inter-object distance is other than the ten representative distances, the optical parameters at the inter-object distance are calculated by interpolation based on the optical parameters at the representative distance. The number of design pulses indicates the distance (in mm) between the lens stop position and the reference position by the pulse motors 59A and 60A.
It is a numerical value converted into the number of steps by applying the mechanical conditions such as the step angle and the gear ratio of A.

【0059】レンズ位置の補正作業としてのパルス数の
補正は工場出荷前に行われ、その作業にはチャートが用
いられる。図17はチャートの一例を示す図、図18は
チャートの配置の模式図である。
The pulse number correction as a lens position correction operation is performed before shipment from the factory, and a chart is used for the operation. FIG. 17 is a diagram showing an example of the chart, and FIG. 18 is a schematic diagram of the arrangement of the chart.

【0060】チャートCTは、中心COから放射状に拡
がるピント調整用の縞状パターンRPと倍率測定用の4
つの黒点BP1〜BP4とを有する1m四方程度のサイ
ズのテスト画像プレートである。中心COをズームユニ
ット51の光軸に合わせて、チャートCTを10段階の
代表距離のいずれかに対応した位置に配置する。チャー
トCTの撮影像における特定部分の寸法を計って倍率を
計算する。
The chart CT is composed of a stripe pattern RP for focus adjustment, which extends radially from the center CO, and a stripe pattern RP for magnification measurement.
4 is a test image plate having a size of about 1 m square having two black points BP1 to BP4. With the center CO aligned with the optical axis of the zoom unit 51, the chart CT is arranged at a position corresponding to one of the ten representative distances. The magnification is calculated by measuring the dimensions of a specific portion in the photographed image of the chart CT.

【0061】チャートCTによる倍率の実測に先立っ
て、実測値と設計値とのずれを定量的に把握するための
グラフを作成しておく。具体的には、計5個のズーム段
のそれぞれについて、その両隣の段を合わせた3個の段
(位置)と各段の光学パラメータの設計値との関係を例
えば2次関数で近似し、近似曲線を描く。同様の作業を
10段階の代表距離のそれぞれに対して行う。例えば、
ズーム段3については、段2.5から段3.5までの位
置範囲の近似曲線を求めておく。
Prior to the actual measurement of the magnification by the chart CT, a graph for quantitatively grasping the deviation between the measured value and the design value is prepared. Specifically, for each of the five zoom stages in total, the relationship between the three stages (positions) of the two adjacent stages and the design value of the optical parameter of each stage is approximated by, for example, a quadratic function, Draw an approximation curve. A similar operation is performed for each of the 10 representative distances. For example,
For the zoom stage 3, an approximate curve of the position range from the stage 2.5 to the stage 3.5 is obtained in advance.

【0062】図19は補正作業の手順を示すフローチャ
ートである。5個のズーム段について、ズーム段1から
順に設計パルス数の適否を調べ、不適正の場合にそのズ
ーム段について補正パルス数を求める。
FIG. 19 is a flowchart showing the procedure of the correction operation. With respect to the five zoom stages, the appropriateness of the number of design pulses is checked in order from the zoom stage 1, and if improper, the number of correction pulses is determined for the zoom stage.

【0063】作業者は、10段階の代表距離のいずれか
を対物間距離として選び、この対物間距離の位置にチャ
ートCTを配置する。そして、バリエータ部514が原
点に復帰した状態で、例えばズーミングボタン25a,
25bの操作でズーム段1を指定する(#21、#2
2)。これを受けて、ズーミング及びフォーカシングの
それぞれの該当する設計パルス数に基づいてレンズ移動
が行われる(#23、#24)。このときの実際の移動
形式は片送りである。例えば、バリエータ部154の原
点をWIDE側に選定した構成においては、WIDE側
からTELE側へ送る場合に、いったん目標位置よりT
ELE側へ余分に送ってから目標位置へ戻す(図14参
照)。TELE側からWIDE側へ送る場合は余分に送
らないで止める。フォーカシング部511の原点を無限
遠方側に選定した構成においては、遠距離側から近距離
側へ送る場合に、いったん目標位置より近距離側へ余分
に送ってから目標位置へ戻す。近距離側から遠距離側へ
送る場合は余分に送らないで止める。このような片送り
の目的は、駆動系のバックラッシのキャンセルではな
く、レンズ停止時の姿勢を安定させて光軸のずれを防止
し、3次元入力に係わる光学特性の再現性を高めること
である。したがって、余分の送り量を規定する片送りパ
ルス数は十分に大きい値に選定されている。具体的には
ズーム段間の移動量が400〜500であるのに対し
て、片送りパルス数は100程度である。この片送りパ
ルス数も制御データメモリ61Aによって記憶される。
The operator selects any one of the ten representative distances as the inter-object distance, and arranges the chart CT at the position of the inter-object distance. Then, in a state where the variator unit 514 returns to the origin, for example, the zooming button 25a,
Designate zoom stage 1 by operating 25b (# 21, # 2
2). In response to this, the lens is moved based on the corresponding design pulse numbers for zooming and focusing (# 23, # 24). The actual movement type at this time is a single feed. For example, in a configuration in which the origin of the variator unit 154 is selected on the WIDE side, when sending data from the WIDE side to the TELE side, the T
After sending extra to the ELE side, it returns to the target position (see FIG. 14). When sending from the TELE side to the WIDE side, stop without sending extra. In the configuration in which the origin of the focusing unit 511 is selected on the infinity side, when sending from the long distance side to the short distance side, the extra distance is once sent from the target position to the short distance side and then returned to the target position. When sending from the short distance side to the long distance side, stop without sending extra. The purpose of such single feed is not to cancel the backlash of the driving system, but to stabilize the posture when the lens is stopped, to prevent the optical axis from shifting, and to improve the reproducibility of optical characteristics related to three-dimensional input. . Therefore, the number of single-feed pulses defining the extra feed amount is selected to be a sufficiently large value. More specifically, while the amount of movement between zoom stages is 400 to 500, the number of single-feed pulses is about 100. The number of one-sided pulses is also stored by the control data memory 61A.

【0064】設計パルス数に基づいてレンズを位置決め
した状態でチャートCTを撮影したモニタ画像がLCD
21に表示される(#25)。モニタ画像を他のディス
プレイに表示させたり、プリントさせたりすることもで
きる。本実施形態のズームユニット51ではバリエータ
部514の位置に応じてフォーカシング部511の位置
を変化させてピント合わせを行う。しかし、倍率を調整
する段階では、フォーカシング部511の停止位置が確
定していない。これは、バリエータ部514の位置が確
定しておらず、加えて原点スイッチ59Bの配置や動作
点にばらつきがあるからである。したがって、縞情パタ
ーン画像のコントラストを画像演算によって求め、縞状
パターンのコントラストが最大になるようにフォーカシ
ングのパルス数を修正してピントを合わせる(#26、
#27)。
A monitor image obtained by photographing the chart CT with the lens positioned based on the number of design pulses is displayed on the LCD.
21 is displayed (# 25). The monitor image can be displayed on another display or printed. In the zoom unit 51 of the present embodiment, focusing is performed by changing the position of the focusing unit 511 in accordance with the position of the variator unit 514. However, at the stage of adjusting the magnification, the stop position of the focusing unit 511 has not been determined. This is because the position of the variator unit 514 has not been determined, and the arrangement and operating points of the origin switch 59B vary. Therefore, the contrast of the fringe pattern image is obtained by image calculation, and the number of focusing pulses is corrected and focused so that the contrast of the fringe pattern is maximized (# 26,
# 27).

【0065】続いて、ピントが合った状態のモニタ画像
によって倍率を求めて設計値と比較する。上述した原点
スイッチ60Bにおける動作点や配置のずれに起因する
通常の誤差範囲は、±5%程度である。倍率の誤差が設
計値±0.5%であれば、倍率が設計どおりとみなすこ
とができる。倍率の誤差が許容範囲外の場合には、ズー
ミングのパルス数を修正して倍率を設計値に近づける
(#28、#29)。そして、倍率の誤差が許容範囲内
の値となったときのパルス数を補正パルス数として記録
する(#30)。補正パルス数は以降における制御デー
タとなる。
Subsequently, the magnification is obtained from the in-focus monitor image and compared with the design value. The normal error range caused by the displacement of the operating point and the arrangement of the origin switch 60B described above is about ± 5%. If the error of the magnification is ± 0.5% of the design value, the magnification can be regarded as designed. If the magnification error is outside the allowable range, the number of zooming pulses is corrected to bring the magnification closer to the design value (# 28, # 29). Then, the number of pulses when the magnification error falls within the allowable range is recorded as the number of corrected pulses (# 30). The number of correction pulses becomes control data thereafter.

【0066】同様の作業を他の4個のズーム段について
行う(#31、#22)。倍率の誤差は、主として原点
スイッチ60Bとバリエータ部514との相対位置のば
らつきに起因するので、10段階の代表距離のいずれか
について倍率を調整すれば十分である。
The same operation is performed for the other four zoom stages (# 31, # 22). Since the magnification error is mainly caused by a variation in the relative position between the origin switch 60B and the variator unit 514, it is sufficient to adjust the magnification for any of the ten representative distances.

【0067】このようにしてバリエータ部514及びフ
ォーカシング部511の移動量を決定し、続いて前側主
点位置及び像距離を詳細に校正する。ズーミングにおい
てバリエータ部514は常に設計値に近い位置(例え
ば、倍率誤差が+0.5%になる位置)に配置され、制
御の再現性は高い。倍率の測定で、例えば+0.5%ず
れていることが判明したら、主点位置及び像距離につい
ても+0.5%ずれた位置での設計値を近似曲線から内
挿して求めることができる。倍率補正を行わずに+5%
ずれた位置において内挿する場合と比較して、設計値付
近での内挿では高い近似精度が得られる。その結果、校
正の精度が高まり、正確な3次元入力を行うことができ
る。
In this way, the moving amounts of the variator 514 and the focusing unit 511 are determined, and then the front principal point position and the image distance are calibrated in detail. In zooming, the variator unit 514 is always arranged at a position close to the design value (for example, a position where the magnification error becomes + 0.5%), and the reproducibility of control is high. If it is found by the measurement of the magnification that the position is shifted by, for example, + 0.5%, the design value of the principal point position and the image distance at the position shifted by + 0.5% can be obtained by interpolating from the approximate curve. + 5% without magnification correction
Compared to the case where interpolation is performed at a shifted position, higher approximation accuracy is obtained in the interpolation near the design value. As a result, the accuracy of calibration is improved, and accurate three-dimensional input can be performed.

【0068】そして、光学系50の校正において内挿近
似により求められた正確な光学パラメータ値(5段階の
ズーム段のそれぞれにおける10段階の距離別の前側主
点位置及び倍率)を用いて、投光側の光学系40の校正
を行う。 〔3次元測定におけるレンズ制御〕以下、レンズコント
ローラ58の動作を詳述する。
Then, in the calibration of the optical system 50, the projection is performed by using the accurate optical parameter values (the front principal point position and the magnification for each of the five zoom stages for each of the five zoom stages) obtained by the interpolation approximation. The calibration of the optical system 40 on the light side is performed. [Lens Control in Three-Dimensional Measurement] Hereinafter, the operation of the lens controller 58 will be described in detail.

【0069】図20はレンズ制御の概略を示すメインフ
ローチャトである。電源が投入されると、レンズコント
ローラ58は内部のRAM58Aを初期化する(#4
1)。一方、システムコントローラ61は、制御データ
メモリ61Aからズームユニット51及び投光レンズ系
42の制御に係わるデータを読み出してレンズコントロ
ーラ58へ送る。
FIG. 20 is a main flowchart showing an outline of lens control. When the power is turned on, the lens controller 58 initializes the internal RAM 58A (# 4).
1). On the other hand, the system controller 61 reads data related to the control of the zoom unit 51 and the projection lens system 42 from the control data memory 61A and sends the data to the lens controller 58.

【0070】レンズコントローラ58は、システムコン
トローラ61からの受信データをRAM58Aに格納し
(#42)、制御対象の駆動系60,59,45に対し
て初期化移動を開始させる(#43)。これにより、バ
リエータ部514、フォーカシング部511、及び投光
レンズ系42のバリエータレンズ422が上述の片送り
形式で所定の初期位置に配置される。その後、レンズコ
ントローラ58はシステムコントローラ61からの指示
を待ち、受信したコマンドに応じた処理を実行する。
The lens controller 58 stores the data received from the system controller 61 in the RAM 58A (# 42), and causes the drive systems 60, 59, and 45 to be controlled to start the initialization movement (# 43). As a result, the variator 514, the focusing unit 511, and the variator lens 422 of the light projecting lens system 42 are arranged at a predetermined initial position in the above-described single-feed format. Thereafter, the lens controller 58 waits for an instruction from the system controller 61, and executes a process according to the received command.

【0071】システムコントローラ61がオートフォー
カシングボタン26cの操作を検出するか、又はホスト
3からのAFコマンドをSCSIコントローラ66を介
して受信すると、レンズコントローラ58にAFコマン
ドが与えられる。AFコマンドの受信に呼応してAF処
理が行われる(#44、#45)。
When the system controller 61 detects the operation of the auto-focusing button 26c or receives an AF command from the host 3 via the SCSI controller 66, the AF command is given to the lens controller 58. AF processing is performed in response to the reception of the AF command (# 44, # 45).

【0072】システムコントローラ61がズーミングボ
タン25a、25bの操作を検出するか、又はホスト3
からのズームコマンドを受信すると、レンズコントロー
ラ58にズームコマンドが与えられる。ズームコマンド
の受信に呼応してズーム処理が行われる(#46、#4
7)。
The system controller 61 detects the operation of the zoom buttons 25a and 25b, or
When the zoom command is received from the lens controller 58, the zoom command is given to the lens controller 58. Zoom processing is performed in response to the reception of the zoom command (# 46, # 4)
7).

【0073】また、システムコントローラ61がシャッ
タボタン27の操作を検出するか、又はホスト3からの
測定コマンド(3次元入力の指示)を受信すると、レン
ズコントローラ58に測定コマンドが与えられる。測定
コマンドの受信に呼応して、スリット光を投射するアク
ティブAFのための高精度AF処理が行われる(#4
8、#49)。
When the system controller 61 detects the operation of the shutter button 27 or receives a measurement command (three-dimensional input instruction) from the host 3, the lens controller 58 is given the measurement command. In response to the reception of the measurement command, high-precision AF processing for active AF that projects slit light is performed (# 4).
8, # 49).

【0074】図21はAF処理サブルーチンのフローチ
ャートである。レンズコントローラ58は、AFモジュ
ール57からの測距結果(被写体距離情報)を受信し、
現在のズーム段と測距結果とに応じたフォーカシング部
511の目標位置をRAM58Aの制御データを参照し
て求める(#451、#452)。求めた目標位置とフ
ォーカシング部511の現在位置とから、フォーカシン
グ部511の移動方向とパルス数を算定する(#45
3)。そして、フォーカシング駆動系59を作動させて
フォーカシング部511を目標位置へ移動させる(#4
54)。なお、このAF動作においては、片送り移動を
行なうとユーザーが違和感を感じるので、余分に送らな
い単純な移動を行う。
FIG. 21 is a flowchart of the AF processing subroutine. The lens controller 58 receives the distance measurement result (subject distance information) from the AF module 57,
The target position of the focusing unit 511 according to the current zoom stage and the distance measurement result is obtained with reference to the control data of the RAM 58A (# 451, # 452). The moving direction and the number of pulses of the focusing unit 511 are calculated from the obtained target position and the current position of the focusing unit 511 (# 45).
3). Then, the focusing drive system 59 is operated to move the focusing unit 511 to the target position (# 4).
54). In this AF operation, since the user feels uncomfortable when performing the single-feed movement, a simple movement without extra feeding is performed.

【0075】図22はズーム処理サブルーチンのフロー
チャートである。レンズコントローラ58は、システム
コントローラ61からの目標ズーム段を示すデータを受
信し、バリエータ部514及びバリエータレンズ422
についての目標ズーム段に該当するパルス数と片送りパ
ルス数を、RAM58Aから読み出す(#471、#4
72)。また、目標ズーム段と測距結果とに応じたベス
トピントとなるフォーカシング部511の目標位置を求
める(#473)。
FIG. 22 is a flowchart of a zoom processing subroutine. The lens controller 58 receives data indicating the target zoom stage from the system controller 61, and outputs the data to the variator unit 514 and the variator lens 422.
The number of pulses corresponding to the target zoom stage and the number of single-feed pulses are read out from the RAM 58A (# 471, # 4).
72). In addition, a target position of the focusing unit 511 that becomes the best focus according to the target zoom stage and the distance measurement result is obtained (# 473).

【0076】バリエータ部514及びバリエータレンズ
422について、現在位置から目標ズーム段への移動の
ためのパルス数を求める(#474、#475)。ズー
ミングによるピントのずれを避けるため、フォーカシン
グ部511について、目標ズーム段と測距結果とに応じ
た目標位置をRAM58Aの制御データを参照して求
め、現在位置から目標位置への移動のためのパルス数を
求める(#476)。そして、バリエータ部514、フ
ォーカシング部511、及びバリエータレンズ422を
それぞれの目標位置へ移動させる(#477)。このと
きのバリエータ部514及びフォーカシング部511の
移動は片送り形式である。
For the variator section 514 and the variator lens 422, the number of pulses for moving from the current position to the target zoom stage is determined (# 474, # 475). To avoid a focus shift due to zooming, a target position corresponding to the target zoom stage and the distance measurement result is obtained with reference to the control data of the RAM 58A for the focusing unit 511, and a pulse for moving from the current position to the target position is obtained. The number is obtained (# 476). Then, the variator unit 514, the focusing unit 511, and the variator lens 422 are moved to respective target positions (# 477). The movement of the variator unit 514 and the focusing unit 511 at this time is of a single feed type.

【0077】図23は高精度AF処理サブルーチンのフ
ローチャートである。レンズコントローラ58は、シス
テムコントローラ61へ現在のレンズ位置とAFモジュ
ール57による測距結果を通知する(#491)。これ
を受けて、システムコントローラ61は、所定の方向に
スリット光を投射し、物体で反射したスリット光の受光
状況(入射方向及び強度)に基づいて、正確な対物間距
離及び最適のレーザ発光強度を算定する。そして、この
アクティブAF・AE動作で得られた正確な対物間距離
と現在のズーム段とに応じたベストピントとなるフォー
カシング部511の目標位置を、制御データメモリ61
Aのデータを参照して求めてレンズコントローラ58に
通知する。
FIG. 23 is a flowchart of a high-precision AF processing subroutine. The lens controller 58 notifies the system controller 61 of the current lens position and the result of distance measurement by the AF module 57 (# 491). In response to this, the system controller 61 projects the slit light in a predetermined direction, and based on the light receiving condition (incident direction and intensity) of the slit light reflected by the object, an accurate inter-object distance and an optimum laser emission intensity. Is calculated. Then, the target position of the focusing unit 511 that becomes the best focus according to the accurate inter-object distance obtained by the active AF / AE operation and the current zoom stage is stored in the control data memory 61.
The lens controller 58 is obtained by referring to the data of A and notified.

【0078】レンズコントローラ58は、フォーカシン
グ部511の目標位置を受信すると、フォーカシング部
511の現在位置と目標位置とに基づいて、移動方向と
移動のためのパルス数を算出する(#493)。そし
て、フォーカシング駆動系59を作動させて、フォーカ
シング部511を片送り形式で目標位置に配置する(#
494)。
Upon receiving the target position of the focusing unit 511, the lens controller 58 calculates the moving direction and the number of pulses for the movement based on the current position and the target position of the focusing unit 511 (# 493). Then, the focusing drive system 59 is operated to dispose the focusing unit 511 at the target position in a single-feed format (#
494).

【0079】上述の実施形態において、AFモジュール
57による測距に代えて、所定の角度にスリット光Uを
投射して入射角を検出する予備測定を行い、三角測量法
を用いて対物間距離を算出するアクティブ型測距を行っ
てもよい。また、測距を行わずに予め設定された対物間
距離、又は操作者が入力した対物間距離に応じたレンズ
制御を行うようにしてもよい。
In the embodiment described above, instead of distance measurement by the AF module 57, preliminary measurement for projecting the slit light U at a predetermined angle to detect the incident angle is performed, and the distance between the objects is determined by triangulation. Active distance measurement for calculation may be performed. Alternatively, lens control may be performed according to a preset inter-object distance or an inter-object distance input by an operator without performing distance measurement.

【0080】[0080]

【発明の効果】請求項1乃至請求項3の発明によれば、
レンズ移動において、部品のばらつき及び組立て誤差と
いった不定量の誤差の大小に係わらず、設計どおりの位
置決めを実現することができる。
According to the first to third aspects of the present invention,
In the movement of the lens, it is possible to realize the positioning as designed, regardless of the magnitude of an indefinite amount of error such as variation of parts and assembly error.

【0081】請求項2又は請求項3の発明によれば、不
定量の誤差の影響のない3次元入力が可能となる。
According to the second or third aspect of the present invention, three-dimensional input can be performed without being affected by an indeterminate error.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る測定システムの構成図である。FIG. 1 is a configuration diagram of a measurement system according to the present invention.

【図2】3次元カメラの外観を示す図である。FIG. 2 is a diagram illustrating an appearance of a three-dimensional camera.

【図3】3次元カメラの機能構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a functional configuration of a three-dimensional camera.

【図4】投光レンズ系の構成図である。FIG. 4 is a configuration diagram of a light projecting lens system.

【図5】ズームユニットの構成図である。FIG. 5 is a configuration diagram of a zoom unit.

【図6】ビームスプリッタの構成の一例を示す模式図で
ある。
FIG. 6 is a schematic diagram illustrating an example of a configuration of a beam splitter.

【図7】イメージセンサの読出し範囲を示す図である。FIG. 7 is a diagram illustrating a reading range of the image sensor.

【図8】測定システムにおける3次元位置の算出の原理
図である。
FIG. 8 is a principle diagram of calculation of a three-dimensional position in the measurement system.

【図9】イメージセンサの受光面におけるラインとフレ
ームとの関係を示す図である。
FIG. 9 is a diagram illustrating a relationship between a line and a frame on a light receiving surface of the image sensor.

【図10】各フレームの受光データの記憶状態を示す図
である。
FIG. 10 is a diagram showing a storage state of received light data of each frame.

【図11】重心の概念を示す図である。FIG. 11 is a diagram illustrating a concept of a center of gravity.

【図12】光学系の主要な点と物体との位置関係の模式
図である。
FIG. 12 is a schematic diagram of a positional relationship between a main point of an optical system and an object.

【図13】ホストにおける3次元位置演算の処理手順を
示すフローチャートである。
FIG. 13 is a flowchart illustrating a processing procedure of a three-dimensional position calculation in the host.

【図14】原点とレンズ停止位置との関係を示す図であ
る。
FIG. 14 is a diagram illustrating a relationship between an origin and a lens stop position.

【図15】光学パラメータの設計値を示す図である。FIG. 15 is a diagram showing design values of optical parameters.

【図16】設計パルス数を示す図である。FIG. 16 is a diagram showing the number of design pulses.

【図17】チャートの一例を示す図である。FIG. 17 is a diagram showing an example of a chart.

【図18】チャートの配置の模式図である。FIG. 18 is a schematic diagram of an arrangement of a chart.

【図19】補正作業の手順を示すフローチャートであ
る。
FIG. 19 is a flowchart illustrating a procedure of a correction operation.

【図20】レンズ制御の概略を示すメインフローチャト
である。
FIG. 20 is a main flowchart showing an outline of lens control.

【図21】AF処理サブルーチンのフローチャートであ
る。
FIG. 21 is a flowchart of an AF processing subroutine.

【図22】ズーム処理サブルーチンのフローチャートで
ある。
FIG. 22 is a flowchart of a zoom processing subroutine.

【図23】高精度AF処理サブルーチンのフローチャー
トである。
FIG. 23 is a flowchart of a high-precision AF processing subroutine.

【符号の説明】[Explanation of symbols]

2 3次元カメラ(結像装置、3次元入力装置) 50 光学系(結像手段) 58A レンズコントローラ(コントローラ) 60A パルスモータ 60B 原点スイッチ 61A 制御データメモリ(メモリ) 514 バリエータ部(レンズ) P0,P0’原点位置(基準位置) 2 3D camera (imaging device, 3D input device) 50 Optical system (imaging means) 58A Lens controller (controller) 60A Pulse motor 60B Origin switch 61A Control data memory (memory) 514 Variator (lens) P0, P0 'Origin position (reference position)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 福本 忠士 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA04 AA53 FF04 FF09 FF16 FF67 GG06 HH05 JJ02 JJ25 LL06 LL09 LL10 LL15 LL20 LL26 MM16 PP22 QQ31 RR06 2H087 KA03 MA15 NA09 SA23 SA27 SA29 SA32 SA63 SA65 SA72 SA74  ────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Tadashi Fukumoto 2-13-13 Azuchicho, Chuo-ku, Osaka-shi, Osaka F-term in Osaka International Building Minolta Co., Ltd. 2F065 AA04 AA53 FF04 FF09 FF16 FF67 GG06 HH05 JJ02 JJ25 LL06 LL09 LL10 LL15 LL20 LL26 MM16 PP22 QQ31 RR06 2H087 KA03 MA15 NA09 SA23 SA27 SA29 SA32 SA63 SA65 SA72 SA74

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】光軸方向に移動可能なレンズと、複数の設
定倍率のそれぞれに対応したレンズ移動量を示す制御デ
ータに基づいて前記レンズを移動させるコントローラと
を備えた倍率可変の結像装置におけるレンズ位置の補正
方法であって、 前記制御データを少なくとも1回の書換えが可能なメモ
リに記憶させておき、 前記メモリに記憶されている前記制御データに基づいて
前記レンズを移動させたときの実際の倍率を測定し、測
定された倍率と当該制御データに対応する設定倍率との
誤差に応じて当該制御データを修正し、 修正後の制御データを修正前の制御データに代えて前記
メモリに記憶させることを特徴とするレンズ位置の補正
方法。
1. A variable magnification imaging apparatus comprising: a lens movable in an optical axis direction; and a controller for moving the lens based on control data indicating a lens movement amount corresponding to each of a plurality of set magnifications. Wherein the control data is stored in a rewritable memory at least once, and the lens is moved based on the control data stored in the memory. The actual magnification is measured, and the control data is corrected in accordance with an error between the measured magnification and a set magnification corresponding to the control data, and the corrected control data is stored in the memory instead of the uncorrected control data. A method of correcting a lens position, which is stored.
【請求項2】光軸方向に移動可能なレンズを有する倍率
可変の結像手段を備え、前記結像手段によって得られた
物体像とその結像の倍率とに応じたデータを出力する3
次元入力装置であって、 前記レンズの位置を検知するための原点スイッチと、 前記原点スイッチの配置状態によって定まる基準位置か
ら、複数の設定倍率のそれぞれに対応したレンズ位置ま
でのレンズ移動量を示す制御データを記憶する、少なく
とも1回の書き換えが可能な不揮発性のメモリと、 前記メモリによって記憶されている前記制御データに基
づいて前記レンズを移動させるコントローラとを備えた
ことを特徴とする3次元入力装置。
And a variable magnification imaging means having a lens movable in an optical axis direction, and outputs data corresponding to an object image obtained by said imaging means and a magnification of the imaging.
A dimension input device, comprising: an origin switch for detecting the position of the lens; and a lens movement amount from a reference position determined by an arrangement state of the origin switch to a lens position corresponding to each of a plurality of set magnifications. A three-dimensional memory comprising: a nonvolatile memory that stores control data and is rewritable at least once; and a controller that moves the lens based on the control data stored by the memory. Input device.
【請求項3】前記レンズの移動はパルスモータによって
行われ、前記制御データは前記パルスモータの回転ステ
ップ単位の数値である請求項2記載の3次元入力装置。
3. The three-dimensional input device according to claim 2, wherein the movement of the lens is performed by a pulse motor, and the control data is a numerical value in rotation step units of the pulse motor.
JP25253899A 1999-09-07 1999-09-07 Method for correcting lens position and three- dimensional input device Withdrawn JP2001074412A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25253899A JP2001074412A (en) 1999-09-07 1999-09-07 Method for correcting lens position and three- dimensional input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25253899A JP2001074412A (en) 1999-09-07 1999-09-07 Method for correcting lens position and three- dimensional input device

Publications (1)

Publication Number Publication Date
JP2001074412A true JP2001074412A (en) 2001-03-23

Family

ID=17238776

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25253899A Withdrawn JP2001074412A (en) 1999-09-07 1999-09-07 Method for correcting lens position and three- dimensional input device

Country Status (1)

Country Link
JP (1) JP2001074412A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269935A (en) * 2002-03-18 2003-09-25 Hamano Engineering:Kk Measurement method of three-dimensional surface shape, measurement device for three-dimensional surface shape, computer program and computer program recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003269935A (en) * 2002-03-18 2003-09-25 Hamano Engineering:Kk Measurement method of three-dimensional surface shape, measurement device for three-dimensional surface shape, computer program and computer program recording medium

Similar Documents

Publication Publication Date Title
JP3873401B2 (en) 3D measurement system
JP4111592B2 (en) 3D input device
JP4111166B2 (en) 3D shape input device
JP4032603B2 (en) 3D measuring device
JP2008002995A (en) Three-dimensional shape measuring device
US6049385A (en) Three dimensional measurement system and pickup apparatus
US6233049B1 (en) Three-dimensional measurement apparatus
US6556307B1 (en) Method and apparatus for inputting three-dimensional data
JP3893169B2 (en) 3D measuring device
JP3493403B2 (en) 3D measuring device
US6421114B1 (en) Three-dimensional information measuring apparatus
JP3235485B2 (en) Spectroscopic device for three-dimensional measurement
JPH10124646A (en) Three-dimensional measuring device
JP3324367B2 (en) 3D input camera
US6297881B1 (en) Three-dimensional measurement method and three-dimensional measurement device
JPH07174538A (en) Image input camera
JP3360505B2 (en) Three-dimensional measuring method and device
JPH07174537A (en) Image input camera
JPH11271030A (en) Three-dimensional measuring apparatus
JP2001074412A (en) Method for correcting lens position and three- dimensional input device
JP2001280917A (en) Instrument for three-dimensional measurement
JP3861475B2 (en) 3D input device
JP3740848B2 (en) 3D input device
JP3733625B2 (en) Imaging device for 3D measurement
JP3196614B2 (en) 3D measuring device

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050922

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20051206