JP2000105110A - Three-dimensional measuring instrument and method for controlling image pickup - Google Patents

Three-dimensional measuring instrument and method for controlling image pickup

Info

Publication number
JP2000105110A
JP2000105110A JP10274637A JP27463798A JP2000105110A JP 2000105110 A JP2000105110 A JP 2000105110A JP 10274637 A JP10274637 A JP 10274637A JP 27463798 A JP27463798 A JP 27463798A JP 2000105110 A JP2000105110 A JP 2000105110A
Authority
JP
Japan
Prior art keywords
pixel
light receiving
reading
receiving area
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10274637A
Other languages
Japanese (ja)
Inventor
Makoto Miyazaki
誠 宮崎
Toshio Norita
寿夫 糊田
Kazumutsu Sato
一睦 佐藤
Hiroyuki Okada
浩幸 岡田
Koichi Kanbe
幸一 掃部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP10274637A priority Critical patent/JP2000105110A/en
Priority to US09/405,848 priority patent/US7492398B1/en
Publication of JP2000105110A publication Critical patent/JP2000105110A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain accurate three-dimensional pictures without requiring any separate processing for correcting the deviation between the reading-out timing of a noticed picture element in an effective light receiving area and the one-line shifting timing of the effective light receiving area. SOLUTION: A three-dimensional measuring instrument is provided with a light projecting means which projects detecting light upon an object, a scanning means which optically scans the object by defecting the projecting direction of the detecting light, and an image pickup device which has a two-dimensional image picking-up surface and receives the detecting light reflected by the object. The instrument is also provided with a control means which controls the image pickup device in such a way that image information can be read out successively continuously to an effective area Ae in the image picking-up surface at every picture element along the direction Y in which the detecting light is moved on the image picking-up surface and, in addition, the detecting light can successively move in the same direction as the direction Y in the effective area Ae by a prescribed number of picture elements whenever the reading out of the picture element in the effective area Ae is completed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体にスリット光
又はスポット光を照射して物体形状を非接触で計測する
3次元計測装置及び撮像制御方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional measuring apparatus for irradiating an object with slit light or spot light to measure the shape of the object in a non-contact manner, and an imaging control method.

【0002】[0002]

【従来の技術】レンジファインダと呼称される非接触型
の3次元計測システムは、接触型に比べて高速の計測が
可能であることから、CGシステムやCADシステムへ
のデータ入力、身体計測、ロボットの視覚認識などに利
用されている。
2. Description of the Related Art A non-contact type three-dimensional measurement system called a range finder is capable of measuring at a higher speed than a contact type. Therefore, data input to a CG system or CAD system, body measurement, robot It is used for visual recognition.

【0003】レンジファインダに好適な計測方法として
スリット光投影法(光切断法ともいう)が知られてい
る。この方法は、物体を光学的に走査して3次元画像
(距離画像)を得る方法であり、特定の検出光を照射し
て物体を撮影する能動的計測方法の一種である。3次元
画像は、物体上の複数の部位の3次元位置を示す画素の
集合である。スリット光投影法では、検出光として断面
が直線状のスリット光が用いられる。物体で反射したス
リット光は受光センサの撮像面に結像する。
[0003] As a measurement method suitable for a range finder, a slit light projection method (also called a light cutting method) is known. This method is a method of obtaining a three-dimensional image (distance image) by optically scanning an object, and is a kind of an active measurement method of irradiating specific detection light and photographing the object. The three-dimensional image is a set of pixels indicating the three-dimensional positions of a plurality of parts on the object. In the slit light projection method, a slit light having a linear cross section is used as detection light. The slit light reflected by the object forms an image on the imaging surface of the light receiving sensor.

【0004】このようなレンジファインダの受光センサ
として、2次元の撮像面を有したCCDイメージセンサ
やMOS型イメージセンサなどが用いられる。CCDイ
メージセンサは、蓄積された電荷のリセット及び電荷移
送を撮像面の画素すべてについて同一タイミングで行う
ことができる。電荷蓄積の後、各画素データは順次読み
出されるが、このときに得られる各画素データは同じタ
イミングで得られたデータである。したがって、検出光
が移動していても、物体の撮像タイミングがずれること
がなく、物体の良好な3次元画像が得られる。
As a light receiving sensor of such a range finder, a CCD image sensor or a MOS image sensor having a two-dimensional image pickup surface is used. The CCD image sensor can reset accumulated charges and transfer charges at the same timing for all pixels on the imaging surface. After the charge accumulation, each pixel data is sequentially read out, and each pixel data obtained at this time is data obtained at the same timing. Therefore, even when the detection light is moving, the imaging timing of the object is not shifted, and a good three-dimensional image of the object can be obtained.

【0005】一方、MOS型イメージセンサでは、各画
素毎に、リセット、電荷蓄積、及び読出しを独立して行
う。つまり、各画素データごとに撮像タイミングがずれ
ていることになる。このため、物体の良好な3次元画像
が得られないことがある。
On the other hand, in a MOS image sensor, reset, charge accumulation, and reading are performed independently for each pixel. That is, the imaging timing is shifted for each pixel data. For this reason, a good three-dimensional image of the object may not be obtained.

【0006】MOS型イメージセンサは、ランダムアク
セスが可能であるので、撮像データの必要な画素を部分
的に選択することができ、不必要な部分を読み出すこと
なく高速に読出しが行える。
[0006] Since the MOS type image sensor can perform random access, it is possible to partially select a pixel that requires imaging data, and to perform high-speed reading without reading an unnecessary part.

【0007】したがって、レンジファインダの受光セン
サにMOS型イメージセンサを用いた場合には、撮像の
高速化を図ることができる。ところで、レンジファイン
ダにおいては、3次元画像の演算を高速に行うために、
受光センサにおける読出しは、受光センサにおける撮像
面の全体でなく、撮像面の一部の有効受光領域(帯状領
域)のみを対象にして行われる(特開平9−14531
9)。
Therefore, when a MOS image sensor is used as the light receiving sensor of the range finder, it is possible to increase the speed of imaging. By the way, in the range finder, in order to perform calculation of a three-dimensional image at high speed,
Reading by the light receiving sensor is performed not on the entire imaging surface of the light receiving sensor but only on a part of the effective light receiving area (band-like area) of the imaging surface (Japanese Patent Laid-Open No. 9-14531).
9).

【0008】また、この有効受光領域は、ある有効受光
領域における画像情報の読出し完了毎に1ライン分だけ
検出光が撮像面を移動する方向と同一の方向に順次シフ
トするように制御される。
The effective light receiving area is controlled so that the detection light is sequentially shifted by one line in the same direction as the direction in which the detection light moves on the imaging surface every time the reading of the image information in a certain effective light receiving area is completed.

【0009】計測の分解能を受光センサにおける画素ピ
ッチに応じた値よりも高精度にするために、複数の有効
受光領域から得られた撮像データに対して重心演算が行
われる。
In order to make the resolution of the measurement higher than the value corresponding to the pixel pitch of the light receiving sensor, the center of gravity is calculated on the image data obtained from a plurality of effective light receiving areas.

【0010】従来において、受光センサにMOS型イメ
ージセンサを用いた場合において、各画素の読出しは、
検出光が撮像面を移動する方向と垂直な方向に沿って各
画素毎に順次連続的に読み出される水平転送方式により
行われていた(特開平7−174536)。
Conventionally, when a MOS image sensor is used as a light receiving sensor, reading of each pixel is performed by
The detection is performed by a horizontal transfer method in which detection light is sequentially and sequentially read for each pixel along a direction perpendicular to a direction in which the detection light moves on the imaging surface (Japanese Patent Application Laid-Open No. 7-174536).

【0011】[0011]

【発明が解決しようとする課題】しかし、上述したMO
S型イメージセンサで得られた撮像データの読出しを行
う際に、有効受光領域は1ライン分ずつシフトしていく
ので、有効受光領域内のある特定の注目画素が読み出さ
れるタイミングは、有効受光領域のシフトの回数を重ね
るにしたがって早くなり、有効受光領域が1ライン分シ
フトするタイミングからずれていく。
However, the above-mentioned MO
When the imaging data obtained by the S-type image sensor is read, the effective light receiving area shifts by one line. Therefore, the timing at which a specific target pixel in the effective light receiving area is read is determined by the effective light receiving area. As the number of shifts increases, the shift becomes faster and shifts from the timing at which the effective light receiving area shifts by one line.

【0012】このタイミングのずれは、ある特定の注目
画素について、有効受光領域が順次シフトするにつれて
大きくなる。つまり、上述した水平転送方式において
は、有効受光領域が1つシフトする毎に、1ライン分の
読出し時間がタイミングのずれに加算される。その結
果、1番目を読み出す際に最大で1ライン分の時間差で
あったものが、32番目を読み出す際には、31ライン
分の読出しの時間差が生じてしまう。
This timing shift becomes larger as the effective light receiving area shifts sequentially for a particular pixel of interest. That is, in the above-described horizontal transfer method, every time the effective light receiving area shifts by one, the read time for one line is added to the timing shift. As a result, when the first data is read, the time difference is a maximum of one line, but when the 32nd data is read, a time difference of 31 lines is generated.

【0013】したがって、複数の有効受光領域における
注目画素のデータに基づいて重心演算を行った場合に
は、演算結果に大きな誤差が含まれてしまい、演算結果
は信頼できないものとなる。演算結果を一応信頼できる
ものとするためには、上述したタイミングのずれを小さ
くするための補正処理を行うことが考えられるが、その
ような処理は極めて面倒である。
Therefore, when the barycenter calculation is performed based on the data of the pixel of interest in a plurality of effective light receiving areas, the calculation result contains a large error, and the calculation result becomes unreliable. In order to make the calculation result reliable for the time being, it is conceivable to perform a correction process for reducing the above-described timing deviation, but such a process is extremely troublesome.

【0014】本発明は、上述の問題に鑑みてなされたも
ので、有効受光領域内の注目画素が読み出されるタイミ
ングと、有効受光領域を1ライン分シフトするタイミン
グとのずれを補正する処理を別途必要とせずに、精度の
良い3次元画像を得ることのできる3次元計測装置及び
撮像制御方法を提供することを目的とする。
The present invention has been made in view of the above-described problem, and separately includes a process for correcting a difference between a timing at which a target pixel in an effective light receiving area is read and a timing at which the effective light receiving area is shifted by one line. It is an object of the present invention to provide a three-dimensional measuring device and an imaging control method capable of obtaining a high-precision three-dimensional image without necessity.

【0015】[0015]

【課題を解決するための手段】請求項1の発明に係る3
次元計測装置は、物体に検出光を照射する投光手段と、
前記検出光の照射方向を偏向させて前記物体を光学的に
走査するための走査手段と、2次元の撮像面を有し前記
物体で反射した前記検出光を受光する撮像デバイスと、
前記撮像面のうち有効領域に撮像された画像情報を各画
素毎に前記検出光が前記撮像面を移動する方向に沿って
順次連続的に読み出すように、且つ各前記有効領域にお
ける画像情報の読出し完了毎に前記有効領域を所定画素
分だけ前記検出光が前記撮像面を移動する方向と同一の
方向に順次移動するように、前記撮像デバイスを制御す
る制御手段と、を有する。
According to the third aspect of the present invention,
The dimension measurement device is a light emitting unit that irradiates the object with the detection light,
Scanning means for optically scanning the object by deflecting the irradiation direction of the detection light, and an imaging device having a two-dimensional imaging surface and receiving the detection light reflected by the object,
Reading the image information captured in the effective area of the imaging surface so as to sequentially and sequentially read out the detection light for each pixel along the direction in which the detection light moves on the imaging area, and reading out the image information in each of the effective areas. Control means for controlling the imaging device such that the detection light sequentially moves in the same direction as the direction in which the detection light moves on the imaging surface by a predetermined number of pixels in the effective area each time the operation is completed.

【0016】請求項2の発明に係る3次元計測装置で
は、前記撮像デバイスは、MOS型のイメージセンサで
ある。請求項3の発明に係る撮像制御方法は、物体に検
出光を照射する投光手段と、前記検出光の照射方向を偏
向させて前記物体を光学的に走査するための走査手段
と、2次元の撮像面を有し前記物体で反射した前記検出
光を受光する撮像デバイスとを有し、前記撮像デバイス
から出力される画像情報と当該画像情報に対応する前記
検出光の照射方向とに基づいて前記物体の3次元画像を
求める3次元計測装置における撮像制御方法において、
前記撮像面のうち有効領域に撮像された画像情報を各画
素毎に前記検出光が前記撮像面を移動する方向に沿って
順次連続的に読み出し、且つ各前記有効領域における画
像情報の読出し完了毎に前記有効領域を所定画素分だけ
移動させる。
In the three-dimensional measuring apparatus according to the second aspect of the present invention, the imaging device is a MOS image sensor. An imaging control method according to a third aspect of the present invention includes: a light projecting unit that irradiates an object with detection light; a scanning unit that deflects an irradiation direction of the detection light to optically scan the object; An imaging device having an imaging surface and receiving the detection light reflected by the object, based on image information output from the imaging device and an irradiation direction of the detection light corresponding to the image information. In an imaging control method in a three-dimensional measuring device for obtaining a three-dimensional image of the object,
The image information captured in the effective area of the imaging surface is sequentially and sequentially read out along the direction in which the detection light moves on the imaging surface for each pixel, and each time the reading of the image information in each effective area is completed. Then, the effective area is moved by a predetermined number of pixels.

【0017】[0017]

【発明の実施の形態】図1は本発明に係る計測システム
1の構成図である。計測システム1は、スリット光投影
法によって立体計測を行う3次元カメラ(レンジファイ
ンダ)2と、3次元カメラ2の出力データを処理するホ
スト3とから構成されている。
FIG. 1 is a configuration diagram of a measurement system 1 according to the present invention. The measurement system 1 includes a three-dimensional camera (range finder) 2 that performs three-dimensional measurement by a slit light projection method, and a host 3 that processes output data of the three-dimensional camera 2.

【0018】3次元カメラ2は、物体Q上の複数のサン
プリング点の3次元位置を特定する計測データととも
に、物体Qのカラー情報を示す2次元画像及びキャリブ
レーションに必要なデータを出力する。三角測量法を用
いてサンプリング点の座標を求める演算処理はホスト3
が担う。
The three-dimensional camera 2 outputs a two-dimensional image indicating color information of the object Q and data necessary for calibration together with measurement data for specifying three-dimensional positions of a plurality of sampling points on the object Q. The calculation processing for obtaining the coordinates of the sampling points using the triangulation method is performed by the host 3.
Is responsible.

【0019】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、及びマウス3dなどから構成され
たコンピュータシステムである。CPU3aには計測デ
ータ処理のためのソフトウエアが組み込まれている。ホ
スト3と3次元カメラ2との間では、オンライン及び可
搬型の記録メディア4によるオフラインの両方の形態の
データ受渡しが可能である。記録メディア4としては、
光磁気ディスク(MO)、ミニディスク(MD)、メモ
リカードなどがある。
The host 3 comprises a CPU 3a, a display 3
b, a keyboard 3c, a mouse 3d, and the like. Software for processing measurement data is incorporated in the CPU 3a. Between the host 3 and the three-dimensional camera 2, both online and offline data transfer by the portable recording medium 4 is possible. As the recording medium 4,
There are a magneto-optical disk (MO), a mini disk (MD), and a memory card.

【0020】図2は3次元カメラ2の外観を示す図であ
る。ハウジング20の前面に投光窓20a及び受光窓2
0bが設けられている。投光窓20aは受光窓20bに
対して上側に位置する。内部の光学ユニットOUが射出
するスリット光(所定幅wの帯状のレーザビーム)U
は、投光窓20aを通って計測対象の物体(被写体)に
向かう。スリット光Uの長さ方向M1の放射角度φは固
定である。物体の表面で反射したスリット光Uの一部が
受光窓20bを通って光学ユニットOUに入射する。な
お、光学ユニットOUは、投光軸と受光軸との相対関係
を適正化するための2軸調整機構を備えている。
FIG. 2 is a view showing the appearance of the three-dimensional camera 2. A light emitting window 20a and a light receiving window 2
0b is provided. The light projecting window 20a is located above the light receiving window 20b. Slit light (band-like laser beam with a predetermined width w) U emitted from the internal optical unit OU
Goes to the object (subject) to be measured through the light emitting window 20a. The radiation angle φ in the length direction M1 of the slit light U is fixed. A part of the slit light U reflected on the surface of the object enters the optical unit OU through the light receiving window 20b. Note that the optical unit OU includes a two-axis adjustment mechanism for optimizing the relative relationship between the light projecting axis and the light receiving axis.

【0021】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、及びシャッタボタン27が設けられてい
る。図2(b)のように、ハウジング20の背面には、
液晶ディスプレイ21、カーソルボタン22、セレクト
ボタン23、キャンセルボタン24、アナログ出力端子
32、ディタル出力端子33、及び記録メディア4の着
脱口30aが設けられている。
On the upper surface of the housing 20, zooming buttons 25a and 25b, a manual focusing button 26
a, 26b, and a shutter button 27 are provided. As shown in FIG. 2B, on the back of the housing 20,
A liquid crystal display 21, a cursor button 22, a select button 23, a cancel button 24, an analog output terminal 32, a digital output terminal 33, and a detachable opening 30a for the recording medium 4 are provided.

【0022】液晶ディスプレイ(LCD)21は、操作
画面の表示手段及び電子ファインダとして用いられる。
撮影者は背面の各ボタン21〜24によって撮影モード
の設定を行うことができる。アナログ出力端子32から
は、2次元画像信号が例えばNTSC形式で出力され
る。ディタル出力端子33は例えばSCSI端子であ
る。
The liquid crystal display (LCD) 21 is used as an operation screen display means and an electronic finder.
The photographer can set the photographing mode by using the buttons 21 to 24 on the back. From the analog output terminal 32, a two-dimensional image signal is output, for example, in the NTSC format. The digital output terminal 33 is, for example, a SCSI terminal.

【0023】図3は3次元カメラ2の機能構成を示すブ
ロック図である。図中の実線矢印は電気信号の流れを示
し、破線矢印は光の流れを示している。3次元カメラ2
は、上述の光学ユニットOUを構成する投光側及び受光
側の2つの光学系40,50を有している。光学系40
において、半導体レーザ(LD)41が射出する波長6
85nmのレーザビームは、投光レンズ系42を通過す
ることによってスリット光Uとなり、ガルバノミラー
(走査手段)43によって偏向される。半導体レーザ4
1のドライバ44、投光レンズ系42の駆動系45、及
びガルバノミラー43の駆動系46は、システムコント
ローラ61によって制御される。
FIG. 3 is a block diagram showing a functional configuration of the three-dimensional camera 2. In the figure, solid arrows indicate the flow of electric signals, and broken arrows indicate the flow of light. 3D camera 2
Has two optical systems 40 and 50 on the light projecting side and the light receiving side that constitute the optical unit OU described above. Optical system 40
, The wavelength 6 emitted by the semiconductor laser (LD) 41
The 85 nm laser beam becomes slit light U by passing through the light projecting lens system 42 and is deflected by a galvanomirror (scanning means) 43. Semiconductor laser 4
The driver 44, the driving system 45 of the light projecting lens system 42, and the driving system 46 of the galvanomirror 43 are controlled by a system controller 61.

【0024】光学系50において、ズームユニット51
によって集光された光はビームスプリッタ52によって
分光される。半導体レーザ41の発振波長帯域の光は、
計測用のイメージセンサ53に入射する。可視帯域の光
は、モニタ用のカラーセンサ54に入射する。イメージ
センサ53はMOS型センサであり、カラーセンサ54
はCCDエリアセンサである。ズームユニット51は内
焦型であり、入射光の一部がオートフォーカシング(A
F)に利用される。AF機能は、AFセンサ57とレン
ズコントローラ58とフォーカシング駆動系59によっ
て実現される。ズーミング駆動系60は電動ズーミング
のために設けられている。
In the optical system 50, a zoom unit 51
The light condensed by the beam splitter 52 is split by the beam splitter 52. The light in the oscillation wavelength band of the semiconductor laser 41 is
The light enters the image sensor 53 for measurement. Light in the visible band enters the monitor color sensor 54. The image sensor 53 is a MOS sensor, and a color sensor 54.
Is a CCD area sensor. The zoom unit 51 is of an in-focus type, and a part of incident light is auto-focused (A
Used in F). The AF function is realized by an AF sensor 57, a lens controller 58, and a focusing drive system 59. The zooming drive system 60 is provided for electric zooming.

【0025】イメージセンサ53による撮像情報は、ド
ライバ55からのクロックに同期してメモリ63に格納
される。カラーセンサ54による撮像情報は、ドライバ
56からのクロックに同期してカラー処理回路67へ転
送される。カラー処理を受けた撮像情報は、NTSC変
換回路70及びアナログ出力端子32を経てオンライン
出力され、又はディジタル画像生成部68で量子化され
てカラー画像メモリ69に格納される。その後、カラー
画像データがカラー画像メモリ69からSCSIコント
ローラ66へ転送され、ディジタル出力端子33からオ
ンライン出力され、又は計測データと対応づけて記録メ
ディア4に格納される。なお、カラー画像は、イメージ
センサ53による距離画像と同一の画角の像であり、ホ
スト3側におけるアプリケーション処理に際して参考情
報として利用される。カラー情報を利用する処理として
は、例えばカメラ視点の異なる複数組の計測データを組
み合わせて3次元形状モデルを生成する処理、3次元形
状モデルの不要の頂点を間引く処理などがある。システ
ムコントローラ61は、図示しないキャラクタジェネレ
ータに対して、LCD21の画面上に適切な文字や記号
を表示するための指示を与える。
Image information from the image sensor 53 is stored in the memory 63 in synchronization with a clock from the driver 55. Image information from the color sensor 54 is transferred to the color processing circuit 67 in synchronization with a clock from the driver 56. The color-processed imaging information is output online via the NTSC conversion circuit 70 and the analog output terminal 32, or quantized by the digital image generation unit 68 and stored in the color image memory 69. Thereafter, the color image data is transferred from the color image memory 69 to the SCSI controller 66, output online from the digital output terminal 33, or stored in the recording medium 4 in association with the measurement data. Note that the color image is an image having the same angle of view as the distance image obtained by the image sensor 53, and is used as reference information during application processing on the host 3 side. The processing using color information includes, for example, processing of generating a three-dimensional shape model by combining a plurality of sets of measurement data having different camera viewpoints, and processing of thinning out unnecessary vertices of the three-dimensional shape model. The system controller 61 gives a character generator (not shown) an instruction to display appropriate characters and symbols on the screen of the LCD 21.

【0026】出力処理回路62は、イメージセンサ53
の出力する各画素gの光電変換信号を増幅する増幅器、
及び光電変換信号を8ビットの受光データに変換するA
D変換部を有している。メモリ63は、200×32×
33Byteの記憶容量を持つ読み書き可能なメモリで
あり、出力処理回路62から出力される受光データを記
憶する。メモリ制御回路63Aは、メモリ63への書込
み及び読出しのアドレス指定を行う。
The output processing circuit 62 includes an image sensor 53
An amplifier that amplifies the photoelectric conversion signal of each pixel g output by
A for converting the photoelectric conversion signal into 8-bit light reception data
It has a D conversion unit. The memory 63 is 200 × 32 ×
This is a readable / writable memory having a storage capacity of 33 bytes, and stores light reception data output from the output processing circuit 62. The memory control circuit 63A specifies addresses for writing to and reading from the memory 63.

【0027】重心演算回路73は、メモリ63に記憶さ
れた受光データに基づいて、計測対象の物体の形状に対
応した濃淡画像を生成して表示用メモリ74に出力し、
また、3次元位置を算出するための基となるデータを算
出し出力用メモリ64に出力する。LCD21の画面に
は、表示用メモリ74に記憶された濃淡画像、カラー画
像メモリ69に記憶されたカラー画像などを表示する。
The center-of-gravity calculating circuit 73 generates a grayscale image corresponding to the shape of the object to be measured based on the received light data stored in the memory 63, and outputs the grayscale image to the display memory 74.
Further, it calculates data that is a basis for calculating the three-dimensional position and outputs the data to the output memory 64. On the screen of the LCD 21, a grayscale image stored in the display memory 74, a color image stored in the color image memory 69, and the like are displayed.

【0028】図4は投光レンズ系42の構成を示す模式
図である。図4(a)は正面図であり、図4(b)は側
面図である。投光レンズ系42は、コリメータレンズ4
21、バリエータレンズ422、及びエキスパンダレン
ズ423の3つのレンズから構成されている。半導体レ
ーザ41が射出したレーザビームに対して、次の順序で
適切なスリット光Uを得るための光学的処理が行われ
る。まず、コリメータレンズ421によってビームが平
行化される。次にバリエータレンズ422によってレー
ザビームのビーム径が調整される。最後にエキスパンダ
レンズ423によってビームがスリット長さ方向M1に
拡げられる。
FIG. 4 is a schematic diagram showing the configuration of the light projecting lens system 42. FIG. 4A is a front view, and FIG. 4B is a side view. The projection lens system 42 includes the collimator lens 4
21, a variator lens 422, and an expander lens 423. The laser beam emitted from the semiconductor laser 41 is subjected to an optical process for obtaining an appropriate slit light U in the following order. First, the beam is collimated by the collimator lens 421. Next, the beam diameter of the laser beam is adjusted by the variator lens 422. Finally, the beam is expanded in the slit length direction M1 by the expander lens 423.

【0029】バリエータレンズ422は、撮影距離及び
撮影の画角に係わらず、イメージセンサ53に3以上の
複数画素分の幅のスリット光Uを入射させるために設け
られている。駆動系45は、システムコントローラ61
の指示に従って、イメージセンサ53上でのスリット光
Uの幅wを一定に保つようにバリエータレンズ422を
移動させる。バリエータレンズ422と受光側のズーム
ユニット51とは連動する。
The variator lens 422 is provided to allow the slit light U having a width of three or more pixels to enter the image sensor 53 regardless of the photographing distance and the angle of view of the photographing. The drive system 45 includes a system controller 61
The variator lens 422 is moved so that the width w of the slit light U on the image sensor 53 is kept constant in accordance with the instruction of (1). The variator lens 422 and the zoom unit 51 on the light receiving side are linked.

【0030】ガルバノミラー43による偏向の以前にス
リット長を拡げることにより、偏向の後で行う場合に比
べてスリット光Uの歪みを低減することができる。エキ
スパンダレンズ423を投光レンズ系42の最終段に配
置することにより、すなわちガルバノミラー43に近づ
けることにより、ガルバノミラー43を小型化すること
ができる。
By increasing the slit length before deflection by the galvanomirror 43, distortion of the slit light U can be reduced as compared with the case where deflection is performed after deflection. By arranging the expander lens 423 at the last stage of the light projecting lens system 42, that is, by bringing it closer to the galvanometer mirror 43, the size of the galvanometer mirror 43 can be reduced.

【0031】図5は計測システム1における3次元位置
の算出の原理図である。同図では理解を容易にするた
め、受光量のサンプリングについて5回分のみが示され
ている。
FIG. 5 is a principle diagram for calculating a three-dimensional position in the measurement system 1. In the figure, only five samplings of the amount of received light are shown for easy understanding.

【0032】イメージセンサ53の撮像面S2上で複数
画素分となる比較的に幅の広いスリット光Uを物体Qに
照射する。具体的にはスリット光Uの幅を5画素分とす
る。スリット光Uは、サンプリング周期毎に撮像面S2
上で1画素ピッチpvだけ移動するように、図5の上か
ら下に向かって偏向され、それによって物体Qが走査さ
れる。サンプリング周期毎にイメージセンサ53から1
フレーム分の受光データ(光電変換情報)が出力され
る。なお、この偏向は実際には等角速度で行われる。
The object Q is irradiated with a relatively wide slit light U of a plurality of pixels on the imaging surface S2 of the image sensor 53. Specifically, the width of the slit light U is set to 5 pixels. The slit light U is transmitted to the imaging surface S2 every sampling cycle.
5 is deflected from the top to the bottom of FIG. 5 so as to move by one pixel pitch pv, thereby scanning the object Q. 1 from image sensor 53 every sampling period
Light reception data (photoelectric conversion information) for a frame is output. Note that this deflection is actually performed at a constant angular velocity.

【0033】撮像面S2の1つの画素gに注目すると、
本実施形態においては、走査中に行う32回のサンプリ
ングによって32回分の受光データが得られる。これら
32回分の受光データに対する重心演算によって、注目
画素gがにらむ範囲の物体表面agをスリット光Uの光
軸が通過するタイミング(時間重心Npeak又は重心
ip)を求める。
Focusing on one pixel g on the imaging surface S2,
In the present embodiment, 32 samples of light reception data are obtained by 32 samplings performed during scanning. The timing (time barycenter Npeak or barycenter ip) at which the optical axis of the slit light U passes through the object surface ag in the range where the pixel of interest gazes is obtained by the barycenter calculation for these 32 received light data.

【0034】物体Qの表面が平面であって光学系の特性
によるノイズがない場合には、注目画素gの受光量は、
図5(b)に示すように、スリット光Uが通過するタイ
ミングにおいて多くなり、通常、正規分布に近くなる。
同図のようにn回目とその1つ前の(n−1)回目の間
のタイミングで受光量が最大であった場合には、そのタ
イミングが時間重心Npeakとほぼ一致する。
When the surface of the object Q is flat and there is no noise due to the characteristics of the optical system, the amount of light received by the target pixel g is
As shown in FIG. 5B, the number increases at the timing when the slit light U passes, and usually approaches a normal distribution.
When the amount of received light is maximum between the n-th time and the immediately preceding (n-1) -th time as shown in the figure, the timing substantially coincides with the time barycenter Npeak.

【0035】求めた時間重心Npeakにおけるスリッ
ト光の照射方向と、注目画素に対するスリット光の入射
方向との関係に基づいて、物体Qの位置(座標)を算出
する。これにより、撮像面の画素ピッチpvで規定され
る分解能より高い分解能の計測が可能となる。
The position (coordinate) of the object Q is calculated based on the relationship between the irradiation direction of the slit light at the obtained time barycenter Npeak and the incident direction of the slit light on the target pixel. This enables measurement with a higher resolution than the resolution defined by the pixel pitch pv of the imaging surface.

【0036】なお、注目画素gの受光量は物体Qの反射
率に依存する。しかし、サンプリングの各受光量の相対
比は受光の絶対量に係わらず一定である。つまり、物体
色の濃淡は計測精度に影響しない。
The amount of light received by the target pixel g depends on the reflectance of the object Q. However, the relative ratio of each received light amount of sampling is constant regardless of the absolute amount of received light. That is, the shading of the object color does not affect the measurement accuracy.

【0037】図6はイメージセンサ53の読出し範囲を
示す図である。図6に示すように、イメージセンサ53
における1フレームの読出しは、撮像面S2の全体では
なく、高速化を図るために撮像面S2の一部である有効
受光領域(帯状画像)Aeのみを対象に行われる。有効
受光領域Aeは、スリット光Uのある照射タイミングに
おける物体Qの計測可能距離範囲d’(図14参照)に
対応する撮像面S2上の領域であり、スリット光Uの偏
向に伴ってフレーム毎に1画素分ずつシフトする。本実
施形態では、有効受光領域Aeのシフト方向の画素数は
32に固定されている。
FIG. 6 is a diagram showing a reading range of the image sensor 53. As shown in FIG.
The reading of one frame in is performed not on the entire imaging surface S2, but only on the effective light receiving area (band image) Ae that is a part of the imaging surface S2 in order to increase the speed. The effective light receiving area Ae is an area on the imaging surface S2 corresponding to the measurable distance range d ′ of the object Q at a certain irradiation timing of the slit light U (see FIG. , One pixel at a time. In the present embodiment, the number of pixels of the effective light receiving area Ae in the shift direction is fixed to 32.

【0038】イメージセンサ53はMOS型センサであ
り、ランダムアクセスが可能であるので、撮像データの
必要な画素を部分的に選択することができ、不必要な部
分を読み出すことなく高速に読出しが行える。
Since the image sensor 53 is a MOS type sensor and is capable of random access, it is possible to partially select a pixel required for imaging data, and to perform high-speed reading without reading unnecessary portions. .

【0039】図7はイメージセンサ53の構成の模式図
である。イメージセンサ53は、撮像面S2の各画素g
を順に指定して受光情報を読み出すいわゆるX−Yアド
レス走査型の撮像デバイスであって、各画素gに対応し
たスイッチの制御によって任意の範囲の読出しが可能で
ある。一般的には、垂直走査回路531と水平走査回路
532とを構成するディジタルシフトレジスタに所定の
タイミングでシフト信号を入力することにより、ライン
順次の読出しが行われる。ラインは水平方向の画素列で
ある。本実施形態において、水平方向は物体Qの走査に
おける主走査方向に相当する方向であり、垂直方向は副
走査方向(スリット光の偏向方向)に相当する方向であ
る。ただし、イメージセンサ53の配置の向きは光学系
の構成に応じて変更可能であるので、ここでの垂直方向
が必ずしも実空間での鉛直方向と一致するとは限らな
い。
FIG. 7 is a schematic diagram of the configuration of the image sensor 53. The image sensor 53 is provided for each pixel g on the imaging surface S2.
Are sequentially read to receive light-receiving information, that is, a so-called XY address scanning type imaging device, in which an arbitrary range can be read by controlling a switch corresponding to each pixel g. Generally, line-sequential reading is performed by inputting a shift signal at a predetermined timing to a digital shift register constituting the vertical scanning circuit 531 and the horizontal scanning circuit 532. A line is a horizontal pixel column. In the present embodiment, the horizontal direction is a direction corresponding to a main scanning direction in scanning the object Q, and the vertical direction is a direction corresponding to a sub-scanning direction (a deflection direction of slit light). However, since the orientation of the image sensor 53 can be changed according to the configuration of the optical system, the vertical direction here does not always coincide with the vertical direction in the real space.

【0040】イメージセンサ53においては、垂直走査
回路531に対して走査開始ラインを示すレジスタ初期
値を与える走査開始セットレジスタ533が設けられ、
これによって上述の有効受光領域Ae(帯状画像)の読
出しが実現される。
In the image sensor 53, a scan start set register 533 for providing a vertical scan circuit 531 with a register initial value indicating a scan start line is provided.
Thus, the reading of the effective light receiving area Ae (band-shaped image) described above is realized.

【0041】走査開始セットレジスタ533へは走査開
始位置を表すデータ信号sgn1、及び走査終了位置を
表すデータ信号sgn2を入力することで、どの位置の
有効受光領域Aeの撮影像(帯状画像)を読み出すかを
指示する。
By inputting the data signal sgn1 representing the scanning start position and the data signal sgn2 representing the scanning end position to the scanning start set register 533, the photographed image (band image) of the effective light receiving area Ae at which position is read. To indicate.

【0042】また、撮像面S2の画素数が増加するとデ
ータ信号sgn1のビット数が増えるので、入力端子の
低減の上でデータ信号sgn1のデコーダ534を設け
るのが望ましい。読出し開始時には、走査開始セットレ
ジスタ533の内容を垂直走査回路531に並列転送す
ることで走査開始位置及び走査終了位置がセットされた
ことになる。
Since the number of bits of the data signal sgn1 increases as the number of pixels on the imaging surface S2 increases, it is desirable to provide a decoder 534 for the data signal sgn1 in order to reduce the number of input terminals. At the start of reading, the contents of the scan start set register 533 are transferred in parallel to the vertical scanning circuit 531 to set the scan start position and the scan end position.

【0043】帯状画像の読出しは、水平走査を繰り返す
のではなく垂直走査を繰り返すことにより行う。まず、
イメージセンサ53は、水平方向に沿って配列された列
の1列目に対して垂直走査を開始位置から終了位置まで
行うことで垂直方向に並ぶ33(=32+1)個の画素
からなる画素列から光電変換信号を出力する。ただし、
メモリ63への格納の対象になるのは32画素分の光電
変換信号である。続いて、読出しを行う列を水平方向に
1画素分シフトさせ、2列目に対して垂直走査を行って
33画素分の光電変換信号を出力する。このような動作
を繰り返すことで指定された位置の帯状画像を出力す
る。
Reading of the band image is performed by repeating vertical scanning instead of repeating horizontal scanning. First,
The image sensor 53 performs a vertical scan from the start position to the end position on the first column of the columns arranged in the horizontal direction, so that a pixel column composed of 33 (= 32 + 1) pixels arranged in the vertical direction is obtained. Outputs a photoelectric conversion signal. However,
What is stored in the memory 63 is a photoelectric conversion signal for 32 pixels. Subsequently, the column to be read is shifted by one pixel in the horizontal direction, and the second column is scanned vertically to output a photoelectric conversion signal of 33 pixels. By repeating such an operation, a belt-shaped image at a designated position is output.

【0044】以上の要領で読出しを行うことにより、撮
像面S2の全領域の画像を読み出す場合よりはるかに短
い時間(読み出す行の数/全領域の行数)で1フレーム
の読出しが完了する。
By performing the reading in the above manner, the reading of one frame is completed in a much shorter time (the number of rows to be read / the number of rows of the entire area) than when reading the image of the entire area of the imaging surface S2.

【0045】垂直方向に並ぶ33画素分の範囲の読出し
を行う理由は次のとおりである。MOS型センサでは、
一度読み出された領域はリセットされ次の電荷蓄積を開
始するのに対し、読み出されなかった領域は電荷の蓄積
が継続して行われる。次回の読み出しの対象が同じ領域
であれば問題はないが、異なる領域を読み出す場合に
は、n回目と(n+1)回目の読出しで蓄積時間の異な
る画像情報が混在することになる。すなわち、光投影法
による3次元測定においては、スリット光Uの偏向とと
もに読み出しの必要な有効受光領域Aeが副走査方向
(撮像面の垂直方向)にシフトする。したがって、n回
目と(n+1)回目とで重複して読み出される領域の画
像は前回(n回目)の読出しから今回(n+1)回目の
読み出しまでの蓄積時間の画像が読み出されるのに対
し、有効受光領域Aeのシフトによって今回に新たに読
み出される領域の画像は1回目の撮影から継続して光電
変換をした画像となってしまう。そこで、本実施形態に
おいては、読み出し対象領域を今回に必要な領域と次回
に必要な領域の双方を包含する領域に設定する。こうす
ることで、次回に読出しが必要な領域については必ず前
回に電荷蓄積がクリアされることになり、蓄積時間の異
なる画素からなる画像を取り込んでしまうという問題を
回避することができる。
The reason why reading is performed in a range of 33 pixels arranged in the vertical direction is as follows. In MOS type sensors,
The area that has been read once is reset and starts the next charge accumulation, whereas the area that has not been read continues to accumulate charges. There is no problem if the next area to be read is the same area, but if different areas are read, image information having different accumulation times will be mixed in the n-th and (n + 1) -th reads. That is, in the three-dimensional measurement by the light projection method, the effective light receiving area Ae which needs to be read out is shifted in the sub-scanning direction (vertical direction of the imaging surface) together with the deflection of the slit light U. Therefore, in the image of the area that is read in the n-th time and the (n + 1) -th time, the image of the accumulation time from the previous (n-th) time reading to the current (n + 1) -th time reading is read out. The image of the area newly read this time due to the shift of the area Ae is an image that has been photoelectrically converted continuously from the first shooting. Therefore, in the present embodiment, the read target area is set to an area that includes both the area required this time and the area needed next time. By doing so, the charge accumulation is always cleared last time in the area which needs to be read next time, and the problem of taking in an image composed of pixels having different accumulation times can be avoided.

【0046】上に述べたように、イメージセンサ53に
おいて、有効受光領域Aeの各画素の読出し方式には、
スリット光Uが撮像面S2を移動する方向と同じ方向に
沿って各画素毎に順次連続的に読み出される垂直転送方
式が適用される。この垂直転送方式を適用した場合に
は、有効受光領域Aeの各画素の読出し方式に、スリッ
ト光Uが撮像面S2を移動する方向と垂直の方向に沿っ
て各画素毎に順次連続的に読み出される水平転送方式を
適用した場合に比べて、重心演算の精度が良くなる。そ
の理由については後述する。
As described above, in the image sensor 53, the reading method of each pixel in the effective light receiving area Ae includes the following.
A vertical transfer method in which the slit light U is sequentially and continuously read for each pixel along the same direction as the direction in which the slit light U moves on the imaging surface S2 is applied. When this vertical transfer method is applied, the reading method for each pixel in the effective light receiving area Ae is sequentially read out for each pixel in a direction perpendicular to the direction in which the slit light U moves on the imaging surface S2. The accuracy of the center-of-gravity calculation is improved as compared with the case where a horizontal transfer method is applied. The reason will be described later.

【0047】図8はイメージセンサ53の撮像面S2に
おけるラインとフレームとの関係を示す図、図9〜11
はメモリ63における各フレームの受光データの記憶状
態を示す図である。
FIG. 8 is a diagram showing the relationship between lines and frames on the imaging surface S2 of the image sensor 53, and FIGS.
FIG. 7 is a diagram showing a storage state of light reception data of each frame in the memory 63.

【0048】図8に示すように、撮像面S2の最初のフ
レームであるフレーム1には、ライン1からライン32
までの32(ライン)×200画素分の受光データが含
まれる。フレーム2はライン2からライン33まで、フ
レーム3はライン3からライン34までというように、
フレーム毎に1ライン分だけシフトされる。フレーム3
2はライン32からライン63までである。なお、上述
したように1ラインを200画素としている。
As shown in FIG. 8, frame 1 which is the first frame of the image pickup surface S2 includes lines 1 to 32
Up to 32 (lines) × 200 pixels of received light data are included. Frame 2 is from line 2 to line 33, frame 3 is from line 3 to line 34, and so on.
Each frame is shifted by one line. Frame 3
2 is from line 32 to line 63. As described above, one line has 200 pixels.

【0049】これらフレーム1からフレーム32までの
受光データが、出力処理回路62を介してメモリ63に
順次転送され、図9に示す状態でメモリ63に記憶され
る。つまり、メモリ63には、フレーム1、2、3…の
順に受光データが記憶される。各フレームに含まれるラ
イン32のデータは、フレーム1については32ライン
目、フレーム2については31ライン目というように、
フレーム毎に1ラインづつ上方にシフトされている。フ
レーム1からフレーム32までの受光データがメモリ6
3に記憶されると、ライン32の各画素について、時間
重心Npeakの算出が行われる。
The received light data from frame 1 to frame 32 are sequentially transferred to the memory 63 via the output processing circuit 62 and stored in the memory 63 in the state shown in FIG. That is, the light receiving data is stored in the memory 63 in the order of the frames 1, 2, 3,. The data of the line 32 included in each frame is the 32nd line for the frame 1, the 31st line for the frame 2, and so on.
Each frame is shifted upward by one line. The received light data from frame 1 to frame 32 is stored in memory 6
3, the time barycenter Npeak is calculated for each pixel on the line 32.

【0050】ライン32についての演算が行われている
間に、フレーム33の受光データがメモリ63に転送さ
れて記憶される。図10に示すように、フレーム33の
受光データは、メモリ63のフレーム32の次の領域に
記憶される。フレーム33のデータがメモリ63に記憶
されると、これらフレーム2からフレーム33までに含
まれるライン33の各画素について、時間重心Npea
kの算出が行われる。
While the calculation for the line 32 is being performed, the received light data of the frame 33 is transferred to and stored in the memory 63. As shown in FIG. 10, the light reception data of the frame 33 is stored in the area next to the frame 32 of the memory 63. When the data of the frame 33 is stored in the memory 63, the time barycenter Npea is set for each pixel of the line 33 included in the frames 2 to 33.
Calculation of k is performed.

【0051】ライン33についての演算が行われている
間に、フレーム34の受光データがメモリ63に転送さ
れて記憶される。図11に示すように、フレーム34の
受光データは、フレーム1の記憶されていた領域に上書
きされる。この時点ではフレーム1のデータは処理済で
あるため、上書きにより消去しても差し支えないからで
ある。フレーム34のデータがメモリ63に記憶される
と、ライン34の各画素について、時間重心Npeak
の算出が行われる。フレーム34の受光データについて
の処理が終わると、フレーム35の受光データがフレー
ム2の記憶されていた領域に上書きされる。
While the calculation for the line 33 is being performed, the received light data of the frame 34 is transferred to the memory 63 and stored. As shown in FIG. 11, the light receiving data of the frame 34 is overwritten on the area where the frame 1 is stored. At this point, since the data of frame 1 has been processed, it can be deleted by overwriting. When the data of the frame 34 is stored in the memory 63, for each pixel of the line 34, the time centroid Npeak
Is calculated. When the processing of the light reception data of the frame 34 is completed, the light reception data of the frame 35 is overwritten on the area stored in the frame 2.

【0052】このようにして、最終のラインであるライ
ン231まで、合計200ライン分についての時間重心
Npeakの算出が行われる。上述のように、メモリ6
3に記憶された受光データのうち、順次不要になったデ
ータの記憶された領域に新規の受光データを上書きして
記憶するので、メモリ63の容量が低減される。
In this way, the time barycenter Npeak is calculated for a total of 200 lines up to the last line 231. As described above, the memory 6
Since the new light receiving data is overwritten and stored in the area where the unnecessary data is sequentially stored in the light receiving data stored in No. 3, the capacity of the memory 63 is reduced.

【0053】表示用メモリ74に記憶された重心ip
は、LCD21の画面に表示される。重心ipは、計測
対象の物体Qの表面の位置に関連し、物体Qの表面の位
置が3次元カメラ2に近い場合に重心ipの値が大きく
なり、遠い場合に重心ipの値が小さくなる。したがっ
て、重心ipを濃度データとして濃淡画像を表示させる
ことにより距離分布を表現することができる。
The center of gravity ip stored in the display memory 74
Is displayed on the screen of the LCD 21. The center of gravity ip is related to the position of the surface of the object Q to be measured. When the position of the surface of the object Q is close to the three-dimensional camera 2, the value of the center of gravity ip increases, and when the position of the surface of the object Q is far, the value of the center of gravity ip decreases. . Therefore, the distance distribution can be expressed by displaying a grayscale image using the center of gravity ip as the density data.

【0054】次に、3次元カメラ2及びホスト3の動作
を計測の手順と合わせて説明する。上述したように、計
測のサンプリング点数を200×262とする。すなわ
ち、撮像面S2におけるスリットUの幅方向の画素数は
262であり、実質的なフレーム数Nは231である。
Next, the operation of the three-dimensional camera 2 and the host 3 will be described together with the measurement procedure. As described above, the number of sampling points for measurement is set to 200 × 262. That is, the number of pixels in the width direction of the slit U on the imaging surface S2 is 262, and the substantial number N of frames is 231.

【0055】ユーザー(撮影者)は、LCD21が表示
するカラーモニタ像を見ながら、カメラ位置と向きとを
決め、画角を設定する。その際、必要に応じてズーミン
グ操作を行う。3次元カメラ2ではカラーセンサ54に
対する絞り調整は行われず、電子シャッタ機能により露
出制御されたカラーモニタ像が表示される。これは、絞
りを開放状態とすることによってイメージセンサ53の
入射光量をできるだけ多くするためである。
The user (photographer) determines the camera position and orientation while watching the color monitor image displayed on the LCD 21, and sets the angle of view. At that time, a zooming operation is performed as needed. In the three-dimensional camera 2, the aperture adjustment of the color sensor 54 is not performed, and a color monitor image whose exposure is controlled by the electronic shutter function is displayed. This is because the amount of incident light on the image sensor 53 is increased as much as possible by opening the aperture.

【0056】図12は3次元カメラ2におけるデータの
流れを示す図、図13はホスト3における3次元位置演
算の処理手順を示すフローチャート、図14は光学系の
各点と物体Qとの関係を示す図である。
FIG. 12 is a diagram showing a flow of data in the three-dimensional camera 2, FIG. 13 is a flowchart showing a processing procedure of three-dimensional position calculation in the host 3, and FIG. 14 shows a relationship between each point of the optical system and the object Q. FIG.

【0057】ユーザーによる画角選択操作(ズーミン
グ)に応じて、ズームユニット51のバリエータ部51
4の移動が行われる。また、フォーカシング部512の
移動による手動又は自動のフォーカシングが行われる。
フォーカシングの過程でおおよその対物間距離d0 が測
定される。
The variator unit 51 of the zoom unit 51 is operated in accordance with the angle of view selection operation (zooming) by the user.
4 is performed. Also, manual or automatic focusing by moving the focusing unit 512 is performed.
In the course of focusing, the approximate inter-object distance d 0 is measured.

【0058】このような受光系のレンズ駆動に呼応し
て、投光側のバリエータレンズ422の移動量が図示し
ない演算回路によって算出され、算出結果に基づいてバ
リエータレンズ422の移動制御が行われる。
In response to such lens driving of the light receiving system, the amount of movement of the variator lens 422 on the light projecting side is calculated by an arithmetic circuit (not shown), and the movement of the variator lens 422 is controlled based on the calculation result.

【0059】システムコントローラ61は、レンズコン
トローラ58を介して、フォーカシングエンコーダ59
Aの出力(繰り出し量Ed)及びズーミングエンコーダ
60Aの出力(ズーム刻み値fp)を読み込む。システ
ムコントローラ61の内部において、歪曲収差テーブル
T1、主点位置テーブルT2、及び像距離テーブルT3
が参照され、繰り出し量Ed及びズーム刻み値fpに対
応した撮影条件データがホスト2へ出力される。ここで
の撮影条件データは、歪曲収差パラメータ(レンズ歪み
補正係数d1,d2)、前側主点位置FH、及び像距離
bである。前側主点位置FHは、ズームユニット51の
前側端点Fと前側主点Hとの距離で表される。前側端点
Fは固定であるので、前側主点位置FHにより前側主点
Hを特定することができる。
The system controller 61 has a focusing encoder 59 via a lens controller 58.
The output of A (the feed amount Ed) and the output of the zooming encoder 60A (the zoom step value fp) are read. Inside the system controller 61, a distortion table T1, a principal point position table T2, and an image distance table T3
, And the photographing condition data corresponding to the feeding amount Ed and the zoom step value fp are output to the host 2. The photographing condition data here includes a distortion aberration parameter (lens distortion correction coefficient d1, d2), a front principal point position FH, and an image distance b. The front principal point position FH is represented by the distance between the front end point F of the zoom unit 51 and the front principal point H. Since the front end point F is fixed, the front principal point H can be specified by the front principal point position FH.

【0060】システムコントローラ61は、半導体レー
ザ41の出力(レーザ強度)及びスリット光Uの偏向条
件(走査開始角、走査終了角、偏向角速度)を算定す
る。この算定方法を詳しく説明する。まず、おおよその
対物間距離d0 に平面物体が存在するものとして、イメ
ージセンサ53の中央で反射光を受光するように投射角
設定を行う。以下で説明するレーザ強度の算定のための
パルス点灯は、この設定された投射角で行う。
The system controller 61 calculates the output (laser intensity) of the semiconductor laser 41 and the deflection conditions (scan start angle, scan end angle, deflection angular velocity) of the slit light U. This calculation method will be described in detail. First, assuming that a plane object exists at an approximate distance d 0 between the objectives, the projection angle is set so that the reflected light is received at the center of the image sensor 53. The pulse lighting for calculating the laser intensity described below is performed at the set projection angle.

【0061】次にレーザ強度を算定する。レーザ強度の
算定に際しては、人体を計測する場合があるので、安全
性に対する配慮が不可欠である。まず、最小強度LDm
inでパルス点灯し、イメージセンサ53の出力を取り
込む。取り込んだ信号〔Son(LDmin)〕と適正
レベルStypとの比を算出し、仮のレーザ強度LD1
を設定する。
Next, the laser intensity is calculated. When calculating the laser intensity, a human body may be measured, so safety considerations are indispensable. First, the minimum strength LDm
The pulse is turned on at “in”, and the output of the image sensor 53 is captured. The ratio between the fetched signal [Son (LDmin)] and the appropriate level STyp is calculated, and the provisional laser intensity LD1 is calculated.
Set.

【0062】LD1=LDmin×Styp/MAX
〔Son(LDmin)〕 続いてレーザ強度LD1で再びパルス点灯し、イメージ
センサ53の出力を取り込む。取り込んだ信号〔Son
(LD1)〕が適正レベルStyp又はそれに近い値で
あれば、LD1をレーザ強度LDsと決める。他の場合
には、レーザ強度LD1とMAX〔Son(LD1)〕
とを用いて仮のレーザ強度LD1を設定し、イメージセ
ンサ53の出力と適正レベルStypとを比較する。イ
メージセンサ53の出力が許容範囲内の値となるまで、
レーザ強度の仮設定と適否の確認とを繰り返す。なお、
イメージセンサ53の出力の取り込みは、撮像面S2の
全面を対象に行う。これは、AFによる受動的な距離算
出では、スリット光Uの受光位置を高精度に推定するこ
とが難しいためである。イメージセンサ53におけるC
CDの積分時間は1フィールド時間(例えば1/60
秒)であり、実際の計測時における積分時間より長い。
このため、パルス点灯を行うことにより、計測時と等価
なセンサ出力を得る。
LD1 = LDmin × Type / MAX
[Son (LDmin)] Subsequently, the pulse is turned on again at the laser intensity LD1 to capture the output of the image sensor 53. Captured signal [Son
If (LD1)] is a proper level Type or a value close to it, LD1 is determined as the laser intensity LDs. In other cases, the laser intensity LD1 and MAX [Son (LD1)]
Is used to set the temporary laser intensity LD1, and the output of the image sensor 53 is compared with the appropriate level Styp. Until the output of the image sensor 53 becomes a value within the allowable range,
The provisional setting of laser intensity and the confirmation of suitability are repeated. In addition,
The capture of the output of the image sensor 53 is performed on the entire imaging surface S2. This is because it is difficult to accurately estimate the light receiving position of the slit light U in the passive distance calculation by the AF. C in the image sensor 53
The integration time of CD is one field time (for example, 1/60
Second), which is longer than the integration time at the time of actual measurement.
Therefore, by performing pulse lighting, a sensor output equivalent to that at the time of measurement is obtained.

【0063】次に、投射角と、レーザ強度が決定したと
きのスリット光Uの受光位置から、三角測量により対物
間距離dを決定する。最後に、決定された対物間距離d
に基づいて、偏向条件を算出する。偏向条件の算定に際
しては、対物間距離dの測距基準点である受光系の前側
主点Hと投光の起点AとのZ方向のオフセットdoff
を考慮する。また、走査方向の端部においても中央部と
同様の計測可能距離範囲d’を確保するため、所定量
(例えば8画素分)のオーバースキャンを行うようにす
る。走査開始角th1、走査終了角th2、偏向角速度
ωは、次式で表される。
Next, the distance d between the objects is determined by triangulation from the projection angle and the light receiving position of the slit light U when the laser intensity is determined. Finally, the determined objective distance d
The deflection condition is calculated based on. When calculating the deflection condition, the offset doff in the Z direction between the front principal point H of the light receiving system, which is the distance measurement reference point of the distance d between the objects, and the projection start point A.
Consider. Further, in order to secure the same measurable distance range d 'as that at the center in the scanning direction, an overscan of a predetermined amount (for example, for 8 pixels) is performed. The scan start angle th1, the scan end angle th2, and the deflection angular velocity ω are represented by the following equations.

【0064】th1=tan-1〔β×pv(np/2+
8)+L)/(d+doff)〕×180/π th2=tan-1〔−β×pv(np/2+8)+L)
/(d+doff)〕×180/π ω=(th1−th2)/np β:撮像倍率(=d/実効焦点距離freal) pv:画素ピッチ np:撮像面S2のY方向の有効画素数 L:基線長 このようにして算出された条件で次に本発光に移り、物
体Qの走査(スリット投影)が行われ、上述の出力処理
回路62、メモリ63、及び重心演算回路73を経て出
力用メモリ64に記憶されたデータD62がホスト2へ
送られる。同時に、偏向条件(偏向制御データ)及びイ
メージセンサ53の仕様などを示す装置情報D10も、
ホスト3へ送られる。表1は3次元カメラ2がホスト3
へ送る主なデータをまとめたものである。
Th1 = tan −1 [β × pv (np / 2 +
8) + L) / (d + doff)] × 180 / π th2 = tan −1 [−β × pv (np / 2 + 8) + L)
/ (D + doff)] × 180 / π ω = (th1−th2) / np β: imaging magnification (= d / effective focal length freal) pv: pixel pitch np: effective number of pixels in the Y direction of the imaging surface S2 L: base line Under the conditions calculated in this manner, the process proceeds to the main light emission, where scanning (slit projection) of the object Q is performed, and the output memory 64 through the output processing circuit 62, the memory 63, and the center-of-gravity calculation circuit 73. Is transmitted to the host 2. At the same time, device information D10 indicating deflection conditions (deflection control data), specifications of the image sensor 53, and the like are also provided.
Sent to host 3. Table 1 shows that the 3D camera 2 is the host 3
It summarizes the main data to be sent to

【0065】[0065]

【表1】 [Table 1]

【0066】図13のように、ホスト3においては、3
次元位置演算処理が実行され、これによって200×2
00個のサンプリング点(画素)の3次元位置(座標
X,Y,Z)が算定される。サンプリング点はカメラ視
線(サンプリング点と前側主点Hとを結ぶ直線)とスリ
ット面(サンプリング点を照射するスリット光Uの光軸
面)との交点である。
As shown in FIG. 13, in the host 3, 3
A two-dimensional position calculation process is executed, and as a result, a 200 × 2
The three-dimensional positions (coordinates X, Y, Z) of the 00 sampling points (pixels) are calculated. The sampling point is the intersection of the camera's line of sight (a straight line connecting the sampling point and the front principal point H) and the slit plane (the optical axis plane of the slit light U illuminating the sampling point).

【0067】図13において、まず3次元カメラ2から
送られてきたxiの総和Σxiが所定値を上回っている
かどうかを判定する(#11)。xiが小さい場合、つ
まりスリット光成分の総和Σxiが所定の基準に満たな
い場合には誤差を多く含んでいるので、その画素につい
ては3次元位置の算出を実行しない。そして、その画素
については「エラー」を示すデータを設定して記憶する
(#17)。Σxiが所定値を上回っている場合には十
分な精度が得られるので、3次元位置の算出を実行す
る。
In FIG. 13, first, it is determined whether or not the sum xi of xi sent from the three-dimensional camera 2 exceeds a predetermined value (# 11). When xi is small, that is, when the sum ス リ ッ ト xi of the slit light components does not satisfy the predetermined criterion, a large error is included, and the calculation of the three-dimensional position is not executed for the pixel. Then, data indicating "error" is set and stored for the pixel (# 17). If Σxi exceeds a predetermined value, a sufficient accuracy is obtained, so that the calculation of the three-dimensional position is executed.

【0068】3次元位置の算出に先立って、スリット光
Uの通過タイミングnopを算出する(#12)。通過
タイミングnopは、i=1〜32について(Σi・x
i)/(Σxi)を計算して重心ip(時間重心Npe
ak)を求め、これにライン番号を加算することによっ
て算出される。
Prior to the calculation of the three-dimensional position, the passage timing nop of the slit light U is calculated (# 12). The passage timing nop is (Σi · x) for i = 1 to 32.
i) / (Σxi) is calculated and the centroid ip (time centroid Npe)
ak), and a line number is added thereto.

【0069】すなわち、算出された重心ipは、その画
素の出力が得られている32フレーム内のタイミングで
あるので、ライン番号を加えることによって走査開始か
らの通過タイミングnopに変換する。具体的には、ラ
イン番号は、最初に算出されるライン32の画素につい
ては「32」、次のライン33については「33」とな
る。注目画素gのラインが1つ進む毎にライン番号は1
つ増大する。しかし、これらの値は他の適当な値とする
ことが可能である。その理由は、3次元位置を算出する
際に、係数である後述の(6)式におけるX軸周りの回
転角(the1)及びX軸周りの角速度(the4)な
どをキャリブレーションにより適切に設定することがで
きるからである。
That is, since the calculated barycenter ip is a timing within 32 frames in which the output of the pixel is obtained, it is converted into a passage timing nop from the start of scanning by adding a line number. Specifically, the line number is “32” for the pixel of the line 32 calculated first and “33” for the next line 33. Each time the line of the target pixel g advances by one, the line number is 1
Increase. However, these values can be other suitable values. The reason for this is that when calculating the three-dimensional position, the rotation angle around the X-axis (the1) and the angular velocity around the X-axis (the4) in equation (6) described later, which are coefficients, are appropriately set by calibration. Because you can do it.

【0070】そして3次元位置算出を行う(#13)。
算出された3次元位置は、その画素に対応するメモリ領
域に記憶し(#14)、次の画素について同様の処理を
行う(#16)。総ての画素についての処理が終わると
終了する(#15でイエス)。
Then, the three-dimensional position is calculated (# 13).
The calculated three-dimensional position is stored in the memory area corresponding to the pixel (# 14), and the same processing is performed for the next pixel (# 16). When the processing for all the pixels is completed, the process ends (Yes in # 15).

【0071】次に、3次元位置の算出方法について説明
する。カメラ視線方程式は次の(1)式及び(2)式で
ある。 (u−u0)=(xp)=(b/pu)×〔X/(Z−FH)〕 …(1) (v−v0)=(yp)=(b/pv)×〔Y/(Z−FH)〕 …(2) b:像距離 FH:前側主点位置 pu:撮像面における水平方向の画素ピッチ pv:撮像面における垂直方向の画素ピッチ u:撮像面における水平方向の画素位置 u0:撮像面における水平方向の中心画素位置 v:撮像面における垂直方向の画素位置 v0:撮像面における垂直方向の中心画素位置 スリット面方程式は(3)式である。
Next, a method of calculating the three-dimensional position will be described. The camera line-of-sight equations are the following equations (1) and (2). (U-u0) = (xp) = (b / pu) × [X / (Z-FH)] (1) (v−v0) = (yp) = (b / pv) × [Y / (Z -FH)] (2) b: Image distance FH: Front principal point position pu: Pixel pitch in the horizontal direction on the imaging surface pv: Pixel pitch in the vertical direction on the imaging surface u: Horizontal pixel position on the imaging surface u0: Center pixel position in the horizontal direction on the imaging surface v: Pixel position in the vertical direction on the imaging surface v0: Center pixel position in the vertical direction on the imaging surface The slit plane equation is given by equation (3).

【0072】[0072]

【数1】 (Equation 1)

【0073】幾何収差は画角に依存する。歪はほぼ中心
画素を中心として対称に生じる。したがって、歪み量は
中心画素からの距離の関数で表される。ここでは、距離
の3次関数で近似する。2次の補正係数をd1、3次の
補正係数をd2とする。補正後の画素位置u’,v’は
(4)式及び(5)式で与えられる。
The geometric aberration depends on the angle of view. Distortion occurs symmetrically about the center pixel. Therefore, the amount of distortion is represented by a function of the distance from the center pixel. Here, the distance is approximated by a cubic function. The second-order correction coefficient is d1, and the third-order correction coefficient is d2. The corrected pixel positions u ′ and v ′ are given by equations (4) and (5).

【0074】 u’=u+d1×t22 ×(u−u0)/t2 +d2×t23 ×(u−u0)/t2 …(4) v’=v+d1×t22 ×(v−v0)/t2 +d2×t23 ×(v−v0)/t2 …(5) t2=(t1)-2 t1=(u−u0)2 +(v−v0)2 上述の(1)式及び(2)式において、uに代えてu’
を代入し、vに代えてv’を代入することにより、歪曲
収差を考慮した3次元位置を求めることができる。な
お、キャリブレーションについては、電子情報通信学会
研究会資料PRU91-113[カメラの位置決めのいらない
画像の幾何学的補正]小野寺・金谷、電子情報通信学会
論文誌D-II vol. J74-D-II No.9 pp.1227-1235,'91/9
[光学系の3次元モデルに基づくレンジファインダの高
精度キャリブレーション法]植芝・吉見・大島、などに
詳しい開示がある。
[0074] u '= u + d1 × t2 2 × (u-u0) / t2 + d2 × t2 3 × (u-u0) / t2 ... (4) v' = v + d1 × t2 2 × (v-v0) / t2 + d2 × t2 3 × (v−v0) / t2 (5) t2 = (t1) −2 t1 = (u−u0) 2 + (v−v0) 2 In the above equations (1) and (2), u 'instead of u
And substituting v ′ for v, a three-dimensional position taking distortion into account can be obtained. For calibration, IEICE Technical Report, PRU91-113 [Geometric correction of images without camera positioning] Onodera and Kanaya, IEICE Transactions D-II vol. J74-D-II No.9 pp.1227-1235, '91 / 9
[High-precision calibration method of range finder based on three-dimensional model of optical system] Ueshiba, Yoshimi, Oshima, etc. have detailed disclosure.

【0075】図15乃至図24を参照して、イメージセ
ンサ53において垂直転送方式を適用した場合には、水
平転送方式を適用した場合に比べて、重心演算の精度が
良くなる理由について説明する。
With reference to FIGS. 15 to 24, the reason why the accuracy of the center of gravity calculation is improved when the vertical transfer method is applied to the image sensor 53 as compared with the case where the horizontal transfer method is applied will be described.

【0076】はじめに、垂直転送方式を適用した場合に
時間重心演算の精度が良くなる理由について説明する。
図15はスリット光Uが撮像面S2を移動する移動方向
と移動量を示す図、図16は水平転送方式を適用した場
合における有効受光領域Aeの注目画素g1の読出しタ
イミングを説明するための図、図17は水平転送方式を
適用した場合における有効受光領域Ae内の注目画素g
1が読み出されるタイミングと、有効受光領域Aeを1
ライン分シフトするタイミングとのずれを示す図、図1
8は垂直転送方式を適用した場合における有効受光領域
Aeの注目画素g1の読出しタイミングを説明するため
の図、図19は垂直転送方式を適用した場合における有
効受光領域Ae内の注目画素g1が読み出されるタイミ
ングと、有効受光領域Aeを1ライン分シフトするタイ
ミングとのずれを示す図である。
First, the reason why the accuracy of the time barycenter calculation is improved when the vertical transfer method is applied will be described.
FIG. 15 is a diagram illustrating a moving direction and a moving amount of the slit light U moving on the imaging surface S2, and FIG. 16 is a diagram illustrating a read timing of a target pixel g1 of the effective light receiving area Ae in a case where the horizontal transfer method is applied. FIG. 17 shows a target pixel g in the effective light receiving area Ae when the horizontal transfer method is applied.
1 is read, and the effective light receiving area Ae is set to 1
FIG. 1 is a diagram showing a deviation from the timing of shifting by a line,
8 is a diagram for explaining the read timing of the target pixel g1 in the effective light receiving area Ae when the vertical transfer method is applied, and FIG. 19 is a diagram in which the target pixel g1 in the effective light receiving area Ae when the vertical transfer method is applied is read. FIG. 6 is a diagram showing a difference between a timing of shifting the effective light receiving area Ae by one line and a timing of shifting the effective light receiving area Ae by one line.

【0077】図16及び図18において、有効受光領域
Ae(n)〜Ae(n+2)は、それぞれn番目から
(n+2)番目のフレームにおける有効受光領域を表
す。図17及び図19において、横軸は時間軸を示し、
縦軸はスリット光Uを偏向するためのガルバノミラー4
3の傾き角度を示す。
In FIGS. 16 and 18, the effective light receiving areas Ae (n) to Ae (n + 2) represent the effective light receiving areas in the nth to (n + 2) th frames, respectively. 17 and 19, the horizontal axis indicates the time axis,
The vertical axis is a galvanometer mirror 4 for deflecting the slit light U.
3 shows a tilt angle of 3.

【0078】図15に示すように、有効受光領域Ae
は、そのすべての画素についての読出しが完了すると、
Y方向に1ライン分シフトする。この間にスリット光U
は1ライン分だけY方向(垂直方向又は読出し方向)に
移動することになる。
As shown in FIG. 15, the effective light receiving area Ae
When reading for all the pixels is completed,
Shift by one line in the Y direction. During this time, slit light U
Moves in the Y direction (vertical direction or reading direction) by one line.

【0079】図16(A)において、水平転送方式で読
出しを行う場合、つまり、1ラインの各画素をX方向に
順次読出し、その1ラインの読出しが終わった時点で、
次のラインの各画素をX方向に順次読出していくという
読出しを順次行う場合には、有効受光領域Ae(n)の
読出しが完了するまでに、読出し開始から(200×3
2)Hの時間がかかる。Hは1画素を読み出すのに必要
な時間である。なお、この(200×32)Hの時間
は、スリット光Uが撮像面S2をY方向に1ライン分だ
け移動する時間に等しい(図17におけるΔt)。
In FIG. 16A, when reading is performed by the horizontal transfer method, that is, each pixel of one line is sequentially read in the X direction, and when reading of one line is completed,
In the case of sequentially performing reading in which pixels of the next line are sequentially read in the X direction, (200 × 3) from the start of reading until reading of the effective light receiving area Ae (n) is completed.
2) It takes H time. H is the time required to read one pixel. The time of (200 × 32) H is equal to the time that the slit light U moves by one line in the Y direction on the imaging surface S2 (Δt in FIG. 17).

【0080】有効受光領域Ae(n)の読出しが完了す
ると、有効受光領域Ae(n)は1ライン分だけY方向
にシフトし、有効受光領域Ae(n+1)となる。有効
受光領域Ae(n+1)についても有効受光領域Ae
(n)の読出しと同様に、水平転送方式で読出しが行わ
れる。この読出しが完了すると、有効受光領域Ae(n
+1)は、Y方向に1ライン分シフトし、有効受光領域
Ae(n+2)となり、同様に有効受光領域Ae(n+
2)の読出しが行われる。このような読出し及びシフト
は、1番目の有効受光領域Ae(1)から32番目の有
効受光領域Ae(32)について行われる。
When the reading of the effective light receiving area Ae (n) is completed, the effective light receiving area Ae (n) shifts by one line in the Y direction to become the effective light receiving area Ae (n + 1). Effective light receiving area Ae (n + 1)
As in the case of the reading of (n), reading is performed by the horizontal transfer method. When this reading is completed, the effective light receiving area Ae (n
+1) is shifted by one line in the Y direction, and becomes an effective light receiving area Ae (n + 2). Similarly, the effective light receiving area Ae (n + 2)
The reading of 2) is performed. Such reading and shifting are performed from the first effective light receiving area Ae (1) to the 32nd effective light receiving area Ae (32).

【0081】図16(A)及び図16(B)において、
注目画素g1が有効受光領域Ae(n)で読み出されて
から有効受光領域Ae(n+1)で読み出されるまでに
は、199H+(200×30)H+1H=(200×
31)Hの時間がかかる。これは、図17においては、
例えばtg1〜tg2の間の時間である。
In FIGS. 16A and 16B,
From the time when the target pixel g1 is read in the effective light receiving area Ae (n) to the time when it is read in the effective light receiving area Ae (n + 1), 199H + (200 × 30) H + 1H = (200 ×
31) It takes H time. This is illustrated in FIG.
For example, a time between tg1 and tg2.

【0082】また、図16(B)及び図16(C)にお
いて、注目画素g1が有効受光領域Ae(n+1)で読
み出されてから次の有効受光領域Ae(n+2)で読み
出されるまでには、 199H+200H+(200×29)H+1H=(2
00×31)H の時間がかかる(図17において例えばtg2〜tg
3)。
In FIG. 16B and FIG. 16C, a period from when the target pixel g1 is read in the effective light receiving area Ae (n + 1) to when it is read in the next effective light receiving area Ae (n + 2). 199H + 200H + (200 × 29) H + 1H = (2
(00 × 31) H takes time (for example, tg2 to tg in FIG. 17).
3).

【0083】以下、同様に計算していくと、注目画素g
1がある有効受光領域で読み出されてからその次の有効
受光領域で読み出されるまでの1周期の時間は、いつも
(200×31)Hとなる。なお、この1周期の時間
は、任意の注目画素についても同じである。
Hereinafter, when the same calculation is performed, the target pixel g
The period of one cycle from when 1 is read in one effective light receiving area to when it is read in the next effective light receiving area is always (200 × 31) H. This one cycle time is the same for any pixel of interest.

【0084】つまり、任意の注目画素での読み出し周期
は(200×31)Hとなり、有効受光領域AeがY方
向に1ライン分シフトする毎に、注目画素の読出しタイ
ミングは、有効受光領域Aeが1ライン分シフトするタ
イミングに対して、 (200×32)H−(200×31)H=200H ずつ読出しタイミングが早くなる。
That is, the read cycle of an arbitrary pixel of interest is (200 × 31) H, and every time the effective light receiving area Ae shifts by one line in the Y direction, the read timing of the pixel of interest becomes The read timing is advanced by (200 × 32) H− (200 × 31) H = 200H with respect to the timing of shifting by one line.

【0085】図17に示すように、有効受光領域Ae内
の注目画素が読み出されるタイミングと、有効受光領域
Aeを1ライン分シフトするタイミングとのずれである
時間差(Δd1,Δd2,Δd3,…)は、有効受光領
域Aeのシフトが進むにしたがって、2倍、3倍、4
倍、…と大きくなり、M番目(Mは整数)の有効受光領
域Ae(M)では、その時間差ΔdMは、 ΔdM={200×(M−1)}H となる。32番目の有効受光領域Ae(32)では(2
00×31)Hの時間差Δd32が生じることになる。
As shown in FIG. 17, a time difference (.DELTA.d1, .DELTA.d2, .DELTA.d3,...) Between the timing at which the target pixel in the effective light receiving region Ae is read and the timing at which the effective light receiving region Ae is shifted by one line. Are 2 times, 3 times, 4 times as the shift of the effective light receiving area Ae progresses.
In the M-th (M is an integer) effective light receiving area Ae (M), the time difference ΔdM is ΔdM = {200 × (M−1)} H. In the 32nd effective light receiving area Ae (32), (2
00 × 31) A time difference Δd32 of H occurs.

【0086】このように、水平転送方式で読出しを行う
場合においては、上述の時間差は有効受光領域Aeが1
ライン分シフトする毎に1ライン分の読出し時間が加算
されたものとなる。
As described above, when reading is performed by the horizontal transfer method, the above-mentioned time difference is such that the effective light receiving area Ae is 1
Each time a line is shifted, the read time for one line is added.

【0087】時間重心Npeakは、32回のサンプリ
ングによって得られた32個の受光データについての重
心である。各画素についての32個の受光データに、1
〜32のサンプリング番号を付す。i番目の受光データ
はxiで表される。iは1〜32の整数である。このと
き、iは、1つの画素について、その画素が有効受光領
域Aeに入ってからのフレーム番号を示している。
The time barycenter Npeak is a barycenter of 32 pieces of light reception data obtained by 32 samplings. One of 32 light reception data for each pixel
A sampling number of ~ 32. The i-th received light data is represented by xi. i is an integer of 1 to 32. At this time, i indicates a frame number of one pixel after the pixel enters the effective light receiving area Ae.

【0088】1〜32番の受光データx1〜x32につ
いての重心ipは、32個の受光データについて、i・
xiの総和Σi・xiをxiの総和Σxiで除すことに
より求められる。すなわち、
The center of gravity ip of the 1st to 32nd received light data x1 to x32 is calculated by calculating the value of i ·
It is obtained by dividing the sum Σi · xi of xi by the sum Σxi of xi. That is,

【0089】[0089]

【数2】 (Equation 2)

【0090】となる。以上の時間重心演算は、図24に
示す重心演算回路73で行われる。図24に示すように
重心演算回路73は、定常光データ記憶部731、減算
部732、第1加算部733、第2加算部734、及び
除算部735からなる。これらはソフトウエアを用いる
ことによって実現されるが、これらの全部又は一部をハ
ードウエア回路により構成することも可能である。
## EQU10 ## The time barycenter calculation described above is performed by the barycenter calculation circuit 73 shown in FIG. As shown in FIG. 24, the center-of-gravity calculation circuit 73 includes a stationary light data storage unit 731, a subtraction unit 732, a first addition unit 733, a second addition unit 734, and a division unit 735. These are realized by using software, but it is also possible to configure all or a part of them by a hardware circuit.

【0091】水平転送方式を適用した場合においては、
(6)式におけるx1〜x32として、時刻tg1〜t
g32(図17)において得られた受光データが用いら
れる。しかし、iは整数のままであるため、演算結果に
大きな誤差が含まれてしまう。演算結果を信頼できるも
のとするためには、上述したタイミングのずれを小さく
するための補正処理が必要である。重心演算回路73の
一部又は全体がハードウェアで構成されている場合には
別途補正回路を設けるなどしなければならないので面倒
である。
When the horizontal transfer method is applied,
As x1 to x32 in the expression (6), time tg1 to tg
The light reception data obtained in g32 (FIG. 17) is used. However, since i remains an integer, a large error is included in the calculation result. In order to make the calculation result reliable, it is necessary to perform a correction process for reducing the above-described timing deviation. If a part or the whole of the center-of-gravity calculation circuit 73 is constituted by hardware, a separate correction circuit must be provided, which is troublesome.

【0092】これに対して、垂直転送方式を適用した場
合においては、次の理由により、時間重心の演算結果に
大きな誤差が含まれない。図18(A)において、垂直
転送方式で読出しを行う場合、つまり、Y方向に沿った
1列の各画素をY方向に順次読出し、その1列の読出し
が終わった時点で、次の列の各画素をY方向に順次読出
していくという読出しを順次行う場合には、有効受光領
域Ae(n)の読出しが完了するまでに、読出し開始か
ら(200×32)Hの時間がかかる。Hは1画素を読
み出すのに必要な時間である。なお、この(200×3
2)Hの時間は、スリット光Uが撮像面S2をY方向に
1ライン分移動する時間に等しい(図19においてΔ
t)。
On the other hand, when the vertical transfer method is applied, a large error is not included in the calculation result of the time center of gravity for the following reason. In FIG. 18A, when reading is performed by the vertical transfer method, that is, each pixel in one column along the Y direction is sequentially read in the Y direction, and when reading of one column is completed, the next column is read. In the case of sequentially performing reading in which each pixel is sequentially read in the Y direction, it takes (200 × 32) H from the start of reading until reading of the effective light receiving area Ae (n) is completed. H is the time required to read one pixel. Note that this (200 × 3
2) The time of H is equal to the time that the slit light U moves by one line in the Y direction on the imaging surface S2 (Δ in FIG. 19).
t).

【0093】図18においても、図16の場合と同様
に、ある有効受光領域Aeの読出しが完了すると、その
有効受光領域は1ライン分だけY方向にシフトし、この
ような読出し及びシフトは、1番目の有効受光領域Ae
(1)から32番目の有効受光領域Ae(32)につい
て行われる。
In FIG. 18, similarly to the case of FIG. 16, when the reading of a certain effective light receiving area Ae is completed, the effective light receiving area is shifted by one line in the Y direction. First effective light receiving area Ae
This is performed for the 32nd effective light receiving area Ae (32) from (1).

【0094】注目画素g1が有効受光領域Ae(n)で
読み出されてから有効受光領域Ae(n+1)で読み出
されるまでには、 (32×199)H+31H={(200×31)+1
99}H の時間がかかる。これは、図19においては、例えばt
s1〜ts2の時間である。
(32 × 199) H + 31H = {(200 × 31) +1 after the pixel of interest g1 is read in the effective light receiving area Ae (n) and before it is read in the effective light receiving area Ae (n + 1).
It takes 99} H. This is, for example, in FIG.
This is the time from s1 to ts2.

【0095】また、注目画素g1が有効受光領域Ae
(n+1)で読み出されてから次の有効受光領域Ae
(n+2)で読み出されるまでには、 1H+(32×199)H+30H={(200×3
1)+199}H の時間がかかる(図19において例えばtg2〜tg
3)。
Also, the pixel of interest g1 is located in the effective light receiving area Ae.
The next effective light receiving area Ae after being read at (n + 1)
By the time (n + 2) is read, 1H + (32 × 199) H + 30H = {(200 × 3
1) It takes a time of + 199 ° H (for example, tg2 to tg in FIG. 19).
3).

【0096】以下、同様に計算していくと、注目画素g
1がある有効受光領域で読み出されてからその次の有効
受光領域で読み出されるまでの1周期の時間は、いつも
{(200×31)+199}Hとなる。この1周期の
時間は、任意の注目画素についても同じである。
Hereinafter, when the same calculation is performed, the target pixel g
The period of one cycle from when 1 is read in one effective light receiving area to when it is read in the next effective light receiving area is always {(200 × 31) +199} H. This one cycle time is the same for any pixel of interest.

【0097】つまり、任意の注目画素での読み出し周期
は{(200×31)+199}Hとなり、有効受光領
域AeがY方向に1ライン分シフトする毎に、 (200×32)H−{(200×31)+199}H
=1H ずつ読出しタイミングが早くなる。
That is, the read cycle at an arbitrary pixel of interest is {(200 × 31) +199} H, and every time the effective light receiving area Ae shifts by one line in the Y direction, (200 × 32) H − {( 200 × 31) + 199 ° H
= 1H, the read timing is advanced.

【0098】有効受光領域Ae内の注目画素が読み出さ
れるタイミングと、有効受光領域Aeを1ライン分シフ
トするタイミングとのずれである時間差ΔD1,ΔD
2,ΔD3,…は、有効受光領域Aeのシフトが進むに
したがって、2倍、3倍、4倍、…と大きくなり、M番
目(Mは整数)の有効受光領域では、その時間差ΔDM
は、 ΔDM={1×(M−1)}H となる。32番目の有効受光領域Ae(32)では、1
×31Hの時間差が生じることになる。しかし、この時
間差は、水平転送方式で読出しを行う場合に比べて、大
幅に小さい。このため、時間重心の分解能を例えば有効
受光領域を読み出すのに必要な時間(32×200H)
の1/8(つまり4×200H)にした場合であって
も、演算結果に大きな誤差が含まれてしまうことなく信
頼できる演算結果が得られる。このように、垂直転送方
式を適用した場合には、水平転送方式を適用した場合に
比べて、時間重心演算の精度が良くなる。
A time difference ΔD1, ΔD between the timing at which the pixel of interest in the effective light receiving area Ae is read and the timing at which the effective light receiving area Ae is shifted by one line.
, .DELTA.D3,... Increase as the shift of the effective light receiving area Ae progresses, that is, 2 times, 3 times, 4 times,..., And in the Mth (M is an integer) effective light receiving area, the time difference ΔDM
Is ΔDM = {1 × (M−1)} H. In the 32nd effective light receiving area Ae (32), 1
A time difference of × 31H will occur. However, this time difference is significantly smaller than when reading is performed by the horizontal transfer method. For this reason, the resolution of the time barycenter is set to, for example, the time required for reading out the effective light receiving area (32 × 200H).
Even in the case of 1/8 (that is, 4 × 200H), a reliable calculation result can be obtained without including a large error in the calculation result. As described above, when the vertical transfer method is applied, the accuracy of the time barycenter calculation is higher than when the horizontal transfer method is applied.

【0099】したがって、垂直転送方式を適用した場合
には、有効受光領域内の注目画素が読み出されるタイミ
ングと、有効受光領域を1ライン分シフトするタイミン
グとのずれを補正する処理を別途必要とせずに、精度の
良い3次元画像を得ることができる。
Therefore, when the vertical transfer method is applied, there is no need to separately perform a process for correcting a difference between the timing at which the target pixel in the effective light receiving area is read and the timing at which the effective light receiving area is shifted by one line. In addition, a highly accurate three-dimensional image can be obtained.

【0100】また、垂直転送方式を適用した場合には、
空間重心演算を行う際にも、水平転送方式を適用した場
合に比べて、重心演算の精度が良くなる。次に、その理
由について説明する。
When the vertical transfer method is applied,
Also when performing the spatial barycenter calculation, the accuracy of the barycenter calculation is improved as compared with the case where the horizontal transfer method is applied. Next, the reason will be described.

【0101】図20は水平転送方式を適用した場合にお
ける有効受光領域Aeの各画素の読出し時間を説明する
ための図、図21は水平転送方式を適用した場合におけ
る所定の列の各画素の読出しを行う際に生じる読出しタ
イミングのずれを示す図、図22は垂直転送方式を適用
した場合における有効受光領域Aeの各画素の読出し時
間を説明するための図、図23は垂直転送方式を適用し
た場合における所定の列の各画素の読出しを行う際に生
じる読出しタイミングのずれを示す図である。
FIG. 20 is a diagram for explaining the read time of each pixel in the effective light receiving area Ae when the horizontal transfer method is applied. FIG. 21 is a diagram for reading each pixel in a predetermined column when the horizontal transfer method is applied. FIG. 22 is a diagram showing a read timing shift caused when performing the vertical transfer method, FIG. 22 is a diagram for explaining a read time of each pixel in the effective light receiving area Ae when the vertical transfer method is applied, and FIG. FIG. 14 is a diagram showing a shift in read timing that occurs when reading out each pixel in a predetermined column in the case.

【0102】図20において、水平転送方式で読出しを
行うと、有効受光領域Aeの読出しが完了するまでに
は、読出し開始から(200×32)Hの時間がかか
る。図21に示すように、図中1番左の列F1の各画素
を水平転送方式で読み出していくと、列F1について、
画素F1g1を読み出すタイミングから次の行の画素F
1g2を読み出すタイミングまでには、1ラインを読み
取る時間、つまり、(1×200)Hの時間がかかる。
また、画素F1g1を読み出すタイミングから最後の行
の画素F1g32を読み出すタイミングまでには、31
ラインを読み取る時間、つまり、(31×200)Hの
時間がかかる。
In FIG. 20, when reading is performed by the horizontal transfer method, it takes (200 × 32) H from the start of reading until reading of the effective light receiving area Ae is completed. As shown in FIG. 21, when each pixel in the leftmost column F1 in the figure is read out by the horizontal transfer method, with respect to the column F1,
From the timing at which the pixel F1g1 is read, the pixels F in the next row
It takes a time to read one line, that is, a time of (1 × 200) H before the timing of reading 1g2.
In addition, from the timing of reading the pixel F1g1 to the timing of reading the pixel F1g32 of the last row, 31
It takes time to read a line, that is, a time of (31 × 200) H.

【0103】つまり、有効受光領域Aeにおける画素F
1g2を読み出した際には、画素F1g1の読出しから
(1×200)Hの時間経過後にスリット光Uから受け
たデータを得ていることになる。また、画素F1g3を
読み出した際には、画素F1g1の読出しから(2×2
00)Hの時間経過後のスリット光Uから受けたデータ
を得ていることになる。以下、同様に、画素F1gM
(Mは整数)については、{(M−1)×200}Hの
時間経過後のスリット光Uから受けたデータを得ている
ことになる。
That is, the pixel F in the effective light receiving area Ae
When 1g2 is read, data received from the slit light U after a lapse of (1 × 200) H from reading of the pixel F1g1 is obtained. When the pixel F1g3 is read, (2 × 2
00) It means that the data received from the slit light U after the lapse of the time H has been obtained. Hereinafter, similarly, the pixel F1gM
As for (M is an integer), it means that the data received from the slit light U after the lapse of time of {(M-1) × 200} H has been obtained.

【0104】また、図中1番右の列F200の各画素を
水平転送方式で読み出していくと、列F200につい
て、画素F200g1を読み出すタイミングから次の行
の画素F200g2を読み出すタイミングまでには、1
ラインを読み取る時間、つまり、(1×200)Hの時
間がかかる。また、画素F200g1を読み出すタイミ
ングから最後の行の画素F200g32を読み出すタイ
ミングまでには、31ラインを読み取る時間、つまり、
(31×200)Hの時間がかかる。
In addition, when each pixel in the rightmost column F200 in the figure is read out by the horizontal transfer method, the time required for reading out the pixel F200g1 of the next row from the timing of reading out the pixel F200g1 for the column F200 is one.
It takes time to read a line, that is, (1 × 200) H. In addition, from the timing of reading the pixel F200g1 to the timing of reading the pixel F200g32 of the last row, the time for reading 31 lines, that is,
It takes (31 × 200) H.

【0105】つまり、有効受光領域Aeについて、列F
1から得られた各画素データに対して重心演算を行う場
合には、画素F200g2については、開始画素F20
0g1の読出しから(1×200)Hの時間経過後のス
リット光Uから受けたデータを得ていることになり、画
素F1g3については、開始画素F1g1の読出しから
(2×200)Hの時間経過後のスリット光Uから受け
たデータを得ていることになる。以下、同様に、画素F
200gM(Mは整数)については、{(M−1)×2
00}Hの時間経過後のスリット光Uから受けたデータ
を得ていることになる。
That is, for the effective light receiving area Ae, the row F
When the barycenter calculation is performed on each piece of pixel data obtained from the pixel F1, the start pixel F20 for the pixel F200g2
This means that the data received from the slit light U after a lapse of (1 × 200) H from the reading of 0g1 is obtained. For the pixel F1g3, the lapse of (2 × 200) H from the reading of the start pixel F1g1 This means that the data received from the subsequent slit light U is obtained. Hereinafter, similarly, the pixel F
For 200 gM (M is an integer), {(M−1) × 2
This means that the data received from the slit light U after the time of 00 ° H has been obtained.

【0106】有効受光領域Aeの全ての画素の読出しに
は(32×200)Hの時間がかかるので、画素F1g
1〜画素F1g32及び画素F200g1〜画素F20
0g32などに対して空間重心演算を行う際には、それ
ぞれ(31×200)H/(32×200)H=31/
32画素分だけ有効受光領域AeのY方向へのシフト幅
が伸びたことになる。
Since it takes (32 × 200) H to read all the pixels in the effective light receiving area Ae, the pixel F1g
1 to F1g32 and F200g1 to F20
When performing the spatial centroid operation on 0g32 or the like, (31 × 200) H / (32 × 200) H = 31 /
This means that the shift width of the effective light receiving area Ae in the Y direction is extended by 32 pixels.

【0107】空間重心Mpeakを演算するに当たって
は、イメージセンサ53からの出力(x)を一定の周期
でサンプリングする。各サンプリングのタイミングに対
応して、所定の受光幅内の画素について、その位置
(i)と出力(x)との積(x・i)の総計Σ(x・
i)、及び出力(x)の総計Σ(x)を算出する。これ
らから、空間重心Mpeak=Σ(x・i)/Σ(x)
を算出する。
In calculating the spatial center of gravity Mpeak, the output (x) from the image sensor 53 is sampled at a constant cycle. In accordance with each sampling timing, for a pixel within a predetermined light receiving width, the sum of the product (x · i) of the position (i) and the output (x) Σ (x ·
i) and the sum of outputs (x)) (x) is calculated. From these, the spatial center of gravity Mpeak = Σ (x · i) / Σ (x)
Is calculated.

【0108】空間重心演算においては、特定のタイミン
グにおける受光量の最大位置を、有効受光領域Ae内の
画素(本実施形態では32ラインにわたる32個の画
素)における重心演算で算出される重心ip(空間重心
Mpeak)に基づいて検出する。空間重心演算は、X
方向に沿って並んだ各列F1〜F200において、Y方
向に沿って並んだ各画素のデータを同一タイミングで得
てそれらのデータに対して行うことが望ましい。
In the calculation of the spatial center of gravity, the maximum position of the amount of received light at a specific timing is determined by the center of gravity ip () calculated by the center of gravity calculation of pixels in the effective light receiving area Ae (32 pixels over 32 lines in this embodiment). Detection is performed based on the spatial center of gravity (Mpeak). The spatial center of gravity calculation is X
In each of the columns F1 to F200 arranged along the direction, it is desirable to obtain data of each pixel arranged along the Y direction at the same timing and perform the operation on the data.

【0109】上述したように、水平走査を繰り返して読
出しを行うと、31/32画素分だけ有効受光領域Ae
のY方向へのシフト幅が伸びたことになる。これは、同
一タイミングで得られたスリット光Uに対してでなく、
31/32画素分だけ時間的に流れたスリット光Uに対
して空間重心演算を行っていることなるので、特定のタ
イミングにおける受光量の最大位置が、精度よく求まら
ない。
As described above, when reading is carried out by repeating horizontal scanning, the effective light receiving area Ae for 31/32 pixels is obtained.
Is increased in the Y direction. This is not for the slit light U obtained at the same timing,
Since the spatial center of gravity calculation is performed on the slit light U that temporally flows by 31/32 pixels, the maximum position of the amount of received light at a specific timing cannot be determined accurately.

【0110】これに対して、図22に示すように、垂直
転送方式で読出しを行うと、水平転送方式で読出しを行
う場合に比べて、有効受光領域AeのY方向へのシフト
幅の伸びを抑えることができる。
On the other hand, as shown in FIG. 22, when the reading is performed by the vertical transfer method, the shift width of the effective light receiving area Ae in the Y direction is increased more than when the reading is performed by the horizontal transfer method. Can be suppressed.

【0111】図22において、有効受光領域Aeの読出
しが完了するまでには、読出し開始から(200×3
2)Hの時間がかかる。図23に示すように、図中1番
左の列F1の各画素を垂直転送方式で読み出していく
と、列F1について、画素F1g1を読み出すタイミン
グから次の行の画素F1g2を読み出すタイミングまで
には、1画素を読み取る時間、つまり、1Hの時間がか
かる。また、画素F1g1を読み出すタイミングから最
後の行の画素F1g32を読み出すタイミングまでに
は、31画素を読み取る時間、つまり、31Hの時間が
かかる。
In FIG. 22, (200 × 3) from the start of reading until the reading of the effective light receiving area Ae is completed.
2) It takes H time. As shown in FIG. 23, when each pixel in the leftmost column F1 in the figure is read out by the vertical transfer method, the timing of reading out the pixel F1g1 from the timing of reading out the pixel F1g2 of the next row for the column F1 is as follows. It takes time to read one pixel, that is, 1H. In addition, from the timing of reading the pixel F1g1 to the timing of reading the pixel F1g32 of the last row, it takes a time to read 31 pixels, that is, a time of 31H.

【0112】画素F1gM(Mは整数)については、
{(M−1)×1}Hの時間経過後のスリット光Uから
受けたデータを得ていることになる。図中1番右の列F
200の各画素を垂直転送方式で読み出していく場合も
同様である。
For the pixel F1gM (M is an integer),
This means that the data received from the slit light U after the time of {(M−1) × 1} H has been obtained. The rightmost column F in the figure
The same applies to the case where each pixel of 200 is read out by the vertical transfer method.

【0113】有効受光領域Aeの全ての画素の読出しに
は(31×1)Hの時間がかかるので、画素F1g1〜
画素F1g32及び画素F200g1〜画素F200g
32などに対して空間重心演算を行う際には、それぞれ
(31×1)H/(32×200)H={31/(32
×200)}画素分だけ有効受光領域AeのY方向への
シフト幅が伸びたことになる。
Since it takes (31 × 1) H to read all the pixels in the effective light receiving area Ae, the pixels F1g1 to F1g1
Pixel F1g32 and pixel F200g1 to pixel F200g
When the spatial center of gravity calculation is performed on 32 or the like, (31 × 1) H / (32 × 200) H = {31 / (32
× 200) The shift width of the effective light receiving area Ae in the Y direction has been extended by the amount of pixels.

【0114】この値は、水平転送方式で読み出していっ
た場合の伸び量である31/32画素に比べて大幅に小
さい。このため、空間重心の分解能を例えば有効受光領
域の各画素の1/8にした場合であっても、演算結果に
大きな誤差が含まれてしまうことなく信頼できる演算結
果が得られる。
This value is much smaller than 31/32 pixels, which is the amount of expansion when reading is performed by the horizontal transfer method. Therefore, even when the resolution of the spatial center of gravity is set to, for example, 1/8 of each pixel in the effective light receiving area, a reliable calculation result can be obtained without including a large error in the calculation result.

【0115】上述の実施形態において、3次元カメラ
2,ホスト3、又は計測システム1の全体又は各部の構
成、処理内容又は順序、処理タイミングなどは、本発明
の主旨に沿って適宜変更することができる。
In the above-described embodiment, the configuration, processing contents or order, processing timing, etc. of the whole or each part of the three-dimensional camera 2, the host 3, or the measurement system 1 can be appropriately changed in accordance with the gist of the present invention. it can.

【0116】[0116]

【発明の効果】本発明によると、有効受光領域内の注目
画素が読み出されるタイミングと、有効受光領域を1ラ
イン分シフトするタイミングとのずれを補正する処理を
別途必要とせずに、精度の良い3次元画像を得ることが
できる。
According to the present invention, it is possible to achieve a high accuracy without separately correcting a shift between the timing at which the target pixel in the effective light receiving area is read and the timing at which the effective light receiving area is shifted by one line. A three-dimensional image can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る計測システムの構成図である。FIG. 1 is a configuration diagram of a measurement system according to the present invention.

【図2】3次元カメラの外観を示す図である。FIG. 2 is a diagram illustrating an appearance of a three-dimensional camera.

【図3】3次元カメラの機能構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a functional configuration of a three-dimensional camera.

【図4】投光レンズ系の構成を示す模式図である。FIG. 4 is a schematic diagram showing a configuration of a light projecting lens system.

【図5】計測システムにおける3次元位置の算出の原理
図である。
FIG. 5 is a principle diagram of calculation of a three-dimensional position in the measurement system.

【図6】イメージセンサの読出し範囲を示す図である。FIG. 6 is a diagram illustrating a read range of the image sensor.

【図7】イメージセンサの構成の模式図である。FIG. 7 is a schematic diagram of a configuration of an image sensor.

【図8】イメージセンサの撮像面におけるラインとフレ
ームとの関係を示す図である。
FIG. 8 is a diagram illustrating a relationship between a line and a frame on an imaging surface of an image sensor.

【図9】メモリにおける各フレームの受光データの記憶
状態を示す図である。
FIG. 9 is a diagram showing a storage state of light reception data of each frame in a memory.

【図10】メモリにおける各フレームの受光データの記
憶状態を示す図である。
FIG. 10 is a diagram showing a storage state of received light data of each frame in a memory.

【図11】メモリにおける各フレームの受光データの記
憶状態を示す図である。
FIG. 11 is a diagram showing a storage state of light reception data of each frame in a memory.

【図12】3次元カメラにおけるデータの流れを示す図
である。
FIG. 12 is a diagram showing a data flow in the three-dimensional camera.

【図13】ホストにおける3次元位置演算の処理手順を
示すフローチャートである。
FIG. 13 is a flowchart illustrating a processing procedure of a three-dimensional position calculation in the host.

【図14】光学系の各点と物体との関係を示す図であ
る。
FIG. 14 is a diagram illustrating a relationship between each point of the optical system and an object.

【図15】スリット光が撮像面を移動する移動方向と移
動量を示す図である。
FIG. 15 is a diagram illustrating a moving direction and a moving amount in which slit light moves on an imaging surface.

【図16】水平転送方式を適用した場合における有効受
光領域の注目画素の読出しタイミングを説明するための
図である。
FIG. 16 is a diagram for explaining a read timing of a target pixel in an effective light receiving area when the horizontal transfer method is applied.

【図17】水平転送方式を適用した場合における有効受
光領域内の注目画素が読み出されるタイミングと、有効
受光領域を1ライン分シフトするタイミングとのずれを
示す図である。
FIG. 17 is a diagram illustrating a difference between a timing at which a target pixel in an effective light receiving area is read and a timing at which the effective light receiving area is shifted by one line when the horizontal transfer method is applied.

【図18】垂直転送方式を適用した場合における有効受
光領域の注目画素の読出しタイミングを説明するための
図である。
FIG. 18 is a diagram for explaining a read timing of a target pixel in an effective light receiving area when the vertical transfer method is applied.

【図19】垂直転送方式を適用した場合における有効受
光領域内の注目画素が読み出されるタイミングと、有効
受光領域を1ライン分シフトするタイミングとのずれを
示す図である。
FIG. 19 is a diagram showing a difference between a timing at which a target pixel in an effective light receiving area is read and a timing at which the effective light receiving area is shifted by one line when the vertical transfer method is applied.

【図20】水平転送方式を適用した場合における有効受
光領域の各画素の読出し時間を説明するための図であ
る。
FIG. 20 is a diagram for explaining a read time of each pixel in an effective light receiving area when the horizontal transfer method is applied.

【図21】水平転送方式を適用した場合における所定の
列の各画素の読出しを行う際に生じる読出しタイミング
のずれを示す図である。
FIG. 21 is a diagram illustrating a shift in readout timing that occurs when reading out each pixel in a predetermined column when the horizontal transfer method is applied.

【図22】垂直転送方式を適用した場合における有効受
光領域の各画素の読出しタイミングを説明するための図
である。
FIG. 22 is a diagram for explaining a read timing of each pixel in an effective light receiving area when a vertical transfer method is applied.

【図23】垂直転送方式を適用した場合における所定の
列の各画素の読出しを行う際に生じる読出しタイミング
のずれを示す図である。
FIG. 23 is a diagram illustrating a shift in read timing that occurs when reading out each pixel in a predetermined column when the vertical transfer method is applied.

【図24】重心演算回路の構成を示す図である。FIG. 24 is a diagram showing a configuration of a center-of-gravity calculation circuit.

【符号の説明】[Explanation of symbols]

2 3次元カメラ(3次元計測装置) 40 光学系(投光手段) 43 ガルバノミラー(走査手段) 53 イメージセンサ(撮像デバイス) 61 システムコントローラ(制御手段) Ae 有効受光領域(有効領域) S2 撮像面 U スリット光(検出光) Q 物体 2 Three-dimensional camera (three-dimensional measuring device) 40 Optical system (light emitting means) 43 Galvano mirror (scanning means) 53 Image sensor (imaging device) 61 System controller (control means) Ae Effective light receiving area (effective area) S2 Imaging surface U Slit light (detection light) Q Object

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐藤 一睦 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 岡田 浩幸 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 掃部 幸一 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA04 AA53 EE00 FF04 FF09 GG06 HH05 JJ03 JJ26 LL06 LL09 LL10 LL13 LL46 LL62 MM16 NN00 QQ01 QQ24 SS13 UU06  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Kazunori Sato 2-3-113 Azuchicho, Chuo-ku, Osaka-shi, Osaka Inside Osaka International Building Minolta Co., Ltd. (72) Inventor Hiroyuki Okada Azuchi, Chuo-ku, Osaka-shi, Osaka 2-13-13, Machimachi, Osaka International Building Minolta Co., Ltd. (72) Koichi Sukebe 2-3-13, Azuchicho, Chuo-ku, Osaka-shi, Osaka Prefecture F-term in Osaka International Building Minolta Co., Ltd. 2F065 AA04 AA53 EE00 FF04 FF09 GG06 HH05 JJ03 JJ26 LL06 LL09 LL10 LL13 LL46 LL62 MM16 NN00 QQ01 QQ24 SS13 UU06

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】物体に検出光を照射する投光手段と、 前記検出光の照射方向を偏向させて前記物体を光学的に
走査するための走査手段と、 2次元の撮像面を有し前記物体で反射した前記検出光を
受光する撮像デバイスと、 前記撮像面のうち有効領域に撮像された画像情報を各画
素毎に前記検出光が前記撮像面を移動する方向に沿って
順次連続的に読み出すように、且つ各前記有効領域にお
ける画像情報の読出し完了毎に前記有効領域を所定画素
分だけ前記検出光が前記撮像面を移動する方向と同一の
方向に順次移動するように、前記撮像デバイスを制御す
る制御手段と、 を有することを特徴とする3次元計測装置。
A light projecting means for irradiating an object with detection light; a scanning means for deflecting an irradiation direction of the detection light to optically scan the object; and a two-dimensional imaging surface. An imaging device that receives the detection light reflected by the object; and image information captured in an effective area of the imaging surface, sequentially and continuously for each pixel along a direction in which the detection light moves on the imaging surface. The imaging device so as to read out and, every time the reading of the image information in each of the effective areas is completed, the detection light sequentially moves in the effective area by a predetermined pixel in the same direction as the direction in which the detection light moves on the imaging surface. A three-dimensional measuring apparatus, comprising: control means for controlling the following.
【請求項2】前記撮像デバイスは、MOS型のイメージ
センサである、請求項1記載の3次元計測装置。
2. The three-dimensional measuring apparatus according to claim 1, wherein said imaging device is a MOS image sensor.
【請求項3】物体に検出光を照射する投光手段と、前記
検出光の照射方向を偏向させて前記物体を光学的に走査
するための走査手段と、2次元の撮像面を有し前記物体
で反射した前記検出光を受光する撮像デバイスとを有
し、前記撮像デバイスから出力される画像情報と当該画
像情報に対応する前記検出光の照射方向とに基づいて前
記物体の3次元画像を求める3次元計測装置における撮
像制御方法において、前記撮像面のうち有効領域に撮像
された画像情報を各画素毎に前記検出光が前記撮像面を
移動する方向に沿って順次連続的に読み出し、且つ各前
記有効領域における画像情報の読出し完了毎に前記有効
領域を所定画素分だけ移動させる、ことを特徴とする3
次元計測装置における撮像制御方法。
3. An illumination device comprising: a light projecting means for irradiating an object with detection light; a scanning means for deflecting an irradiation direction of the detection light to optically scan the object; and a two-dimensional imaging surface. An imaging device that receives the detection light reflected by the object, and a three-dimensional image of the object based on image information output from the imaging device and an irradiation direction of the detection light corresponding to the image information. In the imaging control method in the three-dimensional measurement device to be determined, in the imaging surface, image information imaged in an effective area is sequentially read out sequentially for each pixel along a direction in which the detection light moves on the imaging surface, and Wherein the effective area is moved by a predetermined number of pixels each time the reading of the image information in each effective area is completed.
An imaging control method in a dimension measurement device.
JP10274637A 1998-09-29 1998-09-29 Three-dimensional measuring instrument and method for controlling image pickup Pending JP2000105110A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP10274637A JP2000105110A (en) 1998-09-29 1998-09-29 Three-dimensional measuring instrument and method for controlling image pickup
US09/405,848 US7492398B1 (en) 1998-09-29 1999-09-27 Three-dimensional input apparatus and image sensing control method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP10274637A JP2000105110A (en) 1998-09-29 1998-09-29 Three-dimensional measuring instrument and method for controlling image pickup

Publications (1)

Publication Number Publication Date
JP2000105110A true JP2000105110A (en) 2000-04-11

Family

ID=17544487

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10274637A Pending JP2000105110A (en) 1998-09-29 1998-09-29 Three-dimensional measuring instrument and method for controlling image pickup

Country Status (1)

Country Link
JP (1) JP2000105110A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005113040A (en) * 2003-10-09 2005-04-28 Henkel Corp Adhesive for silicone rubber and bonding method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005113040A (en) * 2003-10-09 2005-04-28 Henkel Corp Adhesive for silicone rubber and bonding method

Similar Documents

Publication Publication Date Title
JP3873401B2 (en) 3D measurement system
JP4111592B2 (en) 3D input device
JP4111166B2 (en) 3D shape input device
JP4032603B2 (en) 3D measuring device
US7046838B1 (en) Three-dimensional data input method and apparatus
US6233049B1 (en) Three-dimensional measurement apparatus
JPH0481178A (en) Dc offset correction method for irccd detector
JP3493403B2 (en) 3D measuring device
JP3893169B2 (en) 3D measuring device
JP3235485B2 (en) Spectroscopic device for three-dimensional measurement
JP2000283721A (en) Three-dimensional input device
JP2007071891A (en) Three-dimensional measuring device
US6297881B1 (en) Three-dimensional measurement method and three-dimensional measurement device
JP4221808B2 (en) Three-dimensional data input method and apparatus
JPH11271030A (en) Three-dimensional measuring apparatus
JPH07174538A (en) Image input camera
JPH07174537A (en) Image input camera
US7492398B1 (en) Three-dimensional input apparatus and image sensing control method
JP3360505B2 (en) Three-dimensional measuring method and device
JP3324367B2 (en) 3D input camera
JP3861475B2 (en) 3D input device
JP2000105110A (en) Three-dimensional measuring instrument and method for controlling image pickup
JP3733625B2 (en) Imaging device for 3D measurement
JP3740848B2 (en) 3D input device
JP2000275024A (en) Three-dimensional input apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050615

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050704