JPH11281335A - Three-dimensional measuring device - Google Patents

Three-dimensional measuring device

Info

Publication number
JPH11281335A
JPH11281335A JP7943198A JP7943198A JPH11281335A JP H11281335 A JPH11281335 A JP H11281335A JP 7943198 A JP7943198 A JP 7943198A JP 7943198 A JP7943198 A JP 7943198A JP H11281335 A JPH11281335 A JP H11281335A
Authority
JP
Japan
Prior art keywords
light
image
data
color
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP7943198A
Other languages
Japanese (ja)
Other versions
JP4212138B2 (en
Inventor
Toshio Norita
寿夫 糊田
Hiroshi Uchino
浩志 内野
Hideki Tanabe
英樹 田辺
Hidekazu Ide
英一 井手
Koichi Kanbe
幸一 掃部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP07943198A priority Critical patent/JP4212138B2/en
Priority to US09/273,543 priority patent/US6252659B1/en
Publication of JPH11281335A publication Critical patent/JPH11281335A/en
Application granted granted Critical
Publication of JP4212138B2 publication Critical patent/JP4212138B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a three-dimensional measuring device for inputting both a distance image (an image for measuring a distance) and a color image (an image for display) by a single sensor. SOLUTION: A three-dimensional measuring device is provided with an IR cut filter 80a, a band-pass filter 80b, and a single color CCD sensor 53a. At the time of photographing a color image, the IR cut filter 80a is selected by a filter switching mechanism 81a, and at the time of photographing a distance image, the band-pass filter 80b is selected. Thus, both the color image and the distance image can be image picked-up by the single color CCD sensor 53a.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は3次元計測装置に
関し、特に測定対象物に対して参照光を投光して、その
反射光を受光することで3次元データを取込むいわゆる
アクティブタイプの3次元計測装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional measuring device, and more particularly, to a so-called active type three-dimensional measuring device which irradiates a measuring object with reference light and receives reflected light to acquire three-dimensional data. The present invention relates to a dimension measurement device.

【0002】[0002]

【従来の技術】従来、測定対象物に対して参照光を投光
して、その反射光を受光することで3次元データを取込
むいわゆるアクティブタイプの3次元計測装置が知られ
ている。このようなアクティブタイプの3次元計測装置
においては、距離画像(距離を測定するための画像であ
って、測定対象物の3次元形状を算出するための画像)
とカラー画像(測定対象物を表示するための画像)の両
方の画像が入力できる装置が知られている(たとえば特
開平9−145319)。
2. Description of the Related Art Conventionally, there has been known a so-called active type three-dimensional measuring apparatus which projects three-dimensional data by projecting a reference beam onto an object to be measured and receiving the reflected beam. In such an active type three-dimensional measuring apparatus, a distance image (an image for measuring a distance and an image for calculating a three-dimensional shape of a measurement object) is provided.
2. Description of the Related Art There is known a device capable of inputting both an image and a color image (image for displaying a measurement object) (for example, Japanese Patent Application Laid-Open No. Hei 9-145319).

【0003】図19はそのようなアクティブタイプの3
次元計測装置の構成を示すブロック図である。
FIG. 19 shows such an active type 3
It is a block diagram showing composition of a dimension measurement device.

【0004】図を参照して、ビームスプリッタ(分光プ
リズム)52は、色分解膜(ダイクロックミラー)52
1、色分解膜521を挟む2つのプリズム522,52
3、プリズム522の射出面に設けられた距離画像用C
CDセンサ53、プリズム523の射出面に設けられた
カラー画像用CCDセンサ54とから構成されている。
Referring to FIG. 1, a beam splitter (spectral prism) 52 includes a color separation film (a dichroic mirror) 52.
1. Two prisms 522, 52 sandwiching color separation film 521
3. Range image C provided on the exit surface of prism 522
It comprises a CD sensor 53 and a color image CCD sensor 54 provided on the exit surface of the prism 523.

【0005】参照光である半導体レーザにより測定対象
物は走査され、測定対象物からの反射光は受光レンズ5
1aに入射される。
An object to be measured is scanned by a semiconductor laser serving as reference light, and reflected light from the object to be measured is received by a light receiving lens 5.
1a.

【0006】受光レンズ51aから入射した光は、プリ
ズム522を通って色分解膜521に入射する。半導体
レーザの発振帯域の光U0は色分解膜521で反射した
後、距離画像用CCDセンサ53に向かって射出する。
The light incident from the light receiving lens 51a passes through the prism 522 and enters the color separation film 521. Light U0 in the oscillation band of the semiconductor laser is reflected by the color separation film 521 and then emitted toward the range image CCD sensor 53.

【0007】一方、色分解膜521を透過した光C0
は、プリズム523を通ってカラー画像用CCDセンサ
54に向かって射出する。
On the other hand, the light C0 transmitted through the color separation film 521
Is emitted toward the color image CCD sensor 54 through the prism 523.

【0008】距離画像用CCDセンサ53は、距離画像
用CCDドライバ204により駆動される。カラー画像
用CCDセンサ54は、カラー画像用CCDドライバ2
03により駆動される。
The distance image CCD sensor 53 is driven by a distance image CCD driver 204. The color image CCD sensor 54 includes the color image CCD driver 2.
03.

【0009】距離画像用CCDセンサ53の出力は、A
/Dコンバータ(出力処理回路)202で処理された
後、距離画像フレームメモリ206に記憶される。カラ
ー画像用CCDセンサ54の出力は、A/Dコンバータ
(出力処理回路)201で処理された後、カラー画像フ
レームメモリ205に記憶される。
The output of the range image CCD sensor 53 is A
After being processed by the / D converter (output processing circuit) 202, it is stored in the distance image frame memory 206. The output of the color image CCD sensor 54 is stored in a color image frame memory 205 after being processed by an A / D converter (output processing circuit) 201.

【0010】[0010]

【発明が解決しようとする課題】上述のように、従来の
アクティブタイプの3次元計測装置においては、2つの
CCDセンサ53,54が用いられていたため、以下の
ような問題点があった。
As described above, in the conventional active-type three-dimensional measuring apparatus, two CCD sensors 53 and 54 are used, so that there are the following problems.

【0011】(1) 距離画像とカラー画像とのずれが
生じないようにするために、2つのCCDセンサの取付
位置の微妙な調整が必要である。
(1) In order to prevent a displacement between the distance image and the color image, it is necessary to finely adjust the mounting positions of the two CCD sensors.

【0012】(2) 参照光として主に近赤外光が使わ
れるため、距離画像用の近赤外光とカラー画像用の可視
光との分光ができるプリズムの作製が必要である。
(2) Since near-infrared light is mainly used as the reference light, it is necessary to manufacture a prism capable of separating near-infrared light for a distance image and visible light for a color image.

【0013】(3) カラー画像の画質が上記プリズム
の分光特性に依存する。この発明は上記の問題点を解決
するためになされたものであり、2つのセンサが3次元
計測装置に用いられることにより生ずる問題点を解決す
ることをその目的としている。
(3) The image quality of the color image depends on the spectral characteristics of the prism. The present invention has been made to solve the above problems, and has as its object to solve the problems caused by using two sensors in a three-dimensional measuring device.

【0014】[0014]

【課題を解決するための手段】上記目的を達成するた
め、本発明のある局面に従うと3次元計測装置は、測定
対象物に向けて参照光を投光する投光手段と、測定対象
物からの反射光を受光する受光手段と、受光された反射
光から、測定対象物の3次元形状を算出する算出手段と
を備え、測定対象物の3次元形状を算出するための画像
と測定対象物を表示するための画像とを同一のセンサで
取込むことを特徴としている。
According to one aspect of the present invention, a three-dimensional measuring apparatus includes: a light projecting means for projecting a reference beam toward a measuring object; An image for calculating the three-dimensional shape of the object to be measured, and an image and a measuring object for calculating the three-dimensional shape of the object to be measured from the received reflected light. And an image for displaying is captured by the same sensor.

【0015】この発明に従うと、同一のセンサにより測
定対象物の3次元形状を算出するための画像と、測定対
象物を表示するための画像とが取込まれるため、従来の
ように2つのセンサの取付位置の調整を行なうことが不
要となる。また、近赤外光と可視光の分光を行なうこと
ができるプリズムの作製が不要となり、カラー画像の画
質を向上させることができる。
According to the present invention, an image for calculating the three-dimensional shape of the object to be measured and an image for displaying the object to be measured are captured by the same sensor. It is not necessary to adjust the mounting position of. In addition, it is not necessary to manufacture a prism capable of separating near-infrared light and visible light, and the image quality of a color image can be improved.

【0016】[0016]

【発明の実施の形態】図1は、本発明の第1の実施の形
態における計測システム1の構成を示す図である。図を
参照して計測システム1は、スリット光投光法によって
立体計測を行なう3次元カメラ(レンジファインダ)2
と、3次元カメラ2の出力データを処理するホスト3と
から構成されている。
FIG. 1 is a diagram showing a configuration of a measuring system 1 according to a first embodiment of the present invention. Referring to the drawings, a measurement system 1 includes a three-dimensional camera (range finder) 2 that performs three-dimensional measurement by a slit light projection method.
And a host 3 for processing output data of the three-dimensional camera 2.

【0017】3次元カメラ2は、物体Q上の複数のサン
プリング点の3次元位置を特定する計測データ(スリッ
ト画像データ)とともに、物体Qのカラー情報を示す2
次元画像およびキャリブレーションに必要なデータを出
力する。三角測量法を用いてサンプリング点の座標を求
める演算処理はホスト3が担う。
The three-dimensional camera 2 displays color information of the object Q together with measurement data (slit image data) for specifying the three-dimensional positions of a plurality of sampling points on the object Q.
Outputs a three-dimensional image and data necessary for calibration. The host 3 is in charge of calculating the coordinates of the sampling points using the triangulation method.

【0018】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、およびマウス3dなどから構成さ
れたコンピュータシステムである。CPU3aには計測
データ処理のためのソフトウェアが組込まれている。ホ
スト3と3次元カメラ2との間では、オンラインおよび
可搬型の記録メディア4によるオフラインの両方の形態
のデータ受渡しが可能である。記録メディア4として
は、光磁気ディスク(MO)、ミニディスク(MD)、
メモリカードなどがある。
The host 3 includes a CPU 3a, a display 3
b, a keyboard 3c, a mouse 3d, and the like. Software for processing measurement data is incorporated in the CPU 3a. Between the host 3 and the three-dimensional camera 2, both online and offline data transfer by the portable recording medium 4 is possible. As the recording medium 4, a magneto-optical disk (MO), a mini disk (MD),
There are memory cards and the like.

【0019】図2は、3次元カメラ2の外観を示す図で
ある。ハウジング20の前面に投光窓20aおよび受光
窓20bが設けられている。投光窓20aは受光窓20
bに対して上側に位置する。内部の光学ユニットOUが
射出するスリット光(所定幅wの帯状のレーザビーム)
Uは、投光窓20aを通って計測対象の物体(被写体ま
たは測定対象物)に向かう。スリット光Uの長さ方向M
1の放射角度φは固定である。物体の表面で反射したス
リット光Uの一部が受光窓20bを通って光学ユニット
OUに入射する。なお、光学ユニットOUは、投光軸と
受光軸との相対関係を適正化するための2軸調整機構を
備えている。
FIG. 2 is a view showing the appearance of the three-dimensional camera 2. A light projecting window 20a and a light receiving window 20b are provided on the front surface of the housing 20. The light emitting window 20a is a light receiving window 20.
b. Slit light emitted from the internal optical unit OU (band-like laser beam with a predetermined width w)
U travels toward the measurement target object (subject or measurement target) through the light projecting window 20a. Length direction M of slit light U
The radiation angle φ of 1 is fixed. A part of the slit light U reflected on the surface of the object enters the optical unit OU through the light receiving window 20b. Note that the optical unit OU includes a two-axis adjustment mechanism for optimizing the relative relationship between the light projecting axis and the light receiving axis.

【0020】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、およびシャッタボタン27が設けられてい
る。図2(b)のようにハウジング20の背面には、液
晶ディスプレイ21、カーソルボタン22、セレクトボ
タン23、キャンセルボタン24、アナログ出力端子3
2、デジタル出力端子33、および記録メディア4の着
脱口30aが設けられている。
On the upper surface of the housing 20, zooming buttons 25a and 25b, a manual focusing button 26
a, 26b and a shutter button 27 are provided. As shown in FIG. 2B, a liquid crystal display 21, a cursor button 22, a select button 23, a cancel button 24, an analog output terminal 3
2, a digital output terminal 33, and a detachable opening 30a for the recording medium 4 are provided.

【0021】液晶ディスプレイ21(LCD)は、走査
画面の表示手段および電子ファインダとして用いられ
る。撮影者は背面の各ボタン22〜24によって撮影モ
ードの設定を行なうことができる。デジタル出力端子3
3からは計測データが出力され、アナログ出力端子32
からは2次元画像信号がたとえばNTSC形式で出力さ
れる。デジタル出力端子33はたとえばSCSI端子で
ある。
The liquid crystal display 21 (LCD) is used as a scanning screen display means and an electronic finder. The photographer can set the photographing mode by using the buttons 22 to 24 on the back. Digital output terminal 3
3 outputs the measurement data, and the analog output terminal 32
Outputs a two-dimensional image signal in, for example, the NTSC format. The digital output terminal 33 is, for example, a SCSI terminal.

【0022】図3は3次元カメラ2の機能構成を示すブ
ロック図である。図中の実線矢印は電気信号の流れを示
し、破線矢印は光の流れを示している。
FIG. 3 is a block diagram showing a functional configuration of the three-dimensional camera 2. In the figure, solid arrows indicate the flow of electric signals, and broken arrows indicate the flow of light.

【0023】3次元カメラは、上述の光学ユニットOU
を構成する投光側および受光側の2つの光学系40,5
0を有している。光学系40において、半導体レーザ
(LD)41が射出する波長670nmのレーザビーム
は、投光レンズ系42を通過することによってスリット
光Uとなり、ガルバノミラー(走査手段)43によって
偏向される。半導体レーザ41のドライバ44、投光レ
ンズ系42の駆動系45、およびガルバノミラー43の
駆動系46は、システムコントローラ61によって制御
される。
The three-dimensional camera uses the optical unit OU described above.
The two optical systems 40 and 5 on the light emitting side and the light receiving side that constitute
It has 0. In the optical system 40, a laser beam having a wavelength of 670 nm emitted from the semiconductor laser (LD) 41 passes through the light projecting lens system 42, becomes slit light U, and is deflected by the galvanomirror (scanning means) 43. The driver 44 of the semiconductor laser 41, the drive system 45 of the light projecting lens system 42, and the drive system 46 of the galvanomirror 43 are controlled by a system controller 61.

【0024】光学系50において、ズームユニット51
によって集光された光はフィルタ80Aに入射される。
フィルタ80Aの詳細については後述する。フィルタ8
0Aを介した入射光はカラー計測用センサ(CCD)5
3aに入射される。ズームユニット51は内焦型であ
り、入射光の一部がオートフォーカシング(AF)に利
用される。AF機能は、AFセンサ57とレンズコント
ローラ58とフォーカシング駆動系59によって実現さ
れる。ズーミング駆動系60は電動ズーミングのために
設けられている。
In the optical system 50, a zoom unit 51
The light condensed by the light enters the filter 80A.
Details of the filter 80A will be described later. Filter 8
The incident light through 0A is a color measurement sensor (CCD) 5
3a. The zoom unit 51 is of an in-focus type, and a part of the incident light is used for auto focusing (AF). The AF function is realized by an AF sensor 57, a lens controller 58, and a focusing drive system 59. The zooming drive system 60 is provided for electric zooming.

【0025】カラー計測用センサ53aによる撮像情報
は、ドライバ55からのクロックに同期してメモリ63
またはカラー処理回路67へ転送される。カラー処理回
路67においてカラー処理を受けた撮像情報は、NTS
C変換回路70およびアナログ出力端子32を経てオン
ライン出力され、またはデジタル画像生成部68で量子
化されてカラー画像メモリ69に格納される。その後、
カラー画像データがカラー画像メモリ69からSCSI
コントローラ66へ転送され、デジタル出力端子33か
らオンライン出力され、または計測データと対応付けて
記録メディア4に格納される。なお、カラー画像は、カ
ラー計測用センサ53aによる距離画像と同一画角の像
であり、ホスト3側におけるアプリケーション処理に際
して参考情報として利用される。カラー情報を利用する
処理としては、たとえばカメラ焦点の異なる複数組の計
測データを組合せて3次元形状モデルを生成する処理、
3次元形状モデルの不要の頂点を間引く処理などがあ
る。システムコントローラ61は、図示しないキャラク
タジェネレータに対して、LCD21の画面上に適切な
文字や記号を表示するための指示を与える。
The image information obtained by the color measuring sensor 53a is synchronized with a clock from the driver 55 and stored in the memory 63.
Alternatively, it is transferred to the color processing circuit 67. The imaging information subjected to the color processing in the color processing circuit 67 is NTS
The image data is output online via the C conversion circuit 70 and the analog output terminal 32, or is quantized by the digital image generation unit 68 and stored in the color image memory 69. afterwards,
The color image data is transferred from the color image memory 69 to the SCSI.
The data is transferred to the controller 66, output online from the digital output terminal 33, or stored in the recording medium 4 in association with the measurement data. Note that the color image is an image having the same angle of view as the distance image obtained by the color measurement sensor 53a, and is used as reference information during application processing on the host 3 side. Examples of the process using color information include a process of generating a three-dimensional shape model by combining a plurality of sets of measurement data having different camera focal points.
There is a process of thinning out unnecessary vertices of the three-dimensional shape model. The system controller 61 gives a character generator (not shown) an instruction to display appropriate characters and symbols on the screen of the LCD 21.

【0026】出力処理回路62は、カラー計測用センサ
53aの出力する各画素gの光電変換信号を増幅する増
幅器、および光電変換信号を8ビットの受光データに変
換するA/D変換部を有している。メモリ63は、20
0×32×33Byteの記憶容量を持つ読み書き可能
なメモリであり、出力処理回路62から出力される受光
データを記憶する。メモリ制御回路63Aは、メモリ6
3への書込および読出のアドレス指定を行なう。
The output processing circuit 62 has an amplifier for amplifying the photoelectric conversion signal of each pixel g output from the color measuring sensor 53a, and an A / D converter for converting the photoelectric conversion signal into 8-bit light receiving data. ing. The memory 63 has 20
This is a readable / writable memory having a storage capacity of 0 × 32 × 33 bytes, and stores light receiving data output from the output processing circuit 62. The memory control circuit 63A includes the memory 6
3 is specified.

【0027】重心演算回路73は、メモリ63に記憶さ
れた受光データに基づいて、計測対象の物体の形状に対
応した濃淡画像を生成して表示用メモリ74に出力し、
また3次元位置を算出するための基となるデータを算出
し出力用メモリ64に出力する。LCD21の画面に
は、表示用メモリ74に記憶された濃淡画像、カラー画
像メモリ69に記憶されたカラー画像などが表示され
る。
The center-of-gravity calculating circuit 73 generates a grayscale image corresponding to the shape of the object to be measured based on the received light data stored in the memory 63, and outputs the grayscale image to the display memory 74.
Further, it calculates data serving as a basis for calculating the three-dimensional position, and outputs the calculated data to the output memory 64. On the screen of the LCD 21, a grayscale image stored in the display memory 74, a color image stored in the color image memory 69, and the like are displayed.

【0028】なおNTSC変換回路70は、ビデオD/
A(アナログ画像生成回路)を含んでいる。フィルタ8
0Aはフィルタ切換機構81Aにより切り換えられる。
Note that the NTSC conversion circuit 70 outputs the video D /
A (analog image generation circuit). Filter 8
0A is switched by the filter switching mechanism 81A.

【0029】図4は、図3のフィルタ80Aとフィルタ
切換機構81Aの周辺部分の詳細を示す図である。
FIG. 4 is a diagram showing details of the periphery of the filter 80A and the filter switching mechanism 81A of FIG.

【0030】図を参照して、フィルタ80AにはIR
(赤外線)カットフィルタ80aとバンドパスフィルタ
80bとが含まれている。フィルタ切換機構81Aは、
ズームユニット51に含まれる受光レンズ51aを介し
て入射された光がIRカットフィルタ80aを介してカ
ラー計測用センサ53aに入射されるか、またはバンド
パスフィルタ80bを介してカラー計測用センサ53a
に入射されるかを切換える。すなわち距離画像を取込む
際には参照光の波長に応じたバンドパスフィルタ80b
が用いられ、表示用のカラー画像取込時にはIRカット
フィルタ80aが使用される。カラー計測用センサ53
aはドライバ55により駆動される。距離画像は前述の
とおり、出力処理回路62において処理された後、メモ
リ63に取込まれる。カラー画像データはカラー処理回
路67へ出力される。
Referring to the figure, filter 80A has an IR
An (infrared) cut filter 80a and a band pass filter 80b are included. The filter switching mechanism 81A
The light incident via the light receiving lens 51a included in the zoom unit 51 is incident on the color measurement sensor 53a via the IR cut filter 80a, or the color measurement sensor 53a via the band pass filter 80b.
Is switched to be incident on the. That is, when capturing the distance image, the bandpass filter 80b corresponding to the wavelength of the reference light is used.
The IR cut filter 80a is used when a color image for display is captured. Color measurement sensor 53
a is driven by the driver 55. As described above, the distance image is processed by the output processing circuit 62 and then loaded into the memory 63. The color image data is output to the color processing circuit 67.

【0031】このように本実施の形態における計測シス
テムにおいては距離画像とカラー画像の両方をタイミン
グをずらすことで同一のカラー計測用センサ53aで取
込んでいる。測定対象物が静止状態または動きが極めて
遅い場合には、このタイミングのずれは計測において特
に問題とはならない。
As described above, in the measurement system according to the present embodiment, both the distance image and the color image are captured by the same color measurement sensor 53a by shifting the timing. When the measurement object is in a stationary state or moves extremely slowly, this timing shift does not cause any particular problem in measurement.

【0032】なお使用する受光レンズ51aと参照光の
波長によっては、可視光の焦点位置と参照光の焦点位置
とにずれが生じる場合がある。この場合、使用されるフ
ィルタ80a,80bの厚みを変えることで焦点位置が
一致するように調整することができる。
Note that, depending on the light receiving lens 51a used and the wavelength of the reference light, a shift may occur between the focus position of the visible light and the focus position of the reference light. In this case, by changing the thickness of the filters 80a and 80b used, adjustment can be made so that the focal positions coincide.

【0033】カラー計測用センサ53a(CCD)に
は、少なくとも1つのチャンネルで参照光の波長帯域で
の受光感度特性が得られているセンサが使用される。カ
ラー計測用センサ53aの一部のチャンネルが参照光の
波長帯域での受光感度特性を有している場合には、受光
感度特性を有している特定チャンネルのみが距離画像取
込に用いられる。たとえばR(赤)チャンネルのみが距
離画像取込に用いられる。カラー計測用センサ53aの
全チャンネルが参照光の波長帯域での受光感度特性を有
している場合(測定に影響がない程度である場合)に
は、全チャンネル(R,G(緑),B(青))が距離画
像取込に使用される。
As the color measuring sensor 53a (CCD), a sensor having a light receiving sensitivity characteristic in the wavelength band of the reference light in at least one channel is used. When some of the channels of the color measurement sensor 53a have light receiving sensitivity characteristics in the wavelength band of the reference light, only the specific channel having light receiving sensitivity characteristics is used for capturing a distance image. For example, only the R (red) channel is used for distance image capture. When all the channels of the color measurement sensor 53a have the light receiving sensitivity characteristics in the wavelength band of the reference light (when the measurement sensitivity is not affected), all the channels (R, G (green), B (Blue)) is used for range image capture.

【0034】なお、フィルタ80Aはカラー計測用セン
サ53aの前段であればどこに入れても構わない。しか
しながら、受光レンズ51aとカラー計測用センサ53
aとの間に設置するのが望ましい。なぜならばこれによ
りフィルタ80a,80bの面積を小さくすることがで
き、フィルタ切換機構81Aに対する負担も小さくて済
むからである。
The filter 80A may be placed anywhere before the color measuring sensor 53a. However, the light receiving lens 51a and the color measuring sensor 53
It is desirable to install between them. This is because the area of the filters 80a and 80b can be reduced, and the load on the filter switching mechanism 81A can be reduced.

【0035】また、本実施の形態においては(R,G,
B)の構成のカラーCCDを用いた例について説明した
が、(G,Cy,Ye,Mg)の構成のカラーCCDを
カラー計測用センサ53aとして用いてもよい。
In this embodiment, (R, G,
Although the example using the color CCD having the configuration B) has been described, the color CCD having the configuration (G, Cy, Ye, Mg) may be used as the color measurement sensor 53a.

【0036】本実施の形態における構成を採用すること
により、距離画像とカラー画像とが同一のセンサにより
読取られるため、従来のように2つのセンサの取付位置
の調整を行なう必要がなくなる。また、近赤外光と可視
光との分光を行なうことができるプリズムの作製が不要
となり、カラー画像の画質を向上させることができる。
By employing the configuration of the present embodiment, the distance image and the color image are read by the same sensor, so that it is not necessary to adjust the mounting positions of the two sensors as in the related art. In addition, it is not necessary to manufacture a prism capable of separating the near-infrared light and the visible light, and the quality of a color image can be improved.

【0037】さらに、センサが1つで済むため、周辺回
路を従来よりも削減することが可能となる。
Further, since only one sensor is required, the number of peripheral circuits can be reduced as compared with the related art.

【0038】図5は本発明の第2の実施の形態における
3次元カメラの構成を示すブロック図である。第2の実
施の形態における3次元カメラが第1の実施の形態と異
なる点について以下に説明する。第2の実施の形態にお
いては、第1の実施の形態におけるフィルタ80A(図
3参照)の代わりにフィルタ80Bが用いられている。
また、フィルタ切換機構81A(図3参照)の代わりに
フィルタ切換機構81Bが用いられている。また、カラ
ー計測用センサ53a(図3参照)の代わりにモノクロ
計測用センサ(モノクロCCD)53bが用いられてい
る。第2の実施の形態ではモノクロ計測用センサ53b
の出力がデジタル画像生成部68に直接入力される。す
なわち第2の実施の形態においてはカラー処理回路67
は設けられていない。
FIG. 5 is a block diagram showing a configuration of a three-dimensional camera according to the second embodiment of the present invention. The differences between the three-dimensional camera in the second embodiment and the first embodiment will be described below. In the second embodiment, a filter 80B is used instead of the filter 80A (see FIG. 3) in the first embodiment.
Further, a filter switching mechanism 81B is used instead of the filter switching mechanism 81A (see FIG. 3). Further, a monochrome measurement sensor (monochrome CCD) 53b is used instead of the color measurement sensor 53a (see FIG. 3). In the second embodiment, a monochrome measurement sensor 53b
Is directly input to the digital image generation unit 68. That is, in the second embodiment, the color processing circuit 67
Is not provided.

【0039】図6は本実施の形態におけるフィルタ80
Bとモノクロ計測用センサ53bの周囲の構成を示す図
である。
FIG. 6 shows a filter 80 according to this embodiment.
FIG. 5B is a diagram illustrating a configuration around B and a monochrome measurement sensor 53b.

【0040】フィルタ80BはBフィルタ80cとGフ
ィルタ80dとRフィルタ80eとバンドパスフィルタ
80fとを含んでいる。Bフィルタ80c、Gフィルタ
80d、およびRフィルタ80eはカラー画像用のフィ
ルタである。フィルタ切換機構81Bはそれぞれのフィ
ルタを切換えることにより、受光レンズ51aを介して
入射された反射光がいずれかのフィルタを介した後モノ
クロ計測用センサ53bに入射されるように制御を行な
う。モノクロ計測用センサ53bはドライバ55により
駆動され、モノクロ計測用センサ53bの出力は出力処
理回路62を介してメモリ63またはデジタル画像生成
部68に入力される。
The filter 80B includes a B filter 80c, a G filter 80d, an R filter 80e, and a band pass filter 80f. The B filter 80c, the G filter 80d, and the R filter 80e are filters for a color image. The filter switching mechanism 81B controls the respective filters so that the reflected light incident through the light receiving lens 51a is incident on the monochrome measuring sensor 53b after passing through any of the filters. The monochrome measurement sensor 53b is driven by the driver 55, and the output of the monochrome measurement sensor 53b is input to the memory 63 or the digital image generation unit 68 via the output processing circuit 62.

【0041】本実施の形態においてはフィルタ切換機構
81Bにおいてフィルタの切換を行ない、距離画像の取
込時には参照光の波長に応じたバンドパスフィルタ80
fを使用する。一方、カラー画像取込時にはR,G,B
フィルタ80c〜80eを順次使用して色画像に対応し
た3回の画像取込を行なう。
In this embodiment, the filters are switched by the filter switching mechanism 81B, and a bandpass filter 80 corresponding to the wavelength of the reference light is used at the time of capturing a range image.
Use f. On the other hand, when a color image is captured, R, G, B
Using the filters 80c to 80e sequentially, three image captures corresponding to the color images are performed.

【0042】本実施の形態においてはモノクロの計測用
センサ53bを使うことができるため、その周辺の駆動
回路や処理回路を第1の実施の形態よりも減少させるこ
とができ、装置のコストを下げることができる。
In this embodiment, since the monochrome measuring sensor 53b can be used, the number of driving circuits and processing circuits around the sensor 53b can be reduced as compared with the first embodiment, and the cost of the apparatus can be reduced. be able to.

【0043】なお、上記の実施の形態においてはR,
G,Bの色分離フィルタを用いることとしたが、C,
M,Yの色分離フィルタを用いるようにしてもよい。ま
たカラー画像を再現するのであればその他の色の構成を
採用してもよい。
In the above embodiment, R,
G and B color separation filters are used,
An M, Y color separation filter may be used. Further, if a color image is reproduced, a configuration of another color may be adopted.

【0044】図7は本発明の第3の実施の形態における
3次元カメラの構成を示すブロック図である。本実施の
形態における3次元カメラが第1の実施の形態と異なる
点について以下に説明する。本実施の形態における3次
元カメラにおいてはカラー画像は表示されない。モノク
ロの輝度画像のみがLCD21に表示されることにな
る。図3におけるフィルタ80Aおよびカラー計測用セ
ンサ53aに代えて本実施の形態においてはフィルタ8
0Cおよびモノクロ計測用センサ53c(またはカラー
計測用センサでもよい)が採用されている。また、図3
におけるフィルタ切換機構81Aと、カラー処理回路6
7と、デジタル画像生成部68とカラー画像メモリ69
と、NTSC変換部70と、アナログ出力端子32とは
本実施の形態においては採用されていない。
FIG. 7 is a block diagram showing a configuration of a three-dimensional camera according to the third embodiment of the present invention. The differences between the three-dimensional camera of the present embodiment and the first embodiment will be described below. No color image is displayed on the three-dimensional camera in the present embodiment. Only the monochrome luminance image is displayed on the LCD 21. Instead of the filter 80A and the color measurement sensor 53a in FIG.
A sensor 53c for 0C and monochrome measurement (or a sensor for color measurement) may be employed. FIG.
Filter switching mechanism 81A and color processing circuit 6
7, a digital image generator 68 and a color image memory 69
The NTSC converter 70 and the analog output terminal 32 are not employed in the present embodiment.

【0045】図8は図7のフィルタ80Cおよびモノク
ロ計測用センサ53cの周辺の構成を説明するための図
である。
FIG. 8 is a diagram for explaining the configuration around the filter 80C and the monochrome measuring sensor 53c of FIG.

【0046】フィルタ80Cはバンドパスフィルタ80
gのみを含む。受光レンズ51aを介して入力された測
定対象物からの反射光は、バンドパスフィルタ80gを
介してモノクロ計測用センサ53cに入力される。モノ
クロ計測用センサ53cはドライバ55により駆動され
る。モノクロ計測用センサ53cの出力は出力処理回路
62を介してメモリ63に入力される。
The filter 80C is a bandpass filter 80.
Contains only g. The reflected light from the measurement object input via the light receiving lens 51a is input to the monochrome measurement sensor 53c via the band pass filter 80g. The monochrome measurement sensor 53c is driven by the driver 55. The output of the monochrome measurement sensor 53c is input to the memory 63 via the output processing circuit 62.

【0047】本実施の形態においては、モノクロ計測用
センサ53cにより撮像された画像データが距離画像お
よび表示用画像として用いられる。すなわち本実施の形
態においても1つのセンサにより距離画像と表示用画像
との入力を行なっている。
In the present embodiment, image data picked up by the monochrome measuring sensor 53c is used as a distance image and a display image. That is, also in the present embodiment, the distance image and the display image are input by one sensor.

【0048】表示用に用いられるモノクロの輝度画像と
して重心演算に使用されているデータであるΣxiが使
用される。まずΣxiの取得の方法と表示用のモノクロ
の輝度画像として使用できる理由について説明する。
As a monochrome luminance image used for display, $ xi, which is data used for calculating the center of gravity, is used. First, the method of obtaining Σxi and the reason why it can be used as a monochrome luminance image for display will be described.

【0049】図9は投光レンズ系42の構成を示す模式
図である。図9(a)は正面図であり、図9(b)は側
面図である。
FIG. 9 is a schematic diagram showing the structure of the light projecting lens system 42. FIG. 9A is a front view, and FIG. 9B is a side view.

【0050】投光レンズ系42は、コリメータレンズ4
21、バリエータレンズ422、およびエキスパンダレ
ンズ423の3つのレンズから構成されている。半導体
レーザ41が射出したレーザビームに対して、次の順序
で適切なスリット光Uを得るための光学的処理が行なわ
れる。まず、コリメータレンズ421によってビームが
平行化される。次にバリエータレンズ422によってレ
ーザビームのビーム径が調整される。最後にエキスパン
ダレンズ423によってビームがスリット長さ方向M1
に広げられる。
The light projecting lens system 42 includes the collimator lens 4
21, a variator lens 422, and an expander lens 423. The laser beam emitted by the semiconductor laser 41 is subjected to an optical process for obtaining an appropriate slit light U in the following order. First, the beam is collimated by the collimator lens 421. Next, the beam diameter of the laser beam is adjusted by the variator lens 422. Finally, the beam is expanded by the expander lens 423 in the slit length direction M1.
Spread out.

【0051】バリエータレンズ422は、撮影距離およ
び撮影の画角にかかわらず、計測用センサ53cに3以
上の複数画素分の幅のスリット光Uを入射させるために
設けられている。駆動系45は、システムコントローラ
61の指示に従って、計測用センサ53c上でのスリッ
ト光Uの幅wを一定に保つようにバリエータレンズ42
2を移動させる。バリエータレンズ422と受光側のズ
ームユニット51とは連動する。
The variator lens 422 is provided to allow the slit light U having a width of three or more pixels to enter the measuring sensor 53c regardless of the photographing distance and the angle of view of photographing. The drive system 45 operates according to an instruction from the system controller 61 so that the width w of the slit light U on the measurement sensor 53c is kept constant.
Move 2 The variator lens 422 and the zoom unit 51 on the light receiving side are linked.

【0052】ガルバノミラー43による偏光の以前にス
リット長を広げることにより、偏光の後で行なう場合に
比べてスリット光Uの歪みを低減することができる。エ
キスパンダレンズ423を投光レンズ系42の最終段に
配置することにより、すなわちガルバノミラー43に近
づけることにより、ガルバノミラー43を小型化するこ
とができる。
By increasing the slit length before the polarization by the galvanomirror 43, the distortion of the slit light U can be reduced as compared with the case where the polarization is performed after the polarization. By arranging the expander lens 423 at the last stage of the light projecting lens system 42, that is, by bringing it closer to the galvanometer mirror 43, the size of the galvanometer mirror 43 can be reduced.

【0053】図10は計測システム1における3次元位
置の算出の原理図である。同図では理解を容易にするた
め、受光量のサンプリングについて5回分のみが示され
ている。
FIG. 10 is a principle diagram of calculation of a three-dimensional position in the measurement system 1. In the figure, only five samplings of the amount of received light are shown for easy understanding.

【0054】計測用センサ53cの撮像面S2上で複数
画素分となる比較的に幅の広いスリット光Uを物体Qに
照射する。具体的にはスリット光Uの幅を5画素分とす
る。スリット光Uは、サンプリング周期ごとに撮像面S
2上で1画素ピッチpvだけ移動するように、図10の
上から下に向かって偏光され、それによって物体Qが走
査される。サンプリング周期ごとにモノクロ計測用セン
サ53cから1フレーム分の受光データ(光電変換情
報)が出力される。なお、この偏光は実際には等角速度
で行なわれる。
The object Q is irradiated with a relatively wide slit light U of a plurality of pixels on the imaging surface S2 of the measurement sensor 53c. Specifically, the width of the slit light U is set to 5 pixels. The slit light U is applied to the imaging surface S every sampling cycle.
Polarized from top to bottom in FIG. 10 so as to move by one pixel pitch pv on 2, thereby scanning the object Q. One frame of light reception data (photoelectric conversion information) is output from the monochrome measurement sensor 53c for each sampling cycle. This polarization is actually performed at a constant angular velocity.

【0055】撮像面S2の1つの画素gに注目すると、
本実施の形態においては、走査中に行なう32回のサン
プリングによって32回分の受光データが得られる。こ
れら32回分の受光データに対する重心演算によって、
注目画素gがにらむ範囲の物体表面agをスリット光U
の光軸が通過するタイミング(時間重心Npeakまた
は重心ip)を求める。
Focusing on one pixel g on the imaging surface S2,
In the present embodiment, 32 light reception data are obtained by 32 samplings performed during scanning. By calculating the center of gravity of these 32 received light data,
The object surface ag in the range where the pixel of interest g glare is slit light U
(Time centroid Npeak or centroid ip) is determined.

【0056】物体Qの表面が平面であって光学系の特性
によるノイズがない場合には、注目画素gの受光量は、
図10(b)に示すように、スリット光Uが通過するタ
イミングにおいて多くなり、通常、正規分布に近くな
る。同図のようにn回目とその1つ前の(n−1)回目
の間のタイミングで受光量が最大であった場合には、そ
のタイミングが時間重心Npeakとほぼ一致する。
If the surface of the object Q is flat and there is no noise due to the characteristics of the optical system, the amount of light received by the target pixel g is
As shown in FIG. 10B, the number increases at the timing when the slit light U passes, and usually approaches a normal distribution. When the amount of received light is maximum between the n-th time and the immediately preceding (n-1) -th time as shown in the figure, the timing substantially coincides with the time barycenter Npeak.

【0057】求めた時間重心Npeakにおけるスリッ
ト光の照射方向と、注目画素に対するスリット光の入射
方向との関係に基づいて、物体Qの位置(座標)を算出
する。これにより、撮像面の画素ピッチpvで規定され
る分解能より高い分解能の計測が可能となる。
The position (coordinates) of the object Q is calculated based on the relationship between the irradiation direction of the slit light at the calculated time barycenter Npeak and the incident direction of the slit light on the target pixel. This enables measurement with a higher resolution than the resolution defined by the pixel pitch pv of the imaging surface.

【0058】なお、注目画素gの受光量は物体Qの反射
率に依存する。しかし、サンプリングの各受光量の相対
比は受光の絶対量にかかわらず一定である。つまり、物
体色の濃淡は計測精度に影響しない。
The amount of light received by the target pixel g depends on the reflectance of the object Q. However, the relative ratio of each received light amount of sampling is constant regardless of the absolute amount of received light. That is, the shading of the object color does not affect the measurement accuracy.

【0059】図11はモノクロ計測用センサ53cの読
出範囲を示す図である。図11に示すように、モノクロ
計測用センサ53cにおける1フレームの読出は、撮像
面S2の全体ではなく、高速化を図るために撮像面S2
の一部である有効受光領域(帯状画像)Aeのみを対象
に行なわれる。有効受光領域Aeは、スリット光Uのあ
る照射タイミングにおける物体Qの計測可能距離範囲
d′に対応する撮像面S2上の領域であり、スリット光
Uの偏光に伴ってフレームごとに1画素分ずつシフトす
る。本実施の形態では、有効受光領域Aeのシフト方向
の画素数は32に固定されている。CCDエリアセンサ
の撮影像の一部のみを読出す手法は、特開平7−174
536号公報に開示されている。
FIG. 11 is a diagram showing a reading range of the monochrome measuring sensor 53c. As shown in FIG. 11, the reading of one frame by the monochrome measurement sensor 53c is not performed on the entire imaging surface S2 but on the imaging surface S2 in order to increase the speed.
Is performed only for the effective light receiving area (band-shaped image) Ae which is a part of. The effective light receiving area Ae is an area on the imaging surface S2 corresponding to the measurable distance range d 'of the object Q at a certain irradiation timing of the slit light U, and one pixel for each frame according to the polarization of the slit light U. shift. In the present embodiment, the number of pixels in the shift direction of the effective light receiving area Ae is fixed to 32. A method of reading out only a part of a captured image of a CCD area sensor is disclosed in
No. 536.

【0060】図12はモノクロ計測用センサ53cの撮
像面S2におけるラインとフレームとの関係を示す図で
あり、図13〜15はメモリ63における各フレームの
受光データの記憶状態を示す図である。
FIG. 12 is a diagram showing the relationship between lines and frames on the imaging surface S2 of the monochrome measuring sensor 53c. FIGS. 13 to 15 are diagrams showing the storage state of the light receiving data of each frame in the memory 63.

【0061】図12に示すように、撮像面S2の最初の
フレームであるフレーム1には、ライン1からライン3
2までの32(ライン)×200画素分の受光データが
含まれる。フレーム2はライン2からライン33まで、
フレーム3はライン3からライン34までというよう
に、フレームごとに1ライン分だけシフトされる。フレ
ーム32はライン32からライン63までである。な
お、上述したように1ラインを200画素としている。
As shown in FIG. 12, frame 1 which is the first frame of the image pickup surface S2 includes lines 1 to 3
Light reception data for 32 (lines) × 200 pixels up to 2 is included. Frame 2 is from line 2 to line 33
Frame 3 is shifted by one line per frame, such as from line 3 to line 34. Frame 32 is from line 32 to line 63. As described above, one line has 200 pixels.

【0062】これらフレーム1からフレーム32までの
受光データが、出力処理回路62を介してメモリ63に
順次転送され、図13に示す状態でメモリ63に記憶さ
れる。
The received light data from frame 1 to frame 32 are sequentially transferred to memory 63 via output processing circuit 62 and stored in memory 63 in the state shown in FIG.

【0063】つまり、メモリ63には、フレーム1、
2、3…の順に受光データが記憶される。各フレームに
含まれるライン32のデータは、フレーム1については
32ライン目、フレーム2については31ライン目とい
うように、フレームごとに1ラインずつ上方にシフトさ
れている。フレーム1からフレーム32までの受光デー
タがメモリ63に記憶されると、ライン32の各画素に
ついて、時間重心Npeakの算出が行なわれる。
That is, the memory 63 stores the frame 1,
The light receiving data is stored in the order of 2, 3,. The data of the line 32 included in each frame is shifted upward by one line for each frame, such as the 32nd line for the frame 1 and the 31st line for the frame 2. When the light reception data from frame 1 to frame 32 is stored in the memory 63, the time barycenter Npeak is calculated for each pixel on the line 32.

【0064】ライン32についての演算が行なわれてい
る間に、フレーム33の受光データがメモリ63に転送
されて記憶される。図14に示すように、フレーム33
の受光データは、メモリ63のフレーム32の次の領域
に記憶される。フレーム33のデータがメモリ63に記
憶されると、これらフレーム2からフレーム33までに
含まれるライン33の各画素について、時間重心Npe
akの算出が行なわれる。
While the calculation for the line 32 is being performed, the received light data of the frame 33 is transferred to the memory 63 and stored. As shown in FIG.
Is stored in the area next to the frame 32 of the memory 63. When the data of the frame 33 is stored in the memory 63, the time barycenter Npe is calculated for each pixel of the line 33 included in the frames 2 to 33.
ak is calculated.

【0065】ライン33についての演算が行なわれてい
る間に、フレーム34の受光データがメモリ63に転送
されて記憶される。図15に示すように、フレーム34
の受光データは、フレーム1の記憶されていた領域に上
書きされる。この時点ではフレーム1のデータは処理済
であるため、上書きにより消去しても差支えないからで
ある。フレーム34のデータがメモリ63に記憶される
と、ライン34の各画素について、時間重心Npeak
の算出が行なわれる。フレーム34の受光データについ
ての処理が終わると、フレーム35の受光データがフレ
ーム2の記憶されていた領域に上書きされる。
While the calculation for the line 33 is being performed, the received light data of the frame 34 is transferred to the memory 63 and stored. As shown in FIG.
Is overwritten in the area stored in the frame 1. At this point, since the data of frame 1 has been processed, it can be erased by overwriting. When the data of the frame 34 is stored in the memory 63, for each pixel of the line 34, the time centroid Npeak
Is calculated. When the processing of the light reception data of the frame 34 is completed, the light reception data of the frame 35 is overwritten on the area stored in the frame 2.

【0066】このようにして、最終のラインであるライ
ン231まで、合計200ライン分についての時間重心
Npeakの算出が行なわれる。
In this way, the time barycenter Npeak is calculated for a total of 200 lines up to the last line 231.

【0067】上述のように、メモリ63に記憶された受
光データのうち、順次不要になったデータの記憶された
領域に新規の受光データを上書きして記憶するので、メ
モリ63の容量が低減される。
As described above, of the light reception data stored in the memory 63, new light reception data is sequentially overwritten and stored in the area where unnecessary data is stored, so that the capacity of the memory 63 is reduced. You.

【0068】次に、重心演算回路73の構成および重心
演算回路73による時間重心Npeakの算出処理につ
いて説明する。
Next, the configuration of the center-of-gravity calculating circuit 73 and the calculation processing of the time center-of-gravity Npeak by the center-of-gravity calculating circuit 73 will be described.

【0069】図16は重心演算回路73の構成を示すブ
ロック図であり、図17はデータの転送のタイミングの
概念を示す図であり、図18は時間重心Npeakの概
念を示す図である。
FIG. 16 is a block diagram showing the structure of the center-of-gravity calculating circuit 73, FIG. 17 is a diagram showing the concept of data transfer timing, and FIG. 18 is a diagram showing the concept of the time center of gravity Npeak.

【0070】図18に示されるように、時間重心Npe
akは、32回のサンプリングによって得られた32個
の受光データについての重心である。各画素についての
32個の受光データに、1〜32のサンプリング番号を
付す。i番目の受光データはxiで表わされる。iは1
〜32の整数である。このとき、iは、1つの画素につ
いて、その画素が有効受光領域Aeに入ってからのフレ
ーム数を示している。
As shown in FIG. 18, the time center of gravity Npe
ak is the center of gravity of 32 pieces of received light data obtained by 32 samplings. Sampling numbers 1 to 32 are assigned to 32 pieces of received light data for each pixel. The i-th received light data is represented by xi. i is 1
Is an integer of up to 32. At this time, i indicates the number of frames for one pixel after the pixel enters the effective light receiving area Ae.

【0071】1〜32番の受光データx1〜x32につ
いての重心ipは、32個の受光データについて、i・
xiの総和Σi・xiをxiの総和Σxiで除すことに
より求められる。すなわち、
The center of gravity ip for the 1st to 32nd received light data x1 to x32 is calculated by calculating the value of i ·
It is obtained by dividing the sum Σi · xi of xi by the sum Σxi of xi. That is,

【0072】[0072]

【数1】 (Equation 1)

【0073】となる。Is obtained.

【0074】重心演算回路73は、メモリ63から読出
したデータに基づいて、各画素についての重心ip(す
なわち時間重心Npeak)を算出する。ただし、メモ
リ63から読出したデータをそのまま用いるのではな
く、各データから定常光データksを減算した値(その
値が負になるときは0)を用いる。つまり、計測用セン
サ53cから出力される受光データに対して、定常光デ
ータksの分だけ差し引いてオフセットを与えるのであ
る。
The center-of-gravity calculating circuit 73 calculates the center of gravity ip (that is, the time center of gravity Npeak) for each pixel based on the data read from the memory 63. However, instead of using the data read from the memory 63 as it is, a value obtained by subtracting the steady light data ks from each data (0 when the value is negative) is used. That is, the offset is given to the received light data output from the measurement sensor 53c by subtracting the amount of the stationary light data ks.

【0075】定常光データksは、スリット光Uが入射
していないときの画素の受光データに基づいて算出され
るデータである。定常光データksは、予め定めた固定
値を用いてもよく、またはモノクロ計測用センサ53c
から出力されるデータを用いてリアルタイムで求めても
よい。固定値とする場合にはモノクロ計測用センサ53
cの出力が8ビット(256階調)である場合に、たと
えば「5」「6」または「10」などとする。リアルタ
イムで求める場合には、1つの注目画素についての32
個の受光データの前後各2画素分の受光データのそれぞ
れの平均値を求め、平均値の小さい方を定常光データk
sとすればよい。その理由は、有効受光領域Aeの前後
のいずれかにおいてはスリット光Uが入射していないか
ら、これによってスリット光Uが入射していないときの
受光データをリアルタイムで確実に求めることができる
からである。また、前後各2画素分の受光データの平均
値の大きい方を定常光データksとしてもよい。32個
の受光データの前の2画素分の受光データの平均値、ま
たは32個の受光データの後の2画素分の受光データの
平均値を用いてもよい。1画素分の受光データを用いて
もよい。さらに、物体Qの形状または受光データに含ま
れるノイズの状態によっては、それらの値にさらに所定
値(たとえば「5」)を加算した値を定常光データks
として用い、これによりオフセットを大きくし、不要な
ノイズ成分を一層確実にカットするようにしてもよい。
なお、それらの場合に、1フレームの大きさは、36ラ
インまたは34ラインまたは33ラインとなるが、重心
ipの算出には32ライン分の32個のデータを用いれ
ばよい。
The stationary light data ks is data calculated based on the light receiving data of the pixel when the slit light U is not incident. The stationary light data ks may use a predetermined fixed value, or the monochrome measurement sensor 53c
May be obtained in real time using the data output from. In the case of a fixed value, the monochrome measurement sensor 53 is used.
When the output of c is 8 bits (256 gradations), for example, “5”, “6” or “10” is set. In the case of real-time calculation, 32
The average value of the received light data for each of the two pixels before and after the received light data is obtained, and the smaller of the average values is determined as the constant light data k.
s. The reason is that the slit light U does not enter before or after the effective light receiving area Ae, so that the light receiving data when the slit light U does not enter can be reliably obtained in real time. is there. Alternatively, the larger one of the average values of the received light data for each of the two pixels before and after may be used as the stationary light data ks. The average value of the light reception data of the two pixels before the 32 light reception data or the average value of the light reception data of the two pixels after the 32 light reception data may be used. Light reception data for one pixel may be used. Further, depending on the shape of the object Q or the state of noise included in the received light data, a value obtained by adding a predetermined value (for example, “5”) to these values is used as the constant light data ks
, The offset may be increased, and unnecessary noise components may be more reliably cut.
In these cases, the size of one frame is 36 lines, 34 lines, or 33 lines, and the data of the center of gravity ip may be calculated using 32 data of 32 lines.

【0076】さて、図16において、重心演算回路73
は、定常光データ記憶部731、減算部732、第1加
算部733、第2加算部734、および除算部735か
らなる。これらはソフトウェアを用いることによって実
現されるが、これらの全部まては一部をハードウェア回
路により構成することも可能である。
Now, referring to FIG.
Comprises a stationary light data storage unit 731, a subtraction unit 732, a first addition unit 733, a second addition unit 734, and a division unit 735. These are realized by using software, but it is also possible to configure all or some of them by a hardware circuit.

【0077】定常光データ記憶部731は、定常光デー
タksを記憶する。減算部732は、入力された受光デ
ータから定常項データksを減算する。ここで、減算部
732から出力されるデータを改めて受光データxiと
する。第1加算部733は、i・xiをi=1〜32に
ついて加算し、その合計値を出力する。第2加算部73
4は、xiをi=1〜32について加算し、その合計値
を出力する。除算部735は、第1加算部733の出力
値を第2加算部734の出力値で除し、重心ipを出力
する。除算部735から出力された重心ipは、表示用
メモリ74に記憶される。また、第1加算部733の出
力値および第2加算部734の出力値は、それぞれ出力
用メモリ64a,64bに記憶される。出力用メモリ6
4a,64bに記憶されたデータは、SCSIコントロ
ーラ66を介してデジタル出力端子33からホスト3に
出力され、または記録メディア4に格納される。ホスト
3において、これらのデータに基づいて3次元位置演算
処理が行なわれ、またこれらのデータの信頼性が判定さ
れる。
The stationary light data storage section 731 stores the stationary light data ks. The subtraction unit 732 subtracts the steady term data ks from the input light receiving data. Here, the data output from the subtraction unit 732 is referred to as light reception data xi again. The first adding unit 733 adds i · xi for i = 1 to 32 and outputs the total value. Second adder 73
4 adds xi for i = 1 to 32 and outputs the total value. The divider 735 divides the output value of the first adder 733 by the output value of the second adder 734, and outputs the center of gravity ip. The barycenter ip output from the divider 735 is stored in the display memory 74. The output value of the first adder 733 and the output value of the second adder 734 are stored in the output memories 64a and 64b, respectively. Output memory 6
The data stored in 4a and 64b is output from the digital output terminal 33 to the host 3 via the SCSI controller 66, or stored in the recording medium 4. In the host 3, a three-dimensional position calculation process is performed based on these data, and the reliability of these data is determined.

【0078】図17を参照して、メモリ制御回路63A
は、1つの画素について、重心演算回路73による上述
の処理が行なわれるように、メモリ63のアドレスを画
素ごとに順次指定する。たとえば、最初のライン32に
ついては、図17に示すフレーム1に含まれるライン3
2の1画素目のデータ、フレーム2に含まれるライン3
2の1画素目のデータというように、ライン32の1画
素目のデータについてフレーム1から32までの合計3
2個のデータを順にアドレス指定する。アドレス指定さ
れることによって、メモリ63からデータが読出されて
重心演算回路73に送り込まれる。ライン32について
の演算が行なわれている間に、次のフレーム33の受光
データがメモリ63に転送される。以降においても、メ
モリ63からの読出と書込とが並行して行なわれ、これ
によって回路が効率よく動作する。
Referring to FIG. 17, memory control circuit 63A
Specifies the address of the memory 63 sequentially for each pixel so that the above-described processing by the centroid operation circuit 73 is performed for one pixel. For example, for the first line 32, line 3 included in frame 1 shown in FIG.
Data of the first pixel of line 2, line 3 included in frame 2
For the first pixel data of the line 32, a total of 3
Two data are sequentially addressed. By addressing, data is read from the memory 63 and sent to the center-of-gravity calculating circuit 73. While the calculation for the line 32 is being performed, the received light data of the next frame 33 is transferred to the memory 63. Thereafter, reading from and writing to memory 63 are performed in parallel, whereby the circuit operates efficiently.

【0079】重心演算回路73では、32個のデータが
入力された時点で、除算部735が重心ipを出力す
る。続いて、2画素目のデータ、3画素目のデータとい
うように、200画素目のデータまで順に処理を行な
い、ライン32についての重心ipの算出を終了する。
ライン32についての重心ipの算出を終えると、続い
て、ライン33、ライン34、ライン35というよう
に、ライン231まで、200ラインの全部について重
心ipの算出を行なう。
In the center-of-gravity calculating circuit 73, the division unit 735 outputs the center of gravity ip when 32 data are input. Subsequently, processing is sequentially performed up to the data of the 200th pixel, such as the data of the second pixel and the data of the third pixel, and the calculation of the barycenter ip for the line 32 is completed.
After the calculation of the center of gravity ip for the line 32 is completed, the calculation of the center of gravity ip is performed for all 200 lines up to the line 231 such as the line 33, the line 34, and the line 35.

【0080】なお、CCDエリアセンサであるモノクロ
計測用センサ53cは、積分領域および蓄積領域を有
し、積分領域での積分動作が完了すると電荷を蓄積領域
へ一括転送し、蓄積領域から外部に順次出力する。
The monochrome measuring sensor 53c, which is a CCD area sensor, has an integration area and an accumulation area, and when the integration operation in the integration area is completed, charges are transferred to the accumulation area at once, and sequentially from the accumulation area to the outside. Output.

【0081】表示用メモリ74に記憶された重心ip
は、LCD21の画面に表示される。重心ipは、計測
対象の物体Qの表面の位置に関連し、物体Qの表面の位
置が3次元カメラ2に近い場合に重心ipの値が大きく
なり、遠い場合に重心ipの値が小さくなる。したがっ
て、重心ipを濃度データとして濃淡画像を表示させる
ことにより距離分布を表現することができる。
The center of gravity ip stored in the display memory 74
Is displayed on the screen of the LCD 21. The center of gravity ip is related to the position of the surface of the object Q to be measured. When the position of the surface of the object Q is close to the three-dimensional camera 2, the value of the center of gravity ip increases, and when the position of the surface of the object Q is far, the value of the center of gravity ip decreases. . Therefore, the distance distribution can be expressed by displaying a grayscale image using the center of gravity ip as the density data.

【0082】なお、図9〜18に示される構成は、第1
および第2の実施の形態においても採用されている。
Note that the configuration shown in FIGS.
This is also adopted in the second embodiment.

【0083】また、本実施の形態においてはΣxiを用
いることによりモノクロの輝度画像をディスプレイ3b
に表示させることができる。すなわち、Σxiは32フ
レーム分の出力の合計である。この32フレームのうち
のいずれかのフレームで、スリット光の被写体での反射
光が受光されている(ここでは被写体が測定可能範囲内
にあることを前提としている)。バンドパスフィルタ8
0gにより環境光はほぼカットされているので、Σxi
は、32フレームの期間に照射されたスリット光の成分
の合計である。すべての画素について、同様にスリット
光成分の合計が得られる。各画素のΣxiを各画素の表
示輝度データとして扱うと、モノクロ画像(スリット光
波長に対するモノクロ画像)となる。
In this embodiment, a monochrome luminance image can be displayed on the display 3b by using $ xi.
Can be displayed. That is, Σxi is the total output of 32 frames. In any one of the 32 frames, the reflected light of the slit light from the subject is received (here, it is assumed that the subject is within the measurable range). Bandpass filter 8
Since the ambient light is almost cut by 0g,
Is the sum of the components of the slit light irradiated during the period of 32 frames. Similarly, the sum of the slit light components is obtained for all the pixels. When Σxi of each pixel is treated as display luminance data of each pixel, a monochrome image (monochrome image with respect to the slit light wavelength) is obtained.

【0084】なお、たとえばΣxiのデータレンジが1
3ビット用意されており、モノクロの輝度表示には8ビ
ットのデータを用いるとするならば、Σxiの上位3ビ
ットと下位2ビットとを取り除いた8ビットを用いるよ
うにすればよい。どの8ビットのデータを用いるかは、
Σxiの実際にとる値を考慮して決めるようにすればよ
い。
For example, if the data range of $ xi is 1
If 3 bits are prepared and 8-bit data is used for monochrome luminance display, 8 bits obtained by removing the upper 3 bits and the lower 2 bits of $ xi may be used. Which 8-bit data is used depends on
What is necessary is just to determine in consideration of the value which Σxi actually takes.

【0085】なお、本実施の形態においては撮像素子と
してCCDを用いた場合について説明したが、撮像素子
としてCMOS撮像センサなどを用いても、距離画像お
よびカラー画像を取込むことができる。
In the present embodiment, a case where a CCD is used as an image sensor has been described. However, a distance image and a color image can be captured even when a CMOS image sensor or the like is used as an image sensor.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施の形態における計測システ
ムの構成を示す図である。
FIG. 1 is a diagram illustrating a configuration of a measurement system according to a first embodiment of the present invention.

【図2】3次元カメラ2の外観を示す図である。FIG. 2 is a diagram showing an appearance of a three-dimensional camera 2.

【図3】3次元カメラ2の機能構成を示すブロック図で
ある。
FIG. 3 is a block diagram showing a functional configuration of the three-dimensional camera 2.

【図4】フィルタ80Aとフィルタ切換機構81Aとの
周辺の構成を示す図である。
FIG. 4 is a diagram showing a configuration around a filter 80A and a filter switching mechanism 81A.

【図5】本発明の第2の実施の形態における3次元カメ
ラのブロック図である。
FIG. 5 is a block diagram of a three-dimensional camera according to a second embodiment of the present invention.

【図6】フィルタ80Bとフィルタ切換機構81Bとの
周辺の構成を示す図である。
FIG. 6 is a diagram showing a configuration around a filter 80B and a filter switching mechanism 81B.

【図7】本発明の第3の実施の形態における3次元カメ
ラの構成を示すブロック図である。
FIG. 7 is a block diagram illustrating a configuration of a three-dimensional camera according to a third embodiment of the present invention.

【図8】フィルタ80Cの周辺の構成を示す図である。FIG. 8 is a diagram showing a configuration around a filter 80C.

【図9】投光レンズ系の構成を示す模式図である。FIG. 9 is a schematic diagram showing a configuration of a light projecting lens system.

【図10】計測システムにおける3次元位置の算出の原
理図である。
FIG. 10 is a principle diagram of calculation of a three-dimensional position in the measurement system.

【図11】センサの読出範囲を示す図である。FIG. 11 is a diagram showing a reading range of a sensor.

【図12】センサの撮像面におけるラインとフレームと
の関係を示す図である。
FIG. 12 is a diagram illustrating a relationship between a line and a frame on an imaging surface of a sensor.

【図13】メモリにおける各フレームの受光データの記
憶状態を示す図である。
FIG. 13 is a diagram illustrating a storage state of light reception data of each frame in a memory.

【図14】メモリにおける各フレームの受光データの記
憶状態を示す図である。
FIG. 14 is a diagram illustrating a storage state of light reception data of each frame in a memory.

【図15】メモリにおける各フレームの受光データの記
憶状態を示す図である。
FIG. 15 is a diagram showing a storage state of light reception data of each frame in a memory.

【図16】重心演算回路の構成を示すブロック図であ
る。
FIG. 16 is a block diagram illustrating a configuration of a centroid operation circuit.

【図17】データの転送のタイミングの概念を示す図で
ある。
FIG. 17 is a diagram illustrating the concept of data transfer timing.

【図18】時間重心の概念を示す図である。FIG. 18 is a diagram illustrating a concept of a time center of gravity.

【図19】従来のアクティブタイプの3次元計測装置の
構成を説明するための図である。
FIG. 19 is a view for explaining a configuration of a conventional active type three-dimensional measuring apparatus.

【符号の説明】[Explanation of symbols]

53a〜53c 計測用センサ(CCD) 80A〜80C フィルタ 81A〜81C フィルタ切換機構 53a-53c Measurement Sensor (CCD) 80A-80C Filter 81A-81C Filter Switching Mechanism

───────────────────────────────────────────────────── フロントページの続き (72)発明者 田辺 英樹 大阪市中央区安土町二丁目3番13号大阪国 際ビル ミノルタ株式会社内 (72)発明者 井手 英一 大阪市中央区安土町二丁目3番13号大阪国 際ビル ミノルタ株式会社内 (72)発明者 掃部 幸一 大阪市中央区安土町二丁目3番13号大阪国 際ビル ミノルタ株式会社内 ──────────────────────────────────────────────────続 き Continuing on the front page (72) Inventor Hideki Tanabe 2-3-13 Azuchicho, Chuo-ku, Osaka City Osaka International Building Minolta Co., Ltd. (72) Inventor Eiichi Ide 2-chome Azuchicho, Chuo-ku, Osaka City No. 3-13 Osaka International Building Minolta Co., Ltd. (72) Inventor Koichi Sukebe 2-3-1 Azuchicho, Chuo-ku, Osaka City Osaka International Building Minolta Co., Ltd.

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 測定対象物に向けて参照光を投光する投
光手段と、 前記測定対象物からの反射光を受光する受光手段と、 前記受光された反射光から、前記測定対象物の3次元形
状を算出する算出手段とを備えた3次元計測装置であっ
て、 前記測定対象物の3次元形状を算出するための画像と前
記測定対象物を表示するための画像とを同一のセンサで
取込むことを特徴とした、3次元計測装置。
A light projecting unit for projecting a reference light toward the object to be measured; a light receiving unit for receiving light reflected from the object to be measured; A three-dimensional measuring apparatus comprising: a calculating unit that calculates a three-dimensional shape, wherein an image for calculating a three-dimensional shape of the measurement target and an image for displaying the measurement target are the same sensor. A three-dimensional measuring device characterized in that it is taken in by a.
JP07943198A 1998-03-26 1998-03-26 3D measuring device Expired - Fee Related JP4212138B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP07943198A JP4212138B2 (en) 1998-03-26 1998-03-26 3D measuring device
US09/273,543 US6252659B1 (en) 1998-03-26 1999-03-22 Three dimensional measurement apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP07943198A JP4212138B2 (en) 1998-03-26 1998-03-26 3D measuring device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006326080A Division JP2007071891A (en) 2006-12-01 2006-12-01 Three-dimensional measuring device

Publications (2)

Publication Number Publication Date
JPH11281335A true JPH11281335A (en) 1999-10-15
JP4212138B2 JP4212138B2 (en) 2009-01-21

Family

ID=13689698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP07943198A Expired - Fee Related JP4212138B2 (en) 1998-03-26 1998-03-26 3D measuring device

Country Status (1)

Country Link
JP (1) JP4212138B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006058160A (en) * 2004-08-20 2006-03-02 Riyuukoku Univ Linear beam of light data processor, surface profile measuring system, linear beam of light data processing method and control program of linear beam of light data processor and of computer-readable recording medium
JP2008244831A (en) * 2007-03-27 2008-10-09 Casio Comput Co Ltd Device for generating printing data and program
JP2013160516A (en) * 2012-02-01 2013-08-19 Canon Inc Measuring apparatus

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006058160A (en) * 2004-08-20 2006-03-02 Riyuukoku Univ Linear beam of light data processor, surface profile measuring system, linear beam of light data processing method and control program of linear beam of light data processor and of computer-readable recording medium
JP2008244831A (en) * 2007-03-27 2008-10-09 Casio Comput Co Ltd Device for generating printing data and program
JP2013160516A (en) * 2012-02-01 2013-08-19 Canon Inc Measuring apparatus

Also Published As

Publication number Publication date
JP4212138B2 (en) 2009-01-21

Similar Documents

Publication Publication Date Title
US5745175A (en) Method and system for providing automatic focus control for a still digital camera
US7245325B2 (en) Photographing device with light quantity adjustment
US6252659B1 (en) Three dimensional measurement apparatus
US20050012833A1 (en) Image capturing apparatus
US20080211902A1 (en) Imaging device
JPH08186757A (en) Electronic camera
US7940316B2 (en) Digital motion picture camera which combines images of different exposure times
JPH07174536A (en) Three dimensional shape-measuring apparatus
JP2001177752A (en) Image pickup method and device to generate combined output image having image components photographed by different focal distances
JP2007071891A (en) Three-dimensional measuring device
US7345706B2 (en) Auto focus system
US20010055064A1 (en) Digital still camera
JP3235485B2 (en) Spectroscopic device for three-dimensional measurement
US8063979B2 (en) Digital camera displaying moving image and exposure control method thereof
JP4212138B2 (en) 3D measuring device
JP3129069B2 (en) Image recording / reproducing system and photographing device
JP2006135501A (en) Imaging apparatus
JPH07281080A (en) Camera
JP2000275024A (en) Three-dimensional input apparatus
JP2004117195A (en) Digital camera with speed measuring function
JP3733625B2 (en) Imaging device for 3D measurement
JPH0338976A (en) Display device for image pickup
JP3861475B2 (en) 3D input device
WO2023042453A1 (en) Imaging device, image processing method, and program
JP2006352757A (en) Imaging apparatus

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040813

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20041209

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041224

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20041224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20041209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051114

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20061003

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061201

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20061212

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20070502

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081028

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111107

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121107

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131107

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees