JP2000002520A - Three-dimensional input apparatus - Google Patents

Three-dimensional input apparatus

Info

Publication number
JP2000002520A
JP2000002520A JP17120698A JP17120698A JP2000002520A JP 2000002520 A JP2000002520 A JP 2000002520A JP 17120698 A JP17120698 A JP 17120698A JP 17120698 A JP17120698 A JP 17120698A JP 2000002520 A JP2000002520 A JP 2000002520A
Authority
JP
Japan
Prior art keywords
light
data
output
scan
intensity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP17120698A
Other languages
Japanese (ja)
Inventor
Koichi Kanbe
幸一 掃部
Hideki Tanabe
英樹 田辺
Makoto Miyazaki
誠 宮崎
Toshio Norita
寿夫 糊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP17120698A priority Critical patent/JP2000002520A/en
Priority to US09/334,918 priority patent/US6424422B1/en
Publication of JP2000002520A publication Critical patent/JP2000002520A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To acquire high-accuracy three-dimensional data, without receiving a plurality of operating instructions even if a body has different reflectivities at its portions by continuously scanning multiply with a detecting light projecting at a different intensity every scan in response to an operation start instruction. SOLUTION: The cameral position and orientation are determined to set the picture angle with seeing the indication of an LCD 21, while the focusing is made by a zoom unit 51. In a preliminary measurement, a system controller 61 calculates the output (slit light intensity) of a semiconductor laser 41, deflecting condition, etc., to set the projection angle so as to receive a reflected light on the center of a sensor 53, provided that a plane body exists at an object distance obtd. by the focusing, a slight light is continuously projected three times at three steps of intensity, and the output of the sensor 53 is sampled to obtain an optimum slit. This measuring method performs scanning three times at a different slit light intensity every scan in the same deflecting condition in all times.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体に検出光を投
射して物体を走査し、物体形状を特定するデータを出力
する3次元入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional input device for projecting detection light onto an object, scanning the object, and outputting data for specifying the shape of the object.

【0002】[0002]

【従来の技術】レンジファインダと呼称される非接触型
の3次元入力装置は、接触型に比べて高速の計測が可能
であることから、CGシステムやCADシステムへのデ
ータ入力、身体計測、ロボットの視覚認識などに利用さ
れている。
2. Description of the Related Art A non-contact type three-dimensional input device called a range finder can perform higher-speed measurement than a contact type, and therefore can input data to a CG system or a CAD system, measure a body, and use a robot. It is used for visual recognition.

【0003】レンジファインダに好適な計測方法として
スリット光投影法(光切断法ともいう)が知られてい
る。この方法は、物体を光学的に走査して距離画像(3
次元画像)を得る方法であり、特定の検出光を照射して
物体を撮影する能動的計測方法の一種である。距離画像
は、物体上の複数の部位の3次元位置を示す画素の集合
である。スリット光投影法では、検出光として投射ビー
ムの断面が直線帯状であるスリット光が用いられる。走
査中のある時点では物体の一部が照射され、その部分の
位置は投射方向と受光面における高輝度位置(つまり受
光方向)とから三角測量の手法で算出することができ
る。したがって、受光面の各画素の輝度をサンプリング
することにより、物体形状を特定する一群のデータを得
ることができる。
[0003] As a measurement method suitable for a range finder, a slit light projection method (also called a light cutting method) is known. In this method, an object is optically scanned and a distance image (3
(A two-dimensional image), and is a type of active measurement method for capturing an object by irradiating specific detection light. The distance image is a set of pixels indicating three-dimensional positions of a plurality of parts on the object. In the slit light projection method, a slit light in which a cross section of a projection beam is a straight band is used as detection light. At a certain point during the scanning, a part of the object is irradiated, and the position of the part can be calculated by a triangulation method from the projection direction and the high luminance position (that is, the light receiving direction) on the light receiving surface. Therefore, a group of data specifying the shape of the object can be obtained by sampling the brightness of each pixel on the light receiving surface.

【0004】レンジファインダの中には予備計測を行っ
て本計測における検出光の投射強度を調整するものがあ
る。すなわち、撮影範囲の一部に検出光を投射し、受光
面に入射した検出光の光量に応じて投射強度を最適化す
る動作設定が行われている。
Some rangefinders perform preliminary measurement and adjust the projection intensity of the detection light in the main measurement. That is, an operation setting for projecting the detection light on a part of the imaging range and optimizing the projection intensity according to the amount of the detection light incident on the light receiving surface is performed.

【0005】[0005]

【発明が解決しようとする課題】しかし、従来では、計
測対象の物体の反射率が均一でなく且つ反射率の高低差
が大きい場合に、撮像デバイスや信号処理系のダイナミ
ックレンジが有限であることから、物体の一部に対応す
る検出光の受光情報が飽和し又は黒レベル(非感応)と
なり、形状を計測できない部分が生じるという問題があ
った。このような場合、物体の全体の形状データを得る
には、再度の計測を行う必要があった。
Conventionally, however, the dynamic range of an imaging device or a signal processing system is limited when the reflectance of an object to be measured is not uniform and the difference in reflectance is large. Therefore, there has been a problem that the received light information of the detection light corresponding to a part of the object is saturated or becomes a black level (insensitive), and a part where the shape cannot be measured occurs. In such a case, it is necessary to perform another measurement to obtain the entire shape data of the object.

【0006】本発明は、物体の反射率が部位によって大
きく異なる場合でも、複数回の動作指示を受けることな
く、反射率が均一である場合と同様の精度の3次元デー
タを取得する3次元入力装置の提供を目的としている。
The present invention provides a three-dimensional input method for acquiring three-dimensional data with the same accuracy as in the case where the reflectivity is uniform without receiving a plurality of operation instructions even when the reflectivity of the object greatly differs depending on the part. It is intended to provide equipment.

【0007】[0007]

【課題を解決するための手段】本発明においては、投射
強度を自動的に変更して複数回の走査を行うようにす
る。これにより、ある投射強度では適切な受光情報が得
られない物体上の部位についても、他の投射強度では適
切な受光情報が得られる。つまり、少なくともいずれか
1回の走査において、注目部位の反射率に依存する入射
光量が撮像及び信号処理のダイナミックレンジに適合す
ることになる。したがって、複数回分の受光情報から部
位毎に適切な受光情報を選んで用いることにより、物体
の計測範囲の全域の形状の計測が可能となる。複数回分
の受光情報を得た時点で本発明の目的は達成され、適切
な受光情報の選択を3次元入力装置の内部で行うか外部
の装置で行うかは問わない。
According to the present invention, a plurality of scans are performed by automatically changing the projection intensity. As a result, even for a part on an object for which appropriate light receiving information cannot be obtained at a certain projection intensity, appropriate light receiving information can be obtained at another projection intensity. That is, in at least one of the scans, the amount of incident light that depends on the reflectance of the target portion matches the dynamic range of imaging and signal processing. Therefore, by selecting and using appropriate light receiving information for each part from the light receiving information for a plurality of times, it is possible to measure the shape of the entire measurement range of the object. The object of the present invention is achieved when a plurality of light reception information is obtained, and it does not matter whether the selection of appropriate light reception information is performed inside the three-dimensional input device or by an external device.

【0008】または本発明においては、1回の走査で得
られた光電変換信号を異なる増幅率で増幅する。これに
より、投射強度の異なる複数回の走査を行った場合と同
等の受光情報が得られ、部位毎に適切な受光情報を選ぶ
ことが可能となる。
[0008] Alternatively, in the present invention, photoelectric conversion signals obtained by one scan are amplified at different amplification factors. As a result, light reception information equivalent to the case of performing a plurality of scans with different projection intensities is obtained, and appropriate light reception information can be selected for each part.

【0009】請求項1の発明の装置は、検出光を投射す
る投光手段と、物体で反射した前記検出光を受光して電
気信号に変換する撮像手段とを有し、前記検出光の投射
方向を変化させて周期的に前記物体を撮像する走査を行
う3次元入力装置であって、動作開始の指示に呼応し
て、複数回の走査を各回毎に異なる強度の前記検出光を
投射して連続的に行うものである。動作開始の指示はス
イッチやボタンの操作又は外部からの制御信号により行
われる。
The apparatus according to the first aspect of the present invention includes a light projecting means for projecting the detection light, and an image pickup means for receiving the detection light reflected by the object and converting the detection light into an electric signal. A three-dimensional input device that performs scanning for changing the direction and periodically imaging the object, and projects a plurality of scans of the detection light having different intensities each time in response to an operation start instruction. It is performed continuously. The instruction to start the operation is given by operating a switch or button or by a control signal from the outside.

【0010】請求項2の発明の装置は、検出光を投射す
る投光手段と、物体で反射した前記検出光を受光して電
気信号に変換する撮像手段とを有し、前記検出光の投射
方向を変化させて周期的に前記物体を撮像する走査を行
う3次元入力装置であって、互いに異なる増幅率で前記
電気信号を増幅し、撮像の各画素に対応した複数の受光
データを生成する信号処理手段を有している。
According to a second aspect of the present invention, there is provided an apparatus comprising: a light projecting means for projecting a detection light; and an imaging means for receiving the detection light reflected by an object and converting the detection light into an electric signal. What is claimed is: 1. A three-dimensional input device for performing a scan for periodically imaging an object by changing a direction, amplifying the electric signal with different amplification factors, and generating a plurality of light reception data corresponding to each pixel of the image. It has signal processing means.

【0011】[0011]

【発明の実施の形態】〔第1実施形態〕図1は本発明に
係る計測システム1の構成図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] FIG. 1 is a configuration diagram of a measurement system 1 according to the present invention.

【0012】計測システム1は、スリット光投影法によ
って立体計測を行う3次元カメラ(レンジファインダ)
2と、3次元カメラ2の出力データを処理するホスト3
とから構成されている。
The measurement system 1 is a three-dimensional camera (range finder) for performing three-dimensional measurement by a slit light projection method.
2 and a host 3 for processing output data of the three-dimensional camera 2
It is composed of

【0013】3次元カメラ2は、物体Q上の複数のサン
プリング点の3次元位置を特定する計測データととも
に、物体Qのカラー情報を示す2次元画像及びキャリブ
レーションに必要なデータを出力する。三角測量法を用
いてサンプリング点の座標を求める演算処理はホスト3
が担う。
The three-dimensional camera 2 outputs a two-dimensional image indicating color information of the object Q and data necessary for calibration together with measurement data for specifying three-dimensional positions of a plurality of sampling points on the object Q. The calculation processing for obtaining the coordinates of the sampling points using the triangulation method is performed by the host 3.
Is responsible.

【0014】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、及びマウス3dなどから構成され
たコンピュータシステムである。CPU3aには計測デ
ータ処理のためのソフトウェアが組み込まれている。ホ
スト3と3次元カメラ2との間では、オンライン及び可
搬型の記録メディア4によるオフラインの両方の形態の
データ受渡しが可能である。記録メディア4としては、
光磁気ディスク(MO)、ミニディスク(MD)、メモ
リカードなどがある。
The host 3 comprises a CPU 3a, a display 3
b, a keyboard 3c, a mouse 3d, and the like. Software for processing measurement data is incorporated in the CPU 3a. Between the host 3 and the three-dimensional camera 2, both online and offline data transfer by the portable recording medium 4 is possible. As the recording medium 4,
There are a magneto-optical disk (MO), a mini disk (MD), and a memory card.

【0015】図2は3次元カメラ2の外観を示す図であ
る。ハウジング20の前面に投光窓20a及び受光窓2
0bが設けられている。投光窓20aは受光窓20bに
対して上側に位置する。内部の光学ユニットOUが射出
するスリット光(所定幅wの帯状のレーザビーム)U
は、投光窓20aを通って計測対象の物体(被写体)に
向かう。スリット光Uの長さ方向M1の放射角度φは固
定である。物体の表面で反射したスリット光Uの一部が
受光窓20bを通って光学ユニットOUに入射する。な
お、光学ユニットOUは、投光軸と受光軸との相対関係
を適正化するための2軸調整機構を備えている。
FIG. 2 is a view showing the appearance of the three-dimensional camera 2. A light emitting window 20a and a light receiving window 2
0b is provided. The light projecting window 20a is located above the light receiving window 20b. Slit light (band-like laser beam with a predetermined width w) U emitted from the internal optical unit OU
Goes to the object (subject) to be measured through the light emitting window 20a. The radiation angle φ in the length direction M1 of the slit light U is fixed. A part of the slit light U reflected on the surface of the object enters the optical unit OU through the light receiving window 20b. Note that the optical unit OU includes a two-axis adjustment mechanism for optimizing the relative relationship between the light projecting axis and the light receiving axis.

【0016】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、及びシャッタボタン27が設けられてい
る。図2(b)のように、ハウジング20の背面には、
液晶ディスプレイ21、カーソルボタン22、セレクト
ボタン23、キャンセルボタン24、アナログ出力端子
32、デジタル出力端子33、及び記録メディア4の着
脱口30aが設けられている。
On the upper surface of the housing 20, zooming buttons 25a and 25b, a manual focusing button 26
a, 26b and a shutter button 27 are provided. As shown in FIG. 2B, on the back of the housing 20,
A liquid crystal display 21, a cursor button 22, a select button 23, a cancel button 24, an analog output terminal 32, a digital output terminal 33, and an opening 30a for the recording medium 4 are provided.

【0017】液晶ディスプレイ(LCD)21は、操作
画面の表示手段及び電子ファインダとして用いられる。
撮影者は背面の各ボタン21〜24によって撮影モード
の設定を行うことができる。アナログ出力端子32から
は、2次元画像信号が例えばNTSC形式で出力され
る。ディジタル出力端子33は例えばSCSI端子であ
る。
A liquid crystal display (LCD) 21 is used as display means for an operation screen and as an electronic finder.
The photographer can set the photographing mode by using the buttons 21 to 24 on the back. From the analog output terminal 32, a two-dimensional image signal is output, for example, in the NTSC format. The digital output terminal 33 is, for example, a SCSI terminal.

【0018】図3は3次元カメラ2の機能構成を示すブ
ロック図である。図中の実線矢印は電気信号の流れを示
し、破線矢印は光の流れを示している。3次元カメラ2
は、上述の光学ユニットOUを構成する投光側及び受光
側の2つの光学系40,50を有している。光学系40
において、半導体レーザ(LD)41が射出する波長6
70nmのレーザビームは、投光レンズ系42を通過す
ることによってスリット光Uとなり、ガルバノミラー
(走査手段)43によって偏向される。半導体レーザ4
1のドライバ44、投光レンズ系42の駆動系45、及
びガルバノミラー43の駆動系46は、システムコント
ローラ61によって制御される。
FIG. 3 is a block diagram showing a functional configuration of the three-dimensional camera 2. In the figure, solid arrows indicate the flow of electric signals, and broken arrows indicate the flow of light. 3D camera 2
Has two optical systems 40 and 50 on the light projecting side and the light receiving side that constitute the optical unit OU described above. Optical system 40
, The wavelength 6 emitted by the semiconductor laser (LD) 41
The 70 nm laser beam becomes slit light U by passing through the light projecting lens system 42 and is deflected by the galvanomirror (scanning means) 43. Semiconductor laser 4
The driver 44, the driving system 45 of the light projecting lens system 42, and the driving system 46 of the galvanomirror 43 are controlled by a system controller 61.

【0019】光学系50において、ズームユニット51
によって集光された光はビームスプリッタ52によって
分光される。半導体レーザ41の発振波長帯域の光は、
計測用のセンサ53に入射する。可視帯域の光は、モニ
タ用のカラーセンサ54に入射する。センサ53及びカ
ラーセンサ54は、どちらもCCDエリアセンサであ
る。ズームユニット51は内焦型であり、入射光の一部
がオートフォーカシング(AF)に利用される。AF機
能は、AFセンサ57とレンズコントローラ58とフォ
ーカシング駆動系59によって実現される。ズーミング
駆動系60は電動ズーミングのために設けられている。
In the optical system 50, a zoom unit 51
The light condensed by the beam splitter 52 is split by the beam splitter 52. The light in the oscillation wavelength band of the semiconductor laser 41 is
The light enters the sensor 53 for measurement. Light in the visible band enters the monitor color sensor 54. The sensor 53 and the color sensor 54 are both CCD area sensors. The zoom unit 51 is of an in-focus type, and a part of the incident light is used for auto focusing (AF). The AF function is realized by an AF sensor 57, a lens controller 58, and a focusing drive system 59. The zooming drive system 60 is provided for electric zooming.

【0020】センサ53による撮像情報は、ドライバ5
5からのクロックに同期して本発明に特有の構成要素で
ある出力処理回路62に入力される。出力処理回路62
は、入力された撮像情報に基づいて対象物体の3次元位
置を算出するための基となるデータ(後述の“重心i
p”)を生成して計測結果としてSCSIコントローラ
66に出力する。また、出力処理回路62で生成された
データはモニタ情報として表示用メモリ74へ出力さ
れ、液晶ディスプレイ(LCD)21による距離画像の
表示に用いられる。出力処理回路62の詳細については
後述する。
The information captured by the sensor 53 is transmitted to the driver 5
5 is input to an output processing circuit 62, which is a component unique to the present invention, in synchronization with the clock signal from the clock 5. Output processing circuit 62
Is the data (hereinafter referred to as “centroid i” to be described later) for calculating the three-dimensional position of the target object based on the input imaging information.
p ″) is generated and output to the SCSI controller 66 as a measurement result. The data generated by the output processing circuit 62 is output to the display memory 74 as monitor information, and the distance image by the liquid crystal display (LCD) 21 is displayed. The output processing circuit 62 will be described later in detail.

【0021】一方、カラーセンサ54による撮像情報
は、ドライバ56からのクロックに同期してカラー処理
回路67へ送られる。カラー処理を受けた撮像情報は、
NTSC変換回路70及びアナログ出力端子32を経て
オンライン出力され、又はディジタル画像生成部68で
量子化されてカラー画像メモリ69に格納される。その
後、カラー画像データがカラー画像メモリ69からSC
SIコントローラ66へ転送される。
On the other hand, imaging information from the color sensor 54 is sent to the color processing circuit 67 in synchronization with a clock from the driver 56. Imaging information that has undergone color processing
The data is output online via the NTSC conversion circuit 70 and the analog output terminal 32, or is quantized by the digital image generation unit 68 and stored in the color image memory 69. Thereafter, the color image data is transferred from the color image memory 69 to the SC.
The data is transferred to the SI controller 66.

【0022】SCSIコントローラ66は、出力処理回
路62からのデータとカラー画像とをディジタル出力端
子33からオンライン出力し、又は記録メディア4に格
納する。なお、カラー画像は、センサ53の出力に基づ
く距離画像と同一の画角の像であり、ホスト3側におけ
るアプリケーション処理に際して参考情報として利用さ
れる。カラー情報を利用する処理としては、例えばカメ
ラ視点の異なる複数組の計測データを組み合わせて3次
元形状モデルを生成する処理、3次元形状モデルの不要
の頂点を間引く処理などがある。システムコントローラ
61は、図示しないキャラクタジェネレータに対して、
LCD21の画面上に適切な文字や記号を表示するため
の指示を与える。
The SCSI controller 66 outputs the data from the output processing circuit 62 and the color image on-line from the digital output terminal 33 or stores the data on the recording medium 4. Note that the color image is an image having the same angle of view as the distance image based on the output of the sensor 53, and is used as reference information at the time of application processing on the host 3 side. The processing using color information includes, for example, processing of generating a three-dimensional shape model by combining a plurality of sets of measurement data having different camera viewpoints, and processing of thinning out unnecessary vertices of the three-dimensional shape model. The system controller 61 sends a character generator (not shown)
An instruction for displaying appropriate characters and symbols on the screen of the LCD 21 is given.

【0023】図4は出力処理回路62のブロック図であ
る。センサ53から入力された光電変換信号S53は、
S/H回路621でサンプリングホールドされ、増幅回
路622で所定の増幅率で増幅された後、A/D変換器
623によって8ビットの受光データXiに変換され
る。受光データXiはメモリ624に一旦格納され、所
定のタイミングで最大値判別回路626と重心演算回路
627とに転送される。受光データXiを記憶すること
により、各画素について撮像時期がセンサ駆動周期ずつ
ずれた複数の受光データXi(本例では32個)を用い
て重心演算をすることができる。メモリ624のアドレ
ス指定はメモリコントローラ625が行う。なお、シス
テムコントローラ61は予備計測において図示しないデ
ータバスを介して所定画素の受光データを取り込む。重
心演算回路627は、ホスト3での3次元位置の算出の
基となる重心ipを算出して出力用メモリ628に送
る。最大値判定回路626は、画素毎に重心ipの適否
を表す制御信号CS1を出力する。この制御信号CS1
に従って出力用メモリコントローラ629により出力メ
モリ629への重心ipの書込みが制御される。ただ
し、システムコントローラ61からの制御信号CS2に
よって制御信号CS1のマスキングが指示されたときに
は、制御信号CS1に係わらず重心ipの書込みが行わ
れる。出力用メモリコントローラ629はアドレス指定
のためのカウンタを有している。
FIG. 4 is a block diagram of the output processing circuit 62. The photoelectric conversion signal S53 input from the sensor 53 is
After being sampled and held by the S / H circuit 621, amplified by the amplifier circuit 622 at a predetermined amplification rate, and converted by the A / D converter 623 into 8-bit received light data Xi. The received light data Xi is temporarily stored in the memory 624, and is transferred to the maximum value discriminating circuit 626 and the center-of-gravity calculating circuit 627 at a predetermined timing. By storing the light receiving data Xi, the center of gravity can be calculated using a plurality of light receiving data Xi (32 in this example) whose imaging timing is shifted by the sensor driving cycle for each pixel. The address of the memory 624 is specified by the memory controller 625. It should be noted that the system controller 61 takes in the light reception data of a predetermined pixel via a data bus (not shown) in the preliminary measurement. The center-of-gravity calculation circuit 627 calculates the center of gravity ip, which is the basis of the calculation of the three-dimensional position in the host 3, and sends it to the output memory 628. The maximum value determination circuit 626 outputs a control signal CS1 indicating whether the center of gravity ip is appropriate for each pixel. This control signal CS1
The writing of the center of gravity ip to the output memory 629 is controlled by the output memory controller 629 according to the following. However, when the masking of the control signal CS1 is instructed by the control signal CS2 from the system controller 61, the writing of the center of gravity ip is performed regardless of the control signal CS1. The output memory controller 629 has a counter for address designation.

【0024】図5は最大値判定回路626のブロック図
である。最大値判定回路626は、最大値検出部626
1、閾値記憶部6262、及び比較部6263から構成
されている。最大値検出部6261にはメモリ624か
ら1画素当たり32個ずつ読み出された受光データXi
が入力される。最大値検出部6261は、各画素毎に3
2個の受光データXiのうちの最大値Xmaxを検出し
て出力する。最大値Xmaxは比較器6263によって
2個の閾値XL,XHと比較され、その比較結果が制御
信号CS1として出力される。閾値XL,XHは固定値
であって閾値記憶部6262で記憶されている。
FIG. 5 is a block diagram of the maximum value judging circuit 626. The maximum value determination circuit 626 includes a maximum value detection unit 626.
1, a threshold storage unit 6262, and a comparison unit 6263. The maximum value detection unit 6261 has the light reception data Xi read from the memory 624 in units of 32 pixels per pixel.
Is entered. The maximum value detection unit 6261 calculates 3 for each pixel.
The maximum value Xmax of the two light reception data Xi is detected and output. The maximum value Xmax is compared with two threshold values XL and XH by the comparator 6263, and the comparison result is output as the control signal CS1. The thresholds XL and XH are fixed values and are stored in the threshold storage unit 6262.

【0025】図6は計測システム1における3次元位置
の算出の原理図である。図6では理解を容易にするため
に受光量のサンプリングについて5回分のみが示されて
いるが、3次元カメラ2における1画素当たりのサンプ
リング数は32である。
FIG. 6 is a principle diagram for calculating a three-dimensional position in the measurement system 1. In FIG. 6, only five samplings of the amount of received light are shown for easy understanding, but the number of samplings per pixel in the three-dimensional camera 2 is 32.

【0026】図6のように、センサ53の撮像面S2上
でのスリット幅がピッチpvで並ぶ画素gの複数個分と
なる比較的に幅の広いスリット光Uを物体Qに投射す
る。具体的にはスリット光Uの幅を5画素分程度とす
る。スリット光Uは図の上から下に向かって起点Aを中
心に等角速度で偏向される。物体Qで反射したスリット
光Uは結像の主点O(ズーミングの後側主点H’)を通
って撮像面S2に入射する。スリット光Uの投射中にセ
ンサ53の受光量を周期的にサンプリングすることによ
り、物体Q(厳密には物体像)が走査される。サンプリ
ング周期(センサ駆動周期)毎にセンサ53から1フレ
ーム分の光電変換信号が出力される。
As shown in FIG. 6, a relatively wide slit light U whose slit width on the imaging surface S2 of the sensor 53 is equal to a plurality of pixels g arranged at a pitch pv is projected onto the object Q. Specifically, the width of the slit light U is set to about 5 pixels. The slit light U is deflected from the top to the bottom of the figure at a constant angular velocity about the starting point A. The slit light U reflected by the object Q passes through the principal point O of image formation (the principal point H ′ on the rear side of zooming) and enters the imaging surface S2. By periodically sampling the amount of light received by the sensor 53 during the projection of the slit light U, the object Q (strictly, an object image) is scanned. The photoelectric conversion signal for one frame is output from the sensor 53 every sampling period (sensor driving period).

【0027】本実施形態においては、1フレームがセン
サ53の撮像面S2の一部に対応する32ラインとされ
ているので、撮像面S2の1つの画素gに注目すると、
走査中に32回のサンプリングが行われることになり、
32個の受光データが得られる。これら32フレーム分
の受光データに対する重心演算によって、注目画素gが
にらむ範囲の物体表面agをスリット光Uの光軸が通過
するタイミングNpeakに相当する重心(時間重心)
ipを算出する。
In the present embodiment, one frame is composed of 32 lines corresponding to a part of the imaging surface S2 of the sensor 53. Therefore, when focusing on one pixel g of the imaging surface S2,
32 samples will be taken during the scan,
32 light reception data are obtained. The center of gravity (time center of gravity) corresponding to the timing Npeak at which the optical axis of the slit light U passes through the object surface ag in the range where the pixel of interest gazes is calculated by the center of gravity calculation of the light reception data for these 32 frames.
Calculate ip.

【0028】物体Qの表面が平面であって光学系の特性
によるノイズがない場合には、注目画素gの受光量は、
図6(b)に示すようにスリット光Uが通過するタイミ
ングにおいて多くなり、その時間的な分布は正規分布に
近くなる。同図のようにn回目とその1つ前の(n−
1)回目のサンプリング時刻間のタイミングNpeak
で受光量が最大であった場合には、そのタイミングNp
eakが重心ipとほぼ一致する。
When the surface of the object Q is flat and there is no noise due to the characteristics of the optical system, the amount of light received by the target pixel g is
As shown in FIG. 6B, the number increases at the timing when the slit light U passes, and its temporal distribution is close to a normal distribution. As shown in the figure, the nth time and the (n−
1) Timing Npeak between sampling times
If the received light amount is the maximum at the timing Np
eak almost coincides with the center of gravity ip.

【0029】求めたタイミングNpeak(重心ip)
におけるスリット光Uの照射方向と注目画素gに対する
スリット光Uの入射方向との関係に基づいて、物体Qの
位置(座標)を算出する。これにより、撮像面S2の画
素配列のピッチpvで規定される分解能より高い分解能
の計測が可能となる。
The calculated timing Npeak (center of gravity ip)
Then, the position (coordinate) of the object Q is calculated based on the relationship between the irradiation direction of the slit light U and the incident direction of the slit light U to the pixel of interest g. This enables measurement with a higher resolution than the resolution specified by the pitch pv of the pixel array on the imaging surface S2.

【0030】以下、3次元カメラ2及びホスト3の動作
を計測の手順と合わせて説明する。3次元カメラ2によ
る計測のサンプリング点数を200×262とする。す
なわち、撮像面S2におけるスリットUの幅方向の画素
数は262であり、実質的なフレーム数Nは231であ
る。
Hereinafter, the operation of the three-dimensional camera 2 and the host 3 will be described together with the measurement procedure. The number of sampling points for measurement by the three-dimensional camera 2 is set to 200 × 262. That is, the number of pixels in the width direction of the slit U on the imaging surface S2 is 262, and the substantial number N of frames is 231.

【0031】ユーザー(撮影者)は、LCD21が表示
するカラーモニタ像を見ながら、カメラ位置と向きとを
決め、画角を設定する。その際、必要に応じてズーミン
グ操作を行う。このとき、ズームユニット51の中のフ
ォーカシング部の移動による手動または自動のフォーカ
シングが行われ、フォーカシングの過程でおおよその対
物間距離(do)が測定される。
The user (photographer) determines the camera position and direction while viewing the color monitor image displayed on the LCD 21, and sets the angle of view. At that time, a zooming operation is performed as needed. At this time, manual or automatic focusing is performed by moving a focusing unit in the zoom unit 51, and an approximate inter-object distance (do) is measured during the focusing process.

【0032】ユーザーがシャッタボタン27をオンする
と、本計測に先立って予備計測が行われる。予備計測に
おいてシステムコントローラ61は、本計測における半
導体レーザ41の出力(スリット光強度)、及びスリッ
ト光Uの偏向条件(走査開始角、走査終了角、偏向角速
度)を算定する。
When the user turns on the shutter button 27, preliminary measurement is performed prior to the main measurement. In the preliminary measurement, the system controller 61 calculates the output (slit light intensity) of the semiconductor laser 41 and the deflection conditions of the slit light U (scan start angle, scan end angle, deflection angular velocity) in the main measurement.

【0033】図7は予備計測におけるスリット光強度L
sの算定要領を説明するための図である。スリット光強
度の算定の要領は次のとおりである。フォーカシングで
得られたおおよその対物問距離(do)に平面物体が存
在するものとしてセンサ53の中央で反射光を受光する
ように投射角の設定を行う。設定した投射角において、
スリット光Uを3段階の強度La,Lb,Lcにて連続
的に計3回投射し、センサ53の出力をサンプリングし
て各強度La,Lb,Lcとセンサ53の出力との関係
を求める。そして、求めた関係からセンサ53の出力が
最適値Ssとなるであろうスリット光強度Lsを求め
る。なお、センサ53の出力のサンプリングは撮像面S
2の全体ではなく一部のみを対象に行われる。
FIG. 7 shows the slit light intensity L in the preliminary measurement.
It is a figure for explaining the calculation point of s. The procedure for calculating the slit light intensity is as follows. The projection angle is set so that the reflected light is received at the center of the sensor 53 on the assumption that a plane object exists at the approximate object distance (do) obtained by focusing. At the set projection angle,
The slit light U is continuously projected at three levels of intensities La, Lb, and Lc three times in total, and the output of the sensor 53 is sampled to obtain the relationship between the intensities La, Lb, and Lc and the output of the sensor 53. Then, the slit light intensity Ls at which the output of the sensor 53 becomes the optimum value Ss is obtained from the obtained relation. Note that the output of the sensor 53 is sampled by the imaging surface S
2, but not for the whole.

【0034】偏向条件の算定においては、強度La,L
b,Lcのスリット光Uの投射角とスリット光Uの受光
位置とから三角測量によって対物間距離(d)を算定す
る。そして、対物間距離(d)、受光の光学条件、及び
センサ53の動作条件に基づいて、所定分解能の計測結
果が得られるように走査開始角、走査終了角、及び偏向
角速度を算定する。
In calculating the deflection condition, the intensities La, L
The distance (d) between the objects is calculated by triangulation from the projection angle of the slit light U of b and Lc and the light receiving position of the slit light U. Then, based on the inter-object distance (d), the optical condition of light reception, and the operating condition of the sensor 53, the scan start angle, the scan end angle, and the deflection angular velocity are calculated so as to obtain a measurement result with a predetermined resolution.

【0035】予備計測に続いて、予備計測の結果を適用
して本計測が行われる。図8は本計測の動作のフローチ
ャートである。本実施形態の本計測では、物体の走査が
計3回行われる。スリット光Uの偏向条件は全ての走査
において同一であるが、スリット光強度は走査毎に異な
る。
Following the preliminary measurement, the main measurement is performed by applying the result of the preliminary measurement. FIG. 8 is a flowchart of the main measurement operation. In the main measurement of the present embodiment, the object is scanned three times in total. The deflection condition of the slit light U is the same for all scans, but the slit light intensity is different for each scan.

【0036】1回目の走査(第1走査)のスリット光強
度L1は、以前に求めたスリット光強度Lsである。半
導体レーザ41の動作条件としてスリット光強度L1を
設定し(#11)、走査開始角から走査終了角までの範
囲にスリット光Uを投射する(#12、#13)。同様
にスリット光強度L2を設定して2回目の走査(第2走
査)を行い(#14〜#16)、スリット光強度L3を
設定して3回目の走査(第3走査)を行う(#17〜#
19)。
The slit light intensity L1 of the first scan (first scan) is the previously obtained slit light intensity Ls. The slit light intensity L1 is set as the operating condition of the semiconductor laser 41 (# 11), and the slit light U is projected in a range from the scan start angle to the scan end angle (# 12, # 13). Similarly, the second scan (second scan) is performed by setting the slit light intensity L2 (# 14 to # 16), and the third scan (third scan) is performed by setting the slit light intensity L3 (#) 17 ~ #
19).

【0037】スリット光強度Lsで走査を行うことによ
り、後述のように出力処理回路62による処理でのデー
タの欠落を防止することができる。データの欠落には、
対象物体の反射率分布、スリット光強度の設定段数(走
査回数)、各画素の受光データの最大値が関係する。
By performing scanning with the slit light intensity Ls, it is possible to prevent data loss due to processing by the output processing circuit 62 as described later. Missing data includes
The reflectance distribution of the target object, the set number of slit light intensities (the number of scans), and the maximum value of the received light data of each pixel are related.

【0038】図9は本計測に適用するスリット光強度の
算出のフローチャート、図10はスリット光強度の設定
の模式図である。最初に上述のとおり予備計測の結果に
基づいてスリット光強度Lsを算出し(#21)、得ら
れた値とあらじめ定められた閾値LL,LHとの大小関
係に応じてスリット光強度L2,L3を定める。閾値L
Lは、スリット光強度の可変範囲(最小値Lmin〜最
大値Lmax)を低(L)、中(M)、高(H)の3段
階の強度範囲zL,zM,zHに区画する2つの境界の
うちの低側の境界の値である。閾値LHは高側の境界値
である。
FIG. 9 is a flowchart for calculating the slit light intensity applied to the main measurement, and FIG. 10 is a schematic diagram for setting the slit light intensity. First, as described above, the slit light intensity Ls is calculated based on the result of the preliminary measurement (# 21), and the slit light intensity L2 is calculated according to the magnitude relationship between the obtained value and the predetermined thresholds LL and LH. , L3. Threshold L
L denotes two boundaries that partition the variable range of the slit light intensity (the minimum value Lmin to the maximum value Lmax) into three intensity ranges zL, zM, and zH of low (L), medium (M), and high (H). Is the value of the lower boundary. The threshold value LH is a high-side boundary value.

【0039】Ls≦LLの場合には、L2を強度範囲z
Mの平均値LMaとし、L3を強度範囲zHの平均値L
Haとする(#22、#23)。Ls>LLの場合は、
L2を強度範囲zLの平均値LLaとし(#24)、L
3を次のように定める。Ls≦LHであればL3をLH
aとし(#25、#26)、Ls>LHであればL3を
LMaとする(#27)。つまり、3つの強度範囲z
L,zM,zHのそれぞれから1つずつスリット光強度
を選択するようにする。各値LL,LH,LLa,LM
a,LHaは次の式で表される。
When Ls ≦ LL, L2 is set in the intensity range z.
The average value LMa of M and L3 is the average value L of the intensity range zH.
Ha (# 22, # 23). When Ls> LL,
Let L2 be the average value LLa of the intensity range zL (# 24),
3 is determined as follows. If Ls ≦ LH, L3 is LH
a (# 25, # 26), and if Ls> LH, L3 is set to LMa (# 27). That is, three intensity ranges z
One slit light intensity is selected from each of L, zM, and zH. Each value LL, LH, LLa, LM
a and LHa are represented by the following equations.

【0040】 LL=(Lmax−Lmin)/3+Lmin …(1a) LH=2(Lmax−Lmin)/3+Lmin …(1b) LLa=(LL−Lmin)/2+Lmin …(1c) LMa=(LH−LL)/2+LL …(1d) LHa=(Lmax−LH)/2+LH …(1e) このようにして設定されたスリット強度での計3回の走
査のそれぞれにおいて、上述の出力処理回路62は、セ
ンサ53の出力に対して所定の演算を行って重心ipを
算出し、最大値Xmaxに応じて画素毎にいずれかの走
査に対応した重心ipを計測結果として有効とする。
LL = (Lmax−Lmin) / 3 + Lmin (1a) LH = 2 (Lmax−Lmin) / 3 + Lmin (1b) LLa = (LL−Lmin) / 2 + Lmin (1c) LMa = (LH−LL) / 2 + LL (1d) LHa = (Lmax−LH) / 2 + LH (1e) In each of the three scans at the slit intensity set in this way, the output processing circuit 62 The center of gravity ip is calculated by performing a predetermined operation on the output, and the center of gravity ip corresponding to any one of the scans for each pixel is made valid as a measurement result according to the maximum value Xmax.

【0041】図11はセンサ53の読出し範囲を示す図
である。センサ53における1フレームの読出しは、撮
像面S2の全体ではなく、高速化を図るために撮像面S
2の一部である有効受光領域(帯状画像)Aeのみを対
象に行われる。有効受光領域Aeは、ある照射タイミン
グにおける計測可能距離範囲に対応する撮像面S2上の
領域であり、スリット光Uの偏向に伴ってフレーム毎に
1画素分ずつシフトする。本実施形態では、有効受光領
域Aeのシフト方向の画素数は32に固定されている。
なお、CCDエリアセンサの撮影像の一部のみを読み出
す手法は、特開平7−174536号公報に開示されて
いる。
FIG. 11 is a diagram showing a reading range of the sensor 53. The reading of one frame by the sensor 53 is not performed on the entire imaging surface S2, but is performed on the imaging surface S2 for speeding up.
2 is performed only for the effective light receiving area (band-shaped image) Ae which is a part of the area 2. The effective light receiving area Ae is an area on the imaging surface S2 corresponding to the measurable distance range at a certain irradiation timing, and shifts by one pixel for each frame with the deflection of the slit light U. In the present embodiment, the number of pixels of the effective light receiving area Ae in the shift direction is fixed to 32.
A method of reading out only a part of the captured image of the CCD area sensor is disclosed in Japanese Patent Application Laid-Open No. 7-174536.

【0042】図12はセンサ53の撮像面S2における
ラインとフレームとの関係を示す図、図13は各フレー
ムの受光データの記憶状態を示す図である。図12のよ
うに、撮像面S2の最初のフレームであるフレーム1に
は、ライン1からライン32までの32(ライン)×2
00画素分の受光データが含まれる。フレーム2はライ
ン2からライン33まで、フレーム3はライン3からラ
イン34までというように、フレーム毎に1ライン分だ
けシフトされる。フレーム32はライン32からライン
63までである。なお、上述したように1ラインを20
0画素としている。
FIG. 12 is a diagram showing a relationship between a line and a frame on the imaging surface S2 of the sensor 53, and FIG. 13 is a diagram showing a storage state of received light data of each frame. As shown in FIG. 12, the frame 1 which is the first frame of the imaging surface S2 includes 32 (lines) × 2 from line 1 to line 32.
The received light data for 00 pixels is included. Frame 2 is shifted by one line per frame, such as from line 2 to line 33, frame 3 from line 3 to line 34, and so on. Frame 32 is from line 32 to line 63. In addition, as described above, one line is
0 pixels.

【0043】これらフレーム1からフレーム32までの
受光情報が順にA/D変換されてメモリ624に記憶さ
れる(図4参照)。図13のようにメモリ624にはフ
レーム1、2、3〜の順に受光データが記憶され、各フ
レームに含まれるライン32のデータは、フレーム1に
ついては32ライン目、フレーム2については31ライ
ン目というようにフレーム毎に1ラインづつ上方にシフ
トされている。フレーム1からフレーム32までの受光
データがメモリ624に記憶されることによりライン3
2の各画素についてのサンプリングが終了する。サンプ
リングの終了した各画素の受光データは重心演算を行う
ためにメモリ624から順次読み出される。
The light receiving information from frame 1 to frame 32 is sequentially A / D converted and stored in the memory 624 (see FIG. 4). As shown in FIG. 13, light reception data is stored in the memory 624 in the order of frames 1, 2, 3 and so on. The data of the line 32 included in each frame is the 32nd line of the frame 1 and the 31st line of the frame 2 Thus, the image is shifted upward by one line for each frame. The received light data from frame 1 to frame 32 is stored in the memory 624, so that the line 3
Sampling for each of the pixels 2 ends. The light receiving data of each pixel for which sampling has been completed is sequentially read from the memory 624 in order to perform the center of gravity calculation.

【0044】図14は重心ipの概念を示す図である。
重心ipは、32回のサンプリングによって得られた3
2個の受光データの分布の時間軸上の重心である。各画
素についての32個の受光データに、1〜32のサンプ
リング番号を付す。i番の受光データはXiで表され
る。iは1〜32の整数である。このとき、iは、1つ
の画素について、その画素が有効受光領域Aeに入って
からのフレーム数を示している。
FIG. 14 is a diagram showing the concept of the center of gravity ip.
The center of gravity ip is 3 obtained by 32 samplings.
This is the center of gravity of the distribution of the two received light data on the time axis. Sampling numbers 1 to 32 are assigned to 32 pieces of received light data for each pixel. The i-th light reception data is represented by Xi. i is an integer of 1 to 32. At this time, i indicates the number of frames for one pixel after the pixel enters the effective light receiving area Ae.

【0045】1〜32番の受光データX1〜X32につ
いての重心ipは、32個の受光データについて、i・
Xiの総和Σi・XiをXiの総和ΣXiで除すことに
より求められる。すなわち、
The center of gravity ip of the 1st to 32nd light receiving data X1 to X32 is calculated by calculating the value of i ·
It is obtained by dividing the sum Σi · Xi of Xi by the sum ΣXi of Xi. That is,

【0046】[0046]

【数1】 (Equation 1)

【0047】となる。重心演算回路627はこの(2)
式の演算を行う。重心演算処理において重心ip付近の
サンプリングデータが飽和レベル又は黒レベルであると
演算処理が不正確もしくは不可能となり、対象物体の位
置算出の精度が下がってしまう。そこで、本例の3次元
カメラ2は、全ての画素に対する重心演算を正確に行え
るようするため、異なるスリット光強度で複数回の走査
を行い、各画素毎に各走査のうちでサンプリングデータ
が飽和レベルにも黒レベルにもならない走査のデータを
選択するように構成されている。
Is as follows. The center-of-gravity calculation circuit 627 calculates (2)
Performs a formula operation. In the center-of-gravity calculation processing, if the sampling data near the center of gravity ip is at the saturation level or the black level, the calculation processing is inaccurate or impossible, and the accuracy of calculating the position of the target object decreases. Therefore, the three-dimensional camera 2 of this example performs multiple scans with different slit light intensities in order to accurately calculate the center of gravity of all pixels, and the sampling data is saturated in each scan for each pixel. The scanning data which does not reach the level or the black level is selected.

【0048】図15は受光データの最大値Xmaxと閾
値XL,XHとの関係の代表例を示す図である。閾値X
L,XHは、センサ53の動作特性における飽和レベル
Xt以下で且つ黒レベルXu以上の値に設定されてい
る。
FIG. 15 is a diagram showing a typical example of the relationship between the maximum value Xmax of the received light data and the threshold values XL and XH. Threshold X
L and XH are set to values equal to or lower than the saturation level Xt and equal to or higher than the black level Xu in the operation characteristics of the sensor 53.

【0049】図15(a)は各画素についてサンプリン
グされた受光データのうちで最大値Xmaxが後述の
(3)式を満足した場合で、この場合には出力用メモリ
628への重心ipの書込みが許可される。
FIG. 15A shows a case where the maximum value Xmax of the light receiving data sampled for each pixel satisfies the following expression (3). In this case, the writing of the center of gravity ip into the output memory 628 is performed. Is allowed.

【0050】図15(b)は最大値Xmaxが閾値XH
(許容上限)を越えた場合であって、受光データが飽和
している。この場合は重心演算が正確でないおそれがあ
るので、出力用メモリ628への重心ipの書込みが禁
止される。
FIG. 15B shows that the maximum value Xmax is equal to the threshold value XH.
(Allowable upper limit), and the received light data is saturated. In this case, since the calculation of the center of gravity may not be accurate, writing of the center of gravity ip to the output memory 628 is prohibited.

【0051】図15(c)は最大値Xmaxが閾値XL
(許容下限)を下回った場合であって、受光データが黒
レベルに近づき、背景光や回路中のノイズの影響が大き
く、なおかつ受光データの分布の幅が狭くなっている。
この場合にも重心演算が正確でないおそれがあるので、
出力用メモリ628への重心ipの書込みが禁止され
る。
FIG. 15C shows that the maximum value Xmax is equal to the threshold value XL.
In this case, the light reception data approaches the black level, the influence of background light and noise in the circuit is large, and the distribution of the light reception data is narrow.
Also in this case, the calculation of the center of gravity may not be accurate.
Writing of the center of gravity ip to the output memory 628 is prohibited.

【0052】図5で説明した比較部6263は、入力さ
れる最大値Xmaxが(3)式の条件を満足するか否か
の比較演算を行い、制御信号CS1を出力する。 XL<Xmax<XH …(3) 制御信号CS1は、各画素について最大値Xmaxが
(3)式を満足する場合は出力メモリ628への重心i
pの書込みを許可し、満足しない場合は書込みを禁止す
る。なお、出力メモリ628はセンサ53の全画素の重
心を保持する容量を有している。
The comparing section 6263 described with reference to FIG. 5 performs a comparison operation to determine whether or not the input maximum value Xmax satisfies the condition of equation (3), and outputs a control signal CS1. XL <Xmax <XH (3) When the maximum value Xmax for each pixel satisfies the expression (3), the control signal CS1 indicates the center of gravity i to the output memory 628.
The writing of p is permitted, and if not satisfied, the writing is prohibited. Note that the output memory 628 has a capacity to hold the center of gravity of all the pixels of the sensor 53.

【0053】図16は出力メモリ制御のフローチャート
である。本計測の第1走査が開始されると(#30)、
出力メモリコントローラ629において制御信号CS1
が制御信号CS2によってマスクされ(#31)、全画
素の重心ipの出力メモリ628への書込みが許可され
る(#32)。全画素の重心ipを出力メモリ628に
書き込む第1走査が終了すると(#33、#34)、出
力メモリ628の書込みが禁止され(#35)、制御信
号CS1のマスクが解除される(#36)。第2走査に
おいては、最大値Xmaxと閾値XL,XHとの比較が
行われ、その結果に応じて出力メモリ628の書込みが
許可され又は禁止される(#37〜#40)。書込みが
許可された場合、出力メモリ628には第2走査で得ら
れた重心ipが上書きされる。第3走査においても第2
走査と同様に最大値Xmaxに応じて重心ipの上書き
の制御が行われる。
FIG. 16 is a flowchart of the output memory control. When the first scan of the main measurement is started (# 30),
In the output memory controller 629, the control signal CS1
Is masked by the control signal CS2 (# 31), and writing of the center of gravity ip of all pixels into the output memory 628 is permitted (# 32). When the first scan for writing the centroid ip of all the pixels into the output memory 628 is completed (# 33, # 34), the writing of the output memory 628 is prohibited (# 35), and the masking of the control signal CS1 is released (# 36). ). In the second scan, the maximum value Xmax is compared with the threshold values XL and XH, and writing to the output memory 628 is permitted or prohibited according to the comparison result (# 37 to # 40). If writing is permitted, the output memory 628 overwrites the center of gravity ip obtained in the second scan. The second in the third scan
As in the case of scanning, overwriting of the center of gravity ip is controlled in accordance with the maximum value Xmax.

【0054】以上のとおり、出力処理回路62にて複数
回の走査毎に演算される各画素の重心ipは、最大値X
maxが(3)式の条件を満たせば走査毎に更新され
る。ここで、仮に全ての走査において条件を満足しない
画素があると、データの欠落が起こってしまう。そこ
で、本実施形態では、データの欠落を防止するために第
1走査において全画素についての重心演算の結果を出力
メモリ628に書き込む。この第1走査におけるスリッ
ト光強度Lsは上述したように予備計測で物体のほぼ中
央の反射率に対して最適化されたスリット光強度Lsで
ある。スリット光強度Lsで第1走査を行うことによ
り、物体の中央の反射率に近い他の部位のデータの欠落
が防止される。
As described above, the barycenter ip of each pixel calculated by the output processing circuit 62 for each of a plurality of scans is the maximum value X
If max satisfies the condition of the expression (3), it is updated every scanning. Here, if there is a pixel that does not satisfy the conditions in all scans, data loss occurs. Therefore, in the present embodiment, the result of the center-of-gravity calculation for all pixels is written to the output memory 628 in the first scan in order to prevent data loss. As described above, the slit light intensity Ls in the first scan is the slit light intensity Ls optimized for the reflectance at almost the center of the object in the preliminary measurement. By performing the first scan with the slit light intensity Ls, loss of data of another part near the center reflectance of the object is prevented.

【0055】なお、例示の3次元カメラ2では本計測に
おいてスリット光強度を切り換えて3回の走査を行う
が、スリット光強度の段階数及び走査回数を増やすこと
により、さらに対象物体の各部位の反射率にスリット光
強度を適合させて重心演算の精度を向上させることがで
きる。 〔第2実施形態〕図17は本発明に係る第2の3次元カ
メラ2bの機能構成を示すブロック図である。同図にお
いて図3に対応する要素には図3の符号に「b」を添え
た符号を付してある。
In the illustrated three-dimensional camera 2, three scans are performed by switching the slit light intensity in the main measurement. However, by increasing the number of steps and the number of scans of the slit light intensity, each part of the target object can be further scanned. By adapting the slit light intensity to the reflectance, the accuracy of the center of gravity calculation can be improved. [Second Embodiment] FIG. 17 is a block diagram showing a functional configuration of a second three-dimensional camera 2b according to the present invention. 3, the elements corresponding to those in FIG. 3 are denoted by the reference numerals in FIG. 3 with "b" added.

【0056】3次元カメラ2bの外観、内部の基本構
成、及び使用方法は上述の3次元カメラ2と同様である
(図1〜3参照)。したがって、図17の説明を簡略に
する。光学系40bは光源として半導体レーザ41bを
有し、計測対象の物体を走査するようにスリット光Uを
射出する。光学系50bは、計測用のセンサ53b及び
モニタ用のカラーセンサ54bを有し、物体像を結像し
て電気信号に変換する。光学系40bを動作させる駆動
系140、及び光学系50bを動作させる駆動系150
はシステムコントローラ61bによって制御される。
The three-dimensional camera 2b has the same external appearance, basic internal structure and usage as the three-dimensional camera 2 described above (see FIGS. 1 to 3). Therefore, the description of FIG. 17 is simplified. The optical system 40b has a semiconductor laser 41b as a light source, and emits slit light U so as to scan an object to be measured. The optical system 50b has a sensor 53b for measurement and a color sensor 54b for monitoring, and forms an object image and converts it into an electric signal. A drive system 140 for operating the optical system 40b and a drive system 150 for operating the optical system 50b
Is controlled by the system controller 61b.

【0057】センサ53bで得られた光電変換信号S5
3bは出力処理回路62bへ送られる。出力処理回路6
2bは、表示用メモリ74bに距離画像を出力し、SC
SIコントローラ66bへ3次元位置の算出の基になる
データを出力する。距離画像は液晶ディスプレイ21b
によって表示される。カラーセンサ54bで得られた光
電変換信号はカラーデータ処理系160に入力される。
カラーデータ処理系160は、アナログ画像信号を端子
32bに出力し、ディジタル画像データをSCSIコン
トローラ66bへ送る。SCSIコントローラ66b
は、端子33bを介して行う外部機器とのデータ通信の
制御、及び記録メディア4bのアクセスを担う。
The photoelectric conversion signal S5 obtained by the sensor 53b
3b is sent to the output processing circuit 62b. Output processing circuit 6
2b outputs the distance image to the display memory 74b,
The data that is the basis for calculating the three-dimensional position is output to the SI controller 66b. The distance image is the liquid crystal display 21b
Displayed by The photoelectric conversion signal obtained by the color sensor 54b is input to the color data processing system 160.
The color data processing system 160 outputs an analog image signal to the terminal 32b, and sends digital image data to the SCSI controller 66b. SCSI controller 66b
Is responsible for controlling data communication with an external device via the terminal 33b and for accessing the recording medium 4b.

【0058】3次元カメラ2bの特徴は以下のとおり出
力処理回路62bの構成と動作にある。図18は図17
の3次元カメラ2bが行う本計測のフローチャートであ
る。
The feature of the three-dimensional camera 2b lies in the configuration and operation of the output processing circuit 62b as described below. FIG. 18 shows FIG.
9 is a flowchart of the main measurement performed by the three-dimensional camera 2b.

【0059】3次元カメラ2bも3次元カメラ2と同じ
手順の予備計測を行い、予備計測の結果を反映させた本
計測を行う。予備計測から本計測に移ると、システムコ
ントローラ61bは駆動系140に対して偏向条件を与
えるとともに、半導体レーザ41bの出力条件としてス
リット光強度Lsを与える(#51)。偏向条件の走査
開始角を満足するように走査が開始され(#52)、走
査終了角を満足するまで走査が行われる(#53)。走
査中に逐次にセンサ53bから出力される光電変換信号
に対して、出力処理回路62bによる信号処理が行われ
る。
The three-dimensional camera 2b also performs the preliminary measurement in the same procedure as the three-dimensional camera 2, and performs the main measurement reflecting the result of the preliminary measurement. When shifting from the preliminary measurement to the main measurement, the system controller 61b gives a deflection condition to the drive system 140 and also gives a slit light intensity Ls as an output condition of the semiconductor laser 41b (# 51). Scanning is started so as to satisfy the scanning start angle of the deflection condition (# 52), and scanning is performed until the scanning end angle is satisfied (# 53). The signal processing by the output processing circuit 62b is performed on the photoelectric conversion signal sequentially output from the sensor 53b during scanning.

【0060】図19は図17の出力処理回路62bのブ
ロック図である。センサ53から入力された各画素の光
電変換信号S53bはS/H回路630によってサンプ
リングホールドされ、3個の増幅部631、632、6
33において互いに異なる増幅率A1、A2、A3で増
幅される。増幅率A1、A2、A3の関係は次式で表さ
れる。
FIG. 19 is a block diagram of the output processing circuit 62b of FIG. The photoelectric conversion signal S53b of each pixel input from the sensor 53 is sampled and held by the S / H circuit 630, and the three amplifying units 631, 632, 6
At 33, the signals are amplified at different amplification factors A1, A2, A3. The relationship between the amplification factors A1, A2, and A3 is represented by the following equation.

【0061】 A1×b1=A2 (b1>1.0) A1×b2=A3 (b2<1.0) A3<A1<A2 増幅部631の出力はA/D変換器634で量子化さ
れ、受光データXi1としてメモリ638に転送され
る。メモリ638の利用形態は図12と同じであり、受
光データXi1はメモリコントローラ637が指定する
アドレスに書き込まれる。同様に、増幅部632の出力
はA/D変換器635を経て受光データXi2としてメ
モリ639に書き込まれ、増幅部633の出力はA/D
変換器636を経て受光データXi3としてメモリ64
0に書き込まれる。受光データXi1,Xi2,Xi3
はいずれも8ビットである。
A1 × b1 = A2 (b1> 1.0) A1 × b2 = A3 (b2 <1.0) A3 <A1 <A2 The output of the amplifier 631 is quantized by the A / D converter 634 and received. The data Xi1 is transferred to the memory 638. The use form of the memory 638 is the same as that of FIG. Similarly, the output of the amplification unit 632 is written to the memory 639 as light reception data Xi2 via the A / D converter 635, and the output of the amplification unit 633 is A / D
Through the converter 636, the memory 64 is provided as the received light data Xi3.
Written to 0. Light reception data Xi1, Xi2, Xi3
Are each 8 bits.

【0062】32フレーム分の書込みが完了した画素に
ついて、各メモリ638〜640から受光データXi
1,Xi2,Xi3が読み出される。これら受光データ
Xi1,Xi2,Xi3のいずれかがセレクタ641,
642によって選択され、重心演算回路644へ送られ
る。セレクタ641,642には最大値判定回路643
からセレクト信号SL1,SL2が与えられる。
For the pixels for which writing for 32 frames has been completed, the received light data Xi is read from each of the memories 638 to 640.
1, Xi2 and Xi3 are read. Any of the light reception data Xi1, Xi2, and Xi3 is used as the selector 641,
642, and is sent to the center-of-gravity calculation circuit 644. Selectors 641 and 642 include a maximum value determination circuit 643
Receive select signals SL1 and SL2.

【0063】図20は図19の最大値判定回路643の
ブロック図、図21は1個の画素に対応した32個の受
光データの最大値Xmax2と閾値XLb,XHbとの
関係の一例を示す図である。
FIG. 20 is a block diagram of the maximum value judging circuit 643 of FIG. 19, and FIG. 21 is a diagram showing an example of the relationship between the maximum value Xmax2 of 32 pieces of received light data corresponding to one pixel and the threshold values XLb and XHb. It is.

【0064】最大値判定回路643は、最大値検出部6
431、閾値記憶部6432、及び2個の比較部643
3,6434から構成されている。最大値検出部643
1にはメモリ638から受光データXi1が入力され
る。最大値検出部6431は、各画素の受光データXi
1(本実施例では32個)の最大値Xmax2を検出す
る。閾値記憶部6432は、閾値XLb,XHbを比較
部6433に与え、閾値XLbを比較部6434に与え
る。比較部6433は、最大値Xmax2と閾値XL
b,XHbとの大小関係に応じたセレクト信号SL1を
出力する。比較部6434は、最大値Xmax2と閾値
XLbとの大小関係に応じたセレクト信号SL2を出力
する。
The maximum value judging circuit 643 includes a maximum value detecting section 6
431, a threshold storage unit 6432, and two comparison units 643
3,6434. Maximum value detector 643
1, the light receiving data Xi1 is input from the memory 638. The maximum value detection unit 6431 detects the light reception data Xi of each pixel.
The maximum value Xmax2 of 1 (32 in this embodiment) is detected. The threshold value storage unit 6432 provides the threshold values XLb and XHb to the comparison unit 6433, and supplies the threshold value XLb to the comparison unit 6434. The comparing unit 6433 calculates the maximum value Xmax2 and the threshold XL
b, XHb, and outputs a select signal SL1 corresponding to the magnitude relationship. The comparing unit 6434 outputs the select signal SL2 according to the magnitude relation between the maximum value Xmax2 and the threshold value XLb.

【0065】図20のように閾値XLb,XHbは、セ
ンサ53bの特性で決まる飽和レベルXtb以下で且つ
黒レベルXub以上に設定されている。最大値Xmax
2が(XLb<Xmax2<XHb)の条件を満たすと
き、セレクト信号SL1がアクティブとなり、セレクタ
641はメモリ638からの受光データXi1を選択す
る。すなわち、増幅率A1の受光データXi1が重心演
算に用いられる(図18参照)。条件を満たさないとき
は、セレクタ641はセレクタ642からの受光データ
(Xi2又はXi3)を選択する。また、最大値Xma
x2が(XLb≧Xmax2)の条件を満たすとき、セ
レクト信号SL2がアクティブとなり、セレクタ642
はメモリ639からの受光データXi2を選択してセレ
クタ641へ送る。条件を満たさないときは、セレクタ
642はメモリ640からの受光データXi3を選択す
る。なお、1つの画素に注目するとXi3<Xi1<X
i2の関係が成り立つ。
As shown in FIG. 20, the threshold values XLb and XHb are set to be equal to or less than the saturation level Xtb determined by the characteristics of the sensor 53b and equal to or more than the black level Xub. Maximum value Xmax
When 2 satisfies the condition of (XLb <Xmax2 <XHb), the select signal SL1 becomes active, and the selector 641 selects the light receiving data Xi1 from the memory 638. That is, the light reception data Xi1 of the amplification factor A1 is used for the gravity center calculation (see FIG. 18). When the condition is not satisfied, the selector 641 selects the light receiving data (Xi2 or Xi3) from the selector 642. Also, the maximum value Xma
When x2 satisfies the condition of (XLb ≧ Xmax2), the select signal SL2 becomes active and the selector 642
Selects the light reception data Xi2 from the memory 639 and sends it to the selector 641. When the condition is not satisfied, the selector 642 selects the light receiving data Xi3 from the memory 640. Note that when focusing on one pixel, Xi3 <Xi1 <X
The relationship of i2 holds.

【0066】このような処理により、各画素について、
センサ出力の適切な増幅で得られた飽和レベルでも黒レ
ベルでもない受光データを用いて正確な重心演算を行う
ことができる。
By such processing, for each pixel,
Accurate center-of-gravity calculations can be performed using light reception data that is neither the saturation level nor the black level obtained by appropriate amplification of the sensor output.

【0067】以上の第1及び第2の実施形態において
は、3次元カメラ2,2bが重心演算を行って重心ip
をホスト3に送るシステム構成であったが、各画素につ
いてのデータΣi・X,ΣXiを計測結果として3次元
カメラ2、2bがホスト3へ送り、ホストが重心演算を
行う構成を採用してもよい。各画素(サンプリングポイ
ント)について、必ずしも画素単位で最適なスリット光
強度、又は増幅率の受光データを選択する必要はなく、
複数画素単位にて最適な受光データを選択して重心演算
を行ってもよい。また、異なるスリット光強度にて被数
回の走査を行い、それぞれの走査において得られる光電
変換信号を異なる増幅率で処理することで、受光の実質
のダイナミックレンジを拡げてもよい。
In the first and second embodiments described above, the three-dimensional cameras 2 and 2b calculate the center of gravity and
Is sent to the host 3, but the data 3i × X and ΣXi for each pixel are sent to the host 3 as measurement results by the three-dimensional cameras 2 and 2b, and the host performs the center of gravity calculation. Good. For each pixel (sampling point), it is not always necessary to select the optimal slit light intensity or the light receiving data of the amplification factor for each pixel.
The center of gravity may be calculated by selecting the optimal light receiving data in units of a plurality of pixels. In addition, the scan may be performed several times with different slit light intensities, and the photoelectric conversion signals obtained in each scan may be processed with different amplification factors, thereby expanding the substantial dynamic range of light reception.

【0068】[0068]

【発明の効果】請求項1又は請求項2の発明によれば、
物体の反射率が部位によって大きく異なる場合でも、複
数回の動作指示を行わなくでも、反射率が均一である場
合と同様の精度の3次元データを入力することができ
る。
According to the first or second aspect of the present invention,
Even when the reflectivity of the object greatly differs depending on the part, it is possible to input three-dimensional data with the same accuracy as in the case where the reflectivity is uniform, without performing a plurality of operation instructions.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る計測システムの構成図である。FIG. 1 is a configuration diagram of a measurement system according to the present invention.

【図2】3次元カメラの外観を示す図である。FIG. 2 is a diagram illustrating an appearance of a three-dimensional camera.

【図3】3次元カメラの機能構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a functional configuration of a three-dimensional camera.

【図4】出力処理回路のブロック図である。FIG. 4 is a block diagram of an output processing circuit.

【図5】最大値判定回路のブロック図である。FIG. 5 is a block diagram of a maximum value determination circuit.

【図6】計測システムにおける3次元位置の算出の原理
図である。
FIG. 6 is a principle diagram of calculation of a three-dimensional position in the measurement system.

【図7】予備計測におけるスリット光強度の算定要領を
説明するための図である。
FIG. 7 is a diagram for explaining a calculation procedure of slit light intensity in preliminary measurement.

【図8】本計測の動作のフローチャートである。FIG. 8 is a flowchart of a main measurement operation.

【図9】本計測に適用するスリット光強度の算出のフロ
ーチャートである。
FIG. 9 is a flowchart of calculation of the slit light intensity applied to the main measurement.

【図10】スリット光強度の設定の模式図である。FIG. 10 is a schematic diagram of setting a slit light intensity.

【図11】センサの読出し範囲を示す図である。FIG. 11 is a diagram showing a reading range of a sensor.

【図12】センサの撮像面におけるラインとフレームと
の関係を示す図である。
FIG. 12 is a diagram illustrating a relationship between a line and a frame on an imaging surface of a sensor.

【図13】各フレームの受光データの記憶状態を示す図
である。
FIG. 13 is a diagram showing a storage state of received light data of each frame.

【図14】重心の概念を示す図である。FIG. 14 is a diagram illustrating a concept of a center of gravity.

【図15】受光データの最大値と閾値との関係の代表例
を示す図である。
FIG. 15 is a diagram illustrating a representative example of a relationship between a maximum value of light reception data and a threshold.

【図16】出力メモリ制御のフローチャートである。FIG. 16 is a flowchart of output memory control.

【図17】本発明に係る第2の3次元カメラの機能構成
を示すブロック図である。
FIG. 17 is a block diagram showing a functional configuration of a second three-dimensional camera according to the present invention.

【図18】図17の3次元カメラが行う本計測のフロー
チャートである。
18 is a flowchart of the main measurement performed by the three-dimensional camera in FIG.

【図19】図17の出力処理回路のブロック図である。FIG. 19 is a block diagram of the output processing circuit of FIG. 17;

【図20】図19の最大値判定回路のブロック図であ
る。
20 is a block diagram of the maximum value determination circuit of FIG.

【図21】1個の画素に対応した32個の受光データの
最大値と閾値との関係の一例を示す図である。
FIG. 21 is a diagram illustrating an example of a relationship between a maximum value of 32 pieces of light reception data corresponding to one pixel and a threshold.

【符号の説明】[Explanation of symbols]

2,2b 3次元カメラ(3次元入力装置) 40,40b 光学系(投光手段) Q 物体 U スリット光(検出光) 50,50b 光学系(撮像手段) 27 シャッタボタン L1〜3 スリット光強度 A1〜3 増幅率 Xi1〜3 受光データ 62b 出力処理回路(信号処理手段) 2, 2b Three-dimensional camera (three-dimensional input device) 40, 40b Optical system (light projecting means) Q Object U Slit light (detection light) 50, 50b Optical system (imaging means) 27 Shutter button L1-3 Slit light intensity A1 -3 Gain Xi1-3 Light reception data 62b Output processing circuit (signal processing means)

───────────────────────────────────────────────────── フロントページの続き (72)発明者 宮崎 誠 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 糊田 寿夫 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA03 AA04 AA17 AA45 DD09 FF02 FF04 FF09 GG06 HH05 JJ03 JJ16 JJ26 LL06 LL13 LL28 LL37 QQ03 QQ08 QQ24 QQ25 QQ29 SS02 SS13  ──────────────────────────────────────────────────続 き Continued on the front page (72) Inventor Makoto Miyazaki 2-3-13 Azuchicho, Chuo-ku, Osaka-shi, Osaka Inside Osaka International Building Minolta Co., Ltd. (72) Inventor Toshio Kaida Azuchi, Chuo-ku, Osaka-shi, Osaka 2-3-1, Machi, Osaka International Building Minolta Co., Ltd. F-term (reference) 2F065 AA03 AA04 AA17 AA45 DD09 FF02 FF04 FF09 GG06 HH05 JJ03 JJ16 JJ26 LL06 LL13 LL28 LL37 QQ03 QQ08 QQ24 QQ25 QQ29 SS02 SS

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】検出光を投射する投光手段と、物体で反射
した前記検出光を受光して電気信号に変換する撮像手段
とを有し、前記検出光の投射方向を変化させて周期的に
前記物体を撮像する走査を行う3次元入力装置であっ
て、 動作開始の指示に呼応して、複数回の走査を各回毎に異
なる強度の前記検出光を投射して連続的に行うことを特
徴とする3次元入力装置。
A light source for projecting the detection light; and an imaging means for receiving the detection light reflected by an object and converting the light into an electric signal. A three-dimensional input device for performing a scan for imaging the object, wherein in response to an operation start instruction, a plurality of scans are continuously performed by projecting the detection light of different intensity each time. Characteristic three-dimensional input device.
【請求項2】検出光を投射する投光手段と、物体で反射
した前記検出光を受光して電気信号に変換する撮像手段
とを有し、前記検出光の投射方向を変化させて周期的に
前記物体を撮像する走査を行う3次元入力装置であっ
て、 互いに異なる増幅率で前記電気信号を増幅し、撮像の各
画素に対応した複数の受光データを生成する信号処理手
段を有したことを特徴とする3次元入力装置。
2. An image forming apparatus comprising: a light projecting means for projecting a detection light; and an image pickup means for receiving the detection light reflected by an object and converting the light into an electric signal. A three-dimensional input device for performing a scan for imaging the object, comprising signal processing means for amplifying the electric signal with different amplification factors and generating a plurality of light reception data corresponding to each pixel of the imaging. A three-dimensional input device characterized by the above-mentioned.
JP17120698A 1998-06-18 1998-06-18 Three-dimensional input apparatus Pending JP2000002520A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP17120698A JP2000002520A (en) 1998-06-18 1998-06-18 Three-dimensional input apparatus
US09/334,918 US6424422B1 (en) 1998-06-18 1999-06-17 Three-dimensional input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17120698A JP2000002520A (en) 1998-06-18 1998-06-18 Three-dimensional input apparatus

Publications (1)

Publication Number Publication Date
JP2000002520A true JP2000002520A (en) 2000-01-07

Family

ID=15919005

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17120698A Pending JP2000002520A (en) 1998-06-18 1998-06-18 Three-dimensional input apparatus

Country Status (1)

Country Link
JP (1) JP2000002520A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007127431A (en) * 2005-11-01 2007-05-24 Fuji Xerox Co Ltd Method and apparatus for detecting end position
JP2009192332A (en) * 2008-02-13 2009-08-27 Konica Minolta Sensing Inc Three-dimensional processor and method for controlling display of three-dimensional data in the three-dimensional processor
US7643159B2 (en) 2006-07-25 2010-01-05 Konica Minolta Sensing, Inc. Three-dimensional shape measuring system, and three-dimensional shape measuring method
JP2020512536A (en) * 2017-03-26 2020-04-23 コグネックス・コーポレイション System and method for 3D profile determination using model-based peak selection

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007127431A (en) * 2005-11-01 2007-05-24 Fuji Xerox Co Ltd Method and apparatus for detecting end position
US7643159B2 (en) 2006-07-25 2010-01-05 Konica Minolta Sensing, Inc. Three-dimensional shape measuring system, and three-dimensional shape measuring method
JP2009192332A (en) * 2008-02-13 2009-08-27 Konica Minolta Sensing Inc Three-dimensional processor and method for controlling display of three-dimensional data in the three-dimensional processor
JP2020512536A (en) * 2017-03-26 2020-04-23 コグネックス・コーポレイション System and method for 3D profile determination using model-based peak selection
US11415408B2 (en) 2017-03-26 2022-08-16 Cognex Corporation System and method for 3D profile determination using model-based peak selection
JP7127046B2 (en) 2017-03-26 2022-08-29 コグネックス・コーポレイション System and method for 3D profile determination using model-based peak selection

Similar Documents

Publication Publication Date Title
JP4111592B2 (en) 3D input device
US6141105A (en) Three-dimensional measuring device and three-dimensional measuring method
US6049385A (en) Three dimensional measurement system and pickup apparatus
US20050249400A1 (en) Three-dimensional shape input device
JPH10206132A (en) Three-dimensional measuring system
US6233049B1 (en) Three-dimensional measurement apparatus
US6424422B1 (en) Three-dimensional input device
JP3893169B2 (en) 3D measuring device
JP3493403B2 (en) 3D measuring device
JP4186347B2 (en) Three-dimensional input method and apparatus
US6421114B1 (en) Three-dimensional information measuring apparatus
JP3991501B2 (en) 3D input device
JP3235485B2 (en) Spectroscopic device for three-dimensional measurement
JPH10124646A (en) Three-dimensional measuring device
JP2000002520A (en) Three-dimensional input apparatus
JP2002022423A (en) Three-dimensional input device
US7492398B1 (en) Three-dimensional input apparatus and image sensing control method
JPH11271030A (en) Three-dimensional measuring apparatus
JP3360505B2 (en) Three-dimensional measuring method and device
JP3324367B2 (en) 3D input camera
JP2000292121A (en) Three-dimensional measurement method and three- dimensional input device
JP2000275024A (en) Three-dimensional input apparatus
JP3861475B2 (en) 3D input device
JP3733625B2 (en) Imaging device for 3D measurement
JPH09325019A (en) Three-dimensional measuring device

Legal Events

Date Code Title Description
A977 Report on retrieval

Effective date: 20040917

Free format text: JAPANESE INTERMEDIATE CODE: A971007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041102

A02 Decision of refusal

Effective date: 20050315

Free format text: JAPANESE INTERMEDIATE CODE: A02