JP2000028335A - Three-dimensional inputting apparatus - Google Patents

Three-dimensional inputting apparatus

Info

Publication number
JP2000028335A
JP2000028335A JP10191278A JP19127898A JP2000028335A JP 2000028335 A JP2000028335 A JP 2000028335A JP 10191278 A JP10191278 A JP 10191278A JP 19127898 A JP19127898 A JP 19127898A JP 2000028335 A JP2000028335 A JP 2000028335A
Authority
JP
Japan
Prior art keywords
light
dimensional
data
scan
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10191278A
Other languages
Japanese (ja)
Other versions
JP3740848B2 (en
Inventor
Koichi Kanbe
幸一 掃部
Makoto Miyazaki
誠 宮崎
Takuto Joko
琢人 上古
Hideki Tanabe
英樹 田辺
Toshio Norita
寿夫 糊田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP19127898A priority Critical patent/JP3740848B2/en
Priority to US09/334,918 priority patent/US6424422B1/en
Publication of JP2000028335A publication Critical patent/JP2000028335A/en
Application granted granted Critical
Publication of JP3740848B2 publication Critical patent/JP3740848B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To input three-dimensional data of resolution of the same degree as that of the case that a depth size is small even in the case of an object having a large depth size by continuously scanning plural times a detecting light at different projecting angle ranges. SOLUTION: A measuring system 1 has a three-dimensional camera 2 for stereoscopically measuring by a slit light projecting method, and a host system 3 for processing output data of the camera 2. The camera 2 outputs a two-dimensional image indicating color information of an object Q and data necessary for its calibration together with measured data for specifying three-dimensional positions of a plurality of sampling points on the object Q. A detecting light (slit light) is projected, a detected light reflected on the object Q is receiver, and converted into an electric signal. In this case, a plurality of operations having different projecting angle ranges of the detected light are continuously conducted in response to a designation of starting the operation. The designation of starting the operation is conducted by an operation of a switch or a button or a control signal from an exterior.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、物体に検出光を投
射して物体を走査し、物体形状を特定するデータを出力
する3次元入力装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional input device for projecting detection light onto an object, scanning the object, and outputting data for specifying the shape of the object.

【0002】[0002]

【従来の技術】レンジファインダと呼称される非接触型
の3次元入力装置は、接触型に比べて高速の計測が可能
であることから、CGシステムやCADシステムへのデ
ータ入力、身体計測、ロボットの視覚認識などに利用さ
れている。
2. Description of the Related Art A non-contact type three-dimensional input device called a range finder can perform higher-speed measurement than a contact type, and therefore can input data to a CG system or a CAD system, measure a body, and use a robot. It is used for visual recognition.

【0003】レンジファインダに好適な計測方法として
スリット光投影法(光切断法ともいう)が知られてい
る。この方法は、物体を光学的に走査して距離画像(3
次元画像)を得る方法であり、特定の検出光を照射して
物体を撮影する能動的計測方法の一種である。距離画像
は、物体上の複数の部位の3次元位置を示す画素の集合
である。スリット光投影法では、検出光として投射ビー
ムの断面が直線帯状であるスリット光が用いられる。走
査中のある時点では物体の一部が照射され、その部分の
位置は投射方向と受光面における高輝度位置(つまり受
光方向)とから三角測量の手法で算出することができ
る。したがって、受光面の各画素の輝度をサンプリング
することにより、物体形状を特定する一群のデータを得
ることができる。
[0003] As a measurement method suitable for a range finder, a slit light projection method (also called a light cutting method) is known. In this method, an object is optically scanned and a distance image (3
(A two-dimensional image), and is a type of active measurement method for capturing an object by irradiating specific detection light. The distance image is a set of pixels indicating three-dimensional positions of a plurality of parts on the object. In the slit light projection method, a slit light in which a cross section of a projection beam is a straight band is used as detection light. At a certain point during the scanning, a part of the object is irradiated, and the position of the part can be calculated by a triangulation method from the projection direction and the high luminance position (that is, the light receiving direction) on the light receiving surface. Therefore, a group of data specifying the shape of the object can be obtained by sampling the brightness of each pixel on the light receiving surface.

【0004】レンジファインダの中には対物間距離を測
定して検出光の投射角度範囲を調整するものがある。す
なわち、撮像倍率と対物間距離とに応じて受光面に写る
物体の全体が走査範囲となるように投射の開始及び終了
の角度位置を設定する動作制御が行われている。また、
受光面の輝度のサンプリングにおいて、1回のサンプリ
ングの対象を受光面全体ではなく検出光が入射すると予
想される一部の領域に限定し、その領域をサンプリング
毎にシフトさせる手法が知られている。これによれば、
サンプリングの1回当たりの所要時間を短縮して走査を
高速化することができ、データ量を削減して信号処理系
の負担を軽減することができる。
Some range finders adjust the projection angle range of the detection light by measuring the distance between the objects. That is, operation control is performed to set the start and end angle positions of the projection so that the entire object reflected on the light receiving surface is in the scanning range according to the imaging magnification and the distance between the objects. Also,
In the sampling of the luminance of the light receiving surface, there is known a method in which the target of one sampling is not limited to the entire light receiving surface but to a partial region where the detection light is expected to be incident, and the region is shifted for each sampling. . According to this,
Scanning can be sped up by shortening the time required for one sampling, and the amount of data can be reduced to reduce the load on the signal processing system.

【0005】[0005]

【発明が解決しようとする課題】しかし、従来では、計
測対象の物体が奥行き方向の計測可能範囲からはみ出す
場合があり、その場合には操作者がズーミングやピント
調整をして画角を変えて再計測を行う必要があった。画
角を拡げると奥行き方向の計測可能範囲も拡がるが分解
能は低下してしまう。なお、受光面の一部を1回のサン
プリングの対象とする場合において、その対象領域を拡
げれば計測可能範囲は拡がる。しかし、走査速度を低下
させなければならず、データ処理の負担が増大する。
However, in the prior art, the object to be measured sometimes protrudes from the measurable range in the depth direction. In such a case, the operator changes the angle of view by performing zooming or focus adjustment. It was necessary to re-measure. When the angle of view is increased, the measurable range in the depth direction is also increased, but the resolution is reduced. In the case where a part of the light receiving surface is subjected to one sampling, if the target area is expanded, the measurable range is expanded. However, the scanning speed must be reduced, and the burden of data processing increases.

【0006】本発明は、物体の奥行き寸法が大きい場合
でも、奥行き寸法が小さい場合と同程度の分解能の3次
元データを物体全体について入力できるようにすること
を目的としている。
SUMMARY OF THE INVENTION It is an object of the present invention to enable input of three-dimensional data having the same resolution as the case where the depth dimension is small, even when the depth dimension of the object is large.

【0007】[0007]

【課題を解決するための手段】本発明においては、検出
光の投射角度範囲を自動的に変更して複数回の走査を行
うようにする。これにより、ある回の走査では有効な受
光情報が得られない物体上の部位についても、他の走査
では適切な受光情報が得られる。つまり、奥行き方向の
受光可能範囲は各回の走査における受光可能範囲を合わ
せたものとなり、原理的には走査回数倍に拡がる。
According to the present invention, a plurality of scans are performed by automatically changing the projection angle range of the detection light. As a result, even for a part on an object for which effective light reception information cannot be obtained in one scan, appropriate light reception information can be obtained in another scan. In other words, the receivable range in the depth direction is the sum of the receivable ranges in each scan, and is in principle expanded to twice the number of scans.

【0008】請求項1の発明の装置は、検出光を投射す
る投光手段と、物体で反射した前記検出光を受光して電
気信号に変換する撮像手段とを有し、前記検出光の投射
方向を変化させて周期的に前記物体を撮像する走査を行
う3次元入力装置であって、動作開始の指示に呼応し
て、前記検出光の投射角度範囲が互いに異なる複数回の
走査を連続的に行うものである。動作開始の指示はスイ
ッチやボタンの操作又は外部からの制御信号により行わ
れる。
According to a first aspect of the present invention, there is provided an apparatus comprising: a light projecting means for projecting a detection light; and an imaging means for receiving the detection light reflected by an object and converting the detection light into an electric signal. What is claimed is: 1. A three-dimensional input device which performs scanning for periodically imaging an object by changing a direction, and continuously performs a plurality of scans having different projection angle ranges of the detection light in response to an operation start instruction. What to do. The instruction to start the operation is given by operating a switch or button or by a control signal from the outside.

【0009】[0009]

【発明の実施の形態】図1は本発明に係る計測システム
1の構成図である。計測システム1は、スリット光投影
法によって立体計測を行う3次元カメラ(レンジファイ
ンダ)2と、3次元カメラ2の出力データを処理するホ
スト3とから構成されている。
FIG. 1 is a configuration diagram of a measurement system 1 according to the present invention. The measurement system 1 includes a three-dimensional camera (range finder) 2 that performs three-dimensional measurement by a slit light projection method, and a host 3 that processes output data of the three-dimensional camera 2.

【0010】3次元カメラ2は、物体Q上の複数のサン
プリング点の3次元位置を特定する計測データととも
に、物体Qのカラー情報を示す2次元画像及びキャリブ
レーションに必要なデータを出力する。三角測量法を用
いてサンプリング点の座標を求める演算処理はホスト3
が担う。
The three-dimensional camera 2 outputs two-dimensional images indicating color information of the object Q and data necessary for calibration, together with measurement data for specifying the three-dimensional positions of a plurality of sampling points on the object Q. The calculation processing for obtaining the coordinates of the sampling points using the triangulation method is performed by the host 3.
Is responsible.

【0011】ホスト3は、CPU3a、ディスプレイ3
b、キーボード3c、及びマウス3dなどから構成され
たコンピュータシステムである。CPU3aには計測デ
ータ処理のためのソフトウェアが組み込まれている。ホ
スト3と3次元カメラ2との間では、オンライン及び可
搬型の記録メディア4によるオフラインの両方の形態の
データ受渡しが可能である。記録メディア4としては、
光磁気ディスク(MO)、ミニディスク(MD)、メモ
リカードなどがある。
The host 3 comprises a CPU 3a, a display 3
b, a keyboard 3c, a mouse 3d, and the like. Software for processing measurement data is incorporated in the CPU 3a. Between the host 3 and the three-dimensional camera 2, both online and offline data transfer by the portable recording medium 4 is possible. As the recording medium 4,
There are a magneto-optical disk (MO), a mini disk (MD), and a memory card.

【0012】図2は3次元カメラ2の外観を示す図であ
る。ハウジング20の前面に投光窓20a及び受光窓2
0bが設けられている。投光窓20aは受光窓20bに
対して上側に位置する。内部の光学ユニットOUが射出
するスリット光(所定幅wの帯状のレーザビーム)U
は、投光窓20aを通って計測対象の物体(被写体)に
向かう。スリット光Uの長さ方向M1の放射角度φは固
定である。物体の表面で反射したスリット光Uの一部が
受光窓20bを通って光学ユニットOUに入射する。な
お、光学ユニットOUは、投光軸と受光軸との相対関係
を適正化するための2軸調整機構を備えている。
FIG. 2 is a diagram showing the appearance of the three-dimensional camera 2. A light emitting window 20a and a light receiving window 2
0b is provided. The light projecting window 20a is located above the light receiving window 20b. Slit light (band-like laser beam with a predetermined width w) U emitted from the internal optical unit OU
Goes to the object (subject) to be measured through the light emitting window 20a. The radiation angle φ in the length direction M1 of the slit light U is fixed. A part of the slit light U reflected on the surface of the object enters the optical unit OU through the light receiving window 20b. Note that the optical unit OU includes a two-axis adjustment mechanism for optimizing the relative relationship between the light projecting axis and the light receiving axis.

【0013】ハウジング20の上面には、ズーミングボ
タン25a,25b、手動フォーカシングボタン26
a,26b、及びシャッタボタン27が設けられてい
る。図2(b)のように、ハウジング20の背面には、
液晶ディスプレイ21、カーソルボタン22、セレクト
ボタン23、キャンセルボタン24、アナログ出力端子
32、デジタル出力端子33、及び記録メディア4の着
脱口30aが設けられている。
On the upper surface of the housing 20, zooming buttons 25a and 25b, a manual focusing button 26
a, 26b, and a shutter button 27 are provided. As shown in FIG. 2B, on the back of the housing 20,
A liquid crystal display 21, a cursor button 22, a select button 23, a cancel button 24, an analog output terminal 32, a digital output terminal 33, and an opening 30a for the recording medium 4 are provided.

【0014】液晶ディスプレイ(LCD)21は、操作
画面の表示手段及び電子ファインダとして用いられる。
撮影者は背面の各ボタン21〜24によって撮影モード
の設定を行うことができる。アナログ出力端子32から
は、2次元画像信号が例えばNTSC形式で出力され
る。ディジタル出力端子33は例えばSCSI端子であ
る。
A liquid crystal display (LCD) 21 is used as display means for an operation screen and as an electronic finder.
The photographer can set the photographing mode by using the buttons 21 to 24 on the back. From the analog output terminal 32, a two-dimensional image signal is output, for example, in the NTSC format. The digital output terminal 33 is, for example, a SCSI terminal.

【0015】図3は3次元カメラ2の機能構成を示すブ
ロック図である。図中の実線矢印は電気信号の流れを示
し、破線矢印は光の流れを示している。3次元カメラ2
は、上述の光学ユニットOUを構成する投光側及び受光
側の2つの光学系40,50を有している。光学系40
において、半導体レーザ(LD)41が射出する波長6
70nmのレーザビームは、投光レンズ系42を通過す
ることによってスリット光Uとなり、ガルバノミラー
(走査手段)43によって偏向される。半導体レーザ4
1のドライバ44、投光レンズ系42の駆動系45、及
びガルバノミラー43の駆動系46は、システムコント
ローラ61によって制御される。
FIG. 3 is a block diagram showing a functional configuration of the three-dimensional camera 2. As shown in FIG. In the figure, solid arrows indicate the flow of electric signals, and broken arrows indicate the flow of light. 3D camera 2
Has two optical systems 40 and 50 on the light projecting side and the light receiving side that constitute the optical unit OU described above. Optical system 40
, The wavelength 6 emitted by the semiconductor laser (LD) 41
The 70 nm laser beam becomes slit light U by passing through the light projecting lens system 42 and is deflected by the galvanomirror (scanning means) 43. Semiconductor laser 4
The driver 44, the driving system 45 of the light projecting lens system 42, and the driving system 46 of the galvanomirror 43 are controlled by a system controller 61.

【0016】光学系50において、ズームユニット51
によって集光された光はビームスプリッタ52によって
分光される。半導体レーザ41の発振波長帯域の光は、
計測用のセンサ53に入射する。可視帯域の光は、モニ
タ用のカラーセンサ54に入射する。センサ53及びカ
ラーセンサ54は、どちらもCCDエリアセンサであ
る。ズームユニット51は内焦型であり、入射光の一部
がオートフォーカシング(AF)に利用される。AF機
能は、AFセンサ57とレンズコントローラ58とフォ
ーカシング駆動系59とによって実現される。ズーミン
グ駆動系60は電動ズーミングのために設けられてい
る。
In the optical system 50, a zoom unit 51
The light condensed by the beam splitter 52 is split by the beam splitter 52. The light in the oscillation wavelength band of the semiconductor laser 41 is
The light enters the sensor 53 for measurement. Light in the visible band enters the monitor color sensor 54. The sensor 53 and the color sensor 54 are both CCD area sensors. The zoom unit 51 is of an in-focus type, and a part of the incident light is used for auto focusing (AF). The AF function is realized by the AF sensor 57, the lens controller 58, and the focusing drive system 59. The zooming drive system 60 is provided for electric zooming.

【0017】センサ53による撮像情報は、ドライバ5
5からのクロックに同期して出力処理回路62に入力さ
れ、8ビットの受光データとなってメモリ63に一旦格
納される。メモリ63のアドレス指定はメモリコントロ
ーラ63Aが行う。所定のタイミングでメモリ63から
重心演算回路73へ受光データが転送され、対象物体の
3次元位置を算出するための基となるデータ(後述の
“重心ip”)が生成される。重心ipは計測結果とし
て出力用メモリ64を経てSCSIコントローラ66へ
送られる。また、重心ipはモニタ情報として重心演算
回路73から表示用メモリ74へも送られ、液晶ディス
プレイ(LCD)21による距離画像の表示に用いられ
る。
The information captured by the sensor 53 is transmitted to the driver 5.
The data is input to the output processing circuit 62 in synchronization with the clock from 5, and is temporarily stored in the memory 63 as 8-bit light receiving data. The address specification of the memory 63 is performed by the memory controller 63A. At a predetermined timing, the received light data is transferred from the memory 63 to the center-of-gravity calculating circuit 73, and data serving as a basis for calculating the three-dimensional position of the target object ("center of gravity ip" described later) is generated. The center of gravity ip is sent to the SCSI controller 66 via the output memory 64 as a measurement result. The center of gravity ip is also sent from the center of gravity calculation circuit 73 to the display memory 74 as monitor information, and is used for displaying a distance image on the liquid crystal display (LCD) 21.

【0018】一方、カラーセンサ54による撮像情報
は、ドライバ56からのクロックに同期してカラー処理
回路67へ送られる。カラー処理を受けた撮像情報は、
NTSC変換回路70及びアナログ出力端子32を経て
オンライン出力され、又はディジタル画像生成部68で
量子化されてカラー画像メモリ69に格納される。その
後、カラー画像データがカラー画像メモリ69からSC
SIコントローラ66へ転送される。
On the other hand, imaging information from the color sensor 54 is sent to the color processing circuit 67 in synchronization with a clock from the driver 56. Imaging information that has undergone color processing
The data is output online via the NTSC conversion circuit 70 and the analog output terminal 32, or is quantized by the digital image generation unit 68 and stored in the color image memory 69. Thereafter, the color image data is transferred from the color image memory 69 to the SC.
The data is transferred to the SI controller 66.

【0019】SCSIコントローラ66は、出力用メモ
リ64からのデータとカラー画像とをディジタル出力端
子33からオンライン出力し、又は記録メディア4に格
納する。なお、カラー画像は、センサ53の出力に基づ
く距離画像と同一の画角の像であり、ホスト3における
アプリケーション処理に際して参考情報として利用され
る。カラー情報を利用する処理としては、例えばカメラ
視点の異なる複数組の計測データを組み合わせて3次元
形状モデルを生成する処理、3次元形状モデルの不要の
頂点を間引く処理などがある。システムコントローラ6
1は、図示しないキャラクタジェネレータに対して、L
CD21の画面上に適切な文字や記号を表示するための
指示を与える。
The SCSI controller 66 outputs the data and the color image from the output memory 64 on-line from the digital output terminal 33 or stores them in the recording medium 4. Note that the color image is an image having the same angle of view as the distance image based on the output of the sensor 53, and is used as reference information during application processing in the host 3. The processing using color information includes, for example, processing of generating a three-dimensional shape model by combining a plurality of sets of measurement data having different camera viewpoints, and processing of thinning out unnecessary vertices of the three-dimensional shape model. System controller 6
1 is L for a character generator (not shown).
An instruction for displaying appropriate characters and symbols on the screen of the CD 21 is given.

【0020】図4は受光のためのズームユニット51の
模式図である。ズームユニット51は、前側結像部51
5、バリエータ部514、コンペンセータ部513、フ
ォーカシング部512、後側結像部511、及び入射光
の一部をAFセンサ57に導くビームスプリッタ516
から構成されている。前側結像部515及び後側結像部
511は、光軸に対して固定である。
FIG. 4 is a schematic diagram of a zoom unit 51 for receiving light. The zoom unit 51 includes a front image forming unit 51
5, a variator unit 514, a compensator unit 513, a focusing unit 512, a rear image forming unit 511, and a beam splitter 516 for guiding a part of incident light to the AF sensor 57.
It is composed of The front imaging unit 515 and the rear imaging unit 511 are fixed with respect to the optical axis.

【0021】フォーカシング部512の移動はフォーカ
シング駆動系59が担い、バリエータ部514の移動は
ズーミング駆動系60が担う。フォーカシング駆動系5
9は、フォーカシング部512の移動距離(レンズ繰り
出し量Ed)を指し示すフォーカシングエンコーダ59
Aを備えている。ズーミング駆動系60は、バリエータ
部514の移動距離(レンズ刻み値fp)を指し示すズ
ーミングエンコーダ60Aを備えている。
The movement of the focusing unit 512 is performed by the focusing drive system 59, and the movement of the variator unit 514 is performed by the zooming drive system 60. Focusing drive system 5
Reference numeral 9 denotes a focusing encoder 59 which indicates a moving distance (lens extension amount Ed) of the focusing unit 512.
A is provided. The zooming drive system 60 includes a zooming encoder 60A that indicates the moving distance (lens increment value fp) of the variator unit 514.

【0022】図5は計測システム1における3次元位置
の算出の原理図、図6は重心ipの概念を示す図であ
る。図5では理解を容易にするために受光量のサンプリ
ングについて5回分のみが示されているが、3次元カメ
ラ2における1画素当たりのサンプリング数は32であ
る。
FIG. 5 is a diagram illustrating the principle of calculating a three-dimensional position in the measurement system 1, and FIG. 6 is a diagram illustrating the concept of the center of gravity ip. Although FIG. 5 shows only five samplings of the amount of received light for easy understanding, the number of samplings per pixel in the three-dimensional camera 2 is 32.

【0023】図5のように、センサ53の撮像面S2上
でのスリット幅がピッチpvで並ぶ画素gの複数個分と
なる比較的に幅の広いスリット光Uを物体Qに投射す
る。具体的にはスリット光Uの幅を5画素分程度とす
る。スリット光Uは図の上下方向に起点Aを中心に等角
速度で偏向される。物体Qで反射したスリット光Uは結
像の主点O(ズーミングの後側主点H’)を通って撮像
面S2に入射する。スリット光Uの投射中にセンサ53
の受光量を周期的にサンプリングすることにより、物体
Q(厳密には物体像)が走査される。サンプリング周期
(センサ駆動周期)毎にセンサ53から1フレーム分の
光電変換信号が出力される。
As shown in FIG. 5, a relatively wide slit light U having a slit width on the imaging surface S2 of the sensor 53 corresponding to a plurality of pixels g arranged at a pitch pv is projected on the object Q. Specifically, the width of the slit light U is set to about 5 pixels. The slit light U is deflected at a constant angular velocity about the starting point A in the vertical direction in the figure. The slit light U reflected by the object Q passes through the principal point O of image formation (the principal point H ′ on the rear side of zooming) and enters the imaging surface S2. During the projection of the slit light U, the sensor 53
The object Q (strictly speaking, an object image) is scanned by periodically sampling the amount of received light. The photoelectric conversion signal for one frame is output from the sensor 53 every sampling period (sensor driving period).

【0024】物体Qの表面が平面であって光学系の特性
によるノイズがない場合には、センサ53の撮像面S2
の各画素gの受光量は、当該画素gがにらむ範囲の物体
表面agをスリット光Uの光軸が通過する時点Npea
kで最大となり、その時間的な分布は正規分布に近くな
る。図5(b)の例において、時点Npeakはn回目
とその1つ前の(n−1)回目のサンプリング時刻間に
ある。
If the surface of the object Q is flat and there is no noise due to the characteristics of the optical system, the image pickup surface S2 of the sensor 53
The light reception amount of each pixel g at the time Npea at which the optical axis of the slit light U passes through the object surface ag in the range where the pixel g is viewed
It becomes maximum at k, and its temporal distribution is close to a normal distribution. In the example of FIG. 5B, the time point Npeak is between the n-th sampling time and the immediately preceding (n-1) -th sampling time.

【0025】本実施形態においては、1フレームがセン
サ53の撮像面S2の一部に対応する32ラインとされ
ている。したがって、撮像面S2の1つの画素gに注目
すると、走査中に32回のサンプリングが行われること
になり、32個の受光データが得られる。これら32フ
レーム分の受光データに対する重心演算によって、時点
Npeakに相当する重心(時間重心)ipを算出す
る。
In the present embodiment, one frame is composed of 32 lines corresponding to a part of the imaging surface S2 of the sensor 53. Therefore, focusing on one pixel g on the imaging surface S2, sampling is performed 32 times during scanning, and 32 pieces of light reception data are obtained. The center of gravity (time center of gravity) ip corresponding to the time point Npeak is calculated by the center of gravity calculation on the light reception data for these 32 frames.

【0026】重心ipは、図6のように32回のサンプ
リングによって得られた32個の受光データの分布の時
間軸上の重心である。各画素についての32個の受光デ
ータに、1〜32のサンプリング番号を付す。i番の受
光データはxiで表される。iは1〜32の整数であ
る。このとき、iは、注目する画素が32ラインからな
る有効受光領域に入ってからのフレーム数を示してい
る。
The center of gravity ip is the center of gravity of the distribution of 32 pieces of received light data obtained by sampling 32 times as shown in FIG. Sampling numbers 1 to 32 are assigned to 32 pieces of received light data for each pixel. The i-th light reception data is represented by xi. i is an integer of 1 to 32. At this time, i indicates the number of frames since the pixel of interest enters the effective light receiving area consisting of 32 lines.

【0027】1〜32番の受光データx1〜x32につ
いての重心ipは、32個の受光データについて、i・
xiの総和Σi・xiをxiの総和Σxiで除すことに
より求められる。すなわち、
The center of gravity ip of the received light data x1 to x32 of Nos. 1 to 32 is i ·
It is obtained by dividing the sum Σi · xi of xi by the sum Σxi of xi. That is,

【0028】[0028]

【数1】 (Equation 1)

【0029】となる。重心演算回路73はこの(1)式
の演算を行って重心ip(すなわち時間重心Npea
k)を算出する。ホスト3は、求められた重心ipにお
けるスリット光Uの照射方向と注目画素gに対するスリ
ット光Uの入射方向との関係に基づいて、三角測量の手
法を適用して物体Qの位置(座標)を算出する。これに
より、撮像面S2の画素配列のピッチpvで規定される
分解能より高い分解能の計測が可能となる。
## EQU1 ## The center-of-gravity calculation circuit 73 performs the calculation of the equation (1) to calculate the center of gravity ip (that is, the time center of gravity Npea).
k) is calculated. The host 3 applies the triangulation method based on the relationship between the irradiation direction of the slit light U at the calculated center of gravity ip and the incident direction of the slit light U to the target pixel g to change the position (coordinate) of the object Q. calculate. This enables measurement with a higher resolution than the resolution specified by the pitch pv of the pixel array on the imaging surface S2.

【0030】次に、本発明に特有の3次元カメラ2の動
作をホスト3の動作及び計測の手順と合わせて説明す
る。ユーザー(撮影者)は、LCD21が表示するカラ
ーモニタ像を見ながら、カメラ位置と向きとを決め、画
角を設定する。その際、必要に応じてズーミング操作及
びフォーカシング操作の一方又は両方を行う。操作に応
じてズームユニット51の中のバリエータ部514及び
フォーカシング部512が移動し、逐次にその時点のレ
ンズ刻み値(fp)及びレンズ繰り出し量(Ed)がレ
ンズコントローラ58を介してシステムコントローラ6
1に送られる。システムコントローラ61は、予め
(2)式に基づいて作成された変換テーブルを用いて対
物間距離Dを算定する。
Next, the operation of the three-dimensional camera 2 unique to the present invention will be described together with the operation and measurement procedure of the host 3. The user (photographer) determines the camera position and orientation and sets the angle of view while viewing the color monitor image displayed on the LCD 21. At that time, one or both of a zooming operation and a focusing operation are performed as necessary. The variator unit 514 and the focusing unit 512 in the zoom unit 51 move according to the operation, and the lens step value (fp) and the lens extension amount (Ed) at that time are sequentially changed via the lens controller 58 and the system controller 6.
Sent to 1. The system controller 61 calculates the inter-object distance D using a conversion table created based on the equation (2) in advance.

【0031】D=G(fp,Ed) …(2) G:関数 ユーザーがシャッタボタン27をオンすると、画角が設
定されたことになる。これを受けてシステムコントロー
ラ61は、決定した対物間距離Dに基づいてスリット光
Uの偏向条件(走査開始角、走査終了角、偏向角速度)
を設定する。
D = G (fp, Ed) (2) G: Function When the user turns on the shutter button 27, the angle of view is set. In response to this, the system controller 61 determines the deflection conditions (scan start angle, scan end angle, deflection angular velocity) of the slit light U based on the determined inter-object distance D.
Set.

【0032】図7は光学系の主要な点と物体との位置関
係の模式図である。偏向条件の設定の基本的な内容は次
のとおりである。対物間距離Dの位置に基準面Ssが存
在するものと仮定し、撮像倍率から基準面Ssのうちの
撮像面S2に写る(投影される)領域を割り出す。その
領域の全域に下端側からスリット光Uを投射するように
走査開始角及び走査終了角を定め、走査の所要時間が一
定値となるように偏向角速度を定める。
FIG. 7 is a schematic diagram showing the positional relationship between a main point of the optical system and an object. The basic contents of setting the deflection conditions are as follows. Assuming that the reference plane Ss exists at the position of the inter-object distance D, an area (projected) of the reference plane Ss that is projected (projected) on the imaging plane S2 is determined from the imaging magnification. The scanning start angle and the scanning end angle are determined so that the slit light U is projected from the lower end side over the entire area, and the deflection angular velocity is determined so that the required scanning time becomes a constant value.

【0033】実際の設定では、対物間距離Dの測距基準
点である受光系の前側主点Hと投光の起点AとのZ方向
のオフセットDoffを考慮する。また、走査方向の端
部においても中央部と同様の計測可能距離範囲dを確保
するため、所定量(例えば16画素分)のオーバースキ
ャンを行うようにする。走査開始角th1、走査終了角
th2、偏向角速度ωは、次式で表される。 th1=tan-1〔β×pv(np/2+16)+L)/(D+Doff )〕 ×180/π …(3) th2=tan-1〔−β×pv(np/2+16)+L)/(D+Doff )〕 ×180/π …(4) ω=(th1−th2)/np …(5) β:撮像倍率(=D/実効焦点距離freal) pv:画素ピッチ np:撮像面S2のY方向の有効画素数 L:基線長 ここで、計測可能距離範囲dは、センサ53の読み出し
動作における1フレームのライン数に依存する。ライン
数を多くするほど計測可能距離範囲dは拡がるが、読み
出し時間が長くなりデータ量が増えて処理の負担が大き
くなる。このことを踏まえた上で本実施形態では1フレ
ームのライン数が上述のとおり32とされている。
In the actual setting, the Z-direction offset Doff between the front principal point H of the light receiving system, which is the distance measurement reference point of the inter-object distance D, and the projection start point A is considered. Further, in order to secure the same measurable distance range d at the end in the scanning direction as at the center, an overscan of a predetermined amount (for example, for 16 pixels) is performed. The scan start angle th1, the scan end angle th2, and the deflection angular velocity ω are represented by the following equations. th1 = tan −1 [β × pv (np / 2 + 16) + L) / (D + Doff)] × 180 / π (3) th2 = tan −1 [−β × pv (np / 2 + 16) + L) / (D + Doff) × 180 / π (4) ω = (th1−th2) / np (5) β: imaging magnification (= D / effective focal length freal) pv: pixel pitch np: effective pixel in the Y direction of the imaging surface S2 Number L: Base Line Length Here, the measurable distance range d depends on the number of lines of one frame in the reading operation of the sensor 53. The measurable distance range d increases as the number of lines increases, but the readout time increases, the data amount increases, and the processing load increases. Based on this, in the present embodiment, the number of lines in one frame is set to 32 as described above.

【0034】物体Qが計測可能距離範囲dの内側に納ま
る大きさであれば、1回の走査で物体Qを計測すること
ができる。しかし、物体Qの奥行き方向(Z方向)の寸
法が大きい場合など、物体Qの一部が計測可能距離範囲
dからはみ出すと、その部分についての形状データが得
られない。
If the size of the object Q is within the measurable distance range d, the object Q can be measured by one scan. However, when a part of the object Q extends beyond the measurable distance range d, such as when the dimension of the object Q in the depth direction (Z direction) is large, shape data for that part cannot be obtained.

【0035】そこで、3次元カメラ2は、計測動作の開
始指示であるシャッタボタン27のオンに呼応して、自
動的に基準面Ssの位置を変更して複数回(具体的には
3回)の走査を連続的に行う。これにより、分解能を低
下させることなく計測可能距離範囲dよりも広い範囲の
形状データを得ることができる。
Therefore, the three-dimensional camera 2 automatically changes the position of the reference plane Ss multiple times (specifically, three times) in response to turning on of the shutter button 27 which is an instruction to start the measurement operation. Is continuously performed. Thereby, shape data in a range wider than the measurable distance range d can be obtained without lowering the resolution.

【0036】図8は基準面Ssの位置変更の一例を示す
図である。1回目の走査では基準面Ssを対物間距離D
の位置Z0に設定し、2回目の走査では対物間距離D1
(D1<D)の位置Z1に設定し、3回目の走査では対
物間距離D2(D2>D)の位置Z2に設定する。つま
り、2回目では基準面Ssを手前側に移動させ、3回目
では後ろ側に移動させる。ただし、基準面Ssの位置と
走査の順序は任意であって、後ろ側の走査を手前側の走
査より先に行っても何ら支障はない。対物間距離D1,
D2は、2回目及び3回目の走査における計測可能距離
範囲d2,d3がそれぞれ1回目の走査における計測可
能距離範囲dと部分的に重複するように設定される。計
測可能距離範囲d,d2,d3を重複させることによ
り、各回の走査で得られた形状データの合成が容易にな
る。計3回の走査において撮像倍率は固定であるので、
基準面Ssの位置が変わればスリット光Uを投射すべき
角度範囲も変わる。したがって、走査毎に偏向条件が算
定されることになる。
FIG. 8 is a diagram showing an example of a change in the position of the reference plane Ss. In the first scan, the reference plane Ss is set to the distance D between the objects.
At the position Z0, and the distance D1 between the objectives in the second scan
(D1 <D) is set to the position Z1, and in the third scan, the position is set to the position Z2 of the inter-object distance D2 (D2> D). That is, the reference plane Ss is moved to the near side in the second time, and is moved to the rear side in the third time. However, the position of the reference surface Ss and the order of scanning are arbitrary, and there is no problem even if scanning on the rear side is performed earlier than scanning on the near side. Object distance D1,
D2 is set such that the measurable distance ranges d2 and d3 in the second and third scans partially overlap the measurable distance ranges d in the first scan, respectively. By overlapping the measurable distance ranges d, d2, and d3, it becomes easy to combine the shape data obtained in each scan. Since the imaging magnification is fixed in a total of three scans,
If the position of the reference surface Ss changes, the angle range in which the slit light U is projected also changes. Therefore, the deflection condition is calculated for each scan.

【0037】図9及び図10は計測可能距離範囲を説明
するための図である。図9のように基準面Ssを位置Z
0に設定した場合、撮像面S2における受光軸が通る画
素のY方向のアドレスをncとすると、アドレスncの
画素のサンプリングを開始する時点の走査角θ1 は、 θ1=th1−ω×(nc−1) …(6) となる。なお、Y方向のアドレスは先頭アドレス(走査
開始アドレス)を1として1,2,3…とインクリメン
トされる。
FIGS. 9 and 10 are diagrams for explaining the measurable distance range. As shown in FIG. 9, the reference plane Ss is moved to the position Z.
When 0 is set, when the address in the Y direction of the pixel passing through the light receiving axis on the imaging surface S2 is nc, the scanning angle θ1 at the time of starting sampling the pixel at the address nc is θ1 = th1−ω × (nc− 1) ... (6) The address in the Y direction is incremented from 1, 2, 3,... With the start address (scanning start address) as 1.

【0038】また、アドレスncの画素のサンプリング
を終了する時点の走査角θ2は、1画素当たりのサンプ
リング回数をj(本例では32)として次式で求まる。 θ2=θ1−ω×(j−1) …(7) アドレスncの画素についての計測可能距離範囲d’
は、走査角θ1 の投光軸とアドレスncの画素の視線と
の交点Z1から、走査角θ2の投光軸とアドレスncの
画素の視線との交点Z2までの奥行き範囲となる。
The scanning angle θ2 at the time when the sampling of the pixel at the address nc is completed can be obtained by the following equation, where the number of samplings per pixel is j (32 in this example). θ2 = θ1−ω × (j−1) (7) Measurable distance range d ′ for the pixel at address nc
Is the depth range from the intersection Z1 between the projection axis of the scanning angle θ1 and the line of sight of the pixel at the address nc to the intersection Z2 between the projection axis of the scanning angle θ2 and the line of sight of the pixel at the address nc.

【0039】同様に、アドレスnc以外のアドレスnm
についてもサンプリング開始時点及び終了時点の走査角
θ1m,θ2mを求めることができる。アドレスnmの
画素についての計測可能距離範囲dmは、図10のよう
に走査角θ1mの投光軸と画素の視線との交点Z1mか
ら、走査角θ2mの投光軸と画素の視線との交点Z2m
までの奥行き範囲となる。
Similarly, an address nm other than the address nc
, The scanning angles θ1m and θ2m at the sampling start and end times can be obtained. The measurable distance range dm for the pixel at the address nm is, as shown in FIG. 10, from the intersection Z1m between the projection axis of the scanning angle θ1m and the line of sight of the pixel, and the intersection Z2m of the projection axis of the scanning angle θ2m and the line of sight of the pixel.
To the depth range.

【0040】図11及び図12は偏向条件の設定の要領
を説明するための図である。2回目の走査については、
上述の計測可能距離範囲dの手前側(図の左側)の限界
位置Z1を基準位置として、走査開始角th1a及び走
査終了角th2aを求める。
FIGS. 11 and 12 are views for explaining the procedure for setting the deflection conditions. For the second scan,
The scanning start angle th1a and the scanning end angle th2a are determined using the limit position Z1 on the near side (left side in the figure) of the measurable distance range d as a reference position.

【0041】tanθ1=L/(Doff +D1)である
ので、 D1=(L/tanθ1)−Doff …(8) となる。
Since tan θ1 = L / (Doff + D1), D1 = (L / tanθ1) −Doff (8)

【0042】(7)式から対物間距離D1を求め、上述
の(3)式、(4)式を適用する。走査開始角th1a
及び走査終了角th2aは(9)、(10)式で表され
る。 th1a=tan-1〔β×pv(np/2+16)+L)/(D1+Doff)〕 ×180/π …(9) th2a=tan-1〔−β×pv(np/2+16)+L)/(D1+Doff)〕 ×180/π …(10) このとき偏向角速度ωaは、 ωa=(th1a−th2a)/np …(11) となる。
The distance D1 between the objectives is obtained from the equation (7), and the above equations (3) and (4) are applied. Scanning start angle th1a
And the scan end angle th2a are expressed by the equations (9) and (10). th1a = tan −1 [β × pv (np / 2 + 16) + L) / (D1 + Doff)] × 180 / π (9) th2a = tan −1 [−β × pv (np / 2 + 16) + L) / (D1 + Doff) × 180 / π (10) At this time, the deflection angular velocity ωa is as follows: ωa = (th1a−th2a) / np (11)

【0043】同様に、3回目の走査については計測可能
距離範囲dの後ろ側(図の右側)の限界位置Z2を基準
位置として、走査開始角th1b及び走査終了角th2
bを求める。走査開始角th1b及び走査終了角th2
bは(12)式、(13)式で表される。 th1b=tan-1〔β×pv(np/2+16)+L)/(D2+Doff)〕 ×180/π …(12) th2b=tan-1〔−β×pv(np/2+16)+L)/(D1+Doff)〕 ×180/π …(13) このとき偏向角速度ωbは、 ωa=(th1b−th2b)/np …(14) となる。
Similarly, for the third scan, the scan start angle th1b and the scan end angle th2 are set with the limit position Z2 on the rear side (right side in the figure) of the measurable distance range d as a reference position.
Find b. Scan start angle th1b and scan end angle th2
b is expressed by the equations (12) and (13). th1b = tan −1 [β × pv (np / 2 + 16) + L) / (D2 + Doff)] × 180 / π (12) th2b = tan −1 [−β × pv (np / 2 + 16) + L) / (D1 + Doff) × 180 / π (13) At this time, the deflection angular velocity ωb is as follows: ωa = (th1b−th2b) / np (14)

【0044】このようにして求めた偏向条件(th1,
th2,ω)、(th1a,th2a,ωa)、(th
1b,th2b,ωb)の計3回の走査を行うことによ
り、アドレスncの画素については位置Z11から位置
Z22までの範囲d’が計測可能範囲となる(図8参
照)。
The deflection conditions (th1,
th2, ω), (th1a, th2a, ωa), (th
1b, th2b, and ωb), a total of three scans makes the range d ′ from position Z11 to position Z22 measurable for the pixel at address nc (see FIG. 8).

【0045】なお、走査回数は2以上であればよく、4
以上として計測可能距離範囲をさらに拡げてもよい。2
回目及び3回目の走査の偏向条件に基づいて4回目以降
の走査の偏向条件を求めれば、各回の計測可能距離範囲
どうしを確実に重複させることができる。
It is sufficient that the number of scans is two or more.
As described above, the measurable distance range may be further expanded. 2
If the deflection conditions for the fourth and subsequent scans are determined based on the deflection conditions for the third and third scans, the measurable distance ranges for each scan can be reliably overlapped.

【0046】各回の走査では、対物間距離D,D1,D
2に応じてレンズ繰り出し量Edを調整するオートフォ
ーカシングが行われる。システムコントローラ61は、
予め(15)式に基づいて作成された変換テーブルを用
いてレンズ繰り出し量Edを求め、レンズコントローラ
58に制御目標値として与える。
In each scan, the distances D, D1, D
Auto-focusing for adjusting the lens extension amount Ed according to 2 is performed. The system controller 61
The lens extension amount Ed is obtained using a conversion table created in advance based on Expression (15), and is provided to the lens controller 58 as a control target value.

【0047】Ed=F(D,fp) …(15) F:関数 各回の走査において、バリエータ部514は操作者によ
る設定状態に固定され、レンズ刻み値fp=fp0であ
る。第1の偏向条件(th1,th2,ω)により得ら
れる対物間距離D1,D2を(16)、(17)式に適
用して、システムコントローラ61は2回目及び3回目
の走査におけるレンズ繰り出し量Ed1,Ed2を算出
する。
Ed = F (D, fp) (15) F: Function In each scan, the variator unit 514 is fixed to the state set by the operator, and the lens step value fp = fp0. Applying the inter-object distances D1 and D2 obtained by the first deflection conditions (th1, th2, ω) to the equations (16) and (17), the system controller 61 determines the lens extension amount in the second and third scans. Ed1 and Ed2 are calculated.

【0048】 Ed1=F(D1,fp0) …(16) Ed2=F(D2,fp0) …(17) 図13は3次元カメラ2の動作の概略を示すフローチャ
ートである。
Ed1 = F (D1, fp0) (16) Ed2 = F (D2, fp0) (17) FIG. 13 is a flowchart showing an outline of the operation of the three-dimensional camera 2.

【0049】シャッタボタン27によって計測開始が指
示されると、システムコントローラ61は第1の走査の
偏向条件を算出し、その算出結果に基づいて第2、第3
の走査の偏向条件を算出する(#50〜52)。
When the start of measurement is instructed by the shutter button 27, the system controller 61 calculates deflection conditions for the first scan, and based on the calculation results, the second and third deflection conditions.
Are calculated (# 50- # 52).

【0050】第1の走査の偏向条件を設定して走査を開
始する(#53、#54)。スリット光Uの投射、及び
センサ53による受光量のサンプリングが開始される。
走査は偏向角度位置が走査終了角th2に達するまで行
われる。
The deflection conditions for the first scanning are set and scanning is started (# 53, # 54). The projection of the slit light U and the sampling of the amount of light received by the sensor 53 are started.
Scanning is performed until the deflection angle position reaches the scan end angle th2.

【0051】第1の走査が終了すると、システムコント
ローラ61は第2の走査の偏向条件を設定する(#5
5、#56)。また、この偏向条件でのレンズ繰り出し
量Ed2を求め、レンズコントローラ58を介してフォ
ーカシング駆動系59にフォーカシング部512の移動
を指示する(#57)。
When the first scan is completed, the system controller 61 sets the deflection conditions for the second scan (# 5).
5, # 56). Further, the lens extension amount Ed2 under this deflection condition is obtained, and the movement of the focusing unit 512 is instructed to the focusing drive system 59 via the lens controller 58 (# 57).

【0052】フォーカシング部512の移動が終了する
と、第2の走査を開始する(#58、#59)。第2の
走査が終了すると、システムコントローラ61は第3の
走査の偏向条件を設定し、フォーカシング部512の移
動を指示する(#60〜#62)。フォーカシングが終
了すると第3の走査を開始する(#63、#64)。
When the movement of the focusing unit 512 is completed, the second scanning is started (# 58, # 59). When the second scan is completed, the system controller 61 sets the deflection conditions for the third scan, and instructs movement of the focusing unit 512 (# 60 to # 62). When the focusing is completed, the third scan is started (# 63, # 64).

【0053】第3の走査が終了すると、3回分の計測結
果を示す距離画像のモニタ表示を行い、操作者が指定し
た回の走査で得られた受光データに基づく重心ipを出
力するデータ処理制御を行う(#65、#66)。
When the third scan is completed, data processing control for displaying a distance image showing the results of the three measurements on the monitor and outputting the center of gravity ip based on the received light data obtained in the scans specified by the operator. (# 65, # 66).

【0054】図14はモニタ表示内容の一例を示す図で
ある。図14(b)のように計測対象の物体が位置Z1
1と位置Z22とに跨がる場合、各回の走査では物体Q
の一部が計測される。図14(a)のように、液晶ディ
スプレイ21には、各回の走査結果を示す3つの距離画
像g1,g2,g3が基準面の位置の順に左右に並べて
表示される。すなわち、第1の走査に対応した距離画像
g1を真ん中にして、左側に第2の走査に対応した距離
画像g2が、右側に第3の走査に対応した距離画像g3
が表示される。
FIG. 14 is a diagram showing an example of monitor display contents. As shown in FIG. 14B, the object to be measured is located at the position Z1.
1 and the position Z22, the object Q in each scan
Is measured. As shown in FIG. 14A, on the liquid crystal display 21, three distance images g1, g2, and g3 indicating the results of each scan are displayed side by side in the order of the position of the reference plane. That is, with the distance image g1 corresponding to the first scan in the middle, the distance image g2 corresponding to the second scan on the left, and the distance image g3 corresponding to the third scan on the right.
Is displayed.

【0055】操作者はカーソルボタン22及びセレクト
ボタン23によってどの回の走査結果を出力するかを指
定する。2以上の走査を指定してもよいし、いずれか1
回の走査を指定してもよい。図14の例では上向き矢印
で示されるように、第1の走査及び第2の走査が指定さ
れている。
The operator designates the number of scan results to be output by using the cursor button 22 and the select button 23. Two or more scans may be specified, or one of them
You may specify the number of scans. In the example of FIG. 14, the first scan and the second scan are designated as indicated by upward arrows.

【0056】指定された走査結果(所定数の画素のそれ
ぞれについて算出された重心ip)は、重心演算回路7
3から出力メモリ64及びSCSIコントローラ66を
介してホスト3又は記録メディア4に出力される。これ
と同時に、偏向条件及びセンサ53の仕様を含む装置情
報も出力される。表1は3次元カメラ2がホスト3へ送
る主なデータをまとめたものである。
The designated scanning result (the center of gravity ip calculated for each of the predetermined number of pixels) is calculated by the center of gravity calculating circuit 7.
3 to the host 3 or the recording medium 4 via the output memory 64 and the SCSI controller 66. At the same time, device information including the deflection conditions and the specifications of the sensor 53 is also output. Table 1 summarizes main data that the three-dimensional camera 2 sends to the host 3.

【0057】[0057]

【表1】 [Table 1]

【0058】以下、計測システム1におけるデータ処理
を説明する。図15はセンサ53の読出し範囲を示す図
である。センサ53における1フレームの読出しは、撮
像面S2の全体ではなく、高速化を図るために撮像面S
2の一部である有効受光領域(帯状画像)Aeのみを対
象に行われる。有効受光領域Aeは、ある照射タイミン
グにおける計測可能距離範囲に対応する撮像面S2上の
領域であり、スリット光Uの偏向に伴ってフレーム毎に
1画素分ずつシフトする。本実施形態では、有効受光領
域Aeのシフト方向の画素数は32に固定されている。
なお、CCDエリアセンサの撮影像の一部のみを読み出
す手法は、特開平7−174536号公報に開示されて
いる。
Hereinafter, data processing in the measurement system 1 will be described. FIG. 15 is a diagram showing a reading range of the sensor 53. The reading of one frame by the sensor 53 is not performed on the entire imaging surface S2, but is performed on the imaging surface S2 for speeding up.
2 is performed only for the effective light receiving area (band-shaped image) Ae which is a part of the area 2. The effective light receiving area Ae is an area on the imaging surface S2 corresponding to the measurable distance range at a certain irradiation timing, and shifts by one pixel for each frame with the deflection of the slit light U. In the present embodiment, the number of pixels of the effective light receiving area Ae in the shift direction is fixed to 32.
A method of reading out only a part of the captured image of the CCD area sensor is disclosed in Japanese Patent Application Laid-Open No. 7-174536.

【0059】図16はセンサ53の撮像面S2における
ラインとフレームとの関係を示す図、図17は各フレー
ムの受光データの記憶状態を示す図である。図16のよ
うに、撮像面S2の最初のフレームであるフレーム1に
は、ライン1からライン32までの32(ライン)×2
00画素分の受光データが含まれる。1ラインを200
画素としている。フレーム2はライン2からライン33
まで、フレーム3はライン3からライン34までという
ように、フレーム毎に1ライン分だけシフトされる。フ
レーム32はライン32からライン63までである。
FIG. 16 is a diagram showing the relationship between lines and frames on the imaging surface S2 of the sensor 53, and FIG. 17 is a diagram showing the storage state of the received light data of each frame. As shown in FIG. 16, the frame 1 which is the first frame of the imaging surface S2 has 32 (lines) × 2 from line 1 to line 32.
The received light data for 00 pixels is included. 200 per line
Pixels. Frame 2 is from line 2 to line 33
, Frame 3 is shifted by one line per frame, such as from line 3 to line 34. Frame 32 is from line 32 to line 63.

【0060】これらフレーム1からフレーム32までの
受光情報が順にA/D変換されてメモリ63に記憶され
る(図3参照)。図17のようにメモリ63にはフレー
ム1、2、3〜の順に受光データが記憶され、各フレー
ムに含まれるライン32のデータは、フレーム1につい
ては32ライン目、フレーム2については31ライン目
というようにフレーム毎に1ラインづつ上方にシフトさ
れている。フレーム1からフレーム32までの受光デー
タがメモリ63に記憶されることによりライン32の各
画素についてのサンプリングが終了する。サンプリング
の終了した各画素の受光データは重心演算を行うために
メモリ63から順次読み出される。重心演算の内容は上
述のとおりである。
The light receiving information from the frames 1 to 32 is sequentially A / D converted and stored in the memory 63 (see FIG. 3). As shown in FIG. 17, received light data is stored in the memory 63 in the order of frames 1, 2, 3 and so on. The data of the line 32 included in each frame is the 32nd line of the frame 1 and the 31st line of the frame 2. Thus, the image is shifted upward by one line for each frame. The sampling of each pixel on the line 32 is completed by storing the received light data from the frame 1 to the frame 32 in the memory 63. The light receiving data of each pixel for which sampling has been completed is sequentially read from the memory 63 in order to perform the center of gravity calculation. The content of the center of gravity calculation is as described above.

【0061】重心ipは物体Qの表面の位置を特定す
る。物体Qの表面の位置が3次元カメラ2に近いほど重
心ipの値は大きく、遠いほど小さい。したがって、重
心ipを濃度データとして濃淡画像を表示することによ
り、距離分布を具現化することができる。
The center of gravity ip specifies the position of the surface of the object Q. The value of the center of gravity ip becomes larger as the position of the surface of the object Q is closer to the three-dimensional camera 2, and becomes smaller as the position is farther. Therefore, by displaying a grayscale image using the center of gravity ip as density data, a distance distribution can be realized.

【0062】ホストにおいては、3次元位置演算処理が
実行され、200×200個のサンプリング点(画素)
の3次元位置(座標X,Y,Z)が算定される。サンプ
リング点はカメラ視線(サンプリング点と前側主点Hと
を結ぶ直線)とスリット面(サンプリング点を照射する
スリット光Uの光軸面)との交点である。
In the host, three-dimensional position calculation processing is executed, and 200 × 200 sampling points (pixels)
Are calculated (coordinates X, Y, Z). The sampling point is the intersection of the camera's line of sight (a straight line connecting the sampling point and the front principal point H) and the slit plane (the optical axis plane of the slit light U illuminating the sampling point).

【0063】図18はホストにおける3次元位置演算の
処理手順を示すフローチャートである。まず、3次元カ
メラ2から送られてきたxiの総和Σxiが所定値を上
回っているかどうかを判定する(#11)。xiが小さ
い場合、つまりスリット光成分の総和Σxiが所定の基
準に満たない場合には誤差を多く含んでいるので、その
画素については3次元位置の算出を実行しない。そし
て、その画素については「エラー」を示すデータを設定
して記憶する(#17)。Σxiが所定値を上回ってい
る場合には十分な精度が得られるので、3次元位置の算
出を実行する。
FIG. 18 is a flowchart showing a processing procedure of the three-dimensional position calculation in the host. First, it is determined whether or not the sum ixi of xi sent from the three-dimensional camera 2 exceeds a predetermined value (# 11). When xi is small, that is, when the sum ス リ ッ ト xi of the slit light components does not satisfy the predetermined criterion, a large error is included, and the calculation of the three-dimensional position is not executed for the pixel. Then, data indicating "error" is set and stored for the pixel (# 17). If Σxi exceeds a predetermined value, a sufficient accuracy is obtained, so that the calculation of the three-dimensional position is executed.

【0064】3次元位置の算出に先立って、スリット光
Uの通過タイミングnopを算出する(#12)。通過
タイミングnopは、i=1〜32について(Σi・x
i)/(Σxi)を計算して重心ip(時間重心Npe
ak)を求め、これにライン番号を加算することによっ
て算出される。
Prior to the calculation of the three-dimensional position, the passage timing nop of the slit light U is calculated (# 12). The passage timing nop is (Σi · x) for i = 1 to 32.
i) / (Σxi) is calculated and the centroid ip (time centroid Npe)
ak), and a line number is added thereto.

【0065】すなわち、算出された重心ipは、その画
素の出力が得られている32フレーム内のタイミングで
あるので、ライン番号を加えることによって走査開始か
らの通過タイミングnopに変換する。具体的には、ラ
イン番号は、最初に算出されるライン32の画素につい
ては「32」、次のライン33については「33」とな
る。注目画素gのラインが1つ進む毎にライン番号は1
つ増大する。しかし、これらの値は他の適当な値とする
ことが可能である。その理由は、3次元位置を算出する
際に、係数である後述の(20)式におけるX軸周りの
回転角(the1)及びX軸周りの角速度(the4)
などをキャリブレーションにより適切に設定することが
できるからである。
That is, since the calculated barycenter ip is the timing within the 32 frames at which the output of the pixel is obtained, it is converted to the passage timing nop from the start of scanning by adding the line number. Specifically, the line number is “32” for the pixel of the line 32 calculated first and “33” for the next line 33. Each time the line of the target pixel g advances by one, the line number is 1
Increase. However, these values can be other suitable values. The reason is that when calculating the three-dimensional position, the rotation angle around the X-axis (the1) and the angular velocity around the X-axis (the4) in equation (20), which will be described later, are coefficients.
This can be set appropriately by calibration.

【0066】そして3次元位置算出を行う(#13)。
算出された3次元位置は、その画素に対応するメモリ領
域に記憶し(#14)、次の画素について同様の処理を
行う(#16)。全ての画素についての処理が終わると
ルーチンから抜ける(#15でイエス)。
Then, a three-dimensional position is calculated (# 13).
The calculated three-dimensional position is stored in the memory area corresponding to the pixel (# 14), and the same processing is performed for the next pixel (# 16). When the processing for all the pixels is completed, the process exits from the routine (Yes in # 15).

【0067】次に、3次元位置の算出方法について説明
する。カメラ視線方程式は次の(18)式及び(19)
式である。 (u−u0)=(xp)=(b/pu)×〔X/(Z−FH)〕 …(18) (v−v0)=(yp)=(b/pv)×〔Y/(Z−FH)〕 …(19) b:像距離 FH:前側主点位置 pu:撮像面における水平方向の画素ピッチ pv:撮像面における垂直方向の画素ピッチ u:撮像面における水平方向の画素位置 u0:撮像面における水平方向の中心画素位置 v:撮像面における垂直方向の画素位置 v0:撮像面における垂直方向の中心画素位置 スリット面方程式は(20)式である。
Next, a method of calculating the three-dimensional position will be described. The camera line-of-sight equation is given by the following equations (18) and (19).
It is an expression. (U-u0) = (xp) = (b / pu) × [X / (Z-FH)] (18) (v−v0) = (yp) = (b / pv) × [Y / (Z -FH)] (19) b: Image distance FH: Front principal point position pu: Horizontal pixel pitch on the imaging surface pv: Vertical pixel pitch on the imaging surface u: Horizontal pixel position on the imaging surface u0: Center pixel position in the horizontal direction on the imaging surface v: Pixel position in the vertical direction on the imaging surface v0: Center pixel position in the vertical direction on the imaging surface The slit plane equation is given by equation (20).

【0068】[0068]

【数2】 (Equation 2)

【0069】幾何収差は画角に依存する。歪はほぼ中心
画素を中心として対象に生じる。したがって、歪み量は
中心画素からの距離の関数で表される。ここでは、距離
の3次関数で近似する。2次の補正係数をd1、3次の
補正係数をd2とする。補正後の画素位置u’,v’は
(21)式及び(22)式で与えられる。
The geometric aberration depends on the angle of view. Distortion occurs in the target substantially at the center pixel. Therefore, the amount of distortion is represented by a function of the distance from the center pixel. Here, the distance is approximated by a cubic function. The second-order correction coefficient is d1, and the third-order correction coefficient is d2. The corrected pixel positions u ′ and v ′ are given by equations (21) and (22).

【0070】 u’=u+d1×t22 ×(u−u0)/t2 +d2×t23 ×(u−u0)/t2 …(21) v’=v+d1×t22 ×(v−v0)/t2 +d2×t23 ×(v−v0)/t2 …(22) t2=(t1)-2 t1=(u−u0)2 +(v−v0)2 上述の(18)、(19)式において、uに代えてu’
を代入し、vに代えてv’を代入することにより、歪曲
収差を考慮した3次元位置を求めることができる。な
お、キャリブレーションについては、電子情報通信学会
研究会資料PRU91-113[カメラの位置決めのいらない
画像の幾何学的補正]小野寺・金谷、電子情報通信学会
論文誌D-II vol. J74-D-II No.9 pp.1227-1235,'91/9
[光学系の3次元モデルに基づくレンジファインダの高
精度キャリブレーション法]植芝・吉見・大島、などに
詳しい開示がある。
[0070] u '= u + d1 × t2 2 × (u-u0) / t2 + d2 × t2 3 × (u-u0) / t2 ... (21) v' = v + d1 × t2 2 × (v-v0) / t2 + d2 × t2 3 × (v−v0) / t2 (22) t2 = (t1) −2 t1 = (u−u0) 2 + (v−v0) 2 In the above equations (18) and (19), u U 'instead of
And substituting v ′ for v, a three-dimensional position taking distortion into account can be obtained. For calibration, IEICE Technical Report, PRU91-113 [Geometric correction of images without camera positioning] Onodera and Kanaya, IEICE Transactions D-II vol. J74-D-II No.9 pp.1227-1235, '91 / 9
[High-precision calibration method of range finder based on three-dimensional model of optical system] Ueshiba, Yoshimi, Oshima, etc. have detailed disclosure.

【0071】以上の実施形態では、対物間距離Dをフォ
ーカシング部及びスーミング部の位置を検出するパッシ
ブ型測距により算定したが、所定の角度にスリット光U
を投射して入射角を検出する予備計測を行い、三角測量
法を用いて対物間距離を算出するアクティブ型測距を行
ってもよい。また、測距を行わずに予め設定された対物
間距離、又は操作者が設定入力して対物間距離を基準に
偏向条件を設定してもよい。
In the above embodiment, the distance D between the objectives is calculated by the passive type distance measurement for detecting the positions of the focusing unit and the zooming unit.
May be performed to perform a preliminary measurement for detecting an incident angle, and to perform an active distance measurement for calculating a distance between objectives using a triangulation method. Further, the deflection condition may be set based on the preset inter-object distance without performing the distance measurement, or on the basis of the inter-object distance by setting and input by an operator.

【0072】走査を1回のみ行うモードを設け、複数回
の走査を行うモードとの切り換えを操作者が指定できる
ようにしてもよい。重心ipから座標を求める演算を3
次元カメラ2の内部で行うこともできる。その構成を採
用した場合には、1回目の走査の結果を分析して2回目
以降の走査を要否を自動判別し、必要なときのみ複数回
の走査を行う機能を設けてもよい。また、各画素につい
てのデータΣi・xi,Σxiを計測結果として3次元
カメラ2がホスト3へ送り、ホストが重心演算を行う構
成を採用してもよい。
A mode in which scanning is performed only once may be provided so that the operator can specify switching to a mode in which scanning is performed a plurality of times. The calculation for obtaining coordinates from the center of gravity ip is 3
This can be performed inside the two-dimensional camera 2. When this configuration is adopted, a function may be provided in which the result of the first scan is analyzed to automatically determine whether or not the second and subsequent scans are necessary, and a plurality of scans are performed only when necessary. In addition, a configuration may be adopted in which the three-dimensional camera 2 sends the data ・ i · xi and Σxi for each pixel as a measurement result to the host 3 and the host performs a gravity center calculation.

【0073】[0073]

【発明の効果】請求項1の発明によれば、物体の奥行き
寸法が大きい場合でも、奥行き寸法が小さい場合と同程
度の分解能の3次元データを物体全体について入力する
ことができる。
According to the first aspect of the present invention, even when the depth dimension of an object is large, three-dimensional data having the same resolution as that when the depth dimension is small can be input for the entire object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明に係る計測システムの構成図である。FIG. 1 is a configuration diagram of a measurement system according to the present invention.

【図2】3次元カメラの外観を示す図である。FIG. 2 is a diagram illustrating an appearance of a three-dimensional camera.

【図3】3次元カメラの機能構成を示すブロック図であ
る。
FIG. 3 is a block diagram illustrating a functional configuration of a three-dimensional camera.

【図4】受光のためのズームユニットの模式図である。FIG. 4 is a schematic diagram of a zoom unit for receiving light.

【図5】計測システムにおける3次元位置の算出の原理
図である。
FIG. 5 is a principle diagram of calculation of a three-dimensional position in the measurement system.

【図6】重心の概念を示す図である。FIG. 6 is a diagram illustrating a concept of a center of gravity.

【図7】光学系の主要な点と物体との位置関係の模式図
である。
FIG. 7 is a schematic diagram of a positional relationship between a main point of the optical system and an object.

【図8】基準面の位置変更の一例を示す図である。FIG. 8 is a diagram illustrating an example of a position change of a reference plane.

【図9】計測可能距離範囲を説明するための図である。FIG. 9 is a diagram for explaining a measurable distance range.

【図10】計測可能距離範囲を説明するための図であ
る。
FIG. 10 is a diagram illustrating a measurable distance range.

【図11】偏向条件の設定の要領を説明するための図で
ある。
FIG. 11 is a diagram for explaining a procedure for setting deflection conditions.

【図12】偏向条件の設定の要領を説明するための図で
ある。
FIG. 12 is a diagram for explaining a procedure for setting deflection conditions.

【図13】3次元カメラ2の動作の概略を示すフローチ
ャートである。
FIG. 13 is a flowchart showing an outline of the operation of the three-dimensional camera 2.

【図14】モニタ表示内容の一例を示す図である。FIG. 14 is a diagram showing an example of monitor display contents.

【図15】センサの読出し範囲を示す図である。FIG. 15 is a diagram showing a reading range of a sensor.

【図16】センサの撮像面におけるラインとフレームと
の関係を示す図である。
FIG. 16 is a diagram illustrating a relationship between a line and a frame on an imaging surface of a sensor.

【図17】各フレームの受光データの記憶状態を示す図
である。
FIG. 17 is a diagram showing a storage state of received light data of each frame.

【図18】ホストにおける3次元位置演算の処理手順を
示すフローチャートである。
FIG. 18 is a flowchart illustrating a processing procedure of a three-dimensional position calculation in the host.

【符号の説明】[Explanation of symbols]

2 3次元カメラ(3次元入力装置) 27 シャッタボタン(動作開始の指示に係わる構成要
素) 40 光学系(投光手段) 50 光学系(撮像手段) 61 システムコントローラ Q 物体 U スリット光(検出光)
2 Three-dimensional camera (three-dimensional input device) 27 Shutter button (component related to operation start instruction) 40 Optical system (light emitting means) 50 Optical system (imaging means) 61 System controller Q Object U Slit light (detection light)

フロントページの続き (72)発明者 上古 琢人 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 田辺 英樹 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 (72)発明者 糊田 寿夫 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 2F065 AA04 AA17 BB05 DD03 DD06 FF04 FF09 GG06 HH05 JJ03 JJ05 JJ26 LL06 LL46 MM16 PP22 QQ14 QQ24 QQ29 QQ35 QQ42 SS02 SS11 SS13 UU05 UU07 Continued on the front page (72) Inventor Takuto Ueko 2-3-13 Azuchicho, Chuo-ku, Osaka-shi, Osaka Inside Osaka International Building Minolta Co., Ltd. (72) Inventor Hideki Tanabe 2-chome, Azuchi-cho, Chuo-ku, Osaka-shi, Osaka No. 3-13 Osaka International Building Minolta Co., Ltd. (72) Inventor Toshio Kaida 2-3-1 Azuchicho, Chuo-ku, Osaka City, Osaka Prefecture Osaka International Building Minolta Co., Ltd. F-term (reference) 2F065 AA04 AA17 BB05 DD03 DD06 FF04 FF09 GG06 HH05 JJ03 JJ05 JJ26 LL06 LL46 MM16 PP22 QQ14 QQ24 QQ29 QQ35 QQ42 SS02 SS11 SS13 UU05 UU07

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】検出光を投射する投光手段と、物体で反射
した前記検出光を受光して電気信号に変換する撮像手段
とを有し、前記検出光の投射方向を変化させて周期的に
前記物体を撮像する走査を行う3次元入力装置であっ
て、 動作開始の指示に呼応して、前記検出光の投射角度範囲
が互いに異なる複数回の走査を連続的に行うことを特徴
とする3次元入力装置。
A light source for projecting the detection light; and an imaging means for receiving the detection light reflected by an object and converting the light into an electric signal. A three-dimensional input device for performing a scan for imaging the object, wherein a plurality of scans having different projection angle ranges of the detection light are performed continuously in response to an instruction to start operation. 3D input device.
JP19127898A 1998-06-18 1998-07-07 3D input device Expired - Fee Related JP3740848B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP19127898A JP3740848B2 (en) 1998-07-07 1998-07-07 3D input device
US09/334,918 US6424422B1 (en) 1998-06-18 1999-06-17 Three-dimensional input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP19127898A JP3740848B2 (en) 1998-07-07 1998-07-07 3D input device

Publications (2)

Publication Number Publication Date
JP2000028335A true JP2000028335A (en) 2000-01-28
JP3740848B2 JP3740848B2 (en) 2006-02-01

Family

ID=16271905

Family Applications (1)

Application Number Title Priority Date Filing Date
JP19127898A Expired - Fee Related JP3740848B2 (en) 1998-06-18 1998-07-07 3D input device

Country Status (1)

Country Link
JP (1) JP3740848B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2850384B1 (en) 2012-05-16 2017-07-26 Robert Bosch GmbH Method and system for the automatic optical inspection of the tread pattern of at least one wheel of a vehicle
WO2018221653A1 (en) * 2017-05-31 2018-12-06 新日鐵住金株式会社 Tubular body inner surface inspection method and tubular body inner surface inspection device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2850384B1 (en) 2012-05-16 2017-07-26 Robert Bosch GmbH Method and system for the automatic optical inspection of the tread pattern of at least one wheel of a vehicle
WO2018221653A1 (en) * 2017-05-31 2018-12-06 新日鐵住金株式会社 Tubular body inner surface inspection method and tubular body inner surface inspection device
JP6481216B1 (en) * 2017-05-31 2019-03-13 新日鐵住金株式会社 Tubular body surface inspection method and tubular body surface inspection apparatus

Also Published As

Publication number Publication date
JP3740848B2 (en) 2006-02-01

Similar Documents

Publication Publication Date Title
JP3873401B2 (en) 3D measurement system
JP4111592B2 (en) 3D input device
JP4111166B2 (en) 3D shape input device
JP4032603B2 (en) 3D measuring device
US7046838B1 (en) Three-dimensional data input method and apparatus
US6049385A (en) Three dimensional measurement system and pickup apparatus
US6233049B1 (en) Three-dimensional measurement apparatus
JP4306006B2 (en) Three-dimensional data input method and apparatus
US6424422B1 (en) Three-dimensional input device
JP3893169B2 (en) 3D measuring device
JP3493403B2 (en) 3D measuring device
JP2000283721A (en) Three-dimensional input device
JP3235485B2 (en) Spectroscopic device for three-dimensional measurement
JPH10124646A (en) Three-dimensional measuring device
JPH07174538A (en) Image input camera
JP4221808B2 (en) Three-dimensional data input method and apparatus
US6297881B1 (en) Three-dimensional measurement method and three-dimensional measurement device
JP3360505B2 (en) Three-dimensional measuring method and device
JP3324367B2 (en) 3D input camera
JPH11271030A (en) Three-dimensional measuring apparatus
JP3740848B2 (en) 3D input device
JP3861475B2 (en) 3D input device
JP3733625B2 (en) Imaging device for 3D measurement
JP2000275024A (en) Three-dimensional input apparatus
JP3196614B2 (en) 3D measuring device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040917

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041102

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050107

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050111

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20050107

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051031

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081118

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111118

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111118

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121118

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131118

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees