JPS63108204A - Size measuring method - Google Patents

Size measuring method

Info

Publication number
JPS63108204A
JPS63108204A JP25427886A JP25427886A JPS63108204A JP S63108204 A JPS63108204 A JP S63108204A JP 25427886 A JP25427886 A JP 25427886A JP 25427886 A JP25427886 A JP 25427886A JP S63108204 A JPS63108204 A JP S63108204A
Authority
JP
Japan
Prior art keywords
sensor
data
measured
correction data
size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP25427886A
Other languages
Japanese (ja)
Other versions
JPH0467887B2 (en
Inventor
Masao Takami
昌夫 高見
Hiroshi Kinuhata
衣畑 啓
Masayuki Cho
長 政幸
Masami Nishio
西尾 正巳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HIYUUTEC KK
Sumitomo Rubber Industries Ltd
Futec Inc
Original Assignee
HIYUUTEC KK
Sumitomo Rubber Industries Ltd
Futec Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HIYUUTEC KK, Sumitomo Rubber Industries Ltd, Futec Inc filed Critical HIYUUTEC KK
Priority to JP25427886A priority Critical patent/JPS63108204A/en
Publication of JPS63108204A publication Critical patent/JPS63108204A/en
Publication of JPH0467887B2 publication Critical patent/JPH0467887B2/ja
Granted legal-status Critical Current

Links

Abstract

PURPOSE:To accurately take a measurement of size even if respective cameras have different visual fields in case of the use of the plural cameras by inputting visual field correction data on sensors of the cameras and calibrating the actual measured size with the data. CONSTITUTION:A reference gauge 3 which is installed on a measurement reference surface 1 and has its X-directional size determined is irradiated with luminous flux D, the boundary between binarization black and white bits is extracted by arithmetic operation, and the visual field correction data on the sensors are calculated by arithmetic operation based on the relation between the extracted data and the determined size of the reference gauge 3 and stored in a memory 18 for the correction data. A body to be measured is irradiated with the luminous flux D, the boundary between binarization black and white bits is calculated as size data indicating the size of the irradiated part of the body to be measured, and the size of the object body is calculated by arithmetic operation based on the visual field correction data and outputted. Consequently, even if the cameras having deviation in the size (resolution) of a visual field, the influence of it is eliminated and the size is accurately measured.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、静止状態または移動状態の被測定物の寸法を
非接触で測定する寸法測定方法に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a dimension measuring method for measuring the dimensions of a stationary or moving object in a non-contact manner.

〔従来の技術〕[Conventional technology]

従来、非接触の寸法測定方法としては、光束の両側面が
互いに平行でかつ平らに形成されたスリット照明光を被
測定物に照射し、この照射箇所を少なくとも一個のカメ
ラが有する二次元センサ等で撮影して、この二次元セン
サからの出力信号を演算処理することによって被測定物
の寸法を算出する、いわゆる光切断法によるものが知ら
れている。
Conventionally, as a non-contact dimension measurement method, a two-dimensional sensor, etc., in which the object to be measured is irradiated with slit illumination light whose light beams are parallel to each other and formed flat, and at least one camera has this irradiation point, etc. A so-called optical cutting method is known in which the dimensions of an object to be measured are calculated by taking an image with a two-dimensional sensor and calculating the output signal from the two-dimensional sensor.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

しかし、この光切断法によるものは、実際上の測定精度
が充分に高くないため、その用途も制限されていた。そ
こで、本発明者は鋭意研究を重ねて測定精度がでない原
因を追及した結果、その原因がセンサを有するカメラ側
にあることが判明した。
However, since the measurement accuracy of this optical cutting method is not sufficiently high in practice, its use has been limited. Therefore, the inventor of the present invention conducted intensive research to find the cause of the lack of measurement accuracy, and as a result, it was found that the cause was on the camera side having the sensor.

つまり、カメラは1台または数台をまとめて使用され、
そして、カメラは所定のf値をもったレンズを備えて形
成されているが、同じメーカーにより同じように製造さ
れたカメラであっても、そのレンズのf値は少しずつば
らついているとともに、カメラの性能も夫々ばらついて
おり、しかも、測定箇所からカメラのレンズまでの距離
が、カメラの取付けの向きおよび取付は加減でばらつく
ことが分った。
In other words, one camera or several cameras may be used together.
Cameras are formed with lenses that have a predetermined f-number, but even if the cameras are manufactured in the same way by the same manufacturer, the f-number of the lens will vary slightly, and the camera It was found that the performance of the cameras varied, and furthermore, the distance from the measurement point to the camera lens varied depending on the direction in which the camera was mounted and the degree of mounting.

そして、これらのばらつきによりカメラの視野が異なり
、それに伴ってセンサの分解能も異なるという問題があ
り、これがために正確な測定が困難になるという問題が
あった。
These variations cause a problem in that the field of view of the camera differs, and the resolution of the sensor also differs accordingly, making accurate measurement difficult.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、測定基準面に設置されるとともにX方向の寸
法が決定されている基準ゲージに光束を照射し、その被
照射箇所を照射面側または反照射面側に配置したカメラ
が有する一次元センサまたは二次元センサに投影して、
このセンサからのアナログ信号を任意なスレッショルド
電圧でスライスして白黒ビットに振分けて2値化した後
、2値化された白黒ビットの境界を演算により抽出して
、この抽出データと上記基準ゲージに決定された寸法と
の関係をもとに演算により上記センサの視野補正データ
を算出して補正データ用メモリに格納してから、被測定
物に光束を照射し、その被照射箇所を上記センサに投影
して、このセンサからのアナログ信号を任意なスレッシ
ョルド電圧でスライスして白黒ビットに振分けて2値化
した後、2値化された白黒ビットの境界を演算により上
記被測定物における被照射箇所の寸法を示す寸法データ
として抽出し、この寸法データと上記メモリに格納され
た上記センサの視野補正データとをもとにして被測定物
の寸法を演算により算出して出力することを特徴とする
The present invention is a one-dimensional camera that irradiates a reference gauge, which is installed on a measurement reference plane and has a determined dimension in the Projected onto a sensor or two-dimensional sensor,
After slicing the analog signal from this sensor using an arbitrary threshold voltage, dividing it into black and white bits, and converting it into binary data, the boundary between the binary black and white bits is extracted by calculation, and this extracted data is combined with the above reference gauge. The field of view correction data of the sensor is calculated based on the relationship with the determined dimensions and stored in the correction data memory, and then the object to be measured is irradiated with a beam of light, and the irradiated area is directed to the sensor. After projecting and slicing the analog signal from this sensor using an arbitrary threshold voltage and dividing it into black and white bits and binarizing it, the boundary of the binarized black and white bits is calculated to determine the irradiated location on the object to be measured. , and the dimensions of the object to be measured are calculated and output based on this dimension data and field of view correction data of the sensor stored in the memory. .

〔作用〕[Effect]

上記解決手段を備えた測定方法および装置は、測定を始
めるに当たって、あるいは測定を一時中断して基準ゲー
ジを測定基準面に設置して、この基準面上の基準ゲージ
を光源からの光で照射して、被照射箇所をカメラのセン
サに投影する。そして、このセンサからのアナログ信号
をスレッショルド電圧を境にして白ビットと黒ビットに
振分けて2値化する。このようにして2値化された白黒
ビットはパンツアメモリ上においてマトリックス的に配
置されていると見なされるから、次ぎに、白黒ビットの
境界を示すデータ、つまりは基準ゲージにおける被照射
箇所のX方向に沿う寸法を、演算によって抽出した後、
この抽出データと基準ゲージに定められている寸法をも
とに、センサのX方向の視野内の1ビツトが実際の何m
に対応するかを換算する視野補正データを2iIi算し
て、そのデータを補正データ用メモリに取込む。このメ
モリに取込まれた視野補正データは、以後新たに視野補
正データが取込まれるまで保存される。この後、被測定
物に対して光束を照射して、その被照射箇所をセンサに
投影する。そして、センサからのアナログ信号をスレッ
ショルド電圧を境にして白黒ビットに2値化してから、
この白黒ビットの境界、つまりは被測定物における被照
射箇所の寸法を示す寸法データを、演算によって抽出す
る。最後に、この寸法データと上記補正データ用メモリ
に格納されている視野補正データとをもとにして被測定
物の寸法を算出する。以上のように上記基準ゲージを使
用してセンサの視野補正データを取込んで、このデータ
で実際の測定寸法を校正するから、1台のみのカメラで
被測定物全体を撮影する場合にあっては、購入したカメ
ラの仕様書に記載されたカメラのf値等の性能と実際の
視野の大きさにずれをなくすことができる。また、複数
台のカメラで被測定物を部分ごとに分割して撮影する場
合には、各カメラ相互の視野の大きさく分解能)にずれ
があっても、その影響を排除して正確に寸法を測定でき
る。
The measuring method and device equipped with the above-mentioned solving means installs a reference gauge on a measurement reference surface before starting measurement or temporarily suspends measurement, and irradiates the reference gauge on this reference surface with light from a light source. Then, the irradiated area is projected onto the camera sensor. Then, the analog signal from this sensor is divided into white bits and black bits with a threshold voltage as the boundary, and then binarized. Since the black and white bits binarized in this way are considered to be arranged in a matrix on the Panzer memory, next we need data indicating the boundaries of the black and white bits, that is, the X of the irradiated area on the reference gauge. After extracting the dimension along the direction by calculation,
Based on this extracted data and the dimensions specified in the reference gauge, we can determine how many meters actually corresponds to one bit within the field of view in the X direction of the sensor.
The field of view correction data corresponding to 2iIi is calculated and the data is taken into the correction data memory. The visual field correction data taken into this memory is stored until new visual field correction data is taken in thereafter. Thereafter, the object to be measured is irradiated with a light beam, and the irradiated location is projected onto the sensor. Then, after converting the analog signal from the sensor into black and white bits using the threshold voltage as the boundary,
The boundary between the black and white bits, that is, dimension data indicating the dimensions of the irradiated area on the object to be measured is extracted by calculation. Finally, the dimensions of the object to be measured are calculated based on this dimension data and the visual field correction data stored in the correction data memory. As described above, the field of view correction data of the sensor is imported using the reference gauge, and the actual measured dimensions are calibrated using this data. It is possible to eliminate the discrepancy between the camera's performance, such as the f-number, described in the specifications of the purchased camera and the actual field of view. In addition, when dividing the object to be measured into parts and photographing them using multiple cameras, even if there is a discrepancy in the field of view (size or resolution) of each camera, this effect can be eliminated and the dimensions can be accurately captured. Can be measured.

〔実施例〕〔Example〕

まず、本発明方法を実施する装置の一例を第1図から第
10図を参照して説明する。
First, an example of an apparatus for carrying out the method of the present invention will be explained with reference to FIGS. 1 to 10.

第1図、第4図〜第8図中1は測定基準面であり、測定
箇所に固定的または着脱可能に設置された例えば測定台
2の平らな上面により形成されている。この基準面1に
は基準ゲージ3が着脱自在に設置されるとともに、被測
定物4(第8図参照)が着脱自在に設置されるようにな
っている。なお、被測定物4が移動物体である場合には
、その移動を案内するローラなどの頂部を測定基準面1
としてもよい。
Reference numeral 1 in FIGS. 1 and 4 to 8 indicates a measurement reference surface, which is formed by, for example, the flat upper surface of a measurement table 2 fixedly or removably installed at a measurement location. A reference gauge 3 is removably installed on this reference surface 1, and an object to be measured 4 (see FIG. 8) is also removably installed. Note that when the object to be measured 4 is a moving object, the top of a roller or the like that guides its movement is placed on the measurement reference surface 1.
You can also use it as

基準ゲージ3はX方向(横方向)に沿って2種類の寸法
A、Bが決定されているとともに、必要に応じてY方向
(I方向)に沿う寸法Cも決定されているものであって
、第2図に図示されるように凹凸状をなしている。
The reference gauge 3 has two dimensions A and B determined along the X direction (lateral direction), and a dimension C along the Y direction (I direction) as required. , has an uneven shape as shown in FIG.

被測定物4には、連続して移動される帯状物体、例えば
、タイヤ押出トレッド、車輌等の窓用ウェザ−ストリッ
プ、アルミニューム合金等の押出し型材、金属の引き抜
き材、金属または樹脂製の中実材、型鋼、a4板をプレ
ス加工したもの、鋼板を曲げ加工したもの、または非連
続な合成樹脂成形品および木製物体等、種々の被測定物
があげられる。また、被測定物4は測定基準面1上を移
動されるものでなくてもよい。
The object to be measured 4 includes a continuously moving strip-shaped object, such as an extruded tire tread, a weather strip for a window of a vehicle, an extruded material such as an aluminum alloy, a drawn material of metal, and a metal or resin medium. Various objects to be measured may be used, such as real wood, shaped steel, pressed A4 plates, bent steel plates, discontinuous synthetic resin molded products, and wooden objects. Further, the object to be measured 4 does not need to be moved on the measurement reference plane 1.

測定基準面1の上方には投光器5が配設されている。投
光器5はハロゲンランプなどの光源6を少なくとも一台
例えば5台有して形成されていて、これら複数台の光源
6からの光束りは、例えば投光器5が備えるスリットお
よびレンズなどを介して平らな面を有するように制御さ
れて、その平らな面が測定基準面1を横切るようにして
上記測定基準面1の各部を幅方向に分担して照明するよ
うになっている。
A floodlight 5 is disposed above the measurement reference plane 1 . The projector 5 is formed with at least one, for example, five, light sources 6 such as halogen lamps, and the light beams from the plurality of light sources 6 are transmitted through, for example, slits and lenses provided in the projector 5 to a flat surface. It is controlled to have a flat surface, and the flat surface crosses the measurement reference surface 1, so that each part of the measurement reference surface 1 is dividedly illuminated in the width direction.

各光源6は、調光手段7に夫々接続されており、この手
段7を通して印加される電圧の変化で、被測定物4によ
り異なる撮影レベルに応じて、明るさを自動的に制御さ
れるようになっているとともに、この制御により後述す
る全カメラ9が適正な撮影レベルとなったことを図示し
ないAND回路により判定して、そのANDの成立によ
り各カメラ9が有するセンサ11から出力するように構
成されている。
Each light source 6 is connected to a dimming means 7, and by changing the voltage applied through this means 7, the brightness is automatically controlled according to the photographing level that varies depending on the object to be measured 4. In addition, through this control, it is determined by an AND circuit (not shown) that all cameras 9, which will be described later, have reached the appropriate shooting level, and when the AND is established, an output is output from the sensor 11 of each camera 9. It is configured.

さらに、測定基準面1の上方には受光器8が配設されて
いる。受光器8は1台または複数台のカメラからなり、
本実施例の場合には7台のカメラ9と、これらに同期信
号を供給する同期信号発生回路10とで形成されている
。カメラ9には一次元または二次元のセンサを内蔵する
ものが使用され、本実施例の場合には244X320ビ
ツトのMOSエリアアレーセンサ(二次元センサ)を内
蔵したカメラ9が使用されている。
Further, a light receiver 8 is disposed above the measurement reference plane 1 . The light receiver 8 consists of one or more cameras,
In the case of this embodiment, it is formed of seven cameras 9 and a synchronization signal generation circuit 10 that supplies synchronization signals to these cameras. The camera 9 has a built-in one-dimensional or two-dimensional sensor, and in this embodiment, the camera 9 has a built-in 244 x 320 bit MOS area array sensor (two-dimensional sensor).

これらのカメラ9は上記測定基準面1上の被測定物4を
各部分ごとに分割して撮影するものであり、このような
分割撮影によって一台のカメラ9のみで被測定物4全体
を撮影する場合に比較して分解能を向上するようになっ
ている。また、各カメラ9の撮影レベルは上記調光手段
7を介して光源6にフィードバックされるようになって
いる。
These cameras 9 are for dividing and photographing the object 4 on the measurement reference plane 1 into each part, and by such divided photography, the entire object 4 to be measured can be photographed with only one camera 9. The resolution is improved compared to when Further, the photographing level of each camera 9 is fed back to the light source 6 via the light control means 7.

第1図に示されるように上記投光器5およびカメラ9は
、光源6からの光束りの光軸およびカメラ9の光軸Eの
被測定物4上での交点において立てた垂線Fに対して、
上記光束りの光軸をα0傾けるとともに、カメラ9の光
軸Eをβ0傾けて配設され、これらの角度を夫々(45
±20)0としである。なお、α+βは90°である方
がより望ましい。また、上記調光手段7に代えて各カメ
ラ9に自動絞り機構を備えたものを使用して、この機構
によって被測定物4により異なる撮影レベルに応じて絞
りが適正な値に自動制御されるようにするとともに、こ
の制御により全カメラ9が適正な撮影レベルとなったこ
とを図示しないAND回路により判定して、そのAND
の成立により各カメラ9が有するセンサ11から出力す
るように構成してもよい。
As shown in FIG. 1, the projector 5 and the camera 9 are connected to a perpendicular F made at the intersection of the optical axis of the light beam from the light source 6 and the optical axis E of the camera 9 on the object to be measured 4.
The optical axis of the light beam is tilted by α0, and the optical axis E of the camera 9 is tilted by β0, and these angles are respectively (45
±20) 0. Note that it is more desirable that α+β be 90°. In addition, instead of the light control means 7, each camera 9 is equipped with an automatic aperture mechanism, and this mechanism automatically controls the aperture to an appropriate value according to the photographing level that varies depending on the object to be measured 4. In addition, it is determined by an AND circuit (not shown) that all the cameras 9 have reached the appropriate shooting level through this control, and the AND circuit is used.
It may be configured such that the sensor 11 of each camera 9 outputs the output when the following is established.

上記各カメラ9のセンサ11を夫々ラスタスキャンする
図示しない各駆動機構の出力端は、センサセレクタ12
を介して処理装置13に内蔵の2値化手段14に接続さ
れている。処理装置13には、上記2値化手段14、バ
ッファメモリ15、エラー消去手段16、境界抽出手段
17、補正データ用メモリ18、寸法補正手段19が設
けられており、これらの手段等はCPLJ20によって
実現されている。
The output end of each drive mechanism (not shown) that raster scans the sensor 11 of each camera 9 is connected to a sensor selector 12.
It is connected to the binarization means 14 built into the processing device 13 via the processing device 13 . The processing device 13 is provided with the binarization means 14, a buffer memory 15, an error erasure means 16, a boundary extraction means 17, a correction data memory 18, and a dimension correction means 19. It has been realized.

2値化手段14は、上記センサ11からのアナログ信号
を、任意なスレッショルド電圧でスライスして白黒ビッ
トに振分けるように構成されている。そして、実施例の
2値化手段14は、例えば第9@中上側の波形で例示さ
れるようなセンサ11からのアナログ出力信号Gについ
て、ラスタ毎(なお、本実施例はセンサ11に二次元の
ものを使用した関係で一〜十数本以内のラスタ毎としで
ある。)における最大電圧値VHと最低電圧値VLとを
求めてから、これらの値VH,VLの略1/2つまり1
/2±15%の電圧値をスレッショルド電圧sv (L
きい値)として、この電圧で、同電圧を求めたラスタあ
るいは次ぎのラスタに係るセンサ11からのアナログ信
号をスライスして、第9図中下側の波形で例示したよう
に白黒ビットに振分けて2値化するようになっている。
The binarization means 14 is configured to slice the analog signal from the sensor 11 using an arbitrary threshold voltage and divide it into black and white bits. Then, the binarization means 14 of the embodiment converts the analog output signal G from the sensor 11 as exemplified by the 9th @ middle upper waveform for each raster (in addition, in this embodiment, the sensor 11 has a two-dimensional The maximum voltage value VH and the minimum voltage value VL are determined for each raster (from one to more than ten rasters), and approximately 1/2 of these values VH and VL, that is, 1
/2±15% voltage value as threshold voltage sv (L
With this voltage, the analog signal from the sensor 11 related to the raster for which the same voltage was obtained or the next raster is sliced and divided into black and white bits as illustrated by the lower waveform in Fig. 9. It is designed to be binarized.

このような2値化手段14は、光むらに拘らずより確実
に2値化をするための配慮である。しかも、本実施例に
おいて一〜十数本以内のラスタ毎とした理由は経験的な
確認によるものであって、かつ、それを越えるラスタ数
を使用する場合には2値化の信頼性が実用上において問
題を生じる程度に低下したことによる。なお、この2値
化手段14はアナログ処理回路からなる論理回路に代え
てもよく、その場合には処理速度をより高めることがで
きる。
Such a binarization means 14 is a consideration for more reliable binarization regardless of light unevenness. Moreover, the reason why each raster is set to within one to ten or more in this example is based on empirical confirmation, and when using more than that number of rasters, the reliability of binarization is not practical. This is due to the fact that the above level has deteriorated to the extent that it causes problems. Note that this binarization means 14 may be replaced with a logic circuit consisting of an analog processing circuit, in which case the processing speed can be further increased.

バッファメモリ15は以上のようにして得た2値化デー
タを格納するものであって、格納された2値化データの
エラーは上記エラー消去手段16で消去される。この手
段16は、第10図中上側に例示した白黒ビット格納状
態において白ビットの複数(例えば10ビット以内)デ
ータに両側が隣接している黒データb1、および黒ビッ
トの複数(例えば10ビット以内)データに両側が隣接
している白データb2がある場合に、これらのデータb
l、 b2を、エラーデータと判定して第10図中下側
に例示した白黒ビット格納状態に示すように両側に隣接
しているデータに同化させるという、差異データの平滑
化処理を行なう構成である。このエラー消去によって2
値化データの誤りがなくなって、後述のようにして得ら
れる被測定物4の輪郭をより明確化できるものである。
The buffer memory 15 stores the binary data obtained as described above, and errors in the stored binary data are erased by the error erasing means 16. This means 16 stores black data b1 that is adjacent on both sides to a plurality of white bits (for example, within 10 bits) data in the black and white bit storage state illustrated in the upper part of FIG. ) If the data has white data b2 adjacent on both sides, these data b
1, b2 are determined to be error data and are assimilated into the data adjacent on both sides as shown in the black and white bit storage state illustrated in the lower part of FIG. be. By erasing this error, 2
This eliminates errors in the valued data, and the outline of the object to be measured 4 obtained as described later can be made clearer.

なお、この手段16は必要により省略してもよい。Note that this means 16 may be omitted if necessary.

上記境界抽出手段17は、2値化データが上記バッファ
メモリ15においてマトリックス的に配置されていると
見なし得ることから、このマトリックスにおける白黒ビ
ットの境界、つまりは基準ゲージ3および被測定物4に
対して直角に交差する被照射箇所における寸法を演算に
よって抽出するように構成された手段である。また、こ
の抽出手段17は、外部キーボード21により補正デー
タ用メモリ18に予め入力されている上記基準ゲージ3
に決定されている基準寸法(寸法A、B。
Since the binarized data can be considered to be arranged in a matrix in the buffer memory 15, the boundary extracting means 17 detects the boundary between the black and white bits in this matrix, that is, the reference gauge 3 and the object to be measured 4. This means is configured to extract, by calculation, the dimensions of the irradiated locations that intersect at right angles. Further, this extraction means 17 extracts the reference gauge 3 which has been input in advance into the correction data memory 18 using the external keyboard 21.
The standard dimensions determined in (dimensions A and B).

C)と、上記演算により抽出した基準ゲージ3の寸法測
定データとの関係をもとにして、演算により上記センサ
11の視野補正データを口出するように構成されている
。なお、以下の視野X方向オーバーラツプおよびY軸方
向の各補正データの算出機能は省略しても差支えないが
、本実施例は被測定物の寸法をもとにして断面形状も測
定するために、上記抽出手段17は、上記演算により抽
出した基準ゲージ3の寸法測定データと、外部キーボー
ド21から予め入力されている上記基準ゲージ3に決定
されている基準寸法(寸法A、B、C)との関係をもと
にして、演算により隣接するセンサ11の視野X方向オ
ーバーラツプの補正データを算出するようにも構成され
ているとともに、上記抽出データと各センサ11のY方
向の基準との関係をもとにして演算により各センサ11
のY方向の補正データを算出するようにも構成されてい
る。
C) and the dimension measurement data of the reference gauge 3 extracted by the above calculation, the field of view correction data of the sensor 11 is determined by calculation. Note that the functions for calculating the correction data for the field of view X-direction overlap and Y-axis direction below may be omitted, but in this example, the cross-sectional shape is also measured based on the dimensions of the object to be measured. The extraction means 17 extracts the dimension measurement data of the reference gauge 3 extracted by the above calculation and the reference dimensions (dimensions A, B, C) determined for the reference gauge 3 inputted in advance from the external keyboard 21. Based on the relationship, it is configured to calculate correction data for overlap in the field of view in the X direction of adjacent sensors 11 by calculation, and also calculates the relationship between the extracted data and the reference in the Y direction for each sensor 11. By calculation, each sensor 11
It is also configured to calculate Y-direction correction data.

そして、上記各補正データは、補正データ用メモリ18
に格納されるようになっており、これらの各補正データ
は新たな補正データが格納されるまで保存される。
Each of the above correction data is stored in the correction data memory 18.
Each of these correction data is stored until new correction data is stored.

また、上記境界抽出手段17によって抽出された被工q
定物4の被照射箇所の寸法を示すデータは寸法補正手段
19に取込まれるようになっている。
Further, the workpiece q extracted by the boundary extraction means 17
Data indicating the dimensions of the irradiated portion of the fixed object 4 is taken into the dimension correction means 19.

この補正手段19は、取込んだ上記データと上記補正デ
ータ用メモリ18に格、納されている補正データとをも
とにして、被測定物4の寸法を演算により算出して外部
に出力するように構成されている。そして、この補正手
段19の出力端には上記処理装置13の外部に設けられ
るプリンタ22、モニタテレビ23、および磁気ディス
ク等の記録ディスク24などの少なくとも一つが接続さ
れている。なお、モニタテレビ23には受光器8の各カ
メラ9が夫々内蔵したセンサ11からの信号、21B化
データ、および上記寸法補正手段19のデータ出力が、
図示しない切換え手段により選択的に入力されるように
なっている。
This correction means 19 calculates the dimensions of the object to be measured 4 based on the captured data and the correction data stored in the correction data memory 18, and outputs it to the outside. It is configured as follows. The output end of the correction means 19 is connected to at least one of a printer 22, a monitor television 23, and a recording disk 24 such as a magnetic disk, which are provided outside the processing device 13. The monitor television 23 receives signals from the sensors 11 built into each camera 9 of the light receiver 8, 21B conversion data, and data output from the dimension correction means 19.
It is designed to be selectively input by a switching means (not shown).

そして、以上の構成の装置は第11図および第12図に
示す順序によって被測定物4の寸法を測定する。なお、
本実施例はセンサ11に二次元のものを使用しであるか
ら同時に断面形状も測定する。
The apparatus having the above configuration measures the dimensions of the object to be measured 4 in the order shown in FIGS. 11 and 12. In addition,
Since this embodiment uses a two-dimensional sensor 11, the cross-sectional shape is also measured at the same time.

つまり、ステップ1では、投光器5の各光源6を点灯す
ることにより、第7図に示すように平らな面を有した光
束りを測定基準面1にこれを横切るようにして照射させ
る。
That is, in step 1, each light source 6 of the projector 5 is turned on to irradiate the measurement reference surface 1 with a beam of light having a flat surface as shown in FIG. 7 so as to cross the measurement reference surface 1.

ステップ2では、受光器8の各カメラ9が夫々有したセ
ンサ11のY方向に対する基準位置を決定する。この決
定は次ぎの■〜■の順序を経てなされる。■まず、上記
測定基準面1の被照射箇所が投影されている各センサ1
1の駆動機構を動作させて、各センサ11をラスタスキ
ャンしてアナログ信号を出力する。■こ9アナログ信号
はセンサセレクタ12を通って、各センサ11毎に順に
2値化手段14に入力する。■2値化手段14は、入力
したアナログ信号についてラスク毎における最大の電圧
値VHと最低電圧値VLとを求めて、これらの値の略1
/2の電圧をスレッショルド電圧S■として設定し、こ
の電圧Svで上記アナログ信号をスライスして、測定基
準面1に光が当たっている箇所を白ビットとするととも
に測定基準面1に光が当たっていない箇所を黒ビットと
じて振分けて2値化する。■そして、この2値化データ
はバッフ7メモリ15に格納されてから、■そのエラー
データがエラー消去手段16により正された後、境界抽
出手段17に入力する。■この手段17は、白黒ピット
の境界(つまり、この場合は第7図および第8図中に示
す測定基準面1における光の境界1it)を抽出した後
、■この境界線とセンサ11が取込んだモニタテレビの
一画面相当の任意画素m(例えば最も下のラスタ)との
間の^さylを算出する。この演算により、各センサ1
1のY方向の基準位置、つまりはY方向の補正データy
1を得、この補正データv1は補正データ用メモリ18
に格納される。したがって、第8図に示すように測定基
準面1上の被測定物4のY方向の寸法y2は、センサ1
1が取込んだ二次元画像中、上記基準位置と被測定物4
との間の寸法をYと置くことにより、V2−Y−Vlの
演算式で算出できる。
In step 2, the reference position of the sensor 11 of each camera 9 of the light receiver 8 in the Y direction is determined. This decision is made through the following steps (1) to (2). ■First, each sensor 1 on which the irradiated area of the measurement reference surface 1 is projected
1 drive mechanism is operated to raster scan each sensor 11 and output an analog signal. (2) These nine analog signals pass through the sensor selector 12 and are input to the binarization means 14 for each sensor 11 in turn. (2) The binarization means 14 determines the maximum voltage value VH and minimum voltage value VL for each rask with respect to the input analog signal, and approximately 1 of these values.
/2 is set as the threshold voltage S■, and the above analog signal is sliced with this voltage Sv, and the part where the light hits the measurement reference surface 1 becomes a white bit, and the part where the light hits the measurement reference surface 1 is set as a white bit. The parts that are not marked are divided into black bits and binarized. (2) This binary data is stored in the buffer 7 memory 15, and (2) the error data is corrected by the error erasing means 16 and then input to the boundary extracting means 17. ■This means 17 extracts the boundary between black and white pits (that is, in this case, the boundary 1it of light on the measurement reference plane 1 shown in FIGS. 7 and 8), and then The distance between an arbitrary pixel m (for example, the lowest raster) corresponding to one screen of a monitor television set is calculated. By this calculation, each sensor 1
1 reference position in the Y direction, that is, the correction data y in the Y direction
1 is obtained, and this correction data v1 is stored in the correction data memory 18.
is stored in Therefore, as shown in FIG. 8, the dimension y2 of the object to be measured 4 on the measurement reference plane 1 in the Y direction is
In the two-dimensional image captured by 1, the reference position and the object to be measured 4
By setting Y as the dimension between , it can be calculated using the formula V2-Y-Vl.

ステップ3では、測定基準面1の上面に基準ゲージ3を
置く。それによりステップ4に移って基準ゲージ3を光
切断法によって計測する。この計測は第12図に示すス
テップ13〜19を経て実施される。つまり、まず、ス
テップ13では各センサで基準ゲージ3の被照射箇所を
受光する(換言すれば被照射箇所を撮像する。)。そし
て、各センサ11の駆動機構を動作させて、各センサ1
1をラスタスキャンしてアナログ信号を出力する。ステ
ップ14では、アナログ信号をセンサセレクタ12を通
して、各センサ11ごとに順に2値化手段14に入力さ
せる。ステップ15では、入力したアナログ信号(つま
り、二次元映像信号)を、2値化手段14により、アナ
ログ信号についてラスク毎における最大の電圧値VHと
最低電圧値VLとを求めて、これらの値の略1/2の電
圧をスレッショルド電圧S■として設定し、この電圧S
Vで上記アナログ信号をスライスして、基準測定面1に
光が当たっている箇所を白ビットとするとともに基準測
定面1に光が当たっていない箇所を黒ビットとして振分
けて2値化する。ステップ16では2値化データをバッ
ファメモリ15に格納する。そしてステップ17では、
センサセレフタ12によって入力される各センサ11の
アナログ信号について上記ステップ15および16を繰
返す。この後、ステップ18でバッファメモリ15に格
納された2値化データについてのエラーデータを、エラ
ー消去手段16により正す。最後にステップ19で、バ
ッフ7メモリ15に格納されたモニタテレビの一画面相
当の2値化データについて境界抽出手段17で、白黒ビ
ットの境界(この場合は基準ゲージ3における凹部の底
面および凸部の上面ならびにこれら底面と上面とをつな
いだ垂直な境界)を抽出する。
In step 3, the reference gauge 3 is placed on the upper surface of the measurement reference surface 1. Thereby, the process moves to step 4, and the reference gauge 3 is measured by the optical cutting method. This measurement is performed through steps 13 to 19 shown in FIG. That is, first, in step 13, each sensor receives light at the irradiated location of the reference gauge 3 (in other words, the irradiated location is imaged). Then, by operating the drive mechanism of each sensor 11, each sensor 1
1 is raster scanned and an analog signal is output. In step 14, the analog signal is input to the binarization means 14 for each sensor 11 in sequence through the sensor selector 12. In step 15, the input analog signal (that is, the two-dimensional video signal) is converted into a binary signal by the binarization means 14 to determine the maximum voltage value VH and minimum voltage value VL for each rask, and calculate these values. Approximately 1/2 of the voltage is set as the threshold voltage S, and this voltage S
The analog signal is sliced at V, and the portions where the reference measurement surface 1 is illuminated are treated as white bits, and the portions where the reference measurement surface 1 is not illuminated are divided into black bits and binarized. In step 16, the binarized data is stored in the buffer memory 15. And in step 17,
The above steps 15 and 16 are repeated for each sensor 11 analog signal input by the sensor selector 12. Thereafter, in step 18, error data regarding the binarized data stored in the buffer memory 15 is corrected by the error erasing means 16. Finally, in step 19, the boundary extraction means 17 extracts the binarized data corresponding to one screen of the monitor television stored in the buffer 7 memory 15 from the boundaries of black and white bits (in this case, the bottom of the concave part and the convex part in the reference gauge 3). , and the vertical boundary connecting these bottom and top surfaces).

以上でステップ4が実行され、次ぎにステップ5に移っ
て各センサ11の視野補正データを求める。このデータ
は上記境界抽出手段17での演算により算出される。す
なわち、この場合、上記センサ11が取込んだ基準ゲー
ジ3の二次元的画像が第4図の斜線で示すようなもので
、この画像中における凹部底面のX方向の実測寸法がH
ビットで、かつ上記垂直な境界のY方向の実測寸法がI
ビットであったとする。そして、第3図において左端の
センサ11の視野工についての分解能がバッファメモリ
での二次元的画像上で、X方向がJビット、でY方向か
にビットであれば、次ぎに演算式によって上記左端のセ
ンサ11の視野補正データが算出される。
Step 4 is executed above, and then the process moves to step 5 to obtain visual field correction data for each sensor 11. This data is calculated by the boundary extraction means 17. That is, in this case, the two-dimensional image of the reference gauge 3 captured by the sensor 11 is as shown by diagonal lines in FIG. 4, and the actual measured dimension in the X direction of the bottom of the recess in this image is H.
bit, and the actual measured dimension in the Y direction of the vertical boundary is I
Suppose it is a bit. In FIG. 3, if the resolution of the field of view of the sensor 11 at the left end is J bits in the X direction and bits in the Y direction on the two-dimensional image in the buffer memory, then the above calculation formula can be used to calculate the Visual field correction data for the leftmost sensor 11 is calculated.

X方向の視野補正データ×1 −B/H(m/ビット) Y方向の視野補正データY1 =C/I(ax/m/ビッ トたがって、上記左端のセンサ11のX方向、およびY
方向の視野は、次のP14算式によって算出される。
Visual field correction data in the X direction x 1 -B/H (m/bit) Visual field correction data in the Y direction Y1 = C/I (ax/m/bit) Therefore, the X direction of the leftmost sensor 11, and the Y
The field of view in the direction is calculated by the following P14 formula.

X方向の視野−JXB/H(am/ビット)Y方向の視
野−KXC/I(m/ビット)そして、上記の演算によ
り求められた視野補正データXi、Y1は補正データ用
メモリ18に格納される。この視野補正データは各セン
サ11の視野■、■について夫々求められて上記メモリ
18に格納される。
The visual field in the X direction - JXB/H (am/bit) The visual field in the Y direction - KXC/I (m/bit) The visual field correction data Xi and Y1 obtained by the above calculation are stored in the correction data memory 18. Ru. This visual field correction data is obtained for the visual fields (1) and (2) of each sensor 11, respectively, and stored in the memory 18.

この後、ステップ6が実施されて、第3図におけるLで
示される視野X方向のオーバーラツプの補正データを求
める。このデータは上記境界抽出手段17での演算によ
り算出される。すなわち、視野オーバーラツプは隣接す
るセンサ11同志の内一方が、上記ステップ4で取込ん
だ二次元的画像が第5図に示され、かつ隣接する他方の
センサ11が、上記ステップ4で取込んだ二次元的画像
が第6図に示されるようなものであったとした場合、こ
れらの図において、 (M1+N2−L)ビットは、基準ゲージのX方向の寸
法(A+8)#Iに等しい。ここに、Mlは隣接した視
野うち左側に位置される視野内の上記基準ゲージ3の二
次元的画像におけるX方向の全長01からオーバーラツ
プしない凸部の画像長さN1を減算した長さ、M2は隣
接した視野のうち右側に位置される視野内の上記基準ゲ
ージ3の二次元的画像におけるX方向にオーバーラツプ
した凸部の画像長さ、そしてLは上記オーバーラツプ寸
法である。
Thereafter, step 6 is carried out to obtain correction data for the overlap in the visual field X direction indicated by L in FIG. This data is calculated by the boundary extraction means 17. In other words, field of view overlap occurs when one of the adjacent sensors 11 captures the two-dimensional image in step 4 as shown in FIG. 5, and the other adjacent sensor 11 captures the two-dimensional image in step 4 above. If the two-dimensional images were as shown in FIG. 6, in these figures the (M1+N2-L) bit is equal to the dimension (A+8)#I of the reference gauge in the X direction. Here, Ml is the length obtained by subtracting the image length N1 of the non-overlapping convex portion from the total length 01 in the X direction of the two-dimensional image of the reference gauge 3 in the field of view located on the left side of the adjacent field of view, and M2 is L is the image length of the convex portions that overlap in the X direction in the two-dimensional image of the reference gauge 3 in the field of view located on the right side of the adjacent field of view, and L is the overlap dimension.

したがって、これら隣接した視野のオーバーラツプ補正
データLは次ぎの演算式で算出される。
Therefore, overlap correction data L for these adjacent visual fields is calculated using the following equation.

L(ビット) −(M1+N2)−(A+B)/X1 そして、上記の演算により求められた視野オーバラップ
補正データLは補正データ用メモリ18に格納される。
L (bit) −(M1+N2)−(A+B)/X1 Then, the visual field overlap correction data L obtained by the above calculation is stored in the correction data memory 18.

この補正データLは隣接するセンサ11について夫々求
められて上記メモリ18に格納される。
This correction data L is obtained for each adjacent sensor 11 and stored in the memory 18.

以上のステップ1〜6により、各カメラ9のY方向の寸
法、視野、視野オーバーラツプについての補正データの
格納が完了され、その直後にステップ7に移って測定ス
タート持ちとなる。そして、装置を校正モードから測定
モードに切換えて、ステップ8により被測定物4を測定
基準面1上に設置して測定をスタートする。測定のスタ
ートにより、投光器5の各光源6を点灯することにより
、第7図に示すように平らな面を有した光束りを被測定
物4を載せた測定基準面1にこれを横切るようにして照
射させて、ステップ9を実施する。
Through steps 1 to 6 described above, storage of correction data regarding the dimension in the Y direction, field of view, and field of view overlap of each camera 9 is completed, and immediately after that, the process moves to step 7 to start measurement. Then, the apparatus is switched from the calibration mode to the measurement mode, and in step 8, the object to be measured 4 is placed on the measurement reference surface 1, and measurement is started. At the start of measurement, each light source 6 of the projector 5 is turned on, so that a beam of light having a flat surface is made to cross the measurement reference surface 1 on which the object to be measured 4 is placed, as shown in FIG. Then, step 9 is performed.

次ぎのステップ10では上記ステップ13〜19が繰返
される。このステップ10で抽出された被測定物4の寸
法を示す寸法データは、上記補正データ用メモリ18に
格納されることなく、次ぎのステップ11を実施する寸
法補正手段19に出力される。そしてステップ11では
、寸法補正手段19がこれに入力された寸法データと上
記メモリ18に格納された各種補正用データとをもとに
して被測定物4のX方向の寸法を演算する。なお、本実
施例における寸法補正手段19は上記各データをもとに
して被測定物4のY方向の実厚み寸法d1をも算出する
から、これらX、Yの両方の寸法により断面形状を演算
する。Y方向の実質厚み寸法d1は、 dl −(Y−yl> XB/ I (alI)の式で
演算して求められる。なお、この式におけるY、Vl、
およびdlは第8図において示される。
In the next step 10, steps 13 to 19 are repeated. The dimension data indicating the dimensions of the object to be measured 4 extracted in this step 10 is output to the dimension correction means 19 which carries out the next step 11 without being stored in the correction data memory 18. In step 11, the dimension correction means 19 calculates the dimension of the object to be measured 4 in the X direction based on the dimension data input thereto and various correction data stored in the memory 18. In addition, since the dimension correction means 19 in this embodiment also calculates the actual thickness dimension d1 of the object to be measured 4 in the Y direction based on the above-mentioned data, the cross-sectional shape can be calculated using both these X and Y dimensions. do. The actual thickness dimension d1 in the Y direction is calculated by the formula dl - (Y-yl> XB/I (alI). In this formula, Y, Vl,
and dl are shown in FIG.

かくして算出された被測定物4の寸法、および被測定物
4のY方向の実厚み寸法d1のパターンを認識すること
により得られる断面形状は、ステップ12の実行により
プリンタ22、モニタテレビ23、記録ディスク24な
どの外部機器に出力される。
The dimensions of the object 4 thus calculated and the cross-sectional shape obtained by recognizing the pattern of the actual thickness dimension d1 in the Y direction of the object 4 are printed on the printer 22, the monitor television 23, and the recorder by executing step 12. It is output to an external device such as the disk 24.

すなわち、以上のようにして被測定物が測定される。That is, the object to be measured is measured as described above.

そして、以上の測定においては、各センサ11の視野補
正データを取込んで、このデータで実際の測定寸法を校
正することにより、購入したカメラ9の使用書に記載さ
れたカメラ9のf@等の性能と実際の視野のずれをなく
すことができる。さらに、複数台のカメラ9の夫々の視
野の大きさくつまり夫々の分解能)に違いがあっても、
それに拘らず、視野を校正して測定できるから、正確な
測定を行なうことができる。
In the above measurements, by importing the field of view correction data of each sensor 11 and calibrating the actual measured dimensions with this data, f@ of the camera 9 written in the instruction manual of the camera 9 purchased, etc. It is possible to eliminate the discrepancy between the performance and the actual field of view. Furthermore, even if there is a difference in the size of the field of view (that is, the resolution of each) of the plurality of cameras 9,
Regardless, since the field of view can be calibrated and measured, accurate measurements can be made.

なお、上記一実施例は以上のように構成したが、本発明
においてカメラの使用台数を一台のみにして実施する場
合には、上記センサセレクタ12を省略するとともに、
上記ステップ5,14.17を削除して測定を実施すれ
ばよい。
Although the above embodiment is configured as described above, when implementing the present invention using only one camera, the sensor selector 12 may be omitted, and the sensor selector 12 may be omitted.
The measurement may be carried out by omitting steps 5, 14 and 17 above.

また、本発明は、上記エラー消去手段16およびその実
行をするステップ18は省略して実施することもでき、
その場合にはステップ19をステップ15とステップ1
6との間で実施するようにしてもよい。
Further, the present invention can be implemented by omitting the error erasing means 16 and the step 18 for executing the error erasing means 16,
In that case, step 19 should be replaced with step 15 and step 1.
It may be implemented between 6 and 6.

さらに、本発明において、各センサ11の取付は位置お
よび向き等を予め手作業で正確に調整してから測定を実
行する場合には、ステップ2およびステップ6を省略し
て実施しても差支えない。
Furthermore, in the present invention, if the position and orientation of each sensor 11 are manually adjusted accurately beforehand before measurement is performed, steps 2 and 6 may be omitted. .

なお、本発明はレーザー光をスリット光に制御して照射
してもよいとともに、カメラにはITVを使用して実施
してもよい。
Note that the present invention may be implemented by controlling the laser light to slit light and emitting it, and by using an ITV for the camera.

また、上記一実施例ではカメラが反射光を受けるように
したが、被測定物を境に互いに反対側に位置されるよう
に光源とカメラとを配置して、カメラが透過光を受ける
ようにして測定するようにしてもよい。この場合、平ら
な面を有さない通常の光束で照射する。
In addition, in the above embodiment, the camera receives reflected light, but the light source and camera are arranged on opposite sides of the object to be measured so that the camera receives transmitted light. Alternatively, the measurement may be performed by In this case, irradiation is performed with a normal light beam that does not have a flat surface.

しかも、本発明はカメラのセンサにイメージセンサなど
の一次元センサを使用して実施してもよい。この場合、
上記一実施例の二次元センサに代えて一次元センサが使
用されるとともに、その間係で上記一実施例のステップ
2は省略して実施され、もちろん、寸法補正手段が断面
形状を演算する機能を備えないで実施される他は、上記
一実施例と同様の装置構成および測定順序によって実施
されるものである。このように−次元センサを使用する
場合に、隣接した複数のセンサの視野の状態は第13図
に示され、また−次元センサが取込んだ基準ゲージ(な
お第2図に示す構成と同じもの)の一次元像は第14図
に示されるから、X方向H野データX1は、X 1−8
/H(mピット)の式で演算するとともに、X方向の視
野は、JXB/Hの式で演算する。そして、視野にX方
向オーバーラツプがある場合における隣接する一次元セ
ンサが取込んだ一次元像は、夫々第15図および第16
図に示されるから、一次元像における(M1+N2−L
)ビットハ、基準ゲージのX方向の寸1 (A+8)に
等しいものであり、これによりX方向オーバーラツプの
補正データLは、L(ビット)−(M1+N2)−(A
+8)/Xiの式で演算される。したがって、寸法補正
回路は、上記補正データしにより被測定物の寸法データ
を補正して、X方向の実寸法を算出するものである。
Furthermore, the present invention may be implemented using a one-dimensional sensor such as an image sensor as a camera sensor. in this case,
A one-dimensional sensor is used instead of the two-dimensional sensor of the above embodiment, and step 2 of the above embodiment is omitted, and of course the dimension correction means has the function of calculating the cross-sectional shape. The present invention is carried out using the same apparatus configuration and measurement order as in the above-mentioned embodiment, except that the present invention is not equipped with the above-mentioned equipment. When using the -dimensional sensor in this way, the field of view of multiple adjacent sensors is shown in Figure 13, and the reference gauge (same configuration as shown in Figure 2) taken by the -dimensional sensor is shown in Figure 13. ) is shown in FIG. 14, so the X direction H field data X1 is X 1-8
The field of view in the X direction is calculated using the formula JXB/H. The one-dimensional images captured by adjacent one-dimensional sensors when there is overlap in the field of view in the X direction are shown in FIGS. 15 and 16, respectively.
As shown in the figure, (M1+N2-L
) bit is equal to the dimension 1 (A+8) of the reference gauge in the X direction, so that the correction data L for the overlap in the
+8)/Xi. Therefore, the dimension correction circuit corrects the dimension data of the object to be measured using the above correction data to calculate the actual dimension in the X direction.

その他、本発明の実施は、上記一実施例に制約されるこ
となく、発明の要旨に反しない限り種々の態様に構成し
て、実施できることは勿論である。
In addition, it goes without saying that the present invention is not limited to the one embodiment described above, and can be implemented in various configurations as long as it does not go against the gist of the invention.

〔発明の効果〕〔Effect of the invention〕

上記特許請求の範囲に記載の構成要旨とする本発明にお
いては、カメラのセンサの視野補正データを取込んで、
このデータで実際の測定寸法の校正を行なうことにより
、購入したカメラに仕様書に記載されたカメラのf値等
の性能と実際の視野のずれをなくすことができるととも
に、カメラを複数台使用して実施する場合に、各カメラ
の視野の大きさが違っていても正確に寸法を測定できる
In the present invention, which has the gist of the configuration described in the claims, the field of view correction data of the camera sensor is taken in,
By calibrating the actual measured dimensions using this data, it is possible to eliminate the discrepancy between the performance of the camera, such as the f-number, described in the specifications of the purchased camera and the actual field of view, and also to avoid using multiple cameras. When carrying out measurements, dimensions can be accurately measured even if the field of view of each camera is different.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図から第12図は本発明の一実施例を示し、第1図
は光切断部の構成とともに示すブロック図、第2図は基
準ゲージの斜視図、第3図は隣接した複数の二次元セン
サの視野の状態を示す図、第4図から第6図は二次元セ
ンサが取込んだ夫々異なる基準ゲージの二次元像を示す
図、第7図は測定基準面に光束が照射された状態を示す
斜視図、第8図は二次元センサが取込んだ被測定物の二
次元像を示す図、第9図はアナログ信号と2値化データ
との関係を示す波形図、第10図はエラービットの変換
状況を示す図、第11図は測定ステップを示すフローチ
ャート、第12図は光学計副のステップを示すフローチ
ャートである。第13図は一次元センサを使用して本発
明を実施した場合において隣接した複数の一次元センサ
の視野状態を示す図、第14図から第16図は同一次元
センサが取込んだ夫々異なる一次元像を示す図である。 1・・・測定基準面、3・・・測定ゲージ、A、B、C
・・・測定ゲージに決定された寸法、D・・・光束、6
・・・光源、11・・・センサ、14・・・2値化手段
、15・・・バッファメモリ、17・・・境界抽出手段
、18・・・補正データ用メモリ、19・・・寸法補正
手段。 出願人代理人 弁理士 鈴 江 武 彦第 1 図 第2図 In     I[ 第3図       第4図 □51        ″j′°図 第7図 第9図 第10図 第11図
1 to 12 show one embodiment of the present invention, FIG. 1 is a block diagram showing the structure of the light cutting section, FIG. 2 is a perspective view of a reference gauge, and FIG. Figures showing the state of the field of view of the dimensional sensor, Figures 4 to 6 are diagrams showing two-dimensional images of different reference gauges captured by the two-dimensional sensor, and Figure 7 is a diagram showing the state of the measurement reference plane being irradiated with a light beam. A perspective view showing the state, FIG. 8 is a diagram showing a two-dimensional image of the object to be measured captured by the two-dimensional sensor, FIG. 9 is a waveform diagram showing the relationship between analog signal and binary data, and FIG. 10 11 is a flow chart showing the measurement step, and FIG. 12 is a flow chart showing the optical meter sub-step. Fig. 13 is a diagram showing the field of view of a plurality of adjacent one-dimensional sensors when the present invention is implemented using one-dimensional sensors, and Figs. It is a figure showing an original image. 1...Measurement reference plane, 3...Measuring gauge, A, B, C
...Dimensions determined on the measuring gauge, D... Luminous flux, 6
... Light source, 11 ... Sensor, 14 ... Binarization means, 15 ... Buffer memory, 17 ... Boundary extraction means, 18 ... Memory for correction data, 19 ... Dimension correction means. Applicant's representative Patent attorney Takehiko Suzue No. 1 Figure 2 In I

Claims (1)

【特許請求の範囲】 測定基準面に設置されるとともにX方向の寸法が決定さ
れている基準ゲージに光束を照射し、その被照射箇所を
照射面側または反照射面側に配置したカメラが有する一
次元センサまたは二次元センサに投影して、このセンサ
からのアナログ信号を任意なスレッショルド電圧でスラ
イスして白黒ビットに振分けて2値化した後、2値化さ
れた白黒ビットの境界を演算により抽出して、この抽出
データと上記基準ゲージに決定された寸法との関係をも
とに演算により上記センサの視野補正データを算出して
補正データ用メモリに格納してから、被測定物に光束を
照射し、その被照射箇所を上記センサに投影して、この
センサからのアナログ信号を任意なスレッショルド電圧
でスライスして白黒ビットに振分けて2値化した後、 2値化された白黒ビットの境界を演算により上記被測定
物における被照射箇所の寸法を示す寸法データとして抽
出し、 この寸法データと上記メモリに格納された上記センサの
視野補正データとをもとにして被測定物の寸法を演算に
より算出して出力することを特徴とする寸法測定方法。
[Scope of Claims] A camera that irradiates a reference gauge that is installed on a measurement reference plane and whose dimensions in the X direction are determined, and that places the irradiated area on the irradiation surface side or on the opposite side of the irradiation surface. After projecting onto a one-dimensional sensor or two-dimensional sensor, slicing the analog signal from this sensor using an arbitrary threshold voltage, dividing it into black and white bits, and binarizing it, the boundaries of the binarized black and white bits are determined by calculation. The field of view correction data of the sensor is calculated by calculation based on the relationship between this extracted data and the dimensions determined for the reference gauge, and the data is stored in the correction data memory. The irradiated area is projected onto the sensor, and the analog signal from this sensor is sliced at an arbitrary threshold voltage, divided into black and white bits, and binarized. The boundary is extracted as dimensional data indicating the dimensions of the irradiated part of the object to be measured by calculation, and the dimensions of the object to be measured are calculated based on this dimensional data and the field of view correction data of the sensor stored in the memory. A dimension measurement method characterized by calculating and outputting the result by calculation.
JP25427886A 1986-10-25 1986-10-25 Size measuring method Granted JPS63108204A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP25427886A JPS63108204A (en) 1986-10-25 1986-10-25 Size measuring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25427886A JPS63108204A (en) 1986-10-25 1986-10-25 Size measuring method

Publications (2)

Publication Number Publication Date
JPS63108204A true JPS63108204A (en) 1988-05-13
JPH0467887B2 JPH0467887B2 (en) 1992-10-29

Family

ID=17262742

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25427886A Granted JPS63108204A (en) 1986-10-25 1986-10-25 Size measuring method

Country Status (1)

Country Link
JP (1) JPS63108204A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528910U (en) * 1991-09-28 1993-04-16 住友ゴム工業株式会社 Automatic dimension measuring device
JPH08110807A (en) * 1995-09-04 1996-04-30 Omron Corp Method and device for automatic calibration
JP2008020379A (en) * 2006-07-14 2008-01-31 Topy Ind Ltd System and method for measuring endless track shoe
WO2014167784A1 (en) * 2013-04-08 2014-10-16 株式会社神戸製鋼所 Shape inspection device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5733302A (en) * 1980-07-22 1982-02-23 Westinghouse Electric Corp Method of and apparatus for inspecting fuel pellets
JPS61163916U (en) * 1986-03-27 1986-10-11
JPH08115312A (en) * 1994-10-14 1996-05-07 Fuji Xerox Co Ltd Multimedia document reproducing device, multimedia document editing device, and multimedia document editing and reproducing device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5733302A (en) * 1980-07-22 1982-02-23 Westinghouse Electric Corp Method of and apparatus for inspecting fuel pellets
JPS61163916U (en) * 1986-03-27 1986-10-11
JPH08115312A (en) * 1994-10-14 1996-05-07 Fuji Xerox Co Ltd Multimedia document reproducing device, multimedia document editing device, and multimedia document editing and reproducing device

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0528910U (en) * 1991-09-28 1993-04-16 住友ゴム工業株式会社 Automatic dimension measuring device
JPH08110807A (en) * 1995-09-04 1996-04-30 Omron Corp Method and device for automatic calibration
JP2008020379A (en) * 2006-07-14 2008-01-31 Topy Ind Ltd System and method for measuring endless track shoe
JP4716433B2 (en) * 2006-07-14 2011-07-06 トピー工業株式会社 Measuring system and measuring method for track plate for endless track
WO2014167784A1 (en) * 2013-04-08 2014-10-16 株式会社神戸製鋼所 Shape inspection device
JP2014202676A (en) * 2013-04-08 2014-10-27 株式会社神戸製鋼所 Shape inspection device
US9625353B2 (en) 2013-04-08 2017-04-18 Kobe Steel, Ltd. Shape inspection device

Also Published As

Publication number Publication date
JPH0467887B2 (en) 1992-10-29

Similar Documents

Publication Publication Date Title
CN110595999B (en) Image acquisition system
US6839144B2 (en) Optical displacement sensor
US5319442A (en) Optical inspection probe
US20080304734A1 (en) Alignment correction prio to image sampling in inspection systems
JP3575693B2 (en) Optical measuring device
US20100289891A1 (en) Apparatus for inspecting object under inspection
JP3311135B2 (en) Inspection range recognition method
JP2923199B2 (en) Bending angle detecting device, straight line extracting device used therefor, and bending angle detecting position setting device
JP3800842B2 (en) Method and apparatus for measuring three-dimensional shape, and storage medium storing three-dimensional shape measuring program
JP2008281481A (en) Apparatus and method for measuring resolution
JPS63108204A (en) Size measuring method
JPH0356402B2 (en)
JPH0886622A (en) Apparatus for measuring shape
JPH03293507A (en) Three-dimensional shape measuring apparatus
JPS63108207A (en) Method and device for measuring sectional shape
JP2009192483A (en) Three dimensional shape measuring method and three dimensional shape measuring device
JPS63108203A (en) Size measuring method
KR20180040316A (en) 3D optical scanner
JPH11241916A (en) Height measuring method, height data processing method, and height measuring device
CN115816833B (en) Method and device for determining image correction data, electronic equipment and storage medium
JPH06281421A (en) Image processing method
KR102005345B1 (en) An automobile junction box terminal vision inspection method using line scan camera
JP2000329520A (en) Coil position detector
JP2000065547A (en) Shape measurement device for black-work and extraction device thereof
JPH0843205A (en) Scan monitoring device