JPS63282605A - Apparatus for detecting position - Google Patents
Apparatus for detecting positionInfo
- Publication number
- JPS63282605A JPS63282605A JP11790487A JP11790487A JPS63282605A JP S63282605 A JPS63282605 A JP S63282605A JP 11790487 A JP11790487 A JP 11790487A JP 11790487 A JP11790487 A JP 11790487A JP S63282605 A JPS63282605 A JP S63282605A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- detected
- horizontal
- camera
- vertical
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 24
- 238000013500 data storage Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 abstract description 15
- 238000012935 Averaging Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 7
- 238000000034 method Methods 0.000 description 6
- 238000003708 edge detection Methods 0.000 description 1
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
Abstract
Description
【発明の詳細な説明】
〔産業上の利用分野〕
本発明は、 画像処理を用いて位置ずれを検出し、位置
合せを行う位置検出装置に関する。DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a position detection device that uses image processing to detect positional deviation and performs alignment.
従来、位置検出手段において、画像処理を用いた位置検
出方式としては、検出したい対象物の、特徴のある一部
分を、 テンプレートとしてメモリーに記憶させておき
、検出したい対象物の画像データ内でテンプレートを隅
から隅まで順次走査し、一番マッチング度の高い位置を
検出位置としていた。Conventionally, in position detection methods using image processing in position detection means, a characteristic part of the object to be detected is stored in memory as a template, and the template is used in the image data of the object to be detected. Scanning was performed sequentially from corner to corner, and the position with the highest degree of matching was taken as the detection position.
しかし、このような従来のテンプレートによるマツチン
グ方式では、対象物のパターン内に類似パターンを多(
存在している場合など、複数の位置を検出してしまい、
正確に位置検出ができなかった。まと、基本的にテンプ
レートによるマツチングでは、たとえ位W!!検出でき
たとしても、ディジタル誤差である一画素のずれは存在
し、精度を向上させることができないなどといった問題
があった。まと、精度の問題を解消するために、テンブ
レーFによるマツチング後、画像パターン内のある特定
のエツジを投影積分によりエツジ位置を検出し、位置検
出精度を向上させているものもあるが、これにおいても
、ディジタル誤差以下の精度は保障できない。However, in this conventional template-based matching method, many similar patterns (
If multiple locations are detected, such as when
The position could not be detected accurately. Well, basically matching using templates is like W! ! Even if detection was possible, there would still be a one-pixel shift, which is a digital error, and there would be problems such as the inability to improve accuracy. Actually, in order to solve the problem of accuracy, some methods detect the edge position by projection integration of a specific edge in the image pattern after matching using Tenbrae F, and improve the position detection accuracy. Even in this case, accuracy less than the digital error cannot be guaranteed.
本発明は、このような問題に鑑みてなされたものであっ
て、その目的とするところは、画像処理を用いた位置検
出装置において、類似性を多く含んでいるパターンであ
っても、対象物の特徴であるエツジを複数検出すること
により、ディジタル誤差以下の高精度な位置検出装置を
提供することにある。The present invention has been made in view of these problems, and its purpose is to detect a target object even if the pattern contains many similarities in a position detection device using image processing. The object of the present invention is to provide a highly accurate position detection device with less than a digital error by detecting a plurality of edges.
本発明の位置検出装置は、位置ずれを検出すべき対象物
のパターンを、TVカメラで捕え画像信号をしきい値に
より2値化する2値化手段と、2値化した信号をメモリ
ーに格納する画像データ格納手段と、前記メモリーに格
納された画像データに対し、水平、垂直方向に投影積分
する手段と、前記投影積分されたデータを基に位置ずれ
を算出する位置検出手段と、前記位置検出手段により得
られたデータを基に、直交テーブルを駆動する駆動回路
とからなることを特徴とする。The position detection device of the present invention includes a binarization means that captures a pattern of an object whose positional shift is to be detected using a TV camera and binarizes the image signal using a threshold value, and stores the binarized signal in a memory. means for projecting and integrating the image data stored in the memory in horizontal and vertical directions; position detecting means for calculating a positional shift based on the projected and integrated data; It is characterized by comprising a drive circuit that drives the orthogonal table based on the data obtained by the detection means.
本発明の位置検出Haの作用について説明すると、TV
カメラで捕えられた画像データに対し、水平、垂直投影
積分手段により得られた積分データを基に、位置検出手
段により複数のエツジを検出し、平均化することにより
、ディジタル誤差以下の精度で位置検出できるため、直
交テーブルを駆動回路により高精度で位置合せすること
ができる。To explain the operation of the position detection Ha of the present invention, the TV
Based on the integral data obtained by the horizontal and vertical projection integration means for the image data captured by the camera, the position detection means detects multiple edges, and by averaging them, the position can be determined with accuracy less than a digital error. Since it can be detected, the orthogonal table can be aligned with high precision by the drive circuit.
そこで、以下に本発明の位置検出装置の詳細を図示した
実施例に基づいて説明する。第1図は本発明の位置検出
装置の構成を示すブロック図で、1は対象物、2は直交
テーブル、3は固定ステージ、4はTVカメラ、5は2
値化手段、6は画像データ格納手段、7は水平垂直積分
手段、8は位置検出手段、9は駆動手段である。第2図
は本発明で用いた対象物である密着型イメージセンサ−
を2本並べた時の2値画像であり、類似パターンを多く
含み、左右のセンサーは左右対称である。Therefore, details of the position detection device of the present invention will be explained below based on illustrated embodiments. FIG. 1 is a block diagram showing the configuration of the position detection device of the present invention, in which 1 is the object, 2 is the orthogonal table, 3 is the fixed stage, 4 is the TV camera, and 5 is the 2
digitization means; 6 is image data storage means; 7 is horizontal/vertical integration means; 8 is position detection means; 9 is driving means. Figure 2 shows a close-contact image sensor, which is the object used in the present invention.
It is a binary image when two are lined up, and it contains many similar patterns, and the left and right sensors are symmetrical.
左右の2本の密着型イメージセンサ−10,11の位置
検出をし、位置合せを行い連結することにより、より長
い1!7@型イメージセンサ−(以後センサーと呼ぶ)
を作ることができる。 なお12は、センサーの受光部
を表わしている。次に第3図〜5図を用いて位置検出の
方式を説明する。第3図は、水平、垂直投影積分手段の
回路ブロック図であり、制御信号発生回路13により、
垂直アドレス回路14、水平アドレス回路15、カウン
ター17を管理している。14.15のアドレス回路は
、130制御信号により、ハード的にアドレス値をアッ
プダウンすることができ、14.15で発生したアドレ
スに基づき、メモリー16から画像データを出力させ、
17のカウンターで画像の白(ディジタル的には1)を
カウント(投影積分)することができる。By detecting the position of the two left and right contact image sensors 10 and 11, aligning them, and connecting them, a longer 1!7@ type image sensor (hereinafter referred to as sensor) is created.
can be made. Note that 12 represents a light receiving section of the sensor. Next, the method of position detection will be explained using FIGS. 3 to 5. FIG. 3 is a circuit block diagram of the horizontal and vertical projection integration means.
It manages the vertical address circuit 14, horizontal address circuit 15, and counter 17. The address circuit at 14.15 can increase or decrease the address value by hardware using the control signal 130, and outputs image data from the memory 16 based on the address generated at 14.15.
17 counters can count (projection integral) the white (digitally 1) of the image.
130制御信号により、14.15のアドレス回路のア
ドレス発生パターンを、水平アドレスだけのアップダウ
ンや、垂直アドレスだけのアップダウンなど自由に変え
られるのでそれらを組み合わせることにより、任意の水
平、垂直アドレス区間内で、 水平、垂直投影積分をす
ることができる。更に、その投影積分データを、CPU
18により読み込むことができる。第4図は、第3図で
示した回路を用いてセンサーの端部を投影積分の様子を
示している。第4図(C)に示す密行型イメージセンサ
−の端部の水平投影積分の結果を第4図(a)に示す。By using the 130 control signal, the address generation pattern of the address circuit in 14.15 can be changed freely, such as raising or lowering only the horizontal address or raising or lowering only the vertical address.By combining these, you can create any horizontal or vertical address section. You can perform horizontal and vertical projection integration within. Furthermore, the projection integral data is sent to the CPU
18. FIG. 4 shows how the end portion of the sensor is projected and integrated using the circuit shown in FIG. FIG. 4(a) shows the result of horizontal projection integration of the edge of the dense image sensor shown in FIG. 4(C).
密着型イメージセンサ−には、多(の水平方向に帯が
存在しており、投影結果にも、帯のエツジに対応する所
にY、〜Y、で示される急峻な増減部があり、複数のエ
ツジ位置を検出できる。 まと、垂直投影積分の結果は
、第4図(b)に示す様に、センサーの先端部X;で、
急激や落ち込みがありエツジとして検出できる。テップ
レートによるマツチング方式では、2値化画像処理で問
題になる画像のちらつきを無視できないが、投影積分で
は、画素を積分しているため、かなり画像のちらつきを
吸収でき、エッジ検出の精度を向上させることができる
。A contact image sensor has a strip in the horizontal direction, and the projection result also has a steep increase/decrease portion indicated by Y, ~Y, corresponding to the edge of the strip. The edge position of the sensor can be detected.As shown in Fig. 4(b), the result of vertical projection integration is as follows:
There are sudden and drop-offs that can be detected as edges. In the matching method using the step rate, image flickering, which is a problem in binarized image processing, cannot be ignored, but in projection integration, since pixels are integrated, it is possible to absorb a considerable amount of image flickering, improving the accuracy of edge detection. can be done.
次に、位置検出装置の処理手順について、第5図で示し
たフローチャートに基づいて説明する。Next, the processing procedure of the position detection device will be explained based on the flowchart shown in FIG.
第2図で示した画像を取り込んだ後、画像全体を垂直方
向に投影積分する (19)と、 第4図(b)に示
す様に、センサーの先端部が検出でき、左右のセンサー
の位置関係が分かる。(左センサーの先端部をXlとし
右のセンサーの先端部をX2とする)このことにより、
左センサーだけ、右センサーだけの処理ができる様に
なり、左右のセンサーそれぞれについて水平方向に投影
積分を行うと(20>、m4図(a)に示す様に帯のエ
ツジとして複数のエツジ(左センサーY++Y1.・・
・・・・Y+aの8本、右センサーY、、Y。After capturing the image shown in Figure 2, the entire image is projected and integrated in the vertical direction (19). As shown in Figure 4 (b), the tip of the sensor can be detected, and the positions of the left and right sensors are I understand the relationship. (The tip of the left sensor is Xl and the tip of the right sensor is X2.) By this,
You can now process only the left sensor and only the right sensor, and if you perform projection integration in the horizontal direction for each of the left and right sensors (20>, m4, as shown in Figure (a), multiple edges (left Sensor Y++Y1...
...8 Y+a, right sensor Y,,Y.
、・・・・・・Yesの8本とする)を検出できる。(
21) これらのデータを基に水平方向の左右センサー
間の位置ずれΔXを求めると、
ΔX=IX1−X2+ (1)で与えられ、
垂直方向の左右センサー間の位置ずれΔYを求めると、
ΔY=+(Yz +・・・+Y、、)/8−(Y、 、
+・・・十Y、 、 ’) /8 1
(2)で与えられる。、 (22)この場合、ΔY
の算出時、エツジデータ8本を用いて平均化しているた
め、精度はディジタル誤差である1画素の1/8まで期
待でき、高精度位置検出が可能である。次に、この検出
された位置ずれ量ΔX1ΔYをテーブル駆動用にパルス
データに変換を行い、右センサーの直交テーブル(第1
図3)を、左センサーの固定ステージ(第1図3)に対
し駆動し位置合せを行っている。, . . . 8 lines of Yes) can be detected. (
21) Calculating the horizontal positional deviation ΔX between the left and right sensors based on these data, it is given by ΔX=IX1-X2+ (1),
Calculating the positional deviation ΔY between the left and right sensors in the vertical direction, ΔY=+(Yz+...+Y, , )/8-(Y, ,
+...10 Y, , ') /8 1
It is given by (2). , (22) In this case, ΔY
When calculating, since the average is performed using eight edge data, the accuracy can be expected to be 1/8 of one pixel, which is a digital error, and high-precision position detection is possible. Next, this detected positional deviation amount ΔX1ΔY is converted into pulse data for driving the table, and the orthogonal table (first
Figure 3) is driven and aligned with respect to the fixed stage of the left sensor (Figure 1, Figure 3).
以上、説明したように本発明によれば、位置検出対象物
が、類似性を多く含む場合であっても、位置検出を行う
ことができ、複数のエツジデータを検出し、位置データ
を算出しているため、ディジタル誤差以下に高精度位置
検出をすることができる。As described above, according to the present invention, even if the position detection target object includes many similarities, the position can be detected, and the position data can be calculated by detecting a plurality of edge data. Therefore, highly accurate position detection can be performed with less than digital error.
第1図は、本発明の位置検出HHの構成を明示するため
のブロック図。
第2図は、本発明で用いた対象物である密着型イメージ
センサ−をカメラで捕えた図。
第3図は、水平、垂直投影積分手段の回路ブロック図。
第4図(a)、(b)は、本発明で用いた密着型イメー
ジセンサ−を水平、垂直方向に投影積分した結果を示す
図。第4図(C)は密行型イメージセンサ−を示す図。
第5図は、本発明の位置検出装置の動作を示すフローチ
ャート図。
1・・・・・・対象物
2・・・・・・直交テーブル
3・・・・・・固定ステージ
4・・・・・・TVカメラ
5・・・・・・2値化手段
6・・・・・・画像データ格納手段
7・・・・・水平、垂直積分手段
8・・・・・・位置検出手段
9・・・・・・駆動手段
to、tt・・・・・・密tffiイメージセ/サー1
2・・・・・・受光部
13・・・・・・制御信号発生回路
14・・・・・・垂直アドレス発生回路15・・・・・
・水平アドレス発生回路16・・・・・・メモリー
17・・・・・・カウンター
18・・・・・・CPU
19〜23・・・・・・フローチャートステップ24・
・・・・・カメラ撮像領域
以 上
出願人 セイコーエプソン株式会社
代理人 弁理士 最 上 務 他1名う
芽1図
¥ 2 口
早 3 口
早 斗 図FIG. 1 is a block diagram for clearly showing the configuration of the position detection HH of the present invention. FIG. 2 is a diagram showing a close-contact image sensor, which is the object used in the present invention, captured by a camera. FIG. 3 is a circuit block diagram of horizontal and vertical projection integration means. FIGS. 4(a) and 4(b) are diagrams showing the results of horizontal and vertical projection integration of the contact type image sensor used in the present invention. FIG. 4(C) is a diagram showing a close-contact type image sensor. FIG. 5 is a flowchart showing the operation of the position detection device of the present invention. 1...Object 2...Orthogonal table 3...Fixed stage 4...TV camera 5...Binarization means 6... ...Image data storage means 7...Horizontal and vertical integration means 8...Position detection means 9...Drive means to, tt...Dense tffi image Se/Ser 1
2... Light receiving section 13... Control signal generation circuit 14... Vertical address generation circuit 15...
・Horizontal address generation circuit 16...Memory 17...Counter 18...CPU 19-23...Flowchart step 24.
...Camera imaging area and above Applicant Seiko Epson Co., Ltd. Agent Patent attorney Tsutomu Mogami and 1 other person 1 figure ¥2 Fast-talking 3 Fast-talking Doozu
Claims (1)
カメラで捕え画像信号をしきい値により2値化する2値
化手段と、2値化した信号をメモリーに格納する画像デ
ータ格納手段と、前記メモリーに格納された画像データ
に対し、水平、垂直方向に投影積分する手段と、前記投
影積分されたデータを基に位置ずれを算出する位置検出
手段と、前記位置検出手段により得られたデータを基に
、直交テーブルを駆動する駆動手段とからなることを特
徴とする位置検出装置。(1) The pattern of the object whose positional deviation is to be detected is
A binarization means that binarizes the image signal captured by the camera using a threshold value, an image data storage means that stores the binarized signal in a memory, and a horizontal and vertical It consists of a means for projecting and integrating in a direction, a position detecting means for calculating a positional shift based on the projected and integrated data, and a driving means for driving an orthogonal table based on the data obtained by the position detecting means. A position detection device characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11790487A JPS63282605A (en) | 1987-05-14 | 1987-05-14 | Apparatus for detecting position |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11790487A JPS63282605A (en) | 1987-05-14 | 1987-05-14 | Apparatus for detecting position |
Publications (1)
Publication Number | Publication Date |
---|---|
JPS63282605A true JPS63282605A (en) | 1988-11-18 |
Family
ID=14723073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11790487A Pending JPS63282605A (en) | 1987-05-14 | 1987-05-14 | Apparatus for detecting position |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS63282605A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007180171A (en) * | 2005-12-27 | 2007-07-12 | Nikon Corp | Edge position measuring method and apparatus thereof, and exposure apparatus |
-
1987
- 1987-05-14 JP JP11790487A patent/JPS63282605A/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007180171A (en) * | 2005-12-27 | 2007-07-12 | Nikon Corp | Edge position measuring method and apparatus thereof, and exposure apparatus |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3951984B2 (en) | Image projection method and image projection apparatus | |
US8649593B2 (en) | Image processing apparatus, image processing method, and program | |
JP6510213B2 (en) | Projection system, semiconductor integrated circuit, and image correction method | |
US20180235566A1 (en) | Method of Automatically Positioning an X-Ray Source of an X-Ray System and an X-Ray System | |
Yang et al. | Multi-Kinect scene reconstruction: Calibration and depth inconsistencies | |
JP2003304561A (en) | Stereo image processing apparatus | |
WO1992010810A1 (en) | Method of correcting shading and device therefor | |
Griesser et al. | Automatic interactive calibration of multi-projector-camera systems | |
KR20200046789A (en) | Method and apparatus for generating 3-dimensional data of moving object | |
JPH04198741A (en) | Shape defect detecting device | |
JP2011133258A (en) | Three-dimensional shape measuring method and three-dimensional shape measuring instrument | |
JP6412372B2 (en) | Information processing apparatus, information processing system, information processing apparatus control method, and program | |
JPS63282605A (en) | Apparatus for detecting position | |
JP2899553B2 (en) | Position adjustment method for solid-state imaging device | |
JP2005309782A (en) | Image processor | |
CN109218707B (en) | Oral scanning system and oral scanning method | |
JP2021033857A (en) | Image processing device and image processing method | |
JP2021124330A (en) | Method and device for detecting liquid surface | |
CN113393383B (en) | Splicing method for photographed images of double-depth camera | |
JP2005038178A (en) | Inspection apparatus for reference mark of inspection object | |
JP2949089B2 (en) | Image processing device | |
JPS59156078A (en) | Inspecting method of display condition of color picture tube | |
JP2841866B2 (en) | Image processing apparatus and method and its application | |
JPH06226668A (en) | Article position detecting device | |
JPH09229642A (en) | Method for inspecting appearance of electronic part |