JP2850007B2 - Reference point recognition method for regular patterns - Google Patents

Reference point recognition method for regular patterns

Info

Publication number
JP2850007B2
JP2850007B2 JP63243547A JP24354788A JP2850007B2 JP 2850007 B2 JP2850007 B2 JP 2850007B2 JP 63243547 A JP63243547 A JP 63243547A JP 24354788 A JP24354788 A JP 24354788A JP 2850007 B2 JP2850007 B2 JP 2850007B2
Authority
JP
Japan
Prior art keywords
point
intersection
reference point
pattern
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP63243547A
Other languages
Japanese (ja)
Other versions
JPH0290281A (en
Inventor
靖夫 久保田
雄二 小林
勉 若林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP63243547A priority Critical patent/JP2850007B2/en
Publication of JPH0290281A publication Critical patent/JPH0290281A/en
Application granted granted Critical
Publication of JP2850007B2 publication Critical patent/JP2850007B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は規則性パターンの基準点認識方法、特に絵柄
フィルムの歪補正に利用することのできる規則性パター
ンの基準点認識方法に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method of recognizing a reference point of a regular pattern, and more particularly to a method of recognizing a reference point of a regular pattern that can be used for distortion correction of a picture film.

〔従来の技術〕[Conventional technology]

近年、射出成形と同時に印刷フィルムを型の中に入れ
てインクだけを成形物に転写させる抽出同時絵付法が普
及している。
2. Description of the Related Art In recent years, an extraction simultaneous painting method in which a printing film is put into a mold at the same time as injection molding and only ink is transferred to a molded product has been widely used.

第1図はこのような射出同時絵付法を行う装置の基本
的構成を示す図である。供給ロール1には転写フィルム
2が巻かれている。この転写フィルム2は、シリンダ3
に接続されたヒータ4を通り、雄型5と雌型6との間を
通って巻取りロール7で巻取られる。転写フィルム2に
は、成形品に転写すべき絵柄や文字等が予め印刷されて
いる。この絵柄や文字等を型に位置合わせし、雄型5を
雌型6に押付けるか、あるいは雌型6から吸引を行う
と、転写フィルム2はヒータ4によって加熱されて伸び
やすくなっているため、雌型6の型に沿って変形する。
こうして、雄型5から樹脂を注入すれば、射出成形時に
成形物に転写フィルムの絵柄、文字等が転写される。
FIG. 1 is a diagram showing a basic configuration of an apparatus for performing such simultaneous injection painting method. A transfer film 2 is wound around the supply roll 1. The transfer film 2 includes a cylinder 3
Is passed through the heater 4 connected to the male die 5 and the female die 6 to be wound by the winding roll 7. On the transfer film 2, a pattern, a character, or the like to be transferred to a molded product is printed in advance. When the pattern, characters, and the like are aligned with the mold, and the male mold 5 is pressed against the female mold 6 or suction is performed from the female mold 6, the transfer film 2 is heated by the heater 4 and easily stretched. , And deforms along the shape of the female mold 6.
Thus, when the resin is injected from the male mold 5, the pattern, characters, and the like of the transfer film are transferred to the molded product during injection molding.

第2図は、上述の方法によって成形物8に転写フィル
ム2による転写を行った状態を示した図である。三次元
の成形物の上面に文字が転写された印刷成形品9ができ
るが、この印刷面は実際には第3図のように歪んだもの
となる。これは、転写フィルム2が伸びるためである。
FIG. 2 is a view showing a state where the transfer by the transfer film 2 to the molded article 8 is performed by the above-described method. A printed molded product 9 in which characters are transferred to the upper surface of the three-dimensional molded product is produced, but the printed surface is actually distorted as shown in FIG. This is because the transfer film 2 extends.

このような歪みを補正するためには、歪みがどの程度
のものなのかを測定する必要がある。そのためには、あ
らかじめ転写フィルム上に規則性をもったパターンを印
刷しておき、成形品に沿ってこの転写フィルムを成形し
たときに、基準パターンがどの程度歪むかを測定すれば
よい。すなわち、成形の前後における規則性パターンの
基準点位置の変化をみればよい。
In order to correct such distortion, it is necessary to measure the degree of distortion. For this purpose, a regular pattern is printed on the transfer film in advance, and the degree of distortion of the reference pattern when the transfer film is formed along the molded product may be measured. That is, the change of the reference point position of the regular pattern before and after molding may be seen.

〔発明が解決しようとする課題〕[Problems to be solved by the invention]

しかしながら、従来、規則性パターンの基準点の認識
は手作業に負っており、多大な労力と時間を費やす作業
となっていた。これは、一般に歪んだパターンの基準点
の認識は画一的な判断によって行うことが困難であると
考えられているからである。たとえば、正方格子のパタ
ーンでは、基準点は格子を構成する縦線と横線との交点
となるが、これを歪ませた場合、すべての基準点が縦
線、横線の交点となるとは限らず、2本の斜線の交点と
なる場合があり、縦横の位置関係が不明確になる。この
ため、人手による複雑な判断が要求されていたのであ
る。
However, conventionally, the recognition of the reference point of the regular pattern has to be manually performed, which requires a great deal of labor and time. This is because it is generally considered that it is difficult to recognize a reference point of a distorted pattern by uniform judgment. For example, in a square grid pattern, the reference point is the intersection of the vertical and horizontal lines that make up the grid, but if this is distorted, not all the reference points will be the intersection of the vertical and horizontal lines. There may be an intersection between two oblique lines, and the vertical and horizontal positional relationship becomes unclear. For this reason, complicated judgment by humans has been required.

そこで本発明は、人手によらず自動的に基準点の認識
を行うことのできる規則性パターンの基準点認識方法を
提供することを目的とする。
Accordingly, an object of the present invention is to provide a method of recognizing a reference point of a regular pattern, which can automatically recognize the reference point without manual operation.

〔課題を解決するための手段〕 本発明は、複数の基準点をもった規則性パターンにつ
いて、コンピュータを用いて各基準点を自動認識する方
法であって、 前記規則性パターンの画像を画素の集合として取り込
む入力段階と、 前記入力段階で取り込んだ画像について、パターンの
線幅が1画素となるようにする細線化処理段階と、 細線化処理が行われたパターンについて、 (a) 細線化された2本の線が交差する交点を認識
し、この交点にある画素の位置を基準点位置として認識
するとともに、 (b) 細線化された1本の線が2本に分岐する分岐点
を認識し、更にこの分岐点の近傍にある別な分岐点を認
識し、両分岐点の中間にある点の位置を基準点位置とし
て認識する基準点認識段階と、 を行うようにしたものである。
[Means for Solving the Problems] The present invention is a method of automatically recognizing each reference point using a computer for a regular pattern having a plurality of reference points, comprising: (A) an input step of capturing as a set, a thinning processing step of making the line width of the pattern one pixel for the image captured in the input step, and (a) a thinning processing (B) Recognize the intersection of the two lines intersecting each other, and recognize the position of the pixel at this intersection as the reference point position. (B) Recognize the branch point where one thinned line branches into two. And a reference point recognizing step of recognizing another branch point near the branch point and recognizing a position of a point intermediate between the two branch points as a reference point position.

また本発明は、複数の基準点をもった規則性パターン
について、コンピュータを用いて各基準点を自動認識す
る方法であって、 規則性パターンを画素の集合として取り込む入力段階
と、 画素の集合から線を構成するパターンを認識し、この
認識したパターンに沿って規則性パターンを追跡する段
階と、 この追跡の過程で、線を構成する2つのパターンの交
点を基準点として認識する段階と、 認識した基準点の位置情報と、その基準点に到達する
に至った追跡過程に基づいて定まる該基準点の位相情報
と、を抽出して記録する段階と、 を行うようにしたものである。
Also, the present invention is a method of automatically recognizing each reference point using a computer for a regular pattern having a plurality of reference points, comprising: an inputting step of capturing the regular pattern as a set of pixels; A step of recognizing a pattern constituting the line and tracking the regular pattern along the recognized pattern; a step of recognizing an intersection of two patterns constituting the line as a reference point in the course of the tracking; Extracting and recording the position information of the reference point thus obtained and the phase information of the reference point determined based on the tracking process that has reached the reference point.

〔作 用〕(Operation)

本発明によれば、まず規則性パターンは二値化処理さ
れて取り込まれる。したがって、規則性パターンを一般
的な汎用コンピュータに取り込むことができる。取り込
んだ規則性パターンは、線幅が1画素となるように細線
化処理され、2本の線が交差する交点が基準点として認
識される。更に、1本の線が2本に分岐する分岐点を認
識した後、この分岐点の一対が1つの基準点として認識
される。このように交点の他に、分岐点をも基準点とし
て認識しうるようにしたため、二値化および細線化とい
った処理によって2つに分化した基準点をも認識するこ
とができる。これらの認識は、コンピュータによる画一
的なアルゴリズムによって処理することができるため、
人手によらず、自動的にすべての基準点の認識が可能に
なる。
According to the present invention, first, the regularity pattern is binarized and captured. Therefore, the regular pattern can be taken into a general-purpose computer. The captured regular pattern is thinned so that the line width becomes one pixel, and the intersection of the two lines is recognized as a reference point. Furthermore, after recognizing a branch point where one line branches into two, a pair of the branch points is recognized as one reference point. As described above, in addition to the intersection, the branch point can also be recognized as the reference point. Therefore, it is also possible to recognize a reference point that has been divided into two by processes such as binarization and thinning. Because these recognitions can be processed by computer-based uniform algorithms,
Recognition of all reference points can be automatically performed without manual operation.

また、細線化を行うことなしに、線を構成するパター
ンを追跡することによって交点の認識を行うことも可能
である。
In addition, it is also possible to recognize intersections by tracing patterns constituting a line without thinning.

〔実施例〕〔Example〕

以下、本発明を図示する実施例に基づいて説明する。
ここで説明する実施例は、本発明による規則性パターン
の基準点認識方法を、転写フィルム歪補正装置に適用し
た例である。以下の実施例において、§3が本発明に特
に関連した部分である。
Hereinafter, the present invention will be described based on the illustrated embodiments.
The embodiment described here is an example in which the reference point recognition method for a regular pattern according to the present invention is applied to a transfer film distortion correction device. In the following examples, §3 is a part particularly relevant to the present invention.

§1 装置の基本構成 第4図(a)は本発明に係る転写フィルム歪補正3装
置の構成を示すブロック図、同図(b)はそのうちの歪
補正処理部の詳細図である。歪パターン画像読取装置11
は、歪パターンを画像として入力するための装置であ
り、CCDカメラやITVなどで構成される。被補正絵柄入力
装置12は、成形品に転写すべき絵柄を入力する装置であ
り、フラットスキャナなどの装置を用いることができ
る。絵柄は版下または原版情報を用いて入力される。な
お、被補正絵柄入力装置12として、CADシステムを利用
することもできる。この場合、絵柄はCADシステムで作
成されたデジタルデータがそのまま入力される。演算処
理装置13は、これらの装置から入力したデータに基づい
て、絵柄の補正を行う装置であり、画像処理部14と歪補
正処理部15とを有する。画像処理部14は、歪パターン画
像読取装置11から入力したパターンに基づいて、各基準
点の位置座標を抽出する機能を有するがその動作につい
ては後に詳述する。歪補正処理部15は、画像処理部14か
ら与えられるデータに基づいて、被補正絵柄入力装置12
から入力した絵柄を補正する機能を有する。歪補正処理
部15には、外部に磁気ディスクや磁気テープなどの記憶
装置16が接続されており、一度入力したデータや演算し
たデータなどを蓄積することができる。記憶装置16は演
算処理装置13の内部に組み込んでもよい。歪補正処理部
15で補正された補正済絵柄は、補正済絵柄出力装置17に
よって出力される。この補正済絵柄出力装置17として
は、プロッタ、ドットインパクトプリンタ、インクジェ
ットプリンタ、熱転写プリンタ、フィルムレコーダなど
の装置を用いることができる。また、フロッピディスク
や磁気テープなどの記憶媒体にデータを一旦出力してお
き、これをオフラインで他の出力装置に伝送することも
できる。この場合、補正済絵柄出力装置17は、各記憶媒
体のドライブ装置となる。なお、歪補正処理部15は、第
4図(b)に示すように、第1座標系18と、第2座標系
19と、写像演算装置20と、を有するが、その動作につい
ては後で詳述する。
§1 Basic Configuration of Apparatus FIG. 4 (a) is a block diagram showing a configuration of a transfer film distortion correction 3 apparatus according to the present invention, and FIG. 4 (b) is a detailed view of a distortion correction processing unit among them. Distortion pattern image reader 11
Is a device for inputting a distortion pattern as an image, and includes a CCD camera, an ITV, and the like. The image-to-be-corrected input device 12 is a device for inputting a pattern to be transferred to a molded product, and may be a device such as a flat scanner. The pattern is input using the composition or original information. Note that a CAD system can also be used as the corrected image input device 12. In this case, the digital data created by the CAD system is directly input as the picture. The arithmetic processing device 13 is a device that corrects a pattern based on data input from these devices, and has an image processing unit 14 and a distortion correction processing unit 15. The image processing unit 14 has a function of extracting the position coordinates of each reference point based on the pattern input from the distortion pattern image reading device 11, and the operation will be described later in detail. The distortion correction processing unit 15 is based on the data supplied from the image processing unit 14,
It has a function to correct the picture input from the user. A storage device 16 such as a magnetic disk or a magnetic tape is externally connected to the distortion correction processing unit 15, and can store data input once, calculated data, and the like. The storage device 16 may be incorporated in the arithmetic processing device 13. Distortion correction processing unit
The corrected picture corrected in 15 is output by the corrected picture output device 17. As the corrected picture output device 17, devices such as a plotter, a dot impact printer, an ink jet printer, a thermal transfer printer, and a film recorder can be used. In addition, data can be temporarily output to a storage medium such as a floppy disk or a magnetic tape, and the data can be transmitted to another output device offline. In this case, the corrected picture output device 17 is a drive device for each storage medium. The distortion correction processing unit 15 includes a first coordinate system 18 and a second coordinate system, as shown in FIG.
19 and a mapping operation device 20, the operation of which will be described later in detail.

§2 装置の基本動作 ここでは、まず第4図(a)に示す装置全体の動作を
説明する。第2図に示したように、転写フィルム2を成
形物8に合わせて成形すると、絵柄には第3図に示すよ
うな歪みが生じる。したがって、例えば第5図(a)に
示すように、転写フィルム2に正方格子パターンを印刷
しておき、成形物8に合わせて実際に成形すると、転写
フィルム2が伸びるため、同図(b)に示すようにこの
パターンは歪むことになる。実際に成形物を作成せず
に、雌型に吸引して転写フィルム2のみを成形しても同
様である。この転写フィルムの成形の様子は第5図
(c)および(d)の上面図により明瞭に示されてい
る。ここでは、正方格子パターンを用いた例を示すが、
このパターンは要するに複数の基準点をもった基準パタ
ーンであれば、どのようなものを用いてもかまわない。
一般には方眼柄、斜交座標の柄、極座標の柄などのパタ
ーンが好ましい。正方格子パターンの場合には、格子の
各交点、すなわち各正方形の四頂点が基準点となる。な
お、転写フィルムの一部に型との位置合わせ用マークを
つけておき、成形時にこの位置合わせ用マークを型に合
わせるようにすると、後の工程での位置合わせが容易に
なる。
§2 Basic operation of the apparatus Here, first, the operation of the entire apparatus shown in FIG. 4 (a) will be described. As shown in FIG. 2, when the transfer film 2 is formed in conformity with the molded product 8, the pattern is distorted as shown in FIG. Therefore, as shown in FIG. 5 (a), for example, when a square lattice pattern is printed on the transfer film 2 and is actually formed in accordance with the molded product 8, the transfer film 2 is elongated. This pattern is distorted as shown in FIG. The same applies to the case where only the transfer film 2 is molded by sucking into a female mold without actually forming a molded product. The manner of forming the transfer film is clearly shown in the top views of FIGS. 5 (c) and 5 (d). Here, an example using a square lattice pattern is shown.
In short, any pattern can be used as long as it is a reference pattern having a plurality of reference points.
In general, patterns such as a grid pattern, a pattern of oblique coordinates, and a pattern of polar coordinates are preferable. In the case of a square lattice pattern, each intersection of the lattice, that is, the four vertices of each square, is the reference point. In addition, if a mark for positioning with the mold is provided on a part of the transfer film and the mark for positioning is matched with the mold at the time of molding, the positioning in a later step becomes easy.

オペレータは歪パターン画像読取装置11によって、第
5図(d)に示すような歪パターンを入力する。後述す
るように、この歪パターン画像読取装置11は、具体的に
はビデオカメラなどの装置であり、読取られた画像デー
タは、画像処理部14において、二値化処理、細線化処理
などの画像処理が施されて、各交点(格子点)の位置が
検出される。一方、オペレータは被補正絵柄入力装置12
によって、印刷すべき絵柄の版下または原版から、その
絵柄を画像データとして入力する。
The operator uses the distortion pattern image reading device 11 to input a distortion pattern as shown in FIG. As will be described later, this distortion pattern image reading device 11 is specifically a device such as a video camera, and the read image data is processed by an image processing unit 14 into an image such as a binarization process and a thinning process. The processing is performed, and the position of each intersection (grid point) is detected. On the other hand, the operator operates the image input device 12 to be corrected.
, The picture is input as image data from the composition or original of the picture to be printed.

歪補正処理部15は、画像処理部14で処理されたデー
タ、被補正絵柄入力装置12で入力されたデータ、および
予め記憶していた歪みのない正方格子パターンに基づい
て、補正済絵柄を生成する。この補正済絵柄は補正済絵
柄出力装置によって外部に出力される。
The distortion correction processing unit 15 generates a corrected image based on the data processed by the image processing unit 14, the data input by the image input device 12 to be corrected, and a previously stored square lattice pattern without distortion. I do. The corrected picture is output to the outside by the corrected picture output device.

続いて、画像処理部14および歪補正処理部15の動作に
ついて章を改めて詳述する。
Subsequently, the operation of the image processing unit 14 and the distortion correction processing unit 15 will be described in detail in another chapter.

§3 画像処理部の動作 3.1 全体の手順 画像処理部14の動作を第6図の流れ図に示す。まず、
ステップS1において二値化処理が行われる。歪パターン
画像読取装置11から与えられる画像は階調をもった画像
である。たとえば、1つの画素は0〜255の間のいずれ
かの濃度値をもったものである。これを二値化すると、
すべての画素は“0"または“1"のいずれかの値をとるこ
とになる。二値化の方法としては、一般に固定しきい値
による二値化と、浮動しきい値による二値化が知られて
いる。前者は各画素を、固定濃度値(たとえば全画素の
濃度値の平均値)を境に“1"か“0"かに分ける方法であ
る。後者は境となる濃度値を画像内の各部で変化させる
方法であり、画像読取時に証明による明度分布が生じて
いるような場合に有効である。正方格子の歪パターンを
二値化した例を第7図(a)に示す。
§3 Operation of image processing unit 3.1 Overall procedure The operation of the image processing unit 14 is shown in the flowchart of FIG. First,
In step S1, a binarization process is performed. The image provided from the distortion pattern image reading device 11 is an image having a gradation. For example, one pixel has any density value between 0 and 255. When this is binarized,
All pixels take either "0" or "1". As the binarization method, generally, a binarization using a fixed threshold and a binarization using a floating threshold are known. The former is a method of dividing each pixel into “1” or “0” at a fixed density value (for example, an average value of density values of all pixels). The latter is a method in which the density value serving as a boundary is changed in each part in the image, and is effective when the brightness distribution by the certification occurs at the time of image reading. FIG. 7A shows an example in which the distortion pattern of the square lattice is binarized.

続いてステップS2において、細線化処理が行われる。
これは、二値化したパターンを線幅が1画素になるよう
に細線化する処理である。このような細線化処理は、た
とえば「画像処理サブルーチン・パッケージ SPIDER
USER′S MANUAL」(昭和57年、協同システム開発株式
会社刊)の491頁からに詳述されている公知の方法なの
で、ここでは説明を省略する。第7図(a)のパターン
を細線化した例を同図(b)に示す。
Subsequently, in step S2, a thinning process is performed.
This is a process of thinning the binarized pattern so that the line width becomes one pixel. Such a thinning process is described in, for example, “Image Processing Subroutine Package SPIDER
USER'S MANUAL ”(Showa 57, published by Kyodo System Development Co., Ltd.), page 491, is a well-known method, and the description is omitted here. FIG. 7B shows an example in which the pattern of FIG. 7A is thinned.

最後にステップS3において、交点追跡処理が行われ
る。これは、第7図(b)のように細線化処理されたパ
ターンから、同図(c)のように交点Vを決定する処理
である。第7図(b)に示す細線化処理されたパターン
の拡大図を第8図に示す。ここで円で示されているのが
1つの画素である。このように互いに連結した多数の画
素の中で、どの画素が交点(すなわち格子パターンの格
子点)であるかを決定するのが交点追跡処理である。次
に、この交点追跡処理の詳細を第9図および第10図の流
れ図を参照して説明する。
Finally, in step S3, an intersection tracking process is performed. This is a process for determining an intersection V as shown in FIG. 7C from the pattern subjected to the thinning process as shown in FIG. 7B. FIG. 8 is an enlarged view of the thinned pattern shown in FIG. 7B. Here, one pixel is indicated by a circle. The intersection tracking processing determines which pixel is the intersection (that is, the lattice point of the lattice pattern) among the many pixels connected to each other in this manner. Next, details of the intersection tracking processing will be described with reference to the flowcharts of FIGS. 9 and 10.

3.2 交点追跡処理 まず、ステップS4において、各画素について連結数の
計算を行う。ここで、ある画素についての連結数とは、
その周囲に別な画素がいくつ存在するかを示す数であ
る。第11図に示すように、ハッチングを施して示す着目
する画素についての連結数Cは、同図(a)〜(e)の
場合、それぞれ0〜4である。なお、細線化処理が施さ
れているため、周囲の画素は必ず互いに孤立しており、
連結数C=4が最大値となる。この連結数によって、着
目すべき点の属性を次のとおり決定することができる。
3.2 Intersection Tracking Processing First, in step S4, the number of connections is calculated for each pixel. Here, the connection number for a certain pixel is
This is a number indicating how many different pixels exist around it. As shown in FIG. 11, the connection number C of the pixel of interest indicated by hatching is 0 to 4 in each of FIGS. Since the thinning processing has been performed, the surrounding pixels are always isolated from each other,
The number of connections C = 4 is the maximum value. The attribute of the point of interest can be determined as follows from the number of links.

C=0 孤立点(例:第8図のa点) C=1 端点 (例:第8図のb点) C=2 連続点(例:第8図のc点) C=3 分岐点(例:第8図のd1〜d4点) C=4 交点 (例:第8図のe点) 次に、ステップS5において、初期追跡開始点の指定を
行う。これは、オペレータが第8図のような表示を見
て、明らかに交点と認識できる点(たとえば点e)を初
期追跡開始点として指定すればよい。オペレータが最初
にこの点を指定すれば、ステップS6移行の手順により他
の交点は自動的に決定される。ステップS6では、追跡開
始点および追跡方向が決定される。追跡開始点はいまの
場合、ステップS5で指定した初期追跡開始点となる。ま
た、追跡方向は、たとえば右方向へと予め定めておけば
よい。以下の手順では、追跡開始点から右方向へ順次交
点が追跡されてゆくことになる。このような交点追跡の
概念図を第12図に示す。たとえば、追跡開始点が点S1で
あったとすると、図の実線矢印の方向に追跡が行われ、
交点S2,S3,S4が決定されてゆく。右方向への追跡が不可
能になったら、今度は点S1から図の破線矢印で示す逆方
向への追跡を行うことになる。このように横方向へ追跡
を行う場合には、右または左方向にのみ追跡が行われ、
上下の縦方向への追跡は行われない。したがって、たと
えば点S5が交点であることが認識されても、現時点では
交点S5への追跡は行われない。実際には次のような手順
で交点追跡が行われる。
C = 0 Isolated point (example: point a in FIG. 8) C = 1 End point (example: point b in FIG. 8) C = 2 Continuous point (example: point c in FIG. 8) C = 3 bifurcation point ( Example: d1 to d4 in FIG. 8) C = 4 intersection (example: point e in FIG. 8) Next, in step S5, an initial tracking start point is designated. The operator can specify a point that can be clearly recognized as an intersection (for example, point e) as the initial tracking start point by viewing the display as shown in FIG. If the operator first designates this point, another intersection is automatically determined by the procedure of step S6. In step S6, a tracking start point and a tracking direction are determined. In this case, the tracking start point is the initial tracking start point specified in step S5. Further, the tracking direction may be set in advance, for example, to the right. In the following procedure, the intersection is sequentially tracked rightward from the tracking start point. FIG. 12 shows a conceptual diagram of such intersection tracking. For example, if the tracking start point is point S1, tracking is performed in the direction of the solid arrow in the figure,
Intersections S2, S3, S4 are determined. When tracking in the right direction becomes impossible, tracking in the reverse direction indicated by the broken arrow in the figure is performed from point S1. When tracking in the horizontal direction like this, tracking is performed only in the right or left direction,
No vertical tracking is performed. Therefore, for example, even if it is recognized that the point S5 is an intersection, tracking to the intersection S5 is not performed at present. Actually, the intersection tracking is performed in the following procedure.

まず、ステップS7で交点検出処理が行われる。いま、
第13図(a)において、図の矢印方向に追跡が行われて
おり、交点aに至るまでの各交点が追跡済であるものと
する。ここで、「ある交点が追跡済」ということは、あ
る画素が格子パターンの格子点であることが確認され、
その座標値も確認されており、かつ、格子内での位相的
位置も確認された状態をいう。位相的位置の確認は、た
とえば第13図(b)において、実線で示すような交点の
連結状態が正しく、破線で示すような連結状態は誤りで
あるというような確認である。ステップS7の交点検出処
理は、交点aに連結した3つの交点b,c,dを検出する処
理である。矢印後方の交点は既に追跡済であるため、交
点aに隣接する未追跡交点としては3つの交点b,c,dが
残っており、この3つの交点がステップS7で求められる
のである。
First, an intersection detection process is performed in step S7. Now
In FIG. 13 (a), it is assumed that tracking is performed in the direction of the arrow in the figure, and that each intersection up to intersection a has been tracked. Here, "a certain intersection has been tracked" means that a certain pixel is a lattice point of a lattice pattern,
In this state, the coordinate values are also confirmed, and the topological position in the lattice is also confirmed. The confirmation of the topological position is such that, for example, in FIG. 13 (b), the connection state of the intersection as shown by the solid line is correct, and the connection state as shown by the broken line is incorrect. The intersection detection process of step S7 is a process of detecting three intersections b, c, and d connected to the intersection a. Since the intersection behind the arrow has already been tracked, three intersections b, c, and d remain as untracked intersections adjacent to the intersection a, and these three intersections are obtained in step S7.

次に、ステップS8で追跡成功か否かを判断する。3つ
の交点のうち、位相幾何学的に中央に位置する交点(こ
の場合、交点c)が次に追跡すべき交点となるが、これ
が追跡交点として適当であるか否かが判断されるのであ
る。すなわち、交点aの次に交点cを追跡することが適
当かが判断される。これはたとえば、点ac間の距離が所
定の範囲内にあるか否かを判断すればよい。
Next, in step S8, it is determined whether tracking is successful. Among the three intersections, the intersection (the intersection c in this case) located at the topological center is the intersection to be tracked next, and it is determined whether or not this is appropriate as the tracking intersection. . That is, it is determined whether it is appropriate to trace the intersection c after the intersection a. This may be determined, for example, by determining whether the distance between the points ac is within a predetermined range.

交点cが適当なものであれば、追跡成功としてステッ
プS9において、この交点cを追跡済の交点として記憶す
る。具体的には、追跡済の交点座標を記録するマトリッ
クスを用意し、交点aの座標値の右隣に交点cの座標値
を記録することになる。このようにマトリックスを用い
れば、交点の位置と位相関係が同時に記録できる。続い
て、ステップS10で未追跡交点の記録を行う。ここで、
未追跡交点とは、第13図(a)の交点b,dである。交点
追跡は右方向に行われているため、現段階では交点b,d
は追跡されないが、せっかく交点として認識されたので
あるから、これらの点は交点であるが、まだ追跡はして
いないという事実を記録しておくのである。
If the intersection c is appropriate, it is determined that tracking has succeeded, and this intersection c is stored as a tracked intersection in step S9. Specifically, a matrix for recording the tracked intersection coordinates is prepared, and the coordinate value of the intersection c is recorded to the right of the coordinate value of the intersection a. By using a matrix in this way, the position of the intersection and the phase relationship can be recorded simultaneously. Subsequently, an untracked intersection is recorded in step S10. here,
The untracked intersections are the intersections b and d in FIG. 13 (a). Since the intersection tracking is performed in the right direction, at this stage the intersections b and d
Are not tracked, but since they were recognized as intersections, we record the fact that these points are intersections but have not been tracked yet.

こうして、再びステップS7へ戻り、次の3交点e,f,g
が検出される。以下、この手順を繰り返して、右方へ右
方へと交点追跡がなされる。こうして、第13図(c)に
示すように、ハッチングを施した交点が追跡交点として
記録され、二重丸で示した交点が未追跡交点として記録
される。×印で示した交点はまだ検出されていない。
Thus, the process returns to step S7 again, and the next three intersections e, f, and g
Is detected. Hereinafter, this procedure is repeated, and intersection tracking is performed rightward and rightward. Thus, as shown in FIG. 13 (c), the hatched intersection is recorded as a tracking intersection, and the intersection indicated by a double circle is recorded as an untracked intersection. The intersections indicated by the crosses have not been detected yet.

なお、ステップS8で追跡が成功しなかった場合はステ
ップS11において、いままでに追跡方向の逆転が行われ
たか判断され、逆転がまだであればステップS12におい
て、追跡方向を逆転しステップS7からの追跡が続行され
る。すなわち、第12図の破線矢印に示す方向へ追跡が行
われるのである。追跡が成功せず、かつ、追跡方向も逆
転済である場合には、ステップS13において、未追跡交
点が残っているか否かが判断される。残っていれば、ス
テップS6へ戻り、未追跡交点のうちのいずれか1点を新
たな追跡開始点として、追跡が続行される。すなわち、
第13図(c)において、二重丸で示した交点のいずれか
1点が追跡開始点とされ、まず右方向への追跡が行われ
る。この追跡によって、今まで未追跡交点(二重丸)で
あった交点が、追跡済交点(ハッチング)へと変わって
ゆくことになり、同時に今まで検出されていなかった交
点(×印)が検出され新たな未追跡交点として記録され
る。結局、以後の処理において、交点は未検出交点
(×)から未追跡交点(二重丸)を経て、最終的に追跡
済交点(ハッチング)へと順次変わってゆくことにな
る。こうして、未追跡交点がなくなれば、すべての交点
が追跡済となり、第7図(c)に示すような交点Vの位
置座標が求まる。
If the tracking is not successful in step S8, it is determined in step S11 whether the reversal of the tracking direction has been performed so far.If the reversal has not yet been performed, the tracking direction is reversed in step S12, and Tracking continues. That is, tracking is performed in the direction indicated by the dashed arrow in FIG. If the tracking has not been successful and the tracking direction has been reversed, it is determined in step S13 whether or not an untracked intersection remains. If it remains, the process returns to step S6, and tracking is continued with any one of the untracked intersections as a new tracking start point. That is,
In FIG. 13 (c), any one of the intersections indicated by double circles is set as a tracking start point, and first, tracking is performed in the right direction. By this tracking, the intersection that was an untracked intersection (double circle) until now changes to a tracked intersection (hatched), and at the same time an intersection (x mark) that was not detected until now is detected And recorded as a new untracked intersection. Eventually, in the subsequent processing, the intersection sequentially changes from an undetected intersection (x) to an untracked intersection (double circle) and finally to a tracked intersection (hatched). When there are no untracked intersections in this way, all the intersections have been tracked, and the position coordinates of the intersection V as shown in FIG. 7 (c) are obtained.

3.3 交点検出処理 次に、第9図ステップS7の交点検出処理の詳細を第10
図の流れ図を参照して説明する。前述3のように、この
処理は第13図(a)の交点aから、交点b,c,dを検出す
る処理である。まず、ステップS14において、検出方向
を検出する。第13図(a)の例において、交点bを検出
するのであれば、上方向が検出方向となる。そしてステ
ップS15においてその検出方向に1画素分画素を追跡す
る。すなわち、画素gが着目される。そして、着目した
画素の属性が、分岐点(ステップS16)か、交点か(ス
テップS17)、端点か(ステップS18)、あるいは連続点
か(ステップS19)、を判断する。(画素を順次追跡し
ているため、孤立点であることはない)この属性の判断
は、前述したように、ステップS4で求めた各画素の連結
数を参照して行うことができる。追跡した画素が連続点
である限り、ステップS15へ戻って1画素分の追跡を続
けてゆく。第13図(a)の例では、交点aから点b(こ
の時点では点bが交点であることは認識されていない)
に向かって上方へ1画素ずつ追跡が行われることにな
る。そして、 (1)属性が「交点」である画素が見付かったら(ステ
ップS17)、ステップS21で交点検出と判断する。この場
合は、その画素の座標位置がそのまま交点の座標位置と
なる。たとえば、第8図のe点は属性が「交点」であ
り、この座標位置がそのまま交点の座標位置となる。
3.3 Intersection Detection Processing Next, the details of the intersection detection processing in step S7 in FIG.
This will be described with reference to the flowchart in the figure. As described above, this process is a process for detecting intersections b, c, and d from the intersection a in FIG. First, in step S14, a detection direction is detected. In the example of FIG. 13 (a), if the intersection b is detected, the upward direction is the detection direction. Then, in step S15, one pixel is tracked in the detection direction. That is, attention is paid to the pixel g. Then, it is determined whether the attribute of the focused pixel is a branch point (step S16), an intersection point (step S17), an end point (step S18), or a continuous point (step S19). (Because the pixels are sequentially tracked, they are not isolated points.) This attribute can be determined by referring to the number of connected pixels obtained in step S4 as described above. As long as the tracked pixels are continuous points, the process returns to step S15 to continue tracking one pixel. In the example of FIG. 13 (a), the intersection point a to the point b (at this point, it is not recognized that the point b is the intersection point).
The tracking is performed upward one pixel at a time. (1) If a pixel having the attribute "intersection" is found (step S17), it is determined in step S21 that an intersection has been detected. In this case, the coordinate position of the pixel becomes the coordinate position of the intersection as it is. For example, the attribute of point e in FIG. 8 is “intersection point”, and this coordinate position is the coordinate position of the intersection point as it is.

(2)属性が「分岐点」である画素が見付かったら(ス
テップS16)、ステップS20において、対となる分岐点を
捜し、両者の平均座標を交点の座標位置とする。たとえ
ば第8図のd1点が属性「分岐点」の点として見付かった
ら、これと対となる分岐点d2を捜すことになる。これ
は、たとえば分岐点d1から所定半径以内に存在する別な
分岐点としてd2を捜せばよい。このような一対の分岐点
は元来1つの交点であったと考えられるので、線分d1d2
の中点(両分岐点の平均座標)をもって交点の座標位置
とするのである。分岐点の対d3,d4についても同様であ
る。
(2) If a pixel having the attribute “branch point” is found (step S16), a pair of branch points is searched for in step S20, and the average coordinates of the two are set as the coordinate position of the intersection. For example, if the point d1 in FIG. 8 is found as a point having the attribute "branch point", a branch point d2 corresponding to this point is searched for. For this, for example, d2 may be searched as another branch point existing within a predetermined radius from the branch point d1. It is considered that such a pair of branch points was originally one intersection, so the line segment d1d2
Is set as the coordinate position of the intersection. The same applies to the branch point pairs d3 and d4.

(3)属性が「端点」である画素が見付かったら(ステ
ップS18)、ステップS22において、「交点検出できず」
の判断をする。
(3) If a pixel having the attribute "end point" is found (step S18), in step S22, "intersection cannot be detected"
Make a judgment.

このようにして、隣接する交点の検出が行われる。前
述のように、交点追跡を行う場合、1つの交点について
隣接する3つの交点の検出が行われる。そこで、ステッ
プS23で全検出方向について終了するまで、ステップS14
からの手順が繰り返され、3つの交点検出がなされる。
なお、このような交点検出は、あくまでも交点が検出さ
れていない場合に必要な処理であって、隣接する交点が
追跡済交点あるいは未追跡交点として既に検出されてい
る場合には不要な処理である。
In this manner, the detection of the adjacent intersection is performed. As described above, when performing intersection tracking, three adjacent intersections are detected for one intersection. Therefore, until step S23 is completed for all detection directions, step S14
Are repeated, and three intersections are detected.
Note that such intersection detection is processing that is necessary only when no intersection is detected, and is unnecessary processing when an adjacent intersection is already detected as a tracked intersection or an untracked intersection. .

3.4 交点を求める別な手法 I さて、上述したように、第7図(a)に示すような二
値化された歪パターンの画像を同図(b)のように細線
化し、さらに交点追跡によって同図(c)のように交点
位置が決定されることになるが、この交点位置を求める
より簡便な別な手法をここで述べておく。この手法で
は、細線化や交点追跡といった手順が全く必要ない。第
7図(a)に示す二値化画像から直接交点位置(正確に
は、交点位置そのものではなく、交点に準ずる点の位置
である)を求めることができるのである。
3.4 Another Method of Obtaining Intersection I As described above, the image of the binarized distortion pattern as shown in FIG. 7A is thinned as shown in FIG. The position of the intersection is to be determined as shown in FIG. 3 (c). Another simpler method for obtaining the position of the intersection will be described here. This method does not require any procedures such as thinning and intersection tracking. From the binarized image shown in FIG. 7 (a), the intersection position (to be exact, not the intersection position itself but the position of a point corresponding to the intersection) can be obtained.

第7図(a)に示すように、二値化された歪パターン
の画像は、白または黒の画素の集合となっている。上述
した細線化処理は黒い部分の幅を1画素分になるまで狭
める処理であり、交点追跡処理は更に交点となる黒い画
素の位置を決定する処理であるといえる。いずれも、黒
い画素に着目した処理といえる。ここで説明する別な手
法は、逆に白い画素に着目した処理である。第7図
(a)に示すパターンの拡大図を同図(d)に示す。こ
こで、白い部分は多数の白い画素で構成され、黒い部分
は多数の黒い画素で構成されている。いま、それぞれ独
立した白い部分ごとにその幾何的な重心Wを求めると、
第7図(d)に示すように、各白い部分の中央部に重心
Wが求まる。この重心Wの位置座標は、単純な算術演算
で求めることができる。この手法の特徴は、この重心W
を交点Vの代わりに用いようという発想にある。第7図
(d)に示されているように、交点Vが格子配列をとる
のと同様に、重心Wも格子配列をとることになる。交点
からなる格子と重心からなる格子との関係を第7図
(e)に示す。この図の実線で示すような交点からなる
格子があったとすると、重心からなる格子は図の破線で
示すような格子となる。それぞれの格子点は位置はずれ
ているが、いずれも格子としてはほぼ同じ位相情報をも
つ。したがって、もとの格子に歪みがあれば、その格子
の重心を連結して作った格子も同じ歪みをもつのであ
る。結局、第7図(d)における交点Vを求める代わり
に、重心Wを求め、これを交点として取り扱っても支障
は生じない。この手法は、演算が単純なだけでなく、画
像読取時に混入するノイズの影響を受けにくいというメ
リットがある。
As shown in FIG. 7A, the image of the binarized distortion pattern is a set of white or black pixels. The thinning process described above is a process of narrowing the width of a black portion to one pixel, and the intersection tracking process is a process of further determining the position of a black pixel that is an intersection. In any case, it can be said that the processing focuses on the black pixel. Another method described here is a process that focuses on white pixels. An enlarged view of the pattern shown in FIG. 7A is shown in FIG. Here, the white portion is composed of many white pixels, and the black portion is composed of many black pixels. Now, when the geometric center of gravity W is obtained for each independent white portion,
As shown in FIG. 7 (d), the center of gravity W is determined at the center of each white portion. The position coordinates of the center of gravity W can be obtained by a simple arithmetic operation. The feature of this method is that the center of gravity W
Is used instead of the intersection V. As shown in FIG. 7 (d), the center of gravity W also has a lattice arrangement, just like the intersection V has a lattice arrangement. FIG. 7 (e) shows the relationship between the grid consisting of the intersections and the grid consisting of the center of gravity. Assuming that there is a grid consisting of intersections as shown by the solid lines in this figure, the grid consisting of the centers of gravity is a grid shown by the broken lines in the figure. Although each lattice point is displaced, all have substantially the same phase information as a lattice. Therefore, if the original lattice has a distortion, the lattice formed by connecting the centers of gravity of the lattice has the same distortion. After all, instead of finding the intersection V in FIG. 7 (d), finding the center of gravity W and treating this as the intersection does not cause any trouble. This method has the merit that not only the operation is simple, but also that it is less susceptible to noise mixed in during image reading.

3.5 交点を求める別な手法 II 上述の方法はいずれも細線化処理を行なった後に交点
を求める方法であるが、ここでは細線化処理をせずに好
天を求めるための方法を説明する。第14図(a)は、入
力したパターンを細線化する前の段階のパターンの一部
を示す。すなわち、第7図(a)に示すパターンの部分
拡大図に相当する。ここで白丸で表わすのは、各画素で
ある。人間はこのパターンを幅Wの水平方向の線の一部
であると認識することができるが、コンピュータにこれ
を認識させるためには、所定のアルゴリズムによる解析
を行わねばならない。
3.5 Alternative methods for finding intersections II The above methods are all methods for finding intersections after performing thinning processing. Here, a method for finding fine weather without thinning processing will be described. FIG. 14A shows a part of the pattern before the input pattern is thinned. That is, it corresponds to a partially enlarged view of the pattern shown in FIG. Here, each pixel is represented by a white circle. Although a human can recognize this pattern as a part of a horizontal line having a width W, analysis by a predetermined algorithm must be performed in order for the computer to recognize the pattern.

そこでまず、直径Rの円を定義する。ここで、R>W
となるように設定する。この円で囲まれた領域をスポッ
ト閉領域と呼ぶことにする。このスポット閉領域を、第
14図(a)に示すようにパターンの一部に重ね、スポッ
ト閉領域の境界線上あるいはその近傍にある画素を境界
画素として抽出するのである。第14図(b)は、同図
(a)の拡大図である。ここでハッチングされた画素が
抽出された境界画素である。この例の場合、境界画素
は、G1とG2との2つのグループに分かれた分布となって
いる。このように境界画素の分布が2つのグループに分
かれた場合には、現在のスポット閉領域は、パターンの
連続点上にあると判断するのである。すなわち、前述の
実施例における第11図(c)と等価である。結局、この
方法の要点は、境界画素の分布におけるグループの数を
前述の実施例の連結数Cと等価に扱えばよいのである。
第14図(b)の場合、グループ数は2であるから、連結
数C=2の場合と等価に扱えばよい。
Therefore, first, a circle having a diameter R is defined. Where R> W
Set so that The area surrounded by the circle is called a spot closed area. This spot closed area is
As shown in FIG. 14 (a), the pixel is superimposed on a part of the pattern, and a pixel on or near the boundary of the spot closed area is extracted as a boundary pixel. FIG. 14 (b) is an enlarged view of FIG. 14 (a). Here, the hatched pixels are the extracted boundary pixels. In this example, the boundary pixels have a distribution divided into two groups, G1 and G2. When the distribution of boundary pixels is divided into two groups in this way, it is determined that the current spot closed area is on a continuous point of the pattern. That is, it is equivalent to FIG. 11 (c) in the above embodiment. After all, the point of this method is that the number of groups in the distribution of boundary pixels should be treated equivalently to the connection number C in the above-described embodiment.
In the case of FIG. 14 (b), the number of groups is two, so it may be treated equivalently to the case where the number of links C = 2.

第14図(c)のスポット閉領域SP3について同様の判
断を行うと、境界画素は1つのグループだけであるの
で、連結数C=1の場合と等価になり、第11図(b)に
相当する扱いをすればよい。すなわち、端点と判断され
る。
When the same determination is made for the spot closed area SP3 in FIG. 14 (c), since the boundary pixel is only one group, it becomes equivalent to the case where the number of connections C = 1, and corresponds to FIG. 11 (b). What should I do? That is, it is determined to be an end point.

第14図(d)のスポット閉領域について同様の判断を
行うと、境界画素は4つのグループG1,G2,G3,G4に分か
れるので、連結数C=4の場合と等価になり、第11図
(e)に相当する扱いをすればよい。すなわち、交点と
判断される。
When the same determination is made for the spot closed area in FIG. 14 (d), the boundary pixels are divided into four groups G1, G2, G3, G4, which is equivalent to the case where the number of connections C = 4. A treatment corresponding to (e) may be performed. That is, the intersection is determined.

第14図(e)のスポット閉領域について同様の判断を
行うと、境界画素は3つグループG1,G2,G3に分かれるの
で、連結数C=3の場合と等価になり、第11図(d)に
相当する扱いをすればよい。すなわち、分岐点と判断さ
れる。
When the same determination is made for the spot closed area in FIG. 14 (e), the boundary pixels are divided into three groups G1, G2, G3, which is equivalent to the case where the number of connections C = 3, and FIG. )). That is, it is determined to be a branch point.

以上のようにして、細線化処理を行わずに交点の認識
が可能になる。なお交点の位置は、第14図(d)におい
て、グループG1の画素の重心位置とグループG2の画素の
重心位置とを結ぶ直線と、グループG3の画素の重心位置
とグループG4の画素の重心位置とを結ぶ直線との交点PX
を求め、これを交点座標とすればよい。
As described above, the intersection can be recognized without performing the thinning processing. In FIG. 14 (d), the position of the intersection is a straight line connecting the barycentric position of the group G1 pixel and the barycentric position of the group G2 pixel, the barycentric position of the group G3 pixel and the barycentric position of the group G4 pixel. Intersection PX with a straight line connecting
May be obtained, and these may be used as intersection coordinates.

また、交点から次の交点までの追跡は、第14図(c)
に示すように、1つのスポット閉領域SP1についての判
断が終了したら、スポット閉領域をSP2にまで移動させ
て同様の判断処理を繰り返すようにすればよい。スポッ
ト閉領域の移動方向は、第14図(b)に示すように、グ
ループG1の4画素の重心位置g1とグループG2の画素の重
心位置g2とを結ぶ直線lの方向になるようにする。移動
ピッチPtは、Pt<Rなるようにオペレータが適当な値を
指定してやればよい。ただし、Pt<<Rになると、処理
に時間がかかり過ぎ好ましくない。なお、第14図(e)
に分岐点の例を示したが、細線化処理を行っていないた
め、理論的には分岐点が現れることはない。
The tracking from the intersection to the next intersection is shown in Fig. 14 (c).
As shown in (2), when the determination on one spot closed area SP1 is completed, the spot closed area may be moved to SP2 and the same determination processing may be repeated. As shown in FIG. 14 (b), the moving direction of the spot closed area is set to the direction of a straight line 1 connecting the barycentric position g1 of the four pixels of the group G1 and the barycentric position g2 of the pixels of the group G2. The movement pitch Pt may be specified by an operator so that Pt <R. However, when Pt << R, processing takes too much time, which is not preferable. FIG. 14 (e)
FIG. 3 shows an example of a branch point, but since a thinning process is not performed, a branch point does not appear theoretically.

§4 歪み補正処理部の動作 4.1 全体の手順 前述のように歪補正処理部15は、第5図(c)に示す
ような基準パターンデータを予め記憶している。なお、
この基準パターンデータは記憶装置16から読み出すよう
にしてもよい。また歪補正処理部15には、画像処理部14
から第5図(d)に示すような歪パターンデータが与え
られ、被補正絵柄入力装置12から被補正絵柄のデータが
与えられる。この歪補正処理部15内部には、第4図
(b)に示すように2つの座標系が用意されている。
§4 Operation of the distortion correction processing section 4.1 Overall procedure As described above, the distortion correction processing section 15 stores in advance reference pattern data as shown in FIG. 5 (c). In addition,
This reference pattern data may be read from the storage device 16. The distortion correction processing unit 15 includes an image processing unit 14.
The distortion pattern data as shown in FIG. 5 (d) is given, and the data of the image to be corrected is provided from the image input device 12 to be corrected. Two coordinate systems are prepared in the distortion correction processing unit 15 as shown in FIG. 4 (b).

以下、第4図(b)の基本構成図およぶ第15図の流れ
図を参照して、その動作を説明することにする。まず、
歪パターンデータは第1座標系18に与えられ(ステップ
S24)、基準パターンデータは第2座標系19に与えられ
る(ステップS25)。そして、被補正絵柄データは第1
座標系18に与えられる(ステップS26)。この例では、
「A」なる文字を絵柄として扱う場合を示すことにす
る。したがって、第1座標系18上では、歪パターンに歪
んでいない正規の文字(被補正絵柄)「A」が重なるこ
とになる。写像演算装置20は、第1座標系18上の基準パ
ターンの基準点と、第2座標系19上の歪パターンの基準
点と、の対応関係に基づいて、文字「A」の写像を第2
座標系19上に求める演算を行う(ステップS27)。この
写像は、第4図(b)に示すように歪んだ文字「A」
(補正済絵柄)となる。補正済絵柄出力装置17に対して
は、この歪んだ文字「A」の画像データが出力される。
これを受けて、補正済絵柄出力装置17(たとえばプロッ
タ)は歪んだ文字「A」を補正版下として描画する(ス
テップS28)。この補正版下に基づいて、転写フィルム
2に歪んだ文字「A」を印刷し、第2図に示すように前
回と同じ条件で成形、転写を行えば、転写フィルム2が
前回と同じ条件で伸びるため、結局、印刷成形品9の上
面には、歪みのない文字「A」が転写されることにな
る。
Hereinafter, the operation will be described with reference to the basic configuration diagram of FIG. 4 (b) and the flowchart of FIG. First,
The distortion pattern data is given to the first coordinate system 18 (step
S24), the reference pattern data is given to the second coordinate system 19 (step S25). The corrected pattern data is the first
This is given to the coordinate system 18 (step S26). In this example,
The case where the character “A” is treated as a picture will be described. Therefore, on the first coordinate system 18, a normal character (corrected picture) "A" not distorted in the distorted pattern overlaps. The mapping calculation device 20 converts the mapping of the character “A” into the second based on the correspondence between the reference point of the reference pattern on the first coordinate system 18 and the reference point of the distortion pattern on the second coordinate system 19.
The calculation to be performed on the coordinate system 19 is performed (step S27). This mapping shows the distorted letter "A" as shown in FIG.
(Corrected pattern). The image data of the distorted character “A” is output to the corrected picture output device 17.
In response to this, the corrected picture output device 17 (for example, a plotter) draws the distorted character "A" as a corrected copy (step S28). If the distorted character "A" is printed on the transfer film 2 based on the corrected copy and formed and transferred under the same conditions as the previous time, as shown in FIG. As a result, the letter “A” without distortion is transferred to the upper surface of the printed molded product 9.

4.2 写像演算の実施例 次に、写像演算装置20の行う写像演算の実施例を説明
する。写像演算装置20は、第4図(b)に示すように、
第1座標系18上で絵柄を構成する各点の写像を第2座標
系19上に求める仕事を行う。すなわち、第1座標系18上
の任意の一点Pについて、第2座標系19上の写像点Qを
求めることができればよい。
4.2 Embodiment of Mapping Operation Next, an embodiment of the mapping operation performed by the mapping operation device 20 will be described. As shown in FIG. 4 (b), the mapping operation device 20
The task of obtaining the mapping of each point constituting the picture on the first coordinate system 18 on the second coordinate system 19 is performed. That is, it is only necessary that the mapping point Q on the second coordinate system 19 can be obtained for any one point P on the first coordinate system 18.

従来から、第2座標系19上の正規なパターンを第1座
標系18上の歪んだパターンに変換する関数fを求める手
法が知られている。ところが、点Pの写像点Qを求める
には、関数fの逆関数gを求める必要があり、数学的に
非常に困難な作業となる。そこで、このような関数を用
いない方法を考える。いま、一点Pが基準点(格子点)
の位置にある点であれば、これに対する写像点Qは容易
に求まる。すなわち、第4図(b)において、一点P1の
写像点は点Q1となる。正方格子の位相的に対応する格子
点が写像点となるのである。問題は、一点P2のように格
子の内部にある点について、写像点Q2を求める方法であ
る。ここで、一点P2の所属する格子ABCDに対応する第2
座標系上の格子EFGHは、位相的に対応する格子としてす
ぐにみつけることができる。この例の場合、一点P2の所
属する格子は右下の格子であるから、対応する第2座標
系上の格子も右下の格子となる。続いて、格子ABCD内の
一点P2に対応する点Q2を、格子EFGH内に求めればよい。
この点Qは、結局、位相的に点Pに対応する位置にある
点として求めることになる。このように、位相的に対応
する点を求める手法も、従来からいくつかの方法が知ら
れている。ところが、従来の方法はいずれも絵柄に段差
が生じるという問題ある。すなわち、第16図(a)に示
すように、隣接する2つの単位格子にまたがった絵柄に
ついて、これを構成する各点の写像を求めた場合、同図
(b)に示すような写像が得られればよいが、従来の方
法では、同図(c)のように段差が生じてしまうのであ
る。本願発明者は、絵柄に段差の生じない写像を得るこ
とができる具体的手法をいくつか考案したので、以下に
4つの例を説明する。
Conventionally, there has been known a method of obtaining a function f for converting a normal pattern on the second coordinate system 19 into a distorted pattern on the first coordinate system 18. However, in order to find the mapping point Q of the point P, it is necessary to find the inverse function g of the function f, which is a mathematically very difficult task. Therefore, a method that does not use such a function is considered. Now, one point P is a reference point (lattice point)
If the point is located at the position, the mapping point Q for this point can be easily obtained. That is, in FIG. 4B, the mapping point of one point P1 is the point Q1. The lattice points corresponding to the topological points of the square lattice are the mapping points. The problem is a method of obtaining a mapping point Q2 for a point such as one point P2 inside the lattice. Here, the second point corresponding to the lattice ABCD to which the point P2 belongs
The grid EFGH on the coordinate system can be readily found as a topologically corresponding grid. In the case of this example, since the grid to which the point P2 belongs is the lower right grid, the corresponding grid on the second coordinate system is also the lower right grid. Subsequently, a point Q2 corresponding to one point P2 in the grid ABCD may be obtained in the grid EFGH.
This point Q is ultimately determined as a point at a position corresponding to the point P in phase. As described above, several methods have been conventionally known for obtaining a topologically corresponding point. However, all of the conventional methods have a problem that a step is formed in a picture. That is, as shown in FIG. 16 (a), when the mapping of each point constituting the pattern extending over two adjacent unit lattices is obtained, the mapping as shown in FIG. 16 (b) is obtained. However, in the conventional method, a step is generated as shown in FIG. The inventor of the present application has devised several specific methods capable of obtaining a mapping in which a pattern does not have a step. Four examples will be described below.

以下の4つの方法は、いずれにも共通した規則が適用
される。すなわち、隣接した単位格子にまたがった点
(たとえば第16図(a)の点P)についての写像を求め
る際に、このまたがった点をはさむ2つの格子点(第16
図(a)の点B,C)の座標値のみによって写像(第16図
(B)の点Q)が決定される。このような条件を満足す
るような方法で写像を求めれば、絵柄に段差が生じると
いう問題を解決することができる。
The following four methods apply the same rules to all of them. That is, when calculating a mapping for a point (for example, point P in FIG. 16 (a)) that straddles an adjacent unit cell, two grid points (the 16th point) sandwiching the straddling point are obtained.
The mapping (point Q in FIG. 16 (B)) is determined only by the coordinate values of points (B, C) in FIG. (A). If the mapping is obtained by a method that satisfies such a condition, the problem that a step is formed in the picture can be solved.

<m:n分割法> まず、第1の手法を第17図を参照して説明する。い
ま、第17図(a)に示すように、格子点ABCD内の一点P
に対応する写像点Qを、同図(b)に示す正方格子EFGH
内に求める場合を考える。はじめに、格子点ABCDを結ん
で四角形ABCDを作る。そして、直線ABとDCとの交点Xと
点Pとを直線で結び、この直線の四角形ABCD内の部分を
点Pが分割する比m:nを求める。さらに、直線ADとBCと
の交点Yと点Pとを直線で結び、この直線の四角形ABCD
内の部分を点Pが分割する比q:rを求める。一方、正方
格子EFGHでは、辺EFおよびHGをそれぞれm:nに分割する
二点IJを結ぶ直線と、辺FGおよびEHをそれぞれq:rに分
割する二点KLを結ぶ直線と、を引き、この交点を点Qと
するのである。各点はそれぞれ(x,y)の二次元座標値
で与えられているため、上述の手法は非常に容易な演算
によって行うことが可能である。なお、第18図に示すよ
うに、四角形ABCDの対辺、たとえば辺BCとADが平行な場
合は交点Yが求められなくなるが、この場合は、点Pを
通り辺BCまたはACに平行な直線を考えればよい。
<M: n Division Method> First, the first method will be described with reference to FIG. Now, as shown in FIG. 17 (a), one point P in the grid point ABCD
Is mapped to a square lattice EFGH shown in FIG.
Consider the case of seeking within. First, a square ABCD is created by connecting the grid points ABCD. Then, the intersection point X of the straight line AB and DC is connected to the point P by a straight line, and a ratio m: n at which the point P divides a portion of the straight line in the rectangle ABCD is determined. Further, the intersection point Y of the straight lines AD and BC and the point P are connected by a straight line, and the straight line ABCD
A ratio q: r at which the point P divides the portion inside is obtained. On the other hand, in the square lattice EFGH, a straight line connecting two points IJ dividing the sides EF and HG into m: n and a straight line connecting two points KL dividing the sides FG and EH into q: r are drawn, This intersection is designated as point Q. Since each point is given by a two-dimensional coordinate value of (x, y), the above method can be performed by a very easy operation. As shown in FIG. 18, when the opposite side of the square ABCD, for example, the side BC and AD are parallel, the intersection Y is not obtained. In this case, a straight line passing through the point P and parallel to the side BC or AC is drawn. Just think.

<等分割法> 第2の手法を第20図を参照して説明する。まず、第20
図(a)に示すように、点Pを通り辺ABおよび辺CDを等
しい比m:nで分割する点IおよびJ(AI:IB=DJ:JC=m:
n)を通る直線l1と、点Pを通り辺BCおよび辺ADを等し
い比q:rで分割する点KおよびL(AK:KD=BL:LC=q:r)
を通る直線l2とを引く。このときの比、m:nおよびq:rを
用いて、第20図(b)のように写像点Qを求める。すな
わち、辺EFおよびHGをそれぞれm:nに分割する二点I′
J′を結ぶ直線と、辺FGおよびEHをそれぞれq:rに分割
する二点K′L′を結ぶ直線と、の交点を点Qとすれば
よい。
<Equal Partition Method> The second method will be described with reference to FIG. First, the 20th
As shown in FIG. 3A, points I and J passing through the point P and dividing the side AB and the side CD at an equal ratio m: n (AI: IB = DJ: JC = m:
n and points K and L passing through the point P and dividing the side BC and the side AD at equal ratios q: r (AK: KD = BL: LC = q: r)
And a straight line l2 passing through. Using the ratios at this time, m: n and q: r, a mapping point Q is obtained as shown in FIG. 20 (b). That is, two points I ′ dividing the sides EF and HG into m: n, respectively.
The intersection point of a straight line connecting J 'and a straight line connecting two points K'L' that divide the sides FG and EH into q: r may be set as a point Q.

m:nを演算で求める方法の一例を以下に示す。いま、
4点ABCDの座標値を、それぞれ(xa,ya),(xb,yb),
(xc,yc),(xd,yd)とし、点Pの座標値を(xp,yp)
とする。ここで、点I,Jの座標値を、(xi,yi),(xj,y
j)とすると、 xi=m・(xb−xa)+xa (1) xj=m・(yb−ya)+ya (2) yi=m・(xc−xd)+xd (3) yj=m・(yc−yd)+yd (4) 一般に、2点X1(x1,y1),X2(x2,y2)を通る直線は、 (y−y1)(x2−x1) =(x−x1)(y2−y1) (5) で表される。したがって、直線l1の方程式は、 (y−yi)(xj−xi) =(x−xi)(yj−yi) (6) となる。この式に式(1)〜(4)を代入し、かつx,y
に点Pの座標(xp,yp)を代入すれば、 am2+bm+c=0 (7) なる形のmについての式が得られる。ここで、a〜cは
既知の座標値から求まる係数である。この式(7)を解
けば、0≦m≦1なるmが求まる。
An example of a method for calculating m: n by calculation will be described below. Now
The coordinates of the four points ABCD are (xa, ya), (xb, yb),
(Xc, yc), (xd, yd), and the coordinate value of the point P is (xp, yp)
And Here, coordinate values of points I and J are represented by (xi, yi), (xj, y
j), xi = m · (xb-xa) + xa (1) xj = m · (yb-ya) + ya (2) yi = m · (xc-xd) + xd (3) yj = m · (yc −yd) + yd (4) In general, a straight line passing through two points X1 (x1, y1) and X2 (x2, y2) is (y−y1) (x2−x1) = (x−x1) (y2−y1) (5) is represented by Accordingly, the equation of the straight line l1 is as follows: (y-yi) (xj-xi) = (x-xi) (yj-yi) (6) Substituting equations (1) to (4) into this equation, and x, y
By substituting the coordinates (xp, yp) of the point P into the following equation, an expression for m in the form of am 2 + bm + c = 0 (7) is obtained. Here, a to c are coefficients obtained from known coordinate values. By solving the equation (7), m satisfying 0 ≦ m ≦ 1 is obtained.

n=1−m (8) であるから、m:nの比を演算で求めることができる。q:r
も同様に求まる。
Since n = 1−m (8), the ratio of m: n can be obtained by calculation. q: r
Is similarly obtained.

<歪量空間法> 続いて第3の手法を説明する。まず、前述の第1の手
法または第2の手法を用いて、m:nおよびq:rの比を求め
る。ここでは、第1の手法でこれらの比を求めた場合に
ついて説明する。第19図において、各点ABCDのxおよび
y座標値について、正方形EFGH(第4図(b))の対応
する各頂点のxおよびy座標値との差を求める。たとえ
ば、点Aの座標値が(x,y)であり、点Eの座標値が
(x*,y*)である場合には、差はΔ1x=x−x*、Δ
1y=y−y*となる。これを、ABCDの各点について第19
図に示すように求める。そして、差の総合計Δxおよび
Δyを次式によって求める。
<Distortion Amount Method> Next, a third method will be described. First, the ratio of m: n and q: r is determined by using the above-described first method or second method. Here, the case where these ratios are obtained by the first method will be described. In FIG. 19, the difference between the x and y coordinate values of the corresponding vertex of the square EFGH (FIG. 4 (b)) is determined for the x and y coordinate values of each point ABCD. For example, when the coordinate value of the point A is (x, y) and the coordinate value of the point E is (x *, y *), the difference is Δ1x = x−x *, Δ
1y = y−y *. For each point of ABCD,
Determine as shown in the figure. Then, the total sums Δx and Δy of the differences are obtained by the following equations.

Δx=Δ1x・n/(m+n)・r/(q+r) +Δ2x・m/(m+n)・r/(q+r) +Δ3x・m/(m+n)・q/(q+r) +Δ4x・n/(m+n)・q/(q+r) Δy=Δ1y・n/(m+n)・r/(q+r) +Δ2y・m/(m+n)・r/(q+r) +Δ3y・m/(m+n)・q/(q+r) +Δ4y・n/(m+n)・q/(q+r) 点Pを差Δx、Δyだけ移動させた座標に、点Qが求ま
る。
Δx = Δ1x · n / (m + n) · r / (q + r) + Δ2x · m / (m + n) · r / (q + r) + Δ3x · m / (m + n) · q / (q + r) + Δ4x · n / (m + n) · q / (Q + r) Δy = Δ1y · n / (m + n) · r / (q + r) + Δ2y · m / (m + n) · r / (q + r) + Δ3y · m / (m + n) · q / (q + r) + Δ4y · n / ( (m + n) · q / (q + r) A point Q is obtained at coordinates obtained by moving the point P by the differences Δx and Δy.

<三角形ベクトル比分割法> 最後に、第4の手法を第21図を参照して説明する。こ
の方法では、第21図(a)に示すように、点Pが所属す
る四角形を2つの三角形に分割し、点Pの所属する方の
三角形を抽出して写像を求めるものである。すなわち、
今までの3つの手法における四角形ABCDおよび正方形EF
GHの代わりに、それぞれ三角形ABC(第21図(b))お
よび直角二等辺三角形DEF(第21図(c))を用い、図
の一点鎖線で示す対となる三角形の部分を無視して取り
扱えばよい。
<Triangle Vector Ratio Division Method> Finally, the fourth method will be described with reference to FIG. In this method, as shown in FIG. 21 (a), a square to which point P belongs is divided into two triangles, and the triangle to which point P belongs is extracted to obtain a mapping. That is,
Square ABCD and square EF in the previous three methods
Instead of GH, use triangle ABC (Fig. 21 (b)) and right-angled isosceles triangle DEF (Fig. 21 (c)), respectively, and ignore paired triangles indicated by dashed lines in the figure. I just need.

まず、点aから点Pにベクトル▲▼を引き、ベク
トル▲▼およびベクトル▲▼をそれぞれ単位ベ
クトルとして、ベクトル▲▼を ▲▼=a▲▼+b▲▼ で表わして係数aおよびbを求める。ここで0≦a≦
1、0≦b≦1である。そして、2つの単位ベクトル▲
▼および▲▼によって、 ▲▼=a▲▼+b▲▼ で表わされるベクトルDQを求め、その先端位置として点
Qを求める。
First, the vector ▼ is subtracted from the point a to the point P, and the vector ▼ is represented by ▼ = a ▲ + b ▲, using the vector ▼ and the vector ▼ as unit vectors, to obtain coefficients a and b. Where 0 ≦ a ≦
1, 0 ≦ b ≦ 1. And two unit vectors ▲
A vector DQ represented by ▼ = a ▲ + b ▲ is obtained by ▼ and ▼, and a point Q is obtained as the tip position.

4.3 写像演算についての補足 最後に具体的な写像演算を行う場合に好ましい実施例
を補足的に述べる。
4.3 Supplement on Mapping Operation Finally, a preferred embodiment for performing a specific mapping operation will be supplementarily described.

まず、被補正絵柄データが第1座標系にベクトルデー
タで与えられた場合には、このベクトルデータを細分化
してから写像を求めるのが好ましい。たとえば、第22図
(a)に示すように、被補正絵柄が5点におけるベクト
ルで与えられた場合、この5点の写像を求めて写像点を
新たなベクトルで結んだ場合、点間の細かい情報が失わ
れてしまう。そこでまず、第22図(b)に示すように、
ベクトルデータを細分化し1つのベクトルの長さを微小
化してやった後、同図(c)に示すように、第2座標系
に写像を求めて補正済絵柄とすれば、点間の細かい情報
まで再現される。
First, when the pattern data to be corrected is given to the first coordinate system as vector data, it is preferable to obtain a mapping after subdividing this vector data. For example, as shown in FIG. 22 (a), when the pattern to be corrected is given by vectors at five points, when mapping of these five points is obtained and the mapping points are connected by a new vector, fine points between the points are obtained. Information is lost. Therefore, first, as shown in FIG.
After subdividing the vector data and minimizing the length of one vector, as shown in FIG. 3C, if a mapping is obtained in the second coordinate system to obtain a corrected pattern, even fine information between points can be obtained. Will be reproduced.

被補正絵柄データが第1座標系にラスターデータで与
えられた場合には、第2座標系に得られる補正済絵柄に
画素抜けが生じることがある。この様子を第23図に示
す。ここで、同図(a)および(b)は第1座標系に与
えられる被補正絵柄および歪パターンを示し、同図
(c)および(d)は第2座標系に与えられる補正済絵
柄および基準パターンを示す。同図(a)に示す被補正
絵柄の写像が、同図(c)に示す補正済絵柄に相当する
が、同図(c)の白丸で示す部分に画素抜けが生じてい
ることがわかる。これは、同図(a)の画素1つ1つに
ついて、第2座標系に写像を求めたためである。
If the corrected picture data is given as raster data to the first coordinate system, the corrected picture obtained in the second coordinate system may have missing pixels. This is shown in FIG. Here, FIGS. 6A and 6B show a corrected pattern and a distortion pattern given to the first coordinate system, and FIGS. 6C and 6D show a corrected pattern and a corrected pattern given to the second coordinate system. 3 shows a reference pattern. The mapping of the pattern to be corrected shown in FIG. 7A corresponds to the corrected pattern shown in FIG. 7C, but it can be seen that pixel omission has occurred in a portion indicated by a white circle in FIG. This is because a mapping was obtained in the second coordinate system for each pixel in FIG.

このような画素抜けに対処する1つの方法は、周囲の
画素に基づいて補間を行う方法である。たとえば、図の
黒丸で示す画素を“1"、それ以外の画素を“0"と表し、
値“0"の画素のうち周囲8つの画素の値の合計が所定値
以上(たとえば5以上)である場合には、その画素を
“1"に修正するというような作業を行えば、第23図
(c)の白丸で示す画素はすべて黒丸に修正される。
One method for dealing with such pixel omission is a method of performing interpolation based on surrounding pixels. For example, a pixel indicated by a black circle in the figure is represented by “1”, and other pixels are represented by “0”.
If the sum of the values of the eight surrounding pixels among the pixels having the value “0” is equal to or more than a predetermined value (for example, 5 or more), the operation of correcting the pixel to “1” is performed. All pixels indicated by white circles in FIG. 9C are corrected to black circles.

画素抜けに対処する別な方法は、第1座標系への逆写
像を求め、逆写像の位置にある画素に基づいて補間を行
う方法である。たとえば、第23図(c)の白丸の画素に
ついて、第1座標系への逆写像を求めると、同図(a)
のいずれかの黒丸の画素の位置に写像が求まるはずであ
る。したがって、逆写像の位置に黒丸があれば、もとに
なった第2座標系上の画素も黒丸に修正するような補間
を行えばよい。
Another method for dealing with pixel omission is a method of obtaining an inverse mapping to the first coordinate system and performing interpolation based on a pixel at the position of the inverse mapping. For example, when the inverse mapping to the first coordinate system is obtained for the white circle pixel in FIG.
The mapping should be obtained at the position of any of the black circled pixels. Therefore, if there is a black dot at the position of the inverse mapping, interpolation may be performed so that the original pixel on the second coordinate system is also corrected to a black dot.

なお、このような逆写像を求めるという方法は、画素
抜けの補間に利用できるだけでなく、第2座標系上に補
正済絵柄のラスターデータそのものを求めるのに利用す
ることもできる。この場合は、第1座標系上の各画素に
ついて、第2座標系上に写像を求める作業は不要にな
る。たとえば、第23図(c)に示す例では、10×10の画
素を第2座標系上で定義する。各画素が“0"か“1"かは
まだ未定である。そして、すべての画素1つ1つについ
て、第1座標系上に逆写像を求め、この逆写像位置の画
素の値に基づいて、第2座標系上で定義した各画素の値
を“0"にするか“1"にするか決定するのである。
It should be noted that such a method of obtaining the inverse mapping can be used not only for interpolation of missing pixels, but also for obtaining the raster data itself of the corrected pattern on the second coordinate system. In this case, for each pixel on the first coordinate system, the operation of obtaining a mapping on the second coordinate system becomes unnecessary. For example, in the example shown in FIG. 23 (c), 10 × 10 pixels are defined on the second coordinate system. It is undecided whether each pixel is "0" or "1". Then, for each pixel, an inverse mapping is obtained on the first coordinate system, and the value of each pixel defined on the second coordinate system is set to “0” based on the value of the pixel at the inverse mapping position. Or "1".

§5 産業上への利用可能性 以上、本発明を射出同時絵付法に適用した例について
説明したが、本発明は転写フィルムやラミネート用フィ
ルムの歪補正一般に広く利用することができる。たとえ
ば、成形手段を用いる缶や、樹脂を用いた成形品(たと
えば、インモールド成形品やシュリンク・フィルム)を
製造する工程において、成形前に絵柄を印刷する際に、
素材の伸縮によって絵柄の歪みが生じるが、このような
場合にも、本発明によって得られた補正済絵柄を印刷し
ておけば成形後の歪みのない絵柄を得ることができる。
§5 Industrial applicability As described above, an example in which the present invention is applied to the simultaneous injection painting method has been described. However, the present invention can be widely used in general for distortion correction of a transfer film or a laminating film. For example, in the process of manufacturing a can using a molding means or a molded product using a resin (for example, an in-mold molded product or a shrink film), when printing a pattern before molding,
Although the distortion of the picture is caused by the expansion and contraction of the material, even in such a case, if the corrected picture obtained by the present invention is printed, a picture without distortion after molding can be obtained.

また本発明は、要するに規則性パターンの基準点を認
識する必要のある技術に広く利用することのできるもの
であり、絵柄フィルムの歪補正という分野だけでなく、
広く一般的な画像処理技術に応用可能なものである。
In addition, the present invention can be widely used in the technology that needs to recognize the reference point of the regular pattern in short, not only in the field of distortion correction of the picture film,
It can be applied to a wide range of general image processing techniques.

〔発明の効果〕〔The invention's effect〕

以上のとおり本発明によれば、規則性パターンの基準
点の認識をコンピュータによって自動的に行うことが可
能になるため、従来、手作業で行なっていた労力が著し
く軽減される。
As described above, according to the present invention, the reference point of the regular pattern can be automatically recognized by the computer, so that the labor conventionally conventionally performed manually is significantly reduced.

【図面の簡単な説明】[Brief description of the drawings]

第1図は射出同時絵付法を行う一般的な装置の基本構成
図、第2図は射出同時絵付法の説明図、第3図は射出同
時絵付法を行った結果歪んだ転写フィルムを示す図であ
る。第4図(a)は本発明に係る転写フィルム歪補正装
置の基本構成を示すブロック図、第4図(b)は同図
(a)に示す装置のうちの歪補正処理部の詳細説明図、
第5図は転写フィルムが成形によって変形することを示
す図、第6図は第4図に示す装置における画像処理部の
処理手順を示す流れ図である。第7図(a)〜(c)は
第6図の流れ図に沿った処理結果を示す図であり、同図
(a)は二値化処理後のパターン、同図(b)は細線化
処理後のパターン、同図(c)は交点追跡処理後のパタ
ーンをそれぞれ示す。第7図(d)は同図(a)の拡大
図、同図(e)は重心を交点に代用することができるこ
とを示す概念図である。第8図は第7図(b)に示す細
線化処理後のパターンの拡大図、第9図は第6図の中の
交点追跡処理の詳細な手順を示す流れ図、第10図は第9
図の中の交点検出処理の詳細な手順を示す流れ図であ
る。第11図は第9図に示す連結数計算の原理を示す図、
第12図は第9図に示す交点追跡処理の概念図、第13図は
第9図に示す交点追跡処理の説明図である。第14図は細
線化処理をせずに交点を求める方法の説明図である。第
15図は第4図に示す装置における歪補正処理部の処理手
順を示す流れ図、第16図は写像演算によって絵柄に生じ
る段差を説明する図、第17図および第18図はm:n分割法
の説明図、第19図は歪量空間法の説明図、第20図は等分
割法の説明図、第21図は三角形ベクトル比分割法の説明
図、第22図はベクトルデータで表される絵柄についてベ
クトルの細分化を行った後に写像を求める方法の説明
図、第23図はラスターデータで表される絵柄について、
写像の画素抜け補間を行う方法の説明図である。 1……供給ロール、2……転写フィルム、3……シリン
ダ、4……ヒータ、5……雄型、6……雌型、7……巻
取りロール、8……成形物、9……印刷成形品、11……
歪パターン画像読取装置、12……被補正絵柄入力装置、
13……演算処理装置、14……画像処理部、15……歪補正
処理部、16……記憶装置、17……補正済絵柄出力装置、
18……第1座標系、19……第2座標系、20……写像演算
装置。
FIG. 1 is a basic configuration diagram of a general apparatus for performing the simultaneous injection painting method, FIG. 2 is an explanatory diagram of the simultaneous injection painting method, and FIG. 3 is a view illustrating a transfer film distorted as a result of performing the simultaneous injection painting method. It is. FIG. 4 (a) is a block diagram showing a basic configuration of a transfer film distortion correcting apparatus according to the present invention, and FIG. 4 (b) is a detailed explanatory diagram of a distortion correction processing unit in the apparatus shown in FIG. 4 (a). ,
FIG. 5 is a diagram showing that the transfer film is deformed by molding, and FIG. 6 is a flowchart showing a processing procedure of the image processing unit in the apparatus shown in FIG. 7 (a) to 7 (c) are diagrams showing processing results along the flowchart of FIG. 6, wherein FIG. 7 (a) is a pattern after binarization processing and FIG. 7 (b) is a thinning processing FIG. 14C shows the pattern after the intersection tracking processing. FIG. 7D is an enlarged view of FIG. 7A, and FIG. 7E is a conceptual view showing that the center of gravity can be used as an intersection. 8 is an enlarged view of the pattern after the thinning processing shown in FIG. 7 (b), FIG. 9 is a flowchart showing the detailed procedure of the intersection tracking processing in FIG. 6, and FIG.
It is a flowchart which shows the detailed procedure of the intersection detection processing in a figure. FIG. 11 is a diagram showing the principle of calculation of the number of links shown in FIG. 9,
FIG. 12 is a conceptual diagram of the intersection tracking processing shown in FIG. 9, and FIG. 13 is an explanatory diagram of the intersection tracking processing shown in FIG. FIG. 14 is an explanatory diagram of a method of obtaining an intersection without performing a thinning process. No.
FIG. 15 is a flowchart showing a processing procedure of a distortion correction processing unit in the apparatus shown in FIG. 4, FIG. 16 is a view for explaining a step generated in a pattern by a mapping operation, and FIGS. 17 and 18 are m: n division methods. , FIG. 19 is an explanatory diagram of a distortion amount space method, FIG. 20 is an explanatory diagram of an equal division method, FIG. 21 is an explanatory diagram of a triangle vector ratio division method, and FIG. 22 is represented by vector data. Illustration of a method for obtaining a mapping after performing vector subdivision on a picture, FIG. 23 shows a picture represented by raster data,
FIG. 4 is an explanatory diagram of a method of performing pixel missing interpolation of a mapping. DESCRIPTION OF SYMBOLS 1 ... Supply roll, 2 ... Transfer film, 3 ... Cylinder, 4 ... Heater, 5 ... Male type, 6 ... Female type, 7 ... Winding roll, 8 ... Molded product, 9 ... Printed products, 11 ……
Distortion pattern image reading device, 12
13 arithmetic processing unit, 14 image processing unit, 15 distortion correction processing unit, 16 storage device, 17 corrected image output device,
18 ... first coordinate system, 19 ... second coordinate system, 20 ... mapping operation device.

Claims (10)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】複数の基準点をもった規則性パターンにつ
いて、コンピュータを用いて各基準点を自動認識する方
法であって、 前記規則性パターンの画像を画素の集合として取り込む
入力段階と、 前記入力段階で取り込んだ画像について、パターンの線
幅が1画素となるようにする細線化処理段階と、 前記細線化処理が行われたパターンについて、 (a) 細線化された2本の線が交差する交点を認識
し、この交点にある画素の位置を基準点位置として認識
するとともに、 (b) 細線化された1本の線が2本に分岐する分岐点
を認識し、更にこの分岐点の近傍にある別な分岐点を認
識し、両分岐点の中間にある点の位置を基準点位置とし
て認識する基準点認識段階と、 を有することを特徴とする規則性パターンの基準点認識
方法。
1. A method for automatically recognizing each reference point using a computer for a regular pattern having a plurality of reference points, comprising: an input step of taking an image of the regular pattern as a set of pixels; For the image captured in the input step, a thinning processing step is performed so that the line width of the pattern becomes one pixel. For the pattern subjected to the thinning processing, (a) two thinned lines intersect And the position of the pixel at this intersection is recognized as the reference point position. (B) The branch point where one thinned line branches into two is recognized, and A reference point recognizing step of recognizing another nearby branch point and recognizing a position of a point intermediate between the two branch points as a reference point position.
【請求項2】請求項1に記載の方法において、 細線化処理段階で縦横に配列された複数の画素の集合と
して規則性パターンを表現し、所定画素の周囲8方向に
他の画素が4つある場合には、その所定画素が交点位置
にあると認識し、所定画素の周囲8方向に他の画素が3
つある場合には、その所定画素が分岐点位置にあると認
識することを特徴とする規則性パターンの基準点認識方
法。
2. The method according to claim 1, wherein the regular pattern is expressed as a set of a plurality of pixels arranged in a row and a row in the thinning processing step, and four other pixels are arranged in eight directions around a predetermined pixel. In some cases, it is recognized that the predetermined pixel is located at the intersection point, and the other pixels are located in eight directions around the predetermined pixel.
A method for recognizing that a predetermined pixel is located at a branch point position when there is one.
【請求項3】請求項1に記載の方法において、 認識された基準点の座標値を記録するためのマトリック
スを用意し、このマトリックスによって複数の基準点の
位置情報とともに相互間の位相情報をも同時に記録する
ことを特徴とする規則性パターンの基準点認識方法。
3. The method according to claim 1, further comprising preparing a matrix for recording the coordinate values of the recognized reference points, and using the matrix to store not only the position information of the plurality of reference points but also the phase information between them. A method for recognizing a reference point of a regular pattern, which is recorded simultaneously.
【請求項4】請求項1に記載の方法において、 認識された基準点を所定の一方向に沿って順次追跡して
ゆき、追跡済の基準点の位置情報を追跡方向に基づいて
定まるその位相情報とともに記録することを特徴とする
規則性パターンの基準点認識方法。
4. The method according to claim 1, wherein the recognized reference points are sequentially tracked along a predetermined direction, and the position information of the tracked reference points is determined based on the tracking direction. A method for recognizing a reference point of a regular pattern, which is recorded together with information.
【請求項5】請求項4に記載の方法において、 追跡済の基準点に連結している複数の基準点のうち、位
相的に中央に位置する基準点に追跡を続けるようにする
ことを特徴とする規則性パターンの基準点認識方法。
5. The method according to claim 4, wherein the tracking is continued to a reference point located at the topologically center among a plurality of reference points connected to the tracked reference point. A reference point recognition method for a regular pattern.
【請求項6】請求項5に記載の方法において、 認識された基準点のうち追跡を行わない基準点について
は、未追跡基準点として追跡済基準点とは別個にその位
置情報および位相情報を記録することを特徴とする規則
性パターンの基準点認識方法。
6. The method according to claim 5, wherein, for the reference points which are not tracked among the recognized reference points, their position information and phase information are separately recorded as untracked reference points from the tracked reference points. A method for recognizing a reference point of a regular pattern, characterized by recording.
【請求項7】請求項6に記載の方法において、 所定の一方向に沿っての追跡が不可能になった場合に
は、逆方向に沿っての追跡を行い、この逆方向に沿って
の追跡も不可能になった場合には、未追跡基準点として
記録されている任意の点を始点として、所定の一方向に
沿っての追跡を続けることを特徴とする規則性パターン
の基準点認識方法。
7. A method according to claim 6, wherein when tracking along a predetermined direction becomes impossible, tracking along a reverse direction is performed, and tracking along the reverse direction is performed. When tracking becomes impossible, a reference point recognition of a regular pattern characterized by continuing tracking along a predetermined direction starting from an arbitrary point recorded as an untracked reference point. Method.
【請求項8】複数の基準点をもった規則性パターンにつ
いて、コンピュータを用いて各基準点を自動認識する方
法であって、 前記規則性パターンを画素の集合として取り込む入力段
階と、 前記画素の集合から線を構成するパターンを認識し、こ
の認識したパターンに沿って前記規則性パターンを追跡
する段階と、 前記追跡の過程で、線を構成する2つのパターンの交点
を基準点として認識する段階と、 認識した基準点の位置情報と、その基準点に到達するに
至った追跡過程に基づいて定まる該基準点の位相情報
と、を抽出して記録する段階と、 を備えることを特徴とする規則性パターンの基準点認識
方法。
8. A method for automatically recognizing each reference point using a computer for a regular pattern having a plurality of reference points, comprising: an inputting step of taking in the regular pattern as a set of pixels; Recognizing a pattern constituting a line from the set and tracking the regular pattern along the recognized pattern; and recognizing an intersection of two patterns constituting the line as a reference point in the tracking process. And extracting and recording the position information of the recognized reference point and the phase information of the reference point determined based on the tracking process that has reached the reference point. Reference point recognition method for regular patterns.
【請求項9】請求項8に記載の方法において、 線を構成するパターンの幅よりも大きな寸法をもったス
ポット閉領域を定義する段階と、 前記スポット閉領域を規則性パターンの一部分に重ね、
前記スポット閉領域の境界線上あるいはその近傍にある
画素を境界画素として抽出する段階と、 前記抽出した画素の前記スポット閉領域内における分布
状態に基づいて、交点の認識を行う段階と、 によって基準点の認識を行うことを特徴とする規則性パ
ターンの基準点認識方法。
9. The method of claim 8, wherein defining a spot closed area having a dimension larger than a width of a pattern constituting a line, overlapping the spot closed area on a part of a regular pattern,
Extracting a pixel on or near the boundary line of the spot closed area as a boundary pixel; and recognizing an intersection based on a distribution state of the extracted pixel in the spot closed area. A method for recognizing a reference point of a regular pattern, comprising:
【請求項10】請求項9に記載の方法において、 抽出した画素のスポット閉領域内における分布状態に基
づいて、規則性パターンの追跡方向の決定を行うことを
特徴とする規則性パターンの基準点認識方法。
10. The regular pattern reference point according to claim 9, wherein the tracking direction of the regular pattern is determined based on the distribution state of the extracted pixels in the spot closed area. Recognition method.
JP63243547A 1988-09-27 1988-09-27 Reference point recognition method for regular patterns Expired - Lifetime JP2850007B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63243547A JP2850007B2 (en) 1988-09-27 1988-09-27 Reference point recognition method for regular patterns

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63243547A JP2850007B2 (en) 1988-09-27 1988-09-27 Reference point recognition method for regular patterns

Publications (2)

Publication Number Publication Date
JPH0290281A JPH0290281A (en) 1990-03-29
JP2850007B2 true JP2850007B2 (en) 1999-01-27

Family

ID=17105497

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63243547A Expired - Lifetime JP2850007B2 (en) 1988-09-27 1988-09-27 Reference point recognition method for regular patterns

Country Status (1)

Country Link
JP (1) JP2850007B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4338933B2 (en) * 2002-03-11 2009-10-07 株式会社恭和 Method of creating a corrected block image for printing a three-dimensional object, creation program, and storage medium storing the creation program

Also Published As

Publication number Publication date
JPH0290281A (en) 1990-03-29

Similar Documents

Publication Publication Date Title
CN105118040B (en) File and picture distortion correction method based on structure laser rays
US20190378251A1 (en) Image processing method
US6535839B1 (en) Method for combining the computer models of two surfaces in 3-D space
JP2761900B2 (en) Picture film distortion correction method and apparatus
JP2747706B2 (en) Picture film distortion correction method
US5173946A (en) Corner-based image matching
Kneip et al. SDICP: Semi-Dense Tracking based on Iterative Closest Points.
JP2850007B2 (en) Reference point recognition method for regular patterns
JP2933630B2 (en) Evaluation method for distortion correction of picture film
JP2747705B2 (en) Picture film distortion correction method
JP2787453B2 (en) How to determine the pattern allocation area of the pattern film
JP2787454B2 (en) Distortion correction method for picture film with characters
JP2789338B2 (en) Picture film distortion correction device
JP2667430B2 (en) Image stitching device
CN108830781B (en) Wide baseline image straight line matching method under perspective transformation model
Yoda et al. Direction coding method and its application to scene analysis
JP2910344B2 (en) Image processing method
Gros et al. Automatic object modelization in computer vision
JPH04255080A (en) Image input device
JP2981383B2 (en) Position detection method
JPS62269282A (en) Picture contour extracting method
GB2328355A (en) Edge detection in image processing
JPH04141789A (en) Device and method for highly accurate vector approximation
JPH05290162A (en) Diagram branch point connecting method for image input device
JPH03230279A (en) Correcting method for vision sensor