JP2761900B2 - Picture film distortion correction method and apparatus - Google Patents
Picture film distortion correction method and apparatusInfo
- Publication number
- JP2761900B2 JP2761900B2 JP24354588A JP24354588A JP2761900B2 JP 2761900 B2 JP2761900 B2 JP 2761900B2 JP 24354588 A JP24354588 A JP 24354588A JP 24354588 A JP24354588 A JP 24354588A JP 2761900 B2 JP2761900 B2 JP 2761900B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- point
- coordinate system
- mapping
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 112
- 238000012937 correction Methods 0.000 title claims description 37
- 238000013507 mapping Methods 0.000 claims description 68
- 238000012545 processing Methods 0.000 claims description 63
- 239000013598 vector Substances 0.000 claims description 24
- PCTMTFRHKVHKIS-BMFZQQSSSA-N (1s,3r,4e,6e,8e,10e,12e,14e,16e,18s,19r,20r,21s,25r,27r,30r,31r,33s,35r,37s,38r)-3-[(2r,3s,4s,5s,6r)-4-amino-3,5-dihydroxy-6-methyloxan-2-yl]oxy-19,25,27,30,31,33,35,37-octahydroxy-18,20,21-trimethyl-23-oxo-22,39-dioxabicyclo[33.3.1]nonatriaconta-4,6,8,10 Chemical compound C1C=C2C[C@@H](OS(O)(=O)=O)CC[C@]2(C)[C@@H]2[C@@H]1[C@@H]1CC[C@H]([C@H](C)CCCC(C)C)[C@@]1(C)CC2.O[C@H]1[C@@H](N)[C@H](O)[C@@H](C)O[C@H]1O[C@H]1/C=C/C=C/C=C/C=C/C=C/C=C/C=C/[C@H](C)[C@@H](O)[C@@H](C)[C@H](C)OC(=O)C[C@H](O)C[C@H](O)CC[C@@H](O)[C@H](O)C[C@H](O)C[C@](O)(C[C@H](O)[C@H]2C(O)=O)O[C@H]2C1 PCTMTFRHKVHKIS-BMFZQQSSSA-N 0.000 claims description 18
- 238000012546 transfer Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 20
- 239000000047 product Substances 0.000 description 20
- 238000001514 detection method Methods 0.000 description 11
- 230000005484 gravity Effects 0.000 description 10
- 239000000203 mixture Substances 0.000 description 7
- 238000002347 injection Methods 0.000 description 6
- 239000007924 injection Substances 0.000 description 6
- 238000010422 painting Methods 0.000 description 6
- 238000003860 storage Methods 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000000465 moulding Methods 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 238000007796 conventional method Methods 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 238000001746 injection moulding Methods 0.000 description 2
- 238000010030 laminating Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000007639 printing Methods 0.000 description 2
- 239000011347 resin Substances 0.000 description 2
- 229920005989 resin Polymers 0.000 description 2
- 238000004804 winding Methods 0.000 description 2
- 241000239290 Araneae Species 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000007788 roughening Methods 0.000 description 1
- 229920006300 shrink film Polymers 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000033772 system development Effects 0.000 description 1
Landscapes
- Printing Methods (AREA)
- Preparing Plates And Mask In Photomechanical Process (AREA)
- Image Processing (AREA)
Description
【発明の詳細な説明】 〔産業上の利用分野〕 本発明は絵柄フィルム歪補正方法および装置、特に、
三次元曲面を有する成形物に絵柄、文字等を付与する場
合に用いる絵柄フィルムの絵柄フィルム歪補正方法およ
び装置に関する。DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a method and an apparatus for correcting a pattern film distortion, in particular,
The present invention relates to a method and an apparatus for correcting a picture film distortion of a picture film used when giving a picture, a character or the like to a molded article having a three-dimensional curved surface.
近年、射出成形と同時に印刷フィルムを型の中に入れ
てインクだけを成形物に転写させる射出同時絵付法が普
及している。2. Description of the Related Art In recent years, an injection simultaneous painting method in which a printing film is placed in a mold at the same time as injection molding and only ink is transferred to a molded product has become widespread.
第1図はこのような射出同時絵付法を行う装置の基本
的構成を示す図である。供給ロール1には転写フィルム
2が巻かれている。この転写フィルム2は、シリンダ3
に接続されたヒータ4を通り、雄型5と雌型6との間を
通って巻取りロール7で巻取られる。転写フィルム2に
は、成形品に転写すべき絵柄や文字等が予め印刷されて
いる。この絵柄や文字等を型に位置合わせし、雄型5を
雌型6に押付けるか、あるいは雌型6から吸引を行う
と、転写フィルム2はヒータ4によって加熱されて伸び
やすくなっているため、雌型6の型に沿って変形する。
こうして、雄型5から樹脂を注入すれば、射出成形時に
成形物に転写フィルムの絵柄、文字等が転写される。FIG. 1 is a diagram showing a basic configuration of an apparatus for performing such simultaneous injection painting method. A transfer film 2 is wound around the supply roll 1. The transfer film 2 includes a cylinder 3
Is passed through the heater 4 connected to the male die 5 and the female die 6 to be wound by the winding roll 7. On the transfer film 2, a pattern, a character, or the like to be transferred to a molded product is printed in advance. When the pattern, characters, and the like are aligned with the mold, and the male mold 5 is pressed against the female mold 6 or suction is performed from the female mold 6, the transfer film 2 is heated by the heater 4 and easily stretched. , And deforms along the shape of the female mold 6.
Thus, when the resin is injected from the male mold 5, the pattern, characters, and the like of the transfer film are transferred to the molded product during injection molding.
第2図は、上述の方法によって成形物8に転写フィル
ム2による転写を行った状態を示した図である。三次元
の成形物の上面に文字が転写された印刷成形品9ができ
るが、この印刷面は実際には第3図のように歪んだもの
となる。これは、転写フィルム2が伸びるためである。FIG. 2 is a view showing a state where the transfer by the transfer film 2 to the molded article 8 is performed by the above-described method. A printed molded product 9 in which characters are transferred to the upper surface of the three-dimensional molded product is produced, but the printed surface is actually distorted as shown in FIG. This is because the transfer film 2 extends.
このような歪みを補正するために、従来は、とりあえ
ず第3図に示すような歪んだ絵柄、文字等をもった印刷
成形品9を試作し、この試作品の印刷の歪量を手作業で
測定し、もともとの絵柄、文字等が描かれた版下を修正
するという作業を行っている。修正した版下に基づいて
更に試作品を作成し、歪量を測定して修正を行うという
作業を繰返して最終的に使用する版下を得ている。Conventionally, in order to correct such a distortion, a print molded article 9 having a distorted pattern, character, or the like as shown in FIG. 3 is produced as a trial, and the amount of print distortion of the prototype is manually determined. I am working on measuring and correcting the composition on which the original patterns, characters, etc. were drawn. A prototype is further created based on the corrected composition, and the work of measuring and correcting the amount of distortion is repeated to obtain a final composition to be used.
しかしながら、従来の手作業による歪補正では、手間
と時間がかかるためコストが高くなるとともに、良好な
版下の作成が非常に困難である。たとえば1mmの方眼パ
ターンを用いて300×300mmの大きさの成形品についての
歪み補正を手作業で行った場合、方眼の交点座標の数が
9万点にも及び、人手によってこれを入力することは非
常に困難である。方眼の眼を荒くして交点数を減らすこ
ともできるが、精度が低下するため、高品質な補正を行
うことができない。However, the conventional manual distortion correction requires time and effort, which increases the cost and makes it very difficult to create a good copy. For example, if distortion correction is performed manually on a molded product with a size of 300 x 300 mm using a grid pattern of 1 mm, the number of intersection points of the grid may reach 90,000 points, and this must be input manually. Is very difficult. Although the number of intersections can be reduced by roughening the grid, the accuracy is reduced, so that high-quality correction cannot be performed.
そこで本発明は、短時間に高品質な補正を行うことの
できる絵柄フィルム歪補正方法および装置を提供するこ
とを目的とする。Therefore, an object of the present invention is to provide a picture film distortion correction method and apparatus capable of performing high-quality correction in a short time.
本発明は、複数の基準点をもった基準パターンが形成
された二次元の絵柄フィルムを成形品に合わせて三次元
立体状に成形したときに、基準パターンが歪むことによ
り得られる歪パターンを、二次元の第1座標系に入力す
る段階と、 成形品に付与すべき絵柄を被補正絵柄として第1座標
系に入力し、同一座標系上で歪パターンに重ねる段階
と、 基準パターンを、第2座標系上で定義する段階と、 基準パターンにおける基準点と歪パターンにおける基
準点との対応関係に基づいて、第1座標系上の絵柄の写
像を第2座標系上に求める段階と、 第2座標系上に求まった写像を補正済絵柄として出力
する段階と、 により、絵柄フィルムの歪補正を行うようにしたもの
である。The present invention, when a two-dimensional pattern film formed with a reference pattern having a plurality of reference points is formed into a three-dimensional three-dimensional shape according to the molded product, a distortion pattern obtained by distorting the reference pattern, Inputting a pattern to be given to the molded article to the first coordinate system as a pattern to be corrected and superimposing the distortion pattern on the same coordinate system; Defining on a two coordinate system; obtaining a mapping of a picture on a first coordinate system on a second coordinate system based on a correspondence between a reference point on the reference pattern and a reference point on the distortion pattern; Outputting the mapping obtained on the two-coordinate system as a corrected picture, and correcting the distortion of the picture film.
本発明によれば、まず基準パターンの印刷された絵柄
フィルムが成形品に合わせて成形される。この結果、絵
柄フィルム上のパターンは歪むことになる。そこで第1
座標系上において、この歪んだパターンに歪みのない正
規の絵柄が重ね合わされる。一方、正規の基準パターン
が第2座標系上に作成される。そして両座標系に作成さ
れた両パターンのそれぞれ対応する基準点の位置関係に
基づいて、第1座標系上の絵柄の写像が第2座標系上に
求められる。こうして得られた写像が、絵柄フィルムに
印刷される。絵柄フィルム上の絵柄はそのままでは歪ん
でいるが、絵柄フィルムを成形品に合わせて成形すれ
ば、絵柄フィルムが歪むかわりに付与された絵柄は歪み
のない正規のものとなる。According to the present invention, first, a picture film on which a reference pattern is printed is formed according to a formed product. As a result, the pattern on the picture film is distorted. So the first
On the coordinate system, a normal pattern without distortion is superimposed on the distorted pattern. On the other hand, a regular reference pattern is created on the second coordinate system. Then, a mapping of a picture on the first coordinate system is obtained on the second coordinate system based on the positional relationship between the reference points corresponding to the two patterns created in both coordinate systems. The mapping thus obtained is printed on a picture film. The design on the design film is distorted as it is, but if the design film is formed according to the molded product, the design applied instead of the design film being distorted becomes a regular one without distortion.
以下、本発明を図示する実施例に基づいて説明する。 Hereinafter, the present invention will be described based on the illustrated embodiments.
§1 装置の基本構成 第4図(a)は本発明に係る転写フィルム歪補正装置
の構成を示すブロック図、同図(b)はそのうちの歪補
正処理部の詳細図である。歪パターン画像読取装置11
は、歪パターンを画像として入力するための装置であ
り、CCDカメラやITVなどで構成される。被補正絵柄入力
装置12は、成形品に転写すべき絵柄を入力する装置であ
り、フラットスキャナなどの装置を用いることができ
る。絵柄は版下または原版情報を用いて入力される。な
お、被補正絵柄入力装置12として、CADシステムを利用
することもできる。この場合、絵柄はCADシステムで作
成されたデジタルデータがそのまま入力される。演算処
理措置13は、これらの装置から入力したデータに基づい
て、絵柄の補正を行う装置であり、画像処理部14と歪補
正処理部15とを有する。画像処理部14は、歪パターン画
像読取装置11から入力したパターンに基づいて、各基準
点の位置座標を抽出する機能を有するがその動作につい
ては後に詳述する。歪補正処理部15は、画像処理部14か
ら与えられるデータに基づいて、被補正絵柄入力装置12
から入力した絵柄を補正する機能を有する。歪補正処理
部15には、外部に磁気ディスクや磁気テープなどの記憶
装置16が接続されており、一度入力したデータや演算し
たデータなどを蓄積することができる。記憶装置16は演
算処理装置13の内部に組み込んでもよい。歪補正処理部
15で補正された補正済絵柄は、補正済絵柄出力装置17に
よって出力される。この補正済絵柄出力装置17として
は、プロッタ、ドットインパクトプリンタ、インクジェ
ットプリンタ、熱転写プリンタ、フィルムレコーダなど
の装置を用いることができる。また、フロッピディスク
や磁気テープなどの記憶媒体にデータを一旦出力してお
き、これをオフラインで他の出力装置に伝送することも
できる。この場合、補正済絵柄出力装置17は、各記憶媒
体のドライブ装置となる。なお、歪補正処理部15は、第
4図(b)に示すように、第1座標系18と、第2座標系
19と、写像演算装置20と、を有するが、その動作につい
ては後で詳述する。§1 Basic Configuration of Apparatus FIG. 4A is a block diagram showing a configuration of a transfer film distortion correction apparatus according to the present invention, and FIG. 4B is a detailed view of a distortion correction processing unit. Distortion pattern image reader 11
Is a device for inputting a distortion pattern as an image, and includes a CCD camera, an ITV, and the like. The image-to-be-corrected input device 12 is a device for inputting a pattern to be transferred to a molded product, and may be a device such as a flat scanner. The pattern is input using the composition or original information. Note that a CAD system can also be used as the corrected image input device 12. In this case, the digital data created by the CAD system is directly input as the picture. The arithmetic processing unit 13 is a device that corrects a pattern based on data input from these devices, and has an image processing unit 14 and a distortion correction processing unit 15. The image processing unit 14 has a function of extracting the position coordinates of each reference point based on the pattern input from the distortion pattern image reading device 11, and the operation will be described later in detail. The distortion correction processing unit 15 is based on the data supplied from the image processing unit 14,
It has a function to correct the picture input from the user. A storage device 16 such as a magnetic disk or a magnetic tape is externally connected to the distortion correction processing unit 15, and can store data input once, calculated data, and the like. The storage device 16 may be incorporated in the arithmetic processing device 13. Distortion correction processing unit
The corrected picture corrected in 15 is output by the corrected picture output device 17. As the corrected picture output device 17, devices such as a plotter, a dot impact printer, an ink jet printer, a thermal transfer printer, and a film recorder can be used. In addition, data can be temporarily output to a storage medium such as a floppy disk or a magnetic tape, and the data can be transmitted to another output device offline. In this case, the corrected picture output device 17 is a drive device for each storage medium. The distortion correction processing unit 15 includes a first coordinate system 18 and a second coordinate system, as shown in FIG.
19 and a mapping operation device 20, the operation of which will be described later in detail.
§2 装置の基本動作 ここでは、まず第4図(a)に示す装置全体の動作を
説明する。第2図に示したように、転写フィルム2を成
形物8に合わせて成形すると、絵柄には第3図に示すよ
うな歪みが生じる。したがって、たとえば第5図(a)
に示すように、転写フィルム2に正方格子パターンを印
刷しておき、成形物8に合わせて実際に成形すると、転
写フィルム2が伸びるため、同図(b)に示すようにこ
のパターンは歪むことになる。実際に成形物を作成せず
に、雌型に吸引して転写フィルム2のみを成形しても同
様である。この転写フィルムの成形の様子は第5図
(c)および(d)の上面図により明瞭に示されてい
る。ここでは、正方格子パターンを用いた例を示すが、
このパターンは要するに複数の基準点をもった基準パタ
ーンであれば、どのようなものを用いてもかまわない。
一般には方眼柄、斜交座標の柄、極座標の柄などのパタ
ーンが好ましい。正方格子パターンの場合には、格子の
各交点、すなわち各正方形の四頂点が基準点となる。な
お、転写フィルムの一部に型との位置合わせ用マークを
つけておき、成形時にこの位置合わせ用マークを型に合
わせるようにすると、後の工程での位置合わせが容易に
なる。§2 Basic operation of the apparatus Here, first, the operation of the entire apparatus shown in FIG. 4 (a) will be described. As shown in FIG. 2, when the transfer film 2 is formed in conformity with the molded product 8, the pattern is distorted as shown in FIG. Therefore, for example, FIG.
As shown in (b), when a square lattice pattern is printed on the transfer film 2 and the transfer film 2 is actually formed in accordance with the molded product 8, the transfer film 2 is elongated, so that the pattern is distorted as shown in FIG. become. The same applies to the case where only the transfer film 2 is molded by sucking into a female mold without actually forming a molded product. The manner of forming the transfer film is clearly shown in the top views of FIGS. 5 (c) and 5 (d). Here, an example using a square lattice pattern is shown.
In short, any pattern can be used as long as it is a reference pattern having a plurality of reference points.
In general, patterns such as a grid pattern, a pattern of oblique coordinates, and a pattern of polar coordinates are preferable. In the case of a square lattice pattern, each intersection of the lattice, that is, the four vertices of each square, is the reference point. In addition, if a mark for positioning with the mold is provided on a part of the transfer film and the mark for positioning is matched with the mold at the time of molding, the positioning in a later step becomes easy.
オペレータは歪パターン画像読取装置11によって、第
5図(d)に示すような歪パターンを入力する。後述す
るように、この歪パターン画像読取装置11は、具体的に
はビデオカメラなどの装置であり、読取られた画像デー
タは、画像処理部14において、二値化処理、細線化処理
などの画像処理が施されて、各交点(格子点)の位置が
検出される。一方、オペレータは被補正絵柄入力装置12
によって、印刷すべき絵柄の版下または原版から、その
絵柄を画像データとして入力する。The operator uses the distortion pattern image reading device 11 to input a distortion pattern as shown in FIG. As will be described later, this distortion pattern image reading device 11 is specifically a device such as a video camera, and the read image data is processed by an image processing unit 14 into an image such as a binarization process and a thinning process. The processing is performed, and the position of each intersection (grid point) is detected. On the other hand, the operator operates the image input device 12 to be corrected.
, The picture is input as image data from the composition or original of the picture to be printed.
歪補正処理部15は、画像処理部14で処理されたデー
タ、被補正絵柄入力装置12で入力されたデータ、および
予め記憶していた歪みのない正方格子パターンに基づい
て、補正済絵柄を生成する。この補正済絵柄は補正済絵
柄出力装置によって外部に出力される。The distortion correction processing unit 15 generates a corrected image based on the data processed by the image processing unit 14, the data input by the image input device 12 to be corrected, and a previously stored square lattice pattern without distortion. I do. The corrected picture is output to the outside by the corrected picture output device.
続いて、画像処理部14および歪補正処理部15の動作に
ついて章を改めて詳述する。Subsequently, the operation of the image processing unit 14 and the distortion correction processing unit 15 will be described in detail in another chapter.
§3 画像処理部の動作 3.1 全体の手順 画像処理部14の動作を第6図の流れ図に示す。まず、
ステップS1において二値化処理が行われる。歪パターン
画像読取装置11から与えられる画像は階調をもった画像
である。たとえば、1つの画素は0〜255の間のいずれ
かの濃度値をもったものである。これを二値化すると、
すべての画素は“0"または“1"のいずれかの値をとるこ
とになる。二値化の方法としては、一般に固定しきい値
による二値化と、浮動しきい値による二値化が知られて
いる。前者は各画素を、固定濃度値(たとえば全画素の
濃度値の平均値)を境に“1"か“0"かに分ける方法であ
る。後者は境となる濃度値を画像内の各部で変化させる
方法であり、画像読取時に照明による明度分布が生じて
いるような場合に有効である。正方格子の歪パターンを
二値化した例を第7図(a)に示す。§3 Operation of image processing unit 3.1 Overall procedure The operation of the image processing unit 14 is shown in the flowchart of FIG. First,
In step S1, a binarization process is performed. The image provided from the distortion pattern image reading device 11 is an image having a gradation. For example, one pixel has any density value between 0 and 255. When this is binarized,
All pixels take either "0" or "1". As the binarization method, generally, a binarization using a fixed threshold and a binarization using a floating threshold are known. The former is a method of dividing each pixel into “1” or “0” at a fixed density value (for example, an average value of density values of all pixels). The latter is a method in which the density value serving as a boundary is changed in each part in the image, and is effective when a brightness distribution due to illumination occurs at the time of image reading. FIG. 7A shows an example in which the distortion pattern of the square lattice is binarized.
続いてステップS2において、細線化処理が行われる。
これは、二値化したパターンを線幅が1画素になるよう
に細線化する処理である。このような細線化処理は、た
とえば「画像処理サブルーチン・パッケージ SPIDER U
SER′S MANUAL」昭和57年、協同システム開発株式会社
刊)の491頁からに詳述されている公知の方法なので、
ここでは説明を省略する。第7図(a)のパターンを細
線化した例を同図(b)に示す。Subsequently, in step S2, a thinning process is performed.
This is a process of thinning the binarized pattern so that the line width becomes one pixel. Such thinning processing is performed, for example, by referring to “Image Processing Subroutine Package SPIDER U
SER'S MANUAL ", published in 1982, Kyodo System Development Co., Ltd.)
Here, the description is omitted. FIG. 7B shows an example in which the pattern of FIG. 7A is thinned.
最後にステップS3において、交点追跡処理が行われ
る。これは、第7図(b)のように細線化処理されたパ
ターンから、同図(c)のように交点Vを決定する処理
である。第7図(b)に示す細線化処理されたパターン
の拡大図を第8図に示す。ここで円で示されているのが
1つの画素である。このように互いに連結した多数の画
素の中で、どの画素が交点(すなわち格子パターンの格
子点)であるかを決定するのが交点追跡処理である。次
に、この交点追跡処理の詳細を第9図および第10図の流
れ図を参照して説明する。Finally, in step S3, an intersection tracking process is performed. This is a process for determining an intersection V as shown in FIG. 7C from the pattern subjected to the thinning process as shown in FIG. 7B. FIG. 8 is an enlarged view of the thinned pattern shown in FIG. 7B. Here, one pixel is indicated by a circle. The intersection tracking processing determines which pixel is the intersection (that is, the lattice point of the lattice pattern) among the many pixels connected to each other in this manner. Next, details of the intersection tracking processing will be described with reference to the flowcharts of FIGS. 9 and 10.
3.2 交点追跡処理 まず、ステップS4において、各画素について連結数の
計算を行う。ここで、ある画素についての連結数とは、
その周囲に別な画素がいくつ存在するかを示す数であ
る。第11図に示すように、ハッチングを施して示す着目
する画素についての連結数Cは、同図(a)〜(e)の
場合、それぞれ0〜4である。なお、細線化処理が施さ
れているため、周囲の画素は必ず互いに孤立しており、
連結数C=4が最大値となる。この連結数によって、着
目すべき点の属性を次のとおり決定することができる。3.2 Intersection Tracking Processing First, in step S4, the number of connections is calculated for each pixel. Here, the connection number for a certain pixel is
This is a number indicating how many different pixels exist around it. As shown in FIG. 11, the connection number C of the pixel of interest indicated by hatching is 0 to 4 in each of FIGS. Since the thinning processing has been performed, the surrounding pixels are always isolated from each other,
The number of connections C = 4 is the maximum value. The attribute of the point of interest can be determined as follows from the number of links.
C=0 孤立点(例:第8図のa点) C=1 端点 (例:第8図のb点) C=2 連続点(例:第8図のc点) C=3 分岐点(例:第8図のd1〜d4点) C=4 交点 (例:第8図のe点) 次に、ステップS5において、初期追跡開始点の指定を
行う。これは、オペレータが第8図のような表示を見
て、明らかに交点と認識できる点(たとえば点e)を初
期追跡開始点として指定すればよい。オペレータが最初
にこの点を指定すれば、ステップS6移行の手順により他
の交点は自動的に決定される。ステップS6では、追跡開
始点および追跡方向が決定される。追跡開始点はいまの
場合、ステップS5で指定した初期追跡開始点となる。ま
た、追跡方向は、たとえば右方向へと予め定めておけば
よい。以下の手順では、追跡開始点から右方向へ順次交
点が追跡されてゆくことになる。このような交点追跡の
概念図を第12図に示す。たとえば、追跡開始点が点S1で
あったとすると、図の実線矢印の方向に追跡が行われ、
交点S2,S3,S4が決定されてゆく。右方向への追跡が不可
能になったら、今度は点S1から図の破線矢印で示す逆方
向への追跡を行うことになる。このように横方向へ追跡
を行う場合には、右または左方向にのみ追跡が行われ、
上下の縦方向への追跡は行われない。したがって、たと
えば点S5が交点であることが認識されても、現時点では
交点S5への追跡は行われない。実際には次のような手順
で交点追跡が行われる。C = 0 Isolated point (example: point a in FIG. 8) C = 1 End point (example: point b in FIG. 8) C = 2 Continuous point (example: point c in FIG. 8) C = 3 bifurcation point ( Example: d1 to d4 in FIG. 8) C = 4 intersection (example: point e in FIG. 8) Next, in step S5, an initial tracking start point is designated. The operator can specify a point that can be clearly recognized as an intersection (for example, point e) as the initial tracking start point by viewing the display as shown in FIG. If the operator first designates this point, another intersection is automatically determined by the procedure of step S6. In step S6, a tracking start point and a tracking direction are determined. In this case, the tracking start point is the initial tracking start point specified in step S5. Further, the tracking direction may be set in advance, for example, to the right. In the following procedure, the intersection is sequentially tracked rightward from the tracking start point. FIG. 12 shows a conceptual diagram of such intersection tracking. For example, if the tracking start point is point S1, tracking is performed in the direction of the solid arrow in the figure,
Intersections S2, S3, S4 are determined. When tracking in the right direction becomes impossible, tracking in the reverse direction indicated by the broken arrow in the figure is performed from point S1. When tracking in the horizontal direction like this, tracking is performed only in the right or left direction,
No vertical tracking is performed. Therefore, for example, even if it is recognized that the point S5 is an intersection, tracking to the intersection S5 is not performed at present. Actually, the intersection tracking is performed in the following procedure.
まず、ステップS7で交点検出処理が行われる。いま、
第13図(a)において、図の矢印方向に追跡が行われて
おり、交点aに至るまでの各交点が追跡済であるものと
する。ここで、「ある交点が追跡済」ということは、あ
る画素が格子パターンの格子点であることが確認され、
その座標値も確認されており、かつ、格子内での移送的
位置も確認された状態をいう。移送的位置の確認は、た
とえば第13図(b)において、実線で示すような交点の
連結状態が正しく、破線で示すような連結状態は誤りで
あるというような確認である。ステップS7の交点検出処
理は、交点aに連結した3つの交点b,c,dを検出する処
理である。矢印後方の交点は既に追跡済であるため、交
点aに隣接する未追跡交点としては3つの交点b,c,dが
残っており、この3つの交点がステップS7で求められる
のである。First, an intersection detection process is performed in step S7. Now
In FIG. 13 (a), it is assumed that tracking is performed in the direction of the arrow in the figure, and that each intersection up to intersection a has been tracked. Here, "a certain intersection has been tracked" means that a certain pixel is a lattice point of a lattice pattern,
The coordinate value is also confirmed, and the transfer position in the grid is also confirmed. Confirmation of the transfer position is such that, for example, in FIG. 13 (b), the connection state at the intersection as shown by the solid line is correct, and the connection state as shown by the broken line is incorrect. The intersection detection process of step S7 is a process of detecting three intersections b, c, and d connected to the intersection a. Since the intersection behind the arrow has already been tracked, three intersections b, c, and d remain as untracked intersections adjacent to the intersection a, and these three intersections are obtained in step S7.
次に、ステップS8で追跡成功か否かを判断する。3つ
の交点のうち、位相幾何学的に中央に位置する交点(こ
の場合、交点c)が次に追跡すべき交点となるが、これ
が追跡交点として適当であるか否かが判断されるのであ
る。すなわち、交点aの次に交点cを追跡することが適
当かが判断される。これはたとえば、点ac間の距離が所
定の範囲内にあるか否かを判断すればよい。Next, in step S8, it is determined whether tracking is successful. Among the three intersections, the intersection (the intersection c in this case) located at the topological center is the intersection to be tracked next, and it is determined whether or not this is appropriate as the tracking intersection. . That is, it is determined whether it is appropriate to trace the intersection c after the intersection a. This may be determined, for example, by determining whether the distance between the points ac is within a predetermined range.
交点cが適当なものであれば、追跡成功としてステッ
プS9において、この交点cを追跡済の交点として記録す
る。具体的には、追跡済の交点座標を記録するマトリッ
クスを用意し、交点aの座標値の右隣に交点cの座標値
を記録することになる。このようにマトリックスを用い
れば、交点の位置と位相関係が同時に記録できる。続い
て、ステップS10で未追跡交点の記録を行う。ここで、
未追跡交点とは、第13図(a)の交点b,dである。交点
追跡は右方向に行われているため、現段階では交点b,d
は追跡されないが、せっかく交点として認識されたので
あるから、これらの点は交点であるが、まだ追跡はして
いないという事実を記録しておくのである。If the intersection c is appropriate, the tracking c is recorded as a tracked intersection in step S9 as tracking success. Specifically, a matrix for recording the tracked intersection coordinates is prepared, and the coordinate value of the intersection c is recorded to the right of the coordinate value of the intersection a. By using a matrix in this way, the position of the intersection and the phase relationship can be recorded simultaneously. Subsequently, an untracked intersection is recorded in step S10. here,
The untracked intersections are the intersections b and d in FIG. 13 (a). Since the intersection tracking is performed in the right direction, at this stage the intersections b and d
Are not tracked, but since they were recognized as intersections, we record the fact that these points are intersections but have not been tracked yet.
こうして、再びステップS7へ戻り、次の3交点e,f,g
が検出される。以下、この手順を繰り返し、右方へ右方
へと交点追跡がなされる。こうして、第13図(c)に示
すように、ハッチングを施した交点が追跡交点として記
録され、二重丸で示した交点が未追跡交点として記録さ
れる。×印で示した交点はまだ検出されていない。Thus, the process returns to step S7 again, and the next three intersections e, f, and g
Is detected. Hereinafter, this procedure is repeated, and intersection tracking is performed rightward and rightward. Thus, as shown in FIG. 13 (c), the hatched intersection is recorded as a tracking intersection, and the intersection indicated by a double circle is recorded as an untracked intersection. The intersections indicated by the crosses have not been detected yet.
なお、ステップS8で追跡が成功しなかった場合はステ
ップS11において、いままでに追跡方向の逆転が行われ
たか判断され、逆転がまだであればステップS12におい
て、追跡方向を逆転しステップS7からの追跡が続行され
る。すなわち、第12図の破線矢印に示す方向へ追跡が行
われるのである。追跡が成功せず、かつ、追跡方向も逆
転済である場合には、ステップS13において、未追跡交
点が残っているか否かが判断される。残っていれば、ス
テップS6へ戻り、未追跡交点のうちのいずれか1点を新
たな追跡開始点として、追跡が続行される。すなわち、
第13図(c)において、二重丸で示した交点のいずれか
1点が追跡開始点とされ、まず右方向への追跡が行われ
る。この追跡によって、今まで未追跡交点(二重丸)で
あった交点が、追跡済交点(ハッチング)へと変わって
ゆくことになり、同時に今まで検出されていなかった交
点(×印)が検出され新たな未追跡交点として記録され
る。結局、以後の処理において、交点は未検出交点
(×)から未追跡交点(二重丸)を経て、最終的に追跡
済交点(ハッチング)へと順次変わってゆくことにな
る。こうして、未追跡交点がなくなれば、すべての交点
が追跡済となり、第7図(c)に示すような交点Vの位
置座標が求まる。If the tracking is not successful in step S8, it is determined in step S11 whether the reversal of the tracking direction has been performed so far.If the reversal has not yet been performed, the tracking direction is reversed in step S12, and Tracking continues. That is, tracking is performed in the direction indicated by the dashed arrow in FIG. If the tracking has not been successful and the tracking direction has been reversed, it is determined in step S13 whether or not an untracked intersection remains. If it remains, the process returns to step S6, and tracking is continued with any one of the untracked intersections as a new tracking start point. That is,
In FIG. 13 (c), any one of the intersections indicated by double circles is set as a tracking start point, and first, tracking is performed in the right direction. By this tracking, the intersection that was an untracked intersection (double circle) until now changes to a tracked intersection (hatched), and at the same time an intersection (x mark) that was not detected until now is detected And recorded as a new untracked intersection. Eventually, in the subsequent processing, the intersection sequentially changes from an undetected intersection (x) to an untracked intersection (double circle) and finally to a tracked intersection (hatched). When there are no untracked intersections in this way, all the intersections have been tracked, and the position coordinates of the intersection V as shown in FIG. 7 (c) are obtained.
3.3 交点検出処理 次に、第9図ステップS7の交点検出処理の詳細を第10
図の流れ図を参照して説明する。前述のように、この処
理は第13図(a)の交点aから、交点b,c,dを検出する
処理である。まず、ステップS14において、検出方向を
決定する。第13図(a)の例において、交点bを検出す
るのであれば、上方向が検出方向となる。そしてステッ
プS15においてその検出方向に1画素分画素を追跡す
る。すなわち、画素gが着目される。そして、着目した
画素の属性が、分岐点(ステップS16)か、交点か(ス
テップS17)、端点か(ステップS18)、あるいは連続点
か(ステップS19)、を判断する。(画素を順次追跡し
ているため、孤立点であることはない)この属性の判断
は、前述したように、ステップS4で求めた各画素の連結
数を参照して行うことができる。追跡した画素が連続点
である限り、ステップS15へ戻って1画素分の追跡を続
けてゆく。第13図(a)の例では、交点aから点b(こ
の時点では点bが交点であることは認識されていない)
に向かって上方へ1画素ずつ追跡が行われることにな
る。そして、 (1)属性が「交点」である画素が見付かったら(ステ
ップS17)、ステップS21で交点検出と判断する。この場
合は、その画素の座標位置がそのまま交点の座標位置と
なる。たとえば、第8図のe点は属性が「交点」であ
り、この座標位置がそのまま交点の座標位置となる。3.3 Intersection Detection Processing Next, the details of the intersection detection processing in step S7 in FIG.
This will be described with reference to the flowchart in the figure. As described above, this processing is processing for detecting intersections b, c, and d from the intersection a in FIG. 13 (a). First, in step S14, the detection direction is determined. In the example of FIG. 13 (a), if the intersection b is detected, the upward direction is the detection direction. Then, in step S15, one pixel is tracked in the detection direction. That is, attention is paid to the pixel g. Then, it is determined whether the attribute of the focused pixel is a branch point (step S16), an intersection point (step S17), an end point (step S18), or a continuous point (step S19). (Because the pixels are sequentially tracked, they are not isolated points.) This attribute can be determined by referring to the number of connected pixels obtained in step S4 as described above. As long as the tracked pixels are continuous points, the process returns to step S15 to continue tracking one pixel. In the example of FIG. 13 (a), the intersection point a to the point b (at this point, it is not recognized that the point b is the intersection point).
The tracking is performed upward one pixel at a time. (1) If a pixel having the attribute "intersection" is found (step S17), it is determined in step S21 that an intersection has been detected. In this case, the coordinate position of the pixel becomes the coordinate position of the intersection as it is. For example, the attribute of point e in FIG. 8 is “intersection point”, and this coordinate position is the coordinate position of the intersection point as it is.
(2)属性が「分岐点」である画素が見付かったら(ス
テップS16)、ステップS20において、対となる分岐点を
捜し、両者の平均座標を交点の座標位置とする。たとえ
ば第8図のd1点が属性「分岐点」の「点」として見付か
ったら、これと対となる分岐点d2を捜すことになる。こ
れは、たとえば分岐点d1から所定半径以内に存在する別
な分岐点としてd2を捜せばよい。このような一対の分岐
点は元来1つの交点であったと考えられるので、線分d1
d2の中点(両分岐点の平均座標)をもって交点の座標位
置とするのである。分岐点の対d3,d4についても同様で
ある。(2) If a pixel having the attribute “branch point” is found (step S16), a pair of branch points is searched for in step S20, and the average coordinates of the two are set as the coordinate position of the intersection. For example, if the point d1 in FIG. 8 is found as a "point" of the attribute "branch point", a branch point d2 corresponding to this point is searched for. For this, for example, d2 may be searched as another branch point existing within a predetermined radius from the branch point d1. It is considered that such a pair of branch points was originally one intersection, so the line segment d1
The middle point of d2 (the average coordinates of both branch points) is used as the coordinate position of the intersection. The same applies to the branch point pairs d3 and d4.
(3)属性が「端点」である画素が見付かったら(ステ
ップS18)、ステップS22において、「交点検出できず」
の判断をする。(3) If a pixel having the attribute "end point" is found (step S18), in step S22, "intersection cannot be detected"
Make a judgment.
このようにして、隣接する交点の検出が行われる。前
述のように、交点追跡を行う場合、1つの交点について
隣接する3つの交点の検出が行われる。そこで、ステッ
プS23で全検出方向について終了するまで、ステップS14
からの手順が繰り返され、3つの交点検出がなされる。
なお、このような交点検出は、あくまでも交点が検出さ
れていない場合に必要な処理であって、隣接する交点が
追跡済交点あるいは未追跡交点として既に検出されてい
る場合には不要な処理である。In this manner, the detection of the adjacent intersection is performed. As described above, when performing intersection tracking, three adjacent intersections are detected for one intersection. Therefore, until step S23 is completed for all detection directions, step S14
Are repeated, and three intersections are detected.
Note that such intersection detection is processing that is necessary only when no intersection is detected, and is unnecessary processing when an adjacent intersection is already detected as a tracked intersection or an untracked intersection. .
3.4 交点を求める別な手法I さて、上述したように、第7図(a)に示すような二
値化された歪みパターンの画像を同図(b)のように細
線化し、さらに交点追跡によって同図(c)のように交
点位置が決定されることになるが、この交点位置を求め
るより簡便な別な手法をここで述べておく。この手法で
は、細線化や交点追跡といった手順が全く必要ない。第
7図(a)に示す二値化画像から直接交点位置(正確に
は、交点位置そのものではなく、交点に準ずる点の位置
である)を求めることができるのである。3.4 Another Method I for Obtaining Intersection As described above, the image of the binarized distortion pattern as shown in FIG. 7A is thinned as shown in FIG. The position of the intersection is to be determined as shown in FIG. 3 (c). Another simpler method for obtaining the position of the intersection will be described here. This method does not require any procedures such as thinning and intersection tracking. From the binarized image shown in FIG. 7 (a), the intersection position (to be exact, not the intersection position itself but the position of a point corresponding to the intersection) can be obtained.
第7図(a)に示すように、二値化された歪パターン
の画像は、白または黒の画素の集合となっている。上述
した細線化処理は黒い部分の幅を1画素分になるまで狭
める処理であり、交点追跡処理は更に交点となる黒い画
素の位置を決定する処理であるといえる。いずれも、黒
い画素に着目した処理といえる。ここで説明する別な手
法は、逆に白い画素に着目した処理である。第7図
(a)に示すパターンの拡大図を同図(d)に示す。こ
こで、白い部分は多数の白い画素で構成され、黒い部分
は多数の黒い画素で構成されている。いま、それぞれ独
立した白い部分ごとにその幾何的な重心Wを求めると、
第7図(d)に示すように、各白い部分の中央部に重心
Wが求まる。この重心Wの位置座標は、単純な算術演算
で求めることができる。この手法の特徴は、この重心W
を交点Vの代わりに用いようという発想にある。第7図
(d)に示されているように、交点Vが格子配列をとる
のと同様に、重心Wも格子配列をとることになる。交点
からなる格子と重心からなる格子との関係を第7図
(e)に示す。この図の実線で示すような交点からなる
格子があったとすると、重心からなる格子は図の破線で
示すような格子となる。それぞれの格子点の位置はずれ
ているが、いずれも格子としてはほぼ同じ位相情報をも
つ。したがって、もとの格子に歪みがあれば、その格子
の重心を連結して作った格子も同じ歪みをもつのであ
る。結局、第7図(d)における交点Vを求める代わり
に、重心Wを求め、これを交点として取り扱っても支障
は生じない。この手法は、演算が単純なだけでなく、画
像読取時に混入するノイズの影響を受けにくいというメ
リットがある。As shown in FIG. 7A, the image of the binarized distortion pattern is a set of white or black pixels. The thinning process described above is a process of narrowing the width of a black portion to one pixel, and the intersection tracking process is a process of further determining the position of a black pixel that is an intersection. In any case, it can be said that the processing focuses on the black pixel. Another method described here is a process that focuses on white pixels. An enlarged view of the pattern shown in FIG. 7A is shown in FIG. Here, the white portion is composed of many white pixels, and the black portion is composed of many black pixels. Now, when the geometric center of gravity W is obtained for each independent white portion,
As shown in FIG. 7 (d), the center of gravity W is determined at the center of each white portion. The position coordinates of the center of gravity W can be obtained by a simple arithmetic operation. The feature of this method is that the center of gravity W
Is used instead of the intersection V. As shown in FIG. 7 (d), the center of gravity W also has a lattice arrangement, just like the intersection V has a lattice arrangement. FIG. 7 (e) shows the relationship between the grid consisting of the intersections and the grid consisting of the center of gravity. Assuming that there is a grid consisting of intersections as shown by the solid lines in this figure, the grid consisting of the centers of gravity is a grid shown by the broken lines in the figure. Although the positions of the respective lattice points are shifted, all have substantially the same phase information as the lattice. Therefore, if the original lattice has a distortion, the lattice formed by connecting the centers of gravity of the lattice has the same distortion. After all, instead of finding the intersection V in FIG. 7 (d), finding the center of gravity W and treating this as the intersection does not cause any trouble. This method has the merit that not only the operation is simple, but also that it is less susceptible to noise mixed in during image reading.
3.5 交点を求める別な方法II 上述の方法はいずれも細線化処理を行なった後に交点
を求める方法であるが、ここでは細線化処理をせずに交
点を求めるための方法を説明する。第14図(a)は、入
力したパターンを細線化する前の段階のパターンの一部
を示す。すなわち、第7図(a)に示すパターンの部分
拡大図に相当する。ここで白丸で表わすのは、各画素で
ある。人間はこのパターンを幅Wの水平方向の線の一部
であると認識することができるが、コンピュータにこれ
を認識させるためには、所定のアルゴリズムによる解析
を行わねばならない。3.5 Another Method of Obtaining Intersection II All of the above methods are methods of obtaining an intersection after performing thinning processing. Here, a method for obtaining an intersection without performing thinning processing will be described. FIG. 14A shows a part of the pattern before the input pattern is thinned. That is, it corresponds to a partially enlarged view of the pattern shown in FIG. Here, each pixel is represented by a white circle. Although a human can recognize this pattern as a part of a horizontal line having a width W, analysis by a predetermined algorithm must be performed in order for the computer to recognize the pattern.
そこでまず、直径Rの円を定義する。ここで、R>W
となるように設定する。この円で囲まれた領域をスポッ
ト閉領域と呼ぶことにする。このスポット閉領域を、第
14図(a)に示すようにパターンの一部に重ね、スポッ
ト閉領域の境界線上あるいはその近傍にある画素を境界
画素として抽出するのである。第14図(b)は、同図
(a)の拡大図である。ここでハッチングで示された画
素が抽出された境界画素である。この例の場合、境界画
素は、G1とG2との2つのグループに分かれた分布となっ
ている。このように環境画素の分布が2つのグループに
分かれた場合には、現在のスポット閉領域は、パターン
の連続点上にあると判断するのである。すなわち、前述
の実施例における第11図(c)と等価である。結局、こ
の方法の要点は、境界画素の分布におけるグループの数
を前述の実施例の連結数Cと等価に扱えばよいのであ
る。第14図(b)の場合、グループ数は2であるから、
連結数C=2の場合と等価に扱えばよい。Therefore, first, a circle having a diameter R is defined. Where R> W
Set so that The area surrounded by the circle is called a spot closed area. This spot closed area is
As shown in FIG. 14 (a), the pixel is superimposed on a part of the pattern, and a pixel on or near the boundary of the spot closed area is extracted as a boundary pixel. FIG. 14 (b) is an enlarged view of FIG. 14 (a). Here, the pixels indicated by hatching are the extracted boundary pixels. In this example, the boundary pixels have a distribution divided into two groups, G1 and G2. When the distribution of the environmental pixels is divided into two groups in this way, it is determined that the current spot closed area is on a continuous point of the pattern. That is, it is equivalent to FIG. 11 (c) in the above embodiment. After all, the point of this method is that the number of groups in the distribution of boundary pixels should be treated equivalently to the connection number C in the above-described embodiment. In the case of FIG. 14 (b), since the number of groups is 2,
What is necessary is just to treat it as equivalent to the case where the number of connections C = 2.
第14図(c)のスポット閉領域SP3について同様の判
断を行うと、境界画素は1つのグループだけであるの
で、連結C=1の場合と等価になり、第11図(b)に相
当する扱いをすればよい。すなわち、端点と判断され
る。When a similar determination is made for the spot closed area SP3 in FIG. 14 (c), since the boundary pixel is only one group, it becomes equivalent to the case where the connection C = 1, and corresponds to FIG. 11 (b). You have to treat it. That is, it is determined to be an end point.
第14図(d)のスポット閉領域について同様の判断を
行うと、境界画素は4つのグループG1,G2,G3,G4に分か
れるので、連結数C=4の場合と等価になり、第11図
(e)に相当する扱いをすればよい。すなわち、交点と
判断される。When the same determination is made for the spot closed area in FIG. 14 (d), the boundary pixels are divided into four groups G1, G2, G3, G4, which is equivalent to the case where the number of connections C = 4. A treatment corresponding to (e) may be performed. That is, the intersection is determined.
第14図(e)のスポット閉領域について同様の判断を
行うと、境界画素は3つのグループG1,G2,G3に分かれる
ので、連結数C=3の場合と等価になり、第11図(d)
に相当する扱いをすればよい。すなわち、分岐点と判断
される。When the same judgment is made for the spot closed area in FIG. 14 (e), the boundary pixels are divided into three groups G1, G2, G3, which is equivalent to the case where the number of connections C = 3, and FIG. )
What should be done is equivalent to. That is, it is determined to be a branch point.
以上のようにして、細線化処理を行わずに交点の認識
が可能になる。なお交点の位置は、第14図(d)におい
て、グループG1の画素の重心位置とグループG2の画素の
重心位置とを結ぶ直線と、グループG3の画素の重心位置
とグループG4の画素の重心位置とを結ぶ直線との交点PX
を求め、これを交点座標とすればよい。As described above, the intersection can be recognized without performing the thinning processing. In FIG. 14 (d), the position of the intersection is a straight line connecting the barycentric position of the group G1 pixel and the barycentric position of the group G2 pixel, the barycentric position of the group G3 pixel and the barycentric position of the group G4 pixel. Intersection PX with a straight line connecting
May be obtained, and these may be used as intersection coordinates.
また、交点から次の交点までの追跡は、第14図(c)
に示すように、1つのスポット領域SP1についての判断
が終了したら、スポット閉領域をSP2にまで移動させて
同様の判断処理を繰り返すようにすればよい。スポット
閉領域の移動方向は、第14図(b)に示すように、グル
ープG1の画素の重心位置g1とグループG2の画素の重心位
置g2とを結ぶ直線lの方向になるようにする。移動ピッ
チPtは、Pt<Rとなるようにオペレータが適当な値を指
定してやればよい。ただし、Pt<<Rになると、処理に
時間がかかり過ぎ好ましくない。なお、第14図(e)に
分岐点の例を示したが、細線化処理を行っていないた
め、理論的には分岐点が現れることはない。The tracking from the intersection to the next intersection is shown in Fig. 14 (c).
As shown in (2), when the determination for one spot area SP1 is completed, the spot closed area may be moved to SP2 and the same determination processing may be repeated. As shown in FIG. 14 (b), the moving direction of the spot closed area is set to the direction of a straight line 1 connecting the barycentric position g1 of the pixel of the group G1 and the barycentric position g2 of the pixel of the group G2. The movement pitch Pt may be specified by an operator so that Pt <R. However, when Pt << R, processing takes too much time, which is not preferable. FIG. 14 (e) shows an example of a branch point. However, since the thinning processing is not performed, the branch point does not appear theoretically.
§4 歪み補正処理部の動作 4.1 全体の手順 前述のように歪補正処理部15は、第5図(c)に示す
ような基準パターンデータを予め記憶している。なお、
この基準パターンデータは記憶装置16から読み出すよう
にしてもよい。また歪補正処理部15には、画像処理部14
から第5図(d)に示すような歪パターンデータが与え
られ、被補正絵柄入力装置12から歪補正絵柄のデータが
与えられる。この歪補正処理部15内部には、第4図
(b)に示すように2つの座標系が用意されている。§4 Operation of the distortion correction processing section 4.1 Overall procedure As described above, the distortion correction processing section 15 stores in advance reference pattern data as shown in FIG. 5 (c). In addition,
This reference pattern data may be read from the storage device 16. The distortion correction processing unit 15 includes an image processing unit 14.
5 (d) is provided, and the data of the distortion corrected pattern is provided from the corrected image input device 12. Two coordinate systems are prepared in the distortion correction processing unit 15 as shown in FIG. 4 (b).
以下、第4図(b)の基本構成図および第15図の流れ
図を参照して、その動作を説明することにする。まず、
歪パターンデータは第1座標系18に与えられ(ステップ
S24)、基準パターンデータは第2座標系19に与えられ
る(ステップS25)。そして、歪補正絵柄データは第1
座標系18に与えられる(ステップS26)。この例では、
「A」なる文字を絵柄として扱う場合を示すことにす
る。したがって、第1座標系18上では、歪パターンに歪
んでいない正規の文字(歪補正絵柄「A」が重なること
になる。写像演算装置20は、第1座標系18上の基準パタ
ーンの基準点と、第2座標系19上の歪パターンの基準点
と、の対応関係に基づいて、文字「A」の写像を第2座
標系19上に求める演算を行う(ステップS27)。この写
像は、第4図(b)に示すように歪んだ文字「A」(補
正済絵柄)となる。補正済絵柄出力装置17に対しては、
この歪んだ文字「A」の画像データが出力される。これ
を受けて、補正済絵柄出力装置17(たとえばプロッタ)
は歪んだ文字「A」を補正版下として描画する(ステッ
プS28)。この補正版下に基づいて、転写フィルム2に
歪んだ文字「A」を印刷し、第2図に示すように前記と
同じ条件で成形、転写を行えば、転写フィルム2が前記
と同じ条件で伸びるため、結局、印刷成形品9の上面に
は、歪みのない文字「A」が転写されることになる。Hereinafter, the operation will be described with reference to the basic configuration diagram of FIG. 4 (b) and the flowchart of FIG. First,
The distortion pattern data is given to the first coordinate system 18 (step
S24), the reference pattern data is given to the second coordinate system 19 (step S25). And the distortion-corrected pattern data is the first
This is given to the coordinate system 18 (step S26). In this example,
The case where the character “A” is treated as a picture will be described. Therefore, on the first coordinate system 18, a normal character (distortion correction picture “A”) that is not distorted on the distorted pattern overlaps. The mapping operation device 20 determines the reference point of the reference pattern on the first coordinate system 18. Based on the correspondence between the reference point of the distortion pattern on the second coordinate system 19 and the reference point of the distortion pattern, an operation for obtaining the mapping of the character "A" on the second coordinate system 19 is performed (step S27). 4B, the character “A” (corrected pattern) is distorted as shown in FIG.
The image data of the distorted character “A” is output. In response, the corrected picture output device 17 (for example, a plotter)
Renders the distorted character "A" as a correction copy (step S28). If the distorted character "A" is printed on the transfer film 2 based on the corrected copy and molded and transferred under the same conditions as described above as shown in FIG. As a result, the character “A” without distortion is transferred to the upper surface of the printed molded product 9.
4.2 写像演算の実施例 次に、写像演算装置20の行う写像演算の実施例を説明
する。写像演算装置20は、第4図(b)に示すように、
第1座標系18上で絵柄を構成する各点の写像を第2座標
系19上に求める仕事を行う。すなわち、第1座標系18上
の任意の一点Pについて、第2座標系19上の写像点Qを
求めることができればよい。4.2 Embodiment of Mapping Operation Next, an embodiment of the mapping operation performed by the mapping operation device 20 will be described. As shown in FIG. 4 (b), the mapping operation device 20
The task of obtaining the mapping of each point constituting the picture on the first coordinate system 18 on the second coordinate system 19 is performed. That is, it is only necessary that the mapping point Q on the second coordinate system 19 can be obtained for any one point P on the first coordinate system 18.
従来から、第2座標系19上の正規なパターンを第1座
標系18上の歪んだパターンに変換する関数fを求める手
法が知られている。ところが、点Pの写像点Qを求める
には、関数fの逆関数gを求める必要があり、数学的に
非常に困難な作業となる。そこで、このような関数を用
いない方法を考える。いま、一点Pが基準点(格子点)
の位置にある点であれば、これに対する写像点Qは容易
に求まる。すなわち、第4図(b)において、一点P1の
写像点は点Q1となる。正方格子の位相的に対応する格子
点が写像点となるのである。問題は、一点P2のように格
子の内部にある点について、写像点Q2を求める方法であ
る。ここで、一点P2の所属する格子ABCDに対応する第2
座標系上の格子EFGHは、位相的に対応する格子としてす
ぐにみつけることができる。この例の場合、一点P2の所
属する格子は右下の格子であるから、対応する第2座標
系上の格子も右下の格子となる。続いて、格子ABCD内の
一点P2に対応する点Q2を、格子EFGH内に求めればよい。
この点Qは、結局、位相的に点Pに対応する位置にある
点として求めることになる。このように、位相的に対応
する点を求める手法も、従来からいくつかの方法が知ら
れている。ところが、従来の方法はいずれも絵柄に段差
が生じるという問題ある。すなわち、第16図(a)に示
すように、隣接する2つの単位格子にまたがった絵柄に
ついて、これを構成する各点の写像を求めた場合、同図
(b)に示すような写像が得られればよいが、従来の方
法では、同図(c)のように段差が生じてしまうのであ
る。本願発明者は、絵柄に段差の生じない写像を得るこ
とができる具体的手法をいくつか考案したので、以下に
4つの例を説明する。Conventionally, there has been known a method of obtaining a function f for converting a normal pattern on the second coordinate system 19 into a distorted pattern on the first coordinate system 18. However, in order to find the mapping point Q of the point P, it is necessary to find the inverse function g of the function f, which is a mathematically very difficult task. Therefore, a method that does not use such a function is considered. Now, one point P is a reference point (lattice point)
If the point is located at the position, the mapping point Q for this point can be easily obtained. That is, in FIG. 4B, the mapping point of one point P1 is the point Q1. The lattice points corresponding to the topological points of the square lattice are the mapping points. The problem is a method of obtaining a mapping point Q2 for a point such as one point P2 inside the lattice. Here, the second point corresponding to the lattice ABCD to which the point P2 belongs
The grid EFGH on the coordinate system can be readily found as a topologically corresponding grid. In the case of this example, since the grid to which the point P2 belongs is the lower right grid, the corresponding grid on the second coordinate system is also the lower right grid. Subsequently, a point Q2 corresponding to one point P2 in the grid ABCD may be obtained in the grid EFGH.
This point Q is ultimately determined as a point at a position corresponding to the point P in phase. As described above, several methods have been conventionally known for obtaining a topologically corresponding point. However, all of the conventional methods have a problem that a step is formed in a picture. That is, as shown in FIG. 16 (a), when the mapping of each point constituting the pattern extending over two adjacent unit lattices is obtained, the mapping as shown in FIG. 16 (b) is obtained. However, in the conventional method, a step is generated as shown in FIG. The inventor of the present application has devised several specific methods capable of obtaining a mapping in which a pattern does not have a step. Four examples will be described below.
以下の4つの方法は、いずれにも共通した規則が適用
される。すなわち、隣接した単位格子にまたがった点
(たとえば第16図(a)の点P)についての写像を求め
る際に、このまたがった点をはさむ2つの格子点(第16
図(a)の点B,C)の座標値のみによって写像(第16図
(b)の点Q)が決定される。このような条件を満足す
るような方法で写像を求めれば、絵柄に段差が生じると
いう問題を解決することができる。The following four methods apply the same rules to all of them. That is, when calculating a mapping for a point (for example, point P in FIG. 16 (a)) that straddles an adjacent unit cell, two grid points (the 16th point) sandwiching the straddling point are obtained.
The mapping (point Q in FIG. 16 (b)) is determined only by the coordinate values of the points B and C in FIG. (A). If the mapping is obtained by a method that satisfies such a condition, the problem that a step is formed in the picture can be solved.
〈m:n分割法〉 まず、第1の手法を第17図を参照して説明する。い
ま、第17図(a)に示すように、格子点ABCD内の一点P
に対応する写像点Qを、同図(b)に示す正方格子EFGH
内に求める場合を考える。はじめに、格子点ABCDを結ん
で四角形ABCDを作る。そして、直線ABとDCとの交点Xと
点Pとを直線で結び、この直線の四角形ABCD内の部分を
点Pが分割する比m:nを求める。更に、直線ADとBCとの
交点Yと点Pとを直線で結び、この直線の四角形ABCD内
の部分を点Pが分割する比q:rを求める。一方、正方格
子EFGHでは、辺EFおよびHGをそれぞれm:nに分割する二
点IJを結ぶ直線と、辺FGおよびEHをそれぞれq:rに分割
する二点KLを結ぶ直線と、を引き、この交点を点Qとす
るのである。各点はそれぞれ(x,y)の二次元座標値で
与えられているため、上述の手法は非常に容易な演算に
よって行うことが可能である。なお、第18図に示すよう
に、四角形ABCDの対辺、たとえば辺BCとADが平行な場合
は交点Yが求められなくなるが、この場合は、点Pを通
り辺BCまたはACに平行な直線を考えればよい。<M: n Division Method> First, the first method will be described with reference to FIG. Now, as shown in FIG. 17 (a), one point P in the grid point ABCD
Is mapped to a square lattice EFGH shown in FIG.
Consider the case of seeking within. First, a square ABCD is created by connecting the grid points ABCD. Then, the intersection point X of the straight line AB and DC is connected to the point P by a straight line, and a ratio m: n at which the point P divides a portion of the straight line in the rectangle ABCD is determined. Further, the intersection point Y of the straight lines AD and BC and the point P are connected by a straight line, and a ratio q: r at which the point P divides a portion of the straight line in the rectangle ABCD is determined. On the other hand, in the square lattice EFGH, a straight line connecting two points IJ dividing the sides EF and HG into m: n and a straight line connecting two points KL dividing the sides FG and EH into q: r are drawn, This intersection is designated as point Q. Since each point is given by a two-dimensional coordinate value of (x, y), the above method can be performed by a very easy operation. As shown in FIG. 18, when the opposite side of the square ABCD, for example, the side BC and AD are parallel, the intersection Y is not obtained. In this case, a straight line passing through the point P and parallel to the side BC or AC is drawn. Just think.
〈等分割法〉 第2の手法を第20図を参照して説明する。まず、第20
図(a)に示すように、点Pを通り辺ABおよび辺CDを等
しい比m:nで分割する点IおよびJ(AI:IB=DJ:JC=m:
n)を通る直線1と、点Pを通り辺BCおよび辺ADを等
しい比q:rで分割する点KおよびL(AK:KD=BL:LC=q:
r)を通る直線l2とを引く。このときの比、m:nおよびq:
rを用いて、第20図(b)のように写像点Qを求める。
すなわち、辺EFおよびHGをそれぞれm:nに分割する二点
I′J′を結ぶ直線と、辺FGおよびEHをそれぞれq:rに
分割する二点K′L′を結ぶ直線と、の交点を点Qとす
ればよい。<Equal Partition Method> The second method will be described with reference to FIG. First, the 20th
As shown in FIG. 3A, points I and J passing through the point P and dividing the side AB and the side CD at an equal ratio m: n (AI: IB = DJ: JC = m:
n and points K and L passing through the point P and dividing the side BC and the side AD at an equal ratio q: r (AK: KD = BL: LC = q:
Draw a straight line l2 passing through r). The ratio at this time, m: n and q:
Using r, a mapping point Q is obtained as shown in FIG.
That is, the intersection of a straight line connecting two points I′J ′ dividing the sides EF and HG into m: n, respectively, and a straight line connecting two points K′L ′ dividing the sides FG and EH into q: r, respectively May be set as the point Q.
m:nを演算で求める方法の一例を以下に示す。いま、
4点ABCDの座標値を、それぞれ(xa,ya),(xb,yb),
(xc,yc),(xd,yd)とし、点Pの座標値を(xp,yp)
とする。ここで、点I,Jの座標値を、(xi,yi),(kj,y
j)とすると、 xi=m・(xb−xa)+xa (1) xj=m・(yb−ya)+ya (2) yi=m・(xc−xd)+xd (3) yj=m・(yc−yd)+yd (4) 一般に、2点X1(x1,y1),X2(x2,y2)を通る直線は、 (y−y1)(x2−x1)=(x−x1)(y2−y1) (5) で表される。したがって、直線1の方程式は、 (y−yi)(xj−xi)=(x−xi)(yj−yi) (6) となる。この式に式(1)〜(4)を代入し、かつx,y
に点Pの座標(xp,yp)を代入すれば、 am2+bm+c=0 (7) なる形のmについての式が得られる。ここで、a〜cは
既知の座標値から求まる係数である。この式(7)を解
けば、0≦m≦1なるmが求まる。An example of a method for calculating m: n by calculation will be described below. Now
The coordinates of the four points ABCD are (xa, ya), (xb, yb),
(Xc, yc), (xd, yd), and the coordinate value of the point P is (xp, yp)
And Here, the coordinate values of the points I and J are represented by (xi, yi), (kj, y
j), xi = m · (xb-xa) + xa (1) xj = m · (yb-ya) + ya (2) yi = m · (xc-xd) + xd (3) yj = m · (yc −yd) + yd (4) In general, a straight line passing through two points X1 (x1, y1) and X2 (x2, y2) is (y−y1) (x2−x1) = (x−x1) (y2−y1) (5) is represented by Therefore, the equation of the straight line 1 is (y-yi) (xj-xi) = (x-xi) (yj-yi) (6) Substituting equations (1) to (4) into this equation, and x, y
By substituting the coordinates (xp, yp) of the point P into the following equation, an expression for m in the form of am 2 + bm + c = 0 (7) is obtained. Here, a to c are coefficients obtained from known coordinate values. By solving the equation (7), m satisfying 0 ≦ m ≦ 1 is obtained.
n=1−m (8) であるから、m:nの比を演算で求めることができる。q:r
も同様に求まる。Since n = 1−m (8), the ratio of m: n can be obtained by calculation. q: r
Is similarly obtained.
〈歪量空間法〉 続いて第3の手法を説明する。まず、前述の第1の手
法または第2の手法を用いて、m:nおよびq:rの比を求め
る。ここでは、第1の手法でこれらの比を求めた場合に
ついて説明する。第19図において、各点ABCDのxおよび
y座標値について、正方形EFGH(第4図(b))の対応
する各頂点のxおよびy座標値との差を求める。たとえ
ば、点Aの座標値が(x,y)であり、点Eの座標値が
(x*,y*)である場合には、差はΔ1x=x−x*、Δ
1y=y−y*となる。これを、ABCDの各点について第19
図に示すように求める。そして、差の総合計Δxおよび
Δyを次式によって求める。<Distortion Amount Method> Next, a third method will be described. First, the ratio of m: n and q: r is determined by using the above-described first method or second method. Here, the case where these ratios are obtained by the first method will be described. In FIG. 19, the difference between the x and y coordinate values of the corresponding vertex of the square EFGH (FIG. 4 (b)) is determined for the x and y coordinate values of each point ABCD. For example, when the coordinate value of the point A is (x, y) and the coordinate value of the point E is (x *, y *), the difference is Δ1x = x−x *, Δ
1y = y−y *. For each point of ABCD,
Determine as shown in the figure. Then, the total sums Δx and Δy of the differences are obtained by the following equations.
Δx=Δ1x・n/(m+n)・r/(q+r) +Δ2x・m/(m+n)・r/(q+r) +Δ3x・m/(m+n)・q/(q+r) +Δ4x・n/(m+n)・q/(q+r) Δy=Δ1y・n/(m+n)・r/(q+r) +Δ2y・m/(m+n)・r/(q+r) +Δ3y・m/(m+n)・q/(q+r) +Δ4y・n/(m+n)・q/(q+r) 点Pを差Δx、Δyだけ移動させた座標に、点Qが求ま
る。Δx = Δ1x · n / (m + n) · r / (q + r) + Δ2x · m / (m + n) · r / (q + r) + Δ3x · m / (m + n) · q / (q + r) + Δ4x · n / (m + n) · q / (Q + r) Δy = Δ1y · n / (m + n) · r / (q + r) + Δ2y · m / (m + n) · r / (q + r) + Δ3y · m / (m + n) · q / (q + r) + Δ4y · n / ( (m + n) · q / (q + r) A point Q is obtained at coordinates obtained by moving the point P by the differences Δx and Δy.
〈三角形ベクトル比分割法〉 最後に、第4の手法を第21図を参照して説明する。こ
の方法では、第21図(a)に示すように、点Pが所属す
る四角形を2つの三角形に分割し、点Pの所属する方の
三角形を抽出して写像を求めるものである。すなわち、
今までの3つの手法における四角形ABCDおよび正方形EF
GHの代わりに、それぞれ三角形ABC(第21図(b))お
よび直角二等辺三角形DEF(第21図(c))を用い、図
の一点鎖線で示す対となる三角形の部分を無視して取り
扱えばよい。<Triangle Vector Ratio Division Method> Finally, the fourth method will be described with reference to FIG. In this method, as shown in FIG. 21 (a), a square to which point P belongs is divided into two triangles, and the triangle to which point P belongs is extracted to obtain a mapping. That is,
Square ABCD and square EF in the previous three methods
Instead of GH, use triangle ABC (Fig. 21 (b)) and right-angled isosceles triangle DEF (Fig. 21 (c)), respectively, and ignore paired triangles indicated by dashed lines in the figure. I just need.
まず、点Aから点Pにベクトル▲▼を引き、ベク
トル▲▼およびベクトル▲▼をそれぞれ単位ベ
クトルとして、ベクトル▲▼を ▲▼=a▲▼+b▲▼ で表わして係数aおよびbを求める。ここで0≦a≦
1、0≦b≦1である。そして、2つの単位ベクトル▲
▼および▲▼によって、 ▲▼=a▲▼+b▲▼ で表わされるベクトル▲▼を求め、その先端位置と
して点Qを求める。First, the vector ▼ is subtracted from the point A to the point P, and the coefficients お よ び and b are obtained by expressing the vector ▼ as ▼ = a ▼ + b ▲ with the vector ▼ and the vector ▼ as unit vectors. Where 0 ≦ a ≦
1, 0 ≦ b ≦ 1. And two unit vectors ▲
A vector ▼ represented by ▼ = a ▲ + b で is obtained by ▼ and ▼, and a point Q is obtained as the tip position.
4.3 写像演算についての補足 最後に具体的な写像演算を行う場合に好ましい実施例
を補足的に述べる。4.3 Supplement on Mapping Operation Finally, a preferred embodiment for performing a specific mapping operation will be supplementarily described.
まず、被補正絵柄データが第1座標系にベクトルデー
タで与えられた場合には、このベクトルデータを細分化
してから写像を求めるのが好ましい。たとえば、第22図
(a)に示すように、被補正絵柄が5点におけるベクト
ルで与えられた場合、この5点の写像を求めて写像点を
新たなベクトルで結んだ場合、点間の細かい情報が失わ
れてしまう。そこでまず、第22図(b)に示すように、
ベクトルデータを細分化し1つのベクトルの長さを微小
化してやった後、同図(c)に示すように、第2座標系
に写像を求めて補正済絵柄とすれば、点間の細かい情報
まで再現される。First, when the pattern data to be corrected is given to the first coordinate system as vector data, it is preferable to obtain a mapping after subdividing this vector data. For example, as shown in FIG. 22 (a), when the pattern to be corrected is given by vectors at five points, when mapping of these five points is obtained and the mapping points are connected by a new vector, fine points between the points are obtained. Information is lost. Therefore, first, as shown in FIG.
After subdividing the vector data and minimizing the length of one vector, as shown in FIG. 3C, if a mapping is obtained in the second coordinate system to obtain a corrected pattern, even fine information between points can be obtained. Will be reproduced.
被補正絵柄データが第1座標系にラスターデータで与
えられた場合には、第2座標系に得られる補正済絵柄に
画素抜けが生じることがある。この様子を第23図に示
す。ここで、同図(a)および(b)は第1座標系に与
えられる被補正絵柄および歪パターンを示し、同図
(c)および(d)は第2座標系に与えられる補正済絵
柄および基準パターンを示す。同図(a)に示す被補正
絵柄の写像が、同図(c)に示す補正済絵柄に相当する
が、同図(c)の白丸で示す部分に画素抜けが生じてい
ることがわかる。これは、同図(a)の画素1つ1つに
ついて、第2座標系に写像を求めたためである。If the corrected picture data is given as raster data to the first coordinate system, the corrected picture obtained in the second coordinate system may have missing pixels. This is shown in FIG. Here, FIGS. 6A and 6B show a corrected pattern and a distortion pattern given to the first coordinate system, and FIGS. 6C and 6D show a corrected pattern and a corrected pattern given to the second coordinate system. 3 shows a reference pattern. The mapping of the pattern to be corrected shown in FIG. 7A corresponds to the corrected pattern shown in FIG. 7C, but it can be seen that pixel omission has occurred in a portion indicated by a white circle in FIG. This is because a mapping was obtained in the second coordinate system for each pixel in FIG.
このような画素抜けに対処する1つの方法は、周囲の
画素に基づいて補間を行う方法である。たとえば、図の
黒丸で示す画素を“1"、それ以外の画素を“0"と表し、
値“0"の画素のうち周囲8つの画素の値の合計が所定値
以上(たとえば5以上)である場合には、その画素を
“1"に修正するというような作業を行えば、第23図
(c)の白丸で示す画素はすべて黒丸に修正される。One method for dealing with such pixel omission is a method of performing interpolation based on surrounding pixels. For example, a pixel indicated by a black circle in the figure is represented by “1”, and other pixels are represented by “0”.
If the sum of the values of the eight surrounding pixels among the pixels having the value “0” is equal to or more than a predetermined value (for example, 5 or more), the operation of correcting the pixel to “1” is performed. All pixels indicated by white circles in FIG. 9C are corrected to black circles.
画素抜けに対処する別な方法は、第1座標系への逆写
像を求め、逆写像の位置にある画素に基づいて補間を行
う方法である。たとえば、第23図(c)の白丸の画素に
ついて、第1座標系への逆写像を求めると、同図(a)
のいずれかの黒丸の画素の位置に写像が求まるはずであ
る。したがって、逆写像の位置に黒丸があれば、もとに
なった第2座標系上の画素も黒丸に修正するような補間
を行えばよい。Another method for dealing with pixel omission is a method of obtaining an inverse mapping to the first coordinate system and performing interpolation based on a pixel at the position of the inverse mapping. For example, when the inverse mapping to the first coordinate system is obtained for the white circle pixel in FIG.
The mapping should be obtained at the position of any of the black circled pixels. Therefore, if there is a black dot at the position of the inverse mapping, interpolation may be performed so that the original pixel on the second coordinate system is also corrected to a black dot.
なお、このような逆写像を求めるという方法は、画素
抜けの補間に利用できるだけでなく、第2座標系上に補
正済絵柄のラスターデータそのものを求めるのに利用す
ることもできる。この場合は、第1座標系上の各画素に
ついて、第2座標系上に写像を求める作業は不要にな
る。たとえば、第23図(c)に示す例では、10×10の画
素を第2座標系上で定義する。各画素が“0"か“1"かは
まだ未定である。そして、すべての画素1つ1つについ
て、第1座標系上に逆写像を求め、この逆写像位置の画
素の値に基づいて、第2座標系上で定義した各画素の値
を“0"にするか“1"にするか決定するのである。It should be noted that such a method of obtaining the inverse mapping can be used not only for interpolation of missing pixels, but also for obtaining the raster data itself of the corrected pattern on the second coordinate system. In this case, for each pixel on the first coordinate system, the operation of obtaining a mapping on the second coordinate system becomes unnecessary. For example, in the example shown in FIG. 23 (c), 10 × 10 pixels are defined on the second coordinate system. It is undecided whether each pixel is "0" or "1". Then, for each pixel, an inverse mapping is obtained on the first coordinate system, and the value of each pixel defined on the second coordinate system is set to “0” based on the value of the pixel at the inverse mapping position. Or "1".
§5 産業上への利用可能性 以上、本発明を射出同時絵付法に適用した例について
説明したが、本発明は転写フィルムやラミネート用フィ
ルムの歪補正一般に広く利用することができる。たとえ
ば、成形手段を用いる缶や、樹脂を用いた成形品(たと
えば、インモールド成形品やシュリンク・フィルム)を
製造する工程において、成形前に絵柄を印刷する際に、
素材の伸縮によって絵柄の歪みが生じるが、このような
場合にも、本発明によって得られた補正済絵柄を印刷し
ておけば成形後の歪みのない絵柄を得ることができる。§5 Industrial applicability As described above, an example in which the present invention is applied to the simultaneous injection painting method has been described. However, the present invention can be widely used in general for distortion correction of a transfer film or a laminating film. For example, in the process of manufacturing a can using a molding means or a molded product using a resin (for example, an in-mold molded product or a shrink film), when printing a pattern before molding,
Although the distortion of the picture is caused by the expansion and contraction of the material, even in such a case, if the corrected picture obtained by the present invention is printed, a picture without distortion after molding can be obtained.
上述の実施例では転写フィルムの歪補正を例にとって
説明した。このような転写フィルムは最終的には成形品
から剥離されるものであるが、最終的に成形品に接着さ
れたまま製品の一部となるようなラミネート用フィルム
についても全く同様に適用できる。In the above embodiment, the distortion correction of the transfer film has been described as an example. Such a transfer film is ultimately peeled off from the molded article, but can be applied to a laminating film that is finally bonded to the molded article and becomes a part of the product.
以上のとおり本発明によれば、基準パターンの印刷さ
れた転写フィルムを成形品に合わせて成形して歪パター
ンを得て、この歪パターンに歪みのない正規の絵柄を第
1座標形上で重ね合わせ、基準パターンが作成された第
2座標系上に第1座標形上の絵柄の写像を求め、この写
像を補正した絵柄の版下として用いるようにしたため、
版下の補正を容易に、かつ、正確に行うことができるよ
うになる。As described above, according to the present invention, a transfer film on which a reference pattern is printed is formed in accordance with a molded product to obtain a distortion pattern, and a regular pattern without distortion is superimposed on the distortion pattern on the first coordinate system. Since the mapping of the pattern on the first coordinate form was obtained on the second coordinate system in which the reference pattern was created, and this mapping was used as a composition of the corrected pattern,
It is possible to easily and accurately correct the composition.
第1図は射出同時絵付法を行う一般的な装置の基本構成
図、第2図は射出同時絵付法の説明図、第3図は射出同
時絵付法を行った結果歪んだ転写フィルムを示す図であ
る。第4図(a)は本発明に係る転写フィルム歪補正装
置の基本構成を示すブロック図、第4図(b)は同図
(a)に示す装置のうちの歪補正処理部の詳細説明図、
第5図は転写フィルムが成形によって変形することを示
す図、第6図は第4図に示す装置における画像処理部の
処理手順を示す流れ図である。第7図(a)〜(c)は
第6図の流れ図に沿った処理結果を示す図であり、同図
(a)は二値化処理後のパターン、同図(b)は細線化
処理後のパターン、同図(c)は交点追跡処理後のパタ
ーンをそれぞれ示す。第7図(d)は同図(a)の拡大
図、同図(e)は重心を交点に代用することができるこ
とを示す概念図である。第8図は第7図(b)に示す細
線化処理後のパターンの拡大図、第9図は第6図の中の
交点追跡処理の詳細な手順を示す流れ図、第10図は第9
図の中の交点検出処理の詳細な手順を示す流れ図であ
る。第11図は第9図に示す連結数計算の原理を示す図、
第12図は第9図に示す交点追跡処理の概念図、第13図は
第9図に示す交点追跡処理の説明図である。第14図は細
線化処理をせずに交点を求める方法の説明図である。第
15図は第4図に示す装置における歪補正処理部の処理手
順を示す流れ図、第16図は写像演算によって絵柄に生じ
る段差を説明する図、第17図および第18図は本発明によ
るm:n分割法の説明図、第19図は本発明による歪量空間
法の説明図、第20図は本発明による等分割法の説明図、
第21図は本発明による三角形ベクトル比分割法の説明
図、第22図はベクトルデータで表される絵柄についてベ
クトルの細分化を行った後に写像を求める方法の説明
図、第23図はラスターデータで表される絵柄について、
写像の画素抜け補間を行う方法の説明図である。 1…供給ロール、2…転写フィルム、3…シリンダ、4
…ヒータ、5…雄型、6…雌型、7…巻取りロール、8
…成形物、9…印刷成形品、11…歪パターン画像読取装
置、12…被補正絵柄入力装置、13…演算処理装置、14…
画像処理部、15…歪補正処理部、16…記憶装置、17…補
正済絵柄出力装置、18…第1座標系、19…第2座標系、
20…写像演算装置。FIG. 1 is a basic configuration diagram of a general apparatus for performing the simultaneous injection painting method, FIG. 2 is an explanatory diagram of the simultaneous injection painting method, and FIG. 3 is a view illustrating a transfer film distorted as a result of performing the simultaneous injection painting method. It is. FIG. 4 (a) is a block diagram showing a basic configuration of a transfer film distortion correcting apparatus according to the present invention, and FIG. 4 (b) is a detailed explanatory diagram of a distortion correction processing unit in the apparatus shown in FIG. 4 (a). ,
FIG. 5 is a diagram showing that the transfer film is deformed by molding, and FIG. 6 is a flowchart showing a processing procedure of the image processing unit in the apparatus shown in FIG. 7 (a) to 7 (c) are diagrams showing processing results along the flowchart of FIG. 6, wherein FIG. 7 (a) is a pattern after binarization processing and FIG. 7 (b) is a thinning processing FIG. 14C shows the pattern after the intersection tracking processing. FIG. 7D is an enlarged view of FIG. 7A, and FIG. 7E is a conceptual view showing that the center of gravity can be used as an intersection. 8 is an enlarged view of the pattern after the thinning processing shown in FIG. 7 (b), FIG. 9 is a flowchart showing the detailed procedure of the intersection tracking processing in FIG. 6, and FIG.
It is a flowchart which shows the detailed procedure of the intersection detection processing in a figure. FIG. 11 is a diagram showing the principle of calculation of the number of links shown in FIG. 9,
FIG. 12 is a conceptual diagram of the intersection tracking processing shown in FIG. 9, and FIG. 13 is an explanatory diagram of the intersection tracking processing shown in FIG. FIG. 14 is an explanatory diagram of a method of obtaining an intersection without performing a thinning process. No.
FIG. 15 is a flowchart showing a processing procedure of a distortion correction processing unit in the apparatus shown in FIG. 4, FIG. 16 is a view for explaining a step generated in a picture by a mapping operation, and FIGS. 17 and 18 are m: FIG. 19 is an explanatory diagram of the n-division method, FIG. 19 is an explanatory diagram of the distortion amount space method according to the present invention, FIG. 20 is an explanatory diagram of the equal division method according to the present invention,
FIG. 21 is an explanatory diagram of a triangle vector ratio dividing method according to the present invention, FIG. 22 is an explanatory diagram of a method for obtaining a mapping after performing vector subdivision on a pattern represented by vector data, and FIG. 23 is raster data. About the pattern represented by
FIG. 4 is an explanatory diagram of a method of performing pixel missing interpolation of a mapping. DESCRIPTION OF SYMBOLS 1 ... Supply roll, 2 ... Transfer film, 3 ... Cylinder, 4
... heater, 5 ... male type, 6 ... female type, 7 ... winding roll, 8
… Molded product, 9… printed molded product, 11… distortion pattern image reading device, 12… corrected pattern input device, 13… calculation processing device, 14…
Image processing unit, 15: distortion correction processing unit, 16: storage device, 17: corrected picture output device, 18: first coordinate system, 19: second coordinate system,
20 ... Mapping operation device.
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平2−134281(JP,A) 特開 平2−136979(JP,A) 特開 平2−242480(JP,A) 特開 平2−242481(JP,A) 特公 平7−58395(JP,B2) 特公 平7−61740(JP,B2) 特公 昭63−61657(JP,B2) 特公 平2−13292(JP,B2) (58)調査した分野(Int.Cl.6,DB名) G06F 15/66 360 G03F 1/00──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-2-134281 (JP, A) JP-A-2-136979 (JP, A) JP-A-2-242480 (JP, A) JP-A-2- 242481 (JP, A) JP 7-58395 (JP, B2) JP 7-61740 (JP, B2) JP 63-61657 (JP, B2) JP 2-13292 (JP, B2) (58) Field surveyed (Int. Cl. 6 , DB name) G06F 15/66 360 G03F 1/00
Claims (12)
された二次元の絵柄フィルムを成形品に合わせて三次元
立体状に成形したときに、前記基準パターンが歪むこと
により得られる歪パターンを、二次元の第1座標系に入
力する段階と、 前記成形品に付与すべき絵柄を被補正絵柄として前記第
1座標系に入力し、同一座標系上で前記歪パターンに重
ねる段階と、 前記基準パターンを、第2座標系上で定義する段階と、 前記基準パターンにおける基準点と前記歪パターンにお
ける基準点との対応関係に基づいて、前記第1座標系上
の絵柄の写像を前記第2座標系上に求める段階と、 前記第2座標系上に求まった写像を補正絵柄として出力
する段階と、 を備えることを特徴とする絵柄フィルム歪補正方法。1. A distortion pattern obtained by distorting a two-dimensional pattern film on which a reference pattern having a plurality of reference points is formed in a three-dimensional shape according to a molded product. Is input to a two-dimensional first coordinate system, and a pattern to be given to the molded product is input to the first coordinate system as a corrected pattern, and a step of overlapping the distortion pattern on the same coordinate system, Defining the reference pattern on a second coordinate system; and, based on a correspondence relationship between a reference point on the reference pattern and a reference point on the distortion pattern, mapping a pattern on the first coordinate system to the second coordinate system. A pattern film distortion correction method, comprising: obtaining on a two-coordinate system a mapping obtained on the second coordinate system as a corrected pattern.
し、1画素幅となるような細線化処理を行い、細線化さ
れた画素の並びを追跡することにより、第1座標系にお
ける歪パターンの基準点位置を決定することを特徴とす
る絵柄フィルム歪補正方法。2. The method according to claim 1, wherein the distortion pattern is input as an image, the image is binarized, and a thinning process is performed so as to have a width of one pixel. A pattern film distortion correction method, wherein a reference point position of a distortion pattern in a first coordinate system is determined by tracking an arrangement.
についての写像を第2座標系上に求める際に、前記2つ
の基準点の座標値のみによって前記写像の位置が決定さ
れるように写像を求めることを特徴とする絵柄フィルム
歪補正方法。3. The method according to claim 1, wherein when the mapping of one point existing between two adjacent reference points on the first coordinate system is determined on the second coordinate system, the two reference points are determined. Wherein the mapping is determined such that the position of the mapping is determined solely by the coordinate values of.
を用い、 第1座標系における4つの基準点で囲まれる単位格子四
角形ABCD内の一点Pについて、第2座標系における4つ
の基準点で囲まれる単位格子正方形EFGH内の写像となる
点Qを求める際に、 直線ABとDCとの交点と点Pとを直線で結び、この直線の
四角形ABCD内の部分を点Pが分割する比m:nを求め、 直線ADとBCとの交点と点Pとを直線で結び、この直線の
四角形ABCD内の部分を点Pが分割する比q:rを求め、 辺EFおよびHGをそれぞれm:nに分割する二点を結ぶ直線
と、辺FGおよびEHをそれぞれq:rに分割する二点を結ぶ
直線と、の交点を点Qとすることを特徴とする絵柄フィ
ルム歪補正方法。4. The method according to claim 1, wherein a reference pattern in which each grid point of the square grid is a reference point is used, and a unit cell square ABCD surrounded by four reference points in the first coordinate system is used. When finding a point Q to be a mapping within a unit cell square EFGH surrounded by four reference points in the second coordinate system for one point P, the intersection of the straight lines AB and DC and the point P are connected by a straight line, and this straight line The ratio m: n at which the point P divides the portion in the square ABCD of the above is obtained. The intersection of the straight lines AD and BC and the point P are connected by a straight line. q: r is obtained, and the intersection of a straight line connecting two points dividing the sides EF and HG into m: n and a straight line connecting two points dividing the sides FG and EH into q: r is defined as a point Q and A distortion correction method for a picture film.
を用い、 第1座標系における4つの基準点で囲まれる単位格子四
角形ABCD内の一点Pについて、第2座標系における4つ
の基準点で囲まれる単位格子正方形EFGH内の写像となる
点Qを求める際に、 4点ABCDと4点EFGHとについて、それぞれ対応する点間
の座標値の差を求め、点Pと点ABCDとの間の距離に応じ
てそれぞれ係数を求め、前記差に前記係数を乗じた積の
総和に基づいて点Qの位置を求めることを特徴とする絵
柄フィルム歪補正方法。5. The method according to claim 1, wherein a reference pattern in which each grid point of the square grid is a reference point is used, and a unit grid rectangle ABCD surrounded by four reference points in the first coordinate system is used. When finding a point Q which is a mapping within a unit cell square EFGH surrounded by four reference points in the second coordinate system for one point P, coordinate values between the corresponding points of the four points ABCD and the four points EFGH , A coefficient is obtained according to the distance between the point P and the point ABCD, and the position of the point Q is obtained based on the sum of products obtained by multiplying the difference by the coefficient. Distortion correction method.
を用い、 第1座標系における4つの基準点で囲まれる単位格子四
角形ABCD内の一点Pについて、第2座標系における4つ
の基準点で囲まれる単位格子正方形EFGH内の写像となる
点Qを求める際に、 辺ABおよび辺CDをそれぞれAI:IB=DJ:JC=m:nとなるよ
うに分割する点IおよびJと点Pとを通る直線と、 辺BCおよび辺ADをそれぞれAL:LC=AK:Kd=q:rとなるよ
うに分割する点LおよびKと点Pとを通る直線と、 を引くことにより比m:nおよびq:rを求め、 辺EFおよびHGをそれぞれm:nに分割する二点を結ぶ直線
と、辺FCおよびEHをそれぞれq:rに分割する二点を結ぶ
直線と、の交点を点Qとすることを特徴とする絵柄フィ
ルム歪補正方法。6. The method according to claim 1, wherein a reference pattern in which each grid point of the square grid is a reference point is used, and a unit cell square ABCD surrounded by four reference points in the first coordinate system is used. When finding a point Q which is a mapping within a unit cell square EFGH surrounded by four reference points in the second coordinate system for one point P, the side AB and the side CD are respectively AI: IB = DJ: JC = m: n A straight line passing through the points I and J and the point P, which are to be divided such that, and the points L and K and the point P which divide the side BC and the side AD such that AL: LC = AK: Kd = q: r, respectively And the ratios m: n and q: r are obtained by subtracting, and the straight lines connecting the two points dividing the sides EF and HG into m: n, respectively, and the sides FC and EH into q: r respectively. A pattern film distortion correction method, characterized in that an intersection of a straight line connecting two points to be divided and a point Q is a point Q.
ターンを用い、 第1座標系における3つの基準点で囲まれる単位格子三
角形ABC内の一点Pについて、第2座標系における3つ
の基準点で囲まれる単位格子直角二等辺三角形DEF内の
写像となる点Qを求める際に、 ベクトル▲▼を、単位ベクトル▲▼と単位ベク
トル▲▼との和によって、 ▲▼=a▲▼+b▲▼ で表わして係数aおよびbを求め、2つの単位ベクトル
▲▼および▲▼によって、 ▲▼=a▲▼+b▲▼ で表わされるベクトル▲▼の先端位置として点Qを
求めることを特徴とする絵柄フィルム歪補正方法。7. The method according to claim 1, wherein a reference pattern is used in which each vertex of a right-angled isosceles triangle is a reference point, and a unit grid triangle ABC surrounded by three reference points in the first coordinate system. When finding a point Q which is a mapping within a unit cell right-angled isosceles triangle DEF surrounded by three reference points in the second coordinate system for one point P, a vector ▲ ▼ is converted to a unit vector ▲ ▼ and a unit vector ▲ ▼ The coefficients a and b are obtained by expressing の = a ▲ + b ▲ with the sum of ベ ク ト ル and a vector ▼ represented by ▼ = a ▲ + b ▲ by two unit vectors ▼ and ▼. A picture film distortion correcting method, wherein a point Q is obtained as a tip position of the picture film.
し、このベクトルを細分化した後に第2座標系上に写像
を求めることを特徴とする絵柄フィルム歪補正方法。8. The method according to claim 1, wherein a pattern to be corrected is input as vector data into a first coordinate system, and after this vector is subdivided, a mapping is obtained on a second coordinate system. Picture film distortion correction method.
し、このラスターデータを構成する各画素ごとに第2座
標系上に写像を求め、この第2座標系上に画素抜けが生
じた場合には、周囲の画素を用いてこれを補間すること
を特徴とする絵柄フィルム歪補正方法。9. The method according to claim 1, wherein the image to be corrected is input as raster data to a first coordinate system, and a mapping is obtained on a second coordinate system for each pixel constituting the raster data. A picture film distortion correction method characterized by interpolating missing pixels on the second coordinate system using surrounding pixels.
し、このラスターデータを構成する各画素ごとに第2座
標系上に写像を求め、この第2座標系上に画素抜けが生
じた場合には、画素抜けの位置に対する前記第1座標系
への逆写像を求め、前記第1座標系上の逆写像位置にあ
る画素を用いてこれを補間することを特徴とする絵柄フ
ィルム歪補正方法。10. The method according to claim 1, wherein the image to be corrected is input as raster data to a first coordinate system, and a mapping is obtained on a second coordinate system for each pixel constituting the raster data. When a pixel omission occurs on the second coordinate system, a reverse mapping to the first coordinate system with respect to the position of the pixel omission is obtained, and this is determined using the pixel at the reverse mapping position on the first coordinate system. A picture film distortion correction method characterized by interpolating.
し、第2座標系上に複数の画素を定義し、この定義した
各画素の位置について前記第1座標系への逆写像を求
め、前記第1座標系上の逆写像位置にある画素のもつ値
に基づいて前記第2座標系上で定義した各画素の値を決
定し、前記第2座標系上に補正絵柄を求めることを特徴
とする絵柄フィルム歪補正方法。11. The method according to claim 1, wherein the image to be corrected is input as raster data to a first coordinate system, a plurality of pixels are defined on a second coordinate system, and a position of each of the defined pixels is defined. The inverse mapping to the first coordinate system is obtained, and the value of each pixel defined on the second coordinate system is determined based on the value of the pixel at the inverse mapping position on the first coordinate system. A pattern film distortion correction method, wherein a correction pattern is obtained on a two-coordinate system.
成された二次元の絵柄フィルムを成形品に合わせて三次
元立体状に成形したときに、前記基準パターンが歪むこ
とにより得られる歪パターンの画像を読取るための歪パ
ターン画像読取装置と、 前記歪パターン画像読取装置で読取った画像から基準点
の座標値を決定する画像処理部と、 前記成形品に付与すべき絵柄を被補正絵柄として入力す
る被補正絵柄入力装置と、 前記画像処理部から与えられた歪パターンについての基
準点の座標値と、前記被補正絵柄入力装置から与えられ
た絵柄の座標値と、を記録するための第1座標系と、 前記基準パターンについての基準点の座標値を記録する
ための第2座標系と、 前記歪パターンにおける基準点と前記基準パターンにお
ける基準点との対応関係に基づいて、前記第1座標系上
の絵柄の写像を前記第2座標系に求める写像演算装置
と、 前記第2座標系上に求まった写像を補正済絵柄として出
力する補正済絵柄出力装置と、 を備えることを特徴とする絵柄フィルム歪補正装置。12. A distortion pattern obtained by distorting the reference pattern when a two-dimensional pattern film on which a reference pattern having a plurality of reference points is formed is formed into a three-dimensional shape in conformity with a molded product. A distortion pattern image reading device for reading the image of the image, an image processing unit that determines a coordinate value of a reference point from the image read by the distortion pattern image reading device, and a pattern to be given to the molded article as a corrected pattern A corrected pattern input device to be input, a coordinate value of a reference point for the distortion pattern provided from the image processing unit, and a coordinate value of a pattern provided from the corrected pattern input device, 1 coordinate system, a second coordinate system for recording coordinate values of reference points for the reference pattern, and a pair of a reference point in the distortion pattern and a reference point in the reference pattern. A mapping operation device for obtaining a mapping of a pattern on the first coordinate system in the second coordinate system based on the relationship; and a corrected pattern output device for outputting the mapping obtained on the second coordinate system as a corrected pattern A picture film distortion correction device, comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24354588A JP2761900B2 (en) | 1988-09-27 | 1988-09-27 | Picture film distortion correction method and apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24354588A JP2761900B2 (en) | 1988-09-27 | 1988-09-27 | Picture film distortion correction method and apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0290275A JPH0290275A (en) | 1990-03-29 |
JP2761900B2 true JP2761900B2 (en) | 1998-06-04 |
Family
ID=17105468
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24354588A Expired - Lifetime JP2761900B2 (en) | 1988-09-27 | 1988-09-27 | Picture film distortion correction method and apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2761900B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR2639878B1 (en) * | 1988-12-01 | 1991-01-11 | Cebal | PROCESS FOR DECORATING A BLANK TO BE CONFORMED, USE OF THIS PROCESS AND PRODUCTS OBTAINED |
US6499822B1 (en) | 1998-04-27 | 2002-12-31 | Canon Kabushiki Kaisha | Method and apparatus for forming an image on a recording medium with contraction and expansion properties |
JP4338933B2 (en) * | 2002-03-11 | 2009-10-07 | 株式会社恭和 | Method of creating a corrected block image for printing a three-dimensional object, creation program, and storage medium storing the creation program |
DE10255268A1 (en) * | 2002-11-21 | 2004-06-03 | E.G.O. Control Systems Gmbh & Co. Kg | A method for correcting shapes on curved plates has a rectangular mesh pattern curved to the panel profile and the required shape projected to show a distorted shape |
JP3739765B2 (en) * | 2003-07-09 | 2006-01-25 | 積水化成品工業株式会社 | Molding method of foamed sheet molding |
DE102006020667A1 (en) * | 2006-05-04 | 2007-11-08 | K1 Gmbh | Method for producing a three-dimensional freeform surface with haptic and / or optically perceptible microstructures |
EP2500177A3 (en) | 2011-03-14 | 2014-03-19 | Seiko Epson Corporation | Printed layer formation processing device and printed layer formation processing method |
JP2020094879A (en) * | 2018-12-11 | 2020-06-18 | コニカミノルタ株式会社 | Decorative printing inspection device, decorative printing inspection system, decorative printing inspection method, and program |
-
1988
- 1988-09-27 JP JP24354588A patent/JP2761900B2/en not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JPH0290275A (en) | 1990-03-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Wolberg | Recent advances in image morphing | |
JP3650578B2 (en) | Panoramic image navigation system using neural network to correct image distortion | |
JP3466661B2 (en) | Image processing apparatus and method | |
US6724383B1 (en) | System and computer-implemented method for modeling the three-dimensional shape of an object by shading of a two-dimensional image of the object | |
JP2761900B2 (en) | Picture film distortion correction method and apparatus | |
EP0782105B1 (en) | Processing image data | |
US5771341A (en) | Graphics apparatus and method for dividing parametric surface patches defining an object into polygons | |
JP2747706B2 (en) | Picture film distortion correction method | |
US6178392B1 (en) | Method for combining the computer models of two surfaces in 3-D space | |
Boissonnat et al. | Locally uniform anisotropic meshing | |
US5173946A (en) | Corner-based image matching | |
JP2933630B2 (en) | Evaluation method for distortion correction of picture film | |
JP2747705B2 (en) | Picture film distortion correction method | |
JP2787453B2 (en) | How to determine the pattern allocation area of the pattern film | |
Zhu et al. | A fast 2d shape recovery approach by fusing features and appearance | |
JP2787454B2 (en) | Distortion correction method for picture film with characters | |
JP2850007B2 (en) | Reference point recognition method for regular patterns | |
JP2789338B2 (en) | Picture film distortion correction device | |
US20030146918A1 (en) | Appearance modelling | |
JP2667430B2 (en) | Image stitching device | |
Chan et al. | Contour-based warping | |
Yoda et al. | Direction coding method and its application to scene analysis | |
JPH01231184A (en) | Detecting device for abnormality of area shape | |
JPS6073788A (en) | Vector signal occurrence method | |
JPH11203498A (en) | Method and device for generating texture coordinate by using normal vector |