JP2014109799A - Pattern position detection method - Google Patents
Pattern position detection method Download PDFInfo
- Publication number
- JP2014109799A JP2014109799A JP2012262500A JP2012262500A JP2014109799A JP 2014109799 A JP2014109799 A JP 2014109799A JP 2012262500 A JP2012262500 A JP 2012262500A JP 2012262500 A JP2012262500 A JP 2012262500A JP 2014109799 A JP2014109799 A JP 2014109799A
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- image
- position detection
- cutting
- fabric
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、柄模様位置検出方法に関し、詳しくは、パターンマッチングによる柄模様位置検出方法に関する。 The present invention relates to a pattern position detection method, and more particularly to a pattern position detection method based on pattern matching.
衣料品等の製品を作製する場合、織物、編物、不織布等からなる布帛を裁断して製品の元となるパーツを作成し、作成されたパーツを縫製等により接合するといった工程を経て製品を仕上げることが一般的である。さらに、裁断する前の布帛にあらかじめ柄模様が付与されている場合には、一般に付与された柄模様に合わせて裁断してパーツを作成する。なお、従来、布帛に付与される柄模様は染色処理により作成されていたが、近年では、インクジェット方式の記録装置により柄模様を作成することも提案されている。 When producing clothing and other products, the fabric is finished through a process of cutting fabrics, knitted fabrics, non-woven fabrics, etc. to create the original parts of the product, and joining the created parts by sewing etc. It is common. Furthermore, when a pattern is provided in advance on the fabric before cutting, a part is created by cutting according to the pattern provided in general. Conventionally, the pattern provided to the fabric has been created by a dyeing process. However, in recent years, it has also been proposed to create a pattern by using an ink jet recording apparatus.
柄模様が作成された布帛を裁断する手段としては、従来の手作業による裁断のほか、自動裁断機による裁断が知られている。自動裁断機で裁断する場合には、通常、CAD等の画像処理装置によって設定された所定の裁断データに従って裁断される。柄模様が付与された布帛を実際に裁断する場合、布帛を裁断ステージにセットする際に布帛が歪みやすく、設定された裁断データに対応する柄模様の位置とは異なった位置に布帛の柄模様が付与されていることがある。この場合、実際の柄模様の位置に合わせて裁断位置を補正する必要がある。 As means for cutting a fabric on which a pattern is created, cutting by an automatic cutting machine is known in addition to conventional manual cutting. When cutting with an automatic cutting machine, the cutting is usually performed according to predetermined cutting data set by an image processing apparatus such as CAD. When actually cutting a fabric with a patterned pattern, the fabric tends to be distorted when the fabric is set on the cutting stage, and the patterned pattern of the fabric is different from the position of the patterned pattern corresponding to the set cutting data. May be granted. In this case, it is necessary to correct the cutting position according to the actual pattern position.
しかしながら、布帛に付与された柄模様を認識し裁断位置の補正を行う裁断方法の場合、布帛の表面状態や色材の拡散状態によって柄模様に滲み(これらを以下、ノイズという)が発生し、裁断位置を補正できないという問題があった。 However, in the case of the cutting method for recognizing the pattern pattern applied to the fabric and correcting the cutting position, the pattern pattern bleeds (hereinafter referred to as noise) due to the surface state of the fabric and the diffusion state of the coloring material. There was a problem that the cutting position could not be corrected.
これに対処するため、例えば特許文献1では、画像データ中の濃度が高いノイズを識別し、画像のエッジをぼけさせることなくノイズを除去する方法が記載されている。しかしながら、この方法を用いることにより撮像画像のノイズを低減させることはできるものの、撮像画像のノイズを完全に除去することは極めて困難であった。 In order to cope with this, for example, Patent Document 1 describes a method of identifying noise having high density in image data and removing the noise without blurring the edge of the image. However, although this method can reduce noise in a captured image, it has been extremely difficult to completely remove noise in the captured image.
本発明は、このような現状に鑑みてなされたものであって、高精度かつ高速に行うことのできる柄模様位置検出方法を提供することを目的とするものである。 The present invention has been made in view of such a current situation, and an object of the present invention is to provide a pattern position detection method that can be performed with high accuracy and high speed.
本発明は、
基準画像を作成する工程(S101)と、
対象媒体上の柄模様部分を含む位置を撮影した撮像画像を取得する工程(S102)と、
工程S101で作成した基準画像および工程S102で取得した撮像画像を用いて、パターンマッチングによる柄模様位置検出を行う工程(S103)を含んでなる、柄模様位置検出方法である。
The present invention
Creating a reference image (S101);
A step (S102) of acquiring a captured image obtained by photographing a position including a pattern portion on the target medium;
This is a pattern position detection method including a step (S103) of detecting a pattern position by pattern matching using the reference image created in step S101 and the captured image acquired in step S102.
本発明の手法を用いることで、ノイズが発生した対象媒体の撮像画像に対し、高精度かつ高速なパターンマッチングによる柄模様位置検出を行うことが可能となる。 By using the method of the present invention, it is possible to detect a pattern position by high-precision and high-speed pattern matching for a captured image of a target medium in which noise has occurred.
以下、本発明の実施形態について図面を用いて説明する。なお、以下に説明する実施形態は、本発明を実施するにあたって好ましい具体例であるから、技術的に種々の限定がなされているが、本発明は、以下の説明において特に本発明を限定する旨明記されていない限り、これらの形態に限定されるものではない。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments described below are preferable specific examples for carrying out the present invention, and thus various technical limitations are made. However, the present invention is particularly limited in the following description. Unless otherwise specified, the present invention is not limited to these forms.
以下、設計画像を元データとする柄模様が付与された対象媒体として布帛をあげ、本発明の柄模様位置検出方法について、図1の処理フローに従って説明する。 Hereinafter, a fabric is taken up as a target medium to which a design pattern having a design image as original data is given, and the design pattern position detection method of the present invention will be described according to the processing flow of FIG.
[基準画像の作成(S101)]
対象媒体となる布帛の表面状態や色材の拡散状態によって、付与された柄模様に滲みによるノイズが発生することがある例えば、図2で示す設計画像の柄模様を、図3で示す対象媒体である布帛に付与した場合、図4に示すように、付与された柄模様に色材の拡散によるノイズが発生する。そこで、ステップS101では、布帛に付与された柄模様に発生するノイズを予測し、設計画像に同等のノイズを付与することにより、基準画像を作成する。ノイズを予測する方法としては、例えば、下記式(1)で表わされるFickの第二法則に基づき色材の拡散状態を求めることにより、ノイズ予測を行うことができる。
[Create Reference Image (S101)]
Depending on the surface state of the fabric serving as the target medium and the diffusion state of the color material, noise due to bleeding may occur in the applied pattern. For example, the pattern of the design image shown in FIG. 2 is changed to the target medium shown in FIG. When it is applied to the cloth, as shown in FIG. 4, noise due to diffusion of the color material is generated in the applied pattern. Therefore, in step S101, noise generated in the pattern applied to the fabric is predicted, and a reference image is created by applying equivalent noise to the design image. As a method of predicting noise, for example, noise prediction can be performed by obtaining a color material diffusion state based on Fick's second law expressed by the following equation (1).
式(1)を離散化すると、下記式(2)となる。 When the equation (1) is discretized, the following equation (2) is obtained.
式(2)により、時間t+1の時の位置i,jにおける画素の画素値を計算することができる。設計画像の各画素に対して式(2)を用いることで、各画素の画素値とその隣接画素への拡散を計算することができる。拡散係数Dは対象となる布帛毎に実験値から得ることができるので、あらかじめ対象となりうる媒体の拡散係数Dを測定しておけばよい。拡散係数Dが決まれば、設計画像の各画素に対し式(2)に従い計算することで布帛に付与された柄模様に発生するノイズを予測することができる。 According to Expression (2), the pixel value of the pixel at the position i, j at time t + 1 can be calculated. By using Expression (2) for each pixel of the design image, the pixel value of each pixel and the diffusion to the adjacent pixels can be calculated. Since the diffusion coefficient D can be obtained from experimental values for each target fabric, the diffusion coefficient D of the target medium may be measured in advance. If the diffusion coefficient D is determined, the noise generated in the pattern applied to the fabric can be predicted by calculating according to the expression (2) for each pixel of the design image.
ここで、式(2)による拡散の状態を図5で示すモデル画像により説明する。初期状態t=0の時、中央の画素にのみ画素値がある状態(図5の(a))とする。拡散係数D>0として、これを式(2)に従い時間をt=1に進めると、中央のセルの隣接画素に拡散が生じ(図5の(b))、t=2の時は周囲の画素に拡散していく(図5の(c))。この拡散による滲みがノイズとなる。式(2)に従って設計画像にノイズを付与した画像を、後のステップS103で用いる基準画像(図6)とする。 Here, the state of diffusion according to Equation (2) will be described with reference to the model image shown in FIG. When the initial state t = 0, it is assumed that only the central pixel has a pixel value ((a) in FIG. 5). When the diffusion coefficient D> 0 and the time is advanced to t = 1 according to the equation (2), diffusion occurs in the adjacent pixel of the center cell ((b) in FIG. 5). It diffuses to the pixels ((c) of FIG. 5). This blur due to diffusion becomes noise. An image obtained by adding noise to the design image according to Expression (2) is set as a reference image (FIG. 6) used in the subsequent step S103.
[布帛の撮像画像を取得(S102)]
ステップS102では、設計画像が付与された布帛から撮像画像を取得する。撮像画像の例を図7に示す。
[Acquired Captured Image of Fabric (S102)]
In step S102, a captured image is acquired from the fabric provided with the design image. An example of the captured image is shown in FIG.
[基準画像と撮像画像のパターンマッチングによる柄模様位置検出(S103)]
ステップS103では、ステップS101で作成した基準画像(図6)と、ステップS102で取得した撮像画像(図7)を用いて、パターンマッチングによる柄模様位置検出を行う。パターンマッチングの方法としては公知の手法を用いればよく、特に限定するものではないが、例えば、基準画像をテンプレート画像としたテンプレートマッチングによる方法を用いることができる。
[Detection of pattern position by pattern matching between reference image and captured image (S103)]
In step S103, pattern position detection by pattern matching is performed using the reference image (FIG. 6) created in step S101 and the captured image (FIG. 7) acquired in step S102. A known method may be used as a pattern matching method, and is not particularly limited. For example, a template matching method using a reference image as a template image can be used.
ステップS101で作成した基準画像とステップS102で取得した撮像画像とのテンプレートマッチング結果を図8に示し、検出した柄模様位置を図8内の矩形1で示す。また、本発明との精度比較用に、テンプレート画像に設計画像を用いた場合のテンプレートマッチング結果を図9に示し、検出した柄模様位置を図9内の矩形2で示す。それぞれの検出位置を比較すると、基準画像を用いたテンプレートマッチングでは柄模様が正しく認識されているのに対し、設計画像を用いたテンプレートマッチングでは,検出位置が柄模様に対して数ピクセル右下にズレていることがわかる(図9の円で囲んだ部分)。布帛に発生するノイズが大きい場合、このズレは更に大きくなる。例えば柄模様を認識し裁断位置を補正する裁断方法においては、この数ピクセルのズレが裁断品質を落とすことにつながる。 A template matching result between the reference image created in step S101 and the captured image acquired in step S102 is shown in FIG. 8, and the detected pattern position is indicated by a rectangle 1 in FIG. For accuracy comparison with the present invention, a template matching result when a design image is used as a template image is shown in FIG. 9, and the detected pattern position is indicated by a rectangle 2 in FIG. Comparing each detection position, the pattern pattern is correctly recognized in the template matching using the reference image, whereas in the template matching using the design image, the detection position is several pixels lower right than the pattern pattern. It can be seen that there is a shift (the part surrounded by a circle in FIG. 9). When the noise generated in the fabric is large, this deviation is further increased. For example, in a cutting method for recognizing a pattern and correcting a cutting position, a deviation of several pixels leads to a reduction in cutting quality.
このように、対象媒体のノイズを予測し、予測したノイズを設計画像に付与することによって基準画像を作成し、得られた基準画像をパターンマッチングに用いることで、柄模様位置検出を高精度かつ高速に行うことが可能となる。 In this way, the noise of the target medium is predicted, a reference image is created by adding the predicted noise to the design image, and the obtained reference image is used for pattern matching. It can be performed at high speed.
Claims (1)
対象媒体上の柄模様部分を含む位置を撮影した撮像画像を取得する工程(S102)と、
工程S101で作成した基準画像および工程S102で取得した撮像画像を用いて、パターンマッチングによる柄模様位置検出を行う工程(S103)を含んでなる、
柄模様位置検出方法。 Creating a reference image (S101);
A step (S102) of acquiring a captured image obtained by photographing a position including a pattern portion on the target medium;
Using the reference image created in step S101 and the captured image obtained in step S102, including a step (S103) of detecting a pattern position by pattern matching.
Pattern pattern position detection method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012262500A JP2014109799A (en) | 2012-11-30 | 2012-11-30 | Pattern position detection method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012262500A JP2014109799A (en) | 2012-11-30 | 2012-11-30 | Pattern position detection method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014109799A true JP2014109799A (en) | 2014-06-12 |
Family
ID=51030425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012262500A Pending JP2014109799A (en) | 2012-11-30 | 2012-11-30 | Pattern position detection method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014109799A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017179630A (en) * | 2016-03-29 | 2017-10-05 | セーレン株式会社 | Device and method for supporting cutting of fabric |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH081586A (en) * | 1994-03-17 | 1996-01-09 | Gerber Garment Technol Inc | Device and method for marker locating |
JP2010146438A (en) * | 2008-12-22 | 2010-07-01 | Nec Corp | Positioning apparatus, positioning method, positioning program and cutting apparatus |
JP2012193473A (en) * | 2011-03-16 | 2012-10-11 | Seiren Co Ltd | Fabric cutting device and fabric cutting method |
-
2012
- 2012-11-30 JP JP2012262500A patent/JP2014109799A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH081586A (en) * | 1994-03-17 | 1996-01-09 | Gerber Garment Technol Inc | Device and method for marker locating |
JP2010146438A (en) * | 2008-12-22 | 2010-07-01 | Nec Corp | Positioning apparatus, positioning method, positioning program and cutting apparatus |
JP2012193473A (en) * | 2011-03-16 | 2012-10-11 | Seiren Co Ltd | Fabric cutting device and fabric cutting method |
Non-Patent Citations (1)
Title |
---|
森本 有紀、外3名: ""拡散,及び,吸着理論に基づいた染色のビジュアルシミュレーション"", 情報処理学会研究報告, vol. 2008, no. 63, JPN6016039525, 30 June 2008 (2008-06-30), JP, pages 13 - 18 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017179630A (en) * | 2016-03-29 | 2017-10-05 | セーレン株式会社 | Device and method for supporting cutting of fabric |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011109637A5 (en) | ||
JP5698042B2 (en) | Fabric cutting apparatus and method | |
JP2014115109A5 (en) | ||
JP2015109559A5 (en) | ||
JP2010056689A5 (en) | ||
JP7214432B2 (en) | Image processing method, image processing program, recording medium, image processing apparatus, production system, article manufacturing method | |
JP2013061850A5 (en) | ||
CN110992425A (en) | Image calibration method and device, electronic equipment and storage medium | |
JP2018191051A5 (en) | ||
WO2015115499A1 (en) | Tool inspection method and tool inspection device | |
JP2007081326A (en) | Wiring formation system and method of the same | |
JP6599698B2 (en) | Image measuring apparatus and control program therefor | |
JP5772675B2 (en) | Gray image edge extraction method, edge extraction device, and gray image edge extraction program | |
JP2014109799A (en) | Pattern position detection method | |
JP6800676B2 (en) | Image processing equipment, image processing methods and programs | |
JP2013195440A5 (en) | ||
CN110738656B (en) | Definition evaluation method of certificate photo, storage medium and processor | |
JP5157575B2 (en) | Defect detection method | |
CN110675356B (en) | Embedded image synthesis method based on user intention inference | |
TWI510776B (en) | Bubble inspection processing method for glass | |
JP2007132868A (en) | Apparatus and method for measuring shape of cell on gravure plate | |
JP2009285997A (en) | Image defect detecting method, and image forming apparatus | |
JP4710562B2 (en) | Image processing apparatus and image processing method | |
JP6647109B2 (en) | Fabric cutting support device and method | |
JP2016045744A5 (en) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151125 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20161006 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161101 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170627 |