JP2014109799A - Pattern position detection method - Google Patents

Pattern position detection method Download PDF

Info

Publication number
JP2014109799A
JP2014109799A JP2012262500A JP2012262500A JP2014109799A JP 2014109799 A JP2014109799 A JP 2014109799A JP 2012262500 A JP2012262500 A JP 2012262500A JP 2012262500 A JP2012262500 A JP 2012262500A JP 2014109799 A JP2014109799 A JP 2014109799A
Authority
JP
Japan
Prior art keywords
pattern
image
position detection
cutting
fabric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012262500A
Other languages
Japanese (ja)
Inventor
Norihiro Ogata
憲弘 小形
Hirozo Nagata
浩造 永田
Toshiro Kawabata
利郎 川端
Junichi Hashimoto
純一 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiren Co Ltd
Original Assignee
Seiren Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiren Co Ltd filed Critical Seiren Co Ltd
Priority to JP2012262500A priority Critical patent/JP2014109799A/en
Publication of JP2014109799A publication Critical patent/JP2014109799A/en
Pending legal-status Critical Current

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an accurate and fast pattern position detection method.SOLUTION: A pattern position detection method includes: a step (S101) for creating a reference image; a step (S102) for acquiring a captured image in which a position including a pattern part on a target medium is photographed; and a step (S103) for performing pattern position detection based on pattern matching using the reference image created in the step S101 and the captured image acquired in the step S102.

Description

本発明は、柄模様位置検出方法に関し、詳しくは、パターンマッチングによる柄模様位置検出方法に関する。   The present invention relates to a pattern position detection method, and more particularly to a pattern position detection method based on pattern matching.

衣料品等の製品を作製する場合、織物、編物、不織布等からなる布帛を裁断して製品の元となるパーツを作成し、作成されたパーツを縫製等により接合するといった工程を経て製品を仕上げることが一般的である。さらに、裁断する前の布帛にあらかじめ柄模様が付与されている場合には、一般に付与された柄模様に合わせて裁断してパーツを作成する。なお、従来、布帛に付与される柄模様は染色処理により作成されていたが、近年では、インクジェット方式の記録装置により柄模様を作成することも提案されている。   When producing clothing and other products, the fabric is finished through a process of cutting fabrics, knitted fabrics, non-woven fabrics, etc. to create the original parts of the product, and joining the created parts by sewing etc. It is common. Furthermore, when a pattern is provided in advance on the fabric before cutting, a part is created by cutting according to the pattern provided in general. Conventionally, the pattern provided to the fabric has been created by a dyeing process. However, in recent years, it has also been proposed to create a pattern by using an ink jet recording apparatus.

柄模様が作成された布帛を裁断する手段としては、従来の手作業による裁断のほか、自動裁断機による裁断が知られている。自動裁断機で裁断する場合には、通常、CAD等の画像処理装置によって設定された所定の裁断データに従って裁断される。柄模様が付与された布帛を実際に裁断する場合、布帛を裁断ステージにセットする際に布帛が歪みやすく、設定された裁断データに対応する柄模様の位置とは異なった位置に布帛の柄模様が付与されていることがある。この場合、実際の柄模様の位置に合わせて裁断位置を補正する必要がある。   As means for cutting a fabric on which a pattern is created, cutting by an automatic cutting machine is known in addition to conventional manual cutting. When cutting with an automatic cutting machine, the cutting is usually performed according to predetermined cutting data set by an image processing apparatus such as CAD. When actually cutting a fabric with a patterned pattern, the fabric tends to be distorted when the fabric is set on the cutting stage, and the patterned pattern of the fabric is different from the position of the patterned pattern corresponding to the set cutting data. May be granted. In this case, it is necessary to correct the cutting position according to the actual pattern position.

しかしながら、布帛に付与された柄模様を認識し裁断位置の補正を行う裁断方法の場合、布帛の表面状態や色材の拡散状態によって柄模様に滲み(これらを以下、ノイズという)が発生し、裁断位置を補正できないという問題があった。   However, in the case of the cutting method for recognizing the pattern pattern applied to the fabric and correcting the cutting position, the pattern pattern bleeds (hereinafter referred to as noise) due to the surface state of the fabric and the diffusion state of the coloring material. There was a problem that the cutting position could not be corrected.

これに対処するため、例えば特許文献1では、画像データ中の濃度が高いノイズを識別し、画像のエッジをぼけさせることなくノイズを除去する方法が記載されている。しかしながら、この方法を用いることにより撮像画像のノイズを低減させることはできるものの、撮像画像のノイズを完全に除去することは極めて困難であった。   In order to cope with this, for example, Patent Document 1 describes a method of identifying noise having high density in image data and removing the noise without blurring the edge of the image. However, although this method can reduce noise in a captured image, it has been extremely difficult to completely remove noise in the captured image.

特開平04−316275号公報JP 04-316275 A

本発明は、このような現状に鑑みてなされたものであって、高精度かつ高速に行うことのできる柄模様位置検出方法を提供することを目的とするものである。   The present invention has been made in view of such a current situation, and an object of the present invention is to provide a pattern position detection method that can be performed with high accuracy and high speed.

本発明は、
基準画像を作成する工程(S101)と、
対象媒体上の柄模様部分を含む位置を撮影した撮像画像を取得する工程(S102)と、
工程S101で作成した基準画像および工程S102で取得した撮像画像を用いて、パターンマッチングによる柄模様位置検出を行う工程(S103)を含んでなる、柄模様位置検出方法である。
The present invention
Creating a reference image (S101);
A step (S102) of acquiring a captured image obtained by photographing a position including a pattern portion on the target medium;
This is a pattern position detection method including a step (S103) of detecting a pattern position by pattern matching using the reference image created in step S101 and the captured image acquired in step S102.

本発明の手法を用いることで、ノイズが発生した対象媒体の撮像画像に対し、高精度かつ高速なパターンマッチングによる柄模様位置検出を行うことが可能となる。   By using the method of the present invention, it is possible to detect a pattern position by high-precision and high-speed pattern matching for a captured image of a target medium in which noise has occurred.

本発明の柄模様位置検出方法に関する処理フローProcess Flow for Pattern Pattern Position Detection Method of the Present Invention 設計画像Design image 対象媒体Target media 設計画像の柄模様付与後の対象媒体Target medium after design pattern has been added 拡散状態のモデル画像((a):t=0、(b):t=1、(c):t=2)Model image in diffusion state ((a): t = 0, (b): t = 1, (c): t = 2) 基準画像Reference image 撮像画像Captured image 基準画像を用いたパターンマッチングによる柄模様位置検出結果Pattern position detection result by pattern matching using reference image 設計画像を用いたパターンマッチングによる柄模様位置検出結果Result of pattern position detection by pattern matching using design image

以下、本発明の実施形態について図面を用いて説明する。なお、以下に説明する実施形態は、本発明を実施するにあたって好ましい具体例であるから、技術的に種々の限定がなされているが、本発明は、以下の説明において特に本発明を限定する旨明記されていない限り、これらの形態に限定されるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The embodiments described below are preferable specific examples for carrying out the present invention, and thus various technical limitations are made. However, the present invention is particularly limited in the following description. Unless otherwise specified, the present invention is not limited to these forms.

以下、設計画像を元データとする柄模様が付与された対象媒体として布帛をあげ、本発明の柄模様位置検出方法について、図1の処理フローに従って説明する。   Hereinafter, a fabric is taken up as a target medium to which a design pattern having a design image as original data is given, and the design pattern position detection method of the present invention will be described according to the processing flow of FIG.

[基準画像の作成(S101)]
対象媒体となる布帛の表面状態や色材の拡散状態によって、付与された柄模様に滲みによるノイズが発生することがある例えば、図2で示す設計画像の柄模様を、図3で示す対象媒体である布帛に付与した場合、図4に示すように、付与された柄模様に色材の拡散によるノイズが発生する。そこで、ステップS101では、布帛に付与された柄模様に発生するノイズを予測し、設計画像に同等のノイズを付与することにより、基準画像を作成する。ノイズを予測する方法としては、例えば、下記式(1)で表わされるFickの第二法則に基づき色材の拡散状態を求めることにより、ノイズ予測を行うことができる。
[Create Reference Image (S101)]
Depending on the surface state of the fabric serving as the target medium and the diffusion state of the color material, noise due to bleeding may occur in the applied pattern. For example, the pattern of the design image shown in FIG. 2 is changed to the target medium shown in FIG. When it is applied to the cloth, as shown in FIG. 4, noise due to diffusion of the color material is generated in the applied pattern. Therefore, in step S101, noise generated in the pattern applied to the fabric is predicted, and a reference image is created by applying equivalent noise to the design image. As a method of predicting noise, for example, noise prediction can be performed by obtaining a color material diffusion state based on Fick's second law expressed by the following equation (1).

ここで、φは色材の濃度、tは時間、x、yは画像中の2次元座標、Dは拡散係数である。 Here, φ is the color material density, t is time, x and y are two-dimensional coordinates in the image, and D is a diffusion coefficient.

式(1)を離散化すると、下記式(2)となる。   When the equation (1) is discretized, the following equation (2) is obtained.

式(2)により、時間t+1の時の位置i,jにおける画素の画素値を計算することができる。設計画像の各画素に対して式(2)を用いることで、各画素の画素値とその隣接画素への拡散を計算することができる。拡散係数Dは対象となる布帛毎に実験値から得ることができるので、あらかじめ対象となりうる媒体の拡散係数Dを測定しておけばよい。拡散係数Dが決まれば、設計画像の各画素に対し式(2)に従い計算することで布帛に付与された柄模様に発生するノイズを予測することができる。   According to Expression (2), the pixel value of the pixel at the position i, j at time t + 1 can be calculated. By using Expression (2) for each pixel of the design image, the pixel value of each pixel and the diffusion to the adjacent pixels can be calculated. Since the diffusion coefficient D can be obtained from experimental values for each target fabric, the diffusion coefficient D of the target medium may be measured in advance. If the diffusion coefficient D is determined, the noise generated in the pattern applied to the fabric can be predicted by calculating according to the expression (2) for each pixel of the design image.

ここで、式(2)による拡散の状態を図5で示すモデル画像により説明する。初期状態t=0の時、中央の画素にのみ画素値がある状態(図5の(a))とする。拡散係数D>0として、これを式(2)に従い時間をt=1に進めると、中央のセルの隣接画素に拡散が生じ(図5の(b))、t=2の時は周囲の画素に拡散していく(図5の(c))。この拡散による滲みがノイズとなる。式(2)に従って設計画像にノイズを付与した画像を、後のステップS103で用いる基準画像(図6)とする。   Here, the state of diffusion according to Equation (2) will be described with reference to the model image shown in FIG. When the initial state t = 0, it is assumed that only the central pixel has a pixel value ((a) in FIG. 5). When the diffusion coefficient D> 0 and the time is advanced to t = 1 according to the equation (2), diffusion occurs in the adjacent pixel of the center cell ((b) in FIG. 5). It diffuses to the pixels ((c) of FIG. 5). This blur due to diffusion becomes noise. An image obtained by adding noise to the design image according to Expression (2) is set as a reference image (FIG. 6) used in the subsequent step S103.

[布帛の撮像画像を取得(S102)]
ステップS102では、設計画像が付与された布帛から撮像画像を取得する。撮像画像の例を図7に示す。
[Acquired Captured Image of Fabric (S102)]
In step S102, a captured image is acquired from the fabric provided with the design image. An example of the captured image is shown in FIG.

[基準画像と撮像画像のパターンマッチングによる柄模様位置検出(S103)]
ステップS103では、ステップS101で作成した基準画像(図6)と、ステップS102で取得した撮像画像(図7)を用いて、パターンマッチングによる柄模様位置検出を行う。パターンマッチングの方法としては公知の手法を用いればよく、特に限定するものではないが、例えば、基準画像をテンプレート画像としたテンプレートマッチングによる方法を用いることができる。
[Detection of pattern position by pattern matching between reference image and captured image (S103)]
In step S103, pattern position detection by pattern matching is performed using the reference image (FIG. 6) created in step S101 and the captured image (FIG. 7) acquired in step S102. A known method may be used as a pattern matching method, and is not particularly limited. For example, a template matching method using a reference image as a template image can be used.

ステップS101で作成した基準画像とステップS102で取得した撮像画像とのテンプレートマッチング結果を図8に示し、検出した柄模様位置を図8内の矩形1で示す。また、本発明との精度比較用に、テンプレート画像に設計画像を用いた場合のテンプレートマッチング結果を図9に示し、検出した柄模様位置を図9内の矩形2で示す。それぞれの検出位置を比較すると、基準画像を用いたテンプレートマッチングでは柄模様が正しく認識されているのに対し、設計画像を用いたテンプレートマッチングでは,検出位置が柄模様に対して数ピクセル右下にズレていることがわかる(図9の円で囲んだ部分)。布帛に発生するノイズが大きい場合、このズレは更に大きくなる。例えば柄模様を認識し裁断位置を補正する裁断方法においては、この数ピクセルのズレが裁断品質を落とすことにつながる。   A template matching result between the reference image created in step S101 and the captured image acquired in step S102 is shown in FIG. 8, and the detected pattern position is indicated by a rectangle 1 in FIG. For accuracy comparison with the present invention, a template matching result when a design image is used as a template image is shown in FIG. 9, and the detected pattern position is indicated by a rectangle 2 in FIG. Comparing each detection position, the pattern pattern is correctly recognized in the template matching using the reference image, whereas in the template matching using the design image, the detection position is several pixels lower right than the pattern pattern. It can be seen that there is a shift (the part surrounded by a circle in FIG. 9). When the noise generated in the fabric is large, this deviation is further increased. For example, in a cutting method for recognizing a pattern and correcting a cutting position, a deviation of several pixels leads to a reduction in cutting quality.

このように、対象媒体のノイズを予測し、予測したノイズを設計画像に付与することによって基準画像を作成し、得られた基準画像をパターンマッチングに用いることで、柄模様位置検出を高精度かつ高速に行うことが可能となる。   In this way, the noise of the target medium is predicted, a reference image is created by adding the predicted noise to the design image, and the obtained reference image is used for pattern matching. It can be performed at high speed.

Claims (1)

基準画像を作成する工程(S101)と、
対象媒体上の柄模様部分を含む位置を撮影した撮像画像を取得する工程(S102)と、
工程S101で作成した基準画像および工程S102で取得した撮像画像を用いて、パターンマッチングによる柄模様位置検出を行う工程(S103)を含んでなる、
柄模様位置検出方法。
Creating a reference image (S101);
A step (S102) of acquiring a captured image obtained by photographing a position including a pattern portion on the target medium;
Using the reference image created in step S101 and the captured image obtained in step S102, including a step (S103) of detecting a pattern position by pattern matching.
Pattern pattern position detection method.
JP2012262500A 2012-11-30 2012-11-30 Pattern position detection method Pending JP2014109799A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012262500A JP2014109799A (en) 2012-11-30 2012-11-30 Pattern position detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012262500A JP2014109799A (en) 2012-11-30 2012-11-30 Pattern position detection method

Publications (1)

Publication Number Publication Date
JP2014109799A true JP2014109799A (en) 2014-06-12

Family

ID=51030425

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012262500A Pending JP2014109799A (en) 2012-11-30 2012-11-30 Pattern position detection method

Country Status (1)

Country Link
JP (1) JP2014109799A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017179630A (en) * 2016-03-29 2017-10-05 セーレン株式会社 Device and method for supporting cutting of fabric

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH081586A (en) * 1994-03-17 1996-01-09 Gerber Garment Technol Inc Device and method for marker locating
JP2010146438A (en) * 2008-12-22 2010-07-01 Nec Corp Positioning apparatus, positioning method, positioning program and cutting apparatus
JP2012193473A (en) * 2011-03-16 2012-10-11 Seiren Co Ltd Fabric cutting device and fabric cutting method

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH081586A (en) * 1994-03-17 1996-01-09 Gerber Garment Technol Inc Device and method for marker locating
JP2010146438A (en) * 2008-12-22 2010-07-01 Nec Corp Positioning apparatus, positioning method, positioning program and cutting apparatus
JP2012193473A (en) * 2011-03-16 2012-10-11 Seiren Co Ltd Fabric cutting device and fabric cutting method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
森本 有紀、外3名: ""拡散,及び,吸着理論に基づいた染色のビジュアルシミュレーション"", 情報処理学会研究報告, vol. 2008, no. 63, JPN6016039525, 30 June 2008 (2008-06-30), JP, pages 13 - 18 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017179630A (en) * 2016-03-29 2017-10-05 セーレン株式会社 Device and method for supporting cutting of fabric

Similar Documents

Publication Publication Date Title
JP2011109637A5 (en)
JP5698042B2 (en) Fabric cutting apparatus and method
JP2014115109A5 (en)
JP2015109559A5 (en)
JP2010056689A5 (en)
JP7214432B2 (en) Image processing method, image processing program, recording medium, image processing apparatus, production system, article manufacturing method
JP2013061850A5 (en)
CN110992425A (en) Image calibration method and device, electronic equipment and storage medium
JP2018191051A5 (en)
WO2015115499A1 (en) Tool inspection method and tool inspection device
JP2007081326A (en) Wiring formation system and method of the same
JP6599698B2 (en) Image measuring apparatus and control program therefor
JP5772675B2 (en) Gray image edge extraction method, edge extraction device, and gray image edge extraction program
JP2014109799A (en) Pattern position detection method
JP6800676B2 (en) Image processing equipment, image processing methods and programs
JP2013195440A5 (en)
CN110738656B (en) Definition evaluation method of certificate photo, storage medium and processor
JP5157575B2 (en) Defect detection method
CN110675356B (en) Embedded image synthesis method based on user intention inference
TWI510776B (en) Bubble inspection processing method for glass
JP2007132868A (en) Apparatus and method for measuring shape of cell on gravure plate
JP2009285997A (en) Image defect detecting method, and image forming apparatus
JP4710562B2 (en) Image processing apparatus and image processing method
JP6647109B2 (en) Fabric cutting support device and method
JP2016045744A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170627