KR20200115714A - Service apparatus and method for generation of embroidery pattern information - Google Patents
Service apparatus and method for generation of embroidery pattern information Download PDFInfo
- Publication number
- KR20200115714A KR20200115714A KR1020190028178A KR20190028178A KR20200115714A KR 20200115714 A KR20200115714 A KR 20200115714A KR 1020190028178 A KR1020190028178 A KR 1020190028178A KR 20190028178 A KR20190028178 A KR 20190028178A KR 20200115714 A KR20200115714 A KR 20200115714A
- Authority
- KR
- South Korea
- Prior art keywords
- embroidery
- embroidery pattern
- image
- pattern information
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 20
- 238000013135 deep learning Methods 0.000 claims abstract description 30
- 238000007726 management method Methods 0.000 claims description 19
- 239000000463 material Substances 0.000 claims description 13
- 238000013500 data storage Methods 0.000 claims description 10
- 230000011218 segmentation Effects 0.000 claims description 5
- 230000000694 effects Effects 0.000 abstract description 5
- 239000003086 colorant Substances 0.000 abstract description 4
- 238000009956 embroidering Methods 0.000 abstract description 3
- 230000004044 response Effects 0.000 abstract description 3
- 238000004519 manufacturing process Methods 0.000 abstract description 2
- 238000003062 neural network model Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
Images
Classifications
-
- D—TEXTILES; PAPER
- D05—SEWING; EMBROIDERING; TUFTING
- D05C—EMBROIDERING; TUFTING
- D05C5/00—Embroidering machines with arrangements for automatic control of a series of individual steps
- D05C5/04—Embroidering machines with arrangements for automatic control of a series of individual steps by input of recorded information, e.g. on perforated tape
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Textile Engineering (AREA)
- Sewing Machines And Sewing (AREA)
Abstract
Description
본 발명은 자수 패턴 정보의 생성을 위한 서비스 장치 및 방법에 관한 것으로서, 더욱 상세히는 자수 대상 이미지를 수신하여 상기 자수 대상 이미지에 포함된 객체별로 하나 이상의 구역으로 분할한 후 구역별로 자수 패턴 및 자수 순서가 결정된 자수 패턴 정보를 제공하여 자수기를 통해 자수 대상 이미지에 대응되는 자수물을 생성할 수 있도록 지원하는 자수 패턴 정보의 생성을 위한 서비스 장치 및 방법에 관한 것이다.The present invention relates to a service apparatus and method for generating embroidery pattern information, and in more detail, after receiving an embroidery target image and dividing it into one or more zones for each object included in the embroidery target image, the embroidery pattern and embroidery sequence for each zone The present invention relates to a service apparatus and method for generating embroidery pattern information that provides the determined embroidery pattern information so that an embroidery material corresponding to an image to be embroidered can be generated through an embroidery machine.
최근 문자나 그림과 같은 이미지를 수신하여 자수기에서 상기 이미지에 대응되는 자수물을 자수(刺繡)하여 생성할 수 있도록 상기 자수기에 상기 이미지와 관련된 자수 패턴 정보를 제공하는 자수용 단말이 제공되고 있다.Recently, an embroidery terminal has been provided that provides embroidery pattern information related to the image to the embroidery machine so that the embroidery machine can generate an embroidery material corresponding to the image by receiving an image such as a text or a picture.
이러한 자수용 단말(10)은 도 1에 도시된 바와 같이 이미지 수신부(11)와, 경로 생성부(12)와, 자동 자수패턴 생성부(13)와, 수동 자수패턴 생성부(14) 및 자수기 관리부(15)를 포함하여 구성될 수 있다.As shown in FIG. 1, the embroidery terminal 10 includes an
상술한 구성을 토대로, 기존 자수용 단말(10)의 동작 구성을 도 2를 통해 설명하면, 이미지 수신부(11)는 자수 대상 이미지를 수신하고, 상기 자동 자수패턴 생성부(13)는 상기 자수 대상 이미지를 객체 단위로 분할하여 자수 패턴 정보를 생성할 수 있다.Based on the above-described configuration, when the operation configuration of the existing embroidery terminal 10 is described with reference to FIG. 2, the
이때, 수동 자수패턴 생성부(14)는 상기 자동 자수패턴 생성부(13)에서 인식되지 않는 상기 자수 대상 이미지에 포함된 객체에 대해 사용자 입력을 기초로 자수 패턴 정보를 생성할 수 있다.In this case, the manual embroidery
또한, 상기 자동 자수패턴 생성부(13) 및 수동 자수패턴 생성부(14)는 자수 패턴 정보를 상기 경로 제공부에 제공하며, 상기 경로 생성부(12)는 자수 패턴 정보에 따라 자수의 경로를 결정하여 경로 정보를 생성한 후 상기 자수 패턴 정보에 포함시킬 수 있다.In addition, the automatic embroidery
또한, 상기 자수기 관리부(15)는 상기 자수 패턴 정보를 상기 자수기(20)에 제공하며, 상기 자수기(20)는 상기 자수 패턴 정보에 따라 자수를 수행하여 자수 대상 이미지에 대응되는 자수물을 생성할 수 있다.In addition, the
상술한 기존 자수용 단말(10)에 의해 생성된 자수물은 도 3에 도시된 바와 같은 결과물로서 제공될 수 있으나, 단순 객체 단위로 분할하는 경우 하나의 객체를 끊김없는 단일 작업으로 자수해야 하므로 연결이 매끄럽지 않아 자수 전문가가 직접 수작업으로 작업한 자수와 차이가 상당하므로 결과물에 대한 만족도가 떨어지는 문제가 있다.The embroidery created by the above-described conventional embroidery terminal 10 may be provided as a result as shown in FIG. 3, but when it is divided into simple object units, one object must be embroidered in a single seamless operation, so the connection Since this is not smooth, there is a problem that the satisfaction with the result is poor because the difference is significant from the embroidery that the embroidery expert has done by hand.
일례로, 도 3에 도시된 바와 같이 기존의 자수용 단말(10)은 객체 단위로 처리하여 자수 패턴을 생성하므로 자수기에서 자수 수행시 객체를 단일 자수 처리함에 따라 곡선 부분과 같은 부분에서 마감이 매끄럽지 않은 문제가 있을 뿐만 아니라 단위 객체에 적용할 수 있는 자수 패턴의 종류에 한계가 있어 자수가 단조로운 문제가 있다.As an example, as shown in FIG. 3, the existing embroidery terminal 10 generates an embroidery pattern by processing in an object unit, so when the embroidery machine performs embroidery, the object is single-embroidered, so that the finish is not smooth in a part such as a curved part. There is a problem in which embroidery is monotonous as there is a problem not only that there is a problem, but also the type of embroidery pattern that can be applied to a unit object is limited.
본 발명은 자수 대상 이미지에 포함된 객체를 하나 이상의 구역으로 분할하여 객체의 구역 분할 상태와 단위 구역별 자수 패턴 및 자수의 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 자수 대상 이미지를 적용하여 자수 대상 이미지에 포함된 객체를 구역 단위로 분할하여 구역별로 자수 패턴과 자수 순서가 설정된 자수 패턴 정보가 자동 생성되도록 하고 상기 자수 패턴 정보를 기초로 자수기를 통해 자수물이 생성되도록 함으로써, 전문가가 직접 수작업으로 자수한 결과물과 차이가 미미한 자수물이 제공되도록 하는데 그 목적이 있다.The present invention divides an object included in an image to be embroidered into one or more zones to embroider by applying the image to be embroidered to a deep learning algorithm in which the correlation between the zone division state of the object and the embroidery pattern per unit zone and the order of embroidery is learned. By dividing the object included in the target image into zones, the embroidery pattern and embroidery pattern information in which the order of embroidery is set for each zone are automatically generated, and the embroidery material is created through an embroidery machine based on the embroidery pattern information, so that the expert can do it manually. The purpose is to provide the result of embroidery with little difference from the result of embroidery.
또한, 본 발명은 자수 대상 이미지에 포함된 객체를 구역 단위로 분할하여 구역별로 자수 처리가 가능하도록 자수 패턴을 생성함으로써, 객체에 대응되는 자수물의 마감 처리가 용이할 뿐만 아니라 구역 상호 간 자수 패턴이나 색상을 상이하게 적용할 수 있도록 지원하는데 그 목적이 있다.In addition, the present invention divides the object included in the image to be embroidered into zones and creates an embroidery pattern so that embroidery can be processed for each zone, thereby facilitating the finishing treatment of embroidery corresponding to the object, as well as cross-section embroidery patterns or Its purpose is to support different colors to be applied.
본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치는, 하나 이상의 객체가 포함된 자수 대상 이미지를 수신하는 이미지 수신부와, 상기 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 상기 자수 대상 이미지를 적용하여 상기 자수 대상 이미지에 포함된 객체별로 구역 분할 상태와 하나 이상의 구역별 자수 패턴 및 구역간 자수 순서에 대한 자수 패턴 정보를 생성하는 자동 자수패턴 생성부 및 상기 자수 패턴 정보를 자수기에 전송하여 상기 자수 대상 이미지에 대응되는 자수물이 생성되도록 하는 자수기 관리부를 포함할 수 있다.A service apparatus for generating embroidery pattern information according to an embodiment of the present invention includes an image receiving unit for receiving an image to be embroidered including one or more objects, a zone division state in which the object is divided into one or more zones, and each zone By applying the image to be embroidered to a deep learning algorithm in which the correlation between the embroidery pattern and the order of embroidery between the regions is learned, the state of zone division for each object included in the image to be embroidery, and the embroidery pattern for each region and the order of embroidery between regions An automatic embroidery pattern generation unit for generating embroidery pattern information for, and an embroidery machine management unit for transmitting the embroidery pattern information to an embroidery machine to generate an embroidery material corresponding to the image to be embroidered.
본 발명과 관련된 일 예로서, 상기 객체는 문자, 숫자, 도형 중 어느 하나인 것을 특징으로 할 수 있다.As an example related to the present invention, the object may be any one of letters, numbers, and figures.
본 발명과 관련된 일 예로서, 상기 분할 정보는 구역별 색상을 더 포함하는 것을 특징으로 할 수 있다.As an example related to the present invention, the segmentation information may further include a color for each area.
본 발명과 관련된 일 예로서, 복수의 서로 다른 객체별로 객체를 하나 이상의 구역으로 분할한 분할 정보와 상기 구역별 자수 패턴 및 상기 구역 간 자수 순서를 포함하는 실재 자수 데이터를 상기 자동 자수패턴 생성부에 제공하는 자수 데이터 저장부를 더 포함하고, 상기 자동 자수패턴 생성부는 상기 실재 자수 데이터를 상기 딥러닝 알고리즘에 학습시켜 상기 상관 관계가 상기 딥러닝 알고리즘에 설정되도록 동작하는 것을 특징으로 할 수 있다.As an example related to the present invention, the automatic embroidery pattern generating unit includes division information obtained by dividing an object into one or more zones for each of a plurality of different objects, and real embroidery data including the embroidery pattern for each zone and the order of embroidery between the zones. It may further include a providing embroidery data storage unit, wherein the automatic embroidery pattern generation unit is operable to learn the real embroidery data by the deep learning algorithm so that the correlation is set in the deep learning algorithm.
본 발명과 관련된 일 예로서, 서로 다른 신경망 모델인 생성 모델과 지도 학습 모델을 포함하여 구성되고, 상기 생성 모델과 상기 지도 학습 모델 각각에 상기 실재 자수 데이터를 학습시켜 객체별 상기 실재 자수 데이터에 근거한 데이터 패턴과 유사한 유사 데이터 패턴이 학습된 상기 생성 모델을 통해 상기 유사 데이터 패턴을 기초로 객체에 대한 상기 실재 자수 데이터와 유사한 추정 자수 데이터를 산출하고, 상기 상관 관계가 학습된 상기 지도 학습 모델을 통해 상기 추정 자수 데이터에 대한 오류 판정을 수행한 후 상기 오류 판정 관련 결과를 상기 생성 모델에 학습시켜 상기 생성 모델에 설정되는 유사 데이터 패턴의 가변을 통해 상기 추정 자수 데이터와 실재 자수 데이터 사이의 오차를 감소시키며, 상기 자동 자수패턴 생성부와 연동하여 상기 자수 대상 이미지에 포함된 객체 중 상기 자동 자수패턴 생성부에서 상기 자수 패턴 정보의 생성에 실패한 특정 객체 존재시 상기 생성 모델을 통해 상기 특정 객체의 추정 자수 데이터를 산출하여 상기 자수기 관리부에 상기 자수 패턴 정보로 제공하는 유사 자수패턴 제공부를 더 포함하는 것을 특징으로 할 수 있다.As an example related to the present invention, it is configured to include a generation model and a supervised learning model, which are different neural network models, and learn the real embroidery data in each of the generated model and the supervised learning model, and based on the real embroidery data for each object. Through the generation model in which a similar data pattern similar to a data pattern is learned, estimated embroidery data similar to the real embroidery data for an object is calculated based on the similar data pattern, and the supervised learning model in which the correlation is learned. After performing an error determination on the estimated embroidery data, the error determination-related result is learned in the generation model to reduce an error between the estimated embroidery data and the actual embroidery data through the variation of the similar data pattern set in the generated model. In connection with the automatic embroidery pattern generation unit, when there is a specific object in which the automatic embroidery pattern generation unit fails to generate the embroidery pattern information among objects included in the image to be embroidery, estimated embroidery of the specific object through the generation model It may further include a similar embroidery pattern providing unit for calculating data and providing the embroidery pattern information to the embroidery machine manager.
본 발명과 관련된 일 예로서, 상기 자동 자수패턴 생성부로부터 수신된 자수 패턴 정보에 따른 객체의 배치 위치와 상기 구역별 자수 패턴 및 자수 순서를 기초로 자수의 경로에 대한 경로 정보를 객체별로 생성한 후 상기 경로 정보에 대응되는 객체의 자수 패턴 정보에 포함시켜 상기 자수기 관리부에 제공하는 경로 생성부를 더 포함하는 것을 특징으로 할 수 있다.As an example related to the present invention, path information for an embroidery path is generated for each object based on the arrangement position of the object according to the embroidery pattern information received from the automatic embroidery pattern generation unit, the embroidery pattern for each area, and the order of embroidery. Then, it may further include a path generating unit that is provided to the embroidery machine manager by including in the embroidery pattern information of the object corresponding to the path information.
본 발명과 관련된 일 예로서, 상기 자동 자수패턴 생성부는 상기 딥러닝 알고리즘을 통해 상기 자수 대상 이미지에 포함된 특정 객체에 대한 자수 패턴 정보의 생성에 실패한 경우 상기 자수 대상 이미지에서 상기 특정 객체를 식별한 식별 정보를 생성하여 제공하고, 상기 자동 자수패턴 생성부로부터 상기 자수 대상 이미지 및 상기 식별정보를 수신하여 상기 특정 객체를 상기 자수 대상 이미지에서 다른 객체와 구분하여 표시하고, 사용자 입력을 기초로 상기 특정 객체에 대한 자수 패턴 정보를 생성하여 상기 자수기 관리부에 제공하는 수동 자수패턴 생성부를 더 포함하는 것을 특징으로 할 수 있다.As an example related to the present invention, the automatic embroidery pattern generation unit identifies the specific object in the embroidery target image when the generation of embroidery pattern information for a specific object included in the embroidery target image fails through the deep learning algorithm. It generates and provides identification information, receives the embroidery target image and the identification information from the automatic embroidery pattern generation unit, displays the specific object separately from other objects in the embroidery target image, and displays the specific object based on user input. It may be characterized in that it further comprises a manual embroidery pattern generation unit to generate the embroidery pattern information for the object to provide to the embroidery machine manager.
본 발명의 실시예에 따른 서비스 장치의 자수 패턴 정보의 생성을 위한 서비스 방법은, 하나 이상의 객체가 포함된 자수 대상 이미지를 수신하는 단계와, 상기 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 상기 자수 대상 이미지를 적용하여 상기 자수 대상 이미지에 포함된 객체별로 구역 분할 상태와 하나 이상의 구역별 자수 패턴 및 구역간 자수 순서에 대한 자수 패턴 정보를 생성하는 단계 및 상기 자수 패턴 정보를 자수기에 전송하여 상기 자수 대상 이미지에 대응되는 자수물이 생성되도록 하는 단계를 포함할 수 있다.A service method for generating embroidery pattern information of a service device according to an embodiment of the present invention includes the steps of receiving an image to be embroidered including one or more objects, a zone division state in which the object is divided into one or more zones, and the By applying the embroidery target image to a deep learning algorithm in which the correlation between the embroidery patterns for each zone and the order of embroidery between zones is learned, the zone division status for each object included in the embroidery target image and one or more zone-specific embroidery patterns and zones The method may include generating embroidery pattern information on an embroidery order, and transmitting the embroidery pattern information to an embroidery machine so that an embroidery material corresponding to the image to be embroidery is generated.
본 발명은 객체별로 하나 이상의 구역으로 분할하여 객체의 구역 분할 상태와 구역별 자수 패턴 및 구역 간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 자수 대상 이미지를 적용하여 자수 대상 이미지에 포함된 객체를 구역 단위로 분할하여 자수하기 위한 자수 패턴 정보가 생성되도록 하고 상기 자수 패턴 정보를 기초로 자수기를 통해 자수물이 생성되도록 함으로써, 객체를 구역별로 자수 처리가 가능하도록 지원하여 객체에 대응되는 자수물의 마감 처리가 용이할 뿐만 아니라 구역 상호 간 자수 패턴이나 색상을 상이하게 적용할 수 있도록 지원함으로써 객체에 대응되어 생성되는 실재 자수물에 다양한 자수 효과를 용이하게 적용할 수 있도록 지원함과 아울러 전문가가 직접 수작업으로 자수한 결과물과 차이가 미미한 자수물을 제공하여 사용자 만족도를 높이는 효과가 있다.The present invention is an object included in the image to be embroidered by applying an image to be embroidered to a deep learning algorithm in which the correlation between the zone division state of the object and the embroidery pattern for each zone and the order of embroidery between zones is learned by dividing each object into one or more zones. The embroidery pattern information for embroidering is generated by dividing the unit into zones, and the embroidery material is created through an embroidery machine based on the embroidery pattern information. Not only is it easy to finish, but it also supports the application of different embroidery patterns or colors between zones, so that various embroidery effects can be easily applied to the actual embroidery created in response to the object, as well as manual work by experts. There is an effect of enhancing user satisfaction by providing embroidery with a slight difference from the result of embroidered by using.
또한, 본 발명은 기존에 학습된 객체들과 유사하지 조차 않은 새로운 형태의 객체에 대해서도 신경망 모델을 통해 인공적으로 자수 전문가가 작업한 경우를 가정한 자수 패턴 정보를 생성하여 제공할 수 있으므로, 객체의 형태에 구애 없이 전문가 수준의 자수물을 제공할 수 있는 효과가 있다.In addition, the present invention can generate and provide embroidery pattern information assuming that an embroidery expert has artificially worked through a neural network model for a new type of object that is not even similar to the previously learned objects. It has the effect of being able to provide expert-level embroidery regardless of shape.
도 1의 기존 자수용 단말의 구성도.
도 2는 기존 자수용 단말의 동작 순서도.
도 3은 기존 자수용 단말에 의해 생성된 자수 패턴 정보에 따른 자수 결과물에 대한 예시도.
도 4는 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치의 동작 순서도.
도 5는 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치에 의해 생성된 자수 패턴 정보에 따른 자수 결과물에 대한 예시도.
도 6은 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치의 상세 구성도.
도 7은 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치에 학습되는 실재 자수 데이터의 예시도.
도 8은 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치에서 자수 패턴 정보 생성 과정에 대한 동작 예시도.
도 9는 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치에서 추정 자수 데이터의 생성 과정에 대한 동작 예시도.
도 10은 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 방법에 대한 동작 순서도.Configuration of the existing embroidery terminal of Figure 1;
Figure 2 is a flow chart of the operation of the existing embroidery terminal.
3 is an exemplary view of an embroidery result according to information on an embroidery pattern generated by an existing embroidery terminal.
4 is a flowchart illustrating an operation of a service device for generating embroidery pattern information according to an embodiment of the present invention.
5 is an exemplary view of an embroidery result according to the embroidery pattern information generated by a service device for generating embroidery pattern information according to an embodiment of the present invention.
6 is a detailed configuration diagram of a service device for generating embroidery pattern information according to an embodiment of the present invention.
7 is an exemplary view of actual embroidery data learned by a service device for generating embroidery pattern information according to an embodiment of the present invention.
8 is a diagram illustrating an operation of a process of generating embroidery pattern information in a service device for generating embroidery pattern information according to an embodiment of the present invention.
9 is a diagram illustrating an operation of generating estimated embroidery data in a service device for generating embroidery pattern information according to an embodiment of the present invention.
10 is a flowchart illustrating a service method for generating embroidery pattern information according to an embodiment of the present invention.
이하, 도면을 참고하여 본 발명의 상세 실시예를 설명한다.Hereinafter, detailed embodiments of the present invention will be described with reference to the drawings.
도 4는 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치(100)의 동작 예시도로서, 도시된 바와 같이 상기 서비스 장치(100)는 자수 대상 이미지를 수신하고, 객체를 하나 이상의 구역으로 분할한 객체의 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 상기 자수 대상 이미지를 적용하여 상기 딥러닝 알고리즘을 통해 상기 자수 대상 이미지에 포함된 객체별로 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 하나 이상의 구역별 자수 패턴 및 구역 간 자수 순서에 대한 자수 패턴 정보(또는 자수 정보)를 생성할 수 있다.4 is an exemplary view of the operation of the service device 100 for generating embroidery pattern information according to an embodiment of the present invention. As shown, the service device 100 receives an image to be embroidered and selects one or more objects. The embroidery target image is applied to the deep learning algorithm in which the correlation between the zone division state of the object divided into zones, the embroidery pattern for each zone, and the embroidery order between zones is learned, and the embroidery target image is applied to the embroidery target image through the deep learning algorithm. For each included object, embroidery pattern information (or embroidery information) about a zone division state in which an object is divided into one or more zones, an embroidery pattern for one or more zones, and an embroidery order between zones may be generated.
또한, 상기 서비스 장치(100)는 상기 자수 대상 이미지의 객체별로 얻어진 자수 패턴 정보를 상기 서비스 장치(100)와 연결되는 자수기(200)로 전송하며, 상기 자수기(200)는 상기 자수 대상 이미지에 포함된 객체별로 수신된 자수 패턴 정보에 따라 자수(刺繡)를 수행하여 자수물을 생성할 수 있다.In addition, the service device 100 transmits the embroidery pattern information obtained for each object of the embroidery target image to the
즉, 도 5에 도시된 바와 같이, 본 발명의 실시예에 따른 서비스 장치(100)는 자수 전문가가 자수 대상 이미지를 확인하고, 자수 대상 이미지에 포함된 객체를 하나 이상의 구역으로 분할하여 구역별 자수 순서와 자수 패턴을 설정한 후 자수물을 작업하는 자수 전문가의 자수 방식과 유사하게 상기 자수기(200)에 의해 자수가 이루어지도록 상기 자수 패턴 정보를 상기 자수기(200)에 제공할 수 있으며, 이를 통해 자수 전문가가 작업한 결과물과 최대한 유사한 자수물이 제공되도록 지원함으로써 사용자의 만족도를 높일 수 있다.That is, as shown in FIG. 5, in the service apparatus 100 according to an embodiment of the present invention, the embroidery expert checks the image to be embroidered, and divides the object included in the image to be embroidered into one or more regions to embroider each region. After setting the order and embroidery pattern, the embroidery pattern information may be provided to the
이하 도면을 참고하여 상기 서비스 장치(100)의 상세 구성 및 동작 예시를 설명한다.Hereinafter, a detailed configuration and operation example of the service device 100 will be described with reference to the drawings.
도 6은 본 발명의 실시예에 따른 서비스 장치(100)의 구성도로서, 도시된 바와 같이, 이미지 수신부(110)와, 경로 생성부(120)와, 자동 자수패턴 생성부(130)와, 수동 자수패턴 생성부(140)와, 유사 자수패턴 생성부(150)와, 자수데이터 저장부(160) 및 자수기 관리부(170)를 포함하여 구성될 수 있다.6 is a configuration diagram of a service device 100 according to an embodiment of the present invention, as shown, an
이때, 이미지 수신부(110)와, 경로 생성부(120)와, 자동 자수패턴 생성부(130)와, 수동 자수패턴 생성부(140)와, 유사 자수패턴 생성부(150)와, 자수데이터 저장부(160) 및 자수기 관리부(170) 중 어느 하나가 상기 서비스 장치(100)의 전반적인 제어 기능을 수행하는 제어부로서 구성될 수 있다.At this time, the
또한, 상기 제어부는 상기 제어부는 상기 자수 데이터 저장부(160)에 저장된 프로그램 및 데이터를 이용하여 상기 서비스 장치(100)의 전반적인 제어 기능을 실행하고, 제어부는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다.In addition, the control unit executes an overall control function of the service device 100 using programs and data stored in the embroidery
상술한 구성을 토대로 상기 서비스 장치(100)에 구성된 각 구성부의 상세 동작 구성을 설명하면, 우선, 상기 이미지 수신부(110)는 외부 장치로부터 자수 대상 이미지를 수신하거나 사용자 입력에 따라 상기 자수 대상 이미지를 수신할 수 있다.Based on the above-described configuration, the detailed operation configuration of each component configured in the service device 100 will be described. First, the
또한, 자수데이터 저장부(160)는 복수의 서로 다른 객체별로 객체를 하나 이상의 구역으로 분할한 구역 분할 상태에 대한 분할 정보와 상기 구역별 자수 패턴 및 상기 구역 간 자수 순서를 포함하는 실재 자수 데이터를 저장할 수 있다.In addition, the embroidery
이때, 도 7을 참고하여 상기 실재 자수 데이터의 예를 설명하면, 도시된 바와 같이 상기 실재 자수 데이터는 자수 전문가가 객체에 대해 자수한 결과물과 동일한 자수물이 생성되도록 하기 위한 자수 데이터로서, 상기 객체를 하나 이상의 구역으로 분할한 구역 분할 상태에 대한 분할 정보와, 상기 구역별로 자수 전문가의 자수에 의한 자수 패턴에 대한 정보와, 상기 구역별로 자수 전문가의 자수시에 결정되는 자수 순서와 동일한 구역 간 자수 순서(또는 구역별 자수 순서)에 대한 정보를 포함할 수 있다.In this case, an example of the real embroidery data will be described with reference to FIG. 7. As shown, the real embroidery data is embroidery data for generating the same embroidery as the result of embroidery on an object by an embroidery expert, and the object Division information on the state of division into one or more areas, information on the embroidery pattern by the embroidery expert's embroidery for each area, and embroidery between areas that are the same as the embroidery order determined at the time of embroidery by the embroidery expert for each area It may include information on the order (or the order of embroidery by region).
또한, 상기 분할 정보는 객체의 형상에 따라 하나 이상의 구역으로 분할된 객체의 구역 분할 상태에 대한 정보를 포함할 수 있으며, 상기 구역 분할 상태는 구역별 색상을 더 포함하여 구성될 수 있다. 이때, 상기 구역 분할 상태는 객체에 대한 하나 이상의 구역별 배치 상태(또는 배치 패턴)을 의미할 수 있다.In addition, the segmentation information may include information on a segmentation state of an object divided into one or more regions according to the shape of the object, and the segmentation state may further include a color for each region. In this case, the zone division state may mean an arrangement state (or arrangement pattern) of one or more zones for the object.
또한, 상기 자수데이터 저장부(160)는 상기 실재 자수 데이터를 상기 자동 자수패턴 생성부(130)에 제공할 수 있다.In addition, the embroidery
이때, 상기 객체는 문자, 숫자, 도형 등과 같은 다양한 형태로 구성될 수 있다.In this case, the object may be configured in various forms such as letters, numbers, and figures.
한편, 도 8은 자동 자수패턴 생성부(130)의 동작 예시도로서, 도시된 바와 같이, 상기 자동 자수패턴 생성부(130)에는 딥러닝(Deep Learning) 알고리즘이 설정되어 구성될 수 있으며, 상기 자수데이터 저장부(160)에 저장되는 실재 자수 데이터를 상기 딥러닝 알고리즘에 학습시켜 상기 분할 정보에 따른 객체의 구역 분할 상태와 상기 구역별 자수 패턴 및 상기 구역 간 자수 순서(객체의 구역 분할 상태에 따른 구역별로 결정된 자수 순서) 사이의 상관 관계가 상기 딥러닝 알고리즘에 학습되도록 할 수 있다.On the other hand, FIG. 8 is an exemplary view of the operation of the automatic embroidery
이때, 상기 딥러닝 알고리즘은 하나 이상의 신경망 모델로 구성될 수 있으며, 상기 신경망 모델(또는 신경망)은 입력층(Input Layer), 하나 이상의 은닉층(Hidden Layers) 및 출력층(Output Layer)으로 구성될 수 있다.At this time, the deep learning algorithm may be composed of one or more neural network models, and the neural network model (or neural network) may be composed of an input layer, one or more hidden layers, and an output layer. .
또한, 상기 신경망 모델의 일례로서 DNN(Deep Neural Network), RNN(Recurrent Neural Network), CNN(Convolutional Neural Network), SVM(Support Vector Machine) 등과 같은 다양한 종류의 신경망이 적용될 수 있으며, 상기 딥러닝 알고리즘에는 CNN이 적용되는 것이 바람직하다.In addition, as an example of the neural network model, various types of neural networks such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), CNN (Convolutional Neural Network), SVM (Support Vector Machine), etc. can be applied, and the deep learning algorithm It is preferable that CNN is applied to.
상술한 구성에 따라, 상기 자동 자수패턴 생성부(130)는 상기 이미지 수신부(110)로부터 수신되는 자수 대상 이미지를 상기 딥러닝 알고리즘에 적용할 수 있으며, 상기 딥러닝 알고리즘을 통해 상기 자수 대상 이미지에 포함된 객체별로 상기 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서를 포함하는 자수 패턴 정보를 생성할 수 있다.According to the above-described configuration, the automatic embroidery
즉, 상기 자동 자수패턴 생성부(130)는 상기 자수 대상 이미지에서 하나 이상의 객체를 식별하고, 상기 자수 대상 이미지에 포함되어 식별된 객체별로 상기 딥러닝 알고리즘을 통해 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 상기 구역 분할 상태에 따른 객체의 구역별 자수 패턴 및 상기 구역 분할 상태에 따른 객체에 구성된 하나 이상의 구역 각각의 자수 순서에 대한 자수 패턴 정보를 생성하여 제공할 수 있다.That is, the automatic embroidery
한편, 자수기 관리부(170)는 상기 자동 자수패턴 생성부(130)로부터 수신되는 자수 대상 이미지에 포함된 객체별 자수 패턴 정보를 수신하여 실재 자수를 수행하는 자수기(200)에 전송할 수 있으며, 도 5에 도시된 바와 같이, 자수기(200)는 상기 자수 패턴 정보를 기초로 자수를 실제로 수행하여 상기 자수 대상 이미지에 대응되는 자수물을 생성할 수 있다.Meanwhile, the embroidery
이때, 상기 자동 자수패턴 생성부(130)는 자수 대상 이미지에서 식별된 객체별로 배치 영역 또는 배치 위치에 대한 배치 정보를 상기 자수 패턴 정보에 포함시킬 수 있다.In this case, the automatic embroidery
상술한 구성에 따라, 상기 자수기(200)는 상기 객체별 자수 패턴 정보에 포함된 배치 정보를 기초로 자수 대상 이미지에 나타난 객체별 배치 패턴과 동일한 객체별 배치 패턴으로 자수된 자수물을 생성할 수 있다.According to the above-described configuration, the
이때, 상기 자수기(200)는 상기 자수 패턴 정보에 포함된 객체의 구역별 색상에 따라 객체의 구역별로 설정된 색상과 동일한 색상의 실을 이용하여 객체를 자수할 수 있다.In this case, the
상술한 구성을 통해, 본 발명은 객체별로 하나 이상의 구역으로 분할하여 구역별 자수 패턴과 자수의 순서 및 구역 분할 상태 사이의 상관 관계가 학습된 딥러닝 알고리즘에 자수 대상 이미지를 적용하여 자수 대상 이미지에 포함된 객체를 구역 단위로 분할하여 자수하기 위한 자수 패턴 정보가 생성되도록 하고 상기 자수 패턴 정보를 기초로 자수기를 통해 자수물이 생성되도록 함으로써, 객체를 구역별로 자수 처리가 가능하도록 지원하여 객체에 대응되는 자수물의 마감 처리가 용이할 뿐만 아니라 구역별로 색상을 상이하게 적용할 수 있도록 지원함으로써 객체에 대응되어 생성되는 실재 자수물에 다양한 자수 효과를 용이하게 적용할 수 있도록 지원함과 아울러 자수 전문가가 직접 수작업으로 자수한 결과물과 차이가 미미한 자수물을 제공하여 사용자 만족도를 높일 수 있다.Through the above-described configuration, the present invention applies the image to be embroidered to the image to be embroidered by applying the image to be embroidered to a deep learning algorithm in which the correlation between the embroidery pattern for each region and the order of embroidery and the state of region division is learned by dividing it into one or more regions for each object Embroidery pattern information for embroidery is generated by dividing the included object into zones, and the embroidery material is created through an embroidery machine based on the embroidery pattern information, so that the object can be embroidered for each zone to correspond to the object. Not only is it easy to finish the finished embroidery, but it also supports the application of different colors for each area, so that various embroidery effects can be easily applied to the actual embroidery created in response to the object, and the embroidery expert can do it manually. User satisfaction can be improved by providing embroidery with little difference from the result of embroidery.
한편, 상술한 구성에서, 상기 자수기(200)의 자수 정확도를 높이기 위해 상기 서비스 장치(100)는 자수의 경로에 대한 경로 정보를 생성하는 경로 생성부(120)를 더 포함할 수 있다.Meanwhile, in the above-described configuration, in order to increase the accuracy of embroidery of the
상기 경로 생성부(120)는 상기 자수 대상 이미지에 대응되어 상기 자동 자수패턴 생성부(130)로부터 객체별 자수 패턴 정보를 수신할 수 있다.The
이에 따라, 상기 경로 생성부(120)는 상기 자동 자수패턴 생성부(130)로부터 수신된 자수 패턴 정보에 따른 객체의 배치 위치(또는 배치 영역)와 상기 구역별 자수 패턴 및 자수 순서를 기초로 자수의 경로에 대한 경로 정보를 객체별로 생성한 후 상기 경로 정보에 대응되는 객체의 자수 패턴 정보에 포함시켜 상기 자수기 관리부(170)에 제공할 수 있다.Accordingly, the
이를 통해, 상기 자수기 관리부(170)로부터 경로 정보가 포함된 자수 패턴 정보를 수신한 상기 자수기(200)는 상기 경로 정보에 따라 자수를 수행하여 자수의 정확도를 높일 수 있다.Through this, the
한편, 상기 자동 자수패턴 생성부(130)에서 실재 자수 데이터를 기반으로 학습된 딥러닝 알고리즘을 통해 자수 대상 이미지에 대응되어 객체별 자수 패턴 정보 생성시 기존에 학습된 객체들과 형태가 완전히 상이한 새로운 특정 객체가 자수 대상 이미지에 포함되어 상기 자동 자수패턴 생성부(130)에서 상기 특정 객체와 유사한 객체를 특정 또는 식별하지 못해 상기 특정 객체에 대해 자수 패턴 정보를 생성하지 못하거나 상기 특정 객체와의 유사도가 낮은 객체를 기반으로 생성한 자수 패턴 정보를 제공함으로써 상기 특정 객체에 대한 자수 패턴 정보의 생성의 실패한 경우 상기 특정 객체에 대한 자수가 제대로 이루어지지 못하는 경우가 발생할 수 있다.On the other hand, the automatic embroidery
이를 해결하기 위한 일 실시예로서, 상기 서비스 장치(100)는 사용자 입력에 따라 자수 패턴 정보를 생성하는 수동 자수패턴 생성부(140)를 포함할 수 있다.As an embodiment for solving this problem, the service device 100 may include a manual embroidery
즉, 상기 자동 자수패턴 생성부(130)는 상기 딥러닝 알고리즘을 통해 상기 자수 대상 이미지에 포함된 특정 객체에 대한 자수 패턴 정보의 생성에 실패한 경우 상기 자수 대상 이미지에서 상기 특정 객체를 식별한 식별 정보를 생성하여 상기 수동 자수패턴 생성부(140)로 제공할 수 있다.That is, when the automatic embroidery
또한, 상기 수동 자수패턴 생성부(140)는 상기 자동 자수패턴 생성부(130)로부터 상기 자수 대상 이미지 및 상기 식별정보를 수신하여 상기 자수 대상 이미지에서 자수 패턴 정보의 생성에 실패한 특정 객체를 상기 식별정보를 기초로 다른 객체와 구분되도록 가시적으로 표시할 수 있다.In addition, the manual embroidery
이때, 상기 수동 자수패턴 생성부(140)는 디스플레이와 같은 외부 표시 장치와 연결되어 상기 특정 객체가 구분 표시된 자수 대상 이미지를 상기 외부 표시 장치에 출력하여 표시할 수 있다.In this case, the manual embroidery
또한, 상기 수동 자수패턴 생성부(140)는 사용자 입력을 수신하며, 사용자 입력을 기초로 상기 특정 객체에 대한 자수 패턴 정보를 생성하여 상기 자수기 관리부(170)에 제공할 수 있다.In addition, the manual embroidery
이에 따라, 상기 자수기 관리부(170)는 상기 자동 자수패턴 생성부(130)로부터 자동으로 생성된 자수 패턴 정보를 수신하고, 상기 수동 자수패턴 생성부(140)로부터 사용자 입력에 따라 수동으로 생성된 자수 패턴 정보를 수신하여 상기 자수기 관리부(170)에 제공할 수 있으며, 상기 자수기 관리부(170)는 상기 자동 및 수동으로 생성된 자수 패턴 정보를 상기 자수기(200)에 전송하여 상기 자수기(200)에 의해 상기 특정 객체에 대한 자수가 이루어지도록 동작할 수 있다.Accordingly, the embroidery
또한, 상기 자동 자수패턴 생성부(130)를 통해 자수 패턴 정보의 자동 생성에 실패한 특정 객체에 대해 자수 패턴 정보를 생성하기 위한 다른 실시예로서, 상기 서비스 장치(100)는 상기 실재 자수 데이터를 학습하여 자수 전문가가 작업한 사실이 없는 상기 특정 객체에 대해 상기 실재 자수 데이터와 유사한 가상의 추정 자수 데이터를 생성하는 유사 자수패턴 생성부(150)를 더 포함하여 상기 유사 자수 패턴 생성부를 통해 상기 자동 자수패턴 생성부(130)에서 자수 패턴 정보의 생성에 실패한 특정 객체에 대해 자수 전문가가 상기 특정 객체를 자수할 경우에 예상되는 결과물에 대한 자수 패턴 정보를 자동으로 생성하여 제공함으로써, 상기 딥러닝 알고리즘에 학습되지 않은 객체에 대해서도 용이하게 자수 패턴 정보를 자동으로 생성하여 제공할 수 있는데 이를 상기 유사 패턴정보 생성부의 구성을 나타낸 도 9와 상기 유사 패턴정보 생성부를 포함하는 서비스 장치(100)의 동작 순서도인 도 10을 통해 상세히 설명한다.In addition, as another embodiment for generating embroidery pattern information for a specific object that fails to automatically generate embroidery pattern information through the automatic embroidery
도 9 및 도 10에 도시된 바와 같이, 상기 자동 자수패턴 생성부(130)는 상기 이미지 수신부(110)로부터 수신되는 자수 대상 이미지를 상기 딥러닝 알고리즘에 적용하여 상기 자수 대상 이미지에서 식별된 객체별로 자수 패턴 정보를 생성할 수 있다(S1, S2).9 and 10, the automatic embroidery
이때, 상기 자동 자수패턴 생성부(130)는 상기 자수 대상 이미지에 포함된 하나 이상의 객체 중 자수 패턴 정보의 생성에 실패한 특정 객체가 존재하는 경우 상기 특정 객체를 자수 대상 이미지에서 식별하여 상기 특정 객체 관련 식별정보를 생성할 수 있다.In this case, the automatic embroidery
또한, 상기 유사 자수패턴 생성부(150)는 상기 자동 자수패턴 생성부(130)와 연동할 수 있으며, 상기 자동 자수패턴 생성부(130)에서 상기 식별정보 생성시 상기 자동 자수패턴 생성부(130)로부터 상기 식별 정보와 자수 대상 이미지를 수신하여 상기 자수 대상 이미지에서 상기 특정 객체를 식별할 수 있다.In addition, the similar embroidery
이때, 상기 유사 자수패턴 생성부(150)는 서로 다른 신경망 모델인 생성 모델과 지도 학습 모델을 포함하여 구성될 수 있다. 즉, 상기 유사 자수패턴 생성부(150)에는 생성 모델과 지도 학습 모델이 설정되어 구성될 수 있다.In this case, the similar embroidery
상기 유사 자수패턴 생성부(150)는 상기 자수데이터 저장부(160)로부터 상기 자동 자수패턴 생성부(130)와 마찬가지로 상기 실재 자수 데이터를 수신하여 상기 지도 학습 모델과 상기 생성 모델에 학습시킬 수 있으며, 이를 통해 상기 생성 모델과 상기 지도 학습 모델은 상기 딥러닝 알고리즘과 마찬가지로 상기 실재 자수 데이터의 학습을 통해 상기 상관 관계가 설정될 수 있다.The similar embroidery
이때, 상기 생성 모델은 생성 모델은 데이터가 생성되는 과정을 확률분포 형태로 학습하는 모델로서, 입력 데이터의 패턴을 학습하여 이와 유사한 패턴을 가진 새로운 데이터를 생성할 수 있는 모델이다.In this case, the generation model is a model that learns a process of generating data in the form of a probability distribution, and is a model capable of generating new data having a similar pattern by learning a pattern of input data.
이러한 생성 모델의 일례로서, 생성 모델은 GAN(Generative Adversarial Network), VAE(Variational Auto-Encoder) 및 AnoGAN(Anomaly detection with GAN) 중 어느 하나를 기반으로 하는 신경망 모델로 구성될 수 있다.As an example of such a generation model, the generation model may be composed of a neural network model based on any one of a Generative Adversarial Network (GAN), a Variational Auto-Encoder (VAE), and Anomaly detection with GAN (AnoGAN).
즉, 생성 모델은 자수 전문가의 실제 자수에 의해 제조된 실재 결과물을 제조하기 위한 자수 전문가의 자수 과정 및 자수 결과를 데이터로 나타낸 상기 실재 자수 데이터를 학습하여 실재 자수 데이터의 데이터 패턴을 학습하며, 이를 통해 상기 생성 모델에 상기 자수 전문가의 자수 결과물에 대한 제조 패턴을 나타내는 상기 데이터 패턴과 유사한 유사 데이터 패턴을 생성할 수 있다.That is, the generation model learns the real embroidery data representing the embroidery process and the embroidery result of the embroidery expert to produce the real result manufactured by the real embroidery of the embroidery expert, and learns the data pattern of the real embroidery data. Through this, a similar data pattern similar to the data pattern representing the manufacturing pattern of the embroidery result of the embroidery expert may be generated in the generated model.
이에 따라, 상기 생성 모델은 상기 유사 데이터 패턴을 기반으로 입력으로 수신되는 객체와 관련하여 상기 객체와 관련된 자수 전문가의 결과물에 대한 실재 자수 데이터와 유사한 추정 자수 데이터를 상기 유사 데이터 패턴을 통해 생성할 수 있다.Accordingly, the generation model may generate estimated embroidery data similar to the actual embroidery data of the result of the embroidery expert related to the object in relation to the object received as an input based on the similar data pattern through the similar data pattern. have.
즉, 상기 생성 모델은 상기 유사 데이터 패턴을 통해 상기 객체에 대해 자수 전문가가 자수한 경우를 가정하여 인공적으로 상기 객체의 자수 결과물에 대한 상기 실재 자수 데이터와 유사한 추정 자수 데이터를 자동 생성할 수 있다.That is, the generation model may artificially automatically generate estimated embroidery data similar to the actual embroidery data for the result of embroidery of the object, assuming that the object is embroidered by an embroidery expert through the similar data pattern.
또한, 상기 지도 학습 모델은 상기 자동 자수패턴 생성부(130)의 딥러닝 알고리즘과 마찬가지로 상기 상관 관계를 학습하며, 상기 생성 모델로부터 상기 추정 자수 데이터를 수신하여 상기 추정 자수 데이터에 대한 오류 판정을 수행하고, 상기 오류 판정에 대한 오류 여부를 상기 생성 모델에 제공하여 상기 추정 자수 데이터에 대한 오류 여부를 학습시킬 수 있다.In addition, the supervised learning model learns the correlation like the deep learning algorithm of the automatic embroidery
이를 통해, 상기 생성 모델은 상기 생성 모델에 생성된(학습된) 유사 데이터 패턴을 추정 자수 데이터별 오류 여부에 따라 가변시키면서 상기 데이터 패턴과 상기 유사 데이터 패턴 사이의 편차를 감소시킬 수 있으며, 이를 통해 상기 유사 데이터 패턴에 의해 산출되는 추정 자수 데이터와 실재 자수 데이터 사이의 오차를 감소시킬 수 있다.Through this, the generation model can reduce the deviation between the data pattern and the similar data pattern while varying the (learned) similar data pattern generated in the generated model according to whether or not there is an error for each estimated embroidery data. It is possible to reduce an error between the estimated embroidery data and the actual embroidery data calculated by the similar data pattern.
즉, 상기 지도 학습 모델은 실재로 존재하는 자수물 관련 실재 자수 데이터를 기반으로 생성한 상관 관계를 기초로 상기 생성 모델에서 가상으로 생성한 추정 자수 데이터마다 오류 여부를 판정하여 이에 따른 오류 판정 결과가 상기 유사 데이터 패턴과 상기 데이터 패턴 사이의 편차를 감소시키기 위한 상기 생성 모델의 학습에 이용되도록 함으로써, 상기 생성 모델에서 생성하는 추정 자수 데이터의 수가 증가할 수록 상기 유사 데이터 패턴과 상기 데이터 패턴 사이의 상기 편차가 감소되어 상기 생성 모델에서 생성하는 특정 객체에 대한 추정 자수 데이터와 상기 특정 객체에 대한 실재 자수 데이터의 오차를 감소시킬 수 있다.That is, the supervised learning model determines whether there is an error for each estimated embroidery data virtually generated from the generated model based on the correlation generated based on the actual embroidery data related to the embroidery material, and the result of the error determination is As the number of estimated embroidery data generated by the generated model increases, the difference between the similar data pattern and the data pattern increases as the number of estimated embroidery data generated by the generated model increases by being used for training of the generation model to reduce the deviation between the similar data pattern and the data pattern. As the deviation is reduced, an error between the estimated embroidery data for a specific object generated by the generated model and the actual embroidery data for the specific object can be reduced.
상술한 구성에 따라, 상기 유사 자수패턴 생성부(150)는 상기 생성 모델과 상기 지도 학습 모델 각각에 상기 자수 데이터를 학습시켜 객체별 상기 실재 자수 데이터에 근거한 데이터 패턴과 유사한 유사 데이터 패턴이 학습된 상기 생성 모델을 통해 상기 유사 데이터 패턴을 기초로 객체에 대한 상기 실재 자수 데이터와 유사한 추정 자수 데이터를 산출하고, 상기 상관 관계가 학습된 상기 지도 학습 모델을 통해 상기 추정 자수 데이터에 대한 오류 판정을 수행한 후 상기 오류 판정 관련 결과를 상기 생성 모델에 학습시켜 상기 생성 모델에 설정되는 유사 데이터 패턴의 가변을 통해 상기 추정 자수 데이터와 실재 자수 데이터 사이의 오차를 감소시킬 수 있다.According to the above-described configuration, the similar embroidery
또한, 상기 유사 자수패턴 생성부(150)는 상기 자동 자수패턴 생성부(130)와 연동하여 상기 자수 대상 이미지에 포함된 객체 중 상기 자동 자수패턴 생성부(130)에서 자수 패턴 정보의 생성에 실패한 특정 객체 존재시(S3) 상기 생성 모델을 통해 상기 특정 객체의 추정 자수 데이터를 산출하여 상기 특정 객체의 추정 자수 데이터를 상기 특정 객체에 대한 자수 패턴 정보로 상기 자수기 관리부(170)에 제공할 수 있다(S4).In addition, the similar embroidery
이때, 상기 유사 자수패턴 생성부(150)는 상기 생성 모델이 상기 오차가 미리 설정된 기준치 이하가 될때까지 학습된 경우에만 상기 특정 객체의 추정 자수 데이터를 자수 패턴 정보로 상기 자수기 관리부(170)에 제공할 수도 있다.At this time, the similar embroidery
이에 따라, 상기 자수기 관리부(170)는 상기 자동 자수패턴 생성부(130)로부터 수신한 객체별 자수 패턴 정보와 상기 유사 자수패턴 생성부(150)로부터 수신한 객체별 자수 패턴 정보를 상기 자수기(200)에 제공하여, 상기 자수기(200)에 의해 자수 대상 이미지에 포함된 모든 객체에 대한 자수가 누락없이 수행되도록 할 수 있다(S5).Accordingly, the embroidery
상술한 구성을 통해, 상기 서비스 장치(100)는 기존에 학습된 객체들과 유사하지 조차 않은 새로운 형태의 객체에 대해서도 신경망 모델을 통해 인공적으로 자수 전문가가 작업한 경우를 가정한 자수 패턴 정보를 생성하여 제공할 수 있으므로, 객체의 형태에 구애 없이 전문가 수준의 자수물을 제공할 수 있다.Through the above configuration, the service device 100 generates embroidery pattern information assuming that an embroidery expert has artificially worked through a neural network model for a new type of object that is not even similar to the previously learned objects. Since it can be provided, it is possible to provide expert-level embroidery without regard to the shape of the object.
본 명세서에 기술된 다양한 장치 및 구성부는 하드웨어 회로(예를 들어, CMOS 기반 로직 회로), 펌웨어, 소프트웨어 또는 이들의 조합에 의해 구현될 수 있다. 예를 들어, 다양한 전기적 구조의 형태로 트랜지스터, 로직게이트 및 전자회로를 활용하여 구현될 수 있다.The various devices and components described herein may be implemented by hardware circuitry (eg, CMOS-based logic circuitry), firmware, software, or a combination thereof. For example, it may be implemented using transistors, logic gates, and electronic circuits in the form of various electrical structures.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above contents may be modified and modified without departing from the essential characteristics of the present invention by those of ordinary skill in the technical field to which the present invention belongs. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.
100: 서비스 장치
110: 이미지 수신부
120: 경로 생성부
130: 자동 자수패턴 생성부
140: 수동 자수패턴 생성부
150: 유사 자수패턴 생성부
160: 자수데이터 저장부
170: 자수기 관리부
200: 자수기100: service device 110: image receiving unit
120: path generation unit 130: automatic embroidery pattern generation unit
140: manual embroidery pattern generation unit 150: similar embroidery pattern generation unit
160: embroidery data storage unit 170: embroidery machine management unit
200: embroidery machine
Claims (8)
상기 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 상기 자수 대상 이미지를 적용하여 상기 자수 대상 이미지에 포함된 객체별로 구역 분할 상태와 하나 이상의 구역별 자수 패턴 및 구역간 자수 순서에 대한 자수 패턴 정보를 생성하는 자동 자수패턴 생성부; 및
상기 자수 패턴 정보를 자수기에 전송하여 상기 자수 대상 이미지에 대응되는 자수물이 생성되도록 하는 자수기 관리부
를 포함하는 자수 패턴 정보의 생성을 위한 서비스 장치.
An image receiving unit that receives an image to be embroidered including one or more objects;
The object included in the image to be embroidered by applying the image to be embroidered to a deep learning algorithm in which the relationship between the zone division state in which the object is divided into one or more zones, the embroidery pattern for each zone, and the embroidery order between zones is learned An automatic embroidery pattern generation unit that generates embroidery pattern information for each zone division state and one or more zone-specific embroidery patterns and inter-zone embroidery order; And
An embroidery machine management unit that transmits the embroidery pattern information to an embroidery machine to generate an embroidery material corresponding to the image to be embroidery
Service device for generating embroidery pattern information comprising a.
상기 객체는 문자, 숫자, 도형 중 어느 하나인 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method according to claim 1,
The service device for generating embroidery pattern information, wherein the object is any one of a letter, a number, and a figure.
상기 분할 정보는 구역별 색상을 더 포함하는 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method according to claim 1,
The division information further includes a color for each area.
복수의 서로 다른 객체별로 객체를 하나 이상의 구역으로 분할한 분할 정보와 상기 구역별 자수 패턴 및 상기 구역 간 자수 순서를 포함하는 실재 자수 데이터를 상기 자동 자수패턴 생성부에 제공하는 자수 데이터 저장부를 더 포함하고,
상기 자동 자수패턴 생성부는 상기 실재 자수 데이터를 상기 딥러닝 알고리즘에 학습시켜 상기 상관 관계가 상기 딥러닝 알고리즘에 설정되도록 동작하는 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method according to claim 1,
Further comprising: an embroidery data storage unit for providing the automatic embroidery pattern generation unit with segmentation information obtained by dividing the object into one or more areas for each of a plurality of different objects, and actual embroidery data including the embroidery pattern for each area and the order of embroidery between the areas and,
The automatic embroidery pattern generator is a service apparatus for generating embroidery pattern information, characterized in that by learning the real embroidery data to the deep learning algorithm to set the correlation to the deep learning algorithm.
서로 다른 신경망 모델인 생성 모델과 지도 학습 모델을 포함하여 구성되고, 상기 생성 모델과 상기 지도 학습 모델 각각에 상기 실재 자수 데이터를 학습시켜 객체별 상기 실재 자수 데이터에 근거한 데이터 패턴과 유사한 유사 데이터 패턴이 학습된 상기 생성 모델을 통해 상기 유사 데이터 패턴을 기초로 객체에 대한 상기 실재 자수 데이터와 유사한 추정 자수 데이터를 산출하고, 상기 상관 관계가 학습된 상기 지도 학습 모델을 통해 상기 추정 자수 데이터에 대한 오류 판정을 수행한 후 상기 오류 판정 관련 결과를 상기 생성 모델에 학습시켜 상기 생성 모델에 설정되는 유사 데이터 패턴의 가변을 통해 상기 추정 자수 데이터와 실재 자수 데이터 사이의 오차를 감소시키며, 상기 자동 자수패턴 생성부와 연동하여 상기 자수 대상 이미지에 포함된 객체 중 상기 자동 자수패턴 생성부에서 상기 자수 패턴 정보의 생성에 실패한 특정 객체 존재시 상기 생성 모델을 통해 상기 특정 객체의 추정 자수 데이터를 산출하여 상기 자수기 관리부에 상기 자수 패턴 정보로 제공하는 유사 자수패턴 제공부를 더 포함하는 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method of claim 4,
A similar data pattern similar to a data pattern based on the real embroidery data for each object is formed by learning the real embroidery data in each of the generated model and the supervised learning model. Calculating estimated embroidery data similar to the real embroidery data for an object based on the similar data pattern through the learned generation model, and determining an error in the estimated embroidery data through the supervised learning model in which the correlation is learned After performing, the error determination-related result is learned in the generation model, and an error between the estimated embroidery data and the actual embroidery data is reduced by varying the similar data pattern set in the generated model, and the automatic embroidery pattern generation unit When there is a specific object in which the automatic embroidery pattern generation unit fails to generate the embroidery pattern information among objects included in the image to be embroidery, the embroidery machine management unit calculates estimated embroidery data of the specific object through the generation model in connection with A service apparatus for generating embroidery pattern information, further comprising: a similar embroidery pattern providing unit providing the embroidery pattern information.
상기 자동 자수패턴 생성부로부터 수신된 자수 패턴 정보에 따른 객체의 배치 위치와 상기 구역별 자수 패턴 및 자수 순서를 기초로 자수의 경로에 대한 경로 정보를 객체별로 생성한 후 상기 경로 정보에 대응되는 객체의 자수 패턴 정보에 포함시켜 상기 자수기 관리부에 제공하는 경로 생성부를 더 포함하는 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method according to claim 1,
An object corresponding to the path information after generating path information for an embroidery path for each object based on the arrangement position of the object according to the embroidery pattern information received from the automatic embroidery pattern generation unit, the embroidery pattern for each area, and the embroidery order A service apparatus for generating embroidery pattern information, further comprising: a path generator that is included in the embroidery pattern information of and provided to the embroidery machine management unit.
상기 자동 자수패턴 생성부는 상기 딥러닝 알고리즘을 통해 상기 자수 대상 이미지에 포함된 특정 객체에 대한 자수 패턴 정보의 생성에 실패한 경우 상기 자수 대상 이미지에서 상기 특정 객체를 식별한 식별 정보를 생성하여 제공하고,
상기 자동 자수패턴 생성부로부터 상기 자수 대상 이미지 및 상기 식별정보를 수신하여 상기 특정 객체를 상기 자수 대상 이미지에서 다른 객체와 구분하여 표시하고, 사용자 입력을 기초로 상기 특정 객체에 대한 자수 패턴 정보를 생성하여 상기 자수기 관리부에 제공하는 수동 자수패턴 생성부를 더 포함하는 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method according to claim 1,
The automatic embroidery pattern generation unit generates and provides identification information identifying the specific object in the embroidery target image when generation of embroidery pattern information for a specific object included in the embroidery target image fails through the deep learning algorithm,
Receives the embroidery target image and the identification information from the automatic embroidery pattern generation unit, displays the specific object separately from other objects in the embroidery target image, and generates embroidery pattern information for the specific object based on a user input The service apparatus for generating embroidery pattern information, further comprising a manual embroidery pattern generation unit provided to the embroidery machine management unit.
하나 이상의 객체가 포함된 자수 대상 이미지를 수신하는 단계;
상기 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 상기 자수 대상 이미지를 적용하여 상기 자수 대상 이미지에 포함된 객체별로 구역 분할 상태와 하나 이상의 구역별 자수 패턴 및 구역간 자수 순서에 대한 자수 패턴 정보를 생성하는 단계; 및
상기 자수 패턴 정보를 자수기에 전송하여 상기 자수 대상 이미지에 대응되는 자수물이 생성되도록 하는 단계
를 포함하는 자수 패턴 정보의 생성을 위한 서비스 방법.In a service method for generating embroidery pattern information of a service device,
Receiving an image to be embroidered including one or more objects;
The object included in the image to be embroidered by applying the image to be embroidered to a deep learning algorithm in which the relationship between the zone division state in which the object is divided into one or more zones, the embroidery pattern for each zone, and the embroidery order between zones is learned Generating embroidery pattern information on a state of division of regions, embroidery patterns for each region, and embroidery order between regions; And
Transmitting the embroidery pattern information to an embroidery machine so that an embroidery material corresponding to the image to be embroidery is generated
Service method for generating embroidery pattern information comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190028178A KR102606043B1 (en) | 2019-03-12 | 2019-03-12 | Service apparatus and method for generation of embroidery pattern information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020190028178A KR102606043B1 (en) | 2019-03-12 | 2019-03-12 | Service apparatus and method for generation of embroidery pattern information |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200115714A true KR20200115714A (en) | 2020-10-08 |
KR102606043B1 KR102606043B1 (en) | 2023-11-24 |
Family
ID=72897220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020190028178A KR102606043B1 (en) | 2019-03-12 | 2019-03-12 | Service apparatus and method for generation of embroidery pattern information |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102606043B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112529113A (en) * | 2020-12-30 | 2021-03-19 | 江苏惟妙纺织科技有限公司 | Embroidery production control method and system |
CN112633397A (en) * | 2020-12-29 | 2021-04-09 | 江苏惟妙纺织科技有限公司 | Embroidery customization method and system |
KR102327746B1 (en) * | 2021-03-25 | 2021-11-17 | 정아람 | System for providing sewing servic using subject extraction from picture |
CN117909534A (en) * | 2024-03-15 | 2024-04-19 | 大连理工大学 | Embroidery pattern optimization processing method and system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09256258A (en) * | 1996-03-26 | 1997-09-30 | Datsukusu:Kk | Preparation of embroidery data, apparatus therefor and apparatus for preparing name embroidery data |
JP3761902B2 (en) * | 1993-07-20 | 2006-03-29 | 蛇の目ミシン工業株式会社 | Multicolor embroidery pattern input device |
KR20130109905A (en) * | 2012-03-28 | 2013-10-08 | 주식회사 스페이스솔루션 | Operation box of embroidering machine and method for generating embroidery data using the same |
KR20170065195A (en) | 2015-12-03 | 2017-06-13 | 이정화 | Automatic Stitch Manufacture System |
-
2019
- 2019-03-12 KR KR1020190028178A patent/KR102606043B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3761902B2 (en) * | 1993-07-20 | 2006-03-29 | 蛇の目ミシン工業株式会社 | Multicolor embroidery pattern input device |
JPH09256258A (en) * | 1996-03-26 | 1997-09-30 | Datsukusu:Kk | Preparation of embroidery data, apparatus therefor and apparatus for preparing name embroidery data |
KR20130109905A (en) * | 2012-03-28 | 2013-10-08 | 주식회사 스페이스솔루션 | Operation box of embroidering machine and method for generating embroidery data using the same |
KR20170065195A (en) | 2015-12-03 | 2017-06-13 | 이정화 | Automatic Stitch Manufacture System |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112633397A (en) * | 2020-12-29 | 2021-04-09 | 江苏惟妙纺织科技有限公司 | Embroidery customization method and system |
CN112633397B (en) * | 2020-12-29 | 2021-12-14 | 江苏惟妙纺织科技有限公司 | Embroidery customization method and system |
CN112529113A (en) * | 2020-12-30 | 2021-03-19 | 江苏惟妙纺织科技有限公司 | Embroidery production control method and system |
CN112529113B (en) * | 2020-12-30 | 2021-12-14 | 江苏惟妙纺织科技有限公司 | Embroidery production control method and system |
KR102327746B1 (en) * | 2021-03-25 | 2021-11-17 | 정아람 | System for providing sewing servic using subject extraction from picture |
CN117909534A (en) * | 2024-03-15 | 2024-04-19 | 大连理工大学 | Embroidery pattern optimization processing method and system |
Also Published As
Publication number | Publication date |
---|---|
KR102606043B1 (en) | 2023-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20200115714A (en) | Service apparatus and method for generation of embroidery pattern information | |
US20230324874A1 (en) | System and method for improving assembly line processes | |
CN107657650B (en) | Animation model role binding method and system based on Maya software | |
Fele et al. | C-vton: Context-driven image-based virtual try-on network | |
CN108052765A (en) | Scheme of colour automatic generation method and device based on personality impression | |
JP2023537268A (en) | Image database analysis-based product recommendation device and method | |
KR102211480B1 (en) | Apparatus and method for analyzing basketball match based on 2d coordinates | |
Wimmer et al. | Learning local objective functions for robust face model fitting | |
CN106874830A (en) | A kind of visually impaired people's householder method based on RGB D cameras and recognition of face | |
CN110377201A (en) | Terminal equipment control method, device, computer installation and readable storage medium storing program for executing | |
CN110516598A (en) | Method and apparatus for generating image | |
US20220358411A1 (en) | Apparatus and method for developing object analysis model based on data augmentation | |
CN103971363B (en) | Image partition method based on hierarchical fuzzy c averages | |
WO2021009880A1 (en) | Design assistance device and design assistance method | |
KR102430740B1 (en) | Apparatus and method for developing style analysis model based on data augmentation | |
CN114734443B (en) | Man-machine cooperation robot skill recognition method based on generation of countermeasure imitation learning | |
Kwon et al. | Tailor me: An editing network for fashion attribute shape manipulation | |
JP2022108816A (en) | Data creation support device and data creation support method | |
CN112966777A (en) | Semi-automatic labeling method and system based on human-computer interaction | |
CN115793587B (en) | Garment manufacturing process and device based on artificial intelligence | |
Ivaschenko et al. | Industrial application of accented visualization based on Augmented Reality | |
CN108133202A (en) | It is a kind of that hand gestures method of estimation is blocked based on layering mixture density network certainly | |
GB2616774A (en) | Generating evaluation-mask for multi-factor authentication | |
KR102430742B1 (en) | Apparatus and method for developing space analysis model based on data augmentation | |
Sagong et al. | CGANs with conditional convolution layer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |