KR20200115714A - Service apparatus and method for generation of embroidery pattern information - Google Patents

Service apparatus and method for generation of embroidery pattern information Download PDF

Info

Publication number
KR20200115714A
KR20200115714A KR1020190028178A KR20190028178A KR20200115714A KR 20200115714 A KR20200115714 A KR 20200115714A KR 1020190028178 A KR1020190028178 A KR 1020190028178A KR 20190028178 A KR20190028178 A KR 20190028178A KR 20200115714 A KR20200115714 A KR 20200115714A
Authority
KR
South Korea
Prior art keywords
embroidery
embroidery pattern
image
pattern information
data
Prior art date
Application number
KR1020190028178A
Other languages
Korean (ko)
Other versions
KR102606043B1 (en
Inventor
이지순
Original Assignee
이지순
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이지순 filed Critical 이지순
Priority to KR1020190028178A priority Critical patent/KR102606043B1/en
Publication of KR20200115714A publication Critical patent/KR20200115714A/en
Application granted granted Critical
Publication of KR102606043B1 publication Critical patent/KR102606043B1/en

Links

Images

Classifications

    • DTEXTILES; PAPER
    • D05SEWING; EMBROIDERING; TUFTING
    • D05CEMBROIDERING; TUFTING
    • D05C5/00Embroidering machines with arrangements for automatic control of a series of individual steps
    • D05C5/04Embroidering machines with arrangements for automatic control of a series of individual steps by input of recorded information, e.g. on perforated tape
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

The present invention relates to a service device for generation of embroidery pattern information, and a method thereof, and more specifically, to a service device and a method thereof, configured to: receive an image to be embroidered; divide the image into one or more areas for each object included in the image to be embroidered; and provide embroidery pattern information in which embroidery patterns and embroidery order for each area are determined so as to support production of an embroidery product corresponding to the image to be embroidered through an embroidery machine. The present invention is configured such that an image to be embroidered is implemented to deep learning algorithms in which a correlation between an object area dividing state obtained by dividing an object into one or more areas, an embroidery pattern for each area, and an embroidery order between the areas are trained so as to create embroidery pattern information for dividing the object included in the image to be embroidered according to an area unit and perform embroidery, and an embroidery product is produced based on the embroidery pattern information through the embroidery machine. Accordingly, the present invention supports to enable the object to undergo embroidery treatment according to each area, such that the embroidery product that corresponds to the object can be easily finished, and it is possible to apply different embroidery patterns or colors to the areas. Therefore, the present invention supports the application of various embroidery effects to the actual embroidery product created in response to the object so as to provide the embroidery product that is not much different from an output of hand-embroidering by an expert, thereby increasing satisfaction of a user.

Description

자수 패턴 정보의 생성을 위한 서비스 장치 및 방법{Service apparatus and method for generation of embroidery pattern information}Service apparatus and method for generation of embroidery pattern information

본 발명은 자수 패턴 정보의 생성을 위한 서비스 장치 및 방법에 관한 것으로서, 더욱 상세히는 자수 대상 이미지를 수신하여 상기 자수 대상 이미지에 포함된 객체별로 하나 이상의 구역으로 분할한 후 구역별로 자수 패턴 및 자수 순서가 결정된 자수 패턴 정보를 제공하여 자수기를 통해 자수 대상 이미지에 대응되는 자수물을 생성할 수 있도록 지원하는 자수 패턴 정보의 생성을 위한 서비스 장치 및 방법에 관한 것이다.The present invention relates to a service apparatus and method for generating embroidery pattern information, and in more detail, after receiving an embroidery target image and dividing it into one or more zones for each object included in the embroidery target image, the embroidery pattern and embroidery sequence for each zone The present invention relates to a service apparatus and method for generating embroidery pattern information that provides the determined embroidery pattern information so that an embroidery material corresponding to an image to be embroidered can be generated through an embroidery machine.

최근 문자나 그림과 같은 이미지를 수신하여 자수기에서 상기 이미지에 대응되는 자수물을 자수(刺繡)하여 생성할 수 있도록 상기 자수기에 상기 이미지와 관련된 자수 패턴 정보를 제공하는 자수용 단말이 제공되고 있다.Recently, an embroidery terminal has been provided that provides embroidery pattern information related to the image to the embroidery machine so that the embroidery machine can generate an embroidery material corresponding to the image by receiving an image such as a text or a picture.

이러한 자수용 단말(10)은 도 1에 도시된 바와 같이 이미지 수신부(11)와, 경로 생성부(12)와, 자동 자수패턴 생성부(13)와, 수동 자수패턴 생성부(14) 및 자수기 관리부(15)를 포함하여 구성될 수 있다.As shown in FIG. 1, the embroidery terminal 10 includes an image receiving unit 11, a path generating unit 12, an automatic embroidery pattern generation unit 13, a manual embroidery pattern generation unit 14, and an embroidery machine. It may be configured to include the management unit 15.

상술한 구성을 토대로, 기존 자수용 단말(10)의 동작 구성을 도 2를 통해 설명하면, 이미지 수신부(11)는 자수 대상 이미지를 수신하고, 상기 자동 자수패턴 생성부(13)는 상기 자수 대상 이미지를 객체 단위로 분할하여 자수 패턴 정보를 생성할 수 있다.Based on the above-described configuration, when the operation configuration of the existing embroidery terminal 10 is described with reference to FIG. 2, the image receiving unit 11 receives an image to be embroidered, and the automatic embroidery pattern generation unit 13 is Embroidery pattern information can be generated by dividing the image into object units.

이때, 수동 자수패턴 생성부(14)는 상기 자동 자수패턴 생성부(13)에서 인식되지 않는 상기 자수 대상 이미지에 포함된 객체에 대해 사용자 입력을 기초로 자수 패턴 정보를 생성할 수 있다.In this case, the manual embroidery pattern generation unit 14 may generate embroidery pattern information based on a user input for an object included in the image to be embroidery that is not recognized by the automatic embroidery pattern generation unit 13.

또한, 상기 자동 자수패턴 생성부(13) 및 수동 자수패턴 생성부(14)는 자수 패턴 정보를 상기 경로 제공부에 제공하며, 상기 경로 생성부(12)는 자수 패턴 정보에 따라 자수의 경로를 결정하여 경로 정보를 생성한 후 상기 자수 패턴 정보에 포함시킬 수 있다.In addition, the automatic embroidery pattern generation unit 13 and the manual embroidery pattern generation unit 14 provide embroidery pattern information to the path providing unit, and the path generation unit 12 determines a path of embroidery according to the embroidery pattern information. After determining and generating path information, it may be included in the embroidery pattern information.

또한, 상기 자수기 관리부(15)는 상기 자수 패턴 정보를 상기 자수기(20)에 제공하며, 상기 자수기(20)는 상기 자수 패턴 정보에 따라 자수를 수행하여 자수 대상 이미지에 대응되는 자수물을 생성할 수 있다.In addition, the embroidery machine manager 15 provides the embroidery pattern information to the embroidery machine 20, and the embroidery machine 20 performs embroidery according to the embroidery pattern information to generate an embroidery material corresponding to an image to be embroidery. I can.

상술한 기존 자수용 단말(10)에 의해 생성된 자수물은 도 3에 도시된 바와 같은 결과물로서 제공될 수 있으나, 단순 객체 단위로 분할하는 경우 하나의 객체를 끊김없는 단일 작업으로 자수해야 하므로 연결이 매끄럽지 않아 자수 전문가가 직접 수작업으로 작업한 자수와 차이가 상당하므로 결과물에 대한 만족도가 떨어지는 문제가 있다.The embroidery created by the above-described conventional embroidery terminal 10 may be provided as a result as shown in FIG. 3, but when it is divided into simple object units, one object must be embroidered in a single seamless operation, so the connection Since this is not smooth, there is a problem that the satisfaction with the result is poor because the difference is significant from the embroidery that the embroidery expert has done by hand.

일례로, 도 3에 도시된 바와 같이 기존의 자수용 단말(10)은 객체 단위로 처리하여 자수 패턴을 생성하므로 자수기에서 자수 수행시 객체를 단일 자수 처리함에 따라 곡선 부분과 같은 부분에서 마감이 매끄럽지 않은 문제가 있을 뿐만 아니라 단위 객체에 적용할 수 있는 자수 패턴의 종류에 한계가 있어 자수가 단조로운 문제가 있다.As an example, as shown in FIG. 3, the existing embroidery terminal 10 generates an embroidery pattern by processing in an object unit, so when the embroidery machine performs embroidery, the object is single-embroidered, so that the finish is not smooth in a part such as a curved part. There is a problem in which embroidery is monotonous as there is a problem not only that there is a problem, but also the type of embroidery pattern that can be applied to a unit object is limited.

한국공개특허 제10-2017-0065195호Korean Patent Publication No. 10-2017-0065195

본 발명은 자수 대상 이미지에 포함된 객체를 하나 이상의 구역으로 분할하여 객체의 구역 분할 상태와 단위 구역별 자수 패턴 및 자수의 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 자수 대상 이미지를 적용하여 자수 대상 이미지에 포함된 객체를 구역 단위로 분할하여 구역별로 자수 패턴과 자수 순서가 설정된 자수 패턴 정보가 자동 생성되도록 하고 상기 자수 패턴 정보를 기초로 자수기를 통해 자수물이 생성되도록 함으로써, 전문가가 직접 수작업으로 자수한 결과물과 차이가 미미한 자수물이 제공되도록 하는데 그 목적이 있다.The present invention divides an object included in an image to be embroidered into one or more zones to embroider by applying the image to be embroidered to a deep learning algorithm in which the correlation between the zone division state of the object and the embroidery pattern per unit zone and the order of embroidery is learned. By dividing the object included in the target image into zones, the embroidery pattern and embroidery pattern information in which the order of embroidery is set for each zone are automatically generated, and the embroidery material is created through an embroidery machine based on the embroidery pattern information, so that the expert can do it manually. The purpose is to provide the result of embroidery with little difference from the result of embroidery.

또한, 본 발명은 자수 대상 이미지에 포함된 객체를 구역 단위로 분할하여 구역별로 자수 처리가 가능하도록 자수 패턴을 생성함으로써, 객체에 대응되는 자수물의 마감 처리가 용이할 뿐만 아니라 구역 상호 간 자수 패턴이나 색상을 상이하게 적용할 수 있도록 지원하는데 그 목적이 있다.In addition, the present invention divides the object included in the image to be embroidered into zones and creates an embroidery pattern so that embroidery can be processed for each zone, thereby facilitating the finishing treatment of embroidery corresponding to the object, as well as cross-section embroidery patterns or Its purpose is to support different colors to be applied.

본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치는, 하나 이상의 객체가 포함된 자수 대상 이미지를 수신하는 이미지 수신부와, 상기 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 상기 자수 대상 이미지를 적용하여 상기 자수 대상 이미지에 포함된 객체별로 구역 분할 상태와 하나 이상의 구역별 자수 패턴 및 구역간 자수 순서에 대한 자수 패턴 정보를 생성하는 자동 자수패턴 생성부 및 상기 자수 패턴 정보를 자수기에 전송하여 상기 자수 대상 이미지에 대응되는 자수물이 생성되도록 하는 자수기 관리부를 포함할 수 있다.A service apparatus for generating embroidery pattern information according to an embodiment of the present invention includes an image receiving unit for receiving an image to be embroidered including one or more objects, a zone division state in which the object is divided into one or more zones, and each zone By applying the image to be embroidered to a deep learning algorithm in which the correlation between the embroidery pattern and the order of embroidery between the regions is learned, the state of zone division for each object included in the image to be embroidery, and the embroidery pattern for each region and the order of embroidery between regions An automatic embroidery pattern generation unit for generating embroidery pattern information for, and an embroidery machine management unit for transmitting the embroidery pattern information to an embroidery machine to generate an embroidery material corresponding to the image to be embroidered.

본 발명과 관련된 일 예로서, 상기 객체는 문자, 숫자, 도형 중 어느 하나인 것을 특징으로 할 수 있다.As an example related to the present invention, the object may be any one of letters, numbers, and figures.

본 발명과 관련된 일 예로서, 상기 분할 정보는 구역별 색상을 더 포함하는 것을 특징으로 할 수 있다.As an example related to the present invention, the segmentation information may further include a color for each area.

본 발명과 관련된 일 예로서, 복수의 서로 다른 객체별로 객체를 하나 이상의 구역으로 분할한 분할 정보와 상기 구역별 자수 패턴 및 상기 구역 간 자수 순서를 포함하는 실재 자수 데이터를 상기 자동 자수패턴 생성부에 제공하는 자수 데이터 저장부를 더 포함하고, 상기 자동 자수패턴 생성부는 상기 실재 자수 데이터를 상기 딥러닝 알고리즘에 학습시켜 상기 상관 관계가 상기 딥러닝 알고리즘에 설정되도록 동작하는 것을 특징으로 할 수 있다.As an example related to the present invention, the automatic embroidery pattern generating unit includes division information obtained by dividing an object into one or more zones for each of a plurality of different objects, and real embroidery data including the embroidery pattern for each zone and the order of embroidery between the zones. It may further include a providing embroidery data storage unit, wherein the automatic embroidery pattern generation unit is operable to learn the real embroidery data by the deep learning algorithm so that the correlation is set in the deep learning algorithm.

본 발명과 관련된 일 예로서, 서로 다른 신경망 모델인 생성 모델과 지도 학습 모델을 포함하여 구성되고, 상기 생성 모델과 상기 지도 학습 모델 각각에 상기 실재 자수 데이터를 학습시켜 객체별 상기 실재 자수 데이터에 근거한 데이터 패턴과 유사한 유사 데이터 패턴이 학습된 상기 생성 모델을 통해 상기 유사 데이터 패턴을 기초로 객체에 대한 상기 실재 자수 데이터와 유사한 추정 자수 데이터를 산출하고, 상기 상관 관계가 학습된 상기 지도 학습 모델을 통해 상기 추정 자수 데이터에 대한 오류 판정을 수행한 후 상기 오류 판정 관련 결과를 상기 생성 모델에 학습시켜 상기 생성 모델에 설정되는 유사 데이터 패턴의 가변을 통해 상기 추정 자수 데이터와 실재 자수 데이터 사이의 오차를 감소시키며, 상기 자동 자수패턴 생성부와 연동하여 상기 자수 대상 이미지에 포함된 객체 중 상기 자동 자수패턴 생성부에서 상기 자수 패턴 정보의 생성에 실패한 특정 객체 존재시 상기 생성 모델을 통해 상기 특정 객체의 추정 자수 데이터를 산출하여 상기 자수기 관리부에 상기 자수 패턴 정보로 제공하는 유사 자수패턴 제공부를 더 포함하는 것을 특징으로 할 수 있다.As an example related to the present invention, it is configured to include a generation model and a supervised learning model, which are different neural network models, and learn the real embroidery data in each of the generated model and the supervised learning model, and based on the real embroidery data for each object. Through the generation model in which a similar data pattern similar to a data pattern is learned, estimated embroidery data similar to the real embroidery data for an object is calculated based on the similar data pattern, and the supervised learning model in which the correlation is learned. After performing an error determination on the estimated embroidery data, the error determination-related result is learned in the generation model to reduce an error between the estimated embroidery data and the actual embroidery data through the variation of the similar data pattern set in the generated model. In connection with the automatic embroidery pattern generation unit, when there is a specific object in which the automatic embroidery pattern generation unit fails to generate the embroidery pattern information among objects included in the image to be embroidery, estimated embroidery of the specific object through the generation model It may further include a similar embroidery pattern providing unit for calculating data and providing the embroidery pattern information to the embroidery machine manager.

본 발명과 관련된 일 예로서, 상기 자동 자수패턴 생성부로부터 수신된 자수 패턴 정보에 따른 객체의 배치 위치와 상기 구역별 자수 패턴 및 자수 순서를 기초로 자수의 경로에 대한 경로 정보를 객체별로 생성한 후 상기 경로 정보에 대응되는 객체의 자수 패턴 정보에 포함시켜 상기 자수기 관리부에 제공하는 경로 생성부를 더 포함하는 것을 특징으로 할 수 있다.As an example related to the present invention, path information for an embroidery path is generated for each object based on the arrangement position of the object according to the embroidery pattern information received from the automatic embroidery pattern generation unit, the embroidery pattern for each area, and the order of embroidery. Then, it may further include a path generating unit that is provided to the embroidery machine manager by including in the embroidery pattern information of the object corresponding to the path information.

본 발명과 관련된 일 예로서, 상기 자동 자수패턴 생성부는 상기 딥러닝 알고리즘을 통해 상기 자수 대상 이미지에 포함된 특정 객체에 대한 자수 패턴 정보의 생성에 실패한 경우 상기 자수 대상 이미지에서 상기 특정 객체를 식별한 식별 정보를 생성하여 제공하고, 상기 자동 자수패턴 생성부로부터 상기 자수 대상 이미지 및 상기 식별정보를 수신하여 상기 특정 객체를 상기 자수 대상 이미지에서 다른 객체와 구분하여 표시하고, 사용자 입력을 기초로 상기 특정 객체에 대한 자수 패턴 정보를 생성하여 상기 자수기 관리부에 제공하는 수동 자수패턴 생성부를 더 포함하는 것을 특징으로 할 수 있다.As an example related to the present invention, the automatic embroidery pattern generation unit identifies the specific object in the embroidery target image when the generation of embroidery pattern information for a specific object included in the embroidery target image fails through the deep learning algorithm. It generates and provides identification information, receives the embroidery target image and the identification information from the automatic embroidery pattern generation unit, displays the specific object separately from other objects in the embroidery target image, and displays the specific object based on user input. It may be characterized in that it further comprises a manual embroidery pattern generation unit to generate the embroidery pattern information for the object to provide to the embroidery machine manager.

본 발명의 실시예에 따른 서비스 장치의 자수 패턴 정보의 생성을 위한 서비스 방법은, 하나 이상의 객체가 포함된 자수 대상 이미지를 수신하는 단계와, 상기 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 상기 자수 대상 이미지를 적용하여 상기 자수 대상 이미지에 포함된 객체별로 구역 분할 상태와 하나 이상의 구역별 자수 패턴 및 구역간 자수 순서에 대한 자수 패턴 정보를 생성하는 단계 및 상기 자수 패턴 정보를 자수기에 전송하여 상기 자수 대상 이미지에 대응되는 자수물이 생성되도록 하는 단계를 포함할 수 있다.A service method for generating embroidery pattern information of a service device according to an embodiment of the present invention includes the steps of receiving an image to be embroidered including one or more objects, a zone division state in which the object is divided into one or more zones, and the By applying the embroidery target image to a deep learning algorithm in which the correlation between the embroidery patterns for each zone and the order of embroidery between zones is learned, the zone division status for each object included in the embroidery target image and one or more zone-specific embroidery patterns and zones The method may include generating embroidery pattern information on an embroidery order, and transmitting the embroidery pattern information to an embroidery machine so that an embroidery material corresponding to the image to be embroidery is generated.

본 발명은 객체별로 하나 이상의 구역으로 분할하여 객체의 구역 분할 상태와 구역별 자수 패턴 및 구역 간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 자수 대상 이미지를 적용하여 자수 대상 이미지에 포함된 객체를 구역 단위로 분할하여 자수하기 위한 자수 패턴 정보가 생성되도록 하고 상기 자수 패턴 정보를 기초로 자수기를 통해 자수물이 생성되도록 함으로써, 객체를 구역별로 자수 처리가 가능하도록 지원하여 객체에 대응되는 자수물의 마감 처리가 용이할 뿐만 아니라 구역 상호 간 자수 패턴이나 색상을 상이하게 적용할 수 있도록 지원함으로써 객체에 대응되어 생성되는 실재 자수물에 다양한 자수 효과를 용이하게 적용할 수 있도록 지원함과 아울러 전문가가 직접 수작업으로 자수한 결과물과 차이가 미미한 자수물을 제공하여 사용자 만족도를 높이는 효과가 있다.The present invention is an object included in the image to be embroidered by applying an image to be embroidered to a deep learning algorithm in which the correlation between the zone division state of the object and the embroidery pattern for each zone and the order of embroidery between zones is learned by dividing each object into one or more zones. The embroidery pattern information for embroidering is generated by dividing the unit into zones, and the embroidery material is created through an embroidery machine based on the embroidery pattern information. Not only is it easy to finish, but it also supports the application of different embroidery patterns or colors between zones, so that various embroidery effects can be easily applied to the actual embroidery created in response to the object, as well as manual work by experts. There is an effect of enhancing user satisfaction by providing embroidery with a slight difference from the result of embroidered by using.

또한, 본 발명은 기존에 학습된 객체들과 유사하지 조차 않은 새로운 형태의 객체에 대해서도 신경망 모델을 통해 인공적으로 자수 전문가가 작업한 경우를 가정한 자수 패턴 정보를 생성하여 제공할 수 있으므로, 객체의 형태에 구애 없이 전문가 수준의 자수물을 제공할 수 있는 효과가 있다.In addition, the present invention can generate and provide embroidery pattern information assuming that an embroidery expert has artificially worked through a neural network model for a new type of object that is not even similar to the previously learned objects. It has the effect of being able to provide expert-level embroidery regardless of shape.

도 1의 기존 자수용 단말의 구성도.
도 2는 기존 자수용 단말의 동작 순서도.
도 3은 기존 자수용 단말에 의해 생성된 자수 패턴 정보에 따른 자수 결과물에 대한 예시도.
도 4는 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치의 동작 순서도.
도 5는 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치에 의해 생성된 자수 패턴 정보에 따른 자수 결과물에 대한 예시도.
도 6은 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치의 상세 구성도.
도 7은 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치에 학습되는 실재 자수 데이터의 예시도.
도 8은 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치에서 자수 패턴 정보 생성 과정에 대한 동작 예시도.
도 9는 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치에서 추정 자수 데이터의 생성 과정에 대한 동작 예시도.
도 10은 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 방법에 대한 동작 순서도.
Configuration of the existing embroidery terminal of Figure 1;
Figure 2 is a flow chart of the operation of the existing embroidery terminal.
3 is an exemplary view of an embroidery result according to information on an embroidery pattern generated by an existing embroidery terminal.
4 is a flowchart illustrating an operation of a service device for generating embroidery pattern information according to an embodiment of the present invention.
5 is an exemplary view of an embroidery result according to the embroidery pattern information generated by a service device for generating embroidery pattern information according to an embodiment of the present invention.
6 is a detailed configuration diagram of a service device for generating embroidery pattern information according to an embodiment of the present invention.
7 is an exemplary view of actual embroidery data learned by a service device for generating embroidery pattern information according to an embodiment of the present invention.
8 is a diagram illustrating an operation of a process of generating embroidery pattern information in a service device for generating embroidery pattern information according to an embodiment of the present invention.
9 is a diagram illustrating an operation of generating estimated embroidery data in a service device for generating embroidery pattern information according to an embodiment of the present invention.
10 is a flowchart illustrating a service method for generating embroidery pattern information according to an embodiment of the present invention.

이하, 도면을 참고하여 본 발명의 상세 실시예를 설명한다.Hereinafter, detailed embodiments of the present invention will be described with reference to the drawings.

도 4는 본 발명의 실시예에 따른 자수 패턴 정보의 생성을 위한 서비스 장치(100)의 동작 예시도로서, 도시된 바와 같이 상기 서비스 장치(100)는 자수 대상 이미지를 수신하고, 객체를 하나 이상의 구역으로 분할한 객체의 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 상기 자수 대상 이미지를 적용하여 상기 딥러닝 알고리즘을 통해 상기 자수 대상 이미지에 포함된 객체별로 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 하나 이상의 구역별 자수 패턴 및 구역 간 자수 순서에 대한 자수 패턴 정보(또는 자수 정보)를 생성할 수 있다.4 is an exemplary view of the operation of the service device 100 for generating embroidery pattern information according to an embodiment of the present invention. As shown, the service device 100 receives an image to be embroidered and selects one or more objects. The embroidery target image is applied to the deep learning algorithm in which the correlation between the zone division state of the object divided into zones, the embroidery pattern for each zone, and the embroidery order between zones is learned, and the embroidery target image is applied to the embroidery target image through the deep learning algorithm. For each included object, embroidery pattern information (or embroidery information) about a zone division state in which an object is divided into one or more zones, an embroidery pattern for one or more zones, and an embroidery order between zones may be generated.

또한, 상기 서비스 장치(100)는 상기 자수 대상 이미지의 객체별로 얻어진 자수 패턴 정보를 상기 서비스 장치(100)와 연결되는 자수기(200)로 전송하며, 상기 자수기(200)는 상기 자수 대상 이미지에 포함된 객체별로 수신된 자수 패턴 정보에 따라 자수(刺繡)를 수행하여 자수물을 생성할 수 있다.In addition, the service device 100 transmits the embroidery pattern information obtained for each object of the embroidery target image to the embroidery machine 200 connected to the service device 100, and the embroidery machine 200 is included in the embroidery target image. Embroidery can be generated by performing embroidery according to the received embroidery pattern information for each object.

즉, 도 5에 도시된 바와 같이, 본 발명의 실시예에 따른 서비스 장치(100)는 자수 전문가가 자수 대상 이미지를 확인하고, 자수 대상 이미지에 포함된 객체를 하나 이상의 구역으로 분할하여 구역별 자수 순서와 자수 패턴을 설정한 후 자수물을 작업하는 자수 전문가의 자수 방식과 유사하게 상기 자수기(200)에 의해 자수가 이루어지도록 상기 자수 패턴 정보를 상기 자수기(200)에 제공할 수 있으며, 이를 통해 자수 전문가가 작업한 결과물과 최대한 유사한 자수물이 제공되도록 지원함으로써 사용자의 만족도를 높일 수 있다.That is, as shown in FIG. 5, in the service apparatus 100 according to an embodiment of the present invention, the embroidery expert checks the image to be embroidered, and divides the object included in the image to be embroidered into one or more regions to embroider each region. After setting the order and embroidery pattern, the embroidery pattern information may be provided to the embroidery machine 200 so that embroidery is performed by the embroidery machine 200 similar to the embroidery method of an embroidery expert who works on embroidery. Users' satisfaction can be increased by providing embroidery materials that are as similar as possible to the results of embroidery experts' work.

이하 도면을 참고하여 상기 서비스 장치(100)의 상세 구성 및 동작 예시를 설명한다.Hereinafter, a detailed configuration and operation example of the service device 100 will be described with reference to the drawings.

도 6은 본 발명의 실시예에 따른 서비스 장치(100)의 구성도로서, 도시된 바와 같이, 이미지 수신부(110)와, 경로 생성부(120)와, 자동 자수패턴 생성부(130)와, 수동 자수패턴 생성부(140)와, 유사 자수패턴 생성부(150)와, 자수데이터 저장부(160) 및 자수기 관리부(170)를 포함하여 구성될 수 있다.6 is a configuration diagram of a service device 100 according to an embodiment of the present invention, as shown, an image receiving unit 110, a path generating unit 120, an automatic embroidery pattern generating unit 130, It may include a manual embroidery pattern generation unit 140, a similar embroidery pattern generation unit 150, an embroidery data storage unit 160, and an embroidery machine management unit 170.

이때, 이미지 수신부(110)와, 경로 생성부(120)와, 자동 자수패턴 생성부(130)와, 수동 자수패턴 생성부(140)와, 유사 자수패턴 생성부(150)와, 자수데이터 저장부(160) 및 자수기 관리부(170) 중 어느 하나가 상기 서비스 장치(100)의 전반적인 제어 기능을 수행하는 제어부로서 구성될 수 있다.At this time, the image receiving unit 110, the path generation unit 120, the automatic embroidery pattern generation unit 130, the manual embroidery pattern generation unit 140, the similar embroidery pattern generation unit 150, and embroidery data storage Any one of the unit 160 and the embroidery machine management unit 170 may be configured as a control unit that performs an overall control function of the service device 100.

또한, 상기 제어부는 상기 제어부는 상기 자수 데이터 저장부(160)에 저장된 프로그램 및 데이터를 이용하여 상기 서비스 장치(100)의 전반적인 제어 기능을 실행하고, 제어부는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다.In addition, the control unit executes an overall control function of the service device 100 using programs and data stored in the embroidery data storage unit 160, and the control unit controls RAM, ROM, CPU, GPU, and bus. It may include, and RAM, ROM, CPU, GPU, and the like may be connected to each other through a bus.

상술한 구성을 토대로 상기 서비스 장치(100)에 구성된 각 구성부의 상세 동작 구성을 설명하면, 우선, 상기 이미지 수신부(110)는 외부 장치로부터 자수 대상 이미지를 수신하거나 사용자 입력에 따라 상기 자수 대상 이미지를 수신할 수 있다.Based on the above-described configuration, the detailed operation configuration of each component configured in the service device 100 will be described. First, the image receiving unit 110 receives an embroidery target image from an external device or receives the embroidery target image according to a user input. Can receive.

또한, 자수데이터 저장부(160)는 복수의 서로 다른 객체별로 객체를 하나 이상의 구역으로 분할한 구역 분할 상태에 대한 분할 정보와 상기 구역별 자수 패턴 및 상기 구역 간 자수 순서를 포함하는 실재 자수 데이터를 저장할 수 있다.In addition, the embroidery data storage unit 160 stores real embroidery data including division information on the divisional state in which the object is divided into one or more areas for each of a plurality of different objects, the embroidery pattern for each area, and the order of embroidery between the areas. Can be saved.

이때, 도 7을 참고하여 상기 실재 자수 데이터의 예를 설명하면, 도시된 바와 같이 상기 실재 자수 데이터는 자수 전문가가 객체에 대해 자수한 결과물과 동일한 자수물이 생성되도록 하기 위한 자수 데이터로서, 상기 객체를 하나 이상의 구역으로 분할한 구역 분할 상태에 대한 분할 정보와, 상기 구역별로 자수 전문가의 자수에 의한 자수 패턴에 대한 정보와, 상기 구역별로 자수 전문가의 자수시에 결정되는 자수 순서와 동일한 구역 간 자수 순서(또는 구역별 자수 순서)에 대한 정보를 포함할 수 있다.In this case, an example of the real embroidery data will be described with reference to FIG. 7. As shown, the real embroidery data is embroidery data for generating the same embroidery as the result of embroidery on an object by an embroidery expert, and the object Division information on the state of division into one or more areas, information on the embroidery pattern by the embroidery expert's embroidery for each area, and embroidery between areas that are the same as the embroidery order determined at the time of embroidery by the embroidery expert for each area It may include information on the order (or the order of embroidery by region).

또한, 상기 분할 정보는 객체의 형상에 따라 하나 이상의 구역으로 분할된 객체의 구역 분할 상태에 대한 정보를 포함할 수 있으며, 상기 구역 분할 상태는 구역별 색상을 더 포함하여 구성될 수 있다. 이때, 상기 구역 분할 상태는 객체에 대한 하나 이상의 구역별 배치 상태(또는 배치 패턴)을 의미할 수 있다.In addition, the segmentation information may include information on a segmentation state of an object divided into one or more regions according to the shape of the object, and the segmentation state may further include a color for each region. In this case, the zone division state may mean an arrangement state (or arrangement pattern) of one or more zones for the object.

또한, 상기 자수데이터 저장부(160)는 상기 실재 자수 데이터를 상기 자동 자수패턴 생성부(130)에 제공할 수 있다.In addition, the embroidery data storage unit 160 may provide the real embroidery data to the automatic embroidery pattern generation unit 130.

이때, 상기 객체는 문자, 숫자, 도형 등과 같은 다양한 형태로 구성될 수 있다.In this case, the object may be configured in various forms such as letters, numbers, and figures.

한편, 도 8은 자동 자수패턴 생성부(130)의 동작 예시도로서, 도시된 바와 같이, 상기 자동 자수패턴 생성부(130)에는 딥러닝(Deep Learning) 알고리즘이 설정되어 구성될 수 있으며, 상기 자수데이터 저장부(160)에 저장되는 실재 자수 데이터를 상기 딥러닝 알고리즘에 학습시켜 상기 분할 정보에 따른 객체의 구역 분할 상태와 상기 구역별 자수 패턴 및 상기 구역 간 자수 순서(객체의 구역 분할 상태에 따른 구역별로 결정된 자수 순서) 사이의 상관 관계가 상기 딥러닝 알고리즘에 학습되도록 할 수 있다.On the other hand, FIG. 8 is an exemplary view of the operation of the automatic embroidery pattern generation unit 130. As shown, the automatic embroidery pattern generation unit 130 may be configured with a deep learning algorithm. The real embroidery data stored in the embroidery data storage unit 160 is learned by the deep learning algorithm, and the area division status of the object according to the division information, the embroidery pattern for each area, and the order of embroidery between the areas (the area division status of the object The correlation between the embroidering order determined for each area) can be learned by the deep learning algorithm.

이때, 상기 딥러닝 알고리즘은 하나 이상의 신경망 모델로 구성될 수 있으며, 상기 신경망 모델(또는 신경망)은 입력층(Input Layer), 하나 이상의 은닉층(Hidden Layers) 및 출력층(Output Layer)으로 구성될 수 있다.At this time, the deep learning algorithm may be composed of one or more neural network models, and the neural network model (or neural network) may be composed of an input layer, one or more hidden layers, and an output layer. .

또한, 상기 신경망 모델의 일례로서 DNN(Deep Neural Network), RNN(Recurrent Neural Network), CNN(Convolutional Neural Network), SVM(Support Vector Machine) 등과 같은 다양한 종류의 신경망이 적용될 수 있으며, 상기 딥러닝 알고리즘에는 CNN이 적용되는 것이 바람직하다.In addition, as an example of the neural network model, various types of neural networks such as DNN (Deep Neural Network), RNN (Recurrent Neural Network), CNN (Convolutional Neural Network), SVM (Support Vector Machine), etc. can be applied, and the deep learning algorithm It is preferable that CNN is applied to.

상술한 구성에 따라, 상기 자동 자수패턴 생성부(130)는 상기 이미지 수신부(110)로부터 수신되는 자수 대상 이미지를 상기 딥러닝 알고리즘에 적용할 수 있으며, 상기 딥러닝 알고리즘을 통해 상기 자수 대상 이미지에 포함된 객체별로 상기 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서를 포함하는 자수 패턴 정보를 생성할 수 있다.According to the above-described configuration, the automatic embroidery pattern generation unit 130 may apply the embroidery target image received from the image receiving unit 110 to the deep learning algorithm, and to the embroidery target image through the deep learning algorithm. Embroidery pattern information including the zone division state for each included object, the zone-specific embroidery pattern, and the inter-zone embroidery order may be generated.

즉, 상기 자동 자수패턴 생성부(130)는 상기 자수 대상 이미지에서 하나 이상의 객체를 식별하고, 상기 자수 대상 이미지에 포함되어 식별된 객체별로 상기 딥러닝 알고리즘을 통해 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 상기 구역 분할 상태에 따른 객체의 구역별 자수 패턴 및 상기 구역 분할 상태에 따른 객체에 구성된 하나 이상의 구역 각각의 자수 순서에 대한 자수 패턴 정보를 생성하여 제공할 수 있다.That is, the automatic embroidery pattern generation unit 130 identifies one or more objects in the image to be embroidered, and divides the object into one or more regions through the deep learning algorithm for each identified object included in the image to be embroidered. An embroidery pattern for each area of an object according to the division state and the division state, and embroidery pattern information on the embroidery order of each of one or more areas configured in the object according to the division state may be generated and provided.

한편, 자수기 관리부(170)는 상기 자동 자수패턴 생성부(130)로부터 수신되는 자수 대상 이미지에 포함된 객체별 자수 패턴 정보를 수신하여 실재 자수를 수행하는 자수기(200)에 전송할 수 있으며, 도 5에 도시된 바와 같이, 자수기(200)는 상기 자수 패턴 정보를 기초로 자수를 실제로 수행하여 상기 자수 대상 이미지에 대응되는 자수물을 생성할 수 있다.Meanwhile, the embroidery machine management unit 170 may receive embroidery pattern information for each object included in the image to be embroidery received from the automatic embroidery pattern generation unit 130 and transmit it to the embroidery machine 200 that performs actual embroidery. As shown in FIG. 2, the embroidery machine 200 may actually perform embroidery based on the embroidery pattern information to generate an embroidery material corresponding to the embroidery target image.

이때, 상기 자동 자수패턴 생성부(130)는 자수 대상 이미지에서 식별된 객체별로 배치 영역 또는 배치 위치에 대한 배치 정보를 상기 자수 패턴 정보에 포함시킬 수 있다.In this case, the automatic embroidery pattern generation unit 130 may include, in the embroidery pattern information, arrangement information on an arrangement area or arrangement position for each object identified in the embroidery target image.

상술한 구성에 따라, 상기 자수기(200)는 상기 객체별 자수 패턴 정보에 포함된 배치 정보를 기초로 자수 대상 이미지에 나타난 객체별 배치 패턴과 동일한 객체별 배치 패턴으로 자수된 자수물을 생성할 수 있다.According to the above-described configuration, the embroidery machine 200 may generate embroidery embroidered with the same object-specific arrangement pattern as the object-specific arrangement pattern shown in the image to be embroidered based on arrangement information included in the object-specific embroidery pattern information. have.

이때, 상기 자수기(200)는 상기 자수 패턴 정보에 포함된 객체의 구역별 색상에 따라 객체의 구역별로 설정된 색상과 동일한 색상의 실을 이용하여 객체를 자수할 수 있다.In this case, the embroidery machine 200 may embroider the object using a thread having the same color as the color set for each area of the object according to the color of each area of the object included in the embroidery pattern information.

상술한 구성을 통해, 본 발명은 객체별로 하나 이상의 구역으로 분할하여 구역별 자수 패턴과 자수의 순서 및 구역 분할 상태 사이의 상관 관계가 학습된 딥러닝 알고리즘에 자수 대상 이미지를 적용하여 자수 대상 이미지에 포함된 객체를 구역 단위로 분할하여 자수하기 위한 자수 패턴 정보가 생성되도록 하고 상기 자수 패턴 정보를 기초로 자수기를 통해 자수물이 생성되도록 함으로써, 객체를 구역별로 자수 처리가 가능하도록 지원하여 객체에 대응되는 자수물의 마감 처리가 용이할 뿐만 아니라 구역별로 색상을 상이하게 적용할 수 있도록 지원함으로써 객체에 대응되어 생성되는 실재 자수물에 다양한 자수 효과를 용이하게 적용할 수 있도록 지원함과 아울러 자수 전문가가 직접 수작업으로 자수한 결과물과 차이가 미미한 자수물을 제공하여 사용자 만족도를 높일 수 있다.Through the above-described configuration, the present invention applies the image to be embroidered to the image to be embroidered by applying the image to be embroidered to a deep learning algorithm in which the correlation between the embroidery pattern for each region and the order of embroidery and the state of region division is learned by dividing it into one or more regions for each object Embroidery pattern information for embroidery is generated by dividing the included object into zones, and the embroidery material is created through an embroidery machine based on the embroidery pattern information, so that the object can be embroidered for each zone to correspond to the object. Not only is it easy to finish the finished embroidery, but it also supports the application of different colors for each area, so that various embroidery effects can be easily applied to the actual embroidery created in response to the object, and the embroidery expert can do it manually. User satisfaction can be improved by providing embroidery with little difference from the result of embroidery.

한편, 상술한 구성에서, 상기 자수기(200)의 자수 정확도를 높이기 위해 상기 서비스 장치(100)는 자수의 경로에 대한 경로 정보를 생성하는 경로 생성부(120)를 더 포함할 수 있다.Meanwhile, in the above-described configuration, in order to increase the accuracy of embroidery of the embroidery machine 200, the service device 100 may further include a path generation unit 120 that generates path information for an embroidery path.

상기 경로 생성부(120)는 상기 자수 대상 이미지에 대응되어 상기 자동 자수패턴 생성부(130)로부터 객체별 자수 패턴 정보를 수신할 수 있다.The path generation unit 120 may receive embroidery pattern information for each object from the automatic embroidery pattern generation unit 130 in correspondence with the embroidery target image.

이에 따라, 상기 경로 생성부(120)는 상기 자동 자수패턴 생성부(130)로부터 수신된 자수 패턴 정보에 따른 객체의 배치 위치(또는 배치 영역)와 상기 구역별 자수 패턴 및 자수 순서를 기초로 자수의 경로에 대한 경로 정보를 객체별로 생성한 후 상기 경로 정보에 대응되는 객체의 자수 패턴 정보에 포함시켜 상기 자수기 관리부(170)에 제공할 수 있다.Accordingly, the path generation unit 120 embroiders based on the arrangement position (or arrangement area) of the object according to the embroidery pattern information received from the automatic embroidery pattern generation unit 130 and the embroidery pattern and embroidery order for each area. The path information for the path of is generated for each object, and then included in the embroidery pattern information of the object corresponding to the path information to be provided to the embroidery machine management unit 170.

이를 통해, 상기 자수기 관리부(170)로부터 경로 정보가 포함된 자수 패턴 정보를 수신한 상기 자수기(200)는 상기 경로 정보에 따라 자수를 수행하여 자수의 정확도를 높일 수 있다.Through this, the embroidery machine 200 receiving embroidery pattern information including path information from the embroidery machine management unit 170 may perform embroidery according to the path information to increase the accuracy of embroidery.

한편, 상기 자동 자수패턴 생성부(130)에서 실재 자수 데이터를 기반으로 학습된 딥러닝 알고리즘을 통해 자수 대상 이미지에 대응되어 객체별 자수 패턴 정보 생성시 기존에 학습된 객체들과 형태가 완전히 상이한 새로운 특정 객체가 자수 대상 이미지에 포함되어 상기 자동 자수패턴 생성부(130)에서 상기 특정 객체와 유사한 객체를 특정 또는 식별하지 못해 상기 특정 객체에 대해 자수 패턴 정보를 생성하지 못하거나 상기 특정 객체와의 유사도가 낮은 객체를 기반으로 생성한 자수 패턴 정보를 제공함으로써 상기 특정 객체에 대한 자수 패턴 정보의 생성의 실패한 경우 상기 특정 객체에 대한 자수가 제대로 이루어지지 못하는 경우가 발생할 수 있다.On the other hand, the automatic embroidery pattern generation unit 130 corresponds to the image to be embroidered through a deep learning algorithm learned based on the actual embroidery data, and when the embroidery pattern information for each object is generated, a new shape is completely different from the previously learned objects. Since a specific object is included in the image to be embroidered, the automatic embroidery pattern generation unit 130 fails to identify or identify an object similar to the specific object, so that embroidery pattern information cannot be generated for the specific object, or the degree of similarity with the specific object When the generation of the embroidery pattern information for the specific object fails by providing the embroidery pattern information generated based on the object with a lower value, embroidery for the specific object may not be performed properly.

이를 해결하기 위한 일 실시예로서, 상기 서비스 장치(100)는 사용자 입력에 따라 자수 패턴 정보를 생성하는 수동 자수패턴 생성부(140)를 포함할 수 있다.As an embodiment for solving this problem, the service device 100 may include a manual embroidery pattern generation unit 140 that generates embroidery pattern information according to a user input.

즉, 상기 자동 자수패턴 생성부(130)는 상기 딥러닝 알고리즘을 통해 상기 자수 대상 이미지에 포함된 특정 객체에 대한 자수 패턴 정보의 생성에 실패한 경우 상기 자수 대상 이미지에서 상기 특정 객체를 식별한 식별 정보를 생성하여 상기 수동 자수패턴 생성부(140)로 제공할 수 있다.That is, when the automatic embroidery pattern generation unit 130 fails to generate embroidery pattern information for a specific object included in the embroidery target image through the deep learning algorithm, identification information identifying the specific object in the embroidery target image May be generated and provided to the manual embroidery pattern generation unit 140.

또한, 상기 수동 자수패턴 생성부(140)는 상기 자동 자수패턴 생성부(130)로부터 상기 자수 대상 이미지 및 상기 식별정보를 수신하여 상기 자수 대상 이미지에서 자수 패턴 정보의 생성에 실패한 특정 객체를 상기 식별정보를 기초로 다른 객체와 구분되도록 가시적으로 표시할 수 있다.In addition, the manual embroidery pattern generation unit 140 receives the embroidery target image and the identification information from the automatic embroidery pattern generation unit 130 to identify a specific object that fails to generate the embroidery pattern information from the embroidery target image. Based on the information, it can be visually displayed to be distinguished from other objects.

이때, 상기 수동 자수패턴 생성부(140)는 디스플레이와 같은 외부 표시 장치와 연결되어 상기 특정 객체가 구분 표시된 자수 대상 이미지를 상기 외부 표시 장치에 출력하여 표시할 수 있다.In this case, the manual embroidery pattern generation unit 140 may be connected to an external display device such as a display to output and display an embroidery target image in which the specific object is classified and displayed on the external display device.

또한, 상기 수동 자수패턴 생성부(140)는 사용자 입력을 수신하며, 사용자 입력을 기초로 상기 특정 객체에 대한 자수 패턴 정보를 생성하여 상기 자수기 관리부(170)에 제공할 수 있다.In addition, the manual embroidery pattern generation unit 140 may receive a user input, generate embroidery pattern information for the specific object based on the user input, and provide it to the embroidery machine management unit 170.

이에 따라, 상기 자수기 관리부(170)는 상기 자동 자수패턴 생성부(130)로부터 자동으로 생성된 자수 패턴 정보를 수신하고, 상기 수동 자수패턴 생성부(140)로부터 사용자 입력에 따라 수동으로 생성된 자수 패턴 정보를 수신하여 상기 자수기 관리부(170)에 제공할 수 있으며, 상기 자수기 관리부(170)는 상기 자동 및 수동으로 생성된 자수 패턴 정보를 상기 자수기(200)에 전송하여 상기 자수기(200)에 의해 상기 특정 객체에 대한 자수가 이루어지도록 동작할 수 있다.Accordingly, the embroidery machine management unit 170 receives the automatically generated embroidery pattern information from the automatic embroidery pattern generation unit 130, and the manually generated embroidery according to a user input from the manual embroidery pattern generation unit 140 The pattern information may be received and provided to the embroidery machine management unit 170, and the embroidery machine management unit 170 transmits the automatically and manually generated embroidery pattern information to the embroidery machine 200 by the embroidery machine 200. It may be operated to perform embroidery on the specific object.

또한, 상기 자동 자수패턴 생성부(130)를 통해 자수 패턴 정보의 자동 생성에 실패한 특정 객체에 대해 자수 패턴 정보를 생성하기 위한 다른 실시예로서, 상기 서비스 장치(100)는 상기 실재 자수 데이터를 학습하여 자수 전문가가 작업한 사실이 없는 상기 특정 객체에 대해 상기 실재 자수 데이터와 유사한 가상의 추정 자수 데이터를 생성하는 유사 자수패턴 생성부(150)를 더 포함하여 상기 유사 자수 패턴 생성부를 통해 상기 자동 자수패턴 생성부(130)에서 자수 패턴 정보의 생성에 실패한 특정 객체에 대해 자수 전문가가 상기 특정 객체를 자수할 경우에 예상되는 결과물에 대한 자수 패턴 정보를 자동으로 생성하여 제공함으로써, 상기 딥러닝 알고리즘에 학습되지 않은 객체에 대해서도 용이하게 자수 패턴 정보를 자동으로 생성하여 제공할 수 있는데 이를 상기 유사 패턴정보 생성부의 구성을 나타낸 도 9와 상기 유사 패턴정보 생성부를 포함하는 서비스 장치(100)의 동작 순서도인 도 10을 통해 상세히 설명한다.In addition, as another embodiment for generating embroidery pattern information for a specific object that fails to automatically generate embroidery pattern information through the automatic embroidery pattern generation unit 130, the service device 100 learns the actual embroidery data. Thus, the automatic embroidery through the similar embroidery pattern generation unit further includes a similar embroidery pattern generation unit 150 for generating virtual estimated embroidery data similar to the real embroidery data for the specific object without the fact that the embroidery expert has worked. When the embroidery expert embroiders the specific object for a specific object for which the pattern generation unit 130 fails to generate the embroidery pattern information, the embroidery pattern information for the expected result is automatically generated and provided to the deep learning algorithm. Even for unlearned objects, embroidery pattern information can be easily generated and provided. This is shown in Fig. 9 showing the configuration of the similar pattern information generation unit, and an operation flow chart of the service device 100 including the similar pattern information generation unit. It will be described in detail with reference to FIG. 10.

도 9 및 도 10에 도시된 바와 같이, 상기 자동 자수패턴 생성부(130)는 상기 이미지 수신부(110)로부터 수신되는 자수 대상 이미지를 상기 딥러닝 알고리즘에 적용하여 상기 자수 대상 이미지에서 식별된 객체별로 자수 패턴 정보를 생성할 수 있다(S1, S2).9 and 10, the automatic embroidery pattern generation unit 130 applies the embroidery target image received from the image receiving unit 110 to the deep learning algorithm for each object identified in the embroidery target image. Embroidery pattern information can be generated (S1, S2).

이때, 상기 자동 자수패턴 생성부(130)는 상기 자수 대상 이미지에 포함된 하나 이상의 객체 중 자수 패턴 정보의 생성에 실패한 특정 객체가 존재하는 경우 상기 특정 객체를 자수 대상 이미지에서 식별하여 상기 특정 객체 관련 식별정보를 생성할 수 있다.In this case, the automatic embroidery pattern generation unit 130 identifies the specific object in the embroidery target image when there is a specific object that has failed to generate the embroidery pattern information among one or more objects included in the embroidery target image. Can generate identification information.

또한, 상기 유사 자수패턴 생성부(150)는 상기 자동 자수패턴 생성부(130)와 연동할 수 있으며, 상기 자동 자수패턴 생성부(130)에서 상기 식별정보 생성시 상기 자동 자수패턴 생성부(130)로부터 상기 식별 정보와 자수 대상 이미지를 수신하여 상기 자수 대상 이미지에서 상기 특정 객체를 식별할 수 있다.In addition, the similar embroidery pattern generation unit 150 may interlock with the automatic embroidery pattern generation unit 130, and when the identification information is generated by the automatic embroidery pattern generation unit 130, the automatic embroidery pattern generation unit 130 ) From the identification information and the image to be embroidered to identify the specific object in the image to be embroidered.

이때, 상기 유사 자수패턴 생성부(150)는 서로 다른 신경망 모델인 생성 모델과 지도 학습 모델을 포함하여 구성될 수 있다. 즉, 상기 유사 자수패턴 생성부(150)에는 생성 모델과 지도 학습 모델이 설정되어 구성될 수 있다.In this case, the similar embroidery pattern generation unit 150 may be configured to include a generation model and a supervised learning model, which are different neural network models. That is, a generation model and a supervised learning model may be set and configured in the similar embroidery pattern generation unit 150.

상기 유사 자수패턴 생성부(150)는 상기 자수데이터 저장부(160)로부터 상기 자동 자수패턴 생성부(130)와 마찬가지로 상기 실재 자수 데이터를 수신하여 상기 지도 학습 모델과 상기 생성 모델에 학습시킬 수 있으며, 이를 통해 상기 생성 모델과 상기 지도 학습 모델은 상기 딥러닝 알고리즘과 마찬가지로 상기 실재 자수 데이터의 학습을 통해 상기 상관 관계가 설정될 수 있다.The similar embroidery pattern generation unit 150 may receive the real embroidery data from the embroidery data storage unit 160, like the automatic embroidery pattern generation unit 130, and train the supervised learning model and the generated model. In this way, the correlation between the generated model and the supervised learning model may be established through learning of the real embroidery data, similar to the deep learning algorithm.

이때, 상기 생성 모델은 생성 모델은 데이터가 생성되는 과정을 확률분포 형태로 학습하는 모델로서, 입력 데이터의 패턴을 학습하여 이와 유사한 패턴을 가진 새로운 데이터를 생성할 수 있는 모델이다.In this case, the generation model is a model that learns a process of generating data in the form of a probability distribution, and is a model capable of generating new data having a similar pattern by learning a pattern of input data.

이러한 생성 모델의 일례로서, 생성 모델은 GAN(Generative Adversarial Network), VAE(Variational Auto-Encoder) 및 AnoGAN(Anomaly detection with GAN) 중 어느 하나를 기반으로 하는 신경망 모델로 구성될 수 있다.As an example of such a generation model, the generation model may be composed of a neural network model based on any one of a Generative Adversarial Network (GAN), a Variational Auto-Encoder (VAE), and Anomaly detection with GAN (AnoGAN).

즉, 생성 모델은 자수 전문가의 실제 자수에 의해 제조된 실재 결과물을 제조하기 위한 자수 전문가의 자수 과정 및 자수 결과를 데이터로 나타낸 상기 실재 자수 데이터를 학습하여 실재 자수 데이터의 데이터 패턴을 학습하며, 이를 통해 상기 생성 모델에 상기 자수 전문가의 자수 결과물에 대한 제조 패턴을 나타내는 상기 데이터 패턴과 유사한 유사 데이터 패턴을 생성할 수 있다.That is, the generation model learns the real embroidery data representing the embroidery process and the embroidery result of the embroidery expert to produce the real result manufactured by the real embroidery of the embroidery expert, and learns the data pattern of the real embroidery data. Through this, a similar data pattern similar to the data pattern representing the manufacturing pattern of the embroidery result of the embroidery expert may be generated in the generated model.

이에 따라, 상기 생성 모델은 상기 유사 데이터 패턴을 기반으로 입력으로 수신되는 객체와 관련하여 상기 객체와 관련된 자수 전문가의 결과물에 대한 실재 자수 데이터와 유사한 추정 자수 데이터를 상기 유사 데이터 패턴을 통해 생성할 수 있다.Accordingly, the generation model may generate estimated embroidery data similar to the actual embroidery data of the result of the embroidery expert related to the object in relation to the object received as an input based on the similar data pattern through the similar data pattern. have.

즉, 상기 생성 모델은 상기 유사 데이터 패턴을 통해 상기 객체에 대해 자수 전문가가 자수한 경우를 가정하여 인공적으로 상기 객체의 자수 결과물에 대한 상기 실재 자수 데이터와 유사한 추정 자수 데이터를 자동 생성할 수 있다.That is, the generation model may artificially automatically generate estimated embroidery data similar to the actual embroidery data for the result of embroidery of the object, assuming that the object is embroidered by an embroidery expert through the similar data pattern.

또한, 상기 지도 학습 모델은 상기 자동 자수패턴 생성부(130)의 딥러닝 알고리즘과 마찬가지로 상기 상관 관계를 학습하며, 상기 생성 모델로부터 상기 추정 자수 데이터를 수신하여 상기 추정 자수 데이터에 대한 오류 판정을 수행하고, 상기 오류 판정에 대한 오류 여부를 상기 생성 모델에 제공하여 상기 추정 자수 데이터에 대한 오류 여부를 학습시킬 수 있다.In addition, the supervised learning model learns the correlation like the deep learning algorithm of the automatic embroidery pattern generation unit 130, receives the estimated embroidery data from the generated model, and performs an error determination on the estimated embroidery data. And, it is possible to learn whether there is an error in the estimated embroidery data by providing the generation model with whether or not there is an error in determining the error.

이를 통해, 상기 생성 모델은 상기 생성 모델에 생성된(학습된) 유사 데이터 패턴을 추정 자수 데이터별 오류 여부에 따라 가변시키면서 상기 데이터 패턴과 상기 유사 데이터 패턴 사이의 편차를 감소시킬 수 있으며, 이를 통해 상기 유사 데이터 패턴에 의해 산출되는 추정 자수 데이터와 실재 자수 데이터 사이의 오차를 감소시킬 수 있다.Through this, the generation model can reduce the deviation between the data pattern and the similar data pattern while varying the (learned) similar data pattern generated in the generated model according to whether or not there is an error for each estimated embroidery data. It is possible to reduce an error between the estimated embroidery data and the actual embroidery data calculated by the similar data pattern.

즉, 상기 지도 학습 모델은 실재로 존재하는 자수물 관련 실재 자수 데이터를 기반으로 생성한 상관 관계를 기초로 상기 생성 모델에서 가상으로 생성한 추정 자수 데이터마다 오류 여부를 판정하여 이에 따른 오류 판정 결과가 상기 유사 데이터 패턴과 상기 데이터 패턴 사이의 편차를 감소시키기 위한 상기 생성 모델의 학습에 이용되도록 함으로써, 상기 생성 모델에서 생성하는 추정 자수 데이터의 수가 증가할 수록 상기 유사 데이터 패턴과 상기 데이터 패턴 사이의 상기 편차가 감소되어 상기 생성 모델에서 생성하는 특정 객체에 대한 추정 자수 데이터와 상기 특정 객체에 대한 실재 자수 데이터의 오차를 감소시킬 수 있다.That is, the supervised learning model determines whether there is an error for each estimated embroidery data virtually generated from the generated model based on the correlation generated based on the actual embroidery data related to the embroidery material, and the result of the error determination is As the number of estimated embroidery data generated by the generated model increases, the difference between the similar data pattern and the data pattern increases as the number of estimated embroidery data generated by the generated model increases by being used for training of the generation model to reduce the deviation between the similar data pattern and the data pattern. As the deviation is reduced, an error between the estimated embroidery data for a specific object generated by the generated model and the actual embroidery data for the specific object can be reduced.

상술한 구성에 따라, 상기 유사 자수패턴 생성부(150)는 상기 생성 모델과 상기 지도 학습 모델 각각에 상기 자수 데이터를 학습시켜 객체별 상기 실재 자수 데이터에 근거한 데이터 패턴과 유사한 유사 데이터 패턴이 학습된 상기 생성 모델을 통해 상기 유사 데이터 패턴을 기초로 객체에 대한 상기 실재 자수 데이터와 유사한 추정 자수 데이터를 산출하고, 상기 상관 관계가 학습된 상기 지도 학습 모델을 통해 상기 추정 자수 데이터에 대한 오류 판정을 수행한 후 상기 오류 판정 관련 결과를 상기 생성 모델에 학습시켜 상기 생성 모델에 설정되는 유사 데이터 패턴의 가변을 통해 상기 추정 자수 데이터와 실재 자수 데이터 사이의 오차를 감소시킬 수 있다.According to the above-described configuration, the similar embroidery pattern generation unit 150 learns the embroidery data in each of the generated model and the supervised learning model to learn a similar data pattern similar to a data pattern based on the real embroidery data for each object. Calculate estimated embroidery data similar to the real embroidery data for an object based on the similar data pattern through the generation model, and perform an error determination on the estimated embroidery data through the supervised learning model in which the correlation is learned. Thereafter, the error determination-related result is trained in the generation model, and an error between the estimated embroidery data and the actual embroidery data may be reduced by varying the similar data pattern set in the generated model.

또한, 상기 유사 자수패턴 생성부(150)는 상기 자동 자수패턴 생성부(130)와 연동하여 상기 자수 대상 이미지에 포함된 객체 중 상기 자동 자수패턴 생성부(130)에서 자수 패턴 정보의 생성에 실패한 특정 객체 존재시(S3) 상기 생성 모델을 통해 상기 특정 객체의 추정 자수 데이터를 산출하여 상기 특정 객체의 추정 자수 데이터를 상기 특정 객체에 대한 자수 패턴 정보로 상기 자수기 관리부(170)에 제공할 수 있다(S4).In addition, the similar embroidery pattern generation unit 150 interlocks with the automatic embroidery pattern generation unit 130 and fails to generate embroidery pattern information by the automatic embroidery pattern generation unit 130 among objects included in the image to be embroidery. When a specific object exists (S3), estimated embroidery data of the specific object may be calculated through the generation model, and the estimated embroidery data of the specific object may be provided to the embroidery machine management unit 170 as embroidery pattern information for the specific object. (S4).

이때, 상기 유사 자수패턴 생성부(150)는 상기 생성 모델이 상기 오차가 미리 설정된 기준치 이하가 될때까지 학습된 경우에만 상기 특정 객체의 추정 자수 데이터를 자수 패턴 정보로 상기 자수기 관리부(170)에 제공할 수도 있다.At this time, the similar embroidery pattern generation unit 150 provides the estimated embroidery data of the specific object to the embroidery machine management unit 170 as embroidery pattern information only when the generated model is learned until the error becomes less than a preset reference value. You may.

이에 따라, 상기 자수기 관리부(170)는 상기 자동 자수패턴 생성부(130)로부터 수신한 객체별 자수 패턴 정보와 상기 유사 자수패턴 생성부(150)로부터 수신한 객체별 자수 패턴 정보를 상기 자수기(200)에 제공하여, 상기 자수기(200)에 의해 자수 대상 이미지에 포함된 모든 객체에 대한 자수가 누락없이 수행되도록 할 수 있다(S5).Accordingly, the embroidery machine management unit 170 stores the object-specific embroidery pattern information received from the automatic embroidery pattern generation unit 130 and the object-specific embroidery pattern information received from the similar embroidery pattern generation unit 150. ), the embroidery machine 200 may perform embroidery on all objects included in the image to be embroidered without omission (S5).

상술한 구성을 통해, 상기 서비스 장치(100)는 기존에 학습된 객체들과 유사하지 조차 않은 새로운 형태의 객체에 대해서도 신경망 모델을 통해 인공적으로 자수 전문가가 작업한 경우를 가정한 자수 패턴 정보를 생성하여 제공할 수 있으므로, 객체의 형태에 구애 없이 전문가 수준의 자수물을 제공할 수 있다.Through the above configuration, the service device 100 generates embroidery pattern information assuming that an embroidery expert has artificially worked through a neural network model for a new type of object that is not even similar to the previously learned objects. Since it can be provided, it is possible to provide expert-level embroidery without regard to the shape of the object.

본 명세서에 기술된 다양한 장치 및 구성부는 하드웨어 회로(예를 들어, CMOS 기반 로직 회로), 펌웨어, 소프트웨어 또는 이들의 조합에 의해 구현될 수 있다. 예를 들어, 다양한 전기적 구조의 형태로 트랜지스터, 로직게이트 및 전자회로를 활용하여 구현될 수 있다.The various devices and components described herein may be implemented by hardware circuitry (eg, CMOS-based logic circuitry), firmware, software, or a combination thereof. For example, it may be implemented using transistors, logic gates, and electronic circuits in the form of various electrical structures.

전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above contents may be modified and modified without departing from the essential characteristics of the present invention by those of ordinary skill in the technical field to which the present invention belongs. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain the technical idea, and the scope of the technical idea of the present invention is not limited by these embodiments. The scope of protection of the present invention should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present invention.

100: 서비스 장치 110: 이미지 수신부
120: 경로 생성부 130: 자동 자수패턴 생성부
140: 수동 자수패턴 생성부 150: 유사 자수패턴 생성부
160: 자수데이터 저장부 170: 자수기 관리부
200: 자수기
100: service device 110: image receiving unit
120: path generation unit 130: automatic embroidery pattern generation unit
140: manual embroidery pattern generation unit 150: similar embroidery pattern generation unit
160: embroidery data storage unit 170: embroidery machine management unit
200: embroidery machine

Claims (8)

하나 이상의 객체가 포함된 자수 대상 이미지를 수신하는 이미지 수신부;
상기 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 상기 자수 대상 이미지를 적용하여 상기 자수 대상 이미지에 포함된 객체별로 구역 분할 상태와 하나 이상의 구역별 자수 패턴 및 구역간 자수 순서에 대한 자수 패턴 정보를 생성하는 자동 자수패턴 생성부; 및
상기 자수 패턴 정보를 자수기에 전송하여 상기 자수 대상 이미지에 대응되는 자수물이 생성되도록 하는 자수기 관리부
를 포함하는 자수 패턴 정보의 생성을 위한 서비스 장치.
An image receiving unit that receives an image to be embroidered including one or more objects;
The object included in the image to be embroidered by applying the image to be embroidered to a deep learning algorithm in which the relationship between the zone division state in which the object is divided into one or more zones, the embroidery pattern for each zone, and the embroidery order between zones is learned An automatic embroidery pattern generation unit that generates embroidery pattern information for each zone division state and one or more zone-specific embroidery patterns and inter-zone embroidery order; And
An embroidery machine management unit that transmits the embroidery pattern information to an embroidery machine to generate an embroidery material corresponding to the image to be embroidery
Service device for generating embroidery pattern information comprising a.
청구항 1에 있어서,
상기 객체는 문자, 숫자, 도형 중 어느 하나인 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method according to claim 1,
The service device for generating embroidery pattern information, wherein the object is any one of a letter, a number, and a figure.
청구항 1에 있어서,
상기 분할 정보는 구역별 색상을 더 포함하는 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method according to claim 1,
The division information further includes a color for each area.
청구항 1에 있어서,
복수의 서로 다른 객체별로 객체를 하나 이상의 구역으로 분할한 분할 정보와 상기 구역별 자수 패턴 및 상기 구역 간 자수 순서를 포함하는 실재 자수 데이터를 상기 자동 자수패턴 생성부에 제공하는 자수 데이터 저장부를 더 포함하고,
상기 자동 자수패턴 생성부는 상기 실재 자수 데이터를 상기 딥러닝 알고리즘에 학습시켜 상기 상관 관계가 상기 딥러닝 알고리즘에 설정되도록 동작하는 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method according to claim 1,
Further comprising: an embroidery data storage unit for providing the automatic embroidery pattern generation unit with segmentation information obtained by dividing the object into one or more areas for each of a plurality of different objects, and actual embroidery data including the embroidery pattern for each area and the order of embroidery between the areas and,
The automatic embroidery pattern generator is a service apparatus for generating embroidery pattern information, characterized in that by learning the real embroidery data to the deep learning algorithm to set the correlation to the deep learning algorithm.
청구항 4에 있어서,
서로 다른 신경망 모델인 생성 모델과 지도 학습 모델을 포함하여 구성되고, 상기 생성 모델과 상기 지도 학습 모델 각각에 상기 실재 자수 데이터를 학습시켜 객체별 상기 실재 자수 데이터에 근거한 데이터 패턴과 유사한 유사 데이터 패턴이 학습된 상기 생성 모델을 통해 상기 유사 데이터 패턴을 기초로 객체에 대한 상기 실재 자수 데이터와 유사한 추정 자수 데이터를 산출하고, 상기 상관 관계가 학습된 상기 지도 학습 모델을 통해 상기 추정 자수 데이터에 대한 오류 판정을 수행한 후 상기 오류 판정 관련 결과를 상기 생성 모델에 학습시켜 상기 생성 모델에 설정되는 유사 데이터 패턴의 가변을 통해 상기 추정 자수 데이터와 실재 자수 데이터 사이의 오차를 감소시키며, 상기 자동 자수패턴 생성부와 연동하여 상기 자수 대상 이미지에 포함된 객체 중 상기 자동 자수패턴 생성부에서 상기 자수 패턴 정보의 생성에 실패한 특정 객체 존재시 상기 생성 모델을 통해 상기 특정 객체의 추정 자수 데이터를 산출하여 상기 자수기 관리부에 상기 자수 패턴 정보로 제공하는 유사 자수패턴 제공부를 더 포함하는 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method of claim 4,
A similar data pattern similar to a data pattern based on the real embroidery data for each object is formed by learning the real embroidery data in each of the generated model and the supervised learning model. Calculating estimated embroidery data similar to the real embroidery data for an object based on the similar data pattern through the learned generation model, and determining an error in the estimated embroidery data through the supervised learning model in which the correlation is learned After performing, the error determination-related result is learned in the generation model, and an error between the estimated embroidery data and the actual embroidery data is reduced by varying the similar data pattern set in the generated model, and the automatic embroidery pattern generation unit When there is a specific object in which the automatic embroidery pattern generation unit fails to generate the embroidery pattern information among objects included in the image to be embroidery, the embroidery machine management unit calculates estimated embroidery data of the specific object through the generation model in connection with A service apparatus for generating embroidery pattern information, further comprising: a similar embroidery pattern providing unit providing the embroidery pattern information.
청구항 1에 있어서,
상기 자동 자수패턴 생성부로부터 수신된 자수 패턴 정보에 따른 객체의 배치 위치와 상기 구역별 자수 패턴 및 자수 순서를 기초로 자수의 경로에 대한 경로 정보를 객체별로 생성한 후 상기 경로 정보에 대응되는 객체의 자수 패턴 정보에 포함시켜 상기 자수기 관리부에 제공하는 경로 생성부를 더 포함하는 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method according to claim 1,
An object corresponding to the path information after generating path information for an embroidery path for each object based on the arrangement position of the object according to the embroidery pattern information received from the automatic embroidery pattern generation unit, the embroidery pattern for each area, and the embroidery order A service apparatus for generating embroidery pattern information, further comprising: a path generator that is included in the embroidery pattern information of and provided to the embroidery machine management unit.
청구항 1에 있어서,
상기 자동 자수패턴 생성부는 상기 딥러닝 알고리즘을 통해 상기 자수 대상 이미지에 포함된 특정 객체에 대한 자수 패턴 정보의 생성에 실패한 경우 상기 자수 대상 이미지에서 상기 특정 객체를 식별한 식별 정보를 생성하여 제공하고,
상기 자동 자수패턴 생성부로부터 상기 자수 대상 이미지 및 상기 식별정보를 수신하여 상기 특정 객체를 상기 자수 대상 이미지에서 다른 객체와 구분하여 표시하고, 사용자 입력을 기초로 상기 특정 객체에 대한 자수 패턴 정보를 생성하여 상기 자수기 관리부에 제공하는 수동 자수패턴 생성부를 더 포함하는 것을 특징으로 하는 자수 패턴 정보의 생성을 위한 서비스 장치.
The method according to claim 1,
The automatic embroidery pattern generation unit generates and provides identification information identifying the specific object in the embroidery target image when generation of embroidery pattern information for a specific object included in the embroidery target image fails through the deep learning algorithm,
Receives the embroidery target image and the identification information from the automatic embroidery pattern generation unit, displays the specific object separately from other objects in the embroidery target image, and generates embroidery pattern information for the specific object based on a user input The service apparatus for generating embroidery pattern information, further comprising a manual embroidery pattern generation unit provided to the embroidery machine management unit.
서비스 장치의 자수 패턴 정보의 생성을 위한 서비스 방법에 있어서,
하나 이상의 객체가 포함된 자수 대상 이미지를 수신하는 단계;
상기 객체를 하나 이상의 구역으로 분할한 구역 분할 상태와 상기 구역별 자수패턴 및 상기 구역간 자수 순서 사이의 상관 관계가 학습된 딥러닝 알고리즘에 상기 자수 대상 이미지를 적용하여 상기 자수 대상 이미지에 포함된 객체별로 구역 분할 상태와 하나 이상의 구역별 자수 패턴 및 구역간 자수 순서에 대한 자수 패턴 정보를 생성하는 단계; 및
상기 자수 패턴 정보를 자수기에 전송하여 상기 자수 대상 이미지에 대응되는 자수물이 생성되도록 하는 단계
를 포함하는 자수 패턴 정보의 생성을 위한 서비스 방법.
In a service method for generating embroidery pattern information of a service device,
Receiving an image to be embroidered including one or more objects;
The object included in the image to be embroidered by applying the image to be embroidered to a deep learning algorithm in which the relationship between the zone division state in which the object is divided into one or more zones, the embroidery pattern for each zone, and the embroidery order between zones is learned Generating embroidery pattern information on a state of division of regions, embroidery patterns for each region, and embroidery order between regions; And
Transmitting the embroidery pattern information to an embroidery machine so that an embroidery material corresponding to the image to be embroidery is generated
Service method for generating embroidery pattern information comprising a.
KR1020190028178A 2019-03-12 2019-03-12 Service apparatus and method for generation of embroidery pattern information KR102606043B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190028178A KR102606043B1 (en) 2019-03-12 2019-03-12 Service apparatus and method for generation of embroidery pattern information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190028178A KR102606043B1 (en) 2019-03-12 2019-03-12 Service apparatus and method for generation of embroidery pattern information

Publications (2)

Publication Number Publication Date
KR20200115714A true KR20200115714A (en) 2020-10-08
KR102606043B1 KR102606043B1 (en) 2023-11-24

Family

ID=72897220

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190028178A KR102606043B1 (en) 2019-03-12 2019-03-12 Service apparatus and method for generation of embroidery pattern information

Country Status (1)

Country Link
KR (1) KR102606043B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112529113A (en) * 2020-12-30 2021-03-19 江苏惟妙纺织科技有限公司 Embroidery production control method and system
CN112633397A (en) * 2020-12-29 2021-04-09 江苏惟妙纺织科技有限公司 Embroidery customization method and system
KR102327746B1 (en) * 2021-03-25 2021-11-17 정아람 System for providing sewing servic using subject extraction from picture

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09256258A (en) * 1996-03-26 1997-09-30 Datsukusu:Kk Preparation of embroidery data, apparatus therefor and apparatus for preparing name embroidery data
JP3761902B2 (en) * 1993-07-20 2006-03-29 蛇の目ミシン工業株式会社 Multicolor embroidery pattern input device
KR20130109905A (en) * 2012-03-28 2013-10-08 주식회사 스페이스솔루션 Operation box of embroidering machine and method for generating embroidery data using the same
KR20170065195A (en) 2015-12-03 2017-06-13 이정화 Automatic Stitch Manufacture System

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3761902B2 (en) * 1993-07-20 2006-03-29 蛇の目ミシン工業株式会社 Multicolor embroidery pattern input device
JPH09256258A (en) * 1996-03-26 1997-09-30 Datsukusu:Kk Preparation of embroidery data, apparatus therefor and apparatus for preparing name embroidery data
KR20130109905A (en) * 2012-03-28 2013-10-08 주식회사 스페이스솔루션 Operation box of embroidering machine and method for generating embroidery data using the same
KR20170065195A (en) 2015-12-03 2017-06-13 이정화 Automatic Stitch Manufacture System

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112633397A (en) * 2020-12-29 2021-04-09 江苏惟妙纺织科技有限公司 Embroidery customization method and system
CN112633397B (en) * 2020-12-29 2021-12-14 江苏惟妙纺织科技有限公司 Embroidery customization method and system
CN112529113A (en) * 2020-12-30 2021-03-19 江苏惟妙纺织科技有限公司 Embroidery production control method and system
CN112529113B (en) * 2020-12-30 2021-12-14 江苏惟妙纺织科技有限公司 Embroidery production control method and system
KR102327746B1 (en) * 2021-03-25 2021-11-17 정아람 System for providing sewing servic using subject extraction from picture

Also Published As

Publication number Publication date
KR102606043B1 (en) 2023-11-24

Similar Documents

Publication Publication Date Title
KR20200115714A (en) Service apparatus and method for generation of embroidery pattern information
US20230324874A1 (en) System and method for improving assembly line processes
CN107657650B (en) Animation model role binding method and system based on Maya software
CN108052765A (en) Scheme of colour automatic generation method and device based on personality impression
JP2023537268A (en) Image database analysis-based product recommendation device and method
KR102211480B1 (en) Apparatus and method for analyzing basketball match based on 2d coordinates
Wimmer et al. Learning local objective functions for robust face model fitting
CN108256454A (en) A kind of training method based on CNN models, human face posture estimating and measuring method and device
CN106874830A (en) A kind of visually impaired people's householder method based on RGB D cameras and recognition of face
CN108115678A (en) Robot and its method of controlling operation and device
CN103971363B (en) Image partition method based on hierarchical fuzzy c averages
WO2021009880A1 (en) Design assistance device and design assistance method
JP7336033B2 (en) Data augmentation-based matter analysis model learning device and method
KR102430740B1 (en) Apparatus and method for developing style analysis model based on data augmentation
CN112966777B (en) Semi-automatic labeling method and system based on human-computer interaction
CN110516598A (en) Method and apparatus for generating image
CN115793587B (en) Garment manufacturing process and device based on artificial intelligence
GB2616774A (en) Generating evaluation-mask for multi-factor authentication
KR102430742B1 (en) Apparatus and method for developing space analysis model based on data augmentation
Sagong et al. CGANs with conditional convolution layer
Ivaschenko et al. Industrial application of accented visualization based on Augmented Reality
CN113298619A (en) 3D commodity live broadcast display method and system based on free viewpoint technology
KR102211135B1 (en) Apparatus and method for analyzing basketball match based on multiple neural networks
KR20060115700A (en) Child language teaching system of flash type to be ease to change face of character
US11972515B1 (en) Systems and methods for customizing motion associated with point cloud animations

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant