KR102300500B1 - Method, device and system for processing three-dimensional cut image of product - Google Patents

Method, device and system for processing three-dimensional cut image of product Download PDF

Info

Publication number
KR102300500B1
KR102300500B1 KR1020210008472A KR20210008472A KR102300500B1 KR 102300500 B1 KR102300500 B1 KR 102300500B1 KR 1020210008472 A KR1020210008472 A KR 1020210008472A KR 20210008472 A KR20210008472 A KR 20210008472A KR 102300500 B1 KR102300500 B1 KR 102300500B1
Authority
KR
South Korea
Prior art keywords
product
image
line
point
neural network
Prior art date
Application number
KR1020210008472A
Other languages
Korean (ko)
Inventor
김범준
Original Assignee
김범준
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김범준 filed Critical 김범준
Priority to KR1020210008472A priority Critical patent/KR102300500B1/en
Application granted granted Critical
Publication of KR102300500B1 publication Critical patent/KR102300500B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers
    • G06T5/001
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Image Analysis (AREA)

Abstract

In accordance with one embodiment of the present invention, a method for processing an image of a stereoscopic picture of a product, performed by a device, comprises the steps of: obtaining a first image which is an original image of a product from a photographing device when a product worn by a mannequin or a person is photographed; generating a first input signal by encoding the first image; inputting the first input signal to a first artificial neural network, and obtaining a first output signal on the basis of a result of inputting the first artificial neural network; identifying a first category which is a type of the product on the basis of the first output signal; comparing a representative image of the first category with the first image for each part, and setting a correction value for each part of the product; generating a second image which is an image that an outline of the product is corrected by performing a pixel fluidization operation for each part in the first image on the basis of the correction value; analyzing the second image to distinguish a product area occupied by the product and a background area in the second image; and deleting the background area from the second image to generate a third image which is an image including only the product area. Therefore, a stereoscopic picture of the product can be quickly and easily provided.

Description

제품 입체컷 이미지 처리 방법, 장치 및 시스템 {METHOD, DEVICE AND SYSTEM FOR PROCESSING THREE-DIMENSIONAL CUT IMAGE OF PRODUCT}Product stereoscopic cut image processing method, device and system {METHOD, DEVICE AND SYSTEM FOR PROCESSING THREE-DIMENSIONAL CUT IMAGE OF PRODUCT}

아래 실시예들은 제품 입체컷에 대한 이미지를 처리하는 기술에 관한 것이다.The embodiments below relate to a technology for processing an image for a three-dimensional cut of a product.

최근, 온라인을 통한 거래가 급증하면서, 다양한 제품들이 온라인 쇼핑몰에 등록되어 판매되고 있다.Recently, as transactions through online have increased rapidly, various products are registered and sold in online shopping malls.

온라인 쇼핑몰에서는 제품을 직접 보지 못하고 제품 사진들만 확인하여 구매를 진행하기 때문에, 다양한 제품 사진들이 쇼핑몰 상에 게시되고 있다.In an online shopping mall, various product pictures are posted on the shopping mall because the purchase is made by checking only product pictures without seeing the product directly.

하지만, 의류, 잡화 등과 같이 사람이 착용하는 제품들은 촬영 시간을 줄이기 위해 사람이 착용하지 않은 상태에서 제품에 대한 사진 촬영이 이루어져, 구매자가 제품의 정확한 크기 및 형태를 파악하는데 어려움이 있다.However, for products worn by people, such as clothing and miscellaneous goods, photos are taken without people wearing them to reduce shooting time, so it is difficult for a buyer to understand the exact size and shape of the product.

또한, 제품을 사람이 착용한 상태에서 사진을 촬영하더라도, 사람과 제품이 함께 노출되기 때문에, 제품만 부각되지 않는다는 문제가 있다.In addition, even when a picture is taken while a person is wearing the product, since the person and the product are exposed together, there is a problem that only the product is not highlighted.

따라서, 제품이 가지고 있는 입체적인 특징을 나타내면서 제품만 부각될 수 있도록, 제품의 입체컷을 용이하고 빠르게 제공하고자 하는 요구가 증대되고 있다.Accordingly, there is an increasing demand for providing a three-dimensional cut of a product easily and quickly so that only the product can be highlighted while displaying the three-dimensional characteristics of the product.

일실시예에 따르면, 촬영 장비로부터 제품의 원본 이미지인 제1 이미지를 통해 제품의 종류인 제1 카테고리를 식별하고, 제1 카테고리의 대표 이미지와 제1 이미지를 부위별로 비교하여, 제품의 부위별 보정값을 설정하고, 보정값을 기초로 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 제품의 핏이 보정된 이미지인 제2 이미지를 생성하고, 제2 이미지를 분석하여 제2 이미지에서 제품이 차지하고 있는 제품 영역과 배경 영역을 구분하고, 제2 이미지에서 배경 영역을 삭제하여, 제품 영역으로만 구성된 이미지인 제3 이미지를 생성하는, 제품 입체컷 이미지 처리 방법, 장치 및 시스템을 제공하기 위한 것을 그 목적으로 한다.According to an embodiment, the first category, which is the type of the product, is identified from the photographing equipment through the first image that is the original image of the product, and the representative image of the first category and the first image are compared for each part, and each part of the product A correction value is set, a pixelation operation is performed for each part in the first image based on the correction value, a second image is generated that is an image in which the fit of the product is corrected, and the second image is analyzed to convert the product from the second image. To provide a product stereoscopic image processing method, apparatus, and system for separating the product area and the background area occupied by the product area and deleting the background area from the second image to generate a third image that is an image composed only of the product area for that purpose

본 발명의 목적은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 명확하게 이해될 수 있을 것이다.Objects of the present invention are not limited to the objects mentioned above, and other objects not mentioned will be clearly understood from the description below.

일실시예에 따르면, 장치에 의해 수행되는, 제품 입체컷에 대한 이미지를 처리하는 방법에 있어서, 마네킹 또는 사람이 착용한 제품에 대한 촬영이 수행되면, 촬영 장비로부터 상기 제품의 원본 이미지인 제1 이미지를 획득하는 단계; 상기 제1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계; 상기 제1 입력 신호를 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계; 상기 제1 출력 신호에 기초하여, 상기 제품의 종류인 제1 카테고리를 식별하는 단계; 상기 제1 카테고리의 대표 이미지와 상기 제1 이미지를 부위별로 비교하여, 상기 제품의 부위별 보정값을 설정하는 단계; 상기 보정값을 기초로 상기 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 상기 제품의 핏이 보정된 이미지인 제2 이미지를 생성하는 단계; 상기 제2 이미지를 분석하여 상기 제2 이미지에서 상기 제품이 차지하고 있는 제품 영역과 배경 영역을 구분하는 단계; 및 상기 제2 이미지에서 상기 배경 영역을 삭제하여, 상기 제품 영역으로만 구성된 이미지인 제3 이미지를 생성하는 단계를 포함하는, 제품 입체컷 이미지 처리 방법이 제공된다.According to one embodiment, in the method of processing an image for a three-dimensional cut of a product, performed by an apparatus, when a photographing of a product worn by a mannequin or a person is performed, a first image that is an original image of the product from a photographing device acquiring an image; generating a first input signal by encoding the first image; inputting the first input signal to a first artificial neural network, and obtaining a first output signal based on a result of the input of the first artificial neural network; identifying a first category that is a type of the product based on the first output signal; comparing the representative image of the first category with the first image for each part, and setting a correction value for each part of the product; generating a second image in which the fit of the product is corrected by performing a pixel fluidization operation for each part in the first image based on the correction value; analyzing the second image to distinguish a product area and a background area occupied by the product in the second image; and deleting the background area from the second image to generate a third image that is an image composed of only the product area.

상기 제품 입체컷 이미지 처리 방법은, 상기 제3 이미지에서 상기 제품의 외곽선을 인식하고, 상기 제품의 외곽선을 상기 제1 카테고리에 미리 설정된 구간별로 분할하는 단계; 상기 제품의 외곽선에서 구간별로 분할된 복수의 선 각각을 직선과 곡선으로 분류하는 단계; 상기 복수의 선 각각이 연결되는 지점에 위치한 복수의 점 각각을 인식하고, 상기 복수의 점 각각을 직선과 직선이 연결되는 제1 유형, 직선과 곡선이 연결되는 제2 유형, 곡선과 직선이 연결되는 제3 유형, 곡선과 곡선이 연결되는 제4 유형으로 분류하는 단계; 및 상기 복수의 점 각각의 순번, 좌표 및 유형에 대한 정보를 상기 제품의 특징 정보로 등록하는 단계를 더 포함할 수 있다.The product three-dimensional cut image processing method may include: recognizing an outline of the product in the third image, and dividing the outline of the product into sections preset in the first category; classifying each of the plurality of lines divided for each section in the outline of the product into a straight line and a curved line; Recognizes each of a plurality of points located at a point where each of the plurality of lines is connected, and a first type in which a straight line and a straight line are connected to each of the plurality of points, a second type in which a straight line and a curved line are connected, and a curve and a straight line are connected to each of the plurality of points Classifying into a third type that becomes a curve and a fourth type in which the curve is connected; and registering information on the order, coordinates, and type of each of the plurality of points as characteristic information of the product.

상기 복수의 선 각각을 직선과 곡선으로 분류하는 단계는, 상기 복수의 선 중 어느 하나인 제1 선의 양끝에 위치한 제1 점 및 제2 점을 인식하는 단계; 상기 제1 선의 양끝이 아닌 중간 어느 부분에 위치한 제3 점을 인식하는 단계; 상기 제1 점과 상기 제3 점을 곧은 선으로 연결한 제2 선 및 상기 제2 점과 상기 제3 점을 곧은 선으로 연결한 제3 선을 생성하는 단계; 상기 제2 선 및 상기 제3 선을 결합한 제4 선과 상기 제1 선의 일치 여부를 확인하는 단계; 및 상기 제4 선과 상기 제1 선이 일치하는 것으로 확인되면, 상기 제1 선을 직선으로 분류하고, 상기 제4 선과 상기 제1 선이 일치하지 않는 것으로 확인되면, 상기 제1 선을 곡선으로 분류하는 단계를 포함할 수 있다.The step of classifying each of the plurality of lines into a straight line and a curved line may include: recognizing a first point and a second point located at both ends of a first line that is any one of the plurality of lines; recognizing a third point located in any part of the middle other than both ends of the first line; generating a second line connecting the first point and the third point with a straight line and a third line connecting the second point and the third point with a straight line; checking whether a fourth line combining the second line and the third line matches the first line; and when it is confirmed that the fourth line and the first line coincide, the first line is classified as a straight line, and when it is confirmed that the fourth line and the first line do not match, the first line is classified as a curve may include the step of

상기 제품 입체컷 이미지 처리 방법은, 상기 제품 영역 내에 있는 픽셀들의 평균 명도값인 제1 명도값을 산출하는 단계; 상기 배경 영역 내에 있는 픽셀들의 평균 명도값인 제2 명도값을 산출하는 단계; 상기 제1 명도값과 상기 제2 명도값 간의 차이인 제1 차이값을 산출하는 단계; 상기 제1 차이값이 미리 설정된 제1 기준 범위를 벗어나는 것으로 확인되면, 상기 촬영 장비의 조명 제어가 필요한 것으로 판단하는 단계; 상기 제1 차이값이 상기 제1 기준 범위의 최소값 보다 작은 것으로 확인되면, 상기 제1 차이값과 상기 제1 기준 범위의 최소값 간의 차이인 제2 차이값을 산출하는 단계; 상기 제2 차이값을 기초로 상기 촬영 장비의 조명에 대한 밝기 설정 레벨을 현재 설정된 레벨 보다 더 높은 레벨로 변경하는 단계; 상기 제1 차이값이 상기 제1 기준 범위의 최대값 보다 큰 것으로 확인되면, 상기 제1 차이값과 상기 제1 기준 범위의 최대값 간의 차이인 제3 차이값을 산출하는 단계; 및 상기 제3 차이값을 기초로 상기 촬영 장비의 조명에 대한 밝기 설정 레벨을 현재 설정된 레벨 보다 더 낮은 레벨로 변경하는 단계를 더 포함할 수 있다.The product three-dimensional cut image processing method may include: calculating a first brightness value that is an average brightness value of pixels in the product area; calculating a second brightness value that is an average brightness value of pixels in the background area; calculating a first difference value that is a difference between the first brightness value and the second brightness value; determining that lighting control of the photographing equipment is necessary when it is determined that the first difference value is out of a preset first reference range; calculating a second difference value that is a difference between the first difference value and the minimum value of the first reference range when it is determined that the first difference value is smaller than the minimum value of the first reference range; changing the brightness setting level for the lighting of the photographing equipment to a higher level than the currently set level based on the second difference value; calculating a third difference value that is a difference between the first difference value and the maximum value of the first reference range when it is determined that the first difference value is greater than the maximum value of the first reference range; and changing the brightness setting level for the lighting of the photographing equipment to a level lower than the currently set level based on the third difference value.

상기 제품 입체컷 이미지 처리 방법은, 촬영실 내에 배치된 복수의 촬영 장비 각각에 설정된 목표 온도 및 목표 습도를 확인하는 단계; 상기 복수의 촬영 장비 각각과 연결된 복수의 항온항습기 각각의 동작을 제어하여, 상기 복수의 촬영 장비 각각에서 측정된 온도가 상기 목표 온도를 유지하도록 조절하고, 상기 복수의 촬영 장비 각각에서 측정된 습도가 상기 목표 습도를 유지하도록 조절하는 단계; 상기 복수의 촬영 장비 별로 미리 설정된 기간 동안 상기 목표 온도 및 상기 목표 습도를 유지하도록 조절된 조절 횟수를 확인하는 단계; 상기 조절 횟수가 미리 설정된 제2 기준 범위 내에 있는 것으로 확인된 제1 촬영 장비를 이상이 없는 정상 상태로 분류하고, 상기 조절 횟수가 상기 제2 기준 범위를 벗어나는 것으로 확인된 제2 촬영 장비를 이상이 있는 비정상 상태로 분류하는 단계; 상기 제2 촬영 장비가 비정상 상태로 분류되면, 상기 제2 촬영 장비의 비정상 상태에 대한 알림 메시지가 관리자 단말로 전송되도록 제어하는 단계; 상기 제2 촬영 장비의 조절 횟수가 상기 제2 기준 범위의 최소값 보다 작은 것으로 확인되면, 상기 제2 촬영 장비를 비정상 상태에서 유휴 상태로 분류하고, 상기 제2 촬영 장비의 조절 횟수가 상기 제2 기준 범위의 최대값 보다 큰 것으로 확인되면, 상기 제2 촬영 장비를 비정상 상태에서 과부하 상태로 분류하는 단계; 상기 제2 촬영 장비가 유휴 상태로 분류되면, 상기 제2 촬영 장비의 유휴 상태에 대한 알림 메시지가 상기 관리자 단말로 전송되도록 제어하고, 상기 제2 촬영 장비가 과부하 상태로 분류되면, 상기 제2 촬영 장비의 과부하 상태에 대한 알림 메시지가 상기 관리자 단말로 전송되도록 제어하는 단계; 상기 제2 촬영 장비의 유휴 상태가 미리 설정된 기준 시간 이상으로 지속된 것이 확인되면, 상기 제2 촬영 장비를 자리 교체 대상 장비로 분류하고, 상기 제2 촬영 장비의 과부하 상태가 상기 기준 시간 이상으로 지속된 것이 확인되면, 상기 제2 촬영 장비를 수리 대상 장비로 분류하는 단계; 및 상기 제2 촬영 장비가 자리 교체 대상 장비로 분류되면, 상기 제2 촬영 장비에 대한 자리 교체가 필요한 것을 알려주는 알림 메시지가 상기 관리자 단말로 전송되도록 제어하고, 상기 제2 촬영 장비가 수리 대상 장비로 분류되면, 상기 제2 촬영 장비에 대한 수리가 필요한 것을 알려주는 알림 메시지가 상기 관리자 단말로 전송되도록 제어하는 단계를 더 포함할 수 있다.The product three-dimensional cut image processing method includes: checking a target temperature and a target humidity set in each of a plurality of photographing equipment disposed in a photographing room; By controlling the operation of each of the plurality of thermo-hygrostat connected to each of the plurality of photographing equipment, the temperature measured by each of the plurality of photographing equipment is adjusted to maintain the target temperature, and the humidity measured by each of the plurality of photographing equipment is adjusted adjusting to maintain the target humidity; checking the number of adjustments adjusted to maintain the target temperature and the target humidity for a preset period for each of the plurality of photographing devices; Classifying the first photographing equipment in which the number of adjustments is confirmed to be within the preset second reference range is classified as a normal state without abnormality, and the second photographing equipment in which the number of adjustments is determined to be out of the second reference range is abnormal. classifying it as an abnormal state; when the second imaging device is classified as an abnormal state, controlling to transmit a notification message regarding the abnormal state of the second imaging device to a manager terminal; When it is determined that the number of adjustments of the second photographing equipment is smaller than the minimum value of the second reference range, the second photographing equipment is classified as an idle state from an abnormal state, and the number of adjustments of the second photographing equipment is determined by the second reference classifying the second imaging device from an abnormal state to an overload state when it is confirmed that the value is greater than the maximum value of the range; When the second photographing equipment is classified as an idle state, a notification message regarding the idle state of the second photographing equipment is controlled to be transmitted to the manager terminal, and when the second photographing equipment is classified as an overload state, the second photographing controlling a notification message for an overload state of the equipment to be transmitted to the manager terminal; If it is confirmed that the idle state of the second photographing equipment continues for more than a preset reference time, the second photographing equipment is classified as a replacement target equipment, and the overload state of the second photographing equipment continues for more than the reference time classifying the second photographing equipment as repair target equipment when it is confirmed that the and when the second photographing equipment is classified as a replacement target device, a notification message informing that a replacement of a seat for the second photographing equipment is required is transmitted to the manager terminal, and the second photographing equipment is the equipment to be repaired The method may further include controlling to transmit a notification message informing that repair of the second photographing equipment is required to be transmitted to the manager terminal.

일실시예에 따르면, 촬영 장비로부터 제품의 원본 이미지인 제1 이미지를 통해 제품의 종류인 제1 카테고리를 식별하고, 제1 카테고리의 대표 이미지와 제1 이미지를 부위별로 비교하여, 제품의 부위별 보정값을 설정하고, 보정값을 기초로 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 제품의 핏이 보정된 이미지인 제2 이미지를 생성하고, 제2 이미지를 분석하여 제2 이미지에서 제품이 차지하고 있는 제품 영역과 배경 영역을 구분하고, 제2 이미지에서 배경 영역을 삭제하여, 제품 영역으로만 구성된 이미지인 제3 이미지를 생성함으로써, 제품이 가지고 있는 입체적인 특징을 나타내면서 제품만 부각될 수 있는 제품의 입체컷을 빠르고 용이하게 제공할 수 있는 효과가 있다.According to an embodiment, the first category, which is the type of the product, is identified from the photographing equipment through the first image that is the original image of the product, and the representative image of the first category and the first image are compared for each part, and each part of the product A correction value is set, a pixelation operation is performed for each part in the first image based on the correction value, a second image is generated that is an image in which the fit of the product is corrected, and the second image is analyzed to convert the product from the second image. By separating the product area and the background area occupied by this and deleting the background area from the second image, the third image is created, which is an image composed of only the product area, so that only the product can stand out while showing the three-dimensional characteristics of the product. It has the effect of providing a three-dimensional cut of the product quickly and easily.

한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, effects according to the embodiments are not limited to those mentioned above, and other effects not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

도 1은 일실시예에 따른 제품 입체컷에 대한 이미지를 처리하는 과정을 설명하기 위한 순서도이다.
도 2는 일실시예에 따른 제품의 외관 특징을 분석하는 과정을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 제품의 외곽선을 통해 복수의 선 및 복수의 점을 인식하는 과정을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 복수의 선 각각을 직선과 곡선으로 분류하는 과정을 설명하기 위한 순서도이다.
도 5는 일실시예에 따른 제1 선을 직선으로 분류하는 과정을 설명하기 위한 순서도이다.
도 6은 일실시예에 따른 제1 선을 곡선으로 분류하는 과정을 설명하기 위한 순서도이다.
도 7은 일실시예에 따른 촬영 장비의 조명을 제어하는 과정을 설명하기 위한 순서도이다.
도 8은 일실시예에 따른 촬영 장비의 상태를 분류하는 과정을 설명하기 위한 순서도이다.
도 9는 일실시예에 따른 제1 인공 신경망을 설명하기 위한 도면이다.
도 10은 일실시예에 따른 제1 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.
도 11은 일실시예에 따른 장치의 구성에 대한 예시도이다.
1 is a flowchart for explaining a process of processing an image for a three-dimensional product cut according to an embodiment.
2 is a flowchart illustrating a process of analyzing the appearance characteristics of a product according to an exemplary embodiment.
3 is a diagram for explaining a process of recognizing a plurality of lines and a plurality of points through an outline of a product according to an exemplary embodiment.
4 is a flowchart illustrating a process of classifying each of a plurality of lines into a straight line and a curved line according to an exemplary embodiment.
5 is a flowchart illustrating a process of classifying a first line into a straight line according to an exemplary embodiment.
6 is a flowchart illustrating a process of classifying a first line into a curve according to an exemplary embodiment.
7 is a flowchart illustrating a process of controlling lighting of a photographing device according to an exemplary embodiment.
8 is a flowchart illustrating a process of classifying states of photographing equipment according to an exemplary embodiment.
9 is a diagram for explaining a first artificial neural network according to an embodiment.
10 is a diagram for explaining a method of learning a first artificial neural network according to an embodiment.
11 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the patent application is not limited or limited by these embodiments. It should be understood that all modifications, equivalents and substitutes for the embodiments are included in the scope of the rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for purposes of illustration only, and may be changed and implemented in various forms. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical spirit.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, these terms should be interpreted only for the purpose of distinguishing one component from another. For example, a first component may be termed a second component, and similarly, a second component may also be termed a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being “connected to” another component, it may be directly connected or connected to the other component, but it should be understood that another component may exist in between.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for description purposes only, and should not be construed as limiting. The singular expression includes the plural expression unless the context clearly dictates otherwise. In the present specification, terms such as “comprise” or “have” are intended to designate that a feature, number, step, operation, component, part, or combination thereof described in the specification exists, but one or more other features It should be understood that this does not preclude the existence or addition of numbers, steps, operations, components, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms such as those defined in commonly used dictionaries should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same components are given the same reference numerals regardless of the reference numerals, and the overlapping description thereof will be omitted. In the description of the embodiment, if it is determined that a detailed description of a related known technology may unnecessarily obscure the gist of the embodiment, the detailed description thereof will be omitted.

실시예들은 퍼스널 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 스마트 폰, 텔레비전, 스마트 가전 기기, 지능형 자동차, 키오스크, 웨어러블 장치 등 다양한 형태의 제품으로 구현될 수 있다.The embodiments may be implemented in various types of products, such as personal computers, laptop computers, tablet computers, smart phones, televisions, smart home appliances, intelligent cars, kiosks, wearable devices, and the like.

도 1은 일실시예에 따른 제품 입체컷에 대한 이미지를 처리하는 과정을 설명하기 위한 순서도이다.1 is a flowchart for explaining a process of processing an image for a three-dimensional product cut according to an embodiment.

일실시예에 따르면, 장치는 제품 입체컷에 대한 이미지를 처리하는 방법을 수행하는 장치로서, 예를 들어 하드웨어 모듈, 소프트웨어 모듈 또는 이들의 조합으로 구현될 수 있다.According to an embodiment, the apparatus is an apparatus for performing a method of processing an image for a three-dimensional cut of a product, and may be implemented as, for example, a hardware module, a software module, or a combination thereof.

일실시예에 따르면, 장치는 단말로 구현될 수 있으며, 장치는 서버로 구현될 수도 있다. 서버는 단말과 통신할 수 있고, 필요한 정보를 데이터베이스로부터 열람하여 판단 동작에 채용하고, 판단의 결과물을 기반으로 데이터베이스를 갱신할 수 있다. 장치에 의해 수행되는 동작은 서버 및 단말 중 어느 하나 단독으로 구현될 수도 있지만, 서버 및 단말의 상호작용에 의해 구현될 수도 있다. 서버 및 단말은 전자 장치를 포함할 수 있다.According to an embodiment, the device may be implemented as a terminal, and the device may be implemented as a server. The server may communicate with the terminal, retrieve necessary information from the database, employ it in the judgment operation, and update the database based on the result of the judgment. The operation performed by the apparatus may be implemented by either one of the server and the terminal alone, or may be implemented by the interaction of the server and the terminal. The server and the terminal may include an electronic device.

일실시예에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.According to an embodiment, the electronic device may be a smart home appliance having a communication function. Smart home appliances include, for example, a television, a digital video disk (DVD) player, an audio device, a refrigerator, an air conditioner, a vacuum cleaner, an oven, a microwave oven, a washing machine, an air purifier, a set-top box, and a TV. It may include at least one of a box (eg, Samsung HomeSync™, Apple TV™, or Google TV™), game consoles, an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.

일실시예에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.According to an embodiment, the electronic device includes various medical devices (eg, magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), computed tomography (CT), imagers, ultrasound machines, etc.), navigation devices, and GPS receivers ( Global positioning system receiver), EDR (event data recorder), FDR (flight data recorder), automotive infotainment device, marine electronic equipment (e.g. marine navigation system and gyro compass, etc.), avionics, security It may include at least one of a device, a head unit for a vehicle, an industrial or household robot, an automatic teller's machine (ATM) of a financial institution, or a point of sales (POS) of a store.

일실시예에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 일실시예에에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 일실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 일실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.According to one embodiment, the electronic device is a piece of furniture or a building/structure including a communication function, an electronic board, an electronic signature receiving device, a projector, or various measurement devices. It may include at least one of devices (eg, water, electricity, gas, or radio wave measuring device, etc.). The electronic device according to an embodiment may be a combination of one or more of the various devices described above. Also, the electronic device according to an embodiment may be a flexible device. Also, it is apparent to those skilled in the art that the electronic device according to an embodiment is not limited to the above-described devices. The term user used in various embodiments may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) using the electronic device.

일실시예에 따른 전자 장치는 프로세서, 메모리, 사용자 인터페이스 및 통신 인터페이스를 포함하고, 다른 전자 장치와 네트워크를 통해 연결될 수 있다. 통신 인터페이스는 유, 무선 네트워크 또는 유선 직렬 통신 등을 통하여 소정 거리 이내의 다른 전자 장치와 데이터를 송수신할 수 있다. 네트워크는 일실시예에 따른 전자 장치와 다양한 개체들(entities) 간의 유, 무선 통신을 가능하게 한다. 전자 장치는 네트워크를 통해 다양한 개체들과 통신할 수 있고, 네트워크는 표준 통신 기술 및/또는 프로토콜들을 사용할 수 있다. 이때, 네트워크(network)는 인터넷(Internet), LAN(Local Area Network), Wireless LAN(Wireless Local Area Network), WAN(Wide Area Network), PAN(Personal Area Network) 등을 포함하나 이에 한정되지 않으며, 정보를 송, 수신할 수 있는 다른 종류의 네트워크가 될 수도 있음을 통신 기술 분야의 통상의 지식을 가진 자라면 알 수 있다.An electronic device according to an embodiment includes a processor, a memory, a user interface, and a communication interface, and may be connected to another electronic device through a network. The communication interface may transmit/receive data to and from another electronic device within a predetermined distance through a wired, wireless network, or wired serial communication. The network enables wired and wireless communication between the electronic device and various entities according to an embodiment. The electronic device may communicate with various entities over a network, and the network may use standard communication technologies and/or protocols. In this case, the network includes, but is not limited to, the Internet, a local area network (LAN), a wireless local area network (Wireless LAN), a wide area network (WAN), a personal area network (PAN), and the like, A person of ordinary skill in the art of communication technology can recognize that there may be other types of networks capable of transmitting and receiving information.

일실시예에 따른 휴대용 단말기는 통신 기능이 포함된 전자 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크톱 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 스마트카(smart car) 또는 스마트 와치(smartwatch)중 적어도 하나를 포함할 수 있다.The portable terminal according to an embodiment may be an electronic device including a communication function. For example, the electronic device includes a smart phone, a tablet personal computer (PC), a mobile phone, a video phone, an e-book reader, a desktop personal computer (PC), and a laptop. PC (laptop personal computer), netbook computer (netbook computer), PDA (personal digital assistant), PMP (portable multimedia player), MP3 player, mobile medical device, camera, or wearable device (such as: at least one of a head-mounted-device (HMD) such as electronic glasses, electronic apparel, electronic bracelets, electronic necklaces, electronic accessories, electronic tattoos, smart cars, or smartwatches. can

일실시예에 따르면, 장치는 촬영 장비와 유무선을 통해 연결되어, 촬영 장비의 동작을 제어할 수 있다. 여기서, 촬영 장비는 입체컷을 촬영하는 촬영 장비일 수 있다. 입체컷은 마네킹 또는 사람이 착용한 제품의 입체적인 특징을 나타내는 이미지이다.According to an embodiment, the device may be connected to the photographing equipment through wired/wireless and control the operation of the photographing equipment. Here, the photographing equipment may be photographing equipment for photographing a three-dimensional cut. A three-dimensional cut is an image showing the three-dimensional characteristics of a mannequin or a product worn by a person.

촬영 장비에서 제품에 대한 사진을 촬영하면, 장치는 제품 사진에 대한 이미지를 획득하여, 이미지 상에서 제품의 테두리를 인식하여 제품 이외의 배경 영역을 자체적으로 제거하고, 제품 이미지의 파일 형식도 자유롭게 추출할 수 있으므로, 별도로 사진사가 필요하지 않아도 제품 사진을 촬영할 수 있다.When photographing equipment takes a picture of a product, the device acquires an image of the product picture, recognizes the border of the product on the image, removes the background area other than the product by itself, and can freely extract the file format of the product image. Therefore, you can take product photos without the need for a separate photographer.

장치는 촬영된 제품 사진에 대한 포토샵 처리를 통해, 배경 제거, 좌우 대칭, 구김 제거, 마네킹 제거 등의 기능을 제공할 수 있다. 이때, 장치는 제품이 착용한 핏을 잡아 이미지를 처리할 수 있으며, 제품 사진의 절반만 작업해서 합성하거나, 제품의 재질도 합성하도록 서비스를 제공할 수 있다.The device may provide functions such as background removal, left-right symmetry, wrinkle removal, and mannequin removal through photoshop processing of the photographed product photo. At this time, the device may process the image by capturing the fit worn by the product, and may provide a service to synthesize by working only half of the product photo or to synthesize the material of the product.

장치는 제품의 핏을 정하는데 있어, 마네킹이 착용한 제품의 이미지를 통해 기준을 정할 수 있으며, 제품의 카테고리 마다 상이한 방식으로 제품의 기본 핏을 잡아주는 과정을 처리할 수 있다.In determining the fit of the product, the device may set a standard through the image of the product worn by the mannequin, and may process the process of fixing the basic fit of the product in a different way for each product category.

일실시예에 따르면, 촬영 장비는 장치의 제어에 의해, 제품의 입체컷 촬영 시, 제품이 가지고 있는 특징을 확인하고, 촬영 장비의 조명을 자동으로 설정하고, 여러 각도에서 제품을 촬영하여 입체적인 이미지를 생성할 수 있다. 이때, 제품은 옷, 신발, 모자 등 다양한 제품을 포함할 수 있다.According to an embodiment, the photographing equipment checks the characteristics of the product when taking a three-dimensional cut of the product under the control of the device, automatically sets the lighting of the photographing equipment, and shoots the product from various angles to obtain a three-dimensional image can create In this case, the product may include various products such as clothes, shoes, and hats.

도 1을 참조하면, 먼저, S101 단계에서, 장치는 촬영 장비를 통해 마네킹 또는 사람이 착용한 제품에 대한 촬영이 수행되면, 촬영 장비로부터 제품의 원본 이미지인 제1 이미지를 획득할 수 있다.Referring to FIG. 1 , first, in step S101, when a photographing of a product worn by a mannequin or a person is performed through the photographing equipment, the device may acquire a first image that is an original image of the product from the photographing equipment.

장치는 제1 이미지를 인코딩 하여 제1 입력 신호를 생성할 수 있다.The device may encode the first image to generate a first input signal.

구체적으로, 장치는 제1 이미지의 픽셀을 색 정보로 인코딩하여 제1 입력 신호를 생성할 수 있다. 색 정보는 RGB 색상 정보, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다. 장치는 색 정보를 수치화된 값으로 환산할 수 있으며, 이 값을 포함한 데이터 시트 형태로 제1 이미지를 인코딩할 수 있다.Specifically, the device may generate the first input signal by encoding the pixels of the first image with color information. The color information may include, but is not limited to, RGB color information, brightness information, and saturation information. The device may convert the color information into a numerical value, and may encode the first image in the form of a data sheet including the value.

장치는 제1 입력 신호를 장치 내 미리 학습된 제1 인공 신경망에 입력할 수 있다.The device may input the first input signal to the pre-trained first artificial neural network in the device.

일실시예에 따른 제1 인공 신경망은 특징 추출 신경망과 분류 신경망으로 구성되어 있으며 특징 추출 신경망은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The first artificial neural network according to an embodiment is composed of a feature extraction neural network and a classification neural network, and the feature extraction neural network sequentially stacks a convolutional layer and a pooling layer on an input signal. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.

일실시예에 따르면, 분류 신경망은 히든 레이어와 출력 레이어를 가지고 있다. 객체 후보 검출을 위한 제1 인공 신경망의 분류 신경망은 5층 이하의 히든 레이어로 구성되며, 총 50개 이하의 히든 레이어 노드를 포함할 수 있다. 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 분류 신경망의 출력 레이어 노드는 총 1개이며, 제품의 종류에 대한 출력값을 출력 레이어 노드에 출력할 수 있다. 제1 인공 신경망에 대한 자세한 설명은 도 9를 참조하여 후술한다.According to an embodiment, the classification neural network has a hidden layer and an output layer. Classification of the first artificial neural network for object candidate detection The neural network consists of five or less hidden layers, and may include a total of 50 or less hidden layer nodes. The activation function of the hidden layer uses a ReLU function, a sigmoid function, and a tanh function, but is not limited thereto. There is a total of one output layer node of the classification neural network, and the output value for the type of product can be output to the output layer node. A detailed description of the first artificial neural network will be described later with reference to FIG. 9 .

장치는 제1 인공 신경망의 입력의 결과에 기초하여, 제1 출력 신호를 획득할 수 있다.The device may obtain a first output signal based on a result of the input of the first artificial neural network.

S102 단계에서, 장치는 제1 출력 신호에 기초하여, 제품의 종류인 제1 카테고리를 식별할 수 있다.In step S102 , the device may identify a first category, which is a type of product, based on the first output signal.

예를 들어, 장치는 제1 출력 신호의 출력값을 확인한 결과, 출력값이 1인 경우, 제품의 종류를 옷 상의 카테고리로 식별하고, 출력값이 2인 경우, 제품의 종류를 옷 하의 카테고리로 식별하고, 출력값이 3인 경우, 제품의 종류를 신발 카테고리로 식별하고, 출력값이 4인 경우, 제품의 종류를 모자 카테고리로 식별할 수 있다.For example, as a result of checking the output value of the first output signal, when the output value is 1, the device identifies the type of product as a category on clothes, and when the output value is 2, identifies the type of product as a category under clothes, When the output value is 3, the type of product can be identified as a shoe category, and when the output value is 4, the type of product can be identified as a hat category.

S103 단계에서, 장치는 제1 카테고리의 대표 이미지를 데이터베이스로부터 획득할 수 있다. 이를 위해, 장치의 데이터베이스에는 카테고리 별로 등록된 대표 이미지가 저장되어 있을 수 있다.In step S103, the device may obtain the representative image of the first category from the database. To this end, representative images registered for each category may be stored in the database of the device.

S104 단계에서, 장치는 제1 카테고리의 대표 이미지와 제1 이미지를 부위별로 비교하여, 제품의 부위별 보정값을 설정할 수 있다.In step S104 , the device may compare the representative image of the first category and the first image for each part, and set a correction value for each part of the product.

구체적으로, 제1 이미지를 통해 제품의 종류가 제1 카테고리로 확인되면, 장치는 제1 카테고리의 대표 이미지와 제1 이미지의 파일 확장자 형식을 일치시키고, 축적 및 해상도도 일치시켜, 제품의 크기 및 형태가 어느 정도 일치하도록 조정하는 전처리 과정을 수행할 수 있다. 장치는 제품의 부위별로 이미지 비교를 수행하여, 이미지 비교 결과, 크기 및 형태가 차이가 있는 부분을 파악할 수 있으며, 제1 이미지에 있는 제품을 제1 카테고리의 대표 이미지에 있는 제품과 맞춰주는 보정값을 부위별로 설정할 수 있다. 여기서, 보정값은 픽셀 유동화 작업 수행 시 적용되는 설정값으로, 특정 부분의 확장, 축소, 이동 등의 설정값을 포함할 수 있다.Specifically, when the type of product is identified as the first category through the first image, the device matches the representative image of the first category with the file extension format of the first image, and also matches the scale and resolution, so that the size and A preprocessing process can be performed to adjust the shape to some extent. The device performs image comparison for each part of the product, and as a result of the image comparison, it is possible to identify parts with differences in size and shape, and a correction value that matches the product in the first image with the product in the representative image of the first category can be set for each part. Here, the correction value is a setting value applied when performing the pixel fluidization operation, and may include setting values such as expansion, reduction, and movement of a specific part.

즉, 장치는 제1 카테고리의 대표 이미지에 있는 제품의 크기 및 형태에 맞추도록, 제1 이미지에 있는 제품의 크기 및 형태를 조절하여, 제품의 종류 별로 제품의 핏을 통일된 기준을 통해 설정할 수 있다.That is, the device adjusts the size and shape of the product in the first image to match the size and shape of the product in the representative image of the first category, so that the fit of the product for each type of product can be set through a unified standard. have.

S105 단계에서, 장치는 보정값을 기초로 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 제품의 핏이 보정된 이미지인 제2 이미지를 생성할 수 있다.In step S105 , the device may generate a second image that is an image in which the fit of the product is corrected by performing a pixel fluidization operation for each part in the first image based on the correction value.

예를 들어, 제품의 종류가 옷 상의인 경우, 소매, 팔, 몸통, 목 등의 부위별로 보정값이 설정될 수 있으며, 제1 카테고리의 대표 이미지와 제1 이미지를 비교한 결과, 소매 부위에 대한 차이가 많이 나는 경우, 소매 부위에 대한 보정값이 큰 값으로 설정되고, 목 부위에 대한 차이가 나지 않는 경우, 목 부위에 대한 보정값이 작은 값으로 설정될 수 있다. 장치는 소매 부위에 대한 보정값을 통해 제1 이미지에서 소매 부위에 대한 픽셀 유동화 작업을 수행하여, 소매 부위에 대해서는 큰 값을 통해 이미지 보정을 수행하고, 목 부위에 대한 보정값을 통해 제1 이미지에서 목 부위에 대한 픽셀 유동화 작업을 수행하여, 목 부위에 대해서는 작은 값을 통해 이미지 보정을 수행할 수 있다.For example, when the type of product is clothes top, correction values may be set for each part such as sleeve, arm, torso, neck, etc., and as a result of comparing the first image with the representative image of the first category, When there is a large difference for the sleeve region, the correction value for the sleeve region may be set to a large value, and when there is no difference for the neck region, the correction value for the neck region may be set to a small value. The device performs a pixelation operation on the sleeve region in the first image through the correction value for the sleeve region, performs image correction through a large value for the sleeve region, and performs image correction through the correction value for the neck region to the first image By performing a pixelation operation on the neck region, image correction can be performed with a small value for the neck region.

즉, 장치는 제1 카테고리의 대표 이미지에 있는 제품과 크기 및 형태를 일치시킬 수 있도록, 제1 이미지에 있는 제품의 크기 및 형태를 부위별로 보정하여, 제1 카테고리의 대표 이미지에 있는 제품과 차이가 많이 날수록 더 큰 설정값을 통해 이미지 보정을 수행하고, 제1 카테고리의 대표 이미지에 있는 제품과 유사할수록 더 작은 설정값을 통해 이미지 보정을 수행할 수 있다.That is, the device corrects the size and shape of the product in the first image for each part so as to match the size and shape of the product in the representative image of the first category, and is different from the product in the representative image of the first category As the number increases, image correction is performed through a larger setting value, and image correction can be performed through a smaller setting value as it is similar to a product in the representative image of the first category.

장치는 제1 이미지에 있는 제품의 부위별 보정을 통해, 제품의 핏이 보정된 이미지인 제2 이미지를 생성할 수 있으며, 제2 이미지에 있는 제품은 제1 카테고리의 대표 이미지에 있는 제품과 크기 및 형태가 동일한 핏으로 보정된 상태일 수 있다.The device may generate a second image that is an image in which the fit of the product is corrected by calibrating each part of the product in the first image, and the product in the second image is the same size as the product in the representative image of the first category And the shape may be in a corrected state with the same fit.

S106 단계에서, 장치는 제2 이미지를 분석하여 제2 이미지에서 제품이 차지하고 있는 제품 영역과 배경 영역을 구분할 수 있다.In step S106 , the device may analyze the second image to distinguish a product area occupied by the product and a background area in the second image.

구체적으로, 장치는 제2 이미지에서 제품의 외곽선을 인식하고, 제품의 외곽선 내부에 있는 영역을 제품 영역으로 구분하고, 제품의 외곽선 외부에 있는 영역을 배경 영역으로 구분할 수 있다.Specifically, the device may recognize the outline of the product in the second image, classify an area inside the outline of the product as a product area, and classify an area outside the outline of the product as a background area.

S107 단계에서, 장치는 제2 이미지에서 배경 영역을 삭제하여, 제품 영역으로만 구성된 이미지인 제3 이미지를 생성할 수 있다.In step S107 , the device may delete the background area from the second image to generate a third image that is an image composed of only the product area.

일실시예에 따르면, 기존에 사용했던 작업 결과물인 제3 이미지를 이용하여, 다른 색의 제품에 대한 촬영을 수행할 때 작업 효율을 높일 수 있다. 즉, 제3 이미지를 통해 제품의 틀(프레임)을 생성하고, 해당 틀을 이용하여 다른 색상의 제품에 대한 이미지를 추가하는데 있어, 기존 결과물인 제3 이미지에 대입해서 색만 다르게 표현된 이미지를 추가로 획득함으로써, 동일한 형태에 색상만 다른 제품들의 경우 일관된 이미지를 표현할 수 있다.According to an exemplary embodiment, work efficiency may be increased when photographing a product of a different color by using the third image, which is a work result that has been previously used. That is, when creating a frame (frame) of a product through the third image and adding an image for a product of a different color using the frame, an image with a different color is added by substituting the third image, which is the existing result. By acquiring as , consistent images can be expressed in the case of products with the same shape but different colors.

구체적으로, 장치는 제1 제품의 원본 이미지인 제1-1 이미지를 획득하고, 제1-1 이미지를 통해 제1 제품이 핏이 보정된 이미지인 제1-2 이미지를 생성하고, 제1-2 이미지를 통해 제1 제품의 영역으로만 구성된 제1-3 이미지를 생성할 수 있다. 이때, 제1-3 이미지는 제1 제품의 형태를 나타내는 틀로 사용될 수 있다.Specifically, the device acquires a 1-1 image that is an original image of the first product, and generates a 1-2 image in which the first product is an image in which the fit is corrected through the 1-1 image, and the first- Through the second image, it is possible to generate images 1-3 consisting of only the area of the first product. In this case, the 1-3 images may be used as a frame indicating the shape of the first product.

이후, 장치는 제1 제품과 형태는 동일하지만 색상이 다른 제2 제품의 원본 이미지인 제2-1 이미지를 획득할 수 있으며, 제2-1 이미지를 통해 제2 제품의 핏이 보정된 이미지인 제2-2 이미지를 생성하는 작업을 수행하지 않아도, 제1-3 이미지를 통해 제2 제품의 영역으로만 구성된 제2-3 이미지를 생성할 수 있다. 이때, 제2-3 이미지는 제1-3 이미지에서 제1 제품의 색이 제2 제품의 색으로 변경된 것으로, 제2 제품에 대한 핏을 보정하는 작업을 수행하지 않아도, 기존에 작업한 제1 제품의 이미지를 이용하여 제2 제품의 이미지를 용이하게 획득할 수 있다.Thereafter, the device may acquire a 2-1 image, which is an original image of a second product that has the same shape as the first product but has a different color, and is an image in which the fit of the second product is corrected through the 2-1 image. Even without performing the operation of generating the 2-2 image, the 2-3 image including only the area of the second product may be generated through the 1-3 image. In this case, the 2-3 image is the color of the first product changed to the color of the second product in the 1-3 image, and even if the work of correcting the fit for the second product is not performed, the first An image of the second product may be easily obtained by using the image of the product.

이에 따라, 장치는 여러 제품에 대한 촬영을 수행하여 각각의 제품 이미지에 대한 작업 결과물을 생성하는데 있어, 신속도를 높일 수 있는 효과가 있다. 즉, 최초 제1 제품에 대한 작업 결과물을 생성할 때에만 제품의 핏을 보정하는 작업을 수행하고, 제2 제품, 제3 제품 등에 대한 작업 결과물을 생성할 때에는 제1 제품에 대한 작업 결과물을 이용하여 빠른 속도로 작업 결과물을 생성할 수 있으므로, 다수의 작업 결과물을 빠르게 획득할 수 있다.Accordingly, there is an effect of increasing the speed of the device in generating a work result for each product image by photographing several products. That is, the work of correcting the fit of the product is performed only when the work result for the first product is created, and when the work result for the second product, the third product, etc. is generated, the work result for the first product is used Therefore, it is possible to quickly generate work results, so that a large number of work results can be obtained quickly.

일실시예에 따르면, 제품 영역으로만 구성된 이미지인 제3 이미지를 생성한 이후, 제3 이미지에서 확인된 제품의 색과 실물 제품의 색을 정확하게 맞추기 위해, 실물의 색상을 온전히 보정하여 표현하는 기법에 대한 처리 과정이 수행될 수 있다.According to an embodiment, after generating a third image, which is an image consisting of only the product area, in order to accurately match the color of the product identified in the third image and the color of the real product, the color of the real is fully corrected and expressed. processing may be performed.

구체적으로, 장치는 제1 제품의 원본 이미지인 제1-1 이미지를 획득하는데 있어, 다양한 각도에서 제1 제품을 촬영한 복수의 이미지를 획득할 수 있다. 예를 들어, 제1 각도에서 제1 제품을 촬영한 이미지인 제1-1-1 이미지, 제2 각도에서 제1 제품을 촬영한 제1-1-2 등을 획득할 수 있다. 이때, 제1 각도가 메인 각도로 설정되어 있는 경우, 장치는 제1-1-1 이미지를 통해 제1 제품이 핏이 보정된 이미지인 제1-2 이미지를 생성하고, 제1-2 이미지를 통해 제1 제품의 영역으로만 구성된 제1-3 이미지를 생성할 수 있다.Specifically, in acquiring the 1-1 image, which is the original image of the first product, the device may acquire a plurality of images obtained by photographing the first product from various angles. For example, a 1-1-1 image that is an image of the first product photographed from a first angle, a 1-2-1 image that is an image of the first product photographed from a second angle, and the like may be acquired. At this time, if the first angle is set as the main angle, the device generates a 1-2 image, which is an image in which the fit of the first product is corrected, through the 1-1-1 image, and displays the 1-2 image. Through this, it is possible to generate the 1-3 image composed of only the region of the first product.

이후, 장치는 제1-3 이미지의 색상값과 제1-1-2 이미지의 색상값을 비교한 결과, 차이값이 기준 범위를 벗어나는 것으로 확인되면, 제1-3 이미지의 색상값과 제1-1-2 이미지의 색상값의 평균값을 산출하고, 산출된 평균값을 통해 제1-3 이미지의 색상을 변경할 수 있다.Thereafter, when the device compares the color value of the 1-3 image and the color value of the 1-1-2 image and determines that the difference value is out of the reference range, the color value of the 1-3 image and the first The average value of the color values of the -1-2 image may be calculated, and the color of the image 1-3 may be changed through the calculated average value.

즉, 다양한 각도에서 제품을 촬영한 이미지의 색상을 비교하여 평균값으로 맞추는 과정을 수행함으로써, 제품의 실물 색상과 최대한 동일한 색이 적용되도록 처리할 수 있다.That is, by performing a process of comparing the colors of images photographed from various angles and matching them to an average value, it is possible to process the color so that the same color as the actual color of the product is applied as much as possible.

도 2는 일실시예에 따른 제품의 외관 특징을 분석하는 과정을 설명하기 위한 순서도이다.2 is a flowchart illustrating a process of analyzing the appearance characteristics of a product according to an exemplary embodiment.

도 2를 참조하면, 먼저, S201 단계에서, 장치는 제3 이미지에서 제품의 외곽선을 인식할 수 있다. 제3 이미지는 제품 영역으로만 구성되어 있으므로, 이미지의 테두리를 제품의 외곽선으로 인식할 수 있다.Referring to FIG. 2 , first, in step S201 , the device may recognize the outline of the product in the third image. Since the third image consists of only the product area, the edge of the image may be recognized as the outline of the product.

S202 단계에서, 장치는 제품의 외곽선을 제1 카테고리에 미리 설정된 구간별로 분할할 수 있다.In step S202, the device may divide the outline of the product into sections preset in the first category.

예를 들어, 장치는 제품의 종류에 따라 부위별로 간격이 설정되어 있어, 미리 설정된 간격에 따라 제품의 외곽선을 구간별로 분할할 수 있고, 특정 각도 이상으로 변경되는 부분을 새로운 구간의 시작으로 판단하여 제품의 외곽선을 구간별로 분할할 수 있다.For example, the device has an interval set for each part according to the type of product, so the outline of the product can be divided into sections according to the preset interval, and a part that changes by more than a specific angle is determined as the start of a new section. The outline of the product can be divided into sections.

S203 단계에서, 장치는 제품의 외곽선에서 구간별로 분할된 복수의 선 각각을 인식할 수 있으며, S204 단계에서, 장치는 복수의 선 각각이 연결되는 지점에 위치한 복수의 점 각각을 인식할 수 있다. 이와 관련된 자세한 설명은 도 3을 참조하여 후술하기로 한다.In step S203, the device may recognize each of the plurality of lines divided by section in the outline of the product, and in step S204, the device may recognize each of the plurality of points located at a point where each of the plurality of lines is connected. A detailed description related thereto will be described later with reference to FIG. 3 .

S205 단계에서, 장치는 S203 단계에서 인식된 복수의 선 각각을 유형별로 분류할 수 있다. 선의 유형은 직선과 곡선으로 구분될 수 있으며, 장치는 복수의 선 각각을 직선과 곡선으로 분류할 수 있다. 이와 관련된 자세한 설명은 도 4를 참조하여 후술하기로 한다.In step S205, the device may classify each of the plurality of lines recognized in step S203 by type. Line types may be classified into straight lines and curved lines, and the device may classify each of the plurality of lines into straight lines and curved lines. A detailed description related thereto will be described later with reference to FIG. 4 .

S206 단계에서, 장치는 S204 단계에서 인식된 복수의 점 각각을 유형별로 분류할 수 있다. 점의 유형은 직선과 직선이 연결되는 제1 유형, 직선과 곡선이 연결되는 제2 유형, 곡선과 직선이 연결되는 제3 유형, 곡선과 곡선이 연결되는 제4 유형으로 구분될 수 있으며, 장치는 복수의 점 각각을 제1 유형, 제2 유형, 제3 유형 및 제4 유형으로 분류할 수 있다.In step S206, the device may classify each of the plurality of points recognized in step S204 by type. The type of point may be divided into a first type in which a straight line and a straight line are connected, a second type in which a straight line and a curve are connected, a third type in which a curve and a straight line are connected, and a fourth type in which a curve and a curve are connected, may classify each of the plurality of points into a first type, a second type, a third type, and a fourth type.

S207 단계에서, 장치는 복수의 점 각각의 순번, 좌표 및 유형에 대한 정보를 제품의 특징 정보로 추출하여 등록할 수 있다.In step S207 , the device may extract and register information on the sequence number, coordinates, and type of each of the plurality of points as product feature information.

예를 들어, 제3 이미지를 통해 제1 점, 제2 점 및 제3 점이 인식된 경우, 제1 점, 제2 점 및 제3 점을 연결하는 순번과, 제1 점, 제2 점 및 제3 점 각각이 위치하고 있는 좌표, 제1 점, 제2 점 및 제3 점 각각이 분류된 유형에 대한 정보를 제3 이미지에 있는 제품의 특징 정보로 추출하여, 추출된 특징 정보를 제3 이미지와 연계하여 데이터베이스에 저장할 수 있다.For example, when the first point, the second point, and the third point are recognized through the third image, the sequence number connecting the first point, the second point, and the third point, and the first point, the second point, and the second point Coordinates where each of the three points are located, and information about the type in which each of the first point, the second point, and the third point are classified are extracted as feature information of the product in the third image, and the extracted feature information is combined with the third image They can be linked and stored in the database.

도 3은 일실시예에 따른 제품의 외곽선을 통해 복수의 선 및 복수의 점을 인식하는 과정을 설명하기 위한 도면이다.3 is a view for explaining a process of recognizing a plurality of lines and a plurality of points through an outline of a product according to an exemplary embodiment.

먼저, 도 3의 (a)에 도시된 바와 같이, 장치는 제3 이미지에서 제품의 외곽선(300)을 인식할 수 있다. 이때, 제3 이미지는 제품의 외곽선(300)이 테두리로 구성되어, 배경 영역은 삭제되어 있는 상태이다.First, as shown in (a) of FIG. 3 , the device may recognize the outline 300 of the product in the third image. In this case, in the third image, the outline 300 of the product is constituted as an edge, and the background area is deleted.

이후, 장치는 제품의 외곽선(300)을 제1 카테고리에 미리 설정된 구간별로 분할할 수 있다.Thereafter, the device may divide the outline 300 of the product into sections preset in the first category.

구체적으로, 도 3의 (b)에 도시된 바와 같이, 장치는 옷 상의 카테고리에 미리 설정된 구간별로, 제품의 외곽선(300)을 제1 선(311), 제2 선(312), 제3 선(313), 제4 선(314), 제5 선(315), 제6 선(316), 제7 선(317), 제8 선(318), 제9 선(319), 제10 선(320), 제11 선(321) 및 제12 선(322)으로 분할할 수 있다. 제품의 외곽선(300)은 제품의 종류에 따라 더 많은 구간으로 분할되거나 더 적은 구간으로 분할될 수 있다.Specifically, as shown in (b) of FIG. 3 , the device draws the outline 300 of the product for each section preset in the clothing category, the first line 311 , the second line 312 , and the third line. (313), the fourth line (314), the fifth line (315), the sixth line (316), the seventh line (317), the eighth line (318), the ninth line (319), the tenth line ( 320 ), an eleventh line 321 , and a twelfth line 322 . The outline 300 of the product may be divided into more or fewer sections depending on the type of product.

장치는 복수의 선 각각을 확인하여, 제2 선(312), 제3 선(313), 제4 선(314), 제5 선(315), 제6 선(316), 제7 선(317), 제8 선(318), 제9 선(319) 및 제10 선(320)을 직선으로 분류하고, 제1 선(311), 제11 선(321) 및 제12 선(322)을 곡선으로 분류할 수 있다.The device identifies each of the plurality of lines, the second line 312 , the third line 313 , the fourth line 314 , the fifth line 315 , the sixth line 316 , and the seventh line 317 . ), the 8th line 318 , the 9th line 319 , and the 10th line 320 are classified as straight lines, and the 1st line 311 , the 11th line 321 and the 12th line 322 are curved. can be classified as

장치는 복수의 선 각각이 연결되는 지점에 위치한 복수의 점 각각을 인식할 수 있다.The device may recognize each of a plurality of points located at a point where each of the plurality of lines is connected.

구체적으로, 도 3의 (c)에 도시된 바와 같이, 장치는 제12 선(322)과 제1 선(311)이 연결되는 지점에 위치한 제1 점(331), 제1 선(311)과 제2 선(312)이 연결되는 지점에 위치한 제2 점(332), 제2 선(312)과 제3 선(313)이 연결되는 지점에 위치한 제3 점(333), 제3 선(313)과 제4 선(314)이 연결되는 지점에 위치한 제4 점(334), 제4 선(314)과 제5 선(315)이 연결되는 지점에 위치한 제5 점(335), 제5 선(315)과 제6 선(316)이 연결되는 지점에 위치한 제6 점(336), 제6 선(316)과 제7 선(317)이 연결되는 지점에 위치한 제7 점(337), 제7 선(317)과 제8 선(318)이 연결되는 지점에 위치한 제8 점(338), 제8 선(318)과 제9 선(319)이 연결되는 지점에 위치한 제9 점(339), 제9 선(319)과 제10 선(320)이 연결되는 지점에 위치한 제10 점(340), 제10 선(320)과 제11 선(321)이 연결되는 지점에 위치한 제11 점(341), 제11 선(321)과 제12 선(322)이 연결되는 지점에 위치한 제12 점(342)을 인식할 수 있다. 이때, 시작점이 되는 제1 점(331)과 끝점이 되는 제12 점(342)의 위치는 제품의 종류에 따라 카테고리 별로 상이하게 설정될 수 있다.Specifically, as shown in (c) of FIG. 3 , the device includes a first point 331 located at a point where the twelfth line 322 and the first line 311 are connected, the first line 311 and A second point 332 positioned at a point where the second line 312 is connected, a third point 333 positioned at a point where the second line 312 and the third line 313 are connected, and a third line 313 ) and the fourth point 334 positioned at the point where the fourth line 314 is connected, the fifth point 335 positioned at the point where the fourth line 314 and the fifth line 315 are connected, the fifth line The sixth point 336 located at the point where 315 and the sixth line 316 are connected, the seventh point 337 located at the point where the sixth line 316 and the seventh line 317 are connected, the th The eighth point 338 located at the point where the seventh line 317 and the eighth line 318 are connected, and the ninth point 339 located at the point where the eighth line 318 and the ninth line 319 are connected. , the tenth point 340 located at the point where the ninth line 319 and the tenth line 320 are connected, and the eleventh point located at the point where the tenth line 320 and the eleventh line 321 are connected ( 341 ) and a twelfth point 342 located at a point where the eleventh line 321 and the twelfth line 322 are connected may be recognized. In this case, the positions of the first point 331 serving as the starting point and the twelfth point 342 serving as the end point may be set differently for each category according to the type of product.

장치는 복수의 점 각각에 연결되어 있는 선의 유형을 확인하여, 복수의 점 각각에 대한 유형을 분류할 수 있다.The device may classify the type of each of the plurality of points by identifying the type of the line connected to each of the plurality of points.

구체적으로, 제3 점(333), 제4 점(334), 제5 점(335), 제6 점(336), 제7 점(337), 제8 점(338), 제9 점(339) 및 제10 점(340)은 직선과 직선이 연결되어 있어 제1 유형으로 분류되고, 제11 점(341)은 직선과 곡선이 연결되어 있어 제2 유형으로 분류되고, 제2 점(332)은 곡선과 직선이 연결되어 있어 제3 유형으로 분류되고, 제1 점(331) 및 제12 점(342)은 곡선과 곡선이 연결되어 있어 제4 유형으로 분류될 수 있다.Specifically, the third point 333 , the fourth point 334 , the fifth point 335 , the sixth point 336 , the seventh point 337 , the eighth point 338 , and the ninth point 339 . ) and the tenth point 340 are classified as a first type because a straight line and a straight line are connected, and the eleventh point 341 is classified as a second type because a straight line and a curved line are connected, and a second point 332 ). The curve and the straight line are connected to be classified as a third type, and the first point 331 and the twelfth point 342 may be classified as a fourth type because the curve and the curve are connected.

이후, 장치는 제1 점(331), 제2 점(332), 제3 점(333), 제4 점(334), 제5 점(335), 제6 점(336), 제7 점(337), 제8 점(338), 제9 점(339) 및 제10 점(340), 제11 점(341) 및 제12 점(342) 각각의 순번, 좌표 및 유형에 대한 정보를 통해, 제품의 특징 정보를 추출하고, 추출된 제품의 특징 정보를 제3 이미지에 있는 제품의 특징 정보로 등록하여 데이터베이스에 저장할 수 있다.Thereafter, the device determines a first point 331 , a second point 332 , a third point 333 , a fourth point 334 , a fifth point 335 , a sixth point 336 , a seventh point ( 337), the eighth point 338, the ninth point 339 and the tenth point 340, the eleventh point 341 and the twelfth point 342, respectively, through information on the order, coordinates and types of them, The product feature information may be extracted, and the extracted product feature information may be registered as the product feature information in the third image and stored in a database.

도 4는 일실시예에 따른 복수의 선 각각을 직선과 곡선으로 분류하는 과정을 설명하기 위한 순서도이다.4 is a flowchart illustrating a process of classifying each of a plurality of lines into a straight line and a curved line according to an exemplary embodiment.

도 4를 참조하면, 먼저, S401 단계에서, 장치는 복수의 선 중 어느 하나인 제1 선을 인식할 수 있다. 이때, 장치는 제3 이미지에서 인식된 제품의 외곽선을 구간별로 분할하여, 복수의 선이 형성되어 있는 상태이다.Referring to FIG. 4 , first, in step S401 , the device may recognize a first line that is any one of a plurality of lines. At this time, the device divides the outline of the product recognized in the third image into sections, and a plurality of lines are formed.

S402 단계에서, 장치는 제1 선의 양끝에 위치한 제1 점 및 제2 점을 인식할 수 있다.In step S402, the device may recognize the first point and the second point located at both ends of the first line.

S403 단계에서, 장치는 제1 선의 양끝이 아닌 중간 어느 부분에 위치한 제3 점을 인식할 수 있다. 제3 점의 위치는 실시예에 따라 상이하게 설정될 수 있다.In step S403 , the device may recognize the third point located at any part in the middle instead of at both ends of the first line. The position of the third point may be set differently depending on the embodiment.

S404 단계에서, 장치는 제1 점과 제3 점을 곧은 선으로 연결한 제2 선을 생성하고, 제2 점과 제3 점을 곧은 선으로 연결한 제3 선을 생성할 수 있다.In step S404 , the device may generate a second line connecting the first point and the third point with a straight line, and may generate a third line connecting the second point and the third point with a straight line.

S405 단계에서, 장치는 제2 선과 제3 선을 결합한 제4 선을 인식할 수 있다.In step S405 , the device may recognize a fourth line combining the second line and the third line.

S406 단계에서, 장치는 제1 선과 제4 선이 일치하는지 여부를 확인할 수 있다.In step S406 , the device may check whether the first line and the fourth line match.

S406 단계에서 제1 선과 제4 선이 일치하는 것으로 확인되면, S407 단계에서, 장치는 제1 선을 직선으로 분류할 수 있다.If it is determined in step S406 that the first line and the fourth line coincide with each other, in step S407 , the device may classify the first line as a straight line.

S406 단계에서 제1 선과 제4 선이 일치하지 않는 것으로 확인되면, S408 단계에서, 장치는 제1 선을 곡선으로 분류할 수 있다.If it is determined in step S406 that the first line and the fourth line do not match, in step S408, the device may classify the first line as a curve.

도 5는 일실시예에 따른 제1 선을 직선으로 분류하는 과정을 설명하기 위한 순서도이다.5 is a flowchart illustrating a process of classifying a first line into a straight line according to an exemplary embodiment.

먼저, 도 5의 (a)에 도시된 바와 같이, 장치는 제품의 외곽선을 구간별로 분할하여 생성된 복수의 선 중 어느 하나인 제1 선을 인식할 수 있다.First, as shown in (a) of FIG. 5 , the device may recognize a first line that is any one of a plurality of lines generated by dividing an outline of a product into sections.

도 5의 (b)에 도시된 바와 같이, 장치는 제1 선의 양끝에 위치한 제1 점 및 제2 점을 인식하고, 제1 선의 중간 부분에 위치한 제3 점을 인식할 수 있다. 제3 점의 위치는 실시예에 따라 상이하게 설정될 수 있다.As shown in FIG. 5B , the device may recognize the first point and the second point positioned at both ends of the first line, and recognize the third point positioned in the middle of the first line. The position of the third point may be set differently depending on the embodiment.

도 5의 (c)에 도시된 바와 같이, 장치는 제1 점 및 제3 점을 곧은 선으로 연결한 제2 선을 생성하고, 제3 점 및 제2 점을 곧은 선으로 연결한 제3 선을 생성할 수 있다.As shown in FIG. 5C , the device generates a second line connecting the first and third points with a straight line, and a third line connecting the third and second points with a straight line. can create

도 5의 (d)에 도시된 바와 같이, 장치는 제2 선 및 제3 선을 결합한 제4 선을 인식할 수 있다.As shown in FIG. 5D , the device may recognize a fourth line combining the second line and the third line.

이후, 장치는 도 5의 (a)에 도시된 제1 선과 도 5의 (d)에 도시된 제4 선을 비교하여, 제1 선과 제4 선이 일치하는 것을 확인할 수 있으며, 제1 선과 제4 선이 일치하므로, 제1 선을 직선으로 분류할 수 있다.Thereafter, the device compares the first line shown in FIG. 5A and the fourth line shown in FIG. 5D to confirm that the first line and the fourth line coincide, and the first line and the second line Since the four lines coincide, the first line can be classified as a straight line.

도 6은 일실시예에 따른 제1 선을 곡선으로 분류하는 과정을 설명하기 위한 순서도이다.6 is a flowchart illustrating a process of classifying a first line into a curve according to an exemplary embodiment.

먼저, 도 6의 (a)에 도시된 바와 같이, 장치는 제품의 외곽선을 구간별로 분할하여 생성된 복수의 선 중 어느 하나인 제1 선을 인식할 수 있다.First, as shown in (a) of FIG. 6 , the device may recognize a first line that is any one of a plurality of lines generated by dividing an outline of a product into sections.

도 6의 (b)에 도시된 바와 같이, 장치는 제1 선의 양끝에 위치한 제1 점 및 제2 점을 인식하고, 제1 선의 중간 부분에 위치한 제3 점을 인식할 수 있다. 제3 점의 위치는 실시예에 따라 상이하게 설정될 수 있다.As shown in FIG. 6B , the device may recognize the first point and the second point positioned at both ends of the first line, and recognize the third point positioned in the middle of the first line. The position of the third point may be set differently depending on the embodiment.

도 6의 (c)에 도시된 바와 같이, 장치는 제1 점 및 제3 점을 곧은 선으로 연결한 제2 선을 생성하고, 제3 점 및 제2 점을 곧은 선으로 연결한 제3 선을 생성할 수 있다.As shown in FIG. 6C , the device generates a second line connecting the first and third points with a straight line, and a third line connecting the third and second points with a straight line. can create

도 6의 (d)에 도시된 바와 같이, 장치는 제2 선 및 제3 선을 결합한 제4 선을 인식할 수 있다.As shown in (d) of FIG. 6 , the device may recognize a fourth line combining the second line and the third line.

이후, 장치는 도 6의 (a)에 도시된 제1 선과 도 6의 (d)에 도시된 제4 선을 비교하여, 제1 선과 제4 선이 일치하지 않는 것을 확인할 수 있으며, 제1 선과 제4 선이 일치하지 않으므로, 제1 선을 곡선으로 분류할 수 있다.Thereafter, the device compares the first line shown in (a) of FIG. 6 and the fourth line shown in FIG. 6 (d) to confirm that the first line and the fourth line do not match, and the first line and the fourth line are not identical. Since the fourth line does not coincide, the first line can be classified as a curve.

도 7은 일실시예에 따른 촬영 장비의 조명을 제어하는 과정을 설명하기 위한 순서도이다.7 is a flowchart illustrating a process of controlling lighting of a photographing device according to an exemplary embodiment.

도 7을 참조하면, 먼저, S701 단계에서, 장치는 제2 이미지를 분석하여 제2 이미지에서 제품이 차지하고 있는 제품 영역과 그 외의 영역인 배경 영역을 구분할 수 있다.Referring to FIG. 7 , first, in step S701 , the device analyzes the second image to distinguish a product area occupied by the product in the second image and a background area that is other areas.

S702 단계에서, 장치는 제품 영역 내에 있는 픽셀들의 평균 명도값인 제1 명도값을 산출할 수 있다. 이때, 장치는 제품 영역 내에 있는 픽셀들의 명도 정보를 확인하여, 제1 명도값을 산출할 수 있다.In step S702 , the device may calculate a first brightness value that is an average brightness value of pixels in the product area. In this case, the device may calculate the first brightness value by checking brightness information of pixels in the product area.

S703 단계에서, 장치는 배경 영역 내에 있는 픽셀들의 평균 명도값인 제2 명도값을 산출할 수 있다. 이때, 장치는 배경 영역 내에 있는 픽셀들의 명도 정보를 확인하여, 제2 명도값을 산출할 수 있다.In operation S703 , the device may calculate a second brightness value that is an average brightness value of pixels in the background area. In this case, the device may calculate the second brightness value by checking brightness information of pixels in the background area.

S704 단계에서, 장치는 제1 명도값과 제2 명도값 간의 차이인 제1 차이값을 산출할 수 있다.In step S704 , the device may calculate a first difference value that is a difference between the first brightness value and the second brightness value.

S705 단계에서, 장치는 제1 차이값이 제1 기준 범위 내에 있는지 여부를 확인할 수 있다. 여기서, 제1 기준 범위는 실시예에 따라 상이하게 설정될 수 있다.In step S705 , the device may determine whether the first difference value is within the first reference range. Here, the first reference range may be set differently according to embodiments.

S705 단계에서 제1 차이값이 제1 기준 범위 내에 있는 것으로 확인되면, 장치는 촬영 장비의 조명 제어가 필요하지 않은 것으로 판단하여, 촬영 장비의 조명에 설정되어 있는 밝기 설정 레벨을 유지하도록 처리할 수 있다.If it is determined in step S705 that the first difference value is within the first reference range, the device determines that the lighting control of the photographing equipment is not necessary, and can process to maintain the brightness setting level set in the lighting of the photographing equipment. have.

예를 들어, 제1 기준 범위가 4 이상, 6 이하로 설정되어 있는 경우, 장치는 제1 차이값이 5로 확인되면, 촬영 장비의 조명 제어가 필요하지 않은 것으로 판단할 수 있다.For example, when the first reference range is set to 4 or more and 6 or less, when the first difference value is 5, the device may determine that lighting control of the photographing equipment is not required.

S705 단계에서 제1 차이값이 제1 기준 범위를 벗어나는 것으로 확인되면, S706 단계에서, 장치는 제1 차이값이 제1 기준 범위의 최소값 보다 작은지 여부를 확인할 수 있다.If it is determined in step S705 that the first difference value is out of the first reference range, in step S706 , the device may determine whether the first difference value is smaller than the minimum value of the first reference range.

S706 단계에서 제1 차이값이 제1 기준 범위의 최소값 보다 작은 것으로 확인되면, S707 단계에서, 장치는 제1 차이값과 제1 기준 범위의 최소값 간의 차이인 제2 차이값을 산출할 수 있다.If it is determined in step S706 that the first difference value is smaller than the minimum value of the first reference range, in step S707 , the device may calculate a second difference value that is a difference between the first difference value and the minimum value of the first reference range.

S708 단계에서, 장치는 제2 차이값을 기초로 촬영 장비의 조명에 대한 밝기 설정 레벨을 현재 설정된 레벨 보다 더 높은 레벨로 변경할 수 있다.In step S708 , the device may change the brightness setting level for the lighting of the photographing equipment to a higher level than the currently set level based on the second difference value.

예를 들어, 촬영 장비의 조명에 대한 밝기 설정 레벨이 현재 5레벨로 설정되어 있고, 제2 차이값이 1인 경우, 밝기 설정 레벨을 5레벨에서 6레벨로 변경할 수 있으며, 제2 차이값이 2인 경우, 밝기 설정 레벨을 5레벨에서 7레벨로 변경할 수 있다.For example, if the brightness setting level for the lighting of the photographing equipment is currently set to level 5 and the second difference value is 1, the brightness setting level may be changed from level 5 to level 6, and the second difference value is In the case of 2, the brightness setting level can be changed from level 5 to level 7.

즉, 제품 영역 내에 있는 픽셀들과 배경 영역 내에 있는 픽셀들의 명도 차이가 기준 범위를 벗어나 더 적게 나는 경우, 촬영 장비의 조명에 대한 밝기 설정을 현재 설정된 레벨 보다 더 높은 레벨로 변경하여, 현재 보다 더 밝은 조명을 통해 제품 촬영을 진행하도록 제어할 수 있다.That is, if the difference in brightness between pixels in the product area and pixels in the background area is less than the reference range, change the brightness setting for the lighting of the shooting equipment to a higher level than the currently set level. It can be controlled to proceed with product photography through bright lighting.

S706 단계에서 제1 차이값이 제1 기준 범위의 최소값 보다 작지 않은 것으로 확인되면, 제1 차이값이 제1 기준 범위를 벗어나 있기 때문에, 제1 차이값이 제1 기준 범위의 최대값 보다 큰 것으로 확인될 수 있으며, S709 단계에서, 장치는 제1 차이값과 제1 기준 범위의 최대값 간의 차이인 제3 차이값을 산출할 수 있다.If it is determined in step S706 that the first difference value is not smaller than the minimum value of the first reference range, since the first difference value is out of the first reference range, it is determined that the first difference value is greater than the maximum value of the first reference range. may be confirmed, and in step S709 , the device may calculate a third difference value that is a difference between the first difference value and the maximum value of the first reference range.

S710 단계에서, 장치는 제3 차이값을 기초로 촬영 장비의 조명에 대한 밝기 설정 레벨을 현재 설정된 레벨 보다 더 낮은 레벨로 변경할 수 있다.In step S710 , the device may change the brightness setting level for the lighting of the photographing equipment to a level lower than the currently set level based on the third difference value.

예를 들어, 촬영 장비의 조명에 대한 밝기 설정 레벨이 현재 5레벨로 설정되어 있고, 제3 차이값이 1인 경우, 밝기 설정 레벨을 5레벨에서 4레벨로 변경할 수 있으며, 제3 차이값이 2인 경우, 밝기 설정 레벨을 5레벨에서 3레벨로 변경할 수 있다.For example, if the brightness setting level for the lighting of the photographing equipment is currently set to level 5 and the third difference value is 1, the brightness setting level may be changed from level 5 to level 4, and the third difference value is In the case of 2, the brightness setting level can be changed from level 5 to level 3.

즉, 제품 영역 내에 있는 픽셀들과 배경 영역 내에 있는 픽셀들의 명도 차이가 기준 범위를 벗어나 더 많이 나는 경우, 촬영 장비의 조명에 대한 밝기 설정을 현재 설정된 레벨 보다 더 낮은 레벨로 변경하여, 현재 보다 더 어두운 조명을 통해 제품 촬영을 진행하도록 제어할 수 있다.That is, if the difference in brightness between the pixels in the product area and the pixels in the background area exceeds the reference range, change the brightness setting for the lighting of the shooting equipment to a lower level than the currently set level. It can be controlled to proceed with product photography through dim lighting.

도 8은 일실시예에 따른 촬영 장비의 상태를 분류하는 과정을 설명하기 위한 순서도이다.8 is a flowchart illustrating a process of classifying states of photographing equipment according to an exemplary embodiment.

일실시예에 따르면, 시스템은 복수의 촬영 장비, 장치 이외에 센서 그룹 및 항온항습기를 더 포함할 수 있다.According to an embodiment, the system may further include a sensor group and a thermo-hygrostat in addition to the plurality of imaging equipment and devices.

시스템은 촬영실 내에 배치되어 있는 복수의 촬영 장비를 포함할 수 있으며, 예를 들어, 제1 촬영 장비, 제2 촬영 장비 및 제3 촬영 장비가 촬영실 내에 배치되어 있는 경우, 제1 촬영 장비에 대응하여 제1 센서 그룹 및 제1 항온항습기가 더 포함되고, 제2 촬영 장비에 대응하여 제2 센서 그룹 및 제2 항온항습기가 더 포함되고, 제3 촬영 장비에 대응하여 제3 센서 그룹 및 제3 항온항습기가 더 포함될 수 있다.The system may include a plurality of photographing equipment disposed in the photographing room, for example, when the first photographing equipment, the second photographing equipment, and the third photographing equipment are disposed in the photographing room, in response to the first photographing equipment The first sensor group and the first thermo-hygrostat are further included, the second sensor group and the second thermo-hygrostat are further included to correspond to the second imaging device, and the third sensor group and the third thermo-hygrostat to correspond to the third imaging device. A humidifier may be further included.

복수의 촬영 장비 각각은 내부 공기의 온도 및 습도를 측정하는 센서 그룹을 포함할 수 있다. 예를 들어, 제1 촬영 장비는 제1 촬영 장비의 내부 공기의 온도 및 습도를 측정하는 제1 센서 그룹을 포함하고, 제2 촬영 장비는 제2 촬영 장비의 내부 공기의 온도 및 습도를 측정하는 제2 센서 그룹을 포함할 수 있다.Each of the plurality of photographing equipment may include a sensor group for measuring the temperature and humidity of the internal air. For example, the first imaging device includes a first sensor group for measuring the temperature and humidity of the internal air of the first imaging device, and the second imaging device is configured to measure the temperature and humidity of the internal air of the second imaging device A second sensor group may be included.

복수의 센서 그룹 각각은 온도를 측정하는 온도 센서와 습도를 측정하는 습도 센서를 포함할 수 있다.Each of the plurality of sensor groups may include a temperature sensor for measuring temperature and a humidity sensor for measuring humidity.

복수의 촬영 장비에는 복수의 항온항습기가 각각 연결될 수 있으며, 예를 들어, 제1 촬영 장비에는 제1 항온항습기가 연결되어 있고, 제2 촬영 장비에는 제2 항온항습기가 연결될 수 있다.A plurality of thermo-hygrostat may be connected to each of the plurality of imaging devices, for example, a first thermo-hygrostat may be connected to the first imaging device, and a second thermo-hygrostat may be connected to the second imaging device.

제1 항온항습기는 제1 촬영 장비에 설정된 목표 온도를 유지하도록 공기를 가열 또는 냉각시킬 수 있으며, 제1 촬영 장비에 설정된 목표 습도를 유지하도록 공기를 가습 또는 감습시킬 수 있다.The first thermo-hygrostat may heat or cool the air to maintain the target temperature set in the first imaging device, and humidify or dehumidify the air to maintain the target humidity set in the first imaging device.

마찬가지로, 제2 항온항습기는 제2 촬영 장비에 설정된 목표 온도를 유지하도록 공기를 가열 또는 냉각시킬 수 있으며, 제2 촬영 장비에 설정된 목표 습도를 유지하도록 공기를 가습 또는 감습시킬 수 있다.Similarly, the second thermostat may heat or cool the air to maintain the target temperature set in the second imaging device, and humidify or dehumidify the air to maintain the target humidity set in the second imaging device.

일실시예에 따르면, 제1 촬영 장비에 설정된 목표 온도와 제2 촬영 장비에 설정된 목표 온도는 자동으로 동일하게 설정될 수 있으며, 사용자 설정에 따라 각각의 목표 온도가 상이하게 설정될 수도 있다.According to an embodiment, the target temperature set in the first imaging device and the target temperature set in the second imaging device may be automatically set to be the same, and each target temperature may be set differently according to a user setting.

또한, 제1 촬영 장비에 설정된 목표 습도와 제2 촬영 장비에 설정된 목표 습도는 자동으로 동일하게 설정될 수 있으며, 사용자 설정에 따라 각각의 목표 습도가 상이하게 설정될 수도 있다.In addition, the target humidity set in the first imaging device and the target humidity set in the second imaging device may be automatically set to be the same, and each target humidity may be set differently according to a user setting.

장치는 시스템에 포함된 제1 촬영 장비, 제2 촬영 장비, 제1 센서 그룹, 제2 센서 그룹, 제1 항온항습기 및 제2 항온항습기 각각의 동작이 정상적으로 수행되도록 제어할 수 있다.The device may control operations of the first imaging device, the second imaging device, the first sensor group, the second sensor group, the first thermo-hygrostat, and the second thermo-hygrostat included in the system to be normally performed.

장치는 제1 항온항습기 및 제2 항온항습기 각각의 동작을 제어하여, 제1 촬영 장비 및 제2 촬영 장비 각각에서 측정된 온도가 목표 온도를 유지하도록 조절하고, 제1 촬영 장비 및 제2 촬영 장비 각각에서 측정된 습도가 목표 습도를 유지하도록 조절할 수 있다. 이때, 제1 센서 그룹은 제1 촬영 장비의 온도 및 습도를 측정할 수 있으며, 제2 센서 그룹은 제2 촬영 장비의 온도 및 습도를 측정할 수 있다.The device controls the operation of each of the first and second thermo-hygrostats to adjust the temperatures measured by each of the first and second imaging devices to maintain target temperatures, and the first and second imaging devices Humidity measured in each can be adjusted to maintain the target humidity. In this case, the first sensor group may measure the temperature and humidity of the first imaging device, and the second sensor group may measure the temperature and humidity of the second imaging device.

한편, 일실시예에 따르면, 장치는 제1 센서 그룹에서 측정된 온도를 확인하여, 제1 촬영 장비에 설정된 목표 온도를 유지하도록 제1 촬영 장비와 연결된 제1 항온항습기의 동작을 제어하고, 제1 센서 그룹에서 측정된 습도를 확인하여, 제1 촬영 장비에 설정된 목표 습도를 유지하도록 제1 항온항습기의 동작을 제어할 수 있다.Meanwhile, according to an embodiment, the device checks the temperature measured by the first sensor group, controls the operation of the first thermo-hygrostat connected to the first imaging device to maintain the target temperature set in the first imaging device, and By checking the humidity measured in the first sensor group, the operation of the first thermo-hygrostat may be controlled to maintain the target humidity set in the first imaging device.

또한, 장치는 제2 센서 그룹에서 측정된 온도를 확인하여, 제2 촬영 장비에 설정된 목표 온도를 유지하도록 제2 촬영 장비와 연결된 제2 항온항습기의 동작을 제어하고, 제2 센서 그룹에서 측정된 습도를 확인하여, 제2 촬영 장비에 설정된 목표 습도를 유지하도록 제2 항온항습기의 동작을 제어할 수 있다.In addition, the device checks the temperature measured by the second sensor group, controls the operation of the second thermo-hygrostat connected to the second imaging device to maintain the target temperature set in the second imaging device, and By checking the humidity, the operation of the second thermo-hygrostat may be controlled to maintain the target humidity set in the second imaging device.

일실시예에 따르면, 장치는 제1 센서 그룹에서 측정된 온도와 제1 촬영 장비에 설정된 목표 온도의 차이인 제1 온도 차이값을 산출하고, 제1 온도 차이값이 기준치 보다 큰 것으로 확인되면, 제1 촬영 장비와 연결된 제1 항온항습기가 동작되도록 제어할 수 있다.According to an embodiment, the device calculates a first temperature difference value that is the difference between the temperature measured by the first sensor group and the target temperature set in the first imaging device, and when it is confirmed that the first temperature difference value is greater than the reference value, The first thermo-hygrostat connected to the first imaging device may be controlled to operate.

예를 들어, 장치는 제1 센서 그룹에서 측정된 온도가 30℃로 확인되고, 제1 촬영 장비에 설정된 목표 온도가 25℃로 확인되는 경우, 제1 온도 차이값으로 5℃를 산출할 수 있으며, 기준치가 3℃로 설정되어 있는 경우, 온도 변화가 필요하기 때문에 제1 항온항습기가 동작되도록 제어할 수 있다.For example, when the temperature measured by the first sensor group is confirmed to be 30 ° C, and the target temperature set in the first imaging device is confirmed to be 25 ° C, the device may calculate 5 ° C as the first temperature difference value, , when the reference value is set to 3° C., it is possible to control the first thermo-hygrostat to operate because a temperature change is required.

또한, 장치는 제2 센서 그룹에서 측정된 온도와 제2 촬영 장비에 설정된 목표 온도의 차이인 제2 온도 차이값을 산출하고, 제2 온도 차이값이 기준치 보다 큰 것으로 확인되면, 제2 촬영 장비와 연결된 제2 항온항습기가 동작되도록 제어할 수 있다.In addition, the device calculates a second temperature difference value that is a difference between the temperature measured by the second sensor group and the target temperature set in the second imaging device, and when it is confirmed that the second temperature difference value is greater than the reference value, the second imaging device It is possible to control the second thermo-hygrostat connected to the operation.

일실시예에 따르면, 장치는 촬영실 내에 배치된 복수의 촬영 장비 각각에 설정된 목표 온도 및 목표 습도를 확인할 수 있다.According to an embodiment, the device may check the target temperature and target humidity set in each of a plurality of imaging equipment disposed in the imaging room.

장치는 복수의 촬영 장비 각각과 연결된 복수의 항온항습기 각각의 동작을 제어하여, 복수의 촬영 장비 각각에서 측정된 온도가 목표 온도를 유지하도록 조절하고, 복수의 촬영 장비 각각에서 측정된 습도가 목표 습도를 유지하도록 조절할 수 있다.The device controls the operation of each of the plurality of thermo-hygrostats connected to each of the plurality of photographing equipment to adjust the temperature measured by each of the plurality of photographing equipment to maintain the target temperature, and the humidity measured by each of the plurality of photographing equipment is the target humidity can be adjusted to maintain

S801 단계에서, 장치는 복수의 촬영 장비 별로 미리 설정된 기간 동안 목표 온도 및 목표 습도를 유지하도록 조절된 조절 횟수를 확인할 수 있다.In step S801, the device may check the number of adjustments adjusted to maintain the target temperature and target humidity for a preset period for each of the plurality of photographing equipment.

예를 들어, 장치는 제1 촬영 장비에 온도 변화가 필요한 경우, 제1 항온항습기가 동작되도록 제어하여, 제1 촬영 장비가 목표 온도를 유지하도록 조절할 수 있으며, 일주일 동안 제1 촬영 장비가 목표 온도를 유지하기 위해 조절된 조절 횟수를 산출하여 확인할 수 있다.For example, when a temperature change is required for the first imaging device, the device may control the first thermo-hygrostat to operate, so that the first imaging device maintains the target temperature, and the first imaging device maintains the target temperature for a week. It can be confirmed by calculating the number of adjustments adjusted to maintain .

S802 단계에서, 장치는 조절 횟수가 제2 기준 범위 내에 있는지 여부를 확인할 수 있다.In step S802, the device may check whether the number of adjustments is within the second reference range.

S802 단계에서 조절 횟수가 제2 기준 범위 내에 있는 것으로 판단되면, S803 단계에서, 장치는 조절 횟수가 제2 기준 범위 내에 있는 것으로 확인된 촬영 장비를 이상이 없는 정상 상태로 분류할 수 있다.If it is determined in step S802 that the number of adjustments is within the second reference range, in step S803, the device may classify the photographing equipment whose number of adjustments is found to be within the second reference range as a normal state with no abnormality.

예를 들어, 제2 기준 범위가 10회 이상, 20회 이하로 설정되어 있는 경우, 장치는 제1 촬영 장비의 조절 횟수가 15회로 확인되면, 제1 촬영 장비를 정상 상태로 분류할 수 있다.For example, when the second reference range is set to 10 times or more and 20 times or less, the device may classify the first imaging device as a normal state when the number of adjustments of the first imaging device is 15 times.

S802 단계에서 조절 횟수가 제2 기준 범위를 벗어나는 것으로 판단되면, S804 단계에서, 장치는 조절 횟수가 제2 기준 범위를 벗어나는 것으로 확인된 촬영 장비를 이상이 있는 비정상 상태로 분류할 수 있다.If it is determined in step S802 that the number of adjustments is out of the second reference range, in step S804, the device may classify the photographing equipment in which the number of adjustments is out of the second reference range as an abnormal state.

예를 들어, 제2 기준 범위가 10회 이상, 20회 이하로 설정되어 있는 경우, 장치는 제2 촬영 장비의 조절 횟수가 5회로 확인되면, 제2 촬영 장비를 비정상 상태로 분류할 수 있으며, 제2 촬영 장비의 조절 횟수가 25회로 확인되면, 제2 촬영 장비를 비정상 상태로 분류할 수도 있다.For example, when the second reference range is set to 10 times or more and 20 times or less, the device may classify the second imaging device as an abnormal state when the number of adjustments of the second imaging device is 5 times, When the number of adjustments of the second imaging device is confirmed to be 25, the second imaging device may be classified as an abnormal state.

S805 단계에서, 장치는 비정상 상태로 분류된 제2 촬영 장비의 조절 횟수가 제2 기준 범위의 최소값 보다 작은지 여부를 확인할 수 있다.In step S805 , the device may determine whether the number of adjustments of the second imaging device classified as abnormal is less than the minimum value of the second reference range.

S805 단계에서 제2 촬영 장비의 조절 횟수가 제2 기준 범위의 최소값 보다 작은 것으로 확인되면, S806 단계에서, 장치는 제2 촬영 장비를 비정상 상태에서 유휴 상태로 분류할 수 있다.If it is determined in step S805 that the number of adjustments of the second imaging device is less than the minimum value of the second reference range, in step S806, the device may classify the second imaging device from the abnormal state to the idle state.

예를 들어, 제2 기준 범위가 10회 이상, 20회 이하로 설정되어 있는 경우, 장치는 제2 촬영 장비의 조절 횟수가 5회로 확인되어, 제2 기준 범위의 최소값인 10회 보다 조절 횟수가 작은 것으로 확인되면, 제2 촬영 장비를 유휴 상태로 분류할 수 있다.For example, when the second reference range is set to 10 times or more and 20 times or less, the device confirms that the number of adjustments of the second imaging equipment is 5 times, and the number of adjustments is higher than the minimum value of the second reference range of 10 times. If it is confirmed that it is small, the second imaging device may be classified as an idle state.

S805 단계에서 제2 촬영 장비의 조절 횟수가 제2 기준 범위의 최소값 보다 작지 않은 것으로 확인되면, 제2 촬영 장비의 조절 횟수가 제2 기준 범위를 벗어나 있기 때문에, 장치는 제2 촬영 장비의 조절 횟수가 제2 기준 범위의 최대값 보다 큰 것으로 확인할 수 있으며, 제2 촬영 장비의 조절 횟수가 제2 기준 범위의 최대값 보다 큰 것으로 확인되면, S807 단계에서, 장치는 제2 촬영 장비를 비정상 상태에서 과부하 상태로 분류할 수 있다.If it is determined in step S805 that the number of adjustments of the second photographing equipment is not less than the minimum value of the second reference range, since the number of adjustments of the second photographing equipment is out of the second reference range, the device determines the number of adjustments of the second photographing equipment is greater than the maximum value of the second reference range, and if it is determined that the number of adjustments of the second imaging device is greater than the maximum value of the second reference range, in step S807, the device removes the second imaging device from the abnormal state. It can be classified as an overload condition.

예를 들어, 제2 기준 범위가 10회 이상, 20회 이하로 설정되어 있는 경우, 장치는 제2 촬영 장비의 조절 횟수가 25회로 확인되어, 제2 기준 범위의 최대값인 20회 보다 조절 횟수가 큰 것으로 확인되면, 제2 촬영 장비를 과부하 상태로 분류할 수 있다.For example, if the second reference range is set to 10 times or more and 20 times or less, the device determines that the number of adjustments of the second imaging equipment is 25 times, and the number of adjustments is greater than the maximum value of the second reference range of 20 times. When it is confirmed that is large, the second imaging device may be classified as an overload state.

제2 촬영 장비가 유효 상태로 분류되면, S808 단계에서, 장치는 제2 촬영 장비의 유휴 상태가 기준 시간 이상으로 지속되었는지 여부를 확인할 수 있다. 여기서, 기준 시간은 실시예에 따라 상이하게 설정될 수 있다.If the second imaging device is classified as the valid state, in step S808 , the device may determine whether the idle state of the second imaging device continues for a reference time or longer. Here, the reference time may be set differently according to embodiments.

S808 단계에서 제2 촬영 장비의 유휴 상태가 기준 시간 이상으로 지속된 것이 확인되면, S810 단계에서, 장치는 제2 촬영 장비를 자리 교체 대상 장비로 분류할 수 있다.If it is confirmed in step S808 that the idle state of the second imaging device continues for more than the reference time, in step S810 , the device may classify the second imaging device as a replacement target device.

예를 들어, 제2 촬영 장비의 유휴 상태가 1달 이상으로 지속된 것이 확인되면, 장치는 제2 촬영 장비를 자리 교체 대상 장비로 분류할 수 있다.For example, if it is confirmed that the idle state of the second imaging device has been maintained for one month or more, the device may classify the second imaging device as a replacement target device.

제2 촬영 장비가 과부하 상태로 분류되면, S809 단계에서, 장치는 제2 촬영 장비의 과부하 상태가 기준 시간 이상으로 지속되었는지 여부를 확인할 수 있다.If the second photographing equipment is classified as an overload state, in step S809 , the device may determine whether the overload state of the second photographing equipment continues for more than a reference time.

S809 단계에서 제2 촬영 장비의 과부하 상태가 기준 시간 이상으로 지속된 것이 확인되면, S811 단계에서, 장치는 제2 촬영 장비를 수리 대상 장비로 분류할 수 있다.If it is confirmed in step S809 that the overload state of the second imaging device continues for more than the reference time, in step S811 , the device may classify the second imaging device as the equipment to be repaired.

예를 들어, 제2 촬영 장비의 과부하 상태가 1달 이상으로 지속된 것이 확인되면, 장치는 제2 촬영 장비를 수리 대상 장비로 분류할 수 있다.For example, if it is confirmed that the overload state of the second imaging device has continued for one month or more, the device may classify the second imaging device as a repair target device.

S812 단계에서, 장치는 제1 촬영 장비 및 제2 촬영 장비에 대한 상태 알림 메시지가 관리자 단말로 전송되도록 제어할 수 있다.In step S812 , the device may control so that status notification messages for the first and second photographing equipment are transmitted to the manager terminal.

S803 단계에서 제1 촬영 장비가 정상 상태로 분류되면, 장치는 제1 촬영 장비가 이상이 없는 정상 상태인 것을 알려주는 상태 알림 메시지가 관리자 단말로 전송되도록 제어할 수 있다.When the first imaging device is classified as a normal state in step S803, the device may control to transmit a status notification message indicating that the first imaging device is in a normal state with no abnormality to be transmitted to the manager terminal.

S804 단계에서 제2 촬영 장비가 비정상 상태로 분류되면, 장치는 제2 촬영 장비가 이상이 있는 비정상 상태인 것을 알려주는 상태 알림 메시지가 관리자 단말로 전송되도록 제어할 수 있다.If the second imaging device is classified as an abnormal state in step S804, the device may control to transmit a status notification message indicating that the second imaging device is in an abnormal state to be transmitted to the manager terminal.

S806 단계에서 제2 촬영 장비가 유휴 상태로 분류되고, S808 단계에서 유휴 상태가 기준 시간 이상으로 지속되지 않은 것이 확인되면, 장치는 제2 촬영 장비가 비정상 상태에서 유휴 상태인 것을 알려주는 상태 알림 메시지가 관리자 단말로 전송되도록 제어할 수 있다.If it is confirmed in step S806 that the second imaging device is in the idle state, and it is confirmed that the idle state does not last longer than the reference time in step S808, the device provides a status notification message indicating that the second imaging device is in an idle state in an abnormal state can be controlled to be transmitted to the manager terminal.

S807 단계에서 제2 촬영 장비가 과부하 상태로 분류되고, S809 단계에서 과부하 상태가 기준 시간 이상으로 지속되지 않은 것이 확인되면, 장치는 제2 촬영 장비가 비정상 상태에서 과부하 상태인 것을 알려주는 상태 알림 메시지가 관리자 단말로 전송되도록 제어할 수 있다.When it is confirmed in step S807 that the second imaging equipment is classified as an overload state, and it is confirmed that the overload state does not last longer than the reference time in step S809, the device provides a status notification message indicating that the second imaging equipment is in an overload state from an abnormal state can be controlled to be transmitted to the manager terminal.

S810 단계에서 제2 촬영 장비가 자리 교체 대상 장비로 분류되면, 장치는 제2 촬영 장비의 유휴 상태에 대한 지속 기간이 오래되어, 제2 촬영 장비에 대한 자리 교체가 필요한 것을 알려주는 알림 메시지가 관리자 단말로 전송되도록 제어할 수 있다.If the second imaging device is classified as a replacement target device in step S810, the device displays a notification message indicating that the second imaging device needs to be replaced because the duration of the idle state of the second imaging device is long. It can be controlled to be transmitted to the terminal.

S811 단계에서 제2 촬영 장비가 수리 대상 장비로 분류되면, 장치는 제2 촬영 장비의 과부하 상태에 대한 지속 기간이 오래되어, 제2 촬영 장비에 대한 수리가 필요한 것을 알려주는 알림 메시지가 관리자 단말로 전송되도록 제어할 수 있다.If the second imaging equipment is classified as the equipment to be repaired in step S811, the device sends a notification message to the manager terminal informing that the second photographing equipment needs to be repaired because the duration of the overload state of the second photographing equipment is long. transmission can be controlled.

도 9는 일실시예에 따른 제1 인공 신경망을 설명하기 위한 도면이다.9 is a diagram for explaining a first artificial neural network according to an embodiment.

일실시예에 따른 제1 인공 신경망(900)은 장치와 연결되어 있는 촬영 장비의 카메라로 촬영된 제품의 원본 이미지인 제1 이미지의 인코딩에 의해 생성된 제1 입력 신호를 입력으로 하고, 제품의 종류를 나타내는 정보를 출력으로 할 수 있다.The first artificial neural network 900 according to an embodiment receives a first input signal generated by encoding a first image that is an original image of a product photographed with a camera of a photographing equipment connected to the device as an input, and Information indicating the type can be output.

일실시예에 따른 인코딩은 이미지의 픽셀 별 색 정보를 수치화된 데이터 시트 형태로 저장하는 방식으로 이뤄질 수 있는데, 색 정보는 하나의 픽셀이 가지고 있는 RGB 색상, 명도 정보, 채도 정보를 포함할 수 있으나, 이에 국한하지 않는다.Encoding according to an embodiment may be performed by storing color information for each pixel of an image in the form of a digitized data sheet, and the color information may include RGB color, brightness information, and saturation information of one pixel. , but not limited thereto.

일실시예에 따르면, 제1 인공 신경망(900)은 특징 추출 신경망(910)과 분류 신경망(920)으로 구성되어 있으며, 특징 추출 신경망(910)은 이미지에서 제품과 배경을 분리하는 작업을 수행할 수 있으며, 분류 신경망(920)은 이미지에 있는 제품이 어느 카테고리에 속하는지 여부를 파악하는 작업을 수행할 수 있다.According to an embodiment, the first artificial neural network 900 is composed of a feature extraction neural network 910 and a classification neural network 920, and the feature extraction neural network 910 performs a task of separating a product and a background from an image. In addition, the classification neural network 920 may perform an operation of determining whether the product in the image belongs to which category.

특징 추출 신경망(910)이 제품과 배경을 구분하는 방법은 이미지를 인코딩한 제1 입력 신호의 데이터 시트로부터 색 정보의 각 값들의 변화가 한 픽셀을 포함하는 8개의 픽셀 중 6개 이상에서 30% 이상의 변화가 생긴 것으로 감지되는 픽셀들의 묶음을 제품과 배경의 경계로 삼을 수 있으나, 이에 국한하지 않는다.The method in which the feature extraction neural network 910 distinguishes the product from the background is that the change in each value of color information from the data sheet of the first input signal encoding the image is 30% in 6 or more of 8 pixels including one pixel A bundle of pixels detected as having an abnormal change may be used as the boundary between the product and the background, but is not limited thereto.

특징 추출 신경망(910)은 입력 신호를 컨볼루션 계층과 풀링 계층을 차례로 쌓아 진행한다. 컨볼루션 계층은 컨볼루션 연산, 컨볼루션 필터 및 활성함수를 포함하고 있다. 컨볼루션 필터의 계산은 대상 입력의 행렬 크기에 따라 조절되나 일반적으로 9X9 행렬을 사용한다. 활성 함수는 일반적으로 ReLU 함수, 시그모이드 함수, 및 tanh 함수 등을 사용하나 이에 한정하지 않는다. 풀링 계층은 입력의 행렬 크기를 줄이는 역할을 하는 계층으로, 특정 영역의 픽셀을 묶어 대표값을 추출하는 방식을 사용한다. 풀링 계층의 연산에는 일반적으로 평균값이나 최대값을 많이 사용하나 이에 한정하지 않는다. 해당 연산은 정방 행렬을 사용하여 진행되는데, 일반적으로 9X9 행렬을 사용한다. 컨볼루션 계층과 풀링 계층은 해당 입력이 차이를 유지한 상태에서 충분히 작아질 때까지 번갈아 반복 진행된다.The feature extraction neural network 910 stacks the input signal by sequentially stacking a convolutional layer and a pooling layer. The convolution layer includes a convolution operation, a convolution filter, and an activation function. The calculation of the convolution filter is adjusted according to the matrix size of the target input, but a 9X9 matrix is generally used. The activation function generally uses, but is not limited to, a ReLU function, a sigmoid function, and a tanh function. The pooling layer is a layer that reduces the size of the input matrix, and uses a method of extracting representative values by tying pixels in a specific area. In general, the average value or the maximum value is often used for the calculation of the pooling layer, but is not limited thereto. The operation is performed using a square matrix, usually a 9x9 matrix. The convolutional layer and the pooling layer are repeated alternately until the corresponding input becomes small enough while maintaining the difference.

분류 신경망(920)은 특징 추출 신경망(910)을 통해 배경으로부터 구분된 제품의 형태를 확인하고, 미리 정의된 카테고리 별 대표 제품과 유사한지 여부를 확인하여 이미지에 있는 제품이 어느 카테고리에 속하는지 여부를 파악할 수 있다. 제품의 비교를 위해 장치의 데이터베이스에 저장된 정보들을 활용할 수 있다.The classification neural network 920 checks the shape of the product separated from the background through the feature extraction neural network 910, and checks whether the product in the image belongs to which category by checking whether it is similar to the representative product for each predefined category can figure out Information stored in the database of the device may be used for product comparison.

분류 신경망(920)은 제품의 속하는 카테고리를 식별하는 작업을 우선으로 하며, 제품의 형태 및 크기까지 파악할 수도 있다.The classification neural network 920 prioritizes the task of identifying the category to which the product belongs, and may also grasp the shape and size of the product.

분류 신경망(920)은 히든 레이어와 출력 레이어를 가지고 있으며, 5층 이하의 히든 레이어로 구성되어, 총 50개 이하의 히든 레이어 노드를 포함하고, 히든 레이어의 활성함수는 ReLU 함수, 시그모이드 함수 및 tanh 함수 등을 사용하나 이에 한정하지 않는다.The classification neural network 920 has a hidden layer and an output layer, and is composed of five or less hidden layers, including a total of 50 or less hidden layer nodes, and the activation function of the hidden layer is a ReLU function and a sigmoid function. and tanh functions, but is not limited thereto.

분류 신경망(920)는 총 1개의 출력층 노드만 포함할 수 있다.The classification neural network 920 may include only one output layer node in total.

분류 신경망(920)의 출력은 제품의 종류에 대한 출력값으로, 제품의 종류가 어느 카테고리에 속하는지 지시할 수 있다. 예를 들어, 출력값이 1인 경우, 제품의 종류가 옷 상의 카테고리인 것을 지시하고, 출력값이 2인 경우, 제품의 종류가 옷 하의 카테고리인 것을 지시하고, 출력값이 3인 경우, 제품의 종류가 신발 카테고리인 것을 지시하고, 출력값이 4인 경우, 제품의 종류가 가방 카테고리인 것을 지시할 수 있다.The output of the classification neural network 920 is an output value for the type of product, and may indicate to which category the product type belongs. For example, when the output value is 1, it indicates that the type of product is a category on clothes, when the output value is 2, it indicates that the type of product is a category under clothes, and when the output value is 3, it indicates that the type of product is It may indicate that it is a shoe category, and when the output value is 4, it may indicate that the type of product is a bag category.

일실시예에 따르면, 제1 인공 신경망(900)은 사용자가 제1 인공 신경망(900)에 따른 출력의 문제점 발견 시 사용자에 의해 입력된 수정 정답에 의해 생성되는 제1 학습 신호를 전달받아 학습할 수 있다. 제1 인공 신경망(900)에 따른 출력의 문제점은 제품의 종류가 다른 카테고리로 지시하는 출력값을 출력한 경우를 의미할 수 있다.According to an embodiment, the first artificial neural network 900 receives the first learning signal generated by the corrected correct answer input by the user when the user discovers a problem in the output according to the first artificial neural network 900 to learn. can The problem of output according to the first artificial neural network 900 may mean a case in which output values indicating different categories of products are output.

일실시예에 따른 제1 학습 신호는 정답과 출력값의 오차를 바탕으로 만들어지며, 경우에 따라 델타를 이용하는 SGD나 배치 방식 혹은 역전파 알고리즘을 따르는 방식을 사용할 수 있다. 제1 인공 신경망(900)은 제1 학습 신호에 의해 기존의 가중치를 수정해 학습을 수행하며, 경우에 따라 모멘텀을 사용할 수 있다. 오차의 계산에는 비용함수가 사용될 수 있는데, 비용함수로 Cross entropy 함수를 사용할 수 있다. 이하 도 10을 참조하여 제1 인공 신경망(900)의 학습 내용이 후술된다.The first learning signal according to an embodiment is created based on the error between the correct answer and the output value, and in some cases, SGD using delta, a batch method, or a method following a backpropagation algorithm may be used. The first artificial neural network 900 performs learning by modifying the existing weights according to the first learning signal, and may use momentum in some cases. A cost function can be used to calculate the error, and a cross entropy function can be used as the cost function. Hereinafter, the learning contents of the first artificial neural network 900 will be described with reference to FIG. 10 .

도 10은 일실시예에 따른 제1 인공 신경망을 학습하는 방법을 설명하기 위한 도면이다.10 is a diagram for explaining a method of learning a first artificial neural network according to an embodiment.

일실시예에 따르면, 학습 장치는 제1 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 장치와 다른 별개의 주체일 수 있지만, 이에 제한되는 것은 아니다.According to an embodiment, the learning apparatus may train the first artificial neural network 900 . The learning device may be a separate entity other than the device, but is not limited thereto.

일실시예에 따르면, 제1 인공 신경망(900)은 트레이닝 샘플들이 입력되는 입력 레이어와 트레이닝 출력들을 출력하는 출력 레이어를 포함하고, 트레이닝 출력들과 제1 레이블들 사이의 차이에 기초하여 학습될 수 있다. 여기서, 제1 레이블들은 제품의 종류별 대표 이미지에 기초하여 정의될 수 있다. 제1 인공 신경망(900)은 복수의 노드들의 그룹으로 연결되어 있고, 연결된 노드들 사이의 가중치들과 노드들을 활성화시키는 활성화 함수에 의해 정의된다. According to an embodiment, the first artificial neural network 900 includes an input layer to which training samples are input and an output layer for outputting training outputs, and can be learned based on a difference between the training outputs and the first labels. have. Here, the first labels may be defined based on a representative image for each type of product. The first artificial neural network 900 is connected to a group of a plurality of nodes, and is defined by weights between the connected nodes and an activation function that activates the nodes.

학습 장치는 GD(Gradient Decent) 기법 또는 SGD(Stochastic Gradient Descent) 기법을 이용하여 제1 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 제1 인공 신경망(900)의 출력들 및 레이블들 의해 설계된 손실 함수를 이용할 수 있다.The learning apparatus may train the first artificial neural network 900 by using a Gradient Decent (GD) technique or a Stochastic Gradient Descent (SGD) technique. The learning apparatus may use a loss function designed by the outputs and labels of the first artificial neural network 900 .

학습 장치는 미리 정의된 손실 함수(loss function)을 이용하여 트레이닝 에러를 계산할 수 있다. 손실 함수는 레이블, 출력 및 파라미터를 입력 변수로 미리 정의될 수 있고, 여기서 파라미터는 제1 인공 신경망(900) 내 가중치들에 의해 설정될 수 있다. 예를 들어, 손실 함수는 MSE(Mean Square Error) 형태, 엔트로피(entropy) 형태 등으로 설계될 수 있는데, 손실 함수가 설계되는 실시예에는 다양한 기법 또는 방식이 채용될 수 있다.The learning apparatus may calculate a training error using a predefined loss function. The loss function may be predefined with a label, an output, and a parameter as input variables, where the parameter may be set by weights in the first artificial neural network 900 . For example, the loss function may be designed in a Mean Square Error (MSE) form, an entropy form, or the like, and various techniques or methods may be employed in an embodiment in which the loss function is designed.

학습 장치는 역전파(backpropagation) 기법을 이용하여 트레이닝 에러에 영향을 주는 가중치들을 찾아낼 수 있다. 여기서, 가중치들은 제1 인공 신경망(900) 내 노드들 사이의 관계들이다. 학습 장치는 역전파 기법을 통해 찾아낸 가중치들을 최적화시키기 위해 레이블들 및 출력들을 이용한 SGD 기법을 이용할 수 있다. 예를 들어, 학습 장치는 레이블들, 출력들 및 가중치들에 기초하여 정의된 손실 함수의 가중치들을 SGD 기법을 이용하여 갱신할 수 있다.The learning apparatus may find weights affecting the training error by using a backpropagation technique. Here, the weights are relationships between nodes in the first artificial neural network 900 . The learning apparatus may use the SGD technique using labels and outputs to optimize the weights found through the backpropagation technique. For example, the learning apparatus may update the weights of the loss function defined based on the labels, outputs, and weights using the SGD technique.

일실시예에 따르면, 학습 장치는 데이터베이스로부터 레이블드 트레이닝 제품 이미지들(1001)을 획득할 수 있다. 학습 장치는 제품의 종류별로 설정된 제품 이미지들(1001)에 각각 미리 레이블링된 정보를 획득할 수 있는데, 제품 이미지들(1001)은 미리 분류된 제품 정보에 따라 레이블링될 수 있다.According to an embodiment, the learning apparatus may obtain the labeled training product images 1001 from the database. The learning apparatus may obtain pre-labeled information on each of the product images 1001 set for each type of product, and the product images 1001 may be labeled according to the pre-classified product information.

일실시예에 따르면, 학습 장치는 1000개의 레이블드 트레이닝 제품 이미지들(1001)을 획득할 수 있으며, 레이블드 트레이닝 제품 이미지들(1001)에 기초하여 제1 트레이닝 제품 벡터들(1002)을 생성할 수 있다. 제1 트레이닝 제품 벡터들(1002)을 추출하는데는 다양한 방식이 채용될 수 있다.According to an embodiment, the learning device may obtain 1000 labeled training product images 1001 , and generate first training product vectors 1002 based on the labeled training product images 1001 . can Various schemes may be employed for extracting the first training product vectors 1002 .

일실시예에 따르면, 학습 장치는 제1 트레이닝 제품 벡터들(1002)을 제1 인공 신경망(900)에 적용하여 제1 트레이닝 출력들(1003)을 획득할 수 있다. 학습 장치는 제1 트레이닝 출력들(1003)과 제1 레이블들(1004)에 기초하여 제1 인공 신경망(900)을 학습시킬 수 있다. 학습 장치는 제1 트레이닝 출력들(1003)에 대응하는 트레이닝 에러들을 계산하고, 그 트레이닝 에러들을 최소화하기 위해 제1 인공 신경망(900) 내 노드들의 연결 관계를 최적화하여 제1 인공 신경망(900)을 학습시킬 수 있다. 장치는 학습이 완료된 제1 인공 신경망(900)을 이용하여 이미지 내에 있는 제품의 종류를 식별할 수 있다.According to an embodiment, the learning apparatus may obtain the first training outputs 1003 by applying the first training product vectors 1002 to the first artificial neural network 900 . The learning apparatus may train the first artificial neural network 900 based on the first training outputs 1003 and the first labels 1004 . The learning apparatus calculates training errors corresponding to the first training outputs 1003 , and optimizes the connection relationship of nodes in the first artificial neural network 900 to minimize the training errors to construct the first artificial neural network 900 . can learn The device may identify the type of product in the image using the first artificial neural network 900 on which the learning has been completed.

도 11은 일실시예에 따른 장치의 구성에 대한 예시도이다.11 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

일실시예에 따르면, 장치(1100)는 프로세서(1110) 및 메모리(1120)를 포함한다. 프로세서(1110)는 도 1 내지 도 10을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 10을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 장치(1100)를 이용하는 자 또는 단체는 도 1 내지 도 10을 참조하여 전술된 방법들 일부 또는 전부와 관련된 서비스를 제공할 수 있다.According to one embodiment, the device 1100 includes a processor 1110 and a memory 1120 . The processor 1110 may include at least one of the devices described above with reference to FIGS. 1 to 10 , or perform at least one method described above with reference to FIGS. 1 to 10 . A person or group using the apparatus 1100 may provide a service related to some or all of the methods described above with reference to FIGS. 1 to 10 .

메모리(1120)는 전술된 방법들과 관련된 정보를 저장하거나 전술된 방법들을 구현하는 프로그램을 저장할 수 있다. 메모리(1120)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 1120 may store information related to the above-described methods or a program for implementing the above-described methods. The memory 1120 may be a volatile memory or a non-volatile memory.

프로세서(1110)는 프로그램을 실행하고, 장치(1100)를 제어할 수 있다. 프로세서(1110)에 의하여 실행되는 프로그램의 코드는 메모리(1120)에 저장될 수 있다. 장치(1100)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 1110 may execute a program and control the device 1100 . The code of the program executed by the processor 1110 may be stored in the memory 1120 . The device 1100 may be connected to an external device (eg, a personal computer or a network) through an input/output device (not shown), and may exchange data through wired/wireless communication.

장치(1100)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(1120)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(1110)는 메모리(1120)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(1100)와 학습된 인공 신경망을 이용하는 장치(1100)는 동일할 수도 있고 개별적일 수도 있다.The device 1100 may be used to train an artificial neural network or use a learned artificial neural network. The memory 1120 may include a learning or learned artificial neural network. The processor 1110 may learn or execute an artificial neural network algorithm stored in the memory 1120 . The apparatus 1100 for learning the artificial neural network and the apparatus 1100 for using the learned artificial neural network may be the same or may be separate.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented by a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the apparatus, methods and components described in the embodiments may include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For convenience of understanding, although one processing device is sometimes described as being used, one of ordinary skill in the art will recognize that the processing device includes a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that can include For example, the processing device may include a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as parallel processors.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, etc. alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and available to those skilled in the art of computer software. Examples of the computer-readable recording medium include magnetic media such as hard disks, floppy disks and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic such as floppy disks. - includes magneto-optical media, and hardware devices specially configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those generated by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may comprise a computer program, code, instructions, or a combination of one or more thereof, which configures a processing device to operate as desired or is independently or collectively processed You can command the device. The software and/or data may be any kind of machine, component, physical device, virtual equipment, computer storage medium or device, to be interpreted by or to provide instructions or data to the processing device. , or may be permanently or temporarily embody in a transmitted signal wave. The software may be distributed over networked computer systems, and stored or executed in a distributed manner. Software and data may be stored in one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with reference to the limited drawings, those skilled in the art may apply various technical modifications and variations based on the above. For example, the described techniques are performed in a different order than the described method, and/or the described components of the system, structure, apparatus, circuit, etc. are combined or combined in a different form than the described method, or other components Or substituted or substituted by equivalents may achieve an appropriate result.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments, and equivalents to the claims are also within the scope of the following claims.

Claims (3)

장치에 의해 수행되는, 제품 입체컷에 대한 이미지를 처리하는 방법에 있어서,
마네킹 또는 사람이 착용한 제품에 대한 촬영이 수행되면, 촬영 장비로부터 상기 제품의 원본 이미지인 제1 이미지를 획득하는 단계;
상기 제1 이미지를 인코딩 하여 제1 입력 신호를 생성하는 단계;
상기 제1 입력 신호를 제1 인공 신경망에 입력하고, 상기 제1 인공 신경망의 입력에 대한 결과에 기초하여, 제1 출력 신호를 획득하는 단계;
상기 제1 출력 신호에 기초하여, 상기 제품의 종류인 제1 카테고리를 식별하는 단계;
상기 제1 카테고리의 대표 이미지와 상기 제1 이미지를 부위별로 비교하여, 상기 제품의 부위별 보정값을 설정하는 단계;
상기 보정값을 기초로 상기 제1 이미지에서 부위별로 픽셀 유동화 작업을 수행하여, 상기 제품의 핏이 보정된 이미지인 제2 이미지를 생성하는 단계;
상기 제2 이미지를 분석하여 상기 제2 이미지에서 상기 제품이 차지하고 있는 제품 영역과 배경 영역을 구분하는 단계;
상기 제2 이미지에서 상기 배경 영역을 삭제하여, 상기 제품 영역으로만 구성된 이미지인 제3 이미지를 생성하는 단계;
상기 제3 이미지에서 상기 제품의 외곽선을 인식하고, 상기 제품의 외곽선을 상기 제1 카테고리에 미리 설정된 구간별로 분할하는 단계;
상기 제품의 외곽선에서 구간별로 분할된 복수의 선 각각을 직선과 곡선으로 분류하는 단계;
상기 복수의 선 각각이 연결되는 지점에 위치한 복수의 점 각각을 인식하고, 상기 복수의 점 각각을 직선과 직선이 연결되는 제1 유형, 직선과 곡선이 연결되는 제2 유형, 곡선과 직선이 연결되는 제3 유형, 곡선과 곡선이 연결되는 제4 유형으로 분류하는 단계; 및
상기 복수의 점 각각의 순번, 좌표 및 유형에 대한 정보를 상기 제품의 특징 정보로 등록하는 단계를 포함하는,
제품 입체컷 이미지 처리 방법.
A method of processing an image for a three-dimensional cut of a product, performed by an apparatus, comprising:
when photographing is performed on a mannequin or a product worn by a person, acquiring a first image that is an original image of the product from photographing equipment;
generating a first input signal by encoding the first image;
inputting the first input signal to a first artificial neural network, and obtaining a first output signal based on a result of the input of the first artificial neural network;
identifying a first category that is a type of the product based on the first output signal;
comparing the representative image of the first category with the first image for each part, and setting a correction value for each part of the product;
generating a second image in which the fit of the product is corrected by performing a pixel fluidization operation for each part in the first image based on the correction value;
analyzing the second image to distinguish a product area and a background area occupied by the product in the second image;
deleting the background area from the second image to generate a third image that is an image composed of only the product area;
recognizing an outline of the product in the third image, and dividing the outline of the product into sections preset in the first category;
classifying each of the plurality of lines divided for each section in the outline of the product into a straight line and a curved line;
Recognizes each of a plurality of points located at a point where each of the plurality of lines is connected, and a first type in which a straight line and a straight line are connected to each of the plurality of points, a second type in which a straight line and a curved line are connected, and a curve and a straight line are connected to each of the plurality of points Classifying into a third type that becomes a curve and a fourth type in which the curve is connected; and
Including the step of registering information about the order, coordinates, and type of each of the plurality of points as characteristic information of the product,
How to process three-dimensional cut images of products.
삭제delete 제1항에 있어서,
상기 복수의 선 각각을 직선과 곡선으로 분류하는 단계는,
상기 복수의 선 중 어느 하나인 제1 선의 양끝에 위치한 제1 점 및 제2 점을 인식하는 단계;
상기 제1 선의 양끝이 아닌 중간 어느 부분에 위치한 제3 점을 인식하는 단계;
상기 제1 점과 상기 제3 점을 곧은 선으로 연결한 제2 선 및 상기 제2 점과 상기 제3 점을 곧은 선으로 연결한 제3 선을 생성하는 단계;
상기 제2 선 및 상기 제3 선을 결합한 제4 선과 상기 제1 선의 일치 여부를 확인하는 단계; 및
상기 제4 선과 상기 제1 선이 일치하는 것으로 확인되면, 상기 제1 선을 직선으로 분류하고, 상기 제4 선과 상기 제1 선이 일치하지 않는 것으로 확인되면, 상기 제1 선을 곡선으로 분류하는 단계를 포함하는,
제품 입체컷 이미지 처리 방법.
According to claim 1,
The step of classifying each of the plurality of lines into straight lines and curves,
recognizing a first point and a second point located at both ends of a first line that is any one of the plurality of lines;
recognizing a third point located in any part of the middle other than both ends of the first line;
generating a second line connecting the first point and the third point with a straight line and a third line connecting the second point and the third point with a straight line;
checking whether a fourth line combining the second line and the third line matches the first line; and
When it is confirmed that the fourth line and the first line match, the first line is classified as a straight line, and when it is confirmed that the fourth line and the first line do not match, the first line is classified as a curve comprising steps,
How to process three-dimensional cut images of products.
KR1020210008472A 2021-01-21 2021-01-21 Method, device and system for processing three-dimensional cut image of product KR102300500B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210008472A KR102300500B1 (en) 2021-01-21 2021-01-21 Method, device and system for processing three-dimensional cut image of product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210008472A KR102300500B1 (en) 2021-01-21 2021-01-21 Method, device and system for processing three-dimensional cut image of product

Publications (1)

Publication Number Publication Date
KR102300500B1 true KR102300500B1 (en) 2021-09-10

Family

ID=77777113

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210008472A KR102300500B1 (en) 2021-01-21 2021-01-21 Method, device and system for processing three-dimensional cut image of product

Country Status (1)

Country Link
KR (1) KR102300500B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102429392B1 (en) * 2022-01-20 2022-08-04 주식회사 로원홀딩스 Method, device and system of providing product information using image crawling
WO2024128567A1 (en) * 2022-12-14 2024-06-20 삼성전자주식회사 3d modeling method and electronic device

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190052824A (en) * 2017-11-09 2019-05-17 (주)코아시아 Apparatus system for virtual fitting cloth based on augmented reality
KR102007432B1 (en) * 2018-05-03 2019-08-06 (주)블루어 System of 3-Dimensional Video Generation and Provision
KR20190105380A (en) * 2018-03-05 2019-09-17 삼성전자주식회사 Electronic device and method for correcting images based on image feature information and image correction scheme
KR20200066405A (en) * 2018-11-30 2020-06-10 동국대학교 산학협력단 Device and method for measuring three-dimensional body model

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190052824A (en) * 2017-11-09 2019-05-17 (주)코아시아 Apparatus system for virtual fitting cloth based on augmented reality
KR20190105380A (en) * 2018-03-05 2019-09-17 삼성전자주식회사 Electronic device and method for correcting images based on image feature information and image correction scheme
KR102007432B1 (en) * 2018-05-03 2019-08-06 (주)블루어 System of 3-Dimensional Video Generation and Provision
KR20200066405A (en) * 2018-11-30 2020-06-10 동국대학교 산학협력단 Device and method for measuring three-dimensional body model

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102429392B1 (en) * 2022-01-20 2022-08-04 주식회사 로원홀딩스 Method, device and system of providing product information using image crawling
WO2024128567A1 (en) * 2022-12-14 2024-06-20 삼성전자주식회사 3d modeling method and electronic device

Similar Documents

Publication Publication Date Title
US11222239B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US9852358B2 (en) Information processing device, information processing method, and information processing system
US9626551B2 (en) Collation apparatus and method for the same, and image searching apparatus and method for the same
US20180181813A1 (en) Face detection, identification, and tracking system for robotic devices
CN105069424B (en) Quick face recognition system and method
US20130286161A1 (en) Three-dimensional face recognition for mobile devices
KR102300500B1 (en) Method, device and system for processing three-dimensional cut image of product
WO2010016175A1 (en) Target detection device and target detection method
KR20190004073A (en) Authentication method and authentication apparatus using infrared ray(ir) image
US11468290B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP6948851B2 (en) Information processing device, information processing method
KR102160128B1 (en) Method and apparatus for creating smart albums based on artificial intelligence
CN106504265B (en) Estimation optimization method, equipment and system
KR102337209B1 (en) Method for notifying environmental context information, electronic apparatus and storage medium
US10600202B2 (en) Information processing device and method, and program
CN114981836A (en) Electronic device and control method of electronic device
Jung et al. Object Detection and Tracking‐Based Camera Calibration for Normalized Human Height Estimation
KR102429392B1 (en) Method, device and system of providing product information using image crawling
KR102318931B1 (en) Method for recycling clothing using waste clothing
CN114608521A (en) Monocular distance measuring method and device, electronic equipment and storage medium
KR102167187B1 (en) Method for checking design of civil construction process
KR102055815B1 (en) Method and apparatus for controlling interior lighting manufacturing process for automobile
KR102415616B1 (en) Method, device and system for providing education and trading service based on image standardization of work of art
KR102146650B1 (en) Method and apparatus for designing cctv control system
KR102065893B1 (en) Method and apparatus for controlling wiper manufacturing process for cleanroom

Legal Events

Date Code Title Description
GRNT Written decision to grant