KR20220072729A - Method for measuring body size based on artificial intelligence - Google Patents

Method for measuring body size based on artificial intelligence Download PDF

Info

Publication number
KR20220072729A
KR20220072729A KR1020210128245A KR20210128245A KR20220072729A KR 20220072729 A KR20220072729 A KR 20220072729A KR 1020210128245 A KR1020210128245 A KR 1020210128245A KR 20210128245 A KR20210128245 A KR 20210128245A KR 20220072729 A KR20220072729 A KR 20220072729A
Authority
KR
South Korea
Prior art keywords
image
user
body size
training
generating
Prior art date
Application number
KR1020210128245A
Other languages
Korean (ko)
Inventor
박주연
김서우
김현욱
오한빛
신승원
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Publication of KR20220072729A publication Critical patent/KR20220072729A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0641Shopping interfaces
    • G06Q30/0643Graphical representation of items or shoppers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 인공지능 기반의 사용자 신체 치수 측정 방법에 관한 것이다. 인공지능 기반의 사용자 신체 치수 측정 방법은 훈련 데이터 셋을 생성하는 단계, 상기 훈련 데이터 셋을 이용하여 신체 치수 추정모델을 훈련하는 단계, 사용자를 제1 방향에서 촬상한 제1 이미지와, 상기 제1 방향과 다른 제2 방향에서 촬상한 제2 이미지를 상기 신체 치수 추정모델에 제공하는 단계 및 상기 제1 이미지 및 상기 제2 이미지를 이용하여, 상기 사용자의 신체 치수를 적어도 하나 추정하는 단계를 포함하되, 상기 훈련 데이터 셋을 생성하는 단계는, 미리 측정되어 저장된 삼차원 인체 데이터로부터 제1 삼차원 모델링 형상을 추출하는 단계, 및 상기 제1 삼차원 모델링 형상을 이용하여, 서로 다른 방향에서 촬상된 제1 훈련 이미지 및 제2 훈련 이미지를 생성하는 단계를 포함한다.The present invention relates to an artificial intelligence-based method for measuring a user's body size. An artificial intelligence-based user body size measurement method includes the steps of generating a training data set, training a body size estimation model using the training data set, a first image captured by the user in a first direction, and the first Providing the body size estimation model with a second image captured in a second direction different from the direction, and estimating at least one body size of the user using the first image and the second image. , The generating of the training data set includes: extracting a first three-dimensional modeling shape from three-dimensional human body data measured in advance and stored; and using the first three-dimensional modeling shape, first training images captured in different directions and generating a second training image.

Description

인공지능 기반의 사용자 신체 치수 측정 방법{Method for measuring body size based on artificial intelligence} Method for measuring body size based on artificial intelligence

본 발명은 인공지능 기반의 사용자 신체 치수 측정 방법에 대해 설명한다. 구체적으로, 본 발명은 사용자가 촬상된 이미지를 이용하여 사용자의 신체 치수를 측정할 수 있는 방법에 대해 설명한다. The present invention describes an artificial intelligence-based method for measuring a user's body size. Specifically, the present invention describes a method by which the user can measure the user's body size using a captured image.

최근 온라인을 이용한 의복 등의 구매량이 폭발적으로 증가하고 있다. 온라인을 통한 쇼핑은 소비자가 직접 의복 등을 착용해 볼 수 없기 때문에 정확한 사이즈를 선정하여 구매하는 것이 필요하다. 이를 위해, 소비자는 직접 본인의 신체 치수를 측정하여, 이와 매칭되는 사이즈의 의복 등을 구매하거나, 온라인 쇼핑 플랫폼 등에 측정된 신체 치수를 기입하여, 온라인 쇼핑 플랫폼에서 추천해주는 사이즈의 의복 등을 구매하는 방식을 이용하고 있다. Recently, the amount of online purchases of clothes and the like is increasing explosively. In online shopping, consumers cannot try on clothes directly, so it is necessary to select the correct size to purchase. To this end, the consumer directly measures his or her body size and purchases clothes of the matching size, or purchases clothes of the size recommended by the online shopping platform by entering the measured body size on the online shopping platform. method is being used.

그러나, 일반적인 소비자의 경우 신체 치수를 측정하는 방법을 정확히 숙지하고 있지는 않으므로, 소비자가 측정하는 신체 위치가 정확하지 않거나, 측정기구의 잘못된 사용으로 신체 치수 측정의 정확도가 떨어질 수 있다. 이러한 잘못 측정된 신체 치수를 이용하여 의복 등의 사이즈를 결정한 경우, 맞음새에 대한 만족도가 떨어지고 이는 곧 교환 및 반품으로 이어지므로, 시간적, 금전적 비용이 발생된다. However, since the general consumer does not know exactly how to measure the body size, the body position measured by the consumer may not be accurate or the accuracy of body size measurement may be deteriorated due to the wrong use of a measuring device. When the size of clothes is determined using the wrongly measured body size, satisfaction with fit decreases and this leads to exchange or return, which incurs time and money costs.

이러한 비용 발생을 절감하기 위해서는, 신체 치수를 측정하는 방법을 정확히 숙지하지 못하였더라도, 신체 치수를 정확하고 간편하게 측정할 수 있는 방법의 마련이 필요하다. In order to reduce such cost, it is necessary to provide a method for accurately and simply measuring the body size, even if the user does not know exactly how to measure the body size.

본 발명의 과제는, 사용자를 촬상한 이미지를 이용하여, 적어도 하나의 신체 치수를 측정하는 방법을 제공하는 것이다.An object of the present invention is to provide a method of measuring at least one body size using an image captured by a user.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. It will also be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the appended claims.

상기 과제를 해결하기 위한 본 발명의 몇몇 실시예에 따른 인공지능 기반의 사용자 신체 치수 측정 방법은 훈련 데이터 셋을 생성하는 단계, 상기 훈련 데이터 셋을 이용하여 신체 치수 추정모델을 훈련하는 단계, 사용자를 제1 방향에서 촬상한 제1 이미지와, 상기 제1 방향과 다른 제2 방향에서 촬상한 제2 이미지를 상기 신체 치수 추정모델에 제공하는 단계 및 상기 제1 이미지 및 상기 제2 이미지를 이용하여, 상기 사용자의 신체 치수를 적어도 하나 추정하는 단계를 포함하되, 상기 훈련 데이터 셋을 생성하는 단계는, 미리 측정되어 저장된 삼차원 인체 데이터로부터 제1 삼차원 모델링 형상을 추출하는 단계 및 상기 제1 삼차원 모델링 형상을 이용하여, 서로 다른 방향에서 촬상된 제1 훈련 이미지 및 제2 훈련 이미지를 생성하는 단계를 포함한다.An artificial intelligence-based user body size measurement method according to some embodiments of the present invention for solving the above problems includes the steps of generating a training data set, training a body size estimation model using the training data set, and providing a first image captured in a first direction and a second image captured in a second direction different from the first direction to the body size estimation model, and using the first image and the second image, The step of estimating at least one body size of the user, wherein the generating of the training data set includes: extracting a first three-dimensional modeling shape from the three-dimensional body data measured in advance and stored; and the first three-dimensional modeling shape. and generating a first training image and a second training image captured in different directions by using the same.

몇몇 실시예에서, 상기 훈련 데이터 셋을 생성하는 단계는, 상기 삼차원 인체 데이터에서 상기 제1 삼차원 모델링 형상과 관련된 제1 치수 정보를 추출하는 단계, 상기 제1 치수 정보를 이용하여 제1 가상 의상을 생성하는 단계 및 상기 제1 삼차원 모델링 형상에 상기 제1 가상 의상을 착장하여, 제2 삼차원 모델링 형상을 생성하는 단계를 더 포함할 수 있다.In some embodiments, the generating of the training data set includes: extracting first dimension information related to the first three-dimensional modeling shape from the three-dimensional human body data; The method may further include generating a second three-dimensional modeling shape by wearing the first virtual garment on the first three-dimensional modeling shape.

몇몇 실시예에서, 상기 제1 훈련 이미지 및 상기 제2 훈련 이미지를 생성하는 단계는, 상기 제2 삼차원 모델링 형상을 상기 제1 방향에서 촬상하여, 상기 제1 훈련 이미지를 생성하는 단계 및 상기 제2 삼차원 모델링 형상을 상기 제2 방향에서 촬상하여, 상기 제2 훈련 이미지를 생성하는 단계를 포함할 수 있다.In some embodiments, the generating of the first training image and the second training image may include generating the first training image by capturing the second three-dimensional modeling shape in the first direction, and the second It may include generating the second training image by imaging the three-dimensional modeling shape in the second direction.

몇몇 실시예에서, 상기 제1 이미지 및 상기 제2 이미지를 이용하여, 상기 사용자의 신체 치수를 적어도 하나 추정하는 단계는, 상기 제1 이미지 및 상기 제2 이미지에 대한 전처리 동작을 수행하여 유효 신체 폭 데이터를 생성하는 단계 및 상기 유효 신체 폭 데이터를 상기 훈련된 신체 치수 추정모델에 제공하여, 상기 사용자의 신체 치수를 적어도 하나 추정하는 단계를 포함할 수 있다.In some embodiments, the estimating of at least one body size of the user by using the first image and the second image includes performing a preprocessing operation on the first image and the second image to obtain an effective body width It may include generating data and estimating at least one body size of the user by providing the effective body width data to the trained body size estimation model.

몇몇 실시예에서, 상기 제1 이미지 및 상기 제2 이미지에 대한 전처리 동작을 수행하는 단계는, 상기 제1 이미지에서 제1 특징점을 추출하는 단계, 상기 제1 특징점을 기초로, 제2 특징점을 추출하는 단계, 상기 제2 특징점을 이용하여, 관심 영역을 추출하는 단계, 상기 관심 영역을 복수의 측정 영역으로 분할하는 단계 및 상기 복수의 측정 영역 각각에 대한 신체 폭을 측정하는 단계를 포함할 수 있다.In some embodiments, performing the preprocessing operation on the first image and the second image includes extracting a first feature point from the first image, and extracting a second feature point based on the first feature point and extracting a region of interest by using the second feature point, dividing the region of interest into a plurality of measurement regions, and measuring a body width for each of the plurality of measurement regions. .

몇몇 실시예에서, 상기 제1 이미지 및 상기 제2 이미지에 대한 전처리 동작을 수행하는 단계는, 상기 측정된 복수의 신체 폭 중 적어도 하나를 유효 신체 폭 데이터로 결정하는 단계를 더 포함할 수 있다.In some embodiments, performing the preprocessing operation on the first image and the second image may further include determining at least one of the plurality of measured body widths as effective body width data.

몇몇 실시예에서, 상기 사용자의 신체 치수를 적어도 하나 추정하는 단계는, 상기 사용자에 대한 참고 정보를 이용하여, 상기 제1 이미지 및 상기 제2 이미지에 대한 전처리 동작을 수행할 수 있다.In some embodiments, the estimating of at least one body size of the user may include performing a pre-processing operation on the first image and the second image by using reference information about the user.

몇몇 실시예에서, 상기 제1 이미지 및 상기 제2 이미지에 대한 전처리 동작은, 상기 사용자에 대한 참고 정보와, 유효 폭 데이터 결정 회귀식을 이용하여 상기 제1 이미지 및 상기 제2 이미지에 대한 유효 폭 데이터를 결정하는 것을 포함할 수 있다.In some embodiments, the pre-processing operation for the first image and the second image includes the effective width for the first image and the second image using the reference information about the user and a regression formula to determine effective width data It may include determining data.

본 발명의 인공지능 기반의 사용자 신체 치수 측정 방법은, 사용자가 촬상된 이미지를 이용하여 신체 치수를 측정하기 때문에, 사용자의 신체 치수 측정 숙련도와 관계없이 정확하고 용이한 신체 치수 측정이 가능하다. In the artificial intelligence-based method of measuring body size of a user of the present invention, since the user measures body size using a captured image, accurate and easy body size measurement is possible regardless of the user's body size measurement proficiency.

또한, 본 발명의 인공지능 기반의 사용자 신체 치수 측정 방법은, 별도의 신체 치수 측정 장치가 필요없이, 스마트폰 등 사용자 단말만으로도 신체 치수를 정확하고 용이하게 측정할 수 있다. In addition, the artificial intelligence-based user body size measurement method of the present invention can accurately and easily measure the body size only with a user terminal such as a smart phone without the need for a separate body size measurement device.

상술한 내용 외에도, 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above, the specific effects of the present invention will be described together while describing specific details for carrying out the present invention.

도 1은 본 발명의 몇몇 실시예에 따른 인공지능 기반의 신체 치수 측정 방법을 실시하기 위한 시스템의 구성을 개략적으로 설명하기 위한 도면이다.
도 2는 본 발명의 몇몇 실시예에 따른 신체 치수 추정모델의 구성을 설명하기 위한 도면이다.
도 3은 본 발명의 몇몇 실시예에 따른 인공지능 기반의 사용자 신체 치수 측정 방법의 전체 흐름을 설명하기 위한 도면이다.
도 4는 본 발명의 몇몇 실시예에 따른 신체 치수 추정모델의 훈련 모듈의 구성을 설명하기 위한 도면이다.
도 5는 본 발명의 몇몇 실시예에 따른 훈련 모듈이 훈련 데이터 셋을 생성하는 과정을 설명하기 위한 도면이다.
도 6 내지 도 10은 도 5의 훈련 데이터 셋을 생성하는 과정을 예시적으로 설명하기 위한 도면이다.
도 11은 본 발명의 몇몇 실시예에 따른 훈련 모듈(111)이 신체 치수 알고리즘을 최적화하는 과정을 설명하기 위한 도면이다.
도 12는 본 발명의 몇몇 실시예에 따른 훈련 이미지를 전처리하는 과정을 설명하기 위한 도면이다.
도 13 내지 도 15는 도 12의 훈련 이미지의 전처리 과정을 예시적으로 설명하기 위한 도면이다.
도 16은 본 발명의 몇몇 실시예에 따른 추정 모듈의 구성을 설명하기 위한 도면이다.
도 17은 본 발명의 몇몇 실시예에 따른 추정 모듈의 동작을 설명하기 위한 도면이다.
도 18은 본 발명의 다른 몇몇 실시예에 따른 인공지능 기반의 사용자 신체 치수 측정 방법의 전체 흐름을 설명하기 위한 도면이다.
도 19는 본 발명의 다른 몇몇 실시예에 따른 신체 치수 추정모델의 훈련 모듈의 구성을 설명하기 위한 도면이다.
도 20은 본 발명의 다른 몇몇 실시예에 따른 신체 치수 추정모델의 추정 모듈의 구성을 설명하기 위한 도면이다.
도 21은 본 발명의 다른 몇몇 실시예에 따른 이미지를 전처리하는 과정을 설명하기 위한 도면이다.
1 is a diagram schematically illustrating the configuration of a system for implementing an artificial intelligence-based body size measurement method according to some embodiments of the present invention.
2 is a view for explaining the configuration of a body size estimation model according to some embodiments of the present invention.
3 is a view for explaining the overall flow of an artificial intelligence-based user body size measurement method according to some embodiments of the present invention.
4 is a diagram for explaining the configuration of a training module of a body size estimation model according to some embodiments of the present invention.
5 is a diagram for explaining a process of generating a training data set by a training module according to some embodiments of the present invention.
6 to 10 are diagrams for exemplarily explaining a process of generating the training data set of FIG. 5 .
11 is a diagram for explaining a process of optimizing the body size algorithm by the training module 111 according to some embodiments of the present invention.
12 is a view for explaining a process of pre-processing a training image according to some embodiments of the present invention.
13 to 15 are diagrams for exemplarily explaining a pre-processing process of the training image of FIG. 12 .
16 is a diagram for explaining a configuration of an estimation module according to some embodiments of the present invention.
17 is a diagram for explaining an operation of an estimation module according to some embodiments of the present invention.
18 is a diagram for explaining the overall flow of an artificial intelligence-based user body size measurement method according to some other embodiments of the present invention.
19 is a diagram for explaining the configuration of a training module of a body size estimation model according to some other embodiments of the present invention.
20 is a diagram for explaining the configuration of an estimation module of a body size estimation model according to some embodiments of the present invention.
21 is a diagram for explaining a process of pre-processing an image according to another exemplary embodiment of the present invention.

본 명세서 및 청구범위에서 사용된 용어나 단어는 일반적이거나 사전적인 의미로 한정하여 해석되어서는 아니된다. 발명자가 그 자신의 발명을 최선의 방법으로 설명하기 위해 용어나 단어의 개념을 정의할 수 있다는 원칙에 따라, 본 발명의 기술적 사상과 부합하는 의미와 개념으로 해석되어야 한다. 또한, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명이 실현되는 하나의 실시예에 불과하고, 본 발명의 기술적 사상을 전부 대변하는 것이 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형 및 응용 가능한 예들이 있을 수 있음을 이해하여야 한다.Terms or words used in this specification and claims should not be construed as being limited to a general or dictionary meaning. In accordance with the principle that the inventor can define a term or concept of a word in order to best describe his/her invention, it should be interpreted as meaning and concept consistent with the technical idea of the present invention. In addition, since the embodiments described in this specification and the configurations shown in the drawings are only one embodiment in which the present invention is realized, and do not represent all the technical spirit of the present invention, they can be substituted at the time of the present application. It should be understood that there may be various equivalents and modifications and applicable examples.

본 명세서 및 청구범위에서 사용된 제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. '및/또는' 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다.Terms such as first, second, A, B, etc. used in this specification and claims may be used to describe various elements, but the elements should not be limited by the terms. The above terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, a first component may be referred to as a second component, and similarly, a second component may also be referred to as a first component. The term 'and/or' includes a combination of a plurality of related listed items or any of a plurality of related listed items.

본 명세서 및 청구범위에서 사용된 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서 "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Terms used in this specification and claims are used only to describe specific embodiments, and are not intended to limit the present invention. The singular expression includes the plural expression unless the context clearly dictates otherwise. It should be understood that terms such as “comprise” or “have” in the present application do not preclude the possibility of addition or existence of features, numbers, steps, operations, components, parts, or combinations thereof described in the specification in advance. .

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해서 일반적으로 이해되는 것과 동일한 의미를 가지고 있다.Unless defined otherwise, all terms used herein, including technical and scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs.

일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Terms such as those defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related art, and should not be interpreted in an ideal or excessively formal meaning unless explicitly defined in the present application. does not

또한, 본 발명의 각 실시예에 포함된 각 구성, 과정, 공정 또는 방법 등은 기술적으로 상호 간 모순되지 않는 범위 내에서 공유될 수 있다. In addition, each configuration, process, process or method included in each embodiment of the present invention may be shared within a range that does not technically contradict each other.

이하, 도 1 내지 도 17을 참조하여, 본 발명의 몇몇 실시예에 따른 인공지능 기반의 신체 치수 측정 방법에 대해 설명한다. Hereinafter, an artificial intelligence-based body size measurement method according to some embodiments of the present invention will be described with reference to FIGS. 1 to 17 .

도 1은 본 발명의 몇몇 실시예에 따른 인공지능 기반의 신체 치수 측정 방법을 실시하기 위한 시스템의 구성을 개략적으로 설명하기 위한 도면이다.1 is a diagram schematically illustrating the configuration of a system for implementing an artificial intelligence-based body size measurement method according to some embodiments of the present invention.

도 1을 참조하면, 본 발명의 몇몇 실시예에 따른 인공지능 기반의 신체 치수 측정 방법을 실시하기 위한 시스템은, 서버(100), 사용자 단말(200) 및 통신망(300)을 포함할 수 있다. Referring to FIG. 1 , a system for implementing an artificial intelligence-based body size measurement method according to some embodiments of the present invention may include a server 100 , a user terminal 200 , and a communication network 300 .

서버(100)는 통신망(300)을 통해 사용자 단말(200)로부터 사용자를 촬상한 제1 이미지(Img_1) 및 제2 이미지(Img_2)와, 사용자에 대한 참고 정보를 수신할 수 있다. 제1 이미지(Img_1), 제2 이미지(Img_2) 및 사용자에 대한 참고 정보는 서버(100) 내의 신체 치수 추정모델(110)에 제공될 수 있다. 제1 이미지(Img_1)는 사용자를 제1 방향에서 촬상한 이미지일 수 있다. 한편, 제2 이미지(Img_2)는 사용자를 제1 방향과 다른 제2 방향에서 촬상한 이미지일 수 있다. 예를 들어, 제1 이미지(Img_1)는 사용자를 정면에서 촬상한 이미지이고, 제2 이미지(Img_2)는 사용자를 측면에서 촬상한 이미지일 수 있다. 참고 정보는 사용자의 성별, 연령, 키 및 몸무게 중 적어도 하나를 포함할 수 있다. 사용자에 대한 참고 정보는 이미지에 대한 전처리 과정에 이용될 수 있으며, 구체적인 설명은 후술한다. 신체 치수 추정모델(110)은 수신한 제1 이미지(Img_1), 제2 이미지(Img_2) 및/또는 사용자에 대한 참고 정보를 이용하여, 사용자의 신체 치수를 적어도 하나 추정할 수 있다. 예를 들어, 신체 치수 추정모델(110)은 수신한 제1 이미지(Img_1), 제2 이미지(Img_2) 및/또는 사용자에 대한 참고 정보를 이용하여, 사용자의 어깨 너비, 가슴 둘레, 허리 둘레, 엉덩이 둘레 등 사용자의 신체 치수 중 적어도 하나를 추정할 수 있다.The server 100 may receive, from the user terminal 200 through the communication network 300 , the first image Img_1 and the second image Img_2 captured by the user, and reference information about the user. The first image Img_1 , the second image Img_2 , and reference information about the user may be provided to the body size estimation model 110 in the server 100 . The first image Img_1 may be an image captured by the user in the first direction. Meanwhile, the second image Img_2 may be an image captured by the user in a second direction different from the first direction. For example, the first image Img_1 may be an image captured by the user from the front, and the second image Img_2 may be an image captured by the user from the side. The reference information may include at least one of a user's gender, age, height, and weight. Reference information about the user may be used in a pre-processing process for the image, and a detailed description will be given later. The body size estimation model 110 may estimate at least one body size of the user by using the received first image Img_1 , the second image Img_2 , and/or reference information about the user. For example, the body size estimation model 110 uses the received first image (Img_1), the second image (Img_2) and/or reference information about the user, the user's shoulder width, chest circumference, waist circumference, At least one of the user's body dimensions, such as a hip circumference, may be estimated.

비록, 도면 상에는 하나의 서버(100)만을 도시하였으나, 이는 서버(100)가 단 하나의 서버로 구성된다는 것을 의미하지는 않는다. 예를 들어, 서버(100)는 복수개의 서버를 포함하고 있으며, 이하에서 설명하는 인공지능 기반의 사용자 신체 치수 추정 방법의 적어도 일부 단계는 서로 다른 서버에서 수행될 수 있다. 다시 말해서, 서버(100)는 본 발명의 몇몇 실시예에 따른 인공지능 기반의 사용자 신체 치수 추정 방법을 수행하는 하나 이상의 서버를 의미할 수 있다. 신체 치수 추정모델(110)에 대해 설명하기 위해, 도 2를 더 참조한다. Although only one server 100 is illustrated in the drawing, this does not mean that the server 100 is configured with only one server. For example, the server 100 includes a plurality of servers, and at least some steps of the artificial intelligence-based user body size estimation method described below may be performed on different servers. In other words, the server 100 may refer to one or more servers that perform the artificial intelligence-based user body size estimation method according to some embodiments of the present invention. In order to describe the body size estimation model 110 , further reference is made to FIG. 2 .

도 2는 본 발명의 몇몇 실시예에 따른 신체 치수 추정모델의 구성을 설명하기 위한 도면이다.2 is a view for explaining the configuration of a body size estimation model according to some embodiments of the present invention.

도 2를 참조하면, 신체 치수 추정모델(110)은 훈련 모듈(111) 및 추정 모듈(112)을 포함할 수 있다. 이하에서, 용어 '모듈'은 특정 기능을 수행하는 구성요소를 의미한다. 따라서, 서로 다른 '모듈'은 서로 다른 기능을 수행하는 구성요소를 의미하는 것이지, 반드시 하드웨어적으로 서로 다른 것을 의미하지는 않는다. 예를 들어, 훈련 모듈(111)은 훈련 데이터 셋을 이용하여, 추정 알고리즘을 최적화하는 기능을 수행하고, 추정 모듈(112)은 사용자의 신체 치수를 추정하는 기능을 수행할 수 있다. 반면, 훈련 모듈(111)과 추정 모듈(112)은 각각 서로 다른 하드웨어로 구성될 수도 있고, 적어도 일부 동일한 하드웨어로 구성될 수도 있다. Referring to FIG. 2 , the body size estimation model 110 may include a training module 111 and an estimation module 112 . Hereinafter, the term 'module' refers to a component that performs a specific function. Accordingly, different 'modules' refer to components that perform different functions, and do not necessarily mean different hardware. For example, the training module 111 may perform a function of optimizing an estimation algorithm using a training data set, and the estimation module 112 may perform a function of estimating a body size of a user. On the other hand, the training module 111 and the estimation module 112 may be configured with different hardware, or may be configured with at least some of the same hardware.

훈련 모듈(111)은 추정 모듈(112)에 사용되는 사용자 신체 치수 추정 알고리즘의 파라미터를 최적화하기 위한 훈련이 수행될 수 있다. 훈련 모듈(111)은 훈련 데이터 셋을 이용하여, 지도학습 또는 비지도학습을 통해 사용자 신체 치수 추정 알고리즘의 파라미터를 최적화할 수 있다. 구체적 설명은 후술한다.The training module 111 may be trained to optimize parameters of the user body size estimation algorithm used in the estimation module 112 . The training module 111 may optimize the parameters of the user body size estimation algorithm through supervised learning or unsupervised learning by using the training data set. A detailed description will be given later.

추정 모듈(112)은 훈련 모듈(111)에서 최적화된 파라미터를 이용하여, 사용자 신체 치수 추정 알고리즘을 설계하고, 이를 통해 사용자 신체 치수를 추정할 수 있다. 예를 들어, 추정 모듈(112)은 사용자의 제1 이미지(Img_1) 및 제2 이미지(Img_2)를 최적화된 사용자 신체 치수 추정 알고리즘에 입력하여, 사용자 신체 치수를 적어도 하나 추정할 수 있다. 구체적 설명은 후술한다. The estimation module 112 may design a user body size estimation algorithm by using the parameters optimized in the training module 111 , and may estimate the user body size through this. For example, the estimation module 112 may input the user's first image Img_1 and the second image Img_2 into an optimized user body size estimation algorithm to estimate at least one user body size. A detailed description will be given later.

다시 도 1을 참조하면, 사용자 단말(200)은 유무선 통신 환경에서 어플리케이션을 동작시킬 수 있는 통신 단말을 의미한다. 사용자 단말(200)은 어플리케이션을 동작시킬 수 있는 장치에 제한없이 적용될 수 있다. 예를 들어, 사용자 단말(200)은 퍼스널 컴퓨터(PC), 노트북, 태블릿, 휴대폰, 스마트폰, 웨어러블 디바이스 등의 다양한 형태의 전자 장치를 포함할 수 있다. Referring back to FIG. 1 , the user terminal 200 refers to a communication terminal capable of operating an application in a wired/wireless communication environment. The user terminal 200 may be applied without limitation to a device capable of operating an application. For example, the user terminal 200 may include various types of electronic devices such as a personal computer (PC), a notebook computer, a tablet, a mobile phone, a smart phone, and a wearable device.

또한, 도면 상에는 하나의 사용자 단말(200)만을 도시하였으나, 본 발명이 이에 한정되는 것은 아니며, 서버(100)는 복수의 사용자 단말(200)과 연동하여 동작할 수 있다.In addition, although only one user terminal 200 is illustrated in the drawing, the present invention is not limited thereto, and the server 100 may operate in conjunction with a plurality of user terminals 200 .

본 명세서에서 용어 '어플리케이션'이라 함은, 컴퓨팅 장치에서 실행되는 모든 일련의 단계 또는 소프트웨어를 의미할 수 있다. 예를 들어, 어플리케이션은 모바일 어플리케이션, 웹 어플리케이션 및 웹 페이지 등을 포함할 수 있다.As used herein, the term 'application' may mean any series of steps or software executed in a computing device. For example, the application may include a mobile application, a web application, and a web page.

부가적으로, 사용자 단말(200)은 사용자의 입력을 수신하는 입력부, 비주얼 정보를 디스플레이 하는 디스플레이부, 외부와 신호를 송수신하는 통신부, 사용자의 얼굴을 촬영하는 카메라부, 사용자의 음성을 디지털 데이터로 변환하는 마이크부, 및 데이터를 프로세싱하고 사용자 단말(200) 내부의 각 유닛들을 제어하며 유닛들 간의 데이터 송/수신을 제어하는 제어부를 포함할 수 있다. Additionally, the user terminal 200 includes an input unit for receiving a user's input, a display unit for displaying visual information, a communication unit for transmitting and receiving signals with the outside, a camera unit for photographing the user's face, and the user's voice as digital data. It may include a microphone unit that converts, and a control unit that processes data, controls each unit inside the user terminal 200, and controls data transmission/reception between the units.

한편, 통신망(300)은 서버(100) 및 사용자 단말(200)을 연결하는 역할을 수행한다. 즉, 통신망(300)은 사용자 단말(200)이 서버(100)에 접속한 후 데이터를 송수신할 수 있도록 접속 경로를 제공하는 통신망을 의미한다. 통신망(300)은 예컨대 LANs(Local Area Networks), WANs(Wide Area Networks), MANs(Metropolitan Area Networks), ISDNs(Integrated Service Digital Networks) 등의 유선 네트워크나, 무선 LANs, CDMA, 블루투스, 위성 통신 등의 무선 네트워크를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.Meanwhile, the communication network 300 serves to connect the server 100 and the user terminal 200 . That is, the communication network 300 refers to a communication network that provides an access path so that the user terminal 200 can transmit and receive data after accessing the server 100 . The communication network 300 is, for example, a wired network such as LANs (Local Area Networks), WANs (Wide Area Networks), MANs (Metropolitan Area Networks), ISDNs (Integrated Service Digital Networks), etc., wireless LANs, CDMA, Bluetooth, satellite communication, etc. may cover a wireless network, but the scope of the present invention is not limited thereto.

도 3은 본 발명의 몇몇 실시예에 따른 인공지능 기반의 사용자 신체 치수 측정 방법의 전체 흐름을 설명하기 위한 도면이다.3 is a diagram for explaining the overall flow of an artificial intelligence-based user body size measurement method according to some embodiments of the present invention.

도 1 내지 도 3을 참고하면, 신체 치수 추정모델(110)의 훈련 모듈(111)은 훈련 데이터 셋을 생성할 수 있다(S100). 훈련 모듈(111)은 미리 저장된 삼차원 신체 데이터를 가공하여 훈련 데이터 셋을 생성할 수 있다. 구체적인 설명을 위해, 도 4 내지 도 10을 더 참조한다.1 to 3 , the training module 111 of the body size estimation model 110 may generate a training data set ( S100 ). The training module 111 may generate a training data set by processing pre-stored three-dimensional body data. For a detailed description, further reference is made to FIGS. 4 to 10 .

도 4는 본 발명의 몇몇 실시예에 따른 신체 치수 추정모델의 훈련 모듈의 구성을 설명하기 위한 도면이다. 도 5는 본 발명의 몇몇 실시예에 따른 훈련 모듈이 훈련 데이터 셋을 생성하는 과정을 설명하기 위한 도면이다. 도 6 내지 도 10은 도 5의 훈련 데이터 셋을 생성하는 과정을 예시적으로 설명하기 위한 도면이다. 4 is a diagram for explaining the configuration of a training module of a body size estimation model according to some embodiments of the present invention. 5 is a diagram for explaining a process of generating a training data set by a training module according to some embodiments of the present invention. 6 to 10 are diagrams for exemplarily explaining a process of generating the training data set of FIG. 5 .

도 4 및 도 5를 참조하면, 훈련 모듈(111)은 훈련 데이터 셋 생성 모듈(DGM), 제1 전처리 모듈(PPM_1) 및 신체 치수 추정 알고리즘 최적화 모듈(AOM)을 포함할 수 있다. 4 and 5 , the training module 111 may include a training data set generation module (DGM), a first preprocessing module (PPM_1), and a body size estimation algorithm optimization module (AOM).

훈련 데이터 셋 생성 모듈(DGM)은 삼차원 신체 데이터(3D_d)를 수신할 수 있다(S101). 삼차원 신체 데이터(3D_d)는 제1 삼차원 모델링 형상(3DM_1) 및 이와 관련된 제1 신체 치수정보(Info_size)를 포함할 수 있다. 제1 삼차원 모델링 형상(3DM_1)은 인체를 삼차원 스캔하여 삼차원으로 도시한 모델링 형상일 수 있다. 제1 신체 치수정보(Info_size)는 제1 삼차원 모델링 형상(3DM_1)의 가슴 둘레, 허리 둘레 및 엉덩이 둘레 등 신체 치수에 관한 정보를 적어도 하나 포함할 수 있다. The training data set generating module DGM may receive the three-dimensional body data 3D_d (S101). The three-dimensional body data 3D_d may include a first three-dimensional modeling shape 3DM_1 and related first body dimension information Info_size. The first three-dimensional modeling shape 3DM_1 may be a modeling shape obtained by three-dimensionally scanning the human body. The first body size information Info_size may include at least one piece of information about body dimensions, such as a chest circumference, a waist circumference, and a hip circumference, of the first three-dimensional modeling shape 3DM_1 .

도 6에 도시된 바와 같이, 훈련 데이터 셋 생성 모듈(DGM)은 삼차원 신체 데이터(3D_d)에서 제1 삼차원 모델링 형상(3DM_1)을 추출할 수 있다(S102). 몇몇 실시예에 따르면, 제1 삼차원 모델링 형상(3DM_1)은 실제 인체를 스캔하여 얻은 모델링 형상이기 때문에, 나체의 형상이거나 속옷만 착장한 형상일 수 있다. As shown in FIG. 6 , the training data set generating module DGM may extract the first three-dimensional modeling shape 3DM_1 from the three-dimensional body data 3D_d ( S102 ). According to some embodiments, since the first three-dimensional modeling shape 3DM_1 is a modeling shape obtained by scanning an actual human body, it may be a nude shape or a shape wearing only underwear.

훈련 데이터 셋 생성 모듈(DGM)은 삼차원 신체 데이터(3D_d)에서 제1 삼차원 모델링 형상(3DM_1)의 제1 신체 치수정보(Info_size)를 추출할 수 있다(S103). The training data set generating module DGM may extract the first body size information Info_size of the first three-dimensional modeling shape 3DM_1 from the three-dimensional body data 3D_d ( S103 ).

도 7에 도시된 바와 같이, 훈련 데이터 셋 생성 모듈(DGM)은 제1 신체 치수정보(Info_size)를 이용하여, 제1 가상 의복(CTH_1)을 생성할 수 있다(S104). 제1 가상 의복(CTH_1)은 제1 삼차원 모델링 형상(3DM_1)에 착장하더라도, 제1 삼차원 모델링 형상(3DM_1)의 신체 굴곡 및 체형 정보가 표현될 수 있도록, 타이트하게 생성될 수 있다.As shown in FIG. 7 , the training data set generating module DGM may generate a first virtual garment CTH_1 by using the first body size information Info_size ( S104 ). Even when the first virtual garment CTH_1 is worn on the first three-dimensional modeling shape 3DM_1, the first virtual garment CTH_1 may be created to be tight so that body flexure and body shape information of the first three-dimensional modeling shape 3DM_1 can be expressed.

도 8 및 도 9에 도시된 바와 같이, 훈련 데이터 셋 생성 모듈(DGM)은 제1 삼차원 모델링 형상(3DM_1) 및 제1 가상 의복(CTH_1)을 이용하여 제2 삼차원 모델링 형상(3DM_2)을 생성할 수 있다(S105). 훈련 데이터 셋 생성 모듈(DGM)은 제1 삼차원 모델링 형상(3DM_1)에 제1 가상 의복(CTH_1)을 착장할 수 있다. 제1 가상 의복(CTH_1)을 착장한 제1 삼차원 모델링 형상(3DM_1)을 편의상 제2 삼차원 모델링 형상(3DM_2)으로 정의한다. As shown in FIGS. 8 and 9 , the training data set generation module (DGM) generates a second three-dimensional modeling shape (3DM_2) using a first three-dimensional modeling shape (3DM_1) and a first virtual garment (CTH_1). It can be (S105). The training data set generation module DGM may wear the first virtual garment CTH_1 on the first three-dimensional modeling shape 3DM_1. A first three-dimensional modeling shape 3DM_1 wearing the first virtual garment CTH_1 is defined as a second three-dimensional modeling shape 3DM_2 for convenience.

도 9에 도시된 바와 같이, 훈련 데이터 셋 생성 모듈(DGM)은 제2 삼차원 모델링 형상(3DM_2)을 제1 방향에서 촬상하여, 제1 훈련 이미지(tImg_1)를 생성할 수 있다(S106). 제1 훈련 이미지(tImg_1)는 이차원 이미지일 수 있다. 예를 들어, 훈련 데이터 셋 생성 모듈(DGM)은 제2 삼차원 모델링 형상(3DM_2)을 정면 방향에서 촬상하여, 이를 제1 훈련 이미지(tImg_1)로 생성할 수 있다.As shown in FIG. 9 , the training data set generating module DGM may generate a first training image tImg_1 by imaging the second three-dimensional modeling shape 3DM_2 in the first direction ( S106 ). The first training image tImg_1 may be a two-dimensional image. For example, the training data set generating module DGM may capture the second three-dimensional modeling shape 3DM_2 from the front direction and generate it as the first training image tImg_1 .

도 10에 도시된 바와 같이, 훈련 데이터 셋 생성 모듈(DGM)은 제2 삼차원 모델링 형상(3DM_2)을 제1 방향과 다른 제2 방향에서 촬상하여, 제2 훈련 이미지(tImg_2)를 생성할 수 있다(S107). 마찬가지로, 제2 훈련 이미지(tImg_2)는 이차원 이미지일 수 있다. 예를 들어, 훈련 데이터 셋 생성 모듈(DGM)은 제2 삼차원 모델링 형상(3DM_2)을 측면 방향에서 촬상하여, 이를 제2 훈련 이미지(tImg_2)로 생성할 수 있다. As shown in FIG. 10 , the training data set generating module DGM may generate a second training image tImg_2 by imaging the second three-dimensional modeling shape 3DM_2 in a second direction different from the first direction. (S107). Similarly, the second training image tImg_2 may be a two-dimensional image. For example, the training data set generating module DGM may image the second three-dimensional modeling shape 3DM_2 in the lateral direction, and may generate it as the second training image tImg_2.

훈련 데이터 셋 생성 모듈(DGM)은 제1 훈련 이미지(tImg_1), 제2 훈련 이미지(tImg_2) 및 제1 신체 치수정보(Info_size)를 훈련 데이터 셋에 저장할 수 있다(S108). The training data set generating module DGM may store the first training image tImg_1 , the second training image tImg_2 , and the first body size information Info_size in the training data set ( S108 ).

몇몇 실시예에 따르면, 제1 삼차원 모델링 형상(3DM_1)은 나체의 형상이거나 속옷만 착장한 형상일 수 있다. 그러나, 후술하는 바와 같이, 사용자 신체 치수 추정모델(110)은 사용자를 촬상한 이미지를 입력 데이터로 한다. 만약, 제1 삼차원 모델링 형상(3DM_1)을 그대로 훈련 데이터로 사용하는 경우, 사용자 신체 치수 추정모델(110)은 나체 또는 속옷만 착장한 상태로 훈련된다. 이 경우, 사용자는 본인의 신체 치수를 측정하기 위해, 나체 또는 속옷만 착장한 상태로 본인의 이미지를 촬상하여야 하고, 이는 해킹 등의 외부 공격에 의해 사용자의 민감한 이미지가 외부로 유출될 위험이 있다. According to some embodiments, the first three-dimensional modeling shape 3DM_1 may be a nude shape or a shape wearing only underwear. However, as will be described later, the user body size estimation model 110 uses an image captured by the user as input data. If the first three-dimensional modeling shape 3DM_1 is used as the training data as it is, the user's body size estimation model 110 is trained in a state of being naked or wearing only underwear. In this case, in order to measure the user's body size, the user must take an image of himself or herself in a state of being naked or wearing only underwear, and there is a risk that the sensitive image of the user is leaked to the outside by an external attack such as hacking. .

그러나, 본 발명의 몇몇 실시예에 따른 훈련 데이터 셋 생성 모듈(DGM)은 제1 가상 의복(CTH_1)을 생성하고, 이를 제1 삼차원 모델링 형상(3DM_1)에 착장시킴으로써, 의복을 착장한 상태인 제2 삼차원 모델링 형상(3DM_2)을 생성할 수 있다. 훈련 데이터 셋 생성 모듈(DGM)은 제2 삼차원 모델링 형상(3DM_2)을 촬상하여 훈련 데이터 셋을 생성하고, 신체 치수 추정모델(110)은 이를 통해 훈련하므로, 사용자는 의복을 착장한 상태로 신체 치수 추정모델(110)을 이용할 수 있다. However, the training data set generation module (DGM) according to some embodiments of the present invention generates the first virtual clothing (CTH_1) and wears it on the first three-dimensional modeling shape (3DM_1), so that the first state in which the clothes are worn A two-dimensional modeling shape (3DM_2) can be created. The training data set generation module (DGM) generates a training data set by imaging the second three-dimensional modeling shape 3DM_2, and the body size estimation model 110 trains through this, so the user measures the body size while wearing clothes. The estimation model 110 may be used.

몇몇 실시예에 따르면, 삼차원 신체 데이터(3D_d)는 실제 인체를 스캔하여 도시한 삼차원 모델링 형상과, 해당 인체에 대한 치수 정보를 미리 측정하여 저장한 데이터일 수 있다. 다시 말해서, 삼차원 신체 데이터(3D_d)는 정책적인 요구에 따라 또는 통계적인 필요에 따라 또는 연구 목적으로 미리 측정되어 저장된 데이터 베이스일 수 있다. 예를 들어, 삼차원 신체 데이터(3D_d)는 사이즈 코리아(한국인 인체치수 조사 사업)의 삼차원 신체 데이터일 수 있다. 즉, 본 발명의 몇몇 실시예에 따른 훈련 데이터 셋을 생성하는 과정은 미리 측정되어 저장된 데이터 베이스를 가공하여 활용하므로, 훈련 데이터 셋의 마련을 위해 새로 훈련 데이터를 수집하는 과정이 필요 없어, 이에 소요되는 비용 및 시간을 획기적으로 감소시킬 수 있다. According to some embodiments, the three-dimensional body data 3D_d may be a three-dimensional modeling shape that is illustrated by scanning an actual human body, and data obtained by measuring and storing dimensional information about the corresponding human body in advance. In other words, the three-dimensional body data 3D_d may be a database that is measured and stored in advance according to a policy request, a statistical need, or a research purpose. For example, the three-dimensional body data 3D_d may be three-dimensional body data of Size Korea (a Korean body size research project). That is, since the process of generating a training data set according to some embodiments of the present invention processes and utilizes a previously measured and stored database, there is no need for a process of newly collecting training data to prepare a training data set. It can dramatically reduce the cost and time.

다시 도 3을 참조하면, 훈련 모듈(111)은 훈련 데이터 셋을 이용하여, 신체 치수 추정 알고리즘을 최적화할 수 있다(S110). 신체 치수 추정 알고리즘의 최적화 과정을 설명하기 위해, 도 11을 더 참조한다. Referring back to FIG. 3 , the training module 111 may optimize the body size estimation algorithm using the training data set ( S110 ). In order to describe the optimization process of the body size estimation algorithm, further reference is made to FIG. 11 .

도 11은 본 발명의 몇몇 실시예에 따른 훈련 모듈(111)이 신체 치수 알고리즘을 최적화하는 과정을 설명하기 위한 도면이다. 11 is a diagram for explaining a process of optimizing the body size algorithm by the training module 111 according to some embodiments of the present invention.

도 4 및 도 11을 참조하면, 제1 전처리 모듈(PPM_1)은 훈련 데이터 셋 생성 모듈(DGM)로부터 제1 훈련 이미지(tImg_1) 및 제2 훈련 이미지(tImg_2)를 수신할 수 있다(S111). 4 and 11 , the first preprocessing module PPM_1 may receive a first training image tImg_1 and a second training image tImg_2 from the training data set generation module DGM (S111).

제1 전처리 모듈(PPM_1)은 제1 훈련 이미지(tImg_1)와 제2 훈련 이미지(tImg_2)를 전처리하여, 유효 신체 폭 훈련 데이터(T_AW)를 생성할 수 있다(S112). 제1 훈련 이미지(tImg_1)와 제2 훈련 이미지(tImg_2)의 전처리 과정을 설명하기 위해, 도 12 내지 도 15를 더 참조한다. The first pre-processing module PPM_1 may pre-process the first training image tImg_1 and the second training image tImg_2 to generate effective body width training data T_AW ( S112 ). In order to describe the preprocessing of the first training image tImg_1 and the second training image tImg_2, further reference is made to FIGS. 12 to 15 .

도 12는 본 발명의 몇몇 실시예에 따른 훈련 이미지를 전처리하는 과정을 설명하기 위한 도면이다. 도 13 내지 도 15는 도 12의 훈련 이미지의 전처리 과정을 예시적으로 설명하기 위한 도면이다.12 is a view for explaining a process of pre-processing a training image according to some embodiments of the present invention. 13 to 15 are diagrams for exemplarily explaining a pre-processing process of the training image of FIG. 12 .

도 4, 도 12 및 도 13을 참조하면, 제1 전처리 모듈(PPM_1)은 제1 훈련 이미지(tImg_1) 및 제2 훈련 이미지(tImg_2)를 수신할 수 있다. 제1 전처리 모듈(PPM_1)은 제1 훈련 이미지(tImg_1) 및 제2 훈련 이미지(tImg_2)에 대한 전처리 동작을 수행할 수 있다. 이하에서는, 설명의 편의를 위해, 제1 훈련 이미지(tImg_1)에 대한 전처리 과정에 대해서만 설명한다. 제2 훈련 이미지(tImg_2)에 대한 전처리 과정은 이하에서 설명하는 제1 훈련 이미지(tImg_1)에 대한 전처리 과정과 동일하거나 유사할 수 있다. 제1 전처리 모듈(PPM_1)은 제1 훈련 이미지(tImg_1)에서 제1 특징점(FP_1)을 추출할 수 있다(S112_1). 제1 특징점(FP_1)은 제1 훈련 이미지(tImg_1)에서 상대적으로 용이하게 분류될 수 있는 포인트일 수 있다. 예를 들어, 제1 특징점(FP_1)은 코, 어깨, 손목 및 골반 중 적어도 하나일 수 있으나, 실시예들이 이에 제한되는 것은 아니다. 제1 특징점(FP_1)을 추출하는 것은 예를 들어, 자세 추정(pose estimation) 모델을 이용할 수 있으나, 실시예들이 이에 제한되는 것은 아니다. 4, 12, and 13 , the first pre-processing module PPM_1 may receive a first training image tImg_1 and a second training image tImg_2. The first preprocessing module PPM_1 may perform a preprocessing operation on the first training image tImg_1 and the second training image tImg_2. Hereinafter, for convenience of explanation, only the preprocessing process for the first training image tImg_1 will be described. The preprocessing process for the second training image tImg_2 may be the same as or similar to the preprocessing process for the first training image tImg_1 to be described below. The first pre-processing module PPM_1 may extract the first feature point FP_1 from the first training image tImg_1 ( S112_1 ). The first feature point FP_1 may be a point that can be relatively easily classified in the first training image tImg_1 . For example, the first feature point FP_1 may be at least one of a nose, a shoulder, a wrist, and a pelvis, but embodiments are not limited thereto. Extracting the first feature point FP_1 may use, for example, a pose estimation model, but embodiments are not limited thereto.

도 14를 더 참조하면, 제1 전처리 모듈(PPM_1)은 제1 특징점(FP_1)을 기초로 제2 특징점(FP_2)을 추출할 수 있다(S112_2). 제2 특징점(FP_2)은 제1 훈련 이미지(tImg_1)에서 상대적으로 분류가 어려운 포인트일 수 있다. 예를 들어, 제2 특징점(FP_2)은 겨드랑이 밑점, 샅점 중 적어도 하나를 포함할 수 있다. 제1 전처리 모듈(PPM_1)은 상대적으로 분류가 용이한 제1 특징점(FP_1)의 주변 영역을 샘플링하여, 제2 특징점(FP_2)을 추출할 수 있다. 예를 들어, 제1 전처리 모듈(PPM_1)은 제1 특징점(FP_1)으로 양 어깨의 위치를 추출하고, 양 어깨의 위치 주변 영역을 샘플링하여, 겨드랑이 밑점을 제2 특징점(FP_2)으로 추출할 수 있다. Referring further to FIG. 14 , the first preprocessing module PPM_1 may extract a second feature point FP_2 based on the first feature point FP_1 ( S112_2 ). The second feature point FP_2 may be a point that is relatively difficult to classify in the first training image tImg_1 . For example, the second feature point FP_2 may include at least one of an armpit point and a groin point. The first preprocessing module PPM_1 may extract the second feature point FP_2 by sampling a region around the first feature point FP_1 that is relatively easy to classify. For example, the first preprocessing module (PPM_1) extracts the positions of both shoulders as the first feature points (FP_1), samples the area around the positions of both shoulders, and extracts the underarm points as the second feature points (FP_2). have.

도 15를 더 참조하면, 제1 전처리 모듈(PPM_1)은 제2 특징점(FP_2)을 이용하여 관심 영역(IR)을 추출할 수 있다(S112_3). 관심 영역(IR)은 추정할 신체 치수와 연관된 영역일 수 있다. 예를 들어, 관심 영역(IR)은 제2 특징점(FP_2)인 겨드랑이 밑점과, 다른 제2 특징점(FP_2)인 샅점 사이의 영역일 수 있다. 15 , the first pre-processing module PPM_1 may extract the region of interest IR using the second feature point FP_2 ( S112_3 ). The region of interest IR may be a region associated with a body size to be estimated. For example, the region of interest IR may be a region between an underarm point that is the second feature point FP_2 and a groin point that is another second feature point FP_2 .

제1 전처리 모듈(PPM_1)은 관심 영역(IR)을 하나 이상의 측정 영역(MR)으로 분할할 수 있다(S112_4). 측정 영역(MR)은 신체 치수와 연관된 신체 폭(W)을 측정하는 영역일 수 있다. The first preprocessing module PPM_1 may divide the region of interest IR into one or more measurement regions MR (S112_4). The measurement region MR may be a region in which the body width W associated with the body size is measured.

제1 전처리 모듈(PPM_1)은 하나 이상의 측정 영역(MR) 각각에 대한 신체 폭(W)을 측정하고(S112_5), 하나 이상의 측정 영역(MR) 각각에 대한 신체 폭(W) 중 유효 신체 폭 훈련 데이터(T_AW)를 결정할 수 있다(S112_6). 유효 신체 폭 훈련 데이터(T_AW)란 추정하고자 하는 신체 치수와 가장 관련있는 신체 폭을 의미한다. 예를 들어, 하나 이상의 신체 폭 중 겨드랑이 밑점 사이의 신체 폭은 가슴둘레와 가장 연관도가 높으므로, 가슴둘레에 대한 유효 신체 폭 훈련 데이터(T_AW)는 겨드랑이 밑점 사이의 신체 폭으로 결정될 수 있다. 제1 전처리 모듈(PPM_1)은 결정된 유효 신체 폭 훈련 데이터(T_AW)를 신체 치수 추정 알고리즘 최적화 모듈(AOM)에 제공할 수 있다(S112_7). The first preprocessing module (PPM_1) measures the body width (W) for each of the one or more measurement regions (MR) (S112_5), and trains the effective body width among the body widths (W) for each of the one or more measurement regions (MR) The data T_AW may be determined (S112_6). The effective body width training data T_AW means a body width most related to a body size to be estimated. For example, among one or more body widths, since the body width between the underarm points has the highest correlation with the chest circumference, the effective body width training data T_AW for the chest circumference may be determined as the body width between the underarm points. The first pre-processing module PPM_1 may provide the determined effective body width training data T_AW to the body size estimation algorithm optimization module AOM ( S112_7 ).

몇몇 실시예에 따르면, 유효 신체 폭 훈련 데이터(T_AW)를 결정하는 것은 다양한 알고리즘에 따라 결정될 수 있다. 예를 들어, 유효 신체 폭 훈련 데이터(T_AW)는 복수의 신체 폭 중 가장 큰 값으로 결정될 수도 있고, 유효 신체 폭 훈련 데이터(T_AW)를 결정하기 위한 회귀식에 의해 결정될 수도 있다. 본 발명의 기술 분야에서 통상의 지식을 가진 자는 본 발명의 범위를 벗어나지 않고 다양한 유효 신체 폭 훈련 데이터(T_AW)를 결정하기 위한 방안을 마련할 수 있을 것이다.According to some embodiments, determining the effective body width training data T_AW may be determined according to various algorithms. For example, the effective body width training data T_AW may be determined as the largest value among a plurality of body widths, or may be determined by a regression equation for determining the effective body width training data T_AW. A person of ordinary skill in the art may come up with a method for determining various effective body width training data T_AW without departing from the scope of the present invention.

몇몇 실시예에 따르면, 제2 특징점(FP_2)은 제1 특징점(FP_1)에 기초하여 결정될 수 있다. 제2 특징점(FP_2)은 배경과 구분이 어려워 분류의 정확성이 낮기 때문에, 분류가 상대적으로 용이한 제1 특징점(FP_1)을 먼저 추출하고, 이를 기초로 제2 특징점(FP_2)을 추출할 수 있다. 따라서, 본 발명의 몇몇 실시예에 따르면 제2 특징점(FP_2)의 추출을 단계별로 수행함으로써, 제2 특징점(FP_2)에 대한 분류의 정확성을 증가시킬 수 있다.According to some embodiments, the second feature point FP_2 may be determined based on the first feature point FP_1 . Since the second feature point FP_2 is difficult to distinguish from the background and the classification accuracy is low, the first feature point FP_1, which is relatively easy to classify, is first extracted, and the second feature point FP_2 can be extracted based on this. . Accordingly, according to some embodiments of the present invention, by performing the extraction of the second feature point FP_2 step by step, the accuracy of classification of the second feature point FP_2 may be increased.

다시 도 4 및 도 11을 참조하면, 신체 치수 추정 알고리즘 최적화 모듈(AOM)은 제1 전처리 모듈(PPM_1)로부터 유효 신체 폭 훈련 데이터(T_AW)를 수신할 수 있다. 또한, 신체 치수 추정 알고리즘 최적화 모듈(AOM)은 훈련 데이터 셋 생성 모듈(DGM)로부터 제1 신체 치수정보(Info_size)를 수신할 수 있다. 신체 치수 추정 알고리즘 최적화 모듈(AOM)은 유효 신체 폭 훈련 데이터(T_AW)과 제1 신체 치수정보(Info_size)를 이용하여, 신체 치수 추정 알고리즘을 최적화할 수 있다(S113). 신체 치수 추정 알고리즘은 유효 신체 폭 훈련 데이터(T_AW)와 제1 신체 치수정보(Info_size)와의 관계식에 관한 알고리즘일 수 있다. 신체 치수 추정 알고리즘 최적화 모듈(AOM)은 유효 신체 폭 훈련 데이터(T_AW)으로부터 도출되는 추정 신체 치수와, 제1 신체 치수정보(Info_size)에 대한 손실함수를 계산하고, 이를 이용하여 알고리즘에 대한 파라미터를 조정함으로써 신체 치수 추정 알고리즘을 최적화할 수 있다. Referring back to FIGS. 4 and 11 , the body size estimation algorithm optimization module AOM may receive the effective body width training data T_AW from the first preprocessing module PPM_1 . Also, the body size estimation algorithm optimization module AOM may receive the first body size information Info_size from the training data set generation module DGM. The body size estimation algorithm optimization module AOM may optimize the body size estimation algorithm by using the effective body width training data T_AW and the first body size information Info_size ( S113 ). The body size estimation algorithm may be an algorithm related to a relational expression between the effective body width training data T_AW and the first body size information Info_size. The body size estimation algorithm optimization module (AOM) calculates a loss function for the estimated body size derived from the effective body width training data (T_AW) and the first body size information (Info_size), and uses this to calculate the parameters for the algorithm. By making adjustments, the body size estimation algorithm can be optimized.

다시 도 3을 참조하면, 사용자를 촬상한 제1 이미지(Img_1)와 제2 이미지(Img_2)는 신체 치수 추정모델(110)의 추정 모듈(112)에 제공될 수 있다(S120). 제1 이미지(Img_1)는 사용자를 제1 방향에서 촬상한 이미지이고, 제2 이미지(Img_2)는 사용자를 제2 방향에서 촬상한 이미지일 수 있다. 전술한 바와 같이, 제1 이미지(Img_1)와 제2 이미지(Img_2)는 사용자가 의복을 착장한 상태에서 촬상한 이미지일 수 있다. Referring back to FIG. 3 , the first image Img_1 and the second image Img_2 captured by the user may be provided to the estimation module 112 of the body size estimation model 110 ( S120 ). The first image Img_1 may be an image captured by the user in the first direction, and the second image Img_2 may be an image captured by the user in the second direction. As described above, the first image Img_1 and the second image Img_2 may be images captured by the user while wearing clothes.

신체 치수 추정모델(110)의 추정 모듈(112)은 수신한 제1 이미지(Img_1) 및 제2 이미지(Img_2)를 이용하여, 사용자의 신체 치수를 추정할 수 있다(S130). 추가적인 설명을 위해, 도 16 및 도 17을 더 참조한다. The estimation module 112 of the body size estimation model 110 may estimate the body size of the user by using the received first image Img_1 and the second image Img_2 ( S130 ). For further explanation, reference is made further to FIGS. 16 and 17 .

도 16은 본 발명의 몇몇 실시예에 따른 추정 모듈의 구성을 설명하기 위한 도면이다. 도 17은 본 발명의 몇몇 실시예에 따른 추정 모듈의 동작을 설명하기 위한 도면이다. 설명의 편의를 위해, 전술한 내용과 동일하거나 유사한 내용은 생략하거나 간단히 설명한다.16 is a diagram for explaining the configuration of an estimation module according to some embodiments of the present invention. 17 is a diagram for explaining an operation of an estimation module according to some embodiments of the present invention. For convenience of description, the same or similar contents as those described above will be omitted or simply described.

도 16 및 도 17을 참조하면, 추정 모듈(112)은 제2 전처리 모듈(PPM_2) 및 신체 치수 추정 알고리즘 실행 모듈(SEM)을 포함할 수 있다. 제2 전처리 모듈(PPM_2)은 제1 전처리 모듈(PPM_1)과 실질적으로 동일한 기능을 수행할 수 있다. 신체 치수 추정 알고리즘 실행 모듈(SEM)은 신체 치수 추정 알고리즘 최적화 모듈(AOM)에서 최적화된 알고리즘 파라미터(O_para)를 제공받아 이를 이용할 수 있다. 16 and 17 , the estimation module 112 may include a second preprocessing module PPM_2 and a body size estimation algorithm execution module SEM. The second pre-processing module PPM_2 may perform substantially the same function as the first pre-processing module PPM_1. The body size estimation algorithm execution module SEM may receive the algorithm parameter O_para optimized from the body size estimation algorithm optimization module AOM and use it.

제2 전처리 모듈(PPM_2)은 사용자를 촬상한 제1 이미지(Img_1)와 제2 이미지(Img_2)를 수신할 수 있다(S131). 제2 전처리 모듈(PPM_2)은 제1 이미지(Img_1)와 제2 이미지(Img_2)를 전처리하여, 적어도 하나의 유효 신체 폭 데이터(AW)을 결정할 수 있다(S132). 제2 전처리 모듈(PPM_2)은 결정된 적어도 하나의 유효 신체 폭 데이터(AW)을 신체 치수 추정 알고리즘 실행 모듈(SEM)에 제공할 수 있다(S133). 신체 치수 추정 알고리즘 실행 모듈(SEM)은 최적화된 알고리즘 파라미터(O_para)와, 적어도 하나의 유효 신체 폭 데이터(AW)을 이용하여, 사용자의 신체 치수를 적어도 하나 추정할 수 있다(S134). The second pre-processing module PPM_2 may receive a first image Img_1 and a second image Img_2 captured by the user (S131). The second pre-processing module PPM_2 may pre-process the first image Img_1 and the second image Img_2 to determine at least one effective body width data AW ( S132 ). The second pre-processing module PPM_2 may provide the determined at least one effective body width data AW to the body size estimation algorithm execution module SEM ( S133 ). The body size estimation algorithm execution module SEM may estimate at least one body size of the user using the optimized algorithm parameter O_para and at least one effective body width data AW ( S134 ).

몇몇 실시예에 따르면, 사용자는 별도의 측정 기구나 별도의 지식 없이, 단순히 사용자의 이미지를 촬상하여 신체 치수 추정모델에 제공하는 것만으로, 비교적 정확한 신체 치수를 측정할 수 있다. 또한, 신체 치수 추정모델은 가상 의복을 착장한 훈련 데이터를 이용하여 훈련되기 때문에, 사용자는 의복을 모두 착장한 상태로 이미지를 촬상할 수 있으며, 민감한 이미지의 유출을 걱정하지 않아도 된다. 이하 도 18 내지 도 21을 참조하여, 본 발명의 다른 몇몇 실시예들에 따른 인공지능 기반의 신체 치수 측정 방법에 대해 설명한다According to some embodiments, the user may measure a relatively accurate body size by simply capturing an image of the user and providing the image to the body size estimation model without a separate measuring device or separate knowledge. In addition, since the body size estimation model is trained using training data wearing virtual clothes, the user can take an image while wearing all the clothes, and there is no need to worry about leakage of sensitive images. Hereinafter, an artificial intelligence-based body size measurement method according to some other embodiments of the present invention will be described with reference to FIGS. 18 to 21 .

도 18은 본 발명의 다른 몇몇 실시예에 따른 인공지능 기반의 사용자 신체 치수 측정 방법의 전체 흐름을 설명하기 위한 도면이다. 도 19는 본 발명의 다른 몇몇 실시예에 따른 신체 치수 추정모델의 훈련 모듈의 구성을 설명하기 위한 도면이다. 도 20은 본 발명의 다른 몇몇 실시예에 따른 신체 치수 추정모델의 추정 모듈의 구성을 설명하기 위한 도면이다. 설명의 편의를 위해, 전술한 내용과 동일하거나 유사한 내용은 생략하거나 간단히 설명한다. 18 is a view for explaining the overall flow of an artificial intelligence-based user body size measurement method according to some other embodiments of the present invention. 19 is a diagram for explaining the configuration of a training module of a body size estimation model according to some embodiments of the present invention. 20 is a diagram for explaining the configuration of an estimation module of a body size estimation model according to some embodiments of the present invention. For convenience of description, the same or similar contents as those described above will be omitted or simply described.

도 18 내지 도 19를 참조하면, 훈련 데이터 셋 생성 모듈(DGM)은 훈련 데이터 셋을 생성할 수 있다(S200). 훈련 모듈(111)은 미리 저장된 삼차원 신체 데이터(3D_d)를 가공하여 훈련 데이터 셋을 생성할 수 있다. 삼차원 신체 데이터(3D_d)는 제1 삼차원 모델링 형상(3DM_1), 제1 삼차원 모델링 형상(3DM_1)과 관련된 제1 신체 치수정보(Info_size), 및 제1 삼차원 모델링 형상(3DM_1)과 관련된 제1 참고 정보(Info_user)를 포함할 수 있다. 제1 참고 정보(Info_user)는 제1 삼차원 모델링 형상(3DM_1)의 키, 몸무게, 성별 및 연령 등을 포함할 수 있다. 18 to 19 , the training data set generating module (DGM) may generate a training data set (S200). The training module 111 may generate a training data set by processing the pre-stored three-dimensional body data 3D_d. The three-dimensional body data 3D_d includes a first three-dimensional modeling shape 3DM_1, first body dimension information Info_size related to the first three-dimensional modeling shape 3DM_1, and first reference information related to the first three-dimensional modeling shape 3DM_1 (Info_user) may be included. The first reference information Info_user may include the height, weight, gender, and age of the first three-dimensional modeling shape 3DM_1.

훈련 모듈(111)은 훈련 데이터 셋 생성 모듈(DGM)에서 생성된 훈련 데이터 셋을 이용하여, 신체 치수 추정모델(110)을 훈련할 수 있다(S210). 훈련 데이터 셋 생성 모듈(DGM)은 제1 훈련 이미지(tImg_1), 제2 훈련 이미지(tImg_2) 및 제1 참고 정보(Info_user)를 제1 전처리 모듈(PPM_1)에 제공할 수 있다. 또한, 훈련 데이터 셋 생성 모듈(DGM)은 제1 신체 치수정보(Info_size)를 신체 치수 추정 알고리즘 최적화 모듈(AOM)에 제공할 수 있다. 제1 전처리 모듈(PPM_1)은 제1 훈련 이미지(tImg_1), 제2 훈련 이미지(tImg_2) 및 제1 참고 정보(Info_user)를 이용하여 전처리 동작을 수행할 수 있다. The training module 111 may train the body size estimation model 110 using the training data set generated by the training data set generation module DGM (S210). The training data set generating module DGM may provide the first training image tImg_1 , the second training image tImg_2 , and the first reference information Info_user to the first pre-processing module PPM_1 . Also, the training data set generation module DGM may provide the first body size information Info_size to the body size estimation algorithm optimization module AOM. The first preprocessing module PPM_1 may perform a preprocessing operation using the first training image tImg_1 , the second training image tImg_2 , and the first reference information Info_user.

사용자가 촬상된 제1 이미지(Img_1)와 제2 이미지(Img_2)가 신체 치수 추정모델(110)에 제공될 수 있다(S220). 또한, 사용자의 제1 참고 정보(Info_user) 역시 신체 치수 추정모델(110)에 제공될 수 있다(S230). 신체 치수 추정모델(110)은 제1 이미지(Img_1), 제2 이미지(Img_2) 및 제1 참고 정보(Info_user)를 이용하여, 사용자의 신체 치수를 추정할 수 있다(S240). The first image Img_1 and the second image Img_2 captured by the user may be provided to the body size estimation model 110 ( S220 ). In addition, the user's first reference information Info_user may also be provided to the body size estimation model 110 ( S230 ). The body size estimation model 110 may estimate the body size of the user by using the first image Img_1 , the second image Img_2 , and the first reference information Info_user ( S240 ).

도 20을 더 참조하면, 제2 전처리 모듈(PPM_2)은 제1 이미지(Img_1), 제2 이미지(Img_2) 및 제1 참고 정보(Info_user)를 제공받을 수 있다. 즉, 제2 전처리 모듈(PPM_2)은 제1 이미지(Img_1), 제2 이미지(Img_2) 및 제1 참고 정보(Info_user)를 이용하여 전처리 동작을 수행할 수 있다.Referring further to FIG. 20 , the second preprocessing module PPM_2 may receive the first image Img_1 , the second image Img_2 , and the first reference information Info_user. That is, the second preprocessing module PPM_2 may perform a preprocessing operation using the first image Img_1 , the second image Img_2 , and the first reference information Info_user.

즉, 몇몇 실시예에 따르면, 제1 참고 정보(Info_user)는 이미지를 전처리하는데 추가적으로 이용될 수 있다. 구체적 설명을 위해 도 21을 더 참조한다.That is, according to some embodiments, the first reference information Info_user may be additionally used to pre-process an image. For a detailed description, refer further to FIG. 21 .

도 21은 본 발명의 다른 몇몇 실시예에 따른 이미지를 전처리하는 과정을 설명하기 위한 도면이다.21 is a view for explaining a process of pre-processing an image according to another exemplary embodiment of the present invention.

도 21을 참조하면, 전처리 모듈(제1 전처리 모듈(PPM_1), 제2 전처리 모듈(PPM_2))은 이미지에서 제1 특징점을 추출할 수 있다(S300). 전처리 모듈은 제1 특징점을 기초로 제2 특징점을 추출할 수 있다(S310). 전처리 모듈은 추출된 제2 특징점을 이용하여, 관심 영역을 추출할 수 있다(S320). 전처리 모듈은 관심 영역을 복수의 측정 영역으로 분할하고(S330), 복수의 측정 영역 각각에 대한 신체 폭을 측정할 수 있다(S340). 전처리 모듈은 제1 참고 정보(Info_user)를 이용하여 유효 신체 폭(W)을 결정할 수 있다(S350). Referring to FIG. 21 , the pre-processing module (the first pre-processing module PPM_1 and the second pre-processing module PPM_2) may extract a first feature point from the image ( S300 ). The pre-processing module may extract the second feature point based on the first feature point (S310). The pre-processing module may extract a region of interest by using the extracted second feature point ( S320 ). The preprocessing module may divide the ROI into a plurality of measurement regions ( S330 ), and measure a body width for each of the plurality of measurement regions ( S340 ). The pre-processing module may determine the effective body width W by using the first reference information Info_user (S350).

전처리 모듈이 유효 신체 폭(W)을 결정할 때, 제1 참고 정보(Info_user)를 이용할 수 있다. 몇몇 실시예에 따르면, 유효 신체 폭 데이터(AW)에 대한 성별, 연령별, 키, 몸무게 등에 관한 통계자료를 통해, 유효 신체 폭 데이터(AW) 결정 회귀식을 도출할 수 있다. 전처리 모듈은 유효 신체 폭 데이터(AW) 결정 회귀식과 제1 참고 정보(Info_user)를 이용하여, 사용자의 유효 신체 폭 데이터(AW)을 효과적으로 결정할 수 있다.When the pre-processing module determines the effective body width W, the first reference information Info_user may be used. According to some embodiments, a regression equation for determining the effective body width data AW may be derived through statistical data on the effective body width data AW by sex, age, height, weight, and the like. The preprocessing module may effectively determine the effective body width data AW of the user by using the effective body width data AW determination regression equation and the first reference information Info_user.

이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예는 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of this embodiment, and a person skilled in the art to which this embodiment belongs may make various modifications and variations without departing from the essential characteristics of the present embodiment. Accordingly, the present embodiment is intended to explain, not to limit the technical spirit of the present embodiment, and the scope of the technical spirit of the present embodiment is not limited by these embodiments. The protection scope of this embodiment should be interpreted by the following claims, and all technical ideas within the scope equivalent thereto should be interpreted as being included in the scope of the present embodiment.

Claims (8)

훈련 데이터 셋을 생성하는 단계;
상기 훈련 데이터 셋을 이용하여 신체 치수 추정모델을 훈련하는 단계;
사용자를 제1 방향에서 촬상한 제1 이미지와, 상기 제1 방향과 다른 제2 방향에서 촬상한 제2 이미지를 상기 신체 치수 추정모델에 제공하는 단계; 및
상기 제1 이미지 및 상기 제2 이미지를 이용하여, 상기 사용자의 신체 치수를 적어도 하나 추정하는 단계를 포함하되,
상기 훈련 데이터 셋을 생성하는 단계는,
미리 측정되어 저장된 삼차원 인체 데이터로부터 제1 삼차원 모델링 형상을 추출하는 단계; 및
상기 제1 삼차원 모델링 형상을 이용하여, 서로 다른 방향에서 촬상된 제1 훈련 이미지 및 제2 훈련 이미지를 생성하는 단계를 포함하는
사용자 신체 치수 측정 방법.
generating a training data set;
training a body size estimation model using the training data set;
providing a first image captured in a first direction of a user and a second image captured in a second direction different from the first direction to the body size estimation model; and
Comprising the step of estimating at least one body size of the user by using the first image and the second image,
The step of generating the training data set comprises:
extracting a first three-dimensional modeling shape from the three-dimensional human body data measured in advance and stored; and
Using the first three-dimensional modeling shape, comprising the step of generating a first training image and a second training image captured in different directions
How to measure your body size.
제1 항에 있어서,
상기 훈련 데이터 셋을 생성하는 단계는,
상기 삼차원 인체 데이터에서 상기 제1 삼차원 모델링 형상과 관련된 제1 치수 정보를 추출하는 단계;
상기 제1 치수 정보를 이용하여 제1 가상 의상을 생성하는 단계; 및
상기 제1 삼차원 모델링 형상에 상기 제1 가상 의상을 착장하여, 제2 삼차원 모델링 형상을 생성하는 단계를 더 포함하는 사용자 신체 치수 측정 방법.
According to claim 1,
The step of generating the training data set comprises:
extracting first dimension information related to the first three-dimensional modeling shape from the three-dimensional human body data;
generating a first virtual garment by using the first dimension information; and
Wearing the first virtual garment on the first three-dimensional modeling shape, the user body size measurement method further comprising the step of generating a second three-dimensional modeling shape.
제2 항에 있어서,
상기 제1 훈련 이미지 및 상기 제2 훈련 이미지를 생성하는 단계는,
상기 제2 삼차원 모델링 형상을 상기 제1 방향에서 촬상하여, 상기 제1 훈련 이미지를 생성하는 단계; 및
상기 제2 삼차원 모델링 형상을 상기 제2 방향에서 촬상하여, 상기 제2 훈련 이미지를 생성하는 단계를 포함하는 사용자 신체 치수 측정 방법.
3. The method of claim 2,
The step of generating the first training image and the second training image,
generating the first training image by imaging the second three-dimensional modeling shape in the first direction; and
and generating the second training image by capturing the second three-dimensional modeling shape in the second direction.
제1 항에 있어서,
상기 제1 이미지 및 상기 제2 이미지를 이용하여, 상기 사용자의 신체 치수를 적어도 하나 추정하는 단계는,
상기 제1 이미지 및 상기 제2 이미지에 대한 전처리 동작을 수행하여 유효 신체 폭 데이터를 생성하는 단계; 및
상기 유효 신체 폭 데이터를 상기 훈련된 신체 치수 추정모델에 제공하여, 상기 사용자의 신체 치수를 적어도 하나 추정하는 단계를 포함하는 사용자 신체 치수 측정 방법.
According to claim 1,
The step of estimating at least one body size of the user by using the first image and the second image,
generating effective body width data by performing a pre-processing operation on the first image and the second image; and
and estimating at least one body size of the user by providing the effective body width data to the trained body size estimation model.
제4 항에 있어서,
상기 제1 이미지 및 상기 제2 이미지에 대한 전처리 동작을 수행하는 단계는,
상기 제1 이미지에서 제1 특징점을 추출하는 단계;
상기 제1 특징점을 기초로, 제2 특징점을 추출하는 단계;
상기 제2 특징점을 이용하여, 관심 영역을 추출하는 단계;
상기 관심 영역을 복수의 측정 영역으로 분할하는 단계; 및
상기 복수의 측정 영역 각각에 대한 신체 폭을 측정하는 단계를 포함하는 사용자 신체 치수 측정 방법.
5. The method of claim 4,
The step of performing a pre-processing operation on the first image and the second image,
extracting a first feature point from the first image;
extracting a second feature point based on the first feature point;
extracting a region of interest by using the second feature point;
dividing the region of interest into a plurality of measurement regions; and
and measuring a body width for each of the plurality of measurement areas.
제5 항에 있어서,
상기 제1 이미지 및 상기 제2 이미지에 대한 전처리 동작을 수행하는 단계는,
상기 측정된 복수의 신체 폭 중 적어도 하나를 유효 신체 폭 데이터로 결정하는 단계를 더 포함하는 사용자 신체 치수 측정 방법.
6. The method of claim 5,
The step of performing a pre-processing operation on the first image and the second image,
The method further comprising determining at least one of the plurality of measured body widths as effective body width data.
제1 항에 있어서,
상기 사용자의 신체 치수를 적어도 하나 추정하는 단계는,
상기 사용자에 대한 참고 정보를 이용하여, 상기 제1 이미지 및 상기 제2 이미지에 대한 전처리 동작을 수행하는 사용자 신체 치수 측정 방법.
According to claim 1,
The step of estimating at least one body size of the user,
A method of measuring a user's body size by performing a pre-processing operation on the first image and the second image by using the reference information about the user.
제7 항에 있어서,
상기 제1 이미지 및 상기 제2 이미지에 대한 전처리 동작은,
상기 사용자에 대한 참고 정보와, 유효 폭 데이터 결정 회귀식을 이용하여 상기 제1 이미지 및 상기 제2 이미지에 대한 유효 폭 데이터를 결정하는 것을 포함하는 사용자 신체 치수 측정 방법.

8. The method of claim 7,
The pre-processing operation for the first image and the second image,
and determining effective width data for the first image and the second image using reference information about the user and a regression equation for determining effective width data.

KR1020210128245A 2020-11-25 2021-09-28 Method for measuring body size based on artificial intelligence KR20220072729A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200159930 2020-11-25
KR20200159930 2020-11-25

Publications (1)

Publication Number Publication Date
KR20220072729A true KR20220072729A (en) 2022-06-02

Family

ID=81985469

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210128245A KR20220072729A (en) 2020-11-25 2021-09-28 Method for measuring body size based on artificial intelligence

Country Status (1)

Country Link
KR (1) KR20220072729A (en)

Similar Documents

Publication Publication Date Title
CN107194987B (en) Method for predicting human body measurement data
EP3215914B1 (en) Improved calibration for eye tracking systems
Bălan et al. The naked truth: Estimating body shape under clothing
JP2022521844A (en) Systems and methods for measuring weight from user photos using deep learning networks
US20210319585A1 (en) Method and system for gaze estimation
KR20150127381A (en) Method for extracting face feature and apparatus for perforimg the method
KR102328072B1 (en) Server for providing virtual fitting service and method using the same
CN102713975B (en) Image clearing system, image method for sorting and computer program
JP2008203916A (en) Image processing apparatus, program, and image processing method
US20160071321A1 (en) Image processing device, image processing system and storage medium
JP6969878B2 (en) Discriminator learning device and discriminator learning method
CN103767219A (en) Noncontact human body three-dimensional size measuring method
Jin et al. Estimating human weight from a single image
KR20220072735A (en) Method and system for recommending clothing size based on artificial intelligence
KR20220072729A (en) Method for measuring body size based on artificial intelligence
JP5373128B2 (en) Person identification device, person identification method, and person identification program
KR102468306B1 (en) Apparatus and method for measuring body size
KR20230043343A (en) System for virtual fitting service based on body size
KR20230043347A (en) Method for providing fitting service using 3D modeling avatar
KR20220100848A (en) Method and program for provinding bust information based on augumented reality
JP7259313B2 (en) Attribute determination device, attribute determination system, attribute determination method, program and recording medium
Wen et al. Artificial intelligence technologies for more flexible recommendation in uniforms
KR20190007671A (en) Apparatus and method for determining underwear size
KR102668246B1 (en) Electronic device for generating body size information for cloth fitting, method and system for generating body size information for cloth fitting, and method and system for recommending cloth size using the generated body size information
KR20230043342A (en) Method for creating a 3D-based virtual fitting avatar in the metaverse commerce service

Legal Events

Date Code Title Description
E902 Notification of reason for refusal