KR20230080191A - Apparatus and method for estimating body size based on full body picture and height using deep learning - Google Patents

Apparatus and method for estimating body size based on full body picture and height using deep learning Download PDF

Info

Publication number
KR20230080191A
KR20230080191A KR1020210167683A KR20210167683A KR20230080191A KR 20230080191 A KR20230080191 A KR 20230080191A KR 1020210167683 A KR1020210167683 A KR 1020210167683A KR 20210167683 A KR20210167683 A KR 20210167683A KR 20230080191 A KR20230080191 A KR 20230080191A
Authority
KR
South Korea
Prior art keywords
ratio
measurement points
measurement
frontal
height
Prior art date
Application number
KR1020210167683A
Other languages
Korean (ko)
Inventor
박익수
곽주현
Original Assignee
주식회사 아이미마인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이미마인 filed Critical 주식회사 아이미마인
Priority to KR1020210167683A priority Critical patent/KR20230080191A/en
Publication of KR20230080191A publication Critical patent/KR20230080191A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/12Bounding box

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Geometry (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

An apparatus for estimating a body size according to the present invention may include: a data receiving part that receives a frontal photo of the full body of a user and the height value of the user, and a processor that extracts a human body area from the frontal photo, calculates body proportions based on the human body area, and calculates body size based on the body proportions and height value.

Description

딥러닝을 이용한 전신 사진 및 신장 기반 신체 사이즈 예측 장치 및 예측 방법{APPARATUS AND METHOD FOR ESTIMATING BODY SIZE BASED ON FULL BODY PICTURE AND HEIGHT USING DEEP LEARNING}Apparatus and method for predicting body size based on body picture and height using deep learning

본 발명은 딥러닝 기술을 활용하여 전신 사진과 신장 값을 기반으로 의류 사이즈 선택시 활용될 수 있는 신체 사이즈를 예측하는 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for predicting a body size that can be used when selecting a clothing size based on a full body picture and a height value using deep learning technology.

사용자가 온라인 방식과 같이 비대면으로 의류를 구매하는 경우 정확한 실측 및 시범 착용이 불가능하고, 판매 업체별로 서로 다른 사이즈 기준을 적용하므로 구매 후 사이즈 불만족으로 인한 반품이 발생할 확률이 높다. 국내 온라인 의류 시장은 14조원이고, 평균 반품률은 약 30%이며, 그 중 사이즈로 인한 반품률이 약 40%로 이는 년간 4조원 규모에 해당한다.When a user purchases clothing online or non-face-to-face, it is impossible to accurately measure and try on, and since different sizing standards are applied to each seller, there is a high probability of returns due to dissatisfaction with the size after purchase. The domestic online apparel market is worth 14 trillion won, and the average return rate is about 30%.

온라인 의류 쇼핑 이용자가 자신의 신체 사이즈를 정확하게 알고 있다면 사이즈 선택에 문제가 없겠지만, 그렇지 못한 경우가 대부분이고, 신체 사이즈는 시간의 흐름에 따라 변화할 수 있고, 직접 줄자 등을 이용하여 측정하는 것은 불편할 뿐만 아니라 어느 부분을 측정해야 하는 모르는 경우가 많다. 이에 따라, 온라인 의류 쇼핑 구매 예정자가 자신의 신체 사이즈를 쉽고 빠르고 정확하게 측정할 수 있는 기술이 요구된다. 의류 쇼핑 이용자에게 제품 구매 단계 이전에 사용자의 신체 사이즈를 실측할 수 있는 방법을 제공하고, 구매 품목의 사이즈 기준을 반영하여 맞춤형 사이즈를 추천한다면 의류 사이즈로 인한 반품으로 발생하는 손실 비용을 크게 절감할 수 있다.If an online clothing shopper knows his or her body size accurately, there will be no problem in selecting the size, but most of the cases are not, and the body size can change over time, and it is inconvenient to measure it directly using a tape measure. In addition, there are many cases where you do not know which part to measure. Accordingly, there is a need for a technology that enables a prospective purchaser of online clothing shopping to easily, quickly, and accurately measure his/her own body size. If we provide apparel shoppers with a way to actually measure their body size prior to purchasing a product, and recommend a customized size by reflecting the size standard of the purchased item, the cost of loss caused by returns due to clothing size can be greatly reduced. can

기존에는, 이러한 신체 사이즈 예측에 여러 구매자의 리뷰 등을 활용하는 등의 통계적 기법을 활용하였다. 종래의 방법은 신체 사이즈 예측율의 한계가 있다. In the past, statistical techniques such as the use of multiple buyers' reviews have been used to predict such body size. Conventional methods have limitations in predicting body size.

이에 따라 딥러닝 기술을 이용하여 사용자의 신체 사이즈를 정확하고 빠르게 예측하는 기술에 대한 연구가 다양하게 진행되고 있다. 다만, 이러한 최신 기술이 도입된 서비스들도 사용자가 직접 입력해야 하는 정보가 적지 않아서 사용자가 사용하기에 불편함을 느낄 수 있고, 3D 스캐닝이나 다각도의 사진들을 요구하는 등 간단한 장비로 수행할 수 없는 불편함이 존재한다.Accordingly, various studies are being conducted on techniques for accurately and quickly predicting a user's body size using deep learning technology. However, even the services introduced with these latest technologies do not have a small amount of information that the user must directly input, so users may feel uncomfortable using them, and they require 3D scanning or multi-angle photos, which cannot be performed with simple equipment. Discomfort exists.

이에 따라, 간단한 장비를 간편하게 이용하면서 최소한의 정보만으로 사용자의 실제 신체 사이즈를 정확하게 예측하는 기술이 요구되고 있다.Accordingly, there is a demand for a technique for accurately predicting a user's actual body size with minimal information while conveniently using simple equipment.

전술한 배경기술은 발명자가 본 발명의 실시예들의 도출을 위해 보유하고 있었거나, 도출 과정에서 습득한 기술 정보로서, 반드시 본 발명의 실시예들의 출원 전에 일반 공중에게 공개된 공지기술이라 할 수는 없다.The foregoing background art is technical information that the inventor possessed for derivation of the embodiments of the present invention or acquired during the derivation process, and is not necessarily a known technology disclosed to the general public prior to filing the application of the embodiments of the present invention. does not exist.

본 발명에 따른 일 실시예가 해결하고자 하는 과제는, 상술한 문제를 해결하기 위하여, 딥러닝 기술을 활용하여 사용자의 전신 정면 사진과 신장 값만 입력하면 신체 사이즈를 예측하는 정치 및 방법을 제공하는 것이다.An object to be solved by an embodiment according to the present invention is to provide a method and method for predicting a body size by inputting only a frontal picture of a user and a height value using deep learning technology in order to solve the above-described problem.

다만, 본 발명이 해결하고자 하는 과제는 상기 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 하기의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.However, the problem to be solved by the present invention is not limited to the above-mentioned problem, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위하여, 본 발명에 따른 신체 사이즈 예측 장치는, 사용자의 전신 정면을 촬영한 정면 사진 및 상기 사용자의 신장 값을 수신하는 데이터 수신부; 및 상기 정면 사진 내에서 인체 영역을 추출하고, 상기 인체 영역을 기초로 신체 비율을 산정하고, 상기 신체 비율 및 신장값을 기초로 신체 사이즈를 산정하는 프로세서를 포함할 수 있다. 더 구체적으로 상기 프로세서는, 상기 정면 사진 내에서 상기 인체 영역을 추출하는 인체 영역 추출부; 상기 인체 영역의 윤곽선 상에 복수의 측정점을 생성하는 측정점 추출부; 상기 인체 영역 및 상기 측정점을 기초로 상기 신체 비율을 산정하는 신체 비율 예측부; 및 상기 신체 비율 및 상기 신장 값을 기초로 상기 신체 사이즈를 산정하는 신체 사이즈 예측부를 포함할 수 있다.In order to achieve the above object, an apparatus for predicting body size according to the present invention includes a data receiver for receiving a frontal photograph of a user's entire body and a height value of the user; and a processor that extracts a body region from the frontal photograph, calculates a body proportion based on the body region, and calculates a body size based on the body proportion and height value. More specifically, the processor may include: a body region extraction unit extracting the body region from the frontal photograph; a measurement point extraction unit generating a plurality of measurement points on the contour of the body region; a body proportion predictor configured to calculate the body proportion based on the body region and the measurement point; and a body size predictor configured to calculate the body size based on the body ratio and the height value.

더욱 구체적인 설명과 기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.More specific descriptions and other details of embodiments are included in the detailed description and drawings.

본 발명의 일 실시예에 따르면, 정면 사진을 기반으로 신체 사이즈 정밀 측정을 수행하기 때문에 구매자는 별도의 실측없이 신체 사이즈 측정이 가능하다. According to an embodiment of the present invention, since the precise body size measurement is performed based on the frontal picture, the purchaser can measure the body size without separate actual measurement.

본 발명의 일 실시예에 따르면, 업체별 상이한 사이즈 기준 데이터를 자동학습 시킴으로써 선택한 의류에 대한 사이즈 문제 해결이 가능하다.According to an embodiment of the present invention, it is possible to solve the size problem for the selected clothing by automatically learning different size reference data for each company.

본 발명의 일 실시예에 따르면, 정면 사진을 이용한 신체 사이즈 예측 시스템의 신체 사이즈 측정 결과를 업체 사이즈 기준 데이터와 구매자 의류 구매 이력을 지속적인 학습을 통해 전문가의 도움없이 맞춤형 의류 추천을 제공할 수 있는 효과가 있다.According to an embodiment of the present invention, the effect of providing customized clothing recommendations without the help of experts through continuous learning of the body size measurement result of the body size prediction system using the frontal photo, the company size reference data and the buyer's clothing purchase history there is

도 1은 본 발명의 일 실시예에 따른 신체 사이즈 예측 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시예에 따른 인체 영역 추출부를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 측정점 추출부를 설명하기 위한 도면이다.
도 4는 본 발명의 일 실시예에 따른 신체 비율 예측부를 설명하기 위한 도면이다.
1 is a diagram for explaining a body size prediction method according to an embodiment of the present invention.
2 is a diagram for explaining a body region extraction unit according to an embodiment of the present invention.
3 is a diagram for explaining a measurement point extraction unit according to an embodiment of the present invention.
4 is a diagram for explaining a body proportion predictor according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, the embodiments disclosed in this specification will be described in detail with reference to the accompanying drawings, but the same or similar elements are given the same reference numerals regardless of reference numerals, and redundant description thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used together in consideration of ease of writing the specification, and do not have meanings or roles that are distinct from each other by themselves. In addition, in describing the embodiments disclosed in this specification, if it is determined that a detailed description of a related known technology may obscure the gist of the embodiment disclosed in this specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are only for easy understanding of the embodiments disclosed in this specification, the technical idea disclosed in this specification is not limited by the accompanying drawings, and all changes included in the spirit and technical scope of the present invention , it should be understood to include equivalents or substitutes.

제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various components, but the components are not limited by the terms. These terms are only used for the purpose of distinguishing one component from another.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.It is understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, but other elements may exist in the middle. It should be. On the other hand, when an element is referred to as “directly connected” or “directly connected” to another element, it should be understood that no other element exists in the middle.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly dictates otherwise.

본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this application, terms such as "comprise" or "have" are intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, but one or more other features It should be understood that the presence or addition of numbers, steps, operations, components, parts, or combinations thereof is not precluded.

전술한 종래 온라인 의류 시장의 비대면 구매 방법의 문제점(종래에 높은 반품율과 반품 원인인 사이즈 문제)을 해결하기 위하여, 본 발명의 일 실시예에 따르면 신체 사이즈 예측 장치 및 방법은, 딥러닝을 활용하여 사용자의 전신 정면 촬영 이미지를 기반으로 신체 사이즈를 예측할 수 있다. 본 발명의 일 실시예에 따르면, 본 발명의 장치는 복수의 장치가 포함되는 시스템의 형태로 구현될 수도 있다.In order to solve the above-mentioned problems of the non-face-to-face purchase method in the conventional online clothing market (conventionally, a high return rate and a size problem that is a cause of return), according to an embodiment of the present invention, an apparatus and method for predicting body size utilize deep learning. Therefore, it is possible to predict the body size based on the user's whole body frontal photographed image. According to one embodiment of the present invention, the device of the present invention may be implemented in the form of a system including a plurality of devices.

본 발명의 일 실시예에서, 신체 사이즈 예측 장치는, 의류 판매 업체별 사이즈 기준에 대한 정보에 대한 선행 학습을 수행하여 신체 사이즈 예측에 활용할 수 있다. In an embodiment of the present invention, the apparatus for predicting body size may perform prior learning on information on size criteria for each clothing seller and use the information for predicting body size.

전신촬영 이미지 기반 신체 사이즈 예측 시스템에서 인공지능 기반 신체 사이즈 정밀 측정 모델을 통해 신체 각 부위의 사이즈와 비율을 측정한 결과를 제공하려는 것을 목적으로 한다. The purpose of this study is to provide the results of measuring the size and ratio of each part of the body through an artificial intelligence-based body size precision measurement model in a body size prediction system based on a full-body image.

본 발명은 전술한 종래 기술의 문제점을 해결하기 위한 것으로서, 측정된 신체 사이즈 및 비율과 업체의 사이즈 기준, 구매자 특징 분류 및 의류 구매 이력 등의 데이터를 학습하고, 인공지능 기반으로 맞춤형 의류 추천하는 방법 및 시스템을 제공하려는 것을 목적으로 한다.The present invention is to solve the above-mentioned problems of the prior art, a method for learning data such as measured body size and ratio, company size criteria, buyer's characteristic classification, and clothing purchase history, and recommending customized clothing based on artificial intelligence. and to provide a system.

본 발명에 따른 신체 사이즈 측정 장치는 단말기의 형태로 구현될 수 있고, 경우에 따라 여러 하드웨어를 포함하는 시스템의 형태로 구현될 수도 있다. 예를 들어, 신체 사이즈 측정 장치는 스마트폰, 스마트워치, 스마트글래스, 태블릿, 각종 웨어러블 디바이스, 노트북, 데스크탑 등의 단일 장치 형태로 구현될 수 있고, 네트워크로 연결된 하나 이상의 서버로 구현될 수도 있다.The apparatus for measuring body size according to the present invention may be implemented in the form of a terminal or, in some cases, may be implemented in the form of a system including various hardware. For example, the body size measuring device may be implemented in the form of a single device such as a smart phone, smart watch, smart glass, tablet, various wearable devices, laptop, desktop, etc., or may be implemented as one or more servers connected through a network.

도 1은 본 발명의 일 실시예에 따른 신체 사이즈 측정 장치의 구조를 나타내는 도면이다.1 is a diagram showing the structure of a body size measuring device according to an embodiment of the present invention.

본 발명의 일 실시예에 따른 신체 사이즈 측정 장치는, 데이터수신부 및 프로세서를 포함할 수 있다.A body size measuring device according to an embodiment of the present invention may include a data receiving unit and a processor.

데이터수신부는 사용자의 전신 정면을 촬영한 정면 사진 및 사용자의 신장 값을 수신할 수 있다. 이를 위하여, 데이터 수신부는, 사용자의 전신 정면 사진 및 신장 값을 수신하기 위한 장치를 구비할 수 있다. 예를 들어, 신체 사이즈 측정 장치가 스마트폰으로 구현되는 경우, 데이터 수신부는, 사진을 촬영하기 위한 카메라 및 각종 문자 및 사용자 입력을 획득하기 위한 터치 디스플레이를 포함할 수 있다. 다른 실시예에서, 신체 사이즈 측정 장치가 하나 이상의 서버로 구현되는 경우, 데이터 수신부는, 외부 단말기에서 전송하는 사진 데이터 및 입력값을 수신하기 위한 통신부를 포함할 수 있다. 데이터 수신부는, 수신된 정면 사진 이미지 데이터나 사용자의 신장 값을 프로세서에 전달하기 위하여 유무선으로 연결될 수 있다.The data receiving unit may receive a frontal photograph of the user's whole body and a height value of the user. To this end, the data receiving unit may include a device for receiving a frontal picture of the user and a height value. For example, when the body size measuring device is implemented as a smart phone, the data receiving unit may include a camera for taking a picture and a touch display for obtaining various texts and user input. In another embodiment, when the apparatus for measuring body size is implemented as one or more servers, the data receiving unit may include a communication unit for receiving photo data and an input value transmitted from an external terminal. The data receiver may be wired or wirelessly connected to transmit the received frontal photo image data or the height value of the user to the processor.

프로세서는, 데이터 수신부를 통하여 수신된 사용자의 정면 사진 및 신장값을 기초로 사용자의 신체 사이즈를 예측할 수 있다. 이에 따라, 본 발명에 따른 신체 사이즈 예측 장치는, 종래 기술보다 쉽게 사용자의 신체 사이즈를 예측할 수 있다. 특히 사용자의 전신이 나타난 정면 사진과 신장 값만 있으면 신체 사이즈를 예측할 수 있고, 종래 기술처럼 여러 각도에서의 사진이 필요하다거나, 몸무게 등 다른 신체 정보를 더 입력할 필요가 없기 때문에 사용자의 편의성 측면에서 월등히 향상된 효과를 얻을 수 있다. 구체적으로 프로세서는, 데이터 수신부를 통하여 수신된 정면 사진 내에서 인체 영역을 추출하고, 인체 영역을 기초로 신체 비율을 산정하고, 신체 비율 및 신장값을 기초로 신체 사이즈를 산정할 수 있다. The processor may predict the user's body size based on the user's frontal picture and the height value received through the data receiving unit. Accordingly, the body size predicting apparatus according to the present invention can predict the user's body size more easily than the prior art. In particular, it is possible to predict the body size with only a frontal picture of the user's whole body and a height value, and there is no need to take pictures from various angles or input other body information such as weight, as in the prior art, in terms of user convenience. Significantly improved effects can be obtained. Specifically, the processor may extract a body region from the frontal picture received through the data receiving unit, calculate a body ratio based on the body region, and calculate a body size based on the body ratio and height value.

본 발명의 일 실시예에서, 프로세서(processors)는, 각종 연산, 제어 및 판단을 수행하는 장치 또는 부품일 수 있다. 예를 들어, 프로세서(processors)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 마이크로 프로세서(Micro Processor), IC(Integrated Circuit), CPU(Central Processing Unit), MCU(Micro Controller Unit), ECU(electronic control unit) 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.In one embodiment of the present invention, processors (processors) may be devices or components that perform various calculations, controls, and judgments. For example, processors include application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), and microprocessors. (Micro Processor), IC (Integrated Circuit), CPU (Central Processing Unit), MCU (Micro Controller Unit), ECU (electronic control unit) controllers, micro-controllers, microprocessors, It may be implemented using at least one of electrical units for performing other functions.

프로세서(processors)는, 메모리(미도시)를 구비할 수 있다. 메모리는, 프로세서(processors)와 전기적으로 연결된다. 메모리는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 등과 같은 다양한 저장기기 일 수 있다. 메모리는 프로세서(processors)의 처리 또는 제어를 위한 프로그램 등, 프로세서(processors)의 전반의 동작을 위한 다양한 명령어 및 데이터를 저장할 수 있다.Processors may include a memory (not shown). The memory is electrically connected to processors. In terms of hardware, the memory may be various storage devices such as ROM, RAM, EPROM, flash drive, hard drive, and the like. The memory may store various instructions and data for overall operations of processors, such as programs for processing or controlling processors.

본 발명의 일 실시예에서, 프로세서는, 인체 영역 추출부, 측정점 추출부, 신체 비율 예측부, 신체 사이즈 예측부를 포함할 수 있다. 이하 도면을 참고하여 프로세서의 각 구성에 대하여 구체적으로 설명한다.In one embodiment of the present invention, the processor may include a body region extraction unit, a measurement point extraction unit, a body ratio estimation unit, and a body size estimation unit. Each component of the processor will be described in detail with reference to the drawings below.

도 2는 본 발명의 일 실시예에 따른 인체 영역 추출부를 설명하기 위한 도면이다.2 is a diagram for explaining a body region extraction unit according to an embodiment of the present invention.

본 발명의 일 실시예에서, 인체 영역 추출부는, 데이터 수신부가 수신한 정면 사진 내에서 인체 영역을 추출할 수 있다. 인체 영역 추출부는, Mask-RCNN을 사용하여 사용자의 전신이 나타난 정면 사진의 전체 이미지 내에서 인체 영역(전체 이미지 내에서 사용자의 전신이 표시된 영역)을 추출하도록 학습된 인공신경망을 포함할 수 있다. Mask-RCNN은 이미지에서 객체 인스턴스별로 관심영역(RoI, Region of Interest)을 픽셀(pixel)단위로 세그멘테이션 마스크(segmentation mask)를 생성하는 딥러닝 모델이다. Mask-RCNN은, 객체 탐지 모델인 Faster-RCNN에, 픽셀 단위로 세그멘테이션 마스크를 생성하는 마스크 브런치(mask branch)를 추가한 구조일 수 있다. Faster-RCNN은 특정 이미지 내에서 객체가 존재하는 영역(위치)을 인식할 수 있고, 이때 이미지 내 공간에 대한 정보는 필요가 없다. Mask-RCNN에 추가된 마스크 브런치(Mask Branch)는, 이미지 내 평면적인 위치 정보로부터 입체적인 공간 정보를 추출할 수 있어, 이에 따라, 정면 사진 내에서 사용자의 전신이 나타나는 부분인 인체 영역을 추출할 수 있다. Mask-RCNN은, 백본 신경망, RPN(Region Proposal Network), RoI Align 레이어, 바운딩박스와 클래스를 예측하는 레이어, 픽셀 단위로 Mask를 생성하는 레이어를 포함할 수 있다. 백본 신경망은 정면 사진 내에서 이미지 특징(feature)을 추출할 수 있다. 예를 들어, 백본 신경망은 ResNet일 수 있다. RPN 백본 신경망이 추출한 이미지 특징으로부터 관심 영역(RoI, Region of Interest)를 바운딩박스 형태로 추출할 수 있다. RoI Align 레이어 관심 영역의 위치 정렬을 수행할 수 있다. 이후 레이어들은 바운딩박스와 클래스를 예측하고, 픽셀 단위로 Mask를 생성할 수 있다.In one embodiment of the present invention, the body region extractor may extract the body region from the frontal picture received by the data receiver. The body region extraction unit may include an artificial neural network trained to extract a body region (a region in which the user's body is displayed within the entire image) within the entire image of the frontal photograph in which the user's body is displayed using Mask-RCNN. Mask-RCNN is a deep learning model that generates a segmentation mask for each object instance in an image in pixel units. Mask-RCNN may have a structure in which a mask branch for generating a segmentation mask in units of pixels is added to Faster-RCNN, which is an object detection model. Faster-RCNN can recognize the area (position) where an object exists in a specific image, and at this time, information about the space in the image is not needed. The Mask Branch added to Mask-RCNN can extract three-dimensional spatial information from the two-dimensional location information in the image, and thus extract the human body region, which is the part where the user's whole body appears in the frontal picture. there is. Mask-RCNN may include a backbone neural network, a Region Proposal Network (RPN), a RoI Align layer, a layer that predicts bounding boxes and classes, and a layer that generates a mask in units of pixels. The backbone neural network can extract image features within frontal photos. For example, the backbone neural network can be ResNet. A region of interest (RoI) can be extracted in the form of a bounding box from the image features extracted by the RPN backbone neural network. RoI Align layer Position alignment of the region of interest can be performed. Layers can then predict bounding boxes and classes, and create masks in units of pixels.

본 발명의 일 실시예에서, 측정점 추출부는, 인체 영역 추출부가 추출한 인체 영역에 대응하여 복수의 측정점을 생성할 수 있다. In one embodiment of the present invention, the measurement point extraction unit may generate a plurality of measurement points corresponding to the body regions extracted by the body region extraction unit.

측정점은, 사진 내에서의 특정 지점의 위치를 나타내는 위치 좌표 값 또는 점 이미지일 수 있다. 본 발명의 일 실시예에 따르면, 복수의 측점점은, 어깨 양 끝에 위치하는 두개의 측정점(어깨 측정점이라 함), 양 겨드랑이에 위치하는 두개의 측정점(가슴 측정점이라 함), 허리 양 끝에 위치하는 두개의 측정점(허리 측정점이라 함), 골반 양 끝에 위치하는 두개의 측정점(골반 측정점이라 함), 및 목과 어깨의 연결 부위 양 끝에 위치하는 두개의 측정점(목 측정점이라 함) 중 적어도 하나를 포함할 수 있다. 또 다른 실시예에서, 측정점은, 허벅지 하나당 양 끝에 위치하는 2개의 측정점(허벅지 측정점)을 포함할 수 있다.The measuring point may be a location coordinate value or a point image indicating a location of a specific point in the picture. According to one embodiment of the present invention, the plurality of measurement points include two measurement points located at both ends of the shoulder (referred to as shoulder measurement points), two measurement points located at both armpits (referred to as chest measurement points), and two measurement points located at both ends of the waist. It may include at least one of two measurement points (referred to as waist measurement points), two measurement points located at both ends of the pelvis (referred to as pelvis measurement points), and two measurement points located at both ends of the neck and shoulder joint (referred to as neck measurement points). can In another embodiment, the measurement points may include two measurement points (thigh measurement points) located at both ends of each thigh.

측정점 추출부는, 정면 사진 내 복수의 측정점을 생성하도록 학습된 Convolutional Point Regression 인공신경망 모델을 포함할 수 있다. Convolutional Point Regression 인공신경망 모델은, 복수의 전신 정면 사진, 정면 사진 상의 전신 각각에 대응하여 기설정된 복수의 측정점 정보, 정면 사진 각각에 대응하여 생성된 골격 정보를 학습데이터로 하여, 전신 정면 사진이 입력되면 입력된 전신 정면 사진에 대응하는 측정점을 생성하도록 학습된 딥러닝 모델이다.The measurement point extraction unit may include a Convolutional Point Regression artificial neural network model learned to generate a plurality of measurement points in the frontal picture. The Convolutional Point Regression artificial neural network model uses a plurality of frontal photos of the whole body, information on a plurality of measurement points preset in correspondence with each of the whole bodies on the frontal photos, and skeletal information generated in response to each of the frontal photos as learning data, and the frontal photo of the whole body is input. It is a deep learning model trained to create measurement points corresponding to the input full-body frontal photos.

골격 정보는, 전신 정면 사진 상에 나타나는 인체의 관절점을 판단하고 Pose-Estimation 기술을 적용하여 생성된 것이다. 골격 정보는 정면 사진 상의 인체 영역에 대응하여 각 인체의 관절 부분에 표시되는 복수의 점 및 각 점을 인체의 형상에 대응하도록 연결한 복수의 선으로 이뤄진 이미지 정보이다. Pose-Estimation은 이미지 내 객체(사람)의 자세를 인식하는 기술이다. 이 과정에서 정확한 인식을 위해 객체에 매칭되는 스켈레톤(골격 정보)이 생성될 수 있다. Pose-Estimation을 통하여 신체 부위가 겹쳐있거나 평면상에서 파악하기 어려운 자세도 입체적으로 인식할 수 있다. The skeletal information is generated by determining the joint points of the human body appearing on the full-body frontal photograph and applying the Pose-Estimation technique. Skeleton information is image information consisting of a plurality of points displayed on the joints of each human body corresponding to human body regions on a frontal photograph and a plurality of lines connecting the dots to correspond to the shape of the human body. Pose-Estimation is a technique for recognizing the posture of an object (person) in an image. In this process, a skeleton (skeleton information) matching the object may be generated for accurate recognition. Through Pose-Estimation, it is possible to three-dimensionally recognize postures where body parts are overlapped or difficult to grasp on a flat surface.

Convolutional Point Regression 인공신경망 모델은, 전역적 특징 학습부 및 국소적 특징 학습부를 포함할 수 있다. 전역적 특징 학습부는 복수의 측정점 간의 상대 위치(전역적 특징)를 학습할 수 있다. 국소적 특징 학습부는 골격 정보를 기초로 판단된 특정 신체 부위와 해당 신체 부위에 대응하는 측정점의 상대 위치(국소적 특징)를 학습할 수 있다. Convolutional Point Regression 인공신경망 모델은, 전역적 특징과 국소적 특징이 반영된 측정점을 생성하도록 설계된다. 예를 들어, 전역적 특징 학습부는, 어깨 측정점과 팔목 측정점을 포함 한 신체 각 부위에 대한 측정점을 학습하는 경우, 인접한 두 측정점 간의 거리(명확한 수치)가 아닌 전체적인 측정점 간의 거리 비율을 학습할 수 있다. 전역적 특징은 신체 전체에 대한 측정점 들의 위치 및 비율을 나타낼 수 있다. 국소적 특징은 특정 신체 부위와 측정점 간의 관계를 나타낼 수 있다. 예를 들어, 정면 사진 내의 어깨 이미지에서 스켈레톤의 어깨 관절 위치와 측정점 사이의 상대적 위치 관계가 학습되는 경우 해당 부위에 대한 신체 특징이 파악될 수 있다 예를 들어, 이를 통하여 어깨가 좁은 스타일, 승모근이 발달한 스타일 등이 파악될 수 있다. 판단된 신체 비율은 신체 사이즈 입력을 통해 명확한 수치로 변환될 수 있다. 의복의 사이즈(100, 105 등)는 의류 제작 업체에 따라 측정 방법이 다를 수 있으므로, 신체 사이즈를 비율로 계산하는 경우 의복 추천 시 활용할 수도 있다. The convolutional point regression artificial neural network model may include a global feature learning unit and a local feature learning unit. The global feature learning unit may learn relative positions (global features) between a plurality of measurement points. The local feature learning unit may learn the relative position (local feature) of a specific body part determined based on the skeleton information and a measurement point corresponding to the corresponding body part. The Convolutional Point Regression artificial neural network model is designed to generate measurement points that reflect global and local features. For example, if the global feature learning unit learns the measurement points for each body part including the shoulder measurement point and the wrist measurement point, it can learn the distance ratio between the entire measurement points rather than the distance (clear value) between two adjacent measurement points. . The global feature may represent the location and ratio of measurement points with respect to the entire body. A local feature may indicate a relationship between a specific body part and a measurement point. For example, when the relative positional relationship between the position of the shoulder joint of the skeleton and the measurement point is learned from the shoulder image in the frontal photograph, the body characteristics of the corresponding part can be identified. Developed styles can be identified. The determined body proportion may be converted into a clear numerical value through input of the body size. As the clothing size (100, 105, etc.) may have different measurement methods depending on the clothing manufacturer, it may be used when recommending clothing if the body size is calculated as a ratio.

본 발명의 일 실시예에서, 신체 비율 예측부는, 인체 영역 및 측정점을 기초로 신체 비율을 예측할 수 있다. 예를 들어, 신체 비율 예측부는, 인체 영역 추출부가 추출항 인체 영역 및 측정점 추출부가 생성한 측정점에 기초하여, 어깨 비율(신장 대비 어깨 너비의 비율), 가슴 비율(신장 대비 가슴 둘레의 비율), 목 비율(신장 대비 목 둘레의 비율), 허리 비율(신장 대비 허리 둘레의 비율)중 적어도 하나를 산정할 수 있다. 이 과정에서 정면 사진내 객체의 신장의 픽셀 길이와, 신체 사이즈를 측정 대상이 되는 측정점 간 길이가 구해지며, 이 두 값을 비교해 측정점 간 길이와 신장의 길이의 비율이 계산될 수 있다.In one embodiment of the present invention, the body proportion predictor may predict the body proportion based on the body region and the measurement point. For example, the body ratio predictor may include a shoulder ratio (ratio of shoulder width to height), a chest ratio (ratio of chest circumference to height), At least one of neck ratio (ratio of neck circumference to height) and waist ratio (ratio of waist circumference to height) may be calculated. In this process, the pixel length of the height of the object in the frontal picture and the length between the measuring points for measuring the body size are obtained, and the ratio between the length between the measuring points and the length of the height can be calculated by comparing these two values.

신체 비율 예측부는, 인체 영역 추출부가 추출한 인체 영역의 세그멘테이션(Segmentation) 이미지와 측정점 추출부가 생성한 측정점 정보를 기초로 학습된 Dense Regression Net 인공신경망 모델을 이용하여 상기 신체 비율을 산정할 수 있다. The body proportion predictor may calculate the body proportion using a dense regression net artificial neural network model learned based on the segmentation image of the body region extracted by the body region extractor and the measurement point information generated by the measurement point extractor.

Dense Regression Net 인공신경망 모델은, 인체 영역의 세그멘테이션 이미지, 측정점 정보, 사용자의 실제 신체 사이즈 정보를 학습데이터로 하여, 인체 영역의 세그멘테이션 이미지 및 측정점 정보가 입력되면 신장 대비 신체 각 부위의 비율을 출력하도록 학습된 것일 수 있다.The Dense Regression Net artificial neural network model uses the segmentation image of the human body region, measurement point information, and actual body size information of the user as learning data. may have been learned.

본 발명의 일 실시예에서, 신체 사이즈 예측부는 신체 비율 예측부가 판단한 신체 비율 및 데이터수신부를 통하여 수신된 신장 값을 기초로 사용자의 신체 사이즈를 산정할 수 있다. 신체 사이즈 예측부는, 어깨 비율 및 신장 값을 기초로 어깨 너비를 산정할 수 있다. 신체 사이즈 예측부는, 가슴 비율 및 신장 값을 기초로 가슴 둘레를 산정할 수 있다. 신체 사이즈 예측부는, 목 비율 및 신장 값을 기초로 목 둘레를 산정할 수 있다. 신체 사이즈 예측부는, 허리 비율 및 신장 값을 기초로 허리 둘레를 산정할 수 있다. 신체 사이즈 예측부는, 이외에도 엉덩이 둘레, 허벅지 둘레, 다리 길이, 상완 둘레 등을 예측할 수도 있다. In one embodiment of the present invention, the body size predictor may calculate the user's body size based on the body proportion determined by the body proportion predictor and the height value received through the data receiver. The body size predictor may calculate the shoulder width based on the shoulder ratio and height values. The body size predictor may calculate the chest circumference based on the chest ratio and the height value. The body size predictor may calculate the neck circumference based on the neck ratio and the height value. The body size predictor may calculate the waist circumference based on the waist ratio and the height value. The body size prediction unit may also predict hip circumference, thigh circumference, leg length, upper arm circumference, and the like.

이하, 본 발명의 다른 측면에 따른 신체 사이즈 예측 방법에 관하여 설명하기로 한다. Hereinafter, a body size prediction method according to another aspect of the present invention will be described.

본 발명에 따른 신체 사이즈 예측 방법은, 데이터 수신 단계, 인체 영역 추출 단계, 측정점 추출 단계, 신체 비율 예측 단계를 포함할 수 있다. The body size prediction method according to the present invention may include a data receiving step, a body region extracting step, a measuring point extracting step, and a body ratio predicting step.

데이터 수신 단계는, 사용자의 전신 정면을 촬영한 정면 사진 및 상기 사용자의 신장 값을 수신하는 단계이다.The data receiving step is a step of receiving a frontal picture of the user's whole body and a height value of the user.

인체 영역 추출 단계는 정면 사진 내에서 인체 영역을 추출하는 단계이다.The human body region extraction step is a step of extracting a human body region from a frontal photograph.

측정점 추출 단계는, 인체 영역에 대응하여 복수의 측정점을 생성하는 단계이다.The step of extracting measurement points is a step of generating a plurality of measurement points corresponding to the human body region.

신체 비율 예측 단계는, 인체 영역 및 측정점을 기초로 신체 비율을 산정하는 단계이다. 신체 비율 예측 단계는, 인체 영역 및 측정점에 기초하여, 어깨 비율(신장 대비 어깨 너비의 비율), 가슴 비율(신장 대비 가슴 둘레의 비율), 목 비율(신장 대비 목 둘레의 비율), 허리 비율(신장 대비 허리 둘레의 비율)중 적어도 하나를 산정하는 단계이다.The body proportion estimation step is a step of calculating a body proportion based on a body region and a measurement point. The body proportion prediction step is based on the body area and measurement points, shoulder ratio (ratio of shoulder width to height), chest ratio (ratio of chest circumference to height), neck ratio (ratio of neck circumference to height), waist ratio ( This is a step of calculating at least one of the ratio of waist circumference to height).

신체 사이즈 예측 단계는, 신체 비율 및 신장 값을 기초로 신체 사이즈를 산정하는 단계이다. 신체 사이즈 예측 단계는, 상기 어깨 비율 및 상기 신장 값을 기초로 어깨 너비를 산정하고, 상기 가슴 비율 및 상기 신장 값을 기초로 가슴 둘레를 산정하고, 상기 목 비율 및 상기 신장 값을 기초로 목 둘레를 산정하고, 상기 허리 비율 및 상기 신장 값을 기초로 허리 둘레를 산정하는 단계이다.The body size estimating step is a step of calculating the body size based on the body ratio and height values. The body size estimating step may include calculating a shoulder width based on the shoulder ratio and the height value, calculating a chest circumference based on the chest ratio and the height value, and calculating a neck circumference based on the neck ratio and the height value. and calculating a waist circumference based on the waist ratio and the height value.

측정점 추출 단계는, 상기 정면 사진 내 복수의 측정점을 생성하도록 학습된 Convolutional Point Regression 인공신경망 모델이 수행하는 것이다. Convolutional Point Regression 인공신경망 모델은, 복수의 전신 정면 사진, 상기 사진 상의 전신 각각에 대응하여 기설정된 복수의 측정점 정보, 상기 사진 각각에 대응하여 생성된 골격 정보를 학습데이터로 하여, 전신 정면 사진이 입력되면 입력된 전신 정면 사진에 대응하는 측정점을 생성하도록 학습된 것이다. 골격 정보는, 전신 정면 사진 상에 나타나는 인체의 관절점을 판단하고 Pose-Estimation 기술을 적용하여 생성된 것이다.The step of extracting measurement points is performed by a Convolutional Point Regression artificial neural network model trained to generate a plurality of measurement points in the frontal picture. The Convolutional Point Regression artificial neural network model uses a plurality of full-body frontal photos, a plurality of preset measurement point information corresponding to each of the whole bodies on the photos, and skeletal information generated corresponding to each of the photos as learning data, and the whole body frontal photo is input , it is learned to create a measurement point corresponding to the input full-body frontal photograph. The skeletal information is generated by determining the joint points of the human body appearing on the full-body frontal photograph and applying the Pose-Estimation technique.

Convolutional Point Regression 인공신경망 모델은, 상기 복수의 측정점 간의 상대 위치(전역적 특징)를 학습하는 전역적 특징 학습부; 및 상기 골격 정보를 기초로 판단된 특정 신체 부위와 해당 신체 부위에 대응하는 측정점의 상대 위치(국소적 특징)를 학습하는 국소적 특징 학습부를 포함할 수 있다. Convolutional Point Regression 인공신경망 모델은, 전역적 특징과 국소적 특징이 반영된 측정점을 생성하도록 설계된다.The Convolutional Point Regression artificial neural network model includes a global feature learning unit that learns relative positions (global features) between the plurality of measurement points; and a local feature learning unit configured to learn relative positions (local features) of a specific body part determined based on the skeleton information and a measurement point corresponding to the corresponding body part. The Convolutional Point Regression artificial neural network model is designed to generate measurement points that reflect global and local features.

전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다. 비록 본 발명이 상기 언급된 바람직한 실시예와 관련하여 설명되었지만, 발명의 요지와 범위로부터 벗어남이 없이 다양한 수정이나 변형을 하는 것이 가능하다. 따라서 첨부된 특허청구의 범위에는 본 발명의 요지에 속하는 한 이러한 수정이나 변형을 포함할 것이다.The above-described present invention can be implemented as computer readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable media include Hard Disk Drive (HDD), Solid State Disk (SSD), Silicon Disk Drive (SDD), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. , and also includes those implemented in the form of a carrier wave (eg, transmission over the Internet). Also, the computer may include a processor or a control unit. Accordingly, the above detailed description should not be construed as limiting in all respects and should be considered illustrative. The scope of the present invention should be determined by reasonable interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention. Although the present invention has been described with respect to the preferred embodiments mentioned above, various modifications and variations are possible without departing from the spirit and scope of the invention. Accordingly, the scope of the appended claims will include such modifications and variations as long as they fall within the gist of the present invention.

Claims (16)

사용자의 전신 정면을 촬영한 정면 사진 및 상기 사용자의 신장 값을 수신하는 데이터 수신부; 및
상기 정면 사진 내에서 인체 영역을 추출하고, 상기 인체 영역을 기초로 신체 비율을 산정하고, 상기 신체 비율 및 상기 신장값을 기초로 신체 사이즈를 산정하는 프로세서를 포함하는 신체 사이즈 예측 장치.
a data receiving unit for receiving a frontal photograph of a user's entire body and a height value of the user; and
and a processor configured to extract a body region from the frontal photograph, calculate a body proportion based on the body region, and calculate a body size based on the body proportion and the height value.
제1항에 있어서,
상기 프로세서는,
상기 정면 사진 내에서 상기 인체 영역을 추출하는 인체 영역 추출부;
상기 인체 영역에 기초하여 상기 정면 사진 내 복수의 측정점을 생성하는 측정점 추출부;
상기 인체 영역 및 상기 측정점을 기초로 상기 신체 비율을 예측하는 신체 비율 예측부; 및
상기 신체 비율 및 상기 신장 값을 기초로 상기 신체 사이즈를 산정하는 신체 사이즈 예측부;
를 포함하는 신체 사이즈 예측 장치.
According to claim 1,
the processor,
a body region extraction unit extracting the body region from the frontal photograph;
a measurement point extraction unit generating a plurality of measurement points in the frontal photograph based on the body region;
a body proportion predictor configured to predict the body proportion based on the body region and the measurement point; and
a body size estimation unit calculating the body size based on the body proportion and the height value;
A body size predictor comprising a.
제2항에 있어서,
상기 측정점은,
어깨 양 끝에 위치하는 두개의 측정점(어깨 측정점이라 함),
양 겨드랑이에 위치하는 두개의 측정점(가슴 측정점이라 함),
허리 양 끝에 위치하는 두개의 측정점(허리 측정점이라 함),
골반 양 끝에 위치하는 두개의 측정점(골반 측정점이라 함), 및
목과 어깨의 연결 부위 양 끝에 위치하는 두개의 측정점(목 측정점이라 함) 중 적어도 하나를 포함하고,
상기 신체 비율 예측부는,
상기 인체 영역 및 상기 측정점에 기초하여, 어깨 비율(신장 대비 어깨 너비의 비율), 가슴 비율(신장 대비 가슴 둘레의 비율), 목 비율(신장 대비 목 둘레의 비율), 허리 비율(신장 대비 허리 둘레의 비율)중 적어도 하나를 산정하고,
상기 신체 사이즈 예측부는,
상기 어깨 비율 및 상기 신장 값을 기초로 어깨 너비를 산정하고,
상기 가슴 비율 및 상기 신장 값을 기초로 가슴 둘레를 산정하고,
상기 목 비율 및 상기 신장 값을 기초로 목 둘레를 산정하고,
상기 허리 비율 및 상기 신장 값을 기초로 허리 둘레를 산정하는 신체 사이즈 예측 장치.
According to claim 2,
The measurement point is
Two measurement points located at both ends of the shoulder (called shoulder measurement points),
Two measurement points located on both armpits (called chest measurement points),
Two measurement points located at both ends of the waist (called waist measurement points),
two measurement points located at both ends of the pelvis (referred to as pelvic measurement points), and
At least one of two measuring points (referred to as neck measuring points) located at both ends of the neck and shoulder joint,
The body proportion prediction unit,
Based on the body region and the measurement points, shoulder ratio (ratio of shoulder width to height), chest ratio (ratio of chest circumference to height), neck ratio (ratio of neck circumference to height), waist ratio (ratio of waist circumference to height) Calculate at least one of the ratio),
The body size predictor,
Calculate the shoulder width based on the shoulder ratio and the height value,
Calculate the chest circumference based on the chest ratio and the height value,
Calculate the neck circumference based on the neck ratio and the height value,
A body size predicting device for calculating a waist circumference based on the waist ratio and the height value.
제2항에 있어서,
상기 인체 영역 추출부는,
Mask-RCNN을 사용하여 상기 정면 사진의 전체 이미지 내에서 인체 영역을 추출하도록 학습된 인공신경망을 포함하는 신체 사이즈 예측 장치.
According to claim 2,
The human body region extraction unit,
A body size prediction device including an artificial neural network trained to extract a human body region from the entire image of the frontal photograph using Mask-RCNN.
제4항에 있어서,
상기 Mask-RCNN은,
객체 탐지 모델인 Faster-RCNN에, 픽셀 단위로 세그멘테이션 마스크(Segmentation mask)를 생성하는 마스크 브런치(mask branch)를 추가한 구조인 신체 사이즈 예측 장치.
According to claim 4,
The Mask-RCNN,
A body size prediction device having a structure in which a mask branch that generates a segmentation mask in pixel units is added to Faster-RCNN, an object detection model.
제5항에 있어서,
상기 Mask-RCNN은,
상기 정면 사진 내에서 이미지 특징(feature)을 추출하는 백본 신경망;
상기 이미지 특징으로부터 관심 영역(RoI, Region of Interest)를 바운딩박스 형태로 추출하는 RPN(Region Proposal Network);
상기 관심 영역의 위치 정렬을 수행하는 RoI Align 레이어;
상기 바운딩박스와 클래스를 예측하는 레이어; 및
픽셀 단위로 마스크(Mask)를 생성하는 레이어로 구성된 신체 사이즈 예측 장치.
According to claim 5,
The Mask-RCNN,
a backbone neural network for extracting image features from the frontal photograph;
a Region Proposal Network (RPN) for extracting a Region of Interest (RoI) from the image features in the form of a bounding box;
a RoI Align layer that aligns the position of the ROI;
a layer that predicts the bounding box and class; and
A body size prediction device composed of layers that generate a mask in pixel units.
제6항에 있어서,
상기 백본 신경망은 ResNet인 신체 사이즈 예측 장치.
According to claim 6,
The backbone neural network is ResNet body size prediction device.
제2항에 있어서,
상기 측정점 추출부는,
상기 정면 사진 내 복수의 측정점을 생성하도록 학습된 Convolutional Point Regression 인공신경망 모델을 포함하는 신체 사이즈 예측 장치.
According to claim 2,
The measuring point extraction unit,
A body size predicting device including a Convolutional Point Regression artificial neural network model learned to generate a plurality of measurement points in the frontal photograph.
제8항에 있어서,
상기 Convolutional Point Regression 인공신경망 모델은,
복수의 전신 정면 사진, 상기 사진 상의 전신 각각에 대응하여 기설정된 복수의 측정점 정보, 상기 사진 각각에 대응하여 생성된 골격 정보를 학습데이터로 하여,
전신 정면 사진이 입력되면 입력된 전신 정면 사진에 대응하는 측정점을 생성하도록 학습된 것이고,
상기 골격 정보는, 전신 정면 사진 상에 나타나는 인체의 관절점을 판단하고 Pose-Estimation 기술을 적용하여 생성된 것인 신체 사이즈 예측 장치.
According to claim 8,
The Convolutional Point Regression artificial neural network model,
Using a plurality of full-body frontal photographs, a plurality of measurement point information preset corresponding to each of the whole body on the photograph, and skeletal information generated corresponding to each of the photographs as learning data,
When a full-body frontal photograph is input, it is learned to create a measurement point corresponding to the input full-body frontal photograph,
The skeletal information is generated by determining the joint points of the human body appearing on the frontal photograph of the body and applying Pose-Estimation technology.
제9항에 있어서,
상기 Convolutional Point Regression 인공신경망 모델은,
상기 복수의 측정점 간의 상대 위치(전역적 특징)를 학습하는 전역적 특징 학습부; 및
상기 골격 정보를 기초로 판단된 특정 신체 부위와 해당 신체 부위에 대응하는 측정점의 상대 위치(국소적 특징)를 학습하는 국소적 특징 학습부를 포함하고,
상기 전역적 특징과 상기 국소적 특징이 반영된 측정점을 생성하도록 설계된 신체 사이즈 예측 장치.
According to claim 9,
The Convolutional Point Regression artificial neural network model,
a global feature learning unit learning relative positions (global features) between the plurality of measurement points; and
A local feature learning unit for learning relative positions (local features) of a specific body part determined based on the skeletal information and a measurement point corresponding to the corresponding body part;
A body size predicting device designed to generate a measurement point in which the global feature and the local feature are reflected.
제2항에 있어서,
상기 신체 비율 예측부는,
상기 인체 영역의 세그멘테이션(Segmentation) 이미지와 상기 측정점 정보를 기초로 학습된 Dense Regression Net 인공신경망 모델을 이용하여 상기 신체 비율을 산정하는 신체 사이즈 측정 장치.
According to claim 2,
The body proportion prediction unit,
A body size measurement device for calculating the body ratio using a dense regression net artificial neural network model learned based on the segmentation image of the body region and the measurement point information.
제11항에 있어서,
상기 Dense Regression Net 인공신경망 모델은,
상기 인체 영역의 세그멘테이션(Segmentation) 이미지, 상기 측정점 정보, 각 사용자의 실제 신체 사이즈 정보를 학습데이터로 하여,
상기 인체 영역의 세그멘테이션 이미지 및 상기 측정점 정보가 입력되면 신장 대비 신체 각 부위의 비율을 출력하도록 학습된 것인 신체 사이즈 측정 장치.
According to claim 11,
The Dense Regression Net artificial neural network model,
Using the segmentation image of the human body region, the measurement point information, and the actual body size information of each user as learning data,
The body size measuring device is configured to output a ratio of each part of the body to a height when the segmentation image of the human body region and the measurement point information are input.
사용자의 전신 정면을 촬영한 정면 사진 및 상기 사용자의 신장 값을 수신하는 데이터 수신 단계;
상기 정면 사진 내에서 상기 인체 영역을 추출하는 인체 영역 추출 단계;
상기 인체 영역에 대응하여 복수의 측정점을 생성하는 측정점 추출 단계;
상기 인체 영역 및 상기 측정점을 기초로 상기 신체 비율을 산정하는 신체 비율 예측 단계; 및
상기 신체 비율 및 상기 신장 값을 기초로 상기 신체 사이즈를 산정하는 신체 사이즈 예측 단계;
를 포함하는 신체 사이즈 예측 방법.
a data reception step of receiving a frontal picture of a user's entire body and a height value of the user;
a human body region extraction step of extracting the human body region from the frontal photograph;
a measurement point extraction step of generating a plurality of measurement points corresponding to the human body region;
a body proportion estimation step of calculating the body proportion based on the body region and the measurement point; and
a body size predicting step of calculating the body size based on the body ratio and the height value;
Body size prediction method comprising a.
제13항에 있어서,
상기 측정점은,
어깨 양 끝에 위치하는 두개의 측정점(어깨 측정점이라 함),
양 겨드랑이에 위치하는 두개의 측정점(가슴 측정점이라 함),
허리 양 끝에 위치하는 두개의 측정점(허리 측정점이라 함),
골반 양 끝에 위치하는 두개의 측정점(골반 측정점이라 함), 및
목과 어깨의 연결 부위 양 끝에 위치하는 두개의 측정점(목 측정점이라 함) 중 적어도 하나를 포함하고,
상기 신체 비율 예측 단계는,
상기 인체 영역 및 상기 측정점에 기초하여, 어깨 비율(신장 대비 어깨 너비의 비율), 가슴 비율(신장 대비 가슴 둘레의 비율), 목 비율(신장 대비 목 둘레의 비율), 허리 비율(신장 대비 허리 둘레의 비율)중 적어도 하나를 산정하는 단계이고,
상기 신체 사이즈 예측 단계는,
상기 어깨 비율 및 상기 신장 값을 기초로 어깨 너비를 산정하고,
상기 가슴 비율 및 상기 신장 값을 기초로 가슴 둘레를 산정하고,
상기 목 비율 및 상기 신장 값을 기초로 목 둘레를 산정하고,
상기 허리 비율 및 상기 신장 값을 기초로 허리 둘레를 산정하는 단계인 신체 사이즈 예측 방법.
According to claim 13,
The measurement point is
Two measurement points located at both ends of the shoulder (called shoulder measurement points),
Two measurement points located on both armpits (called chest measurement points),
Two measurement points located at both ends of the waist (called waist measurement points),
two measurement points located at both ends of the pelvis (referred to as pelvic measurement points), and
At least one of two measuring points (referred to as neck measuring points) located at both ends of the neck and shoulder joint,
The body proportion prediction step,
Based on the body region and the measurement points, shoulder ratio (ratio of shoulder width to height), chest ratio (ratio of chest circumference to height), neck ratio (ratio of neck circumference to height), waist ratio (ratio of waist circumference to height) A step of calculating at least one of the ratio of),
The body size prediction step,
Calculate the shoulder width based on the shoulder ratio and the height value,
Calculate the chest circumference based on the chest ratio and the height value,
Calculate the neck circumference based on the neck ratio and the height value,
A body size prediction method comprising calculating a waist circumference based on the waist ratio and the height value.
제13항에 있어서,
측정점 추출 단계는,
상기 정면 사진 내 복수의 측정점을 생성하도록 학습된 Convolutional Point Regression 인공신경망 모델이 수행하는 것이고,
상기 Convolutional Point Regression 인공신경망 모델은,
복수의 전신 정면 사진, 상기 사진 상의 전신 각각에 대응하여 기설정된 복수의 측정점 정보, 상기 사진 각각에 대응하여 생성된 골격 정보를 학습데이터로 하여,
전신 정면 사진이 입력되면 입력된 전신 정면 사진에 대응하는 측정점을 생성하도록 학습된 것이고,
상기 골격 정보는, 전신 정면 사진 상에 나타나는 인체의 관절점을 판단하고 Pose-Estimation 기술을 적용하여 생성된 것인 신체 사이즈 예측 방법.
According to claim 13,
In the step of extracting the measurement point,
The Convolutional Point Regression artificial neural network model trained to generate a plurality of measurement points in the frontal photograph is performed,
The Convolutional Point Regression artificial neural network model,
Using a plurality of full-body frontal photographs, a plurality of measurement point information preset corresponding to each of the whole body on the photograph, and skeletal information generated corresponding to each of the photographs as learning data,
When a full-body frontal photograph is input, it is learned to create a measurement point corresponding to the input full-body frontal photograph,
The skeletal information is generated by determining the joint points of the human body appearing on the frontal photograph of the body and applying Pose-Estimation technology.
제13항에 있어서,
상기 Convolutional Point Regression 인공신경망 모델은,
상기 복수의 측정점 간의 상대 위치(전역적 특징)를 학습하는 전역적 특징 학습부; 및
상기 골격 정보를 기초로 판단된 특정 신체 부위와 해당 신체 부위에 대응하는 측정점의 상대 위치(국소적 특징)를 학습하는 국소적 특징 학습부를 포함하고,
상기 전역적 특징과 상기 국소적 특징이 반영된 측정점을 생성하도록 설계된 신체 사이즈 예측 방법.
According to claim 13,
The Convolutional Point Regression artificial neural network model,
a global feature learning unit learning relative positions (global features) between the plurality of measurement points; and
A local feature learning unit for learning relative positions (local features) of a specific body part determined based on the skeletal information and a measurement point corresponding to the corresponding body part;
A body size prediction method designed to generate a measurement point in which the global feature and the local feature are reflected.
KR1020210167683A 2021-11-29 2021-11-29 Apparatus and method for estimating body size based on full body picture and height using deep learning KR20230080191A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210167683A KR20230080191A (en) 2021-11-29 2021-11-29 Apparatus and method for estimating body size based on full body picture and height using deep learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210167683A KR20230080191A (en) 2021-11-29 2021-11-29 Apparatus and method for estimating body size based on full body picture and height using deep learning

Publications (1)

Publication Number Publication Date
KR20230080191A true KR20230080191A (en) 2023-06-07

Family

ID=86762317

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210167683A KR20230080191A (en) 2021-11-29 2021-11-29 Apparatus and method for estimating body size based on full body picture and height using deep learning

Country Status (1)

Country Link
KR (1) KR20230080191A (en)

Similar Documents

Publication Publication Date Title
US10621779B1 (en) Artificial intelligence based generation and analysis of 3D models
CN107194987B (en) Method for predicting human body measurement data
US11017547B2 (en) Method and system for postural analysis and measuring anatomical dimensions from a digital image using machine learning
CA3097712C (en) Systems and methods for full body measurements extraction
US10699108B1 (en) Body modeling and garment fitting using an electronic device
US8655053B1 (en) Body modeling and garment fitting using an electronic device
EP3745352B1 (en) Methods and systems for determining body measurements and providing clothing size recommendations
US20160188962A1 (en) Calculation device and calculation method
US20130179288A1 (en) Collecting and using anthropometric measurements
CN107111833A (en) Quick 3D model adaptations and anthropological measuring
Tian et al. Predicting 3D body shape and body composition from conventional 2D photography
Ballester et al. Data-driven three-dimensional reconstruction of human bodies using a mobile phone app
US20200074667A1 (en) Clothing Size Determination Systems and Methods of Use
Chiu et al. Comparison of depth cameras for three-dimensional reconstruction in medicine
Ballester et al. 3D human models from 1D, 2D and 3D inputs: Reliability and compatibility of body measurements
Lu et al. Accurate nonrigid 3d human body surface reconstruction using commodity depth sensors
Chi et al. A new parametric 3D human body modeling approach by using key position labeling and body parts segmentation
JP7136344B2 (en) Camera calibration method, camera and program
KR20230080191A (en) Apparatus and method for estimating body size based on full body picture and height using deep learning
US20210390727A1 (en) System and method of use of augmented reality in measuring body circumference for the use of apparel production
KR20230043341A (en) Method for providing user-customized clothing recommendation service
KR20230043343A (en) System for virtual fitting service based on body size
KR20230043347A (en) Method for providing fitting service using 3D modeling avatar
KR20230043346A (en) System for virtual fashion item-based 3D content service platform
Alemany et al. 3D body modelling and applications

Legal Events

Date Code Title Description
A201 Request for examination