WO2023090601A1 - User terminal and method for providing body shape information for each body part of user - Google Patents

User terminal and method for providing body shape information for each body part of user Download PDF

Info

Publication number
WO2023090601A1
WO2023090601A1 PCT/KR2022/013223 KR2022013223W WO2023090601A1 WO 2023090601 A1 WO2023090601 A1 WO 2023090601A1 KR 2022013223 W KR2022013223 W KR 2022013223W WO 2023090601 A1 WO2023090601 A1 WO 2023090601A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
image
information
user terminal
dimensional image
Prior art date
Application number
PCT/KR2022/013223
Other languages
French (fr)
Korean (ko)
Inventor
염세경
김창균
김민지
Original Assignee
동국대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동국대학교 산학협력단 filed Critical 동국대학교 산학협력단
Publication of WO2023090601A1 publication Critical patent/WO2023090601A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0033Features or image-related aspects of imaging apparatus classified in A61B5/00, e.g. for MRI, optical tomography or impedance tomography apparatus; arrangements of imaging apparatus in a room
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1072Measuring physical dimensions, e.g. size of the entire body or parts thereof measuring distances on the body, e.g. measuring length, height or thickness
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices

Abstract

A user terminal according to an embodiment of the present invention may comprise: a camera unit which captures images of a user to acquire a front two-dimensional image and a side two-dimensional image of the user; a control unit which generates a three-dimensional image of each body part of the user by using the front two-dimensional image and the side two-dimensional image; and an interface unit which provides body shape information for each body part of the user on the basis of the three-dimensional image of each body part.

Description

사용자 단말기 및 사용자의 신체 부위 별 체형 정보를 제공하는 방법Method for providing body type information for each user terminal and user's body part
본 발명은 사용자 단말기 및 사용자의 신체 부위 별 체형 정보를 제공하는 방법에 관한 것이다.The present invention relates to a user terminal and a method for providing body shape information for each body part of a user.
최근, 사람들이 건강에 대해 관심을 많이 가지기 시작하였으며, 헬스케어 및 셀프케어에 대한 관심도 함께 증가하였다. 셀프케어란, 자기 스스로 자신의 건강을 진단하고 관리하며, 스스로 정보를 수집하고 필요 시 전문가의 도움을 받는 방법을 의미한다. Recently, people have begun to pay much attention to health, and interest in health care and self-care has also increased. Self-care refers to a method of diagnosing and managing one's own health, collecting information on one's own, and receiving professional help when necessary.
사용자는 단말기를 통해 셀프케어 관련 서비스를 이용하고 있으며, 최근에는 인공지능을 활용한 기술이 발전됨에 따라, 셀프케어를 고도화하는 스마트 헬스케어 서비스가 제공되고 있다. Users are using self-care related services through terminals, and as technology using artificial intelligence has recently developed, smart healthcare services that enhance self-care are being provided.
기존의 셀프케어 서비스는 사용자의 체중 조절, 비만관리와 같은 서비스를 제공하지만, 기존의 서비스를 통해 제공되는 데이터는 단순히 BMI(Body Mass Index)와 같은 키 대비 몸무게의 비중 또는 몸무게와 같은 단순한 수치 데이터일 뿐이다. 이와 같이, 키 대비 몸무게의 비중 또는 몸무게와 같은 단순 수치 데이터 만으로는 사용자의 상세한 건강상태를 평가하는 것에 한계가 있다. 특히, 건강을 위해서는 '체중조절' 보다는 '체형관리'가 더 중요하다는 인식이 대두되고 있으며, 체형관리에 대한 연구가 많이 진행되고 있으나, 현재까지의 셀프케어 서비스는 적합한 체형 정보를 제공하는 것에 한계가 존재한다. Existing self-care services provide services such as weight control and obesity management for users, but the data provided through existing services is simply numerical data such as weight-to-height ratio such as BMI (Body Mass Index) or weight. only one In this way, there is a limit to evaluating the user's detailed health condition only with simple numerical data such as weight-to-height ratio or body weight. In particular, there is a growing awareness that 'body shape management' is more important than 'weight control' for health, and many studies on body shape management are being conducted, but self-care services so far have been limited in providing appropriate body shape information. exists.
따라서, 자신의 체형을 인지할 수 있고, 이를 통해 자신의 체형을 관리함으로써, 보다 체계적인 건강관리를 할 수 있도록 도와주는 서비스를 사용자에게 제공하는 것이 필요하다. 하지만, 사용자의 체형을 직접 측정하는 것은 시간과 비용이 많이 든다는 단점이 있다. Therefore, it is necessary to provide users with a service that helps them to manage their own body shape more systematically by recognizing their own body shape and managing their own body shape through this. However, directly measuring the user's body shape has a disadvantage in that it takes a lot of time and money.
이를 위해, 외부 카메라를 이용하여 사용자를 촬영하고, 촬영된 사용자의 신체를 이용해 3차원 모델을 만들어 사용자에게 데이터를 제공해 줌으로써, 기존의 BMI (body mass index)와 같은 지표로 측정할 수 없는 체형정보에 대해 측정할 수 있어, 이를 통해 사용자의 체형 및 비만진단을 할 수 있고, 표준 신체 모델과의 비교를 통하여 보다 개인화된 헬스케어 서비스를 제공할 수도 있다. To this end, a user is photographed using an external camera, and a 3D model is created using the photographed user's body to provide data to the user, thereby providing body shape information that cannot be measured with indicators such as BMI (body mass index). can be measured, through which the user's body shape and obesity can be diagnosed, and more personalized healthcare services can be provided through comparison with standard body models.
한편, 3차원 신체 모델링을 위해서 기존에는 카메라를 이용해 다각도로 촬영된 신체 이미지를 합성하여 신체를 3차원 모델링 하거나, 3차원 카메라를 이용해 촬영 및 전처리를 통해 3차원 모델링을 할 수 있고, 3차원 스캔 장비를 활용해 사용자의 신체를 스캔해 신체를 모델링할 수도 있다. 다만, 이러한 방법은 비용이 많이 들며, 공간적 시간적 비용이 드는 단점이 있다.On the other hand, for 3D body modeling, the body can be 3D modeled by synthesizing body images taken from various angles using a camera, or 3D modeling can be performed through shooting and preprocessing using a 3D camera, and 3D scanning It is also possible to use the equipment to scan the user's body and model the body. However, this method has a disadvantage in that it is costly and requires space and time costs.
본 발명은, 사용자에 대한 정면 2차원 이미지와 측면 2차원 이미지를 활용함으로써, 사용자의 신체 부위 별 체형 정보를 제공하기 위한 것이다.An object of the present invention is to provide body shape information for each body part of a user by utilizing a front two-dimensional image and a side two-dimensional image of the user.
본 발명의 일 실시예에 따른 사용자의 신체 부위 별 체형 정보를 제공하는 사용자 단말기는, 상기 사용자를 촬영하여 상기 사용자에 대한 정면 2차원 이미지 및 측면 2차원 이미지를 획득하는 카메라부; 상기 정면 2차원 이미지 및 상기 측면 2차원 이미지를 이용하여 상기 사용자의 신체 부위 별 3차원 이미지를 생성하는 제어부; 및 상기 신체 부위 별 3차원 이미지에 기반하여 상기 사용자의 신체 부위 별 체형 정보를 제공하는 인터페이스부를 포함할 수 있다. According to an embodiment of the present invention, a user terminal providing body shape information for each body part of a user includes a camera unit that photographs the user and obtains a front two-dimensional image and a side two-dimensional image of the user; a control unit generating a 3D image for each part of the user's body using the front 2D image and the side 2D image; and an interface unit providing body shape information for each body part of the user based on the 3D image for each body part.
상기 제어부는, 상기 정면 2차원 이미지 및 상기 측면 2차원 이미지 각각에서 배경 부분이 삭제된 이미지를 이용하여 상기 신체 부위별 3차원 이미지를 생성하는 것을 특징으로 할 수 있다. The control unit may generate a 3D image for each body part using an image from which a background part is deleted from each of the front 2D image and the side 2D image.
상기 제어부는, 상기 정면 2차원 이미지 및 상기 측면 2차원 이미지 각각에 대하여 각각 3차원 모델링을 수행하여 정면 3차원 이미지 및 측면 3차원 이미지를 생성하고, 상기 정면 3차원 이미지 및 상기 측면 3차원 이미지 각각을 상기 사용자의 신체 부위 별로 분할하며, 분할된 정면 3차원 이미지들 및 분할된 측면 3차원 이미지들을 상기 사용자의 신체 부위 별로 각각 합성하고, 합성된 부위 별 3차원 이미지들을 이용하여 상기 사용자의 신체 부위 별 체형 정보를 상기 인터페이스부를 통해 제공하는 것을 특징으로 할 수 있다. The control unit generates a front 3D image and a side 3D image by performing 3D modeling on each of the front 2D image and the side 2D image, respectively, and the front 3D image and the side 3D image, respectively. is divided by body part of the user, the divided front 3D images and the divided side 3D images are synthesized for each part of the user's body, and the 3D images for each part are synthesized to use the body part of the user. It may be characterized in that the information on each body type is provided through the interface unit.
상기 제어부는 AI(Artificial Intelligence) 프로세서를 포함하며, 상기 AI 프로세서는, 상기 사용자의 신체 부위를 분할하는 기준 영역을 지도 학습 기법에 따라 학습하고, 상기 제어부는, 상기 AI 프로세서로부터 제공되는 상기 기준 영역에 기반하여 상기 사용자의 신체 부위를 구분하는 것을 특징으로 할 수 있다. The control unit includes an artificial intelligence (AI) processor, the AI processor learns a reference area for dividing the body part of the user according to a supervised learning technique, and the control unit includes the reference area provided from the AI processor. It may be characterized in that the user's body part is distinguished based on.
상기 인터페이스부는 상기 사용자의 신체 사이즈 정보를 획득하고, 상기 제어부는, 상기 합성된 부위 별 3차원 이미지들을 통합하고, 통합된 3차원 이미지를 상기 신체 사이즈 정보를 이용하여 수정하며, 상기 통합된 3차원 이미지를 이용하여 상기 사용자의 신체 부위 별 체형 정보를 획득하는 것을 특징으로 할 수 있다. The interface unit obtains body size information of the user, the control unit integrates the synthesized 3D images for each part, corrects the integrated 3D image using the body size information, and It may be characterized in that body type information for each body part of the user is obtained using an image.
상기 신체 사이즈 정보는 상기 사용자의 키에 대한 정보 또는 몸무게에 대한 정보를 포함하며, 상기 제어부는, 상기 신체 사이즈 정보에 기반하여 상기 통합된 3차원 이미지의 높이, 폭 또는 너비를 조정하는 것을 특징으로 할 수 있다. The body size information includes information about the user's height or weight, and the control unit adjusts the height, width, or width of the integrated 3D image based on the body size information. can do.
상기 사용자의 신체 부위 별 체형 정보는 상기 사용자의 신체 부위 별 부피에 대한 정보 또는 둘레의 길이에 대한 정보를 포함하는 것을 특징으로 할 수 있다. The body shape information for each body part of the user may include information about a volume or information about a circumference of each part of the user's body.
본 발명의 다른 일 실시예에 따른 사용자의 신체 부위 별 체형 정보 제공 방법은, 상기 사용자를 촬영하여 상기 사용자에 대한 정면 2차원 이미지 및 측면 2차원 이미지를 획득하는 단계; 상기 정면 2차원 이미지 및 상기 측면 2차원 이미지를 이용하여 상기 사용자의 신체 부위 별 3차원 이미지를 생성하는 단계; 및 상기 신체 부위 별 3차원 이미지에 기반하여 상기 사용자의 신체 부위 별 체형 정보를 제공하는 단계를 포함할 수 있다. A method for providing body shape information for each body part of a user according to another embodiment of the present invention includes acquiring a front two-dimensional image and a side two-dimensional image of the user by photographing the user; generating a 3D image for each body part of the user using the front 2D image and the side 2D image; and providing body shape information for each body part of the user based on the 3D image for each body part.
상기 사용자의 신체 부위 별 3차원 이미지를 생성하는 단계는, 상기 정면 2차원 이미지 및 상기 측면 2차원 이미지 각각에서 배경 부분이 삭제된 이미지를 이용하여 상기 신체 부위별 3차원 이미지를 생성하는 것을 특징으로 할 수 있다. The generating of the 3D image for each body part of the user comprises generating a 3D image for each body part using an image from which a background part is deleted from each of the front 2D image and the side 2D image. can do.
상기 사용자의 신체 부위 별 3차원 이미지를 생성하는 단계는, 상기 정면 2차원 이미지 및 상기 측면 2차원 이미지 각각에 대하여 각각 3차원 모델링을 수행하여 정면 3차원 이미지 및 측면 3차원 이미지를 생성하는 단계, 상기 정면 3차원 이미지 및 상기 측면 3차원 이미지 각각을 상기 사용자의 신체 부위 별로 분할하는 단계, 분할된 정면 3차원 이미지들 및 분할된 측면 3차원 이미지들을 상기 사용자의 신체 부위 별로 각각 합성하는 단계, 및 합성된 부위 별 3차원 이미지들을 이용하여 상기 사용자의 신체 부위 별 체형 정보를 상기 인터페이스부를 통해 제공하는 단계를 포함하는 것을 특징으로 할 수 있다. In the generating of the 3D image for each part of the user's body, 3D modeling is performed on each of the front 2D image and the side 2D image to generate a front 3D image and a side 3D image; Segmenting each of the front 3D image and the side 3D image for each body part of the user, synthesizing the divided front 3D images and the divided side 3D images for each part of the user's body, and and providing body shape information for each body part of the user through the interface unit using the synthesized 3D images for each part.
상기 분할하는 단계는, 상기 사용자의 신체 부위를 분할하는 기준 영역을 지도 학습 기법에 따라 학습하는 단계, 및 상기 기준 영역에 기반하여 상기 사용자의 신체 부위를 구분하는 단계를 포함하는 것을 특징으로 할 수 있다. The dividing may include learning a reference region for dividing the user's body part according to a supervised learning technique, and classifying the user's body part based on the reference region. there is.
상기 사용자의 신체 사이즈 정보를 획득하는 단계를 더 포함하고, 상기 사용자의 신체 부위 별 체형 정보를 제공하는 단계는, 상기 합성된 부위 별 3차원 이미지들을 통합하는 단계, 통합된 3차원 이미지를 상기 신체 사이즈 정보를 이용하여 수정하는 단계, 및 상기 통합된 3차원 이미지를 이용하여 상기 사용자의 신체 부위 별 체형 정보를 획득하는 단계를 포함하는 것을 특징으로 할 수 있다. The step of obtaining body size information of the user may further include, and the step of providing the body shape information for each part of the user's body may include integrating the synthesized 3D images for each part, and converting the integrated 3D image into the body part. It may be characterized by including the step of correcting using size information, and the step of acquiring body shape information for each body part of the user using the integrated 3D image.
상기 신체 사이즈 정보는 상기 사용자의 키에 대한 정보 또는 몸무게에 대한 정보를 포함하며, 상기 수정하는 단계는, 상기 신체 사이즈 정보에 기반하여 상기 통합된 3차원 이미지 높이, 폭 또는 너비를 조정하는 것을 특징으로 할 수 있다. The body size information includes information on height or weight of the user, and the modifying step is to adjust the height, width or width of the integrated 3D image based on the body size information. can be done with
상기 사용자의 신체 부위 별 체형 정보는 상기 사용자의 신체 부위 별 부피에 대한 정보 또는 둘레의 길이에 대한 정보를 포함하는 것을 특징으로 할 수 있다.The body shape information for each body part of the user may include information about a volume or information about a circumference of each part of the user's body.
본 발명에 의하면, 배경을 삭제한 이미지를 활용하기 때문에, 보다 더 정확한 체형 정보 획득이 가능하다. According to the present invention, since an image from which a background has been deleted is used, it is possible to obtain more accurate body shape information.
또한, 본 발명에 의하면, 별도로 고가의 스캐닝 장비 없이 단순히 2차원 영상을 촬영할 수 있는 카메라 장비 만으로도 사용자의 체형 정보를 제공할 수 있어, 저렴한 비용으로 셀프케어 서비스를 제공하는 것이 가능하다.In addition, according to the present invention, it is possible to provide a user's body shape information with only a camera device capable of taking a 2D image without a separate expensive scanning device, and thus it is possible to provide a self-care service at low cost.
또한, 본 발명에 의하면, 모바일 단말기만 구비된다면 장소에 구애받지 않고 사용자의 신체 변화를 확인할 수 있고, 이에 따라 사용자는 언제든지 체형관리 서비스를 받을 수 있다. In addition, according to the present invention, as long as the mobile terminal is equipped, it is possible to check the user's body change regardless of location, and accordingly, the user can receive the body shape management service at any time.
도 1은 본 발명의 일 실시예에서 사용자 단말기가 사용자의 신체 부위 별 체형정보를 제공하는 방법을 나타낸 흐름도이다. 1 is a flowchart illustrating a method for a user terminal to provide body shape information for each body part of a user according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에서 사용자의 신체 부위 별 체형정보를 제공하기 위한 사용자 단말기 및 외부 구성 요소들을 도시한 도면이다.2 is a diagram illustrating a user terminal and external components for providing body shape information for each body part of a user according to an embodiment of the present invention.
도 3은 사용자 단말기가 체형정보를 생성하기 위해 필요한 정보를 획득하는 상세한 과정을 도시한 흐름도이다. 3 is a flowchart illustrating a detailed process of obtaining information necessary for a user terminal to generate body shape information.
도 4는 사용자로부터 정면 2차원 이미지 및 측면 2차원 이미지를 획득하는 과정을 도시한다. 4 illustrates a process of acquiring a front 2D image and a side 2D image from a user.
도 5는 사용자 단말기가 2차원 이미지를 이용하여 신체 부위 별 3차원 이미지를 획득하는 상세한 과정을 도시한 흐름도이다. 5 is a flowchart illustrating a detailed process in which a user terminal obtains a 3D image for each body part using a 2D image.
도 6은 배경이 제거된 정면/측면 2차원 이미지를 도시한다.6 shows a front/side two-dimensional image with the background removed.
도 7은 정면/측면 2차원 이미지에 대한 3차원 모델링의 결과를 도시한다.7 shows the result of 3D modeling for a front/side 2D image.
도 8은 신체 부위 별로 분리된 3차원 이미지를 도시한다.8 shows 3D images separated for each body part.
도 9는 정면/측면 3차원 이미지를 이용하여 신체 부위 별 체형정보를 생성하는 상세한 과정을 도시한 흐름도이다.9 is a flowchart illustrating a detailed process of generating body shape information for each body part using front/side 3D images.
도 10 및 도 11은 부위 별 3차원 이미지를 합성하는 과정을 도시한다. 10 and 11 illustrate a process of synthesizing 3D images for each part.
도 12는 전체 3차원 이미지를 리사이징하는 과정을 도시한다.12 shows a process of resizing an entire 3D image.
도 13은 리사이징된 전체 3차원 이미지에서 체형정보를 도출하는 예를 도시한다.13 illustrates an example of deriving body type information from a resized entire 3D image.
도 14는 체형정보를 제공하는 하나의 예를 도시한다.14 shows an example of providing body type information.
이하에서 설명되는 모든 실시 예들은 본 발명의 이해를 돕기 위해 예시적으로 나타낸 것이며, 여기에 설명된 실시 예들과 다르게 변형되어 다양한 실시 형태로 실시될 수 있다. 또한, 본 발명을 설명함에 있어서, 관련된 공지 기능 혹은 공지 구성요소에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우, 그 구체적인 설명은 생략하도록 한다.All embodiments described below are shown by way of example to help understanding of the present invention, and may be modified differently from the embodiments described herein and implemented in various embodiments. In addition, in describing the present invention, if it is determined that a detailed description of a related known function or known component may unnecessarily obscure the gist of the present invention, the detailed description will be omitted.
첨부된 도면은 발명의 이해를 돕기 위해서 실제 축척대로 도시된 것이 아니라 일부 구성요소의 치수가 과장되게 도시될 수 있으며, 각 구성요소들에 참조번호를 기재할 때, 동일한 구성요소들에 대해서는 다른 도면에 표시되더라도 가능한 한 동일한 부호로 표시하였다.The accompanying drawings are not drawn to scale in order to help the understanding of the invention, but the dimensions of some components may be exaggerated, and when reference numerals are given to each component, the same components are shown in different drawings. Even if it is displayed in , it is indicated with the same code as much as possible.
또한, 본 발명의 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 '연결', '결합' 또는 '접속'된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결, 결합 또는 접속될 수 있지만, 그 구성 요소와 그 다른 구성요소 사이에 또 다른 구성 요소가 '연결', '결합' 또는 '접속'될 수도 있다고 이해되어야 할 것이다.Also, terms such as first, second, A, B, (a), and (b) may be used to describe components of an embodiment of the present invention. These terms are only used to distinguish the component from other components, and the nature, order, or order of the corresponding component is not limited by the term. When an element is described as being 'connected', 'coupled' or 'connected' to another element, the element may be directly connected, coupled or connected to the other element, but not between the element and the other element. It should be understood that another component may be 'connected', 'coupled' or 'connected' between elements.
따라서, 본 명세서에 기재된 실시 예와 도면에 도시된 구성은 본 발명의 가장 바람직한 실시 예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 발명에 대한 다양한 변형 실시 예들이 있을 수 있다. Therefore, the embodiments described in this specification and the configurations shown in the drawings are only the most preferred embodiments of the present invention and do not represent all of the technical spirit of the present invention, so there may be various modified embodiments of the present invention. .
그리고, 본 명세서 및 청구범위에서 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정되어서는 안되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.In addition, the term or word used in the present specification and claims should not be limited to the usual or dictionary meaning, and the inventor can properly define the concept of the term in order to explain his/her invention in the best way. Based on the principle, it should be interpreted as a meaning and concept consistent with the technical idea of the present invention.
또한, 본 출원에서 사용된 단수의 표현은 문맥상 명백히 다른 것을 뜻하지 않는 한, 복수의 표현을 포함한다.Also, singular expressions used in this application include plural expressions unless the context clearly indicates otherwise.
도 1은 본 발명의 일 실시예에서 사용자 단말기가 사용자의 신체 부위 별 체형정보를 제공하는 방법을 나타낸 흐름도이다. 1 is a flowchart illustrating a method for a user terminal to provide body shape information for each body part of a user according to an embodiment of the present invention.
도 1에 도시된 바와 같이, 신체 부위 별 체형정보를 제공하는 방법(S100)은 S110 단계, S130 단계 및 S150 단계를 포함하며, 상세한 설명은 하기와 같다.As shown in FIG. 1 , the method of providing body type information for each body part (S100) includes steps S110, S130, and S150, and a detailed description is as follows.
먼저, 사용자 단말기는 사용자의 정면 2차원 이미지 및 측면 2차원 이미지를 촬영할 수 있다(S110).First, the user terminal may capture a front two-dimensional image and a side two-dimensional image of the user (S110).
여기서, 2차원 이미지는 사용자 또는 다른 사용자의 입력에 따라 촬영될 수 있으며, 사용자 단말기에 포함된 카메라에 의해 촬영될 수 있고, 촬영된 이미지는 사용자 단말기에 포함된 제어부(또는 프로세서)로 전달될 수 있다. 상세한 설명은 후술한다.Here, the 2D image may be captured according to a user or another user's input, may be captured by a camera included in the user terminal, and the captured image may be transmitted to a control unit (or processor) included in the user terminal. there is. A detailed description will be given later.
이어서, 사용자 단말기는 사용자의 정면/측면을 촬영하여 획득한 2차원 이미지를 이용하여 사용자의 신체 부위 별 3차원 이미지를 획득할 수 있다(S130).Subsequently, the user terminal may obtain a 3D image for each part of the user's body using the 2D image obtained by photographing the front/side of the user (S130).
여기서, 사용자 단말기의 제어부는 정면 2차원 이미지 및 측면 2차원 이미지를 공지된 알고리즘을 이용하여 3차원 모델링하고, 모델링한 결과를 기반으로 사용자의 신체 부위 별로 구분된 형태의 3차원 이미지를 생성할 수 있다. 상세한 설명은 후술한다. Here, the control unit of the user terminal may perform 3D modeling of the front 2D image and the lateral 2D image using a known algorithm, and based on the modeling result, generate a 3D image in a form classified for each part of the user's body. there is. A detailed description will be given later.
그 다음, 사용자 단말기는 신체 부위 별로 생성된 3차원 이미지에 기반하여 신체 부위 별로 체형 정보를 사용자에게 제공할 수 있다(S150).Next, the user terminal may provide the user with body shape information for each body part based on the 3D image generated for each body part (S150).
여기서, 사용자 단말기는 디스플레이 또는 터치 스크린을 포함할 수 있으며, 디스플레이 또는 터치 스크린을 통해 이미지 형태로 신체 부위 별 체형정보를 출력할 수 있다. 상세한 설명은 후술한다. Here, the user terminal may include a display or a touch screen, and may output body shape information for each body part in the form of an image through the display or touch screen. A detailed description will be given later.
도 2는 본 발명의 일 실시예에서 사용자의 신체 부위 별 체형정보를 제공하기 위한 사용자 단말기 및 외부 구성 요소들을 도시한 도면이다.2 is a diagram illustrating a user terminal and external components for providing body shape information for each body part of a user according to an embodiment of the present invention.
도 2에 도시된 바와 같이, 사용자 단말기(200)는 사용자로부터의 입력에 기반하여 생성된 신체 부위 별 체형정보를 사용자 및 외부 장치에 제공할 수 있다. 아래에서는 서버를 외부 장치의 예로 들어 설명하지만, 반드시 이에 한정될 필요는 없다. As shown in FIG. 2 , the user terminal 200 may provide body shape information for each body part generated based on an input from the user to the user and an external device. The server is described below as an example of an external device, but is not necessarily limited thereto.
사용자 단말기는 컴퓨터 장치로 구현되는 고정형 단말기이거나, 이동형 단말기일 수 있다. 사용자 단말기는 예를 들어, 스마트폰, 컴퓨터, 노트북, 태블릿 PC 등일 수 있으나, 반드시 이에 한정될 필요는 없다. The user terminal may be a fixed terminal implemented as a computer device or a mobile terminal. The user terminal may be, for example, a smart phone, a computer, a laptop computer, a tablet PC, and the like, but is not necessarily limited thereto.
사용자 단말기는 무선 또는 유선 통신 방식을 이용하여 통신망을 통해 서버(외부 장치)와 통신할 수 있다. The user terminal may communicate with a server (external device) through a communication network using a wireless or wired communication method.
서버(외부 장치)는 사용자 단말기로부터 수신한 정보를 기초로 연산을 수행하고, 사용자 단말기에 파일, 콘텐츠, 서비스 등을 제공하는 컴퓨터 장치로 구현될 수 있다. The server (external device) may be implemented as a computer device that performs calculations based on information received from a user terminal and provides files, contents, services, and the like to the user terminal.
또한, 다른 실시예들에서, 사용자 단말기 및 서버는 도 2의 구성요소들보다 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 사용자 단말기는 상술한 인터페이스부 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(Transceiver), GPS(Global Positioning System) 모듈, 카메라, 각종 센서, 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.Also, in other embodiments, the user terminal and server may include more components than those of FIG. 2 . However, there is no need to clearly show most of the prior art components. For example, the user terminal may be implemented to include at least some of the above-described interface units or may further include other components such as a transceiver, a Global Positioning System (GPS) module, a camera, various sensors, and a database. .
사용자 단말기는 인터페이스부(210), 제어부(220) 및 통신부(230)를 포함할 수 있다. The user terminal may include an interface unit 210 , a control unit 220 and a communication unit 230 .
인터페이스부(210)는 사용자로부터 입력을 수신하기 위한 입/출력부(211)를 포함할 수 있다. 입/출력부의 예로서, 터치 스크린(212)이 포함될 수 있으나, 반드시 이에 한정될 필요는 없다. The interface unit 210 may include an input/output unit 211 for receiving an input from a user. As an example of the input/output unit, the touch screen 212 may be included, but is not necessarily limited thereto.
인터페이스부는 사용자를 센싱하기 위한 센서부(221)를 포함할 수 있다. 구체적으로, 센서부는 사용자의 촬영하기 위한 카메라(222)를 포함할 수 있다. The interface unit may include a sensor unit 221 for sensing a user. Specifically, the sensor unit may include a camera 222 for photographing the user.
카메라는 사용자의 정면을 촬영하여 정면 2차원 이미지를 획득하거나, 사용자의 측면을 촬영하여 측면 2차원 이미지를 획득할 수 있다. 카메라, 센서부 또는 인터페이스부는 획득한 정면 2차원 이미지 또는 측면 2차원 이미지를 제어부로 전달할 수 있다. 카메라는 제어부로부터 전달되는 촬영 명령에 따라 사용자 또는 외부 객체를 촬영할 수 있다. 제어부의 촬영 명령은 입/출력부에 의해 검출되는 외부 입력 또는 외부 장치로부터 수신되는 외부 명령에 기반하여 생성될 수 있다. The camera may acquire a front 2D image by photographing the front of the user or a side 2D image by photographing the side of the user. The camera, sensor unit or interface unit may transmit the acquired front 2D image or side 2D image to the controller. The camera may photograph a user or an external object according to a photographing command transmitted from the controller. The shooting command of the control unit may be generated based on an external input detected by the input/output unit or an external command received from an external device.
인터페이스부는 예를 들어 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 3차원으로 모델링 된 의상을 표시하기 위한 디스플레이와 같은 장치를 포함할 수 있다.The interface unit may include, for example, a device such as a keyboard or a mouse, and the output device may include a device such as a display for displaying a 3D modeled garment.
제어부는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리 또는 통신부에 의해 제어부로 제공될 수 있다. 예를 들어 제어부는 메모리와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The control unit may be configured to process commands of a computer program by performing basic arithmetic, logic, and input/output operations. Commands may be provided to the control unit by a memory or a communication unit. For example, the controller may be configured to execute commands received according to program codes stored in a recording device such as a memory.
본 발명의 일 실시예에 따르면, 제어부는 인터페이스부로부터 전달된 정면 2차원 이미지 및/또는 측면 2차원 이미지를 이용하여 사용자의 신체 부위 별 체형 정보를 생성할 수 있고, 생성된 신체 부위 별 체형 정보를 사용자 또는 외부 장치를 통해 제공할 수 있다. 상세한 설명은 후술한다. According to an embodiment of the present invention, the controller may generate body shape information for each body part of the user using the front 2D image and/or the side 2D image transmitted from the interface unit, and the generated body shape information for each body part may be provided through a user or an external device. A detailed description will be given later.
여기서, 제어부는 사용자의 신체를 부위 별로 분리 구분하기 위한 AI(Artificial Intelligence) 프로세서(221)를 포함할 수 있다. 예를 들어, 사용자의 신체를 구분하기 위해, AI 프로세서는 지도 학습 또는 비지도 학습 방법에 따라 사용자의 신체 부위를 학습할 수 있다. Here, the control unit may include an AI (Artificial Intelligence) processor 221 for separating and classifying the user's body for each part. For example, in order to classify the user's body, the AI processor may learn the user's body part according to a supervised learning method or an unsupervised learning method.
통신부는 사용자 단말기와 외부 장치(서버)가 서로 통신하기 위한 기능을 제공할 수 있으며, 다른 사용자 단말기 또는 다른 서버(미도시)와 통신하기 위한 기능을 제공할 수 있다. 일례로, 사용자 단말기의 제어부가 메모리와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이 통신부의 제어에 따라 외부 장치로 전달될 수 있다. 역으로, 외부 장치의 프로세서의 제어에 따라 제공되는 제어 신호나 명령, 콘텐츠, 파일 등이 통신부를 거쳐 사용자 단말기의 통신부를 통해 사용자 단말기로 수신될 수 있다.The communication unit may provide a function for communication between the user terminal and an external device (server), and may provide a function for communication with another user terminal or another server (not shown). For example, a request generated by a controller of a user terminal according to a program code stored in a recording device such as a memory may be transmitted to an external device under control of a communication unit. Conversely, control signals, commands, contents, files, etc. provided under the control of the processor of the external device may be received by the user terminal through the communication unit of the user terminal via the communication unit.
도 2에 도시되지 않았으나, 사용자 단말기는 메모리(미도시)를 포함할 수 있다. 메모리는 컴퓨터에서 판독 가능한 기록 매체로서, RAM(Random Access Memory), ROM(Read Only Memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(Permanent Mass Storage Device)를 포함할 수 있다. 또한, 메모리에는 운영체제와 적어도 하나의 프로그램 코드(일례로 사용자 단말에 설치되어 구동되는 의상의 3차원 모델링 등을 위한 코드)가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 드라이브 메커니즘(Drive Mechanism)을 이용하여 메모리와는 별도의 컴퓨터에서 판독 가능한 기록 매체로부터 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록 매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록 매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록 매체가 아닌 통신부를 통해 메모리에 로딩될 수도 있다. 예를 들어, 적어도 하나의 프로그램은 개발자들 또는 어플리케이션의 설치 파일을 배포하는 파일 배포 시스템(일례로 상술한 서버)이 제공하는 파일들에 의해 설치되는 프로그램에 기반하여 메모리에 로딩될 수 있다.Although not shown in FIG. 2, the user terminal may include a memory (not shown). The memory is a computer-readable recording medium, and may include a random access memory (RAM), a read only memory (ROM), and a permanent mass storage device such as a disk drive. In addition, an operating system and at least one program code (for example, a code for 3D modeling of clothes installed and driven in a user terminal) may be stored in the memory. These software components may be loaded from a computer-readable recording medium separate from a memory using a drive mechanism. The separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, a disk, a tape, a DVD/CD-ROM drive, and a memory card. In another embodiment, software components may be loaded into a memory through a communication unit rather than a computer-readable recording medium. For example, at least one program may be loaded into memory based on a program installed by files provided by developers or a file distribution system (for example, the above-described server) that distributes application installation files.
도 3은 사용자 단말기가 체형정보를 생성하기 위해 필요한 정보를 획득하는 상세한 과정을 도시한 흐름도이다. 3 is a flowchart illustrating a detailed process of obtaining information necessary for a user terminal to generate body shape information.
도 3에 도시된 바와 같이, 사용자 단말기가 체형정보를 생성하기 위해 필요한 정보를 획득하는 과정(S110)(도 1의 S110 단계와 동일)은 S111, S112 및 S113 단계를 포함하며, 상세한 내용은 하기와 같다. As shown in FIG. 3, the process of obtaining information necessary for the user terminal to generate body shape information (S110) (same as step S110 in FIG. 1) includes steps S111, S112, and S113. Details are as follows. Same as
먼저, 사용자 단말기는 사용자의 정면을 촬영하여 정면 2차원 이미지를 획득할 수 있다(S111). 예를 들면, 사용자의 정면은 사용자의 신체 중 얼굴 부분이 나타나있는 부분으로 정의할 수 있다. First, the user terminal may obtain a front two-dimensional image by photographing the front of the user (S111). For example, the user's front may be defined as a part of the user's body where the face appears.
그 다음, 사용자 단말기는 사용자의 측면을 촬영하여 측면 2차원 이미지를 획득할 수 있다(S112). 예를 들면, 사용자의 측면은 사용자의 신체 중 사용자의 정면 방향의 직각인 방향에서 바라본 부분으로 정의할 수 있다. Next, the user terminal may obtain a side 2D image by photographing the side of the user (S112). For example, the user's side may be defined as a part of the user's body viewed from a direction perpendicular to the user's frontal direction.
이어서, 사용자 단말기는 사용자로부터 혹은 외부 장치로부터 사용자의 신체 사이즈에 관한 정보를 획득할 수 있다(S113). 예를 들면, 사용자 단말기는 사용자 단말기에 대한 사용자의 입력 또는 외부 장치와의 통신을 통해 사용자의 신체 사이즈에 관한 정보를 획득할 수 있다. 예를 들면, 사용자의 신체 사이즈에 관한 정보는 사용자의 키 또는 사용자의 몸무게에 관한 정보를 포함할 수 있다. Subsequently, the user terminal may obtain information about the user's body size from the user or from an external device (S113). For example, the user terminal may obtain information about the user's body size through a user's input to the user terminal or communication with an external device. For example, information about the user's body size may include information about the user's height or weight.
S111, S112 및 S113 단계를 수행한 후에, 사용자 단말기는 S130 단계 및 S150 단계를 수행할 수 있으며, 상세한 내용은 후술한다. 하기에서, S111, S112 및 S113 단계에 관하여 도 4를 통해 상세히 설명한다. After performing steps S111, S112, and S113, the user terminal may perform steps S130 and S150, which will be described in detail later. In the following, steps S111, S112 and S113 will be described in detail with reference to FIG. 4 .
도 4는 사용자로부터 정면 2차원 이미지 및 측면 2차원 이미지를 획득하는 과정을 도시한다. 4 illustrates a process of acquiring a front 2D image and a side 2D image from a user.
도 4(A)에 도시된 바와 같이, 사용자 단말기는 사용자의 정면을 촬영하여 정면 2차원 이미지를 획득할 수 있다. 정면 2차원 이미지는 사용자의 정면 영역과 정면 방향 배경 영역을 모두 포함할 수 있다. As shown in FIG. 4(A), the user terminal may obtain a front 2D image by photographing the front of the user. The frontal 2D image may include both the user's frontal area and the frontal background area.
도 4(B)에 도시된 바와 같이, 사용자 단말기는 사용자의 측면을 촬영하여 측면 2차원 이미지를 획득할 수 있다. 측면 2차원 이미지는 사용자의 측면 영역과 측면 방향 배경 영역을 모두 포함할 수 있다. As shown in FIG. 4(B) , the user terminal may obtain a side 2D image by photographing the side of the user. The side 2D image may include both a side area of the user and a background area in the side direction.
도 5는 사용자 단말기가 2차원 이미지를 이용하여 신체 부위 별 3차원 이미지를 획득하는 상세한 과정을 도시한 흐름도이다. 5 is a flowchart illustrating a detailed process in which a user terminal obtains a 3D image for each body part using a 2D image.
도 5에 도시된 바와 같이, 신체 부위 별 3차원 이미지를 획득하는 과정(S130)(도 1의 S130 단계와 동일)은 S131, S132, S133, S134, S135 및 S136 단계를 포함하며, 상세한 설명은 하기와 같다.As shown in FIG. 5, the process of acquiring a 3D image for each body part (S130) (same as step S130 in FIG. 1) includes steps S131, S132, S133, S134, S135 and S136, and detailed descriptions are Same as below.
S110 단계를 수행한 이후, 사용자 단말기는 정면 2차원 이미지에 대한 프로세싱 과정인 S131, S133 및 S135 단계를 차례로 수행하면서, 측면 2차원 이미지에 대한 프로세싱 과정인 S132, 134 및 S136 단계를 차례로 수행하되, 정면 2차원 이미지에 대한 프로세싱 과정과 측면 2차원 이미지에 대한 프로세싱 과정은 동시에 수행될 수도 있다. After performing step S110, the user terminal sequentially performs steps S131, S133, and S135, which are processing steps for the front two-dimensional image, and steps S132, S134, and S136, which are processing steps for the side two-dimensional image, sequentially. The processing of the front 2D image and the processing of the lateral 2D image may be performed simultaneously.
S110 단계를 수행한 이후, 사용자 단말기는 정면 2차원 이미지(도 4(A))에서 정면 방향 배경 영역을 삭제하고 사용자의 정면 영역만 남길 수 있다. 또한, S110 단계를 수행한 이후, 사용자 단말기는 측면 2차원 이미지(도 4(B))에서 측면 방향 배경 영역을 삭제하고 사용자의 측면 영역만 남길 수 있다. 정면 2차원 이미지 및 측면 2차원 이미지에서 사람의 형태를 제외한 나머지 배경을 제거함으로써, 추후 수행될 3차원 모델링에서의 노이즈를 미리 최소화시킬 수 있으며, 이에 따라 정확도가 높은 신체 3차원 모델을 생성할 수 있다. After performing step S110, the user terminal may delete the frontal direction background area from the frontal two-dimensional image (FIG. 4(A)), leaving only the user's frontal area. Also, after performing step S110, the user terminal may delete the background area in the side direction from the side 2D image (FIG. 4(B)), leaving only the user's side area. By removing the background except for the human form from the front 2D image and the side 2D image, noise in 3D modeling to be performed later can be minimized in advance, thereby creating a 3D body model with high accuracy. there is.
그 다음, S131 단계를 수행한 이후, 사용자 단말기는 배경이 제거된 정면 2차원 이미지에 대하여 3차원 모델링을 수행할 수 있다(S133). S133 단계를 수행함으로써, 사용자 단말기는 정면 3차원 이미지를 생성할 수 있다. 또한, S132 단계를 수행한 이후, 사용자 단말기는 배경이 제거된 측면 2차원 이미지에 대하여 3차원 모델링을 수행할 수 있다(134). S134 단계를 수행함으로써, 사용자 단말기는 측면 3차원 이미지를 생성할 수 있다.Then, after performing step S131, the user terminal may perform 3D modeling on the front 2D image from which the background is removed (S133). By performing step S133, the user terminal can generate a front 3D image. Also, after performing step S132, the user terminal may perform 3D modeling on the side 2D image from which the background is removed (134). By performing step S134, the user terminal can generate a side 3D image.
정면 2차원 이미지 및 측면 2차원 이미지를 각각 정면 3차원 이미지 및 측면 3차원 이미지로 3차원 모델링하는 과정은 공지된 3차원 생성 딥러닝 방법을 변형하여 수행할 수 있다. 공지된 3차원 생성 딥러닝 방법론의 예로, PIFuHD(Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization) 알고리즘이 있으나, 이는 깊이 정보를 반영하지 못한다는 단점이 있다. 이러한 단점을 보완하기 위하여, 본 발명에서, 사용자 단말기는 정면 2차원 이미지와 측면 2차원 이미지를 모두 이용하여 3차원 모델링을 수행한다. 더 자세하게 설명하자면, 정면 2차원 이미지를 이용하여 생성된 정면 3차원 이미지는 사용자의 정면의 신체 체형 및 깊이 정보를 가지고 있고, 측면 2차원 이미지를 이용하여 생성된 측면 3차원 이미지는 사용자의 측면의 신체 체형 및 깊이 정보를 가지고 있다. 즉, 본 발명의 실시예에 따른 정면 3차원 이미지와 측면 3차원 이미지는 메쉬 형태의 데이터 셋으로 구성된다. The process of 3D modeling the front 2D image and the side 2D image into the front 3D image and the side 3D image, respectively, may be performed by modifying a known 3D generating deep learning method. As an example of a known 3D generation deep learning methodology, there is a Multi-Level Pixel-Aligned Implicit Function for High-Resolution 3D Human Digitization (PIFuHD) algorithm, but this has a disadvantage in that it does not reflect depth information. In order to compensate for this disadvantage, in the present invention, the user terminal performs 3D modeling using both the front 2D image and the side 2D image. More specifically, the frontal 3D image created using the frontal 2D image has information on the body shape and depth of the front of the user, and the side 3D image created using the side 2D image has information on the user's frontal body shape and depth. It has body shape and depth information. That is, the front 3D image and the side 3D image according to an embodiment of the present invention are composed of mesh-type data sets.
이어서, S133 단계를 수행한 이후, 사용자 단말기는 정면 3차원 이미지를 신체 부위 별로 분할할 수 있다(S135). 예를 들어, 사용자 단말기의 제어부는 제어부에 포함된 AI 프로세서를 통해 학습된 기준으로 사용자의 신체를 부위 별로 구분할 수 있다. 제어부는 구분된 사용자의 신체 부위 별로 정면 3차원 이미지를 분할할 수 있다. 또한, S134 단계를 수행한 이후, 사용자 단말기는 측면 3차원 이미지를 신체 부위 별로 분할할 수 있다(S136). 측면 3차원 이미지를 신체 부위 별로 분할하는 방법은 앞서 정면 3차원 이미지를 분할하는 방법을 설명한 내용과 동일하다. 상기와 같이, 사용자의 신체를 신체 부위 별로 분리함으로써, 추후 S150 단계에서 정면 3차원 이미지와 측면 3차원 이미지를 합성할 때 보다 정확도를 높일 수 있다. Subsequently, after performing step S133, the user terminal may divide the front 3D image for each body part (S135). For example, the control unit of the user terminal may classify the user's body part by part based on a criterion learned through an AI processor included in the control unit. The controller may divide the frontal 3D image for each part of the user's body. Also, after performing step S134, the user terminal may divide the side 3D image for each body part (S136). A method of segmenting the side 3D image for each body part is the same as the method of segmenting the frontal 3D image. As described above, by separating the user's body for each body part, accuracy can be increased more than when synthesizing the front 3D image and the side 3D image in step S150 later.
S135 단계 및 S136 단계를 수행한 이후에, 사용자 단말기는 S150 단계를 수행하며, 상세한 설명은 후술한다. After performing steps S135 and S136, the user terminal performs step S150, which will be described in detail later.
도 6은 배경이 제거된 정면/측면 2차원 이미지를 도시한다.6 shows a front/side two-dimensional image with the background removed.
도 6(A)에 도시된 바와 같이, 사용자 단말기는 정면 2차원 이미지에서 정면 방향 배경 영역을 삭제하고, 사용자의 신체 중 정면 영역(610)만을 남길 수 있다. As shown in FIG. 6(A), the user terminal may delete the frontal direction background area from the frontal 2D image, leaving only the frontal area 610 of the user's body.
도 6(B)에 도시된 바와 같이, 사용자 단말기는 측면 2차원 이미지에서 측면 방향 배경 영역을 삭제하고, 사용자의 신체 중 측면 영역(620)만을 남길 수 있다. As shown in FIG. 6B , the user terminal may delete the background area in the side direction from the side 2D image, leaving only the side area 620 of the user's body.
앞서 설명한 바와 같이, 정면/측면 2차원 이미지로부터 배경 영역을 삭제함으로써, 추후 수행되는 3차원 모델의 정확도를 더욱 높일 수 있다. As described above, by deleting the background area from the front/side 2D image, accuracy of a 3D model to be performed later can be further increased.
도 7은 정면/측면 2차원 이미지에 대한 3차원 모델링의 결과를 도시한다.7 shows the result of 3D modeling for a front/side 2D image.
도 7(A)에 도시된 바와 같이, 사용자 단말기는 배경이 제거된 정면 2차원 이미지에 대하여 3차원 모델링을 수행하여 정면 3차원 이미지(710)를 획득할 수 있다. 여기서, 정면 3차원 이미지는 사용자의 신체 중 정면의 체형에 관한 정보 및 정면 방향의 깊이에 관한 정보를 포함한다. As shown in FIG. 7(A), the user terminal may obtain a front 3D image 710 by performing 3D modeling on the front 2D image from which the background is removed. Here, the frontal 3D image includes information about the frontal body shape of the user's body and information about the depth in the frontal direction.
도 7(B)에 도시된 바와 같이, 사용자 단말기는 배경이 제거된 측면 2차원 이미지에 대하여 3차원 모델링을 수행하여 측면 3차원 이미지(720)를 획득할 수 있다. 여기서, 측면 3차원 이미지는 사용자의 신체 중 측면의 체형에 관한 정보 및 측면 방향의 깊이에 관한 정보를 포함한다.As shown in FIG. 7B , the user terminal may obtain a side 3D image 720 by performing 3D modeling on the side 2D image from which the background is removed. Here, the side 3D image includes information about the body shape of the side of the user's body and information about the depth in the side direction.
도 8은 신체 부위 별로 분리된 3차원 이미지를 도시한다.8 shows 3D images separated for each body part.
도 8(A)에 도시된 바와 같이, 사용자 단말기는 생성된 정면 3차원 이미지(810)를 AI 프로세서에 의해 학습된 기준에 기반하여 신체 부위 별로 분할할 수 있다. 예를 들어, 사용자 단말기는 정면 3차원 이미지를 오른쪽팔 정면 3차원 이미지(811), 왼쪽팔 정면 3차원 이미지(812), 몸통 정면 3차원 이미지(813), 오른쪽다리 정면 3차원 이미지(814), 왼쪽다리 정면 3차원 이미지(815) 부분으로 분할할 수 있다. As shown in FIG. 8(A), the user terminal may divide the generated frontal 3D image 810 by body part based on the criteria learned by the AI processor. For example, the user terminal converts the front 3D image into a right arm front 3D image 811, a left arm front 3D image 812, a torso front 3D image 813, and a right leg front 3D image 814. , The front 3D image 815 of the left leg can be divided into parts.
도 8(B)에 도시된 바와 같이, 사용자 단말기는 생성된 측면 3차원 이미지(820)를 AI 프로세서에 의해 학습된 기준에 기반하여 신체 부위 별로 분할할 수 있다. 예를 들어, 사용자 단말기는 측면 3차원 이미지를 오른쪽팔 측면 3차원 이미지(821), 왼쪽팔 측면 3차원 이미지(822), 몸통 측면 3차원 이미지(823), 오른쪽다리 측면 3차원 이미지(824), 왼쪽다리 측면 3차원 이미지(825) 부분으로 분할할 수 있다. As shown in FIG. 8(B) , the user terminal may divide the generated side 3D image 820 by body part based on the criteria learned by the AI processor. For example, the user terminal displays a side 3D image as a right arm side 3D image 821, a left arm side 3D image 822, a torso side 3D image 823, and a right leg side 3D image 824. , The left leg side 3D image 825 can be divided into parts.
도 9는 정면/측면 3차원 이미지를 이용하여 신체 부위 별 체형정보를 생성하는 상세한 과정을 도시한 흐름도이다.9 is a flowchart illustrating a detailed process of generating body shape information for each body part using front/side 3D images.
도 9에 도시된 바와 같이, 체형정보를 생성하는 상세한 과정(S150)은 S151, S152, S153 및 S154 단계를 포함하며, 상세한 설명은 아래와 같다.As shown in FIG. 9, the detailed process of generating body shape information (S150) includes steps S151, S152, S153, and S154, and detailed descriptions are as follows.
먼저, S110 및 S130 단계를 수행한 이후, 사용자 단말기는 신체 부위 별 정면 3차원 이미지 및 신체 부위 별 측면 3차원 이미지를 각각 합성할 수 있다(S151). 구체적으로, 사용자 단말기는 앞서 도 8을 참조하여 설명한 오른쪽팔 정면 3차원 이미지(811)를 오른쪽팔 측면 3차원 이미지(821)와 합성하고, 왼쪽팔 정면 3차원 이미지(812)를 왼쪽팔 측면 3차원 이미지(822)와 합성하며, 몸통 정면 3차원 이미지(813)를 몸통 측면 3차원 이미지(823)와 합성하고, 오른쪽다리 정면 3차원 이미지(814)를 오른쪽다리 측면 3차원 이미지(824)와 합성하며, 왼쪽다리 정면 3차원 이미지(815)를 왼쪽다리 측면 3차원 이미지(825)와 합성할 수 있다. First, after performing steps S110 and S130, the user terminal may synthesize a front 3D image for each body part and a side 3D image for each body part (S151). Specifically, the user terminal synthesizes the right arm front 3D image 811 described with reference to FIG. 8 with the right arm side 3D image 821, and the left arm front 3D image 812 is left arm side 3 It is synthesized with the dimensional image 822, the torso front 3D image 813 is combined with the torso side 3D image 823, the right leg front 3D image 814 is combined with the right leg lateral 3D image 824 In addition, the front 3D image 815 of the left leg may be synthesized with the 3D image 825 of the side of the left leg.
그 다음, 사용자 단말기는 신체 부위 별로 합성된 3차원 이미지들을 사용자의 신체 전체 3차원 이미지로 통합할 수 있다(S152). 즉, 사용자 단말기는 S151 단계에서 합성된 사용자의 신체 부위 별 3차원 이미지들을 전부 결합하여 전체 3차원 이미지를 생성할 수 있다. Next, the user terminal may integrate the 3D images synthesized for each body part into an entire 3D image of the user's body (S152). That is, the user terminal may generate an entire 3D image by combining all the 3D images for each part of the user's body synthesized in step S151.
이어서, 사용자 단말기는 도 3의 S113 단계에서 획득한 사용자의 신체 사이즈에 관한 정보를 이용하여 전체 3차원 이미지를 리사이징 할 수 있다(S153). 예를 들어, 사용자 단말기는 사용자의 키 및/또는 사용자의 몸무게에 관한 정보에 기반하여 전체 3차원 이미지의 높이 또는 폭을 확대하거나 축소시킬 수 있다. Subsequently, the user terminal may resize the entire 3D image using the information about the user's body size obtained in step S113 of FIG. 3 (S153). For example, the user terminal may enlarge or reduce the height or width of the entire 3D image based on information about the user's height and/or the user's weight.
그 다음, 사용자 단말기는 리사이징된 전체 3차원 이미지를 이용하여 사용자의 신체 부위 별 체형정보를 획득할 수 있다(S154). 예를 들어, 사용자 단말기는 리사이징된 전체 3차원 이미지 내에서 신체 부위 별로 길이, 둘레 또는 부피 정보 등의 체형정보를 추출할 수 있다. Next, the user terminal may obtain body shape information for each body part of the user by using the resized entire 3D image (S154). For example, the user terminal may extract body type information such as length, circumference, or volume information for each body part within the entire resized 3D image.
도 10 및 도 11은 부위 별 3차원 이미지를 합성하는 과정을 도시한다. 10 and 11 illustrate a process of synthesizing 3D images for each part.
도 10에 도시된 바와 같이, 사용자 단말기는 몸통 정면 3차원 이미지(1001)와 몸통 측면 3차원 이미지(1002)를 합성하여 합성 3차원 이미지(1003)를 생성할 수 있으며, 도 11과 같이 나머지 신체 부위도 마찬가지 방법으로 합성하여 전체 3차원 이미지(1101)를 생성할 수 있다. As shown in FIG. 10, the user terminal may generate a synthesized 3D image 1003 by synthesizing a torso front 3D image 1001 and a torso side 3D image 1002, and as shown in FIG. 11, the rest of the body The entire 3D image 1101 may be generated by combining parts in the same manner.
도 12는 전체 3차원 이미지를 리사이징하는 과정을 도시한다.12 shows a process of resizing an entire 3D image.
도 12에 도시된 바와 같이, 사용자 단말기는 사용자의 신체 사이즈 정보(예: 몸무게 또는 키)를 이용하여, 전체 3차원 이미지(1201, 1202)의 길이를 확대/축소하거나, 전체 3차원 이미지(1201, 1202)의 너비를 확대/축소할 수 있다. As shown in FIG. 12 , the user terminal enlarges/reduces the length of the entire 3D images 1201 and 1202 by using the user's body size information (eg, weight or height), or the entire 3D image 1201 , 1202) can be enlarged/reduced.
도 13은 리사이징된 전체 3차원 이미지에서 체형정보를 도출하는 예를 도시한다.13 illustrates an example of deriving body type information from a resized entire 3D image.
도 13에 도시된 바와 같이, 사용자 단말기는 리사이징된 전체 3차원 이미지(1300)의 팔 부분을 분석하여, 팔 부분의 길이에 관한 정보(1311), 팔 부분의 둘레에 관한 정보(1312), 몸통 부분의 길이에 관한 정보(1331), 몸통 부분의 둘레에 관한 정보(1332), 다리 부분의 길이에 관한 정보(1321), 다리 부분의 둘레에 관한 정보(1322)를 도출할 수 있다. 또한, 사용자 단말기는 도출된 체형정보를 사용자 또는 외부장치로 제공할 수 있다. As shown in FIG. 13, the user terminal analyzes the arm of the entire resized 3D image 1300, and obtains information on the length of the arm 1311, information on the circumference of the arm 1312, and torso. Information on the length of the part (1331), information on the circumference of the body part (1332), information on the length of the leg part (1321), and information on the circumference of the leg part (1322) can be derived. Also, the user terminal may provide the derived body shape information to the user or an external device.
사용자 또는 외부장치에 체형정보를 제공하는 하나의 예를 도 14를 통해 예시하도록 한다. An example of providing body shape information to a user or an external device is exemplified through FIG. 14 .
도 14는 체형정보를 제공하는 하나의 예를 도시한다.14 shows an example of providing body type information.
도 14에 도시된 바와 같이, 사용자 단말기는 앞서 도 1 내지 도 13을 참조하여 설명한 방법을 통해 사용자1의 체형정보를 획득하고, 사용자2의 체형정보를 획득할 수 있다. As shown in FIG. 14 , the user terminal can acquire body shape information of user 1 and body shape information of user 2 through the method described above with reference to FIGS. 1 to 13 .
이어서, 사용자 단말기는 사용자1의 체형정보에 기반하여 아바타1(1410)을 '가상공간' 또는 '메타버스'에 배치할 수 있다. 마찬가지로, 사용자 단말기는 사용자2의 체형정보에 기반하여 아바타2(1420)를 '가상공간' 또는 '메타버스'에 배치할 수 있다. Next, the user terminal may place the avatar 1 1410 in a 'virtual space' or a 'metaverse' based on user 1's body shape information. Similarly, the user terminal may place the avatar 2 1420 in a 'virtual space' or a 'metaverse' based on user 2 body shape information.
가상공간 또는 메타버스 내에서, 아바타1과 아바타2는 서로 체형정보를 공유할 수 있다. 즉, 여기서, 아바타1은 가상 '의사' 역할이 될 수 있으며, '의사' 역할은 아바타2의 체형정보를 공유받고, 아바타2에 대한 원격 진료를 수행할 수도 있다. Within the virtual space or metaverse, Avatar 1 and Avatar 2 may share body shape information with each other. That is, here, avatar 1 can be a virtual 'doctor' role, and the 'doctor' role can share body shape information of avatar 2 and perform telemedicine on avatar 2.
또한, 예를 들면, 아바타1은 사용자1의 움직임과 연동되어, 사용자1의 움직임과 동일하게 동작될 수 있으며, 아바타2 또한 마찬가지로 동작될 수 있다. Also, for example, Avatar 1 may be operated in conjunction with User 1's movement and operated in the same way as User 1's movement, and Avatar 2 may also be operated similarly.
이상 첨부된 도면을 참조하여 본 발명의 실시 예들을 더욱 상세하게 설명하였으나, 본 발명은 반드시 이러한 실시 예로 국한되는 것은 아니고, 본 발명의 기술사상을 벗어나지 않는 범위 내에서 다양하게 변형 실시될 수 있다. Although the embodiments of the present invention have been described in more detail with reference to the accompanying drawings, the present invention is not necessarily limited to these embodiments, and may be variously modified and implemented without departing from the technical spirit of the present invention.
따라서, 본 발명에 개시된 실시 예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시 예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 그러므로, 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.Therefore, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention, but to explain, and the scope of the technical idea of the present invention is not limited by these embodiments. Therefore, the embodiments described above should be understood as illustrative in all respects and not limiting. The protection scope of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the present invention.
[부호의 설명][Description of code]
200: 사용자 단말기200: user terminal
210: 인터페이스부210: interface unit
220: 제어부220: control unit
230: 통신부230: communication department

Claims (14)

  1. 사용자의 신체 부위 별 체형 정보를 제공하는 사용자 단말기에 있어서, In a user terminal providing body shape information for each body part of a user,
    상기 사용자를 촬영하여 상기 사용자에 대한 정면 2차원 이미지 및 측면 2차원 이미지를 획득하는 카메라부; a camera unit for photographing the user and acquiring a front two-dimensional image and a side two-dimensional image of the user;
    상기 정면 2차원 이미지 및 상기 측면 2차원 이미지를 이용하여 상기 사용자의 신체 부위 별 3차원 이미지를 생성하는 제어부; 및a control unit generating a 3D image for each part of the user's body using the front 2D image and the side 2D image; and
    상기 신체 부위 별 3차원 이미지에 기반하여 상기 사용자의 신체 부위 별 체형 정보를 제공하는 인터페이스부를 포함하는, An interface unit providing body shape information for each body part of the user based on the 3D image for each body part,
    사용자 단말기. user terminal.
  2. 제1항에 있어서,According to claim 1,
    상기 제어부는, The control unit,
    상기 정면 2차원 이미지 및 상기 측면 2차원 이미지 각각에서 배경 부분이 삭제된 이미지를 이용하여 상기 신체 부위별 3차원 이미지를 생성하는 것을 특징으로 하는, Characterized in that a three-dimensional image for each body part is generated using an image from which a background part is deleted from each of the front two-dimensional image and the side two-dimensional image,
    사용자 단말기. user terminal.
  3. 제2항에 있어서,According to claim 2,
    상기 제어부는, The control unit,
    상기 정면 2차원 이미지 및 상기 측면 2차원 이미지 각각에 대하여 각각 3차원 모델링을 수행하여 정면 3차원 이미지 및 측면 3차원 이미지를 생성하고, 3D modeling is performed on each of the front 2D image and the side 2D image to generate a front 3D image and a side 3D image;
    상기 정면 3차원 이미지 및 상기 측면 3차원 이미지 각각을 상기 사용자의 신체 부위 별로 분할하며,Dividing each of the front 3D image and the side 3D image for each part of the user's body;
    분할된 정면 3차원 이미지들 및 분할된 측면 3차원 이미지들을 상기 사용자의 신체 부위 별로 각각 합성하고,synthesizing the divided frontal 3D images and the divided side 3D images for each part of the user's body;
    합성된 부위 별 3차원 이미지들을 이용하여 상기 사용자의 신체 부위 별 체형 정보를 상기 인터페이스부를 통해 제공하는 것을 특징으로 하는, Characterized in that the body shape information for each body part of the user is provided through the interface unit using the synthesized 3D images for each part.
    사용자 단말기. user terminal.
  4. 제3항에 있어서,According to claim 3,
    상기 제어부는 AI(Artificial Intelligence) 프로세서를 포함하며,The control unit includes an AI (Artificial Intelligence) processor,
    상기 AI 프로세서는, The AI processor,
    상기 사용자의 신체 부위를 분할하는 기준 영역을 지도 학습 기법에 따라 학습하고,Learning a reference region for dividing the user's body part according to a supervised learning technique;
    상기 제어부는,The control unit,
    상기 AI 프로세서로부터 제공되는 상기 기준 영역에 기반하여 상기 사용자의 신체 부위를 구분하는 것을 특징으로 하는, Characterized in that the user's body part is distinguished based on the reference region provided from the AI processor.
    사용자 단말기. user terminal.
  5. 제3항에 있어서,According to claim 3,
    상기 인터페이스부는 상기 사용자의 신체 사이즈 정보를 획득하고, The interface unit acquires body size information of the user;
    상기 제어부는,The control unit,
    상기 합성된 부위 별 3차원 이미지들을 통합하고,Integrating the 3D images for each of the synthesized parts,
    통합된 3차원 이미지를 상기 신체 사이즈 정보를 이용하여 수정하며,Correcting the integrated 3D image using the body size information,
    상기 통합된 3차원 이미지를 이용하여 상기 사용자의 신체 부위 별 체형 정보를 획득하는 것을 특징으로 하는, Characterized in that body shape information for each body part of the user is obtained using the integrated 3D image,
    사용자 단말기. user terminal.
  6. 제5항에 있어서,According to claim 5,
    상기 신체 사이즈 정보는 상기 사용자의 키에 대한 정보 또는 몸무게에 대한 정보를 포함하며,The body size information includes information on height or weight of the user,
    상기 제어부는, The control unit,
    상기 신체 사이즈 정보에 기반하여 상기 통합된 3차원 이미지의 높이, 폭 또는 너비를 조정하는 것을 특징으로 하는, Characterized in that the height, width or width of the integrated 3D image is adjusted based on the body size information,
    사용자 단말기. user terminal.
  7. 제6항에 있어서,According to claim 6,
    상기 사용자의 신체 부위 별 체형 정보는 상기 사용자의 신체 부위 별 부피에 대한 정보 또는 둘레의 길이에 대한 정보를 포함하는 것을 특징으로 하는, Characterized in that the body shape information for each part of the user's body includes information about the volume or information about the length of the circumference of each part of the user's body.
    사용자 단말기. user terminal.
  8. 사용자 단말기가 사용자의 신체 부위 별 체형 정보를 제공하는 방법에 있어서, A method for a user terminal to provide body shape information for each body part of a user, the method comprising:
    상기 사용자를 촬영하여 상기 사용자에 대한 정면 2차원 이미지 및 측면 2차원 이미지를 획득하는 단계;acquiring a front two-dimensional image and a side two-dimensional image of the user by photographing the user;
    상기 정면 2차원 이미지 및 상기 측면 2차원 이미지를 이용하여 상기 사용자의 신체 부위 별 3차원 이미지를 생성하는 단계; 및generating a 3D image for each body part of the user using the front 2D image and the side 2D image; and
    상기 신체 부위 별 3차원 이미지에 기반하여 상기 사용자의 신체 부위 별 체형 정보를 제공하는 단계를 포함하는, Providing body shape information for each body part of the user based on the 3D image for each body part,
    방법.method.
  9. 제8항에 있어서,According to claim 8,
    상기 사용자의 신체 부위 별 3차원 이미지를 생성하는 단계는, The step of generating a 3D image for each part of the user's body,
    상기 정면 2차원 이미지 및 상기 측면 2차원 이미지 각각에서 배경 부분이 삭제된 이미지를 이용하여 상기 신체 부위별 3차원 이미지를 생성하는 것을 특징으로 하는, Characterized in that a three-dimensional image for each body part is generated using an image from which a background part is deleted from each of the front two-dimensional image and the side two-dimensional image,
    방법.method.
  10. 제9항에 있어서,According to claim 9,
    상기 사용자의 신체 부위 별 3차원 이미지를 생성하는 단계는, The step of generating a three-dimensional image for each part of the user's body,
    상기 정면 2차원 이미지 및 상기 측면 2차원 이미지 각각에 대하여 각각 3차원 모델링을 수행하여 정면 3차원 이미지 및 측면 3차원 이미지를 생성하는 단계, Generating a front 3-dimensional image and a side 3-dimensional image by performing 3-dimensional modeling on each of the front 2-dimensional image and the side 2-dimensional image;
    상기 정면 3차원 이미지 및 상기 측면 3차원 이미지 각각을 상기 사용자의 신체 부위 별로 분할하는 단계,Segmenting each of the front 3-dimensional image and the side 3-dimensional image for each part of the user's body;
    분할된 정면 3차원 이미지들 및 분할된 측면 3차원 이미지들을 상기 사용자의 신체 부위 별로 각각 합성하는 단계, 및Synthesizing the divided front 3D images and the divided side 3D images for each part of the user's body, and
    합성된 부위 별 3차원 이미지들을 이용하여 상기 사용자의 신체 부위 별 체형 정보를 상기 인터페이스부를 통해 제공하는 단계를 포함하는 것을 특징으로 하는, and providing body shape information for each body part of the user through the interface unit using the synthesized 3D images for each part.
    방법.method.
  11. 제10항에 있어서,According to claim 10,
    상기 분할하는 단계는, The dividing step is
    상기 사용자의 신체 부위를 분할하는 기준 영역을 지도 학습 기법에 따라 학습하는 단계, 및 Learning a reference region for dividing the user's body part according to a supervised learning technique; and
    상기 기준 영역에 기반하여 상기 사용자의 신체 부위를 구분하는 단계를 포함하는 것을 특징으로 하는, Characterized in that it comprises the step of classifying the user's body part based on the reference area,
    방법.method.
  12. 제10항에 있어서,According to claim 10,
    상기 사용자의 신체 사이즈 정보를 획득하는 단계를 더 포함하고, Further comprising obtaining body size information of the user,
    상기 사용자의 신체 부위 별 체형 정보를 제공하는 단계는, The step of providing body shape information for each body part of the user,
    상기 합성된 부위 별 3차원 이미지들을 통합하는 단계, Integrating the three-dimensional images for each part of the synthesis;
    통합된 3차원 이미지를 상기 신체 사이즈 정보를 이용하여 수정하는 단계, 및modifying the integrated 3D image using the body size information; and
    상기 통합된 3차원 이미지를 이용하여 상기 사용자의 신체 부위 별 체형 정보를 획득하는 단계를 포함하는 것을 특징으로 하는, Characterized in that it comprises the step of obtaining body shape information for each body part of the user using the integrated 3D image,
    방법.method.
  13. 제12항에 있어서,According to claim 12,
    상기 신체 사이즈 정보는 상기 사용자의 키에 대한 정보 또는 몸무게에 대한 정보를 포함하며,The body size information includes information on height or weight of the user,
    상기 수정하는 단계는, The correction step is
    상기 신체 사이즈 정보에 기반하여 상기 통합된 3차원 이미지 높이, 폭 또는 너비를 조정하는 것을 특징으로 하는, Characterized in that adjusting the height, width or width of the integrated 3D image based on the body size information,
    방법.method.
  14. 제13항에 있어서,According to claim 13,
    상기 사용자의 신체 부위 별 체형 정보는 상기 사용자의 신체 부위 별 부피에 대한 정보 또는 둘레의 길이에 대한 정보를 포함하는 것을 특징으로 하는, Characterized in that the body shape information for each part of the user's body includes information about the volume or information about the length of the circumference of each part of the user's body.
    방법.method.
PCT/KR2022/013223 2021-11-18 2022-09-02 User terminal and method for providing body shape information for each body part of user WO2023090601A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2021-0159119 2021-11-18
KR1020210159119A KR102646272B1 (en) 2021-11-18 2021-11-18 User terminal and method for providing shape information for each body part of the user

Publications (1)

Publication Number Publication Date
WO2023090601A1 true WO2023090601A1 (en) 2023-05-25

Family

ID=86397196

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2022/013223 WO2023090601A1 (en) 2021-11-18 2022-09-02 User terminal and method for providing body shape information for each body part of user

Country Status (2)

Country Link
KR (1) KR102646272B1 (en)
WO (1) WO2023090601A1 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190065060A (en) * 2017-12-01 2019-06-11 동국대학교 산학협력단 Apparatus and methdo for measuring body size using open source hardware
KR20200066405A (en) * 2018-11-30 2020-06-10 동국대학교 산학협력단 Device and method for measuring three-dimensional body model
KR102132721B1 (en) * 2019-01-03 2020-07-10 (주) 아이딕션 Method, server and program of acquiring image for measuring a body size and a method for measuring a body size using the same
KR20210090498A (en) * 2020-01-10 2021-07-20 주식회사 리모 The method for analyzing 3D body type based on 2D image, the system and the program thereof
JP2021143976A (en) * 2020-03-13 2021-09-24 幹夫 神保 System and device for determining three-dimensional shape

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI124028B (en) 2012-06-13 2014-02-14 Outotec Oyj Process and arrangement for refining copper concentrate
MA41117A (en) * 2014-12-05 2017-10-10 Myfiziq Ltd IMAGING OF A BODY
JP6954272B2 (en) 2016-04-28 2021-10-27 株式会社大阪ソーダ Composition for laminate

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190065060A (en) * 2017-12-01 2019-06-11 동국대학교 산학협력단 Apparatus and methdo for measuring body size using open source hardware
KR20200066405A (en) * 2018-11-30 2020-06-10 동국대학교 산학협력단 Device and method for measuring three-dimensional body model
KR102132721B1 (en) * 2019-01-03 2020-07-10 (주) 아이딕션 Method, server and program of acquiring image for measuring a body size and a method for measuring a body size using the same
KR20210090498A (en) * 2020-01-10 2021-07-20 주식회사 리모 The method for analyzing 3D body type based on 2D image, the system and the program thereof
JP2021143976A (en) * 2020-03-13 2021-09-24 幹夫 神保 System and device for determining three-dimensional shape

Also Published As

Publication number Publication date
KR102646272B1 (en) 2024-03-12
KR20230073381A (en) 2023-05-26

Similar Documents

Publication Publication Date Title
WO2019132168A1 (en) System for learning surgical image data
WO2016171341A1 (en) Cloud-based pathology analysis system and method
WO2013015528A1 (en) Apparatus, method, and medium detecting object pose
WO2019050360A1 (en) Electronic device and method for automatic human segmentation in image
WO2020045987A1 (en) System and method for providing deep learning-based virtual reality 3d embryo model
JP2016170542A (en) Image processing unit, image processing method and program
WO2012091326A2 (en) Three-dimensional real-time street view system using distinct identification information
WO2020171621A1 (en) Method of controlling display of avatar and electronic device therefor
WO2020032487A1 (en) Method for providing information related to goods on basis of priority and electronic device therefor
WO2016035993A1 (en) Interior map establishment device and method using cloud point
WO2022131642A1 (en) Apparatus and method for determining disease severity on basis of medical images
WO2019066373A1 (en) Method of correcting image on basis of category and recognition rate of object included in image and electronic device implementing same
WO2016006728A1 (en) Electronic apparatus and method for processing three-dimensional information using image
KR20200066405A (en) Device and method for measuring three-dimensional body model
WO2019112154A1 (en) Method for providing text-reading based reward-type advertisement service and user terminal for performing same
WO2023090601A1 (en) User terminal and method for providing body shape information for each body part of user
WO2014148691A1 (en) Mobile device and method for controlling the same
KR101941209B1 (en) Standalone automatic disease screening system and method based on artificial intelligence
WO2019098421A1 (en) Object reconstruction device using motion information and object reconstruction method using same
WO2023096394A1 (en) Server for determining posture type and operation method thereof
WO2022265347A1 (en) Three-dimensional scene recreation using depth fusion
WO2011040653A1 (en) Photography apparatus and method for providing a 3d object
WO2018124671A1 (en) Electronic device and operation method thereof
WO2021261727A1 (en) Capsule endoscopy image reading system and method
WO2021177785A1 (en) Location determination method and electronic device for supporting same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22895810

Country of ref document: EP

Kind code of ref document: A1