KR20160110070A - Electronic apparatus, and control method therof - Google Patents

Electronic apparatus, and control method therof Download PDF

Info

Publication number
KR20160110070A
KR20160110070A KR1020160003155A KR20160003155A KR20160110070A KR 20160110070 A KR20160110070 A KR 20160110070A KR 1020160003155 A KR1020160003155 A KR 1020160003155A KR 20160003155 A KR20160003155 A KR 20160003155A KR 20160110070 A KR20160110070 A KR 20160110070A
Authority
KR
South Korea
Prior art keywords
user
body model
dimensional body
information
model
Prior art date
Application number
KR1020160003155A
Other languages
Korean (ko)
Inventor
배수정
이승규
정문식
이재호
Original Assignee
삼성전자주식회사
경희대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 경희대학교 산학협력단 filed Critical 삼성전자주식회사
Publication of KR20160110070A publication Critical patent/KR20160110070A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • G06K9/00362
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20124Active shape model [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Abstract

Disclosed is an electronic apparatus. The electronic apparatus includes: a storage which stores a standard three-dimensional body model; a photographing unit which photographs a user by using a depth camera; and a processor which generates a three-dimensional body model of the user by applying a depth image, captured by the depth camera, to the standard three-dimensional body model, and extracts body information of the user from the three-dimensional body model of the user.

Description

전자 장치 및 그 제어 방법 { ELECTRONIC APPARATUS, AND CONTROL METHOD THEROF }ELECTRONIC APPARATUS AND CONTROL METHOD THEROF BACKGROUND OF THE INVENTION 1. Field of the Invention [0001]

본 발명은 전자 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 촬영 기능을 구비하는 전자 장치 및 그 제어 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an electronic apparatus and a control method thereof, and more particularly to an electronic apparatus having a photographing function and a control method thereof.

전자 기술의 발달에 힘입어 다양한 유형의 전자기기가 개발 및 보급되고 있다. 특히, 가장 많이 사용되고 있는 전자 제품 중 하나인 스마트폰과 같은 전자 장치는 최근 수년 간 지속적으로 발전하고 있다. Various types of electronic devices are being developed and distributed due to the development of electronic technologies. In particular, electronic devices such as smartphones, one of the most widely used electronic products, have been developing in recent years.

전자 장치의 성능이 고급화되면서, 전자 장치는 카메라를 구비하고, 카메라를 통해 획득된 영상을 통해 다양한 기능을 수행하는 것이 일반화되고 있다. [0003] As the performance of electronic devices has become higher, it has become common for an electronic device to have a camera and to perform various functions through an image obtained through a camera.

특히, 사용자를 촬영한 이미지를 이용하여 사용자의 3차원 신체 모델을 생성하고 이를 이용하여 다양한 정보(예를 들어 신체 정보)를 제공하고 있다.In particular, the user creates a three-dimensional body model using an image taken by the user and provides various information (for example, body information) using the generated three-dimensional body model.

하지만, 기존의 전자 장치에 의해 생성되는 사용자의 3차원 신체 모델은 실제 사용자의 신체와 비교하여 오차가 크다는 점에서 최적의 서비스를 제공받을 수 없다는 문제점이 있었다. However, there is a problem in that the user's three-dimensional body model generated by the existing electronic device can not be provided with the optimal service because the error is large compared with the actual user's body.

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 간단한 촬영을 통해 실제 사용자의 신체에 부합하는 사용자의 3차원 신체 모델을 생성함으로써 최적의 서비스를 제공할 수 있으므로 사용자의 편의성이 향상된다. SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-described problems, and it is an object of the present invention to provide a three-dimensional body model of a user that matches a body of an actual user through simple shooting, thereby providing an optimal service.

이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는, 표준 3차원 신체 모델을 저장하는 스토리지, 뎁스 카메라를 이용하여 사용자를 촬영하는 촬영부 및, 상기 뎁스 카메라에 의해 촬영된 뎁스 이미지을 상기 표준 3차원 신체 모델에 적용하여 상기 사용자의 3차원 신체 모델을 생성하고, 상기 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 프로세서를 포함한다. According to an aspect of the present invention, there is provided an electronic device including a storage for storing a standard three-dimensional body model, a photographing unit for photographing a user using a depth camera, And a processor for applying the depth image to the standard three-dimensional body model to generate the three-dimensional body model of the user and extracting the user's body information from the three-dimensional body model of the user.

또한, 상기 프로세서는, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하고, 상기 뎁스 이미지에서 획득된 뎁스 정보에 기초하여 상기 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다.In addition, the processor may generate a three-dimensional body model reflecting the user's body structure by matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image, Dimensional body model surface based on at least a portion of the three-dimensional body model, and compensating a portion not obtained in the depth image to generate the three-dimensional body model of the user.

또한, 상기 프로세서는, 상기 뎁스 이미지으로부터 추적된 사용자의 관절을 상기 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합할 수 있다. The processor is further configured to map the joint of the user traced from the depth image to the joint of the standard three-dimensional body model, to deform the shape of the rigid body part between the joint and the joint, Can be matched with the pose of the user included in the depth image.

또한, 상기 프로세서는, 상기 생성된 3차원 신체 모델의 리지드 바디 파트 별로 길이 조정 및 비율 조정 적어도 하나에 따른 리사이징(resizing)을 수행하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다. Also, the processor may generate a three-dimensional body model of the user by performing resizing according to at least one of length adjustment and ratio adjustment for each rigid body part of the generated three-dimensional body model.

또한, 상기 프로세서는, 상기 뎁스 정보에 기초하여 상기 3차원 신체 모델이 상기 사용자의 표면을 따라 변형되면, 상기 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다. The processor may further include a vertex having a low reliability based on the reliability of a vertex constituting the three-dimensional body model when the three-dimensional body model is deformed along the surface of the user based on the depth information Dimensional body model of the user by moving to a position adjacent to the vertex having high reliability and compensating for parts not obtained in the depth image.

또한, 상기 프로세서는, 상기 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀 (linear regression) 방식을 적용하여 상기 사용자의 신장 정보를 추출할 수 있다. In addition, the processor may extract the kidney information of the user by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model.

또한, 상기 프로세서는, 상기 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 및 거리 측정을 적용하여 상기 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출할 수 있다. In addition, the processor may extract at least one of the waist circumference information and the hip circumference information of the user by applying the ASM (Active Shape Model) circumferential sectional shape fitting and the distance measurement to the user's three-dimensional body model can do.

또한, 상기 프로세서는, 상기 사용자의 3차원 신체 모델에 메쉬(Mesh) 정보를 적용하여 상기 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출할 수 있다. In addition, the processor may be configured to apply mesh information to the user's three-dimensional body model to calculate volume information corresponding to the user's three-dimensional body model, and to apply volume and weight relationships to the calculated volume information And calculate at least one of weight information and body mass index information.

또한, 상기 프로세서는, 단일 시점에서 촬영된 한 장의 뎁스 이미지 또는 다 시점에서 촬영된 복수 개의 뎁스 이미지에 기초하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다.In addition, the processor may generate the three-dimensional body model of the user based on one depth image photographed at a single viewpoint or a plurality of depth images photographed at multiple viewpoints.

또한, 상기 프로세서는, 상기 복수 개의 뎁스 이미지를 이용하는 경우, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하고, 상기 생성된 3차원 신체 모델에 ICP(iterative closest point) 기반 로컬 트랙킹 방식을 이용하여 형상 변형을 수행하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다.In addition, when using the plurality of depth images, the processor may generate a three-dimensional body model reflecting the user's body structure by matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image , And a shape transformation is performed on the generated three-dimensional body model using an iterative closest point (ICP) based local tracking method to generate the three-dimensional body model of the user.

또한, 디스플레이를 더 포함하며, 상기 프로세서는, 상기 사용자의 3차원 신체 모델에 기반하여 상기 추출된 사용자의 신체 정보를 포함하는 UI 화면을 상기 디스플레이를 통해 디스플레이할 수 있다.The display may further include a display, and the processor may display a UI screen including the extracted user's body information on the display based on the user's three-dimensional body model.

한편, 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은, 뎁스 카메라를 이용하여 사용자를 촬영하는 단계, 상기 뎁스 카메라에 의해 촬영된 뎁스 이미지을 기저장된 표준 3차원 신체 모델에 적용하여 상기 사용자의 3차원 신체 모델을 생성하는 단계 및, 상기 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of controlling an electronic device, the method comprising: photographing a user using a depth camera; applying a depth image photographed by the depth camera to a previously stored standard three- Generating a three-dimensional body model, and extracting the user's body information from the three-dimensional body model of the user.

또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계 및, 상기 뎁스 이미지에서 획득된 뎁스 정보에 기초하여 상기 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성하는 단계를 포함할 수 있다.In addition, the step of generating the user's three-dimensional body model includes matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image to generate a three-dimensional body model reflecting the user's body structure And modifying at least a part of the surface of the three-dimensional body model based on the depth information obtained in the depth image and generating a three-dimensional body model of the user by compensating the part not obtained in the depth image .

또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 뎁스 이미지으로부터 추적된 사용자의 관절을 상기 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합할 수 있다.In addition, the step of generating the user's three-dimensional body model may include mapping the joint of the user traced from the depth image to joints of the standard three-dimensional body model, forming a rigid body part shape between the joints and joints To match the pose of the standard three-dimensional body model with the pose of the user included in the depth image.

또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 생성된 3차원 신체 모델의 리지드 바디 파트 별로 길이 조정 및 비율 조정 적어도 하나에 따른 리사이징(resizing)을 수행하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다. In addition, the step of generating the user's three-dimensional body model may include performing resizing according to at least one of length adjustment and ratio adjustment for each rigid body part of the generated three-dimensional body model, Can be generated.

또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 뎁스 정보에 기초하여 상기 3차원 신체 모델이 상기 사용자의 표면을 따라 변형되면, 상기 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다. In addition, the step of generating the 3D body model of the user may further include: when the 3D body model is deformed along the surface of the user based on the depth information, the reliability of the vertex constituting the 3D body model Dimensional body model of the user by moving a vertex having low reliability to a position adjacent to the vertex having high reliability based on the vertex of the vertex and compensating the part not obtained in the depth image.

또한, 상기 사용자의 신체 정보를 추출하는 단계는, 상기 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀 (linear regression) 방식을 적용하여 상기 사용자의 신장 정보를 추출할 수 있다. In addition, the step of extracting the user's body information may extract the kidney information of the user by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model.

또한, 상기 사용자의 신체 정보를 추출하는 단계는, 상기 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 및 거리 측정을 적용하여 상기 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출할 수 있다. In addition, the step of extracting the user's body information may include applying an ASM (Active Shape Model) circumferential sectional shape fitting and distance measurement to the user's three-dimensional body model to calculate waist circumference information of the user and hip At least one of the circumference information can be extracted.

또한, 상기 사용자의 신체 정보를 추출하는 단계는, 상기 사용자의 3차원 신체 모델에 메쉬(Mesh) 정보를 적용하여 상기 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출할 수 있다. In addition, the step of extracting the user's body information may include the steps of: applying mesh information to the user's three-dimensional body model to calculate volume information corresponding to the user's three-dimensional body model; Weight, and body mass index information to calculate at least one of weight information and body mass index information.

또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 다 시점에서 촬영된 복수 개의 뎁스 이미지를 이용하는 경우, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계 및, 상기 생성된 3차원 신체 모델에 ICP(iterative closest point) 기반 로컬 트랙킹 방식을 이용하여 형상 변형을 수행하여 상기 사용자의 3차원 신체 모델을 생성하는 단계를 포함할 수 있다. The step of generating the three-dimensional body model of the user may include the step of matching the pose of the standard three-dimensional body model with the pose of the user included in the depth image when using a plurality of depth images photographed at a plurality of viewpoints, Dimensional body model reflecting the body structure of the user, and performing a shape transformation using an iterative closest point (ICP) based local tracking method on the generated three-dimensional body model, thereby obtaining the three-dimensional body model of the user And a step of generating the data.

이상 설명한 바와 같이 본 발명의 다양한 실시 예에 따르면, 간단한 촬영 만으로 실제 사용자의 신체에 부합하는 사용자의 3차원 신체 모델을 생성함으로써 최적의 서비스를 제공할 수 있으므로 사용자의 편의성이 향상된다. As described above, according to the various embodiments of the present invention, the user can be provided with the optimum service by generating the three-dimensional body model of the user corresponding to the body of the actual user with only a simple photographing.

도 1은 본 발명의 일 실시 예에 따른 전자 장치의 일 구현 예를 나타내는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 3은 도 2에 도시된 전자 장치의 구체적 구성을 나타내는 블럭도이다.
도 4는 본 발명의 일 실시 예에 따라 스토리지에 저장되는 구성을 나타내는 블럭도이다.
도 5는 본 발명의 일 실시 예에 따른 표준 3차원 신체 모델의 포즈를 사용자의 포즈와 정합하는 과정을 설명하기 위한 도면이다.
도 6 및 도 7은 본 발명의 일 실시 예에 따라 사용자의 뎁스 이미지를 기반으로 표면 변형 작업을 수행하는 방법을 설명하기 위한 도면이다.
도 8 및 도 9는 본 발명의 일 실시 예에 따른 뎁스 센서에서 데이터를 획득하지 못한 부분에 대한 보상 과정을 설명하기 위한 도면이다.
도 10 및 도 11은 본 발명의 다른 실시 예에 따른 사용자의 3차원 신체 모델 생성 방법을 설명하기 위한 도면들이다.
도 12은 본 발명의 일 실시 예에 따라 생성된 사용자의 3차원 신체 모델을 일 예를 나타내는 도면이다.
도 13는 본 발명의 일 실시 예에 따라 신장 정보를 추출하는 방법을 설명하기 위한 도면이다.
도 14은 본 발명의 일 실시 예에 따라 허리 둘레 및 엉덩이 둘레 정보를 추출하는 방법을 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시 예에 따라 체중 정보를 추출하는 방법을 설명하기 위한 도면이다.
도 16는 본 발명의 일 실시 예에 따라 디스플레이되는 UI 화면의 일 예를 나타내는 도면이다.
도 17은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
1 is a diagram showing an embodiment of an electronic device according to an embodiment of the present invention.
2 is a block diagram showing the configuration of an electronic device according to an embodiment of the present invention.
3 is a block diagram showing a specific configuration of the electronic device shown in Fig.
4 is a block diagram illustrating a configuration stored in a storage according to an embodiment of the present invention.
5 is a diagram illustrating a process of matching a pose of a standard three-dimensional body model with a pose of a user according to an embodiment of the present invention.
6 and 7 are views for explaining a method of performing a surface modification operation based on a depth image of a user according to an embodiment of the present invention.
FIG. 8 and FIG. 9 are diagrams for explaining a compensation process for a portion where data is not acquired in the depth sensor according to an embodiment of the present invention.
10 and 11 are views for explaining a method of generating a three-dimensional body model of a user according to another embodiment of the present invention.
12 is a diagram illustrating an example of a three-dimensional body model of a user generated according to an embodiment of the present invention.
13 is a diagram for explaining a method of extracting extension information according to an embodiment of the present invention.
FIG. 14 is a diagram for explaining a method of extracting information on the waist circumference and the hip circumference according to an embodiment of the present invention.
15 is a view for explaining a method of extracting body weight information according to an embodiment of the present invention.
16 is a view showing an example of a UI screen displayed according to an embodiment of the present invention.
17 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention.

이하 본 발명의 다양한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. Various embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일 실시 예에 따른 전자 장치의 일 구현 예를 나타내는 도면이다.1 is a diagram showing an embodiment of an electronic device according to an embodiment of the present invention.

도 1에 도시된 바와 같이 전자 장치(100)는 뎁스 카메라(10)를 구비한 디지털 TV로 구현될 수 있으나, PC, 키오스크, 태블릿 PC, 휴대폰, 키오스크 등과 같이 뎁스 카메라를 구비한 것이라면 이에 한정되지 않고 적용 가능하다. As shown in FIG. 1, the electronic device 100 may be implemented as a digital TV having a depth camera 10, but is not limited thereto as long as it has a depth camera such as a PC, a kiosk, a tablet PC, a mobile phone, .

전자 장치(100)는 단일 시점(20)에서 촬영된 하나의 뎁스 이미지 또는, 다 시점(30 내지 50)에서 촬영된 복수 개의 뎁스 이미지를 이용하여 사용자의 신체를 3차원 모델을 구성할 수 있다. 이를 위해 뎁스 카메라는 사용자를 촬영하고, 촬영된 사용자에 대한 뎁스 정보를 획득할 수 있다. The electronic device 100 can construct a three-dimensional model of the user's body using one depth image taken at a single viewpoint 20 or a plurality of depth images photographed at multiple viewpoints 30 to 50. [ For this purpose, the depth camera can capture the user and acquire the depth information for the photographed user.

전자 장치(100)는 사용자의 3차원 신체 모델을 이용하여 라이프로그 시스템에서 매일 변화하는 체형을 기록하거나, 허리둘레나 다리길이 등을 추정하여 개인의 체형을 고려한 옷치수를 추천하는 등 다양한 서비스를 제공할 수 있다. The electronic device 100 records various types of services such as recording the body shape that changes daily in the life log system using the user's three-dimensional body model, recommending the clothes size considering the body shape of the individual by estimating the waist circumference, leg length, .

특히, 본 발명에 따른 전자 장치(100)는 사용자의 뎁스 이미지를 표준 3차원 신체 모델에 적용하여 사용자의 3차원 신체 모델을 생성하고, 사용자의 3차원 신체 모델에서 다양한 방식으로 사용자의 신체 정보를 추출할 수 있는데, 이하에서는 도면을 참조하여 본 발명에 대해 좀더 자세히 설명하도록 한다. In particular, the electronic device 100 according to the present invention generates a three-dimensional body model of a user by applying a depth image of a user to a standard three-dimensional body model, and generates a three-dimensional body model of the user, Hereinafter, the present invention will be described in more detail with reference to the drawings.

도 2는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다. 2 is a block diagram showing the configuration of an electronic device according to an embodiment of the present invention.

도 2에 따르면, 전자 장치(100)는 스토리지(110), 촬영부(120) 및 프로세서(130)를 포함한다.2, the electronic device 100 includes a storage 110, a photographing unit 120, and a processor 130. [

스토리지(110)는 표준 3차원 신체 모델을 저장한다. The storage 110 stores a standard three-dimensional body model.

여기서, 표준 3차원 신체 모델이란, 사람의 표준 신체 이미지를 다양한 수치에 따라 3차원 모델링 데이터로 변환한 것으로, 표준 3차원 신체 모델은 외부로부터 수신될 수도 있으나, 전자 장치(100)에서 직접 생성하는 것도 가능하다. 한편, 표준 3차원 신체 모델은 성별, 연령별, 인종별 등으로 구분되어 저장되어 있을 수도 있다. 예를 들어, 한국 성인 남자 모델, 한국 성인 여자 모델, 서양 성인 남자 모델 등과 같이 구분되어 저장되어 있을 수 있다. 다만, 이에 한정되는 것은 아니며, 성별, 연령별, 인종별 각각의 표준 3차원 신체 모델을 평균하여 모델링한 데이터가 될 수도 있다. Here, the standard three-dimensional body model is a conversion of a standard body image of a person into three-dimensional modeling data according to various values. The standard three-dimensional body model may be received from the outside, It is also possible. On the other hand, the standard three-dimensional body model may be stored classified by sex, age, and race. For example, Korean adult male model, Korean adult female model, Western adult male model, and the like may be stored separately. However, the present invention is not limited to this, and may be data obtained by averaging standard three-dimensional body models of each sex, age, and race.

또한, 표준 3차원 신체 모델은 임의의 포즈를 취하고 있을 수 있으며, 예를 들어, 양손을 내리고 다리를 오므리고 있는 포즈, 양손을 올리고 있는 포즈, 다리를 벌리고 있는 포즈 등 임의의 포즈를 취하고 있을 수 있다.In addition, a standard three-dimensional body model may take an arbitrary pose, for example, taking a pose with both hands down and legs down, a pose with both hands raised, a pose with legs open, etc. .

또한, 스토리지(110)는 후술하는 프로세서(130)에 의해 측정된 결과에 기초하여 사용자의 신체 체형 변화 데이터를 저장할 수 있다. In addition, the storage 110 may store the user's body shape change data based on the result measured by the processor 130, which will be described later.

스토리지(110)는 내장 메모리 또는 외장 메모리 중 적어도 하나를 포함할 수 있다. 내장 메모리는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다. The storage 110 may include at least one of an internal memory or an external memory. The internal memory may be, for example, a volatile memory (e.g., dynamic RAM, SRAM, or synchronous dynamic RAM (SDRAM)), a non-volatile memory (e.g., an OTPROM time programmable ROM (ROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash memory (such as NAND flash or NOR flash) Or a solid state drive (SSD).

외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리는 다양한 인터페이스를 통하여 전자 장치(100)와 기능적으로 및/또는 물리적으로 연결될 수 있다.The external memory may be a flash drive such as a compact flash (CF), a secure digital (SD), a micro secure digital (SD), a mini secure digital (SD), an extreme digital A multi-media card (MMC), a memory stick, or the like. The external memory may be functionally and / or physically connected to the electronic device 100 via various interfaces.

촬영부(120)는 뎁스 카메라를 이용하여 사용자를 촬영한다. 촬영부(120)는 전자 장치(100)의 외곽 영역에 배치된다. 예를 들어, 촬영부(120)는 전자 장치(100)의 상단 중앙, 좌단 중앙 또는 우단 중앙 베젤 영역에 배치될 수 있으나, 이에 한정되는 것은 아니다. The photographing unit 120 photographs a user using a depth camera. The photographing unit 120 is disposed in an outer area of the electronic device 100. [ For example, the photographing unit 120 may be disposed at an upper center, a left upper center, or a right upper central bezel region of the electronic device 100, but is not limited thereto.

촬영부(120)는 렌즈를 포함한 렌즈 모듈과 이미지 센서를 포함한다. 렌즈를 통해 입력된 형상은 필름의 역할을 하는 이미지 센서에 광학 신호로서 입력되고, 이미지 센서는 입력된 광학 신호를 전기적 신호로 변환하여 프로세서(130)로 전송한다. The photographing unit 120 includes a lens module including a lens and an image sensor. The shape input through the lens is input as an optical signal to an image sensor serving as a film. The image sensor converts the input optical signal into an electrical signal and transmits the electrical signal to the processor 130.

특히, 촬영부(120)는 카메라와 픽셀 간의 거리데이터를 출력값으로 하는 뎁스 센서를 포함할 수 있다. 뎁스 센서는 카메라가 사람의 눈처럼 깊이를 파악하여 뎁스 정보를 생성할 수 있다. 뎁스 정보는 영상의 각각 픽셀별로 부여된 깊이 값으로, 뎁스 맵 형태가 될 수 있다. 뎁스 맵(Depth map)이란 이미지의 각 영역 별 뎁스 정보를 포함하고 있는 테이블을 의미한다. 영역은 픽셀 단위로 구분될 수도 있고, 픽셀 단위보다 큰 기설정된 영역으로 정의될 수도 있다. 일 예에 따라 뎁스 맵은 0~216 까지의 그레이 스케일(grayscale) 값으로 나타내어질 수 있다. In particular, the photographing unit 120 may include a depth sensor that outputs distance data between the camera and the pixel as an output value. The depth sensor can generate the depth information by detecting the depth like a human eye. The depth information is a depth value assigned to each pixel of the image, and may be a depth map type. Depth map is a table containing depth information for each area of an image. The area may be divided into a pixel unit or a predetermined area larger than a pixel unit. According to one example, the depth map may be represented by a grayscale value from 0 to 216. [

프로세서(130)는 전자 장치(100)의 전반적인 동작을 제어한다. 여기서, 프로세서(130)는 중앙처리장치(central processing unit(CPU)), controller, 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함할 수 있다.Processor 130 controls the overall operation of electronic device 100. The processor 130 may include one or more of a central processing unit (CPU), a controller, an application processor (AP), or a communication processor (CP) .

특히, 프로세서(130)는 뎁스 카메라에 의해 촬영된 뎁스 이미지을 표준 3차원 신체 모델에 적용하여 사용자의 3차원 신체 모델을 생성할 수 있다. In particular, the processor 130 may generate a three-dimensional body model of the user by applying the depth image photographed by the depth camera to the standard three-dimensional body model.

이를 위해 우선, 프로세서(130)는 표준 3차원 신체 모델의 포즈를 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성할 수 있다. To this end, the processor 130 may generate a three-dimensional body model reflecting the user's body structure by matching the pose of the standard three-dimensional body model with the pose of the user included in the depth image.

구체적으로, 프로세서(130)는 뎁스 이미지으로부터 추적된 사용자의 관절을 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 표준 3차원 신체 모델의 포즈를 뎁스 이미지에 포함된 사용자의 포즈와 정합할 수 있다. 이 경우, 프로세서(130)는 생성된 3차원 신체 모델의 리지드 바디 파트 별로 리사이징(resizing)을 수행할 수 있다. 예를 들어, 관절과 관절 사이의 리지드 바디 파트의 길이를 조정하거나, 각 리지드 바디 파트 간의 비율을 조정할 수 있다. Specifically, the processor 130 maps the joint of the user traced from the depth image to the joint of the standard three-dimensional body model, and deforms the shape of the rigid body part between the joint and the joint, The pose can be matched to the pose of the user included in the depth image. In this case, the processor 130 may perform resizing by the rigid body part of the generated three-dimensional body model. For example, you can adjust the length of the rigid body part between the joints and the joints, or adjust the ratio between each rigid body part.

또한, 프로세서(130)는 뎁스 이미지에서 획득된 뎁스 데이터에 기초하여 상기 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 뎁스 이미지에서 획득하지 못한 파트를 보상하여 사용자의 3차원 신체 모델을 생성할 수 있다. In addition, the processor 130 may transform at least a portion of the surface of the three-dimensional body model based on the depth data obtained in the depth image, and may generate a three-dimensional body model of the user by compensating for parts not obtained in the depth image have.

구체적으로, 프로세서(130)는, 뎁스 이미지로부터 뎁스 데이터에 기초하여 3차원 신체 모델이 사용자의 표면을 따라 변형되면, 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 뎁스 이미지에서 획득하지 못한 파트를 보상하여 사용자의 3차원 신체 모델을 생성할 수 있다. Specifically, when the three-dimensional body model is deformed along the user's surface based on the depth data from the depth image, the processor 130 determines whether the three-dimensional body model has low reliability based on the reliability of the vertex constituting the three- By moving the vertex to a position adjacent to the vertex with high reliability, it is possible to generate a three-dimensional body model of the user by compensating parts not acquired in the depth image.

한편, 프로세서(130)는 상술한 바와 같은 방법으로 생성된 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출할 수 있다. Meanwhile, the processor 130 may extract the user's body information from the user's three-dimensional body model generated in the manner described above.

일 예로, 프로세서(130)는 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀(linear regression) 방식을 적용하여 사용자의 신장 정보를 추출할 수 있다. 구체적으로, 프로세서(130)는 상체 및 하체 관절 간 거리를 측정한 후, 측정된 관절 간 거리에 선형 회귀 방식을 적용하여 사용자의 신장 정보를 측정할 수 있다. For example, the processor 130 may extract a user's kidney information by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model. Specifically, the processor 130 may measure the height information of the user by measuring the distance between the upper body and the lower body joint, and then applying the linear regression method to the measured inter-joint distance.

다른 예로, 프로세서(130)는, 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 방식을 적용하여 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출할 수 있다. As another example, the processor 130 may apply an ASM (Active Shape Model) type circumferential section shape fitting method to the user's three-dimensional body model to extract at least one of the user's waist circumference information and hip circumference information .

다른 예로, 프로세서(130)는, 사용자의 3차원 신체 모델에 메쉬(Mesh) 및 노멀(Normal) 정보를 적용하여 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출할 수 있다. As another example, the processor 130 may apply the Mesh and Normal information to the user's three-dimensional body model to calculate volume information corresponding to the user's three-dimensional body model, And body weight information to calculate at least one of weight information and body mass index information.

도 3은 도 2에 도시된 전자 장치의 구체적 구성을 나타내는 블럭도이다. 3 is a block diagram showing a specific configuration of the electronic device shown in Fig.

도 3에 따르면, 전자 장치(100')는 스토리지(110), 촬영부(120), 프로세서(130), 디스플레이(140)를 포함한다. 도 3에 도시된 구성 중 도 2에 도시된 구성과 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다. Referring to FIG. 3, an electronic device 100 'includes a storage 110, a photographing unit 120, a processor 130, and a display 140. 3 will not be described in detail. As shown in FIG.

프로세서(130)는 전자 장치(100')의 동작을 전반적으로 제어한다. Processor 130 generally controls the operation of electronic device 100 '.

구체적으로, 프로세서(130)는 RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n), 버스(136)를 포함한다.Specifically, the processor 130 includes a RAM 131, a ROM 132, a main CPU 133, a graphics processing unit 134, first through n interfaces 135-1 through 135-n, .

RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n) 등은 버스(136)를 통해 서로 연결될 수 있다. The RAM 131, the ROM 132, the main CPU 133, the graphics processing unit 134, the first to n interfaces 135-1 to 135-n, etc. may be connected to each other via the bus 136. [

제1 내지 n 인터페이스(135-1 내지 135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n-th interfaces 135-1 to 135-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device via a network.

메인 CPU(133)는 스토리지(110)에 액세스하여, 스토리지(110)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 스토리지(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The main CPU 133 accesses the storage 110 and performs booting using the O / S stored in the storage 110. [ Then, various operations are performed using various programs stored in the storage 110, contents, data, and the like.

ROM(132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(133)는 ROM(132)에 저장된 명령어에 따라 스토리지(110)에 저장된 O/S를 RAM(131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(133)는 스토리지(110)에 저장된 각종 어플리케이션 프로그램을 RAM(131)에 복사하고, RAM(131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The ROM 132 stores a command set for booting the system and the like. The main CPU 133 copies the O / S stored in the storage 110 to the RAM 131 according to the instruction stored in the ROM 132, executes the O / S, . When the booting is completed, the main CPU 133 copies various application programs stored in the storage 110 to the RAM 131, executes the application programs copied to the RAM 131, and performs various operations.

그래픽 처리부(134)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면, 예를 들어, 사용자의 3차원 신체 모델에 기반하여 추출된 사용자의 신체 정보를 포함하는 화면을 생성한다. 연산부(미도시)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 디스플레이(140)에 표시된다.The graphic processing unit 134 generates a graphic image based on a screen including various objects such as an icon, an image, text, and the like, for example, a three-dimensional body model of the user, using an operation unit (not shown) and a rendering unit And generates a screen including the user's body information. The operation unit (not shown) calculates an attribute value such as a coordinate value, a shape, a size, and a color to be displayed by each object according to the layout of the screen based on the received control command. The rendering unit (not shown) creates screens of various layouts including the objects based on the attribute values calculated by the operation unit (not shown). A screen generated in the rendering unit (not shown) is displayed on the display 140.

디스플레이(140)는 다양한 정보를 디스플레이한다. Display 140 displays various information.

특히, 디스플레이(140)는 사용자의 3차원 신체 모델에 기반하여 추출된 사용자의 신체 정보를 포함하는 UI 화면을 디스플레이할 수 있다. In particular, the display 140 may display a UI screen including body information of the extracted user based on the user's three-dimensional body model.

한편, 디스플레이(140)는 액정 디스플레이(liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 또한, 디스플레이(140)는 투명한 재질로 구현되어 정보를 디스플레이하는 투명 디스플레이로 구현되는 것도 가능하다.Meanwhile, the display 140 may be implemented as various types of displays such as a liquid crystal display, an organic light-emitting diode, a liquid crystal on silicon (LCoS), a digital light processing (DLP) have. Also, the display 140 may be implemented as a transparent display that is implemented with a transparent material and displays information.

통신부(150)는 유/무선 LAN, WAN, 이더넷, WI-FI(Wireless Fidelity), BT(BlueTooth), Zigbee, IR(Infrared), Serial Interface, USB(Universal Serial Bus), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 외부 장치와 통신을 수행한다. 예를 들어, 표준 3차원 신체 모델 데이터가 전자 장치(100')에 저장되어 있지 않은 경우 해당 데이터를 외부 장치로부터 수신하거나, 전자 장치(100')에 뎁스 카메라가 구비되지 않은 경우, 외부 장치로부터 사용자 촬영 이미지를 수신할 수 있다.The communication unit 150 may be connected to the communication unit 150 through a wired or wireless LAN, WAN, Ethernet, Wireless Fidelity, BT, Zigbee, Infrared, Serial Interface, Universal Serial Bus (USB) And the like, through a variety of communication methods. For example, when the standard three-dimensional body model data is not stored in the electronic device 100 ', the data is received from the external device, or when the depth camera is not provided in the electronic device 100' It is possible to receive a user photographed image.

그 밖에 전자 장치(100')는 그 구현 예에 따라 오디오 처리부(미도시), 비디오 처리부(미도시) 등의 다양한 구성요소를 더 포함할 수도 있다. In addition, the electronic device 100 'may further include various components such as an audio processing unit (not shown), a video processing unit (not shown), and the like according to the embodiment.

한편, 상술한 프로세서(130)의 동작은 스토리지(110)에 저장된 프로그램에 의해 이루어질 수 있다.Meanwhile, the operation of the processor 130 described above may be performed by a program stored in the storage 110. [

스토리지(110)는 도 2에서 설명한 바와 같은 표준 3차원 신체 모델을 포함하는 데이터 외에, 전자 장치(100')를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 각종 멀티미디어 컨텐츠와 같은 다양한 데이터를 저장한다. The storage 110 may store various data such as O / S (Operating System) software modules for driving the electronic device 100 'and various multimedia contents in addition to the data including the standard three-dimensional body model as described in FIG. .

도 4에 도시된 바와 같이 스토리지(110)는 본 발명의 일 실시 예에 따른 기능을 제공하는데 필요한 통신 모듈(111), 센싱 모듈(112), 신체 모델 생성 모듈(113), 신체 정보 추출 모듈(114) 등의 프로그램이 저장되어 있을 수 있다. 4, the storage 110 includes a communication module 111, a sensing module 112, a body model generation module 113, a body information extraction module 114) may be stored.

통신 모듈(111)은 외부 장치, 외부 서버와의 통신을 관리하는 모듈이다. 특히, 통신 모듈(111)은 외부 서버로부터 표준 3차원 신체 모델과 같은 데이터를 수신하거나, 외부 장치로부터 사용자 촬영 이미지를 수신하는데 이용되는 프로그램을 포함할 수 있다. The communication module 111 is a module for managing communication with an external device and an external server. In particular, the communication module 111 may include a program used to receive data, such as a standard three-dimensional body model, from an external server, or to receive a user captured image from an external device.

센싱 모듈(112)은 각종 센서들로부터 정보를 수집하고, 수집된 정보를 분석 및 관리하는 모듈이다. 특히, 센싱 모듈(112)은 촬영부(120)의 뎁스 센서에서 센싱된 관련된 값을 처리하는 기능을 수행하는 프로그램을 포함할 수 있다. The sensing module 112 is a module for collecting information from various sensors and analyzing and managing the collected information. In particular, the sensing module 112 may include a program for performing a function of processing a related value sensed by a depth sensor of the photographing unit 120.

신체 모델 생성 모듈(113)은 표준 3차원 신체 모델 및 사용자 촬영 이미지에 본 발명에 따른 알고리즘을 적용하여 사용자의 3차원 신체 모델을 생성하는 모듈이다. 예를 들어, 신체 모델 생성 모듈(113)은 사용자 관절 추적을 통한 표준 3차원 신체 모델과 사용자 이미지의 포즈 정합, 뎁스 정보를 통해 획득된 뎁스 반영, 뎁스 이미지에서 획득하지 못한 파트를 보상 등의 알고리즘을 적용하여 사용자의 3차원 신체 모델을 생성하는 알고리즘을 포함할 수 있다. The body model generation module 113 is a module for generating a user's three-dimensional body model by applying the algorithm according to the present invention to a standard three-dimensional body model and a user captured image. For example, the body model generation module 113 generates a three-dimensional body model by pose matching of a user's image with a standard three-dimensional body model through user joint tracking, reflection of depth obtained through depth information, compensation of parts not obtained in a depth image, To generate a three-dimensional body model of the user.

신체 정보 추출 모듈(114)은 사용자의 3차원 신체 모델 생성 모듈(123)을 통해 생성된 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 모듈이다. 예를 들어, 신체 정보 추출 모듈(124)은, 사용자의 신장 정보 추출을 위해 사용자의 3차원 신체 모델에 선형 회귀 (linear regression) 방식을 적용하는 알고리즘, 사용자의 신체 둘레 측정을 위해 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting)을 적용하는 알고리즘을 포함할 수 있다. The body information extraction module 114 is a module for extracting the user's body information from the three-dimensional body model of the user generated through the user's three-dimensional body model generation module 123. For example, the body information extraction module 124 may include an algorithm for applying a linear regression method to a user's three-dimensional body model to extract a user's height information, an algorithm for calculating a user's three- And may include an algorithm that applies an ASM (Active Shape Model) circumferential section shape fitting to the body model.

이와 같이, 프로세서(130)는 스토리지(110)에 저장된 다양한 소프트웨어 모듈을 사용하여 본 발명에 따른 기능을 제공할 수 있다. As such, the processor 130 may utilize various software modules stored in the storage 110 to provide functionality in accordance with the present invention.

이하에서는 도면을 참조하여 본 발명에 따른 사용자의 3차원 신체 모델 생성 방법 및 이를 이용한 신체 정보 추출 방법에 대해 좀더 자세히 설명하도록 한다. Hereinafter, a three-dimensional body model generation method and a body information extraction method using the same according to the present invention will be described in detail with reference to the drawings.

도 5는 본 발명의 일 실시 예에 따른 표준 3차원 신체 모델의 포즈를 사용자의 포즈와 정합하는 과정을 설명하기 위한 도면이다. 5 is a diagram illustrating a process of matching a pose of a standard three-dimensional body model with a pose of a user according to an embodiment of the present invention.

도 5에 도시된 바와 같이 표준 3차원 신체 모델(530)에 뎁스 센서를 이용하여, 추적할 사용자의 관절과 대응되는 관절점을 지정한다. 이 경우, 사용자의 뎁스 이미지(510)로부터 구해진 관절 위치 및 관절 사이의 리지드 바디 파트를 간략화하여 도시한 이미지(520)에 기초하여 관절 매핑을 수행할 수 있다. As shown in FIG. 5, joint points corresponding to joints of the user to be traced are designated by using a depth sensor in the standard three-dimensional body model 530. In this case, the joint mapping can be performed based on the image 520 shown by simplifying the joint positions and the rigid body parts between the joints obtained from the depth image 510 of the user.

이어서, 관절과 관절 사이의 관계에 따라 리지드 바디 파트를 인덱싱하고, 표준 3차원 신체 모델의 표면 상의 각 점들을 리지드 바디 파트에 따라 각각 인덱싱한다. The rigid body part is then indexed according to the relationship between the joints and the joints, and each point on the surface of the standard three-dimensional body model is indexed according to the rigid body part.

이어서, 뎁스 센서를 이용해서 실제 사용자의 관절을 추적한다. 추적 중인 실제 관절과 표준 3차원 신체 모델 내부의 관절을 이용해서 리지드 바디 파트의 변환 매트릭스(Transformation matrix)를 산출한다. 이 경우, 각 리지드 파트 별로 서로 다른 매트릭스를 산출할 수 있다. Then, the joint of the actual user is tracked by using the depth sensor. Calculate the transformation matrix of the rigid body part using the actual joints being tracked and the joints inside the standard three-dimensional body model. In this case, different matrices can be calculated for each rigid part.

이어서, 표준 3차원 신체 모델 표면의 버텍스들을, 인덱스에 따라서 매트릭스를 이용하여 변환한다. 각각의 리지드 바디 파트들이 매트릭스에 따라 변환되면, 추적 중인 실제 사용자의 포즈와 정합된 모델(540)이 생성된다.The vertices of the surface of the standard three-dimensional body model are then transformed using a matrix according to the index. Once each rigid body part is transformed according to a matrix, a matched model 540 is created that matches the pose of the actual user being tracked.

도 6 및 도 7은 본 발명의 일 실시 예에 따라 사용자의 뎁스 이미지를 기반으로 표면 변형(Deformation) 작업을 수행하는 방법을 설명하기 위한 도면이다.FIGS. 6 and 7 are views for explaining a method of performing a surface deforming operation based on a depth image of a user according to an embodiment of the present invention.

도 5에서 설명한 과정이 완료되면, 도 6에 도시된 바와 같이 뎁스 이미지(510)를 기반으로 표면을 부분적으로 변형하여 도 5에서 생성된 모델(540)을 실제 사람의 형태(610)로 변형하는 작업을 수행한다. 이 경우, 2D 뎁스 이미지 공간(depth image space)과 3D 카메라 공간(Camera space)의 캘리브레이션(Calibration)은 이미 정확히 수행이 되어 있다고 가정하도록 한다.When the process described with reference to FIG. 5 is completed, the surface 540 is partially transformed based on the depth image 510 as shown in FIG. 6 to transform the model 540 generated in FIG. 5 into a real person's shape 610 Perform the operation. In this case, it is assumed that the 2D depth image space and the calibration of the 3D camera space have already been performed correctly.

획득된 뎁스 이미지를 이용하여 표준 모델의 표면을 변형하는 방법은 다음과 같다. 도 7의 710 이미지에서 보여지듯이, 표준 모델상의 각 Point 는 그와 매핑되는 뎁스 이미지상의 Point

Figure pat00001
의 위치로 움직여야 한다.
Figure pat00002
의 위치는,
Figure pat00003
와 가장 가까운 표준 모델상의 Joint
Figure pat00004
Figure pat00005
를 지나는 라인
Figure pat00006
과 뎁스 이미지상의 surface가 교점을 이루는 점을 찾으면 구할 수 있다. 그러나 이 방법으로 교점을 계산하는 데 많은 계산량이 소요되므로 근사 방법을 사용한다.The method of deforming the surface of the standard model using the obtained depth image is as follows. As shown in the image 710 of FIG. 7, each Point on the standard model is associated with a Point on the depth image
Figure pat00001
To the position of.
Figure pat00002
Lt; / RTI >
Figure pat00003
Joint on the nearest standard model
Figure pat00004
Wow
Figure pat00005
Line passing through
Figure pat00006
And the surface on the depth image intersect each other. However, since this method requires a lot of computation to calculate the intersection, we use the approximation method.

근사 방법은 다음과 같다.

Figure pat00007
를 초기 위치로 하여, 수학식 1을 이용하여
Figure pat00008
라인 상의 특정 위치로
Figure pat00009
의 위치를 이동시킨다.이를 반복적으로 수행하여, 수렴되는 위치를
Figure pat00010
가 이동해야 할
Figure pat00011
의 위치로 정한다. 매 반복마다, 모델 상의 포인트
Figure pat00012
은 다음 근사 위치
Figure pat00013
로 이동된다. 여기서
Figure pat00014
은 포인트
Figure pat00015
과 매핑되는 뎁스 이미지상 위치에서의 뎁스 값이며 α는 라인
Figure pat00016
의 기울기를 나타낸다. 반복의 종료 여부는 수학식 2로 평가된다. 도 7의 720 이미지는 반복에 의해
Figure pat00017
의 위치가 근사화되는 과정을 보여준다.The approximate method is as follows.
Figure pat00007
Is defined as an initial position, using Equation (1)
Figure pat00008
To a specific location on the line
Figure pat00009
Is moved repeatedly, and the position converged
Figure pat00010
Should go
Figure pat00011
. For each iteration,
Figure pat00012
The next approximate position
Figure pat00013
. here
Figure pat00014
Point
Figure pat00015
Is a depth value at a position on a depth image mapped to a line
Figure pat00016
. The end of the iteration is evaluated by the following equation (2). The image 720 of FIG. 7 is repeated
Figure pat00017
And the position of the target is approximated.

Figure pat00018
Figure pat00018

Figure pat00019
Figure pat00019

도 8 및 도 9는 본 발명의 일 실시 예에 따른 뎁스 센서에서 데이터를 획득하지 못한 부분에 대한 보상 과정을 설명하기 위한 도면들이다.8 and 9 are diagrams for explaining a compensation process for a portion where data is not acquired in the depth sensor according to an embodiment of the present invention.

보상 과정은, 도 8에 도시된 바와 같이, 뎁스 센서에서 데이터를 획득하지 못해 변형이 이루어지지 않은 부분(도8의 이미지 810에서 회색 영역, 이하, unseen 파트)에 대해 데이터를 획득한 부분(도 8의 이미지 810에서 흰색 영역, 이하, seen 파트)의 정보를 이용하여 변형을 수행함으로써 사용자의 3차원 신체 모델을 완전하게 생성할 수 있게 된다. 이하에서는 unseen 파트를 보상하는 방법에 대해 도 9을 참조하여 설명하도록 한다. As shown in Fig. 8, the compensation process is performed by using a portion (data portion) obtained by obtaining data for a portion where the data can not be acquired by the depth sensor and is not deformed (gray region in the image 810 in Fig. 8, 8), it is possible to completely generate the user's three-dimensional body model by performing the transformation using the information of the white area (hereinafter, seen part) in the image 810 of FIG. Hereinafter, a method of compensating for the unseen part will be described with reference to FIG.

우선 모델 상의 모든 버텍스들은 형상을 결정 짓는 3차원 공간 상에서의 위치에 대한 신뢰도를 나타내는 컨피던스(confidence) 값을 가지고 있다. 컨피던스의 초기 값은 도 9에 도시된 바와 같이 seen 파트는 1, unseen 파트는 대략 0으로 설정할 수 있다. 즉 카메라에 의해 획득된 버텍스는 가장 높은 신뢰도를 가지며, 카메라에 의해 보이지 않아 초기 모델의 모양을 유지하고 있는 버텍스는 가장 낮은 신뢰도를 가진다. 이러한 컨피던스를 이용하여, 모델 상에서 모든 버텍스들이 3차원 공간상에서 최적의 위치를 찾아 이동하도록 움직임 모멘텀을 발생시키는 에너지 함수를 만들고, 에너지가 최소화 되도록 반복적인 컨피던스 전파(Confidence Propagation)를 수행하여 버텍스들을 이동시켜 모델 표면을 변형한다. First, all the vertices on the model have a confidence value that indicates the reliability of the position in the three-dimensional space that determines the shape. The initial value of the confidentiality can be set to 1, and the unseen part can be set to approximately 0, as shown in Fig. That is, the vertex obtained by the camera has the highest reliability, and the vertex, which is invisible by the camera and maintains the shape of the initial model, has the lowest reliability. Using this confidence, an energy function is created to generate motion momentum so that all the vertices on the model can move to the optimum position in the three-dimensional space. Confidence propagation is performed so that energy is minimized to move the vertices To deform the model surface.

특정 버텍스 p에 대한 에너지 함수 E는 아래 수학식 3과 같이 Ec 와 Es의 두 에너지 함수로 구성될 수 있다. The energy function E for a particular vertex p can be composed of two energy functions Ec and Es as shown in Equation 3 below.

Figure pat00020
Figure pat00020

먼저, Ec 는 특정 버텍스 p가 가지고 있는 컨피던스에 대한 에너지이고, Es 는 특정 버텍스 p에 대한 모델 표면 형상의 Smoothness에 관한 에너지이다. First, Ec is the energy for the specific vertex p and Es is the energy related to the smoothness of the model surface shape for a particular vertex p.

에너지 함수 Ec 는 다음 수학식 4와 같이 표현될 수 있다. The energy function Ec can be expressed by the following equation (4).

Figure pat00021
Figure pat00021

여기서,

Figure pat00022
는 p의 8개의 이웃 포인트들 중i번째 이웃 포인트이며,
Figure pat00023
는 그 이웃 포인트의 컨피던스를 나타낸다. 모든 포인트들의 컨피던스는
Figure pat00024
이라고 가정한다. 즉 본 계산식은 이웃한 버텍스까지의 거리에 반비례하는 가중치를 곱한 컨피던스값들의 합을 계산하여 이를 최소화 한다. 다시 말하여, 이웃한 버텍스들중 높은 컨피던스를 가지는 점들과의 거리를 줄여나가는 방향으로 현재 버텍스를 움직이도록 한다.here,
Figure pat00022
Is the i < th > neighboring point of the eight neighboring points of p,
Figure pat00023
Represents the confidence of the neighbor point. The confidence of all points is
Figure pat00024
. In other words, this formula minimizes the sum of the confidence values multiplied by the weight inversely proportional to the distance to the neighboring vertex. In other words, it moves the current vertex in a direction that reduces the distance from the neighboring vertices with high confidence.

또한, 에너지 함수 Es 는 다음 수학식 5와 같이 표현될 수 있다. Further, the energy function Es can be expressed by the following equation (5).

Figure pat00025
Figure pat00025

여기서 βi는 이웃 포인트의 컨피던스에 대한 가중치이다.이웃한 버텍스

Figure pat00026
에서 이웃한 두 버텍스와 형성하는 사잇각도 값 대한 2차 미분값의 합을 모두 더한 값이 에너지에 해당한다. 이는 각 이웃 버텍스에서 다시 주변 점들과의 곡률을 계산하고 이를 모두 더한 값에 해당한다. 즉 현재 버텍스가 이웃한 버텍스들과 만드는 사잇각의 변화가 가장 적은 위치, 즉 주변 버텍스들이 가지는 곡률을 유지하는 위치로 현재 버텍스를 이동 하도록 한다. 에너지 함수는 신뢰도(Confidence)를 가중치로 사용하고 있는데, 반복해서 신뢰도를 전파할 때 마다 신뢰도가 새롭게 갱신되어 에너지 함수에도 영향을 끼친다. 이 경우, 신뢰도의 갱신은 다음 수학식 5와 같이 이루어진다. Where < RTI ID = 0.0 > is a weight for the confidence of the neighboring point.
Figure pat00026
The sum of the values of the secondary differential values of the angle of incidence formed with the two adjacent vertices is added to the energy. This computes the curvature with the neighboring vertices again at each neighbor vertex and adds up to the sum. That is, the current vertex moves the current vertex to the position where the change of the angle of making with the adjacent vertices is the lowest, that is, the position maintaining the curvature of the surrounding vertices. The energy function uses the confidence as a weight, and each time the reliability is repeatedly propagated, the reliability is renewed to affect the energy function as well. In this case, the reliability is updated according to the following equation (5).

Figure pat00027
Figure pat00027

이렇게 정해진 에너지 함수를 최소화하도록 컨피던스가 낮은 모든 버텍스들을 반복적으로 이동시킨다. 이 경우 버텍스의 이웃포인트들의 컨피던스의 합이 β 보다 작을 때만 수행하도록 반복을 제한할 수 있다.All vertices with low confidence are moved repeatedly to minimize this energy function. In this case, iteration can be restricted to perform only when the sum of the confidences of the vertex's neighboring points is less than?.

도 10 및 도 11은 본 발명의 다른 실시 예에 따른 사용자의 3차원 신체 모델 생성 방법을 설명하기 위한 도면들이다. 10 and 11 are views for explaining a method of generating a three-dimensional body model of a user according to another embodiment of the present invention.

도 10 및 도 11에 따르면 도 5 내지 도 9에서 설명한 바와 달리, 복수의 다시점 뎁스 이미지를 이용하여 사용자의 3차원 신체 모델을 생성할 수 있다. 여기서, 다시점 이미지는, 고정 자세가 아닌 연속적으로 임의 자세를 취하며 움직이는 사용자를 실시간으로 촬영하여 획득될 수 있다. Referring to FIGS. 10 and 11, a three-dimensional body model of a user can be generated by using a plurality of depth-depth images, unlike in FIGS. Here, the multi-view image can be obtained by photographing a moving user in real time without taking a fixed posture and continuously taking an arbitrary posture.

복수의 다시점 뎁스 이미지를 이용하는 경우, 도 5 내지 9에서 설명한 하나의 뎁스 이미지를 이용하는 경우와 일부 과정은 유사하지만, 일부 과정은 상이할 수 있다. When a plurality of depth-depth images are used, some processes are similar to the case of using one depth image described in FIGS. 5 to 9, but some processes may be different.

구체적으로 도 5에서 설명한 포즈 정합 과정은 해당 실시 예에도 동일하게 적용되므로 자세한 설명은 생략하도록 한다. Specifically, the pose matching process described with reference to FIG. 5 is applied to the same embodiment, so a detailed description will be omitted.

복수의 다시점 뎁스 이미지를 이용하는 경우 도 10에 도시된 바와 같이 1 단계로 포즈 정합(도 5에 도시된 바와 동일)을 수행한 후 2 단계로 ICP 기반 로컬 형상 정합 방식을 추가로 이용하여 사용자의 3차원 신체 모델을 생성할 수 있다. In the case of using a plurality of depth-depth images, as shown in FIG. 10, a pose matching (the same as shown in FIG. 5) is performed in one step and then an ICP-based local shape matching method is further used in a two- A three-dimensional body model can be created.

구체적으로, 각 신체 부위 별로 ICP 기반 로컬 형상 정합 방식을 이용하여, 사용자의 뎁스 이미지에 따른 표면을 도 5의 과정을 통해 생성한 모델에 적용하여 모델 형상을 변형하고, 관절 위치를 복원할 수 있다. 또한, 도 11에 도시된 과정은 복수의 촬영된 다시점 이미지 각각에 대해 수행될 수 있다. Specifically, using the ICP-based local shape matching method for each body part, the surface according to the depth image of the user can be applied to the model generated through the procedure of FIG. 5 to modify the model shape and restore the joint position . In addition, the process shown in Fig. 11 can be performed for each of a plurality of photographed multi-view images.

여기서, ICP(iterative closest point)는 뎁스 이미지로부터 획득한 사람 신체에 해당하는 3차원 포인트들과 모델의 버텍스 포인트 들 간의 변위를 추정하는데 이용된다. 각 신체 부위별로 모델의 3차원 버텍스 포인트들이 뎁스 이미지로부터 획득한 해당 부분의 3차원 포인트들과 최소의 거리 차이를 가지게 되도록 각각 정합한다. 이러한 과정을 거쳐 포즈 정합 단계에서 반영되지 못한 보다 세밀한 신체의 움직임에 따른 형상 변화가 반영되어 신체 움직임을 추적할 수 있게 된다. Here, an iterative closest point (ICP) is used to estimate the displacement between the three-dimensional points corresponding to the human body obtained from the depth image and the vertex points of the model. Dimensional vertex points of the model for each body part are matched so as to have a minimum distance difference from the 3D points of the corresponding part obtained from the depth image. Through this process, the body movement can be tracked by reflecting the shape change due to the more detailed body movement which is not reflected in the pose registration step.

도 12는 본 발명의 다른 실시 예에 따라 생성된 사용자의 3차원 신체 모델을 일 예를 나타내는 도면이다. 12 is a view showing an example of a three-dimensional body model of a user generated according to another embodiment of the present invention.

본 발명의 다른 실시 예에 따르면, 기설정된 변형 파라미터를 이용하여 정합한 사용자의 누드 모델을 이용하여 사용자의 신체 정보를 측정할 수 있다. According to another embodiment of the present invention, the body information of the user can be measured using the nude model of the user matched using the predetermined deformation parameter.

구체적으로, 상술한 방법을 통해 획득한 사용자의 3차원 신체 모델을 사용할 수도 있으나, 옷, 가방과 같은 신체 이외의 형상이 반영되는 문제점을 해결하기 위하여 도 12에 도시된 바와 같이 새로운 누드 모델을 정합하는 방식을 사용할 수도 있다. 즉, 포즈 정합 단계를 거쳐 획득한 3차원 신체 모델에, 사람 신체의 부위별 변화 파라미터에 의한 제한적 변형만이 가능한 누드 모델을 추가 정합한 후, 정합 완료된 누드 모델을 이용하여 신체 정보를 측정하는 방식을 이용할 수 있다. 여기서, 누드 모델은 상술한 바와 같이 입력 이미지의 뎁스 정보에 의해 변형되는 것이 아니라, 도 12에 도시된 바와 같이 각 신체별 변형 파라미터에 의해 변형되며, 이러한 변형으로 옷, 가방과 같은 신체 이외의 형상에 영향이 없는 순수한 신체 형상 정보 만을 따로 추출할 수 있게 된다.Specifically, a three-dimensional body model of the user obtained through the above-described method may be used. However, in order to solve the problem that a shape other than a body such as a clothes or a bag is reflected, a new nude model is matched May be used. That is, a nude model capable of only limited modification by the change parameter of the human body part is additionally matched to the three-dimensional body model obtained through the pose matching step, and then the body information is measured using the matched nude model Can be used. Here, the nude model is not deformed by the depth information of the input image as described above, but is deformed by the deformation parameters of each body as shown in Fig. 12, and by this deformation, shapes other than the body such as clothes, It is possible to extract only pure body shape information that does not affect the body shape information.

도 12에 도시된 바와 같은 사용자의 3차원 신체 모델이 생성되면, 이에 기초하여 다양한 신체 정보를 추출할 수 있다. 예를 들어, 신장, 허리 둘레, 엉덩이 둘레, 복부 비만도, 체중, 체질량 지수, 가슴 둘레, 어깨 넓이, 허벅지 둘레, 팔 둘레 등의 신체 정보를 추출할 수 있다. When the user's three-dimensional body model is generated as shown in FIG. 12, various body information can be extracted based on the generated three-dimensional body model. For example, body information such as height, waist circumference, hip circumference, abdominal obesity, body weight, body mass index, chest circumference, shoulder width, thigh circumference, and arm circumference can be extracted.

이하에서는 도면을 참조하여 몇 가지 신체 정보 추출 방법을 예를 들어 설명하도록 한다. Hereinafter, some body information extraction methods will be described with reference to the drawings.

도 13은 본 발명의 일 실시 예에 따라 신장 정보를 추출하는 방법을 설명하기 위한 도면이다. 13 is a diagram for explaining a method of extracting extension information according to an embodiment of the present invention.

도 13에 도시된 바와 같이 관절 추적을 통해 상체 및 하체 관절 그룹을 판단하고, 상체 및 하체 관절 간 거리를 측정하여 신장 및 부분 신장 정보 추출이 가능하며, 상/하체 비율 정보와 같은 신체 정보도 추출할 수 있다. As shown in FIG. 13, it is possible to determine the upper and lower body joint groups through joint tracking, and to extract extension and partial extension information by measuring the distance between the upper body and lower joint, and to extract the body information such as the upper / can do.

다만, 본 발명의 일 실시 예에 따라 측정된 관절 간 거리에 선형 회귀(linear regression) 방식을 적용하여 사용자의 신장 정보를 추출할 수 있다. 즉, 관절 거리가 노이즈로 인해 부정확할 수 있으므로, 측정된 관절 간 거리의 y 축 합을 선형 회귀 방식의 입력으로 제공하여 좀더 정확한 신장 측정이 가능하게 된다. However, it is possible to extract the kidney information of the user by applying a linear regression method to the inter-joint distance measured according to an embodiment of the present invention. That is, since the joint distance may be inaccurate due to the noise, the y-axis sum of the measured inter-joint distance is provided as an input to the linear regression method, thereby enabling more accurate measurement of the elongation.

이 경우, 신장 및 부분 신장 정보 추출이 가능하며, 상/하체 비율 정보와 같은 신체 정보도 추출할 수 있다. In this case, extension and partial extension information extraction is possible, and body information such as upper / lower body ratio information can be extracted.

도 14는 본 발명의 일 실시 예에 따라 허리 둘레 및 엉덩이 둘레 정보를 추출하는 방법을 설명하기 위한 도면이다. FIG. 14 is a diagram for explaining a method of extracting information on the waist circumference and the hip circumference according to an embodiment of the present invention.

도 14에 도시된 바와 같이 Active Scisor 방식의 둘레 단면 형상 피팅 (Fitting) 및 거리 측정을 통해 다양한 신체 둘레 정보를 산출할 수 있다. As shown in FIG. 14, various body circumference information can be calculated through a circumferential sectional shape fitting of an active scissor system and distance measurement.

구체적으로, 도시된 바와 같이 사용자의 3차원 신체 모델에서 둘레를 측정하고자 하는 부위, 예를 들어 허리 주변에 원형 모델을 생성하고, 해당 원형 모델을 구성하는 포인트들을 사용자의 3차원 신체 모델에 대한 최단 거리 표면으로 이동한 후 원형 모델 포인트 간 거리를 계산하여 허리 둘레를 산출할 수 있다. Specifically, as shown in the figure, a circular model is created at a portion of the user's three-dimensional body model where the circumference is to be measured, for example, around the waist, and the points constituting the corresponding circular model are set as the shortest After moving to the distance surface, the waist circumference can be calculated by calculating the distance between the circular model points.

이러한 방식을 통해 허리 둘레 A(WHR(Waist Hip Ratio)용), 허리 둘레 B(하의 Size), 엉덩이 둘레(WHR용), 복부 비만도 등 다양한 신체 둘레 정보를 산출할 수 있다. 이 경우, 복부 비만도는 (허리 둘레)/(엉덩이 둘레)와 같은 방식을 통해 산출할 수 있다. 이외에도 유사한 방법을 통해 가슴둘레, 어깨넓이, 허벅지둘레, 팔둘레 등과 같은 다양한 신체 정보를 산출할 수 있다.In this way, various body circumference information such as waist circumference A (for WHR (Waist Hip Ratio)), waist circumference B (bottom size), hip circumference (for WHR), abdominal obesity can be calculated. In this case, the abdominal obesity degree can be calculated by a method such as (waist circumference) / (hip circumference). In addition, various body information such as the chest circumference, shoulder width, thigh circumference, and arm circumference can be calculated by a similar method.

도 15는 본 발명의 일 실시 예에 따라 체중 정보를 추출하는 방법을 설명하기 위한 도면이다.15 is a view for explaining a method of extracting body weight information according to an embodiment of the present invention.

도 15에 도시된 바와 같이 Mesh 와 Normal 정보를 이용하여, 사면체 부피 축적 방식으로 사용자의 3차원 신체 모델의 부피를 산출할 수 있다. 이 후, 부피와 체중 관계를 이용하여 전신 및 부분별 체중을 산출할 수 있다. 또한, "체중/(신장^2)"와 같은 식을 통해 체질량 지수(Body Mass Index: BMI)를 산출할 수 있다. As shown in FIG. 15, the volume of the three-dimensional body model of the user can be calculated using the tetrahedral volume accumulation method using the Mesh and Normal information. Thereafter, body and partial body weight can be calculated using the volume and weight relationship. In addition, the body mass index (BMI) can be calculated through an expression such as "weight / (height ^ 2)".

도 16은 본 발명의 일 실시 예에 따라 디스플레이되는 UI 화면의 일 예를 나타내는 도면이다. 16 is a view showing an example of a UI screen displayed according to an embodiment of the present invention.

도 16에 도시된 바와 같이 사용자의 3차원 신체 모델 및 그에 기초하여 추출된 다양한 신체 정보를 포함하는 UI 화면이 디스플레이를 통해 제공될 수 있다. As shown in FIG. 16, a UI screen including a user's three-dimensional body model and various body information extracted based thereon may be provided through a display.

도 17은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다. 17 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention.

도 17에 도시된 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법에 따르면, 우선 뎁스 카메라를 이용하여 사용자를 촬영한다(S1710). According to the method of controlling an electronic device according to an embodiment of the present invention shown in Fig. 17, first, a user is photographed using a depth camera (S1710).

이어서, 뎁스 카메라에 의해 촬영된 뎁스 이미지을 기저장된 표준 3차원 신체 모델에 적용하여 사용자의 3차원 신체 모델을 생성한다(S1720).Then, the depth image photographed by the depth camera is applied to the pre-stored standard three-dimensional body model to generate the user's three-dimensional body model (S1720).

이 후, 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출한다(S1730). Thereafter, the user's body information is extracted from the user's three-dimensional body model (S1730).

또한, 사용자의 3차원 신체 모델을 생성하는 S1720 단계는, 표준 3차원 신체 모델의 포즈를 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계 및, 뎁스 이미지에서 획득된 뎁스 정보에 기초하여 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 뎁스 이미지에서 획득하지 못한 파트를 보상하여 사용자의 3차원 신체 모델을 생성하는 단계를 포함할 수 있다.The step S1720 of generating the user's three-dimensional body model includes the steps of generating a three-dimensional body model reflecting the user's body structure by matching the pose of the standard three-dimensional body model with the pose of the user included in the depth image, Modifying at least a part of the surface of the three-dimensional body model based on the depth information obtained from the depth image, and generating a three-dimensional body model of the user by compensating the part not obtained in the depth image.

또한, 사용자의 3차원 신체 모델을 생성하는 S1720 단계에서는, 뎁스 이미지으로부터 추적된 사용자의 관절을 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합할 수 있다.In addition, in step S1720 of generating the user's three-dimensional body model, the joint of the user traced from the depth image is mapped with the joint of the standard three-dimensional body model, and the shape of the rigid body part between the joints and joints is transformed So that the pose of the standard three-dimensional body model can be matched with the pose of the user included in the depth image.

또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 생성된 3차원 신체 모델의 리지드(rigid) 바디 파트 별로 리사이징(resizing)을 수행하여 사용자의 3차원 신체 모델을 생성할 수 있다.In addition, the step of generating the user's three-dimensional body model may generate a three-dimensional body model of the user by performing resizing for each rigid body part of the generated three-dimensional body model.

또한, 사용자의 3차원 신체 모델을 생성하는 S1720 단계에서는, 뎁스 정보에 기초하여 3차원 신체 모델이 상기 사용자의 표면을 따라 변형되면, 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 뎁스 이미지에서 획득하지 못한 파트를 보상할 수 있다. If the three-dimensional body model is deformed along the surface of the user based on the depth information, based on the reliability of the vertex constituting the three-dimensional body model, Moving a vertex with low reliability to a location adjacent to a vertex with high reliability can compensate for parts that are not acquired in the depth image.

또한, 사용자의 신체 정보를 추출하는 S1730 단계는, 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀 (linear regression) 방식을 적용하여 사용자의 신장 정보를 추출할 수 있다. In addition, in step S1730 of extracting the body information of the user, the kidney information of the user can be extracted by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model.

또한, 사용자의 신체 정보를 추출하는 S1730 단계에서는, 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 및 거리 측정을 적용하여 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출할 수 있다. In step S1730 of extracting the user's body information, a peripheral section shape fitting and a distance measurement of the ASM (Active Shape Model) method are applied to the user's three-dimensional body model to calculate the waist circumference information and the hip circumference information At least one of them can be extracted.

또한, 사용자의 신체 정보를 추출하는 S1730 단계에서는, 사용자의 3차원 신체 모델에 메쉬(Mesh) 정보를 적용하여 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출할 수 있다. In addition, in step S1730 of extracting the user's body information, mesh information corresponding to the user's three-dimensional body model is calculated to calculate volume information corresponding to the user's three-dimensional body model, Weight relationship and weight information and body mass index information can be calculated.

또한, 사용자의 3차원 신체 모델을 생성하는 S1720 단계는, 다 시점에서 촬영된 복수 개의 뎁스 이미지를 이용하는 경우, 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계 및, 생성된 3차원 신체 모델에 ICP(iterative closest point) 기반 로컬 트랙킹 방식을 이용하여 형상 변형을 수행하여 사용자의 3차원 신체 모델을 생성하는 단계를 포함할 수 있다. If a plurality of depth images photographed at a plurality of points are used, the pose of the standard three-dimensional body model is matched with the pose of the user included in the depth image to generate the three-dimensional body model of the user, A step of generating a three-dimensional body model reflecting the body structure, and a step of deforming the generated three-dimensional body model using an iterative closest point (ICP) based local tracking method to generate a three-dimensional body model of the user .

이상 설명한 바와 같이 본 발명의 다양한 실시 예에 따르면, 간단한 촬영 만으로, 실제 사용자의 신체에 부합하는 사용자의 3차원 신체 모델을 생성함으로써 최적의 서비스를 제공할 수 있게 된다. As described above, according to various embodiments of the present invention, it is possible to provide an optimal service by creating a three-dimensional body model of a user that matches the body of an actual user with only a simple photographing operation.

상술한 바와 같은 방법에 따라 생성된 사용자의 3차원 신체 모델은 매일 변화하는 체형을 기록하는 서비스, 허리둘레나 다리길이 등의 신체 사이즈를 추정하여 개개인의 체형을 고려한 옷 치수를 추천하는 서비스 등에 사용될 수 있다.The three-dimensional body model of the user generated according to the above-described method is a service for recording a body shape that changes every day, a body size estimation such as a waist circumference or a leg length, and a service for recommending clothes dimensions considering an individual body shape .

상술한 다양한 실시 예에 따른, 전자 장치의 제어 방법은 프로그램으로 구현되어 다양한 기록 매체에 저장될 수 있다. 즉, 각종 프로세서에 의해 처리되어 상술한 다양한 제어 방법을 실행할 수 있는 컴퓨터 프로그램이 기록 매체에 저장된 상태로 사용될 수도 있다.The control method of the electronic device according to the above-described various embodiments may be implemented by a program and stored in various recording media. That is, a computer program, which is processed by various processors and can execute the various control methods described above, may be stored in the recording medium.

일 예로, 뎁스 카메라에 의해 촬영된 뎁스 이미지을 기저장된 표준 3차원 신체 모델에 적용하여 상기 사용자의 3차원 신체 모델을 생성하는 단계 및, 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 단계를 포함하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.For example, a step of generating a three-dimensional body model of a user by applying a depth image photographed by a depth camera to a pre-stored standard three-dimensional body model, and extracting a user's body information from the user's three- A non-transitory computer readable medium may be provided.

비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.

100: 전자 장치 110: 스토리지
120: 촬영부 130: 프로세서
100: electronic device 110: storage
120: photographing unit 130: processor

Claims (20)

표준 3차원 신체 모델을 저장하는 스토리지;
뎁스 카메라를 이용하여 사용자를 촬영하는 촬영부; 및
상기 뎁스 카메라에 의해 촬영된 뎁스 이미지을 상기 표준 3차원 신체 모델에 적용하여 상기 사용자의 3차원 신체 모델을 생성하고, 상기 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 프로세서;를 포함하는 전자 장치.
Storage to store standard three-dimensional body models;
A photographing unit photographing a user using a depth camera; And
And a processor for applying the depth image photographed by the depth camera to the standard three-dimensional body model to generate the three-dimensional body model of the user and extracting the user's body information from the three-dimensional body model of the user Device.
제1항에 있어서,
상기 프로세서는,
상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하고, 상기 뎁스 이미지에서 획득된 뎁스 정보에 기초하여 상기 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 전자 장치.
The method according to claim 1,
The processor comprising:
Dimensional body model reflecting the body structure of the user by matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image, and generating a three-dimensional body model based on the depth information obtained in the depth image, Deforms at least a portion of the body model surface and compensates for parts not obtained in the depth image to generate the three-dimensional body model of the user.
제2항에 있어서,
상기 프로세서는,
상기 뎁스 이미지으로부터 추적된 사용자의 관절을 상기 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하는 것을 특징으로 하는 전자 장치.
3. The method of claim 2,
The processor comprising:
Mapping a joint of the user traced from the depth image to a joint of the standard three-dimensional body model, and deforming a shape of a rigid body part between the joint and the joint, Is matched with a pose of a user included in the electronic device.
제3항에 있어서,
상기 프로세서는,
상기 생성된 3차원 신체 모델의 리지드 바디 파트 별로 길이 조정 및 비율 조정 적어도 하나에 따른 리사이징(resizing)을 수행하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 전자 장치.
The method of claim 3,
The processor comprising:
Wherein the controller generates the three-dimensional body model of the user by performing resizing according to at least one of length adjustment and ratio adjustment for each rigid body part of the generated three-dimensional body model.
제2항에 있어서,
상기 프로세서는,
상기 뎁스 정보에 기초하여 상기 3차원 신체 모델이 상기 사용자의 표면을 따라 변형되면, 상기 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 전자 장치.
3. The method of claim 2,
The processor comprising:
If the three-dimensional body model is deformed along the surface of the user based on the depth information, the vertex having low reliability based on the reliability of the vertex constituting the three-dimensional body model is referred to as a vertex having high reliability Dimensional body model of the user by moving to an adjacent position and compensating for parts not obtained in the depth image.
제1항에 있어서,
상기 프로세서는,
상기 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀 (linear regression) 방식을 적용하여 상기 사용자의 신장 정보를 추출하는 것을 특징으로 하는 전자 장치.
The method according to claim 1,
The processor comprising:
And extracting the kidney information of the user by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model.
제1항에 있어서,
상기 프로세서는,
상기 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 및 거리 측정을 적용하여 상기 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출하는 것을 특징으로 하는 전자 장치.
The method according to claim 1,
The processor comprising:
Wherein at least one of the waist circumference information and the hip circumference information of the user is extracted by applying an ASM (Active Shape Model) circumferential sectional shape fitting and distance measurement to the user's three-dimensional body model Device.
제1항에 있어서,
상기 프로세서는,
상기 사용자의 3차원 신체 모델에 메쉬(Mesh) 정보를 적용하여 상기 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출하는 것을 특징으로 하는 전자 장치.
The method according to claim 1,
The processor comprising:
The mesh information is applied to the user's three-dimensional body model to calculate volume information corresponding to the user's three-dimensional body model, and volume and weight relationship is applied to the calculated volume information to calculate weight information and body mass index Information of at least one of the plurality of devices.
제1항에 있어서,
상기 프로세서는,
단일 시점에서 촬영된 한 장의 뎁스 이미지 또는 다 시점에서 촬영된 복수 개의 뎁스 이미지에 기초하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 전자 장치.
The method according to claim 1,
The processor comprising:
Dimensional body model of the user based on a depth image taken at a single viewpoint or a plurality of depth images taken at multiple viewpoints.
제9항에 있어서,
상기 프로세서는,
상기 복수 개의 뎁스 이미지를 이용하는 경우, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하고, 상기 생성된 3차원 신체 모델에 ICP(iterative closest point) 기반 로컬 트랙킹 방식을 이용하여 형상 변형을 수행하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 전자 장치.
10. The method of claim 9,
The processor comprising:
Dimensional body model reflecting the user's body structure by matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image when the plurality of depth images are used, Wherein the shape transformation is performed on the body model using an iterative closest point (ICP) based local tracking method to generate the three-dimensional body model of the user.
제1항에 있어서,
디스플레이;를 더 포함하며,
상기 프로세서는,
상기 사용자의 3차원 신체 모델에 기반하여 상기 추출된 사용자의 신체 정보를 포함하는 UI 화면을 상기 디스플레이를 통해 디스플레이하는 것을 특징으로 하는 전자 장치.
The method according to claim 1,
Further comprising a display,
The processor comprising:
And displays the UI screen including the extracted user's body information on the display based on the three-dimensional body model of the user.
전자 장치의 제어 방법에 있어서,
뎁스 카메라를 이용하여 사용자를 촬영하는 단계;
상기 뎁스 카메라에 의해 촬영된 뎁스 이미지을 기저장된 표준 3차원 신체 모델에 적용하여 상기 사용자의 3차원 신체 모델을 생성하는 단계; 및
상기 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 단계;를 포함하는 제어 방법.
A method of controlling an electronic device,
Capturing a user using a depth camera;
Generating a three-dimensional body model of the user by applying a depth image photographed by the depth camera to a pre-stored standard three-dimensional body model; And
And extracting the user's body information from the three-dimensional body model of the user.
제12항에 있어서,
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계; 및
상기 뎁스 이미지에서 획득된 뎁스 정보에 기초하여 상기 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.
13. The method of claim 12,
Wherein the generating the three-dimensional body model of the user comprises:
Matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image to generate a three-dimensional body model reflecting the body structure of the user; And
Modifying at least a part of the surface of the three-dimensional body model based on the depth information obtained in the depth image and generating a three-dimensional body model of the user by compensating the part not obtained in the depth image .
제13항에 있어서,
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
상기 뎁스 이미지으로부터 추적된 사용자의 관절을 상기 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하는 것을 특징으로 하는 제어 방법.
14. The method of claim 13,
Wherein the generating the three-dimensional body model of the user comprises:
Mapping a joint of the user traced from the depth image to a joint of the standard three-dimensional body model, and deforming a shape of a rigid body part between the joint and the joint, Is matched with a pose of a user included in the control unit.
제14항에 있어서,
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
상기 생성된 3차원 신체 모델의 리지드(rigid) 바디 파트 별로 길이 조정 및 비율 조정 적어도 하나에 따른 리사이징(resizing)을 수행하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 제어 방법.
15. The method of claim 14,
Wherein the generating the three-dimensional body model of the user comprises:
Wherein the three-dimensional body model of the user is generated by performing resizing according to at least one of length adjustment and ratio adjustment for each rigid body part of the generated three-dimensional body model.
제13항에 있어서,
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
상기 뎁스 정보에 기초하여 상기 3차원 신체 모델이 상기 사용자의 표면을 따라 변형되면, 상기 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 제어 방법.
14. The method of claim 13,
Wherein the generating the three-dimensional body model of the user comprises:
If the three-dimensional body model is deformed along the surface of the user based on the depth information, the vertex having low reliability based on the reliability of the vertex constituting the three-dimensional body model is referred to as a vertex having high reliability Dimensional body model of the user is generated by compensating a part that is not acquired in the depth image by moving to an adjacent position.
제12항에 있어서,
상기 사용자의 신체 정보를 추출하는 단계는,
상기 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀 (linear regression) 방식을 적용하여 상기 사용자의 신장 정보를 추출하는 것을 특징으로 하는 제어 방법.
13. The method of claim 12,
The step of extracting the user's body information comprises:
And extracting the kidney information of the user by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model.
제12항에 있어서,
상기 사용자의 신체 정보를 추출하는 단계는,
상기 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 및 거리 측정을 적용하여 상기 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출하는 것을 특징으로 하는 제어 방법.
13. The method of claim 12,
The step of extracting the user's body information comprises:
Wherein at least one of the waist circumference information and the hip circumference information of the user is extracted by applying an ASM (Active Shape Model) circumferential sectional shape fitting and distance measurement to the user's three-dimensional body model Way.
제12항에 있어서,
상기 사용자의 신체 정보를 추출하는 단계는,
상기 사용자의 3차원 신체 모델에 메쉬(Mesh) 정보를 적용하여 상기 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출하는 것을 특징으로 하는 제어 방법.
13. The method of claim 12,
The step of extracting the user's body information comprises:
The mesh information is applied to the user's three-dimensional body model to calculate volume information corresponding to the user's three-dimensional body model, and volume and weight relationship is applied to the calculated volume information to calculate weight information and body mass index Wherein the control unit calculates at least one of the information.
제11항에 있어서,
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
다 시점에서 촬영된 복수 개의 뎁스 이미지를 이용하는 경우, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계; 및
상기 생성된 3차원 신체 모델에 ICP(iterative closest point) 기반 로컬 트랙킹 방식을 이용하여 형상 변형을 수행하여 상기 사용자의 3차원 신체 모델을 생성하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.
12. The method of claim 11,
Wherein the generating the three-dimensional body model of the user comprises:
Generating a three-dimensional body model in which a body structure of the user is reflected by matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image, when using a plurality of depth images photographed at multiple viewpoints; And
And generating a three-dimensional body model of the user by performing shape transformation using an iterative closest point (ICP) based local tracking method on the generated three-dimensional body model.
KR1020160003155A 2015-03-11 2016-01-11 Electronic apparatus, and control method therof KR20160110070A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20150033760 2015-03-11
KR1020150033760 2015-03-11

Publications (1)

Publication Number Publication Date
KR20160110070A true KR20160110070A (en) 2016-09-21

Family

ID=57079979

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160003155A KR20160110070A (en) 2015-03-11 2016-01-11 Electronic apparatus, and control method therof

Country Status (1)

Country Link
KR (1) KR20160110070A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110522466A (en) * 2018-05-23 2019-12-03 西门子医疗有限公司 The method and apparatus for determining patient weight and/or body mass index
EP3699929A1 (en) * 2019-02-25 2020-08-26 Siemens Healthcare GmbH Patient weight estimation from surface data using a patient model
WO2021040156A1 (en) * 2019-09-01 2021-03-04 엘지전자 주식회사 Body measurement device and control method therefor
CN112652057A (en) * 2020-12-30 2021-04-13 北京百度网讯科技有限公司 Method, device, equipment and storage medium for generating human body three-dimensional model
KR20220006312A (en) * 2020-07-08 2022-01-17 전북대학교산학협력단 An apparatus for determination of body weight of korean cattle using ToF camera
KR20220106254A (en) * 2021-01-21 2022-07-29 주식회사 아더하프 System and method for measuring of pet obesity

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110522466A (en) * 2018-05-23 2019-12-03 西门子医疗有限公司 The method and apparatus for determining patient weight and/or body mass index
CN110522466B (en) * 2018-05-23 2023-08-18 西门子医疗有限公司 Method and device for determining the weight and/or body mass index of a patient
EP3699929A1 (en) * 2019-02-25 2020-08-26 Siemens Healthcare GmbH Patient weight estimation from surface data using a patient model
CN111609908A (en) * 2019-02-25 2020-09-01 西门子医疗有限公司 Patient weight estimation from surface data using a patient model
US11703373B2 (en) 2019-02-25 2023-07-18 Siemens Healthcare Gmbh Patient weight estimation from surface data using a patient model
WO2021040156A1 (en) * 2019-09-01 2021-03-04 엘지전자 주식회사 Body measurement device and control method therefor
US11527026B2 (en) 2019-09-01 2022-12-13 Lg Electronics Inc. Body measurement device and method for controlling the same
KR20220006312A (en) * 2020-07-08 2022-01-17 전북대학교산학협력단 An apparatus for determination of body weight of korean cattle using ToF camera
CN112652057A (en) * 2020-12-30 2021-04-13 北京百度网讯科技有限公司 Method, device, equipment and storage medium for generating human body three-dimensional model
KR20220106254A (en) * 2021-01-21 2022-07-29 주식회사 아더하프 System and method for measuring of pet obesity

Similar Documents

Publication Publication Date Title
EP3466070B1 (en) Method and device for obtaining image, and recording medium thereof
KR20160110070A (en) Electronic apparatus, and control method therof
CN106575160B (en) Interface providing method and device for recognizing action according to user viewpoint
US11494915B2 (en) Image processing system, image processing method, and program
CN109801374B (en) Method, medium, and system for reconstructing three-dimensional model through multi-angle image set
TW202030697A (en) Electronic device and method of recovering depth map
CN104346612B (en) Information processing unit and display methods
US20230245391A1 (en) 3d model reconstruction and scale estimation
JP6500355B2 (en) Display device, display program, and display method
WO2016111880A1 (en) Gaze detection offset for gaze tracking models
TW201812700A (en) Measurement systems and methods for measuring multi-dimensions
KR102209745B1 (en) An information display device of a mirror display for advertisement and shopping by recognizing the reflected images on the mirror and method thereof
US11403781B2 (en) Methods and systems for intra-capture camera calibration
KR102183692B1 (en) An augmented reality service apparatus for a mirror display by recognizing the reflected images on the mirror and method thereof
CN110232707A (en) A kind of distance measuring method and device
US11915441B2 (en) Systems and methods for low compute depth map generation
WO2020223940A1 (en) Posture prediction method, computer device and storage medium
CN114766042A (en) Target detection method, device, terminal equipment and medium
KR20220035250A (en) Co-environment reconstruction and camera calibration
US11120624B2 (en) Three-dimensional head portrait generating method and electronic device
CN111742352B (en) Method for modeling three-dimensional object and electronic equipment
US11430086B2 (en) Upsampling low temporal resolution depth maps
US20200211275A1 (en) Information processing device, information processing method, and recording medium
KR102538685B1 (en) Method and apparatus for restoring 3d information using multi-view information
JP7029253B2 (en) Information processing equipment and its method

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E601 Decision to refuse application