KR20160110070A - Electronic apparatus, and control method therof - Google Patents
Electronic apparatus, and control method therof Download PDFInfo
- Publication number
- KR20160110070A KR20160110070A KR1020160003155A KR20160003155A KR20160110070A KR 20160110070 A KR20160110070 A KR 20160110070A KR 1020160003155 A KR1020160003155 A KR 1020160003155A KR 20160003155 A KR20160003155 A KR 20160003155A KR 20160110070 A KR20160110070 A KR 20160110070A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- body model
- dimensional body
- information
- model
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G06K9/00362—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20124—Active shape model [ASM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Abstract
Description
본 발명은 전자 장치 및 그 제어 방법에 관한 것으로, 더욱 상세하게는 촬영 기능을 구비하는 전자 장치 및 그 제어 방법에 관한 것이다.BACKGROUND OF THE
전자 기술의 발달에 힘입어 다양한 유형의 전자기기가 개발 및 보급되고 있다. 특히, 가장 많이 사용되고 있는 전자 제품 중 하나인 스마트폰과 같은 전자 장치는 최근 수년 간 지속적으로 발전하고 있다. Various types of electronic devices are being developed and distributed due to the development of electronic technologies. In particular, electronic devices such as smartphones, one of the most widely used electronic products, have been developing in recent years.
전자 장치의 성능이 고급화되면서, 전자 장치는 카메라를 구비하고, 카메라를 통해 획득된 영상을 통해 다양한 기능을 수행하는 것이 일반화되고 있다. [0003] As the performance of electronic devices has become higher, it has become common for an electronic device to have a camera and to perform various functions through an image obtained through a camera.
특히, 사용자를 촬영한 이미지를 이용하여 사용자의 3차원 신체 모델을 생성하고 이를 이용하여 다양한 정보(예를 들어 신체 정보)를 제공하고 있다.In particular, the user creates a three-dimensional body model using an image taken by the user and provides various information (for example, body information) using the generated three-dimensional body model.
하지만, 기존의 전자 장치에 의해 생성되는 사용자의 3차원 신체 모델은 실제 사용자의 신체와 비교하여 오차가 크다는 점에서 최적의 서비스를 제공받을 수 없다는 문제점이 있었다. However, there is a problem in that the user's three-dimensional body model generated by the existing electronic device can not be provided with the optimal service because the error is large compared with the actual user's body.
본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 간단한 촬영을 통해 실제 사용자의 신체에 부합하는 사용자의 3차원 신체 모델을 생성함으로써 최적의 서비스를 제공할 수 있으므로 사용자의 편의성이 향상된다. SUMMARY OF THE INVENTION The present invention has been conceived to solve the above-described problems, and it is an object of the present invention to provide a three-dimensional body model of a user that matches a body of an actual user through simple shooting, thereby providing an optimal service.
이상과 같은 목적을 달성하기 위한 본 발명의 일 실시 예에 따른 전자 장치는, 표준 3차원 신체 모델을 저장하는 스토리지, 뎁스 카메라를 이용하여 사용자를 촬영하는 촬영부 및, 상기 뎁스 카메라에 의해 촬영된 뎁스 이미지을 상기 표준 3차원 신체 모델에 적용하여 상기 사용자의 3차원 신체 모델을 생성하고, 상기 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 프로세서를 포함한다. According to an aspect of the present invention, there is provided an electronic device including a storage for storing a standard three-dimensional body model, a photographing unit for photographing a user using a depth camera, And a processor for applying the depth image to the standard three-dimensional body model to generate the three-dimensional body model of the user and extracting the user's body information from the three-dimensional body model of the user.
또한, 상기 프로세서는, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하고, 상기 뎁스 이미지에서 획득된 뎁스 정보에 기초하여 상기 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다.In addition, the processor may generate a three-dimensional body model reflecting the user's body structure by matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image, Dimensional body model surface based on at least a portion of the three-dimensional body model, and compensating a portion not obtained in the depth image to generate the three-dimensional body model of the user.
또한, 상기 프로세서는, 상기 뎁스 이미지으로부터 추적된 사용자의 관절을 상기 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합할 수 있다. The processor is further configured to map the joint of the user traced from the depth image to the joint of the standard three-dimensional body model, to deform the shape of the rigid body part between the joint and the joint, Can be matched with the pose of the user included in the depth image.
또한, 상기 프로세서는, 상기 생성된 3차원 신체 모델의 리지드 바디 파트 별로 길이 조정 및 비율 조정 적어도 하나에 따른 리사이징(resizing)을 수행하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다. Also, the processor may generate a three-dimensional body model of the user by performing resizing according to at least one of length adjustment and ratio adjustment for each rigid body part of the generated three-dimensional body model.
또한, 상기 프로세서는, 상기 뎁스 정보에 기초하여 상기 3차원 신체 모델이 상기 사용자의 표면을 따라 변형되면, 상기 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다. The processor may further include a vertex having a low reliability based on the reliability of a vertex constituting the three-dimensional body model when the three-dimensional body model is deformed along the surface of the user based on the depth information Dimensional body model of the user by moving to a position adjacent to the vertex having high reliability and compensating for parts not obtained in the depth image.
또한, 상기 프로세서는, 상기 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀 (linear regression) 방식을 적용하여 상기 사용자의 신장 정보를 추출할 수 있다. In addition, the processor may extract the kidney information of the user by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model.
또한, 상기 프로세서는, 상기 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 및 거리 측정을 적용하여 상기 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출할 수 있다. In addition, the processor may extract at least one of the waist circumference information and the hip circumference information of the user by applying the ASM (Active Shape Model) circumferential sectional shape fitting and the distance measurement to the user's three-dimensional body model can do.
또한, 상기 프로세서는, 상기 사용자의 3차원 신체 모델에 메쉬(Mesh) 정보를 적용하여 상기 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출할 수 있다. In addition, the processor may be configured to apply mesh information to the user's three-dimensional body model to calculate volume information corresponding to the user's three-dimensional body model, and to apply volume and weight relationships to the calculated volume information And calculate at least one of weight information and body mass index information.
또한, 상기 프로세서는, 단일 시점에서 촬영된 한 장의 뎁스 이미지 또는 다 시점에서 촬영된 복수 개의 뎁스 이미지에 기초하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다.In addition, the processor may generate the three-dimensional body model of the user based on one depth image photographed at a single viewpoint or a plurality of depth images photographed at multiple viewpoints.
또한, 상기 프로세서는, 상기 복수 개의 뎁스 이미지를 이용하는 경우, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하고, 상기 생성된 3차원 신체 모델에 ICP(iterative closest point) 기반 로컬 트랙킹 방식을 이용하여 형상 변형을 수행하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다.In addition, when using the plurality of depth images, the processor may generate a three-dimensional body model reflecting the user's body structure by matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image , And a shape transformation is performed on the generated three-dimensional body model using an iterative closest point (ICP) based local tracking method to generate the three-dimensional body model of the user.
또한, 디스플레이를 더 포함하며, 상기 프로세서는, 상기 사용자의 3차원 신체 모델에 기반하여 상기 추출된 사용자의 신체 정보를 포함하는 UI 화면을 상기 디스플레이를 통해 디스플레이할 수 있다.The display may further include a display, and the processor may display a UI screen including the extracted user's body information on the display based on the user's three-dimensional body model.
한편, 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법은, 뎁스 카메라를 이용하여 사용자를 촬영하는 단계, 상기 뎁스 카메라에 의해 촬영된 뎁스 이미지을 기저장된 표준 3차원 신체 모델에 적용하여 상기 사용자의 3차원 신체 모델을 생성하는 단계 및, 상기 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of controlling an electronic device, the method comprising: photographing a user using a depth camera; applying a depth image photographed by the depth camera to a previously stored standard three- Generating a three-dimensional body model, and extracting the user's body information from the three-dimensional body model of the user.
또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계 및, 상기 뎁스 이미지에서 획득된 뎁스 정보에 기초하여 상기 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성하는 단계를 포함할 수 있다.In addition, the step of generating the user's three-dimensional body model includes matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image to generate a three-dimensional body model reflecting the user's body structure And modifying at least a part of the surface of the three-dimensional body model based on the depth information obtained in the depth image and generating a three-dimensional body model of the user by compensating the part not obtained in the depth image .
또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 뎁스 이미지으로부터 추적된 사용자의 관절을 상기 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합할 수 있다.In addition, the step of generating the user's three-dimensional body model may include mapping the joint of the user traced from the depth image to joints of the standard three-dimensional body model, forming a rigid body part shape between the joints and joints To match the pose of the standard three-dimensional body model with the pose of the user included in the depth image.
또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 생성된 3차원 신체 모델의 리지드 바디 파트 별로 길이 조정 및 비율 조정 적어도 하나에 따른 리사이징(resizing)을 수행하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다. In addition, the step of generating the user's three-dimensional body model may include performing resizing according to at least one of length adjustment and ratio adjustment for each rigid body part of the generated three-dimensional body model, Can be generated.
또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 뎁스 정보에 기초하여 상기 3차원 신체 모델이 상기 사용자의 표면을 따라 변형되면, 상기 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성할 수 있다. In addition, the step of generating the 3D body model of the user may further include: when the 3D body model is deformed along the surface of the user based on the depth information, the reliability of the vertex constituting the 3D body model Dimensional body model of the user by moving a vertex having low reliability to a position adjacent to the vertex having high reliability based on the vertex of the vertex and compensating the part not obtained in the depth image.
또한, 상기 사용자의 신체 정보를 추출하는 단계는, 상기 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀 (linear regression) 방식을 적용하여 상기 사용자의 신장 정보를 추출할 수 있다. In addition, the step of extracting the user's body information may extract the kidney information of the user by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model.
또한, 상기 사용자의 신체 정보를 추출하는 단계는, 상기 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 및 거리 측정을 적용하여 상기 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출할 수 있다. In addition, the step of extracting the user's body information may include applying an ASM (Active Shape Model) circumferential sectional shape fitting and distance measurement to the user's three-dimensional body model to calculate waist circumference information of the user and hip At least one of the circumference information can be extracted.
또한, 상기 사용자의 신체 정보를 추출하는 단계는, 상기 사용자의 3차원 신체 모델에 메쉬(Mesh) 정보를 적용하여 상기 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출할 수 있다. In addition, the step of extracting the user's body information may include the steps of: applying mesh information to the user's three-dimensional body model to calculate volume information corresponding to the user's three-dimensional body model; Weight, and body mass index information to calculate at least one of weight information and body mass index information.
또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 다 시점에서 촬영된 복수 개의 뎁스 이미지를 이용하는 경우, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계 및, 상기 생성된 3차원 신체 모델에 ICP(iterative closest point) 기반 로컬 트랙킹 방식을 이용하여 형상 변형을 수행하여 상기 사용자의 3차원 신체 모델을 생성하는 단계를 포함할 수 있다. The step of generating the three-dimensional body model of the user may include the step of matching the pose of the standard three-dimensional body model with the pose of the user included in the depth image when using a plurality of depth images photographed at a plurality of viewpoints, Dimensional body model reflecting the body structure of the user, and performing a shape transformation using an iterative closest point (ICP) based local tracking method on the generated three-dimensional body model, thereby obtaining the three-dimensional body model of the user And a step of generating the data.
이상 설명한 바와 같이 본 발명의 다양한 실시 예에 따르면, 간단한 촬영 만으로 실제 사용자의 신체에 부합하는 사용자의 3차원 신체 모델을 생성함으로써 최적의 서비스를 제공할 수 있으므로 사용자의 편의성이 향상된다. As described above, according to the various embodiments of the present invention, the user can be provided with the optimum service by generating the three-dimensional body model of the user corresponding to the body of the actual user with only a simple photographing.
도 1은 본 발명의 일 실시 예에 따른 전자 장치의 일 구현 예를 나타내는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다.
도 3은 도 2에 도시된 전자 장치의 구체적 구성을 나타내는 블럭도이다.
도 4는 본 발명의 일 실시 예에 따라 스토리지에 저장되는 구성을 나타내는 블럭도이다.
도 5는 본 발명의 일 실시 예에 따른 표준 3차원 신체 모델의 포즈를 사용자의 포즈와 정합하는 과정을 설명하기 위한 도면이다.
도 6 및 도 7은 본 발명의 일 실시 예에 따라 사용자의 뎁스 이미지를 기반으로 표면 변형 작업을 수행하는 방법을 설명하기 위한 도면이다.
도 8 및 도 9는 본 발명의 일 실시 예에 따른 뎁스 센서에서 데이터를 획득하지 못한 부분에 대한 보상 과정을 설명하기 위한 도면이다.
도 10 및 도 11은 본 발명의 다른 실시 예에 따른 사용자의 3차원 신체 모델 생성 방법을 설명하기 위한 도면들이다.
도 12은 본 발명의 일 실시 예에 따라 생성된 사용자의 3차원 신체 모델을 일 예를 나타내는 도면이다.
도 13는 본 발명의 일 실시 예에 따라 신장 정보를 추출하는 방법을 설명하기 위한 도면이다.
도 14은 본 발명의 일 실시 예에 따라 허리 둘레 및 엉덩이 둘레 정보를 추출하는 방법을 설명하기 위한 도면이다.
도 15는 본 발명의 일 실시 예에 따라 체중 정보를 추출하는 방법을 설명하기 위한 도면이다.
도 16는 본 발명의 일 실시 예에 따라 디스플레이되는 UI 화면의 일 예를 나타내는 도면이다.
도 17은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다. 1 is a diagram showing an embodiment of an electronic device according to an embodiment of the present invention.
2 is a block diagram showing the configuration of an electronic device according to an embodiment of the present invention.
3 is a block diagram showing a specific configuration of the electronic device shown in Fig.
4 is a block diagram illustrating a configuration stored in a storage according to an embodiment of the present invention.
5 is a diagram illustrating a process of matching a pose of a standard three-dimensional body model with a pose of a user according to an embodiment of the present invention.
6 and 7 are views for explaining a method of performing a surface modification operation based on a depth image of a user according to an embodiment of the present invention.
FIG. 8 and FIG. 9 are diagrams for explaining a compensation process for a portion where data is not acquired in the depth sensor according to an embodiment of the present invention.
10 and 11 are views for explaining a method of generating a three-dimensional body model of a user according to another embodiment of the present invention.
12 is a diagram illustrating an example of a three-dimensional body model of a user generated according to an embodiment of the present invention.
13 is a diagram for explaining a method of extracting extension information according to an embodiment of the present invention.
FIG. 14 is a diagram for explaining a method of extracting information on the waist circumference and the hip circumference according to an embodiment of the present invention.
15 is a view for explaining a method of extracting body weight information according to an embodiment of the present invention.
16 is a view showing an example of a UI screen displayed according to an embodiment of the present invention.
17 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention.
이하 본 발명의 다양한 실시 예를 첨부된 도면을 참조하여 상세히 설명한다. Various embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일 실시 예에 따른 전자 장치의 일 구현 예를 나타내는 도면이다.1 is a diagram showing an embodiment of an electronic device according to an embodiment of the present invention.
도 1에 도시된 바와 같이 전자 장치(100)는 뎁스 카메라(10)를 구비한 디지털 TV로 구현될 수 있으나, PC, 키오스크, 태블릿 PC, 휴대폰, 키오스크 등과 같이 뎁스 카메라를 구비한 것이라면 이에 한정되지 않고 적용 가능하다. As shown in FIG. 1, the
전자 장치(100)는 단일 시점(20)에서 촬영된 하나의 뎁스 이미지 또는, 다 시점(30 내지 50)에서 촬영된 복수 개의 뎁스 이미지를 이용하여 사용자의 신체를 3차원 모델을 구성할 수 있다. 이를 위해 뎁스 카메라는 사용자를 촬영하고, 촬영된 사용자에 대한 뎁스 정보를 획득할 수 있다. The
전자 장치(100)는 사용자의 3차원 신체 모델을 이용하여 라이프로그 시스템에서 매일 변화하는 체형을 기록하거나, 허리둘레나 다리길이 등을 추정하여 개인의 체형을 고려한 옷치수를 추천하는 등 다양한 서비스를 제공할 수 있다. The
특히, 본 발명에 따른 전자 장치(100)는 사용자의 뎁스 이미지를 표준 3차원 신체 모델에 적용하여 사용자의 3차원 신체 모델을 생성하고, 사용자의 3차원 신체 모델에서 다양한 방식으로 사용자의 신체 정보를 추출할 수 있는데, 이하에서는 도면을 참조하여 본 발명에 대해 좀더 자세히 설명하도록 한다. In particular, the
도 2는 본 발명의 일 실시 예에 따른 전자 장치의 구성을 나타내는 블럭도이다. 2 is a block diagram showing the configuration of an electronic device according to an embodiment of the present invention.
도 2에 따르면, 전자 장치(100)는 스토리지(110), 촬영부(120) 및 프로세서(130)를 포함한다.2, the
스토리지(110)는 표준 3차원 신체 모델을 저장한다. The
여기서, 표준 3차원 신체 모델이란, 사람의 표준 신체 이미지를 다양한 수치에 따라 3차원 모델링 데이터로 변환한 것으로, 표준 3차원 신체 모델은 외부로부터 수신될 수도 있으나, 전자 장치(100)에서 직접 생성하는 것도 가능하다. 한편, 표준 3차원 신체 모델은 성별, 연령별, 인종별 등으로 구분되어 저장되어 있을 수도 있다. 예를 들어, 한국 성인 남자 모델, 한국 성인 여자 모델, 서양 성인 남자 모델 등과 같이 구분되어 저장되어 있을 수 있다. 다만, 이에 한정되는 것은 아니며, 성별, 연령별, 인종별 각각의 표준 3차원 신체 모델을 평균하여 모델링한 데이터가 될 수도 있다. Here, the standard three-dimensional body model is a conversion of a standard body image of a person into three-dimensional modeling data according to various values. The standard three-dimensional body model may be received from the outside, It is also possible. On the other hand, the standard three-dimensional body model may be stored classified by sex, age, and race. For example, Korean adult male model, Korean adult female model, Western adult male model, and the like may be stored separately. However, the present invention is not limited to this, and may be data obtained by averaging standard three-dimensional body models of each sex, age, and race.
또한, 표준 3차원 신체 모델은 임의의 포즈를 취하고 있을 수 있으며, 예를 들어, 양손을 내리고 다리를 오므리고 있는 포즈, 양손을 올리고 있는 포즈, 다리를 벌리고 있는 포즈 등 임의의 포즈를 취하고 있을 수 있다.In addition, a standard three-dimensional body model may take an arbitrary pose, for example, taking a pose with both hands down and legs down, a pose with both hands raised, a pose with legs open, etc. .
또한, 스토리지(110)는 후술하는 프로세서(130)에 의해 측정된 결과에 기초하여 사용자의 신체 체형 변화 데이터를 저장할 수 있다. In addition, the
스토리지(110)는 내장 메모리 또는 외장 메모리 중 적어도 하나를 포함할 수 있다. 내장 메모리는, 예를 들면, 휘발성 메모리(예: DRAM(dynamic RAM), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile Memory)(예: OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다. The
외장 메모리는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리는 다양한 인터페이스를 통하여 전자 장치(100)와 기능적으로 및/또는 물리적으로 연결될 수 있다.The external memory may be a flash drive such as a compact flash (CF), a secure digital (SD), a micro secure digital (SD), a mini secure digital (SD), an extreme digital A multi-media card (MMC), a memory stick, or the like. The external memory may be functionally and / or physically connected to the
촬영부(120)는 뎁스 카메라를 이용하여 사용자를 촬영한다. 촬영부(120)는 전자 장치(100)의 외곽 영역에 배치된다. 예를 들어, 촬영부(120)는 전자 장치(100)의 상단 중앙, 좌단 중앙 또는 우단 중앙 베젤 영역에 배치될 수 있으나, 이에 한정되는 것은 아니다. The photographing
촬영부(120)는 렌즈를 포함한 렌즈 모듈과 이미지 센서를 포함한다. 렌즈를 통해 입력된 형상은 필름의 역할을 하는 이미지 센서에 광학 신호로서 입력되고, 이미지 센서는 입력된 광학 신호를 전기적 신호로 변환하여 프로세서(130)로 전송한다. The photographing
특히, 촬영부(120)는 카메라와 픽셀 간의 거리데이터를 출력값으로 하는 뎁스 센서를 포함할 수 있다. 뎁스 센서는 카메라가 사람의 눈처럼 깊이를 파악하여 뎁스 정보를 생성할 수 있다. 뎁스 정보는 영상의 각각 픽셀별로 부여된 깊이 값으로, 뎁스 맵 형태가 될 수 있다. 뎁스 맵(Depth map)이란 이미지의 각 영역 별 뎁스 정보를 포함하고 있는 테이블을 의미한다. 영역은 픽셀 단위로 구분될 수도 있고, 픽셀 단위보다 큰 기설정된 영역으로 정의될 수도 있다. 일 예에 따라 뎁스 맵은 0~216 까지의 그레이 스케일(grayscale) 값으로 나타내어질 수 있다. In particular, the photographing
프로세서(130)는 전자 장치(100)의 전반적인 동작을 제어한다. 여기서, 프로세서(130)는 중앙처리장치(central processing unit(CPU)), controller, 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)), ARM 프로세서 중 하나 또는 그 이상을 포함할 수 있다.
특히, 프로세서(130)는 뎁스 카메라에 의해 촬영된 뎁스 이미지을 표준 3차원 신체 모델에 적용하여 사용자의 3차원 신체 모델을 생성할 수 있다. In particular, the
이를 위해 우선, 프로세서(130)는 표준 3차원 신체 모델의 포즈를 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성할 수 있다. To this end, the
구체적으로, 프로세서(130)는 뎁스 이미지으로부터 추적된 사용자의 관절을 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 표준 3차원 신체 모델의 포즈를 뎁스 이미지에 포함된 사용자의 포즈와 정합할 수 있다. 이 경우, 프로세서(130)는 생성된 3차원 신체 모델의 리지드 바디 파트 별로 리사이징(resizing)을 수행할 수 있다. 예를 들어, 관절과 관절 사이의 리지드 바디 파트의 길이를 조정하거나, 각 리지드 바디 파트 간의 비율을 조정할 수 있다. Specifically, the
또한, 프로세서(130)는 뎁스 이미지에서 획득된 뎁스 데이터에 기초하여 상기 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 뎁스 이미지에서 획득하지 못한 파트를 보상하여 사용자의 3차원 신체 모델을 생성할 수 있다. In addition, the
구체적으로, 프로세서(130)는, 뎁스 이미지로부터 뎁스 데이터에 기초하여 3차원 신체 모델이 사용자의 표면을 따라 변형되면, 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 뎁스 이미지에서 획득하지 못한 파트를 보상하여 사용자의 3차원 신체 모델을 생성할 수 있다. Specifically, when the three-dimensional body model is deformed along the user's surface based on the depth data from the depth image, the
한편, 프로세서(130)는 상술한 바와 같은 방법으로 생성된 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출할 수 있다. Meanwhile, the
일 예로, 프로세서(130)는 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀(linear regression) 방식을 적용하여 사용자의 신장 정보를 추출할 수 있다. 구체적으로, 프로세서(130)는 상체 및 하체 관절 간 거리를 측정한 후, 측정된 관절 간 거리에 선형 회귀 방식을 적용하여 사용자의 신장 정보를 측정할 수 있다. For example, the
다른 예로, 프로세서(130)는, 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 방식을 적용하여 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출할 수 있다. As another example, the
다른 예로, 프로세서(130)는, 사용자의 3차원 신체 모델에 메쉬(Mesh) 및 노멀(Normal) 정보를 적용하여 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출할 수 있다. As another example, the
도 3은 도 2에 도시된 전자 장치의 구체적 구성을 나타내는 블럭도이다. 3 is a block diagram showing a specific configuration of the electronic device shown in Fig.
도 3에 따르면, 전자 장치(100')는 스토리지(110), 촬영부(120), 프로세서(130), 디스플레이(140)를 포함한다. 도 3에 도시된 구성 중 도 2에 도시된 구성과 중복되는 부분에 대해서는 자세한 설명을 생략하도록 한다. Referring to FIG. 3, an electronic device 100 'includes a
프로세서(130)는 전자 장치(100')의 동작을 전반적으로 제어한다.
구체적으로, 프로세서(130)는 RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n), 버스(136)를 포함한다.Specifically, the
RAM(131), ROM(132), 메인 CPU(133), 그래픽 처리부(134), 제1 내지 n 인터페이스(135-1 ~ 135-n) 등은 버스(136)를 통해 서로 연결될 수 있다. The
제1 내지 n 인터페이스(135-1 내지 135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n-th interfaces 135-1 to 135-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device via a network.
메인 CPU(133)는 스토리지(110)에 액세스하여, 스토리지(110)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 스토리지(110)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. The
ROM(132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(133)는 ROM(132)에 저장된 명령어에 따라 스토리지(110)에 저장된 O/S를 RAM(131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. 부팅이 완료되면, 메인 CPU(133)는 스토리지(110)에 저장된 각종 어플리케이션 프로그램을 RAM(131)에 복사하고, RAM(131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다. The
그래픽 처리부(134)는 연산부(미도시) 및 렌더링부(미도시)를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면, 예를 들어, 사용자의 3차원 신체 모델에 기반하여 추출된 사용자의 신체 정보를 포함하는 화면을 생성한다. 연산부(미도시)는 수신된 제어 명령에 기초하여 화면의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 렌더링부(미도시)는 연산부(미도시)에서 연산한 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 화면을 생성한다. 렌더링부(미도시)에서 생성된 화면은 디스플레이(140)에 표시된다.The
디스플레이(140)는 다양한 정보를 디스플레이한다.
특히, 디스플레이(140)는 사용자의 3차원 신체 모델에 기반하여 추출된 사용자의 신체 정보를 포함하는 UI 화면을 디스플레이할 수 있다. In particular, the
한편, 디스플레이(140)는 액정 디스플레이(liquid crystal display), 유기 발광 다이오드(organic light-emitting diode), LCoS(Liquid Crystal on Silicon), DLP(Digital Light Processing) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 또한, 디스플레이(140)는 투명한 재질로 구현되어 정보를 디스플레이하는 투명 디스플레이로 구현되는 것도 가능하다.Meanwhile, the
통신부(150)는 유/무선 LAN, WAN, 이더넷, WI-FI(Wireless Fidelity), BT(BlueTooth), Zigbee, IR(Infrared), Serial Interface, USB(Universal Serial Bus), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 외부 장치와 통신을 수행한다. 예를 들어, 표준 3차원 신체 모델 데이터가 전자 장치(100')에 저장되어 있지 않은 경우 해당 데이터를 외부 장치로부터 수신하거나, 전자 장치(100')에 뎁스 카메라가 구비되지 않은 경우, 외부 장치로부터 사용자 촬영 이미지를 수신할 수 있다.The
그 밖에 전자 장치(100')는 그 구현 예에 따라 오디오 처리부(미도시), 비디오 처리부(미도시) 등의 다양한 구성요소를 더 포함할 수도 있다. In addition, the electronic device 100 'may further include various components such as an audio processing unit (not shown), a video processing unit (not shown), and the like according to the embodiment.
한편, 상술한 프로세서(130)의 동작은 스토리지(110)에 저장된 프로그램에 의해 이루어질 수 있다.Meanwhile, the operation of the
스토리지(110)는 도 2에서 설명한 바와 같은 표준 3차원 신체 모델을 포함하는 데이터 외에, 전자 장치(100')를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 각종 멀티미디어 컨텐츠와 같은 다양한 데이터를 저장한다. The
도 4에 도시된 바와 같이 스토리지(110)는 본 발명의 일 실시 예에 따른 기능을 제공하는데 필요한 통신 모듈(111), 센싱 모듈(112), 신체 모델 생성 모듈(113), 신체 정보 추출 모듈(114) 등의 프로그램이 저장되어 있을 수 있다. 4, the
통신 모듈(111)은 외부 장치, 외부 서버와의 통신을 관리하는 모듈이다. 특히, 통신 모듈(111)은 외부 서버로부터 표준 3차원 신체 모델과 같은 데이터를 수신하거나, 외부 장치로부터 사용자 촬영 이미지를 수신하는데 이용되는 프로그램을 포함할 수 있다. The
센싱 모듈(112)은 각종 센서들로부터 정보를 수집하고, 수집된 정보를 분석 및 관리하는 모듈이다. 특히, 센싱 모듈(112)은 촬영부(120)의 뎁스 센서에서 센싱된 관련된 값을 처리하는 기능을 수행하는 프로그램을 포함할 수 있다. The
신체 모델 생성 모듈(113)은 표준 3차원 신체 모델 및 사용자 촬영 이미지에 본 발명에 따른 알고리즘을 적용하여 사용자의 3차원 신체 모델을 생성하는 모듈이다. 예를 들어, 신체 모델 생성 모듈(113)은 사용자 관절 추적을 통한 표준 3차원 신체 모델과 사용자 이미지의 포즈 정합, 뎁스 정보를 통해 획득된 뎁스 반영, 뎁스 이미지에서 획득하지 못한 파트를 보상 등의 알고리즘을 적용하여 사용자의 3차원 신체 모델을 생성하는 알고리즘을 포함할 수 있다. The body
신체 정보 추출 모듈(114)은 사용자의 3차원 신체 모델 생성 모듈(123)을 통해 생성된 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 모듈이다. 예를 들어, 신체 정보 추출 모듈(124)은, 사용자의 신장 정보 추출을 위해 사용자의 3차원 신체 모델에 선형 회귀 (linear regression) 방식을 적용하는 알고리즘, 사용자의 신체 둘레 측정을 위해 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting)을 적용하는 알고리즘을 포함할 수 있다. The body
이와 같이, 프로세서(130)는 스토리지(110)에 저장된 다양한 소프트웨어 모듈을 사용하여 본 발명에 따른 기능을 제공할 수 있다. As such, the
이하에서는 도면을 참조하여 본 발명에 따른 사용자의 3차원 신체 모델 생성 방법 및 이를 이용한 신체 정보 추출 방법에 대해 좀더 자세히 설명하도록 한다. Hereinafter, a three-dimensional body model generation method and a body information extraction method using the same according to the present invention will be described in detail with reference to the drawings.
도 5는 본 발명의 일 실시 예에 따른 표준 3차원 신체 모델의 포즈를 사용자의 포즈와 정합하는 과정을 설명하기 위한 도면이다. 5 is a diagram illustrating a process of matching a pose of a standard three-dimensional body model with a pose of a user according to an embodiment of the present invention.
도 5에 도시된 바와 같이 표준 3차원 신체 모델(530)에 뎁스 센서를 이용하여, 추적할 사용자의 관절과 대응되는 관절점을 지정한다. 이 경우, 사용자의 뎁스 이미지(510)로부터 구해진 관절 위치 및 관절 사이의 리지드 바디 파트를 간략화하여 도시한 이미지(520)에 기초하여 관절 매핑을 수행할 수 있다. As shown in FIG. 5, joint points corresponding to joints of the user to be traced are designated by using a depth sensor in the standard three-
이어서, 관절과 관절 사이의 관계에 따라 리지드 바디 파트를 인덱싱하고, 표준 3차원 신체 모델의 표면 상의 각 점들을 리지드 바디 파트에 따라 각각 인덱싱한다. The rigid body part is then indexed according to the relationship between the joints and the joints, and each point on the surface of the standard three-dimensional body model is indexed according to the rigid body part.
이어서, 뎁스 센서를 이용해서 실제 사용자의 관절을 추적한다. 추적 중인 실제 관절과 표준 3차원 신체 모델 내부의 관절을 이용해서 리지드 바디 파트의 변환 매트릭스(Transformation matrix)를 산출한다. 이 경우, 각 리지드 파트 별로 서로 다른 매트릭스를 산출할 수 있다. Then, the joint of the actual user is tracked by using the depth sensor. Calculate the transformation matrix of the rigid body part using the actual joints being tracked and the joints inside the standard three-dimensional body model. In this case, different matrices can be calculated for each rigid part.
이어서, 표준 3차원 신체 모델 표면의 버텍스들을, 인덱스에 따라서 매트릭스를 이용하여 변환한다. 각각의 리지드 바디 파트들이 매트릭스에 따라 변환되면, 추적 중인 실제 사용자의 포즈와 정합된 모델(540)이 생성된다.The vertices of the surface of the standard three-dimensional body model are then transformed using a matrix according to the index. Once each rigid body part is transformed according to a matrix, a matched
도 6 및 도 7은 본 발명의 일 실시 예에 따라 사용자의 뎁스 이미지를 기반으로 표면 변형(Deformation) 작업을 수행하는 방법을 설명하기 위한 도면이다.FIGS. 6 and 7 are views for explaining a method of performing a surface deforming operation based on a depth image of a user according to an embodiment of the present invention.
도 5에서 설명한 과정이 완료되면, 도 6에 도시된 바와 같이 뎁스 이미지(510)를 기반으로 표면을 부분적으로 변형하여 도 5에서 생성된 모델(540)을 실제 사람의 형태(610)로 변형하는 작업을 수행한다. 이 경우, 2D 뎁스 이미지 공간(depth image space)과 3D 카메라 공간(Camera space)의 캘리브레이션(Calibration)은 이미 정확히 수행이 되어 있다고 가정하도록 한다.When the process described with reference to FIG. 5 is completed, the
획득된 뎁스 이미지를 이용하여 표준 모델의 표면을 변형하는 방법은 다음과 같다. 도 7의 710 이미지에서 보여지듯이, 표준 모델상의 각 Point 는 그와 매핑되는 뎁스 이미지상의 Point 의 위치로 움직여야 한다. 의 위치는, 와 가장 가까운 표준 모델상의 Joint 와 를 지나는 라인 과 뎁스 이미지상의 surface가 교점을 이루는 점을 찾으면 구할 수 있다. 그러나 이 방법으로 교점을 계산하는 데 많은 계산량이 소요되므로 근사 방법을 사용한다.The method of deforming the surface of the standard model using the obtained depth image is as follows. As shown in the
근사 방법은 다음과 같다. 를 초기 위치로 하여, 수학식 1을 이용하여 라인 상의 특정 위치로 의 위치를 이동시킨다.이를 반복적으로 수행하여, 수렴되는 위치를 가 이동해야 할 의 위치로 정한다. 매 반복마다, 모델 상의 포인트 은 다음 근사 위치 로 이동된다. 여기서 은 포인트 과 매핑되는 뎁스 이미지상 위치에서의 뎁스 값이며 α는 라인 의 기울기를 나타낸다. 반복의 종료 여부는 수학식 2로 평가된다. 도 7의 720 이미지는 반복에 의해 의 위치가 근사화되는 과정을 보여준다.The approximate method is as follows. Is defined as an initial position, using Equation (1) To a specific location on the line Is moved repeatedly, and the position converged Should go . For each iteration, The next approximate position . here Point Is a depth value at a position on a depth image mapped to a line . The end of the iteration is evaluated by the following equation (2). The
도 8 및 도 9는 본 발명의 일 실시 예에 따른 뎁스 센서에서 데이터를 획득하지 못한 부분에 대한 보상 과정을 설명하기 위한 도면들이다.8 and 9 are diagrams for explaining a compensation process for a portion where data is not acquired in the depth sensor according to an embodiment of the present invention.
보상 과정은, 도 8에 도시된 바와 같이, 뎁스 센서에서 데이터를 획득하지 못해 변형이 이루어지지 않은 부분(도8의 이미지 810에서 회색 영역, 이하, unseen 파트)에 대해 데이터를 획득한 부분(도 8의 이미지 810에서 흰색 영역, 이하, seen 파트)의 정보를 이용하여 변형을 수행함으로써 사용자의 3차원 신체 모델을 완전하게 생성할 수 있게 된다. 이하에서는 unseen 파트를 보상하는 방법에 대해 도 9을 참조하여 설명하도록 한다. As shown in Fig. 8, the compensation process is performed by using a portion (data portion) obtained by obtaining data for a portion where the data can not be acquired by the depth sensor and is not deformed (gray region in the
우선 모델 상의 모든 버텍스들은 형상을 결정 짓는 3차원 공간 상에서의 위치에 대한 신뢰도를 나타내는 컨피던스(confidence) 값을 가지고 있다. 컨피던스의 초기 값은 도 9에 도시된 바와 같이 seen 파트는 1, unseen 파트는 대략 0으로 설정할 수 있다. 즉 카메라에 의해 획득된 버텍스는 가장 높은 신뢰도를 가지며, 카메라에 의해 보이지 않아 초기 모델의 모양을 유지하고 있는 버텍스는 가장 낮은 신뢰도를 가진다. 이러한 컨피던스를 이용하여, 모델 상에서 모든 버텍스들이 3차원 공간상에서 최적의 위치를 찾아 이동하도록 움직임 모멘텀을 발생시키는 에너지 함수를 만들고, 에너지가 최소화 되도록 반복적인 컨피던스 전파(Confidence Propagation)를 수행하여 버텍스들을 이동시켜 모델 표면을 변형한다. First, all the vertices on the model have a confidence value that indicates the reliability of the position in the three-dimensional space that determines the shape. The initial value of the confidentiality can be set to 1, and the unseen part can be set to approximately 0, as shown in Fig. That is, the vertex obtained by the camera has the highest reliability, and the vertex, which is invisible by the camera and maintains the shape of the initial model, has the lowest reliability. Using this confidence, an energy function is created to generate motion momentum so that all the vertices on the model can move to the optimum position in the three-dimensional space. Confidence propagation is performed so that energy is minimized to move the vertices To deform the model surface.
특정 버텍스 p에 대한 에너지 함수 E는 아래 수학식 3과 같이 Ec 와 Es의 두 에너지 함수로 구성될 수 있다. The energy function E for a particular vertex p can be composed of two energy functions Ec and Es as shown in
먼저, Ec 는 특정 버텍스 p가 가지고 있는 컨피던스에 대한 에너지이고, Es 는 특정 버텍스 p에 대한 모델 표면 형상의 Smoothness에 관한 에너지이다. First, Ec is the energy for the specific vertex p and Es is the energy related to the smoothness of the model surface shape for a particular vertex p.
에너지 함수 Ec 는 다음 수학식 4와 같이 표현될 수 있다. The energy function Ec can be expressed by the following equation (4).
여기서, 는 p의 8개의 이웃 포인트들 중i번째 이웃 포인트이며, 는 그 이웃 포인트의 컨피던스를 나타낸다. 모든 포인트들의 컨피던스는 이라고 가정한다. 즉 본 계산식은 이웃한 버텍스까지의 거리에 반비례하는 가중치를 곱한 컨피던스값들의 합을 계산하여 이를 최소화 한다. 다시 말하여, 이웃한 버텍스들중 높은 컨피던스를 가지는 점들과의 거리를 줄여나가는 방향으로 현재 버텍스를 움직이도록 한다.here, Is the i < th > neighboring point of the eight neighboring points of p, Represents the confidence of the neighbor point. The confidence of all points is . In other words, this formula minimizes the sum of the confidence values multiplied by the weight inversely proportional to the distance to the neighboring vertex. In other words, it moves the current vertex in a direction that reduces the distance from the neighboring vertices with high confidence.
또한, 에너지 함수 Es 는 다음 수학식 5와 같이 표현될 수 있다. Further, the energy function Es can be expressed by the following equation (5).
여기서 βi는 이웃 포인트의 컨피던스에 대한 가중치이다.이웃한 버텍스 에서 이웃한 두 버텍스와 형성하는 사잇각도 값 대한 2차 미분값의 합을 모두 더한 값이 에너지에 해당한다. 이는 각 이웃 버텍스에서 다시 주변 점들과의 곡률을 계산하고 이를 모두 더한 값에 해당한다. 즉 현재 버텍스가 이웃한 버텍스들과 만드는 사잇각의 변화가 가장 적은 위치, 즉 주변 버텍스들이 가지는 곡률을 유지하는 위치로 현재 버텍스를 이동 하도록 한다. 에너지 함수는 신뢰도(Confidence)를 가중치로 사용하고 있는데, 반복해서 신뢰도를 전파할 때 마다 신뢰도가 새롭게 갱신되어 에너지 함수에도 영향을 끼친다. 이 경우, 신뢰도의 갱신은 다음 수학식 5와 같이 이루어진다. Where < RTI ID = 0.0 > is a weight for the confidence of the neighboring point. The sum of the values of the secondary differential values of the angle of incidence formed with the two adjacent vertices is added to the energy. This computes the curvature with the neighboring vertices again at each neighbor vertex and adds up to the sum. That is, the current vertex moves the current vertex to the position where the change of the angle of making with the adjacent vertices is the lowest, that is, the position maintaining the curvature of the surrounding vertices. The energy function uses the confidence as a weight, and each time the reliability is repeatedly propagated, the reliability is renewed to affect the energy function as well. In this case, the reliability is updated according to the following equation (5).
이렇게 정해진 에너지 함수를 최소화하도록 컨피던스가 낮은 모든 버텍스들을 반복적으로 이동시킨다. 이 경우 버텍스의 이웃포인트들의 컨피던스의 합이 β 보다 작을 때만 수행하도록 반복을 제한할 수 있다.All vertices with low confidence are moved repeatedly to minimize this energy function. In this case, iteration can be restricted to perform only when the sum of the confidences of the vertex's neighboring points is less than?.
도 10 및 도 11은 본 발명의 다른 실시 예에 따른 사용자의 3차원 신체 모델 생성 방법을 설명하기 위한 도면들이다. 10 and 11 are views for explaining a method of generating a three-dimensional body model of a user according to another embodiment of the present invention.
도 10 및 도 11에 따르면 도 5 내지 도 9에서 설명한 바와 달리, 복수의 다시점 뎁스 이미지를 이용하여 사용자의 3차원 신체 모델을 생성할 수 있다. 여기서, 다시점 이미지는, 고정 자세가 아닌 연속적으로 임의 자세를 취하며 움직이는 사용자를 실시간으로 촬영하여 획득될 수 있다. Referring to FIGS. 10 and 11, a three-dimensional body model of a user can be generated by using a plurality of depth-depth images, unlike in FIGS. Here, the multi-view image can be obtained by photographing a moving user in real time without taking a fixed posture and continuously taking an arbitrary posture.
복수의 다시점 뎁스 이미지를 이용하는 경우, 도 5 내지 9에서 설명한 하나의 뎁스 이미지를 이용하는 경우와 일부 과정은 유사하지만, 일부 과정은 상이할 수 있다. When a plurality of depth-depth images are used, some processes are similar to the case of using one depth image described in FIGS. 5 to 9, but some processes may be different.
구체적으로 도 5에서 설명한 포즈 정합 과정은 해당 실시 예에도 동일하게 적용되므로 자세한 설명은 생략하도록 한다. Specifically, the pose matching process described with reference to FIG. 5 is applied to the same embodiment, so a detailed description will be omitted.
복수의 다시점 뎁스 이미지를 이용하는 경우 도 10에 도시된 바와 같이 1 단계로 포즈 정합(도 5에 도시된 바와 동일)을 수행한 후 2 단계로 ICP 기반 로컬 형상 정합 방식을 추가로 이용하여 사용자의 3차원 신체 모델을 생성할 수 있다. In the case of using a plurality of depth-depth images, as shown in FIG. 10, a pose matching (the same as shown in FIG. 5) is performed in one step and then an ICP-based local shape matching method is further used in a two- A three-dimensional body model can be created.
구체적으로, 각 신체 부위 별로 ICP 기반 로컬 형상 정합 방식을 이용하여, 사용자의 뎁스 이미지에 따른 표면을 도 5의 과정을 통해 생성한 모델에 적용하여 모델 형상을 변형하고, 관절 위치를 복원할 수 있다. 또한, 도 11에 도시된 과정은 복수의 촬영된 다시점 이미지 각각에 대해 수행될 수 있다. Specifically, using the ICP-based local shape matching method for each body part, the surface according to the depth image of the user can be applied to the model generated through the procedure of FIG. 5 to modify the model shape and restore the joint position . In addition, the process shown in Fig. 11 can be performed for each of a plurality of photographed multi-view images.
여기서, ICP(iterative closest point)는 뎁스 이미지로부터 획득한 사람 신체에 해당하는 3차원 포인트들과 모델의 버텍스 포인트 들 간의 변위를 추정하는데 이용된다. 각 신체 부위별로 모델의 3차원 버텍스 포인트들이 뎁스 이미지로부터 획득한 해당 부분의 3차원 포인트들과 최소의 거리 차이를 가지게 되도록 각각 정합한다. 이러한 과정을 거쳐 포즈 정합 단계에서 반영되지 못한 보다 세밀한 신체의 움직임에 따른 형상 변화가 반영되어 신체 움직임을 추적할 수 있게 된다. Here, an iterative closest point (ICP) is used to estimate the displacement between the three-dimensional points corresponding to the human body obtained from the depth image and the vertex points of the model. Dimensional vertex points of the model for each body part are matched so as to have a minimum distance difference from the 3D points of the corresponding part obtained from the depth image. Through this process, the body movement can be tracked by reflecting the shape change due to the more detailed body movement which is not reflected in the pose registration step.
도 12는 본 발명의 다른 실시 예에 따라 생성된 사용자의 3차원 신체 모델을 일 예를 나타내는 도면이다. 12 is a view showing an example of a three-dimensional body model of a user generated according to another embodiment of the present invention.
본 발명의 다른 실시 예에 따르면, 기설정된 변형 파라미터를 이용하여 정합한 사용자의 누드 모델을 이용하여 사용자의 신체 정보를 측정할 수 있다. According to another embodiment of the present invention, the body information of the user can be measured using the nude model of the user matched using the predetermined deformation parameter.
구체적으로, 상술한 방법을 통해 획득한 사용자의 3차원 신체 모델을 사용할 수도 있으나, 옷, 가방과 같은 신체 이외의 형상이 반영되는 문제점을 해결하기 위하여 도 12에 도시된 바와 같이 새로운 누드 모델을 정합하는 방식을 사용할 수도 있다. 즉, 포즈 정합 단계를 거쳐 획득한 3차원 신체 모델에, 사람 신체의 부위별 변화 파라미터에 의한 제한적 변형만이 가능한 누드 모델을 추가 정합한 후, 정합 완료된 누드 모델을 이용하여 신체 정보를 측정하는 방식을 이용할 수 있다. 여기서, 누드 모델은 상술한 바와 같이 입력 이미지의 뎁스 정보에 의해 변형되는 것이 아니라, 도 12에 도시된 바와 같이 각 신체별 변형 파라미터에 의해 변형되며, 이러한 변형으로 옷, 가방과 같은 신체 이외의 형상에 영향이 없는 순수한 신체 형상 정보 만을 따로 추출할 수 있게 된다.Specifically, a three-dimensional body model of the user obtained through the above-described method may be used. However, in order to solve the problem that a shape other than a body such as a clothes or a bag is reflected, a new nude model is matched May be used. That is, a nude model capable of only limited modification by the change parameter of the human body part is additionally matched to the three-dimensional body model obtained through the pose matching step, and then the body information is measured using the matched nude model Can be used. Here, the nude model is not deformed by the depth information of the input image as described above, but is deformed by the deformation parameters of each body as shown in Fig. 12, and by this deformation, shapes other than the body such as clothes, It is possible to extract only pure body shape information that does not affect the body shape information.
도 12에 도시된 바와 같은 사용자의 3차원 신체 모델이 생성되면, 이에 기초하여 다양한 신체 정보를 추출할 수 있다. 예를 들어, 신장, 허리 둘레, 엉덩이 둘레, 복부 비만도, 체중, 체질량 지수, 가슴 둘레, 어깨 넓이, 허벅지 둘레, 팔 둘레 등의 신체 정보를 추출할 수 있다. When the user's three-dimensional body model is generated as shown in FIG. 12, various body information can be extracted based on the generated three-dimensional body model. For example, body information such as height, waist circumference, hip circumference, abdominal obesity, body weight, body mass index, chest circumference, shoulder width, thigh circumference, and arm circumference can be extracted.
이하에서는 도면을 참조하여 몇 가지 신체 정보 추출 방법을 예를 들어 설명하도록 한다. Hereinafter, some body information extraction methods will be described with reference to the drawings.
도 13은 본 발명의 일 실시 예에 따라 신장 정보를 추출하는 방법을 설명하기 위한 도면이다. 13 is a diagram for explaining a method of extracting extension information according to an embodiment of the present invention.
도 13에 도시된 바와 같이 관절 추적을 통해 상체 및 하체 관절 그룹을 판단하고, 상체 및 하체 관절 간 거리를 측정하여 신장 및 부분 신장 정보 추출이 가능하며, 상/하체 비율 정보와 같은 신체 정보도 추출할 수 있다. As shown in FIG. 13, it is possible to determine the upper and lower body joint groups through joint tracking, and to extract extension and partial extension information by measuring the distance between the upper body and lower joint, and to extract the body information such as the upper / can do.
다만, 본 발명의 일 실시 예에 따라 측정된 관절 간 거리에 선형 회귀(linear regression) 방식을 적용하여 사용자의 신장 정보를 추출할 수 있다. 즉, 관절 거리가 노이즈로 인해 부정확할 수 있으므로, 측정된 관절 간 거리의 y 축 합을 선형 회귀 방식의 입력으로 제공하여 좀더 정확한 신장 측정이 가능하게 된다. However, it is possible to extract the kidney information of the user by applying a linear regression method to the inter-joint distance measured according to an embodiment of the present invention. That is, since the joint distance may be inaccurate due to the noise, the y-axis sum of the measured inter-joint distance is provided as an input to the linear regression method, thereby enabling more accurate measurement of the elongation.
이 경우, 신장 및 부분 신장 정보 추출이 가능하며, 상/하체 비율 정보와 같은 신체 정보도 추출할 수 있다. In this case, extension and partial extension information extraction is possible, and body information such as upper / lower body ratio information can be extracted.
도 14는 본 발명의 일 실시 예에 따라 허리 둘레 및 엉덩이 둘레 정보를 추출하는 방법을 설명하기 위한 도면이다. FIG. 14 is a diagram for explaining a method of extracting information on the waist circumference and the hip circumference according to an embodiment of the present invention.
도 14에 도시된 바와 같이 Active Scisor 방식의 둘레 단면 형상 피팅 (Fitting) 및 거리 측정을 통해 다양한 신체 둘레 정보를 산출할 수 있다. As shown in FIG. 14, various body circumference information can be calculated through a circumferential sectional shape fitting of an active scissor system and distance measurement.
구체적으로, 도시된 바와 같이 사용자의 3차원 신체 모델에서 둘레를 측정하고자 하는 부위, 예를 들어 허리 주변에 원형 모델을 생성하고, 해당 원형 모델을 구성하는 포인트들을 사용자의 3차원 신체 모델에 대한 최단 거리 표면으로 이동한 후 원형 모델 포인트 간 거리를 계산하여 허리 둘레를 산출할 수 있다. Specifically, as shown in the figure, a circular model is created at a portion of the user's three-dimensional body model where the circumference is to be measured, for example, around the waist, and the points constituting the corresponding circular model are set as the shortest After moving to the distance surface, the waist circumference can be calculated by calculating the distance between the circular model points.
이러한 방식을 통해 허리 둘레 A(WHR(Waist Hip Ratio)용), 허리 둘레 B(하의 Size), 엉덩이 둘레(WHR용), 복부 비만도 등 다양한 신체 둘레 정보를 산출할 수 있다. 이 경우, 복부 비만도는 (허리 둘레)/(엉덩이 둘레)와 같은 방식을 통해 산출할 수 있다. 이외에도 유사한 방법을 통해 가슴둘레, 어깨넓이, 허벅지둘레, 팔둘레 등과 같은 다양한 신체 정보를 산출할 수 있다.In this way, various body circumference information such as waist circumference A (for WHR (Waist Hip Ratio)), waist circumference B (bottom size), hip circumference (for WHR), abdominal obesity can be calculated. In this case, the abdominal obesity degree can be calculated by a method such as (waist circumference) / (hip circumference). In addition, various body information such as the chest circumference, shoulder width, thigh circumference, and arm circumference can be calculated by a similar method.
도 15는 본 발명의 일 실시 예에 따라 체중 정보를 추출하는 방법을 설명하기 위한 도면이다.15 is a view for explaining a method of extracting body weight information according to an embodiment of the present invention.
도 15에 도시된 바와 같이 Mesh 와 Normal 정보를 이용하여, 사면체 부피 축적 방식으로 사용자의 3차원 신체 모델의 부피를 산출할 수 있다. 이 후, 부피와 체중 관계를 이용하여 전신 및 부분별 체중을 산출할 수 있다. 또한, "체중/(신장^2)"와 같은 식을 통해 체질량 지수(Body Mass Index: BMI)를 산출할 수 있다. As shown in FIG. 15, the volume of the three-dimensional body model of the user can be calculated using the tetrahedral volume accumulation method using the Mesh and Normal information. Thereafter, body and partial body weight can be calculated using the volume and weight relationship. In addition, the body mass index (BMI) can be calculated through an expression such as "weight / (height ^ 2)".
도 16은 본 발명의 일 실시 예에 따라 디스플레이되는 UI 화면의 일 예를 나타내는 도면이다. 16 is a view showing an example of a UI screen displayed according to an embodiment of the present invention.
도 16에 도시된 바와 같이 사용자의 3차원 신체 모델 및 그에 기초하여 추출된 다양한 신체 정보를 포함하는 UI 화면이 디스플레이를 통해 제공될 수 있다. As shown in FIG. 16, a UI screen including a user's three-dimensional body model and various body information extracted based thereon may be provided through a display.
도 17은 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법을 설명하기 위한 흐름도이다. 17 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention.
도 17에 도시된 본 발명의 일 실시 예에 따른 전자 장치의 제어 방법에 따르면, 우선 뎁스 카메라를 이용하여 사용자를 촬영한다(S1710). According to the method of controlling an electronic device according to an embodiment of the present invention shown in Fig. 17, first, a user is photographed using a depth camera (S1710).
이어서, 뎁스 카메라에 의해 촬영된 뎁스 이미지을 기저장된 표준 3차원 신체 모델에 적용하여 사용자의 3차원 신체 모델을 생성한다(S1720).Then, the depth image photographed by the depth camera is applied to the pre-stored standard three-dimensional body model to generate the user's three-dimensional body model (S1720).
이 후, 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출한다(S1730). Thereafter, the user's body information is extracted from the user's three-dimensional body model (S1730).
또한, 사용자의 3차원 신체 모델을 생성하는 S1720 단계는, 표준 3차원 신체 모델의 포즈를 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계 및, 뎁스 이미지에서 획득된 뎁스 정보에 기초하여 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 뎁스 이미지에서 획득하지 못한 파트를 보상하여 사용자의 3차원 신체 모델을 생성하는 단계를 포함할 수 있다.The step S1720 of generating the user's three-dimensional body model includes the steps of generating a three-dimensional body model reflecting the user's body structure by matching the pose of the standard three-dimensional body model with the pose of the user included in the depth image, Modifying at least a part of the surface of the three-dimensional body model based on the depth information obtained from the depth image, and generating a three-dimensional body model of the user by compensating the part not obtained in the depth image.
또한, 사용자의 3차원 신체 모델을 생성하는 S1720 단계에서는, 뎁스 이미지으로부터 추적된 사용자의 관절을 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합할 수 있다.In addition, in step S1720 of generating the user's three-dimensional body model, the joint of the user traced from the depth image is mapped with the joint of the standard three-dimensional body model, and the shape of the rigid body part between the joints and joints is transformed So that the pose of the standard three-dimensional body model can be matched with the pose of the user included in the depth image.
또한, 상기 사용자의 3차원 신체 모델을 생성하는 단계는, 상기 생성된 3차원 신체 모델의 리지드(rigid) 바디 파트 별로 리사이징(resizing)을 수행하여 사용자의 3차원 신체 모델을 생성할 수 있다.In addition, the step of generating the user's three-dimensional body model may generate a three-dimensional body model of the user by performing resizing for each rigid body part of the generated three-dimensional body model.
또한, 사용자의 3차원 신체 모델을 생성하는 S1720 단계에서는, 뎁스 정보에 기초하여 3차원 신체 모델이 상기 사용자의 표면을 따라 변형되면, 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 뎁스 이미지에서 획득하지 못한 파트를 보상할 수 있다. If the three-dimensional body model is deformed along the surface of the user based on the depth information, based on the reliability of the vertex constituting the three-dimensional body model, Moving a vertex with low reliability to a location adjacent to a vertex with high reliability can compensate for parts that are not acquired in the depth image.
또한, 사용자의 신체 정보를 추출하는 S1730 단계는, 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀 (linear regression) 방식을 적용하여 사용자의 신장 정보를 추출할 수 있다. In addition, in step S1730 of extracting the body information of the user, the kidney information of the user can be extracted by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model.
또한, 사용자의 신체 정보를 추출하는 S1730 단계에서는, 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 및 거리 측정을 적용하여 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출할 수 있다. In step S1730 of extracting the user's body information, a peripheral section shape fitting and a distance measurement of the ASM (Active Shape Model) method are applied to the user's three-dimensional body model to calculate the waist circumference information and the hip circumference information At least one of them can be extracted.
또한, 사용자의 신체 정보를 추출하는 S1730 단계에서는, 사용자의 3차원 신체 모델에 메쉬(Mesh) 정보를 적용하여 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출할 수 있다. In addition, in step S1730 of extracting the user's body information, mesh information corresponding to the user's three-dimensional body model is calculated to calculate volume information corresponding to the user's three-dimensional body model, Weight relationship and weight information and body mass index information can be calculated.
또한, 사용자의 3차원 신체 모델을 생성하는 S1720 단계는, 다 시점에서 촬영된 복수 개의 뎁스 이미지를 이용하는 경우, 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계 및, 생성된 3차원 신체 모델에 ICP(iterative closest point) 기반 로컬 트랙킹 방식을 이용하여 형상 변형을 수행하여 사용자의 3차원 신체 모델을 생성하는 단계를 포함할 수 있다. If a plurality of depth images photographed at a plurality of points are used, the pose of the standard three-dimensional body model is matched with the pose of the user included in the depth image to generate the three-dimensional body model of the user, A step of generating a three-dimensional body model reflecting the body structure, and a step of deforming the generated three-dimensional body model using an iterative closest point (ICP) based local tracking method to generate a three-dimensional body model of the user .
이상 설명한 바와 같이 본 발명의 다양한 실시 예에 따르면, 간단한 촬영 만으로, 실제 사용자의 신체에 부합하는 사용자의 3차원 신체 모델을 생성함으로써 최적의 서비스를 제공할 수 있게 된다. As described above, according to various embodiments of the present invention, it is possible to provide an optimal service by creating a three-dimensional body model of a user that matches the body of an actual user with only a simple photographing operation.
상술한 바와 같은 방법에 따라 생성된 사용자의 3차원 신체 모델은 매일 변화하는 체형을 기록하는 서비스, 허리둘레나 다리길이 등의 신체 사이즈를 추정하여 개개인의 체형을 고려한 옷 치수를 추천하는 서비스 등에 사용될 수 있다.The three-dimensional body model of the user generated according to the above-described method is a service for recording a body shape that changes every day, a body size estimation such as a waist circumference or a leg length, and a service for recommending clothes dimensions considering an individual body shape .
상술한 다양한 실시 예에 따른, 전자 장치의 제어 방법은 프로그램으로 구현되어 다양한 기록 매체에 저장될 수 있다. 즉, 각종 프로세서에 의해 처리되어 상술한 다양한 제어 방법을 실행할 수 있는 컴퓨터 프로그램이 기록 매체에 저장된 상태로 사용될 수도 있다.The control method of the electronic device according to the above-described various embodiments may be implemented by a program and stored in various recording media. That is, a computer program, which is processed by various processors and can execute the various control methods described above, may be stored in the recording medium.
일 예로, 뎁스 카메라에 의해 촬영된 뎁스 이미지을 기저장된 표준 3차원 신체 모델에 적용하여 상기 사용자의 3차원 신체 모델을 생성하는 단계 및, 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 단계를 포함하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.For example, a step of generating a three-dimensional body model of a user by applying a depth image photographed by a depth camera to a pre-stored standard three-dimensional body model, and extracting a user's body information from the user's three- A non-transitory computer readable medium may be provided.
비일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium is a medium that stores data for a short period of time, such as a register, cache, memory, etc., but semi-permanently stores data and is readable by the apparatus. In particular, the various applications or programs described above may be stored on non-volatile readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM,
이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.
100: 전자 장치 110: 스토리지
120: 촬영부 130: 프로세서100: electronic device 110: storage
120: photographing unit 130: processor
Claims (20)
뎁스 카메라를 이용하여 사용자를 촬영하는 촬영부; 및
상기 뎁스 카메라에 의해 촬영된 뎁스 이미지을 상기 표준 3차원 신체 모델에 적용하여 상기 사용자의 3차원 신체 모델을 생성하고, 상기 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 프로세서;를 포함하는 전자 장치.Storage to store standard three-dimensional body models;
A photographing unit photographing a user using a depth camera; And
And a processor for applying the depth image photographed by the depth camera to the standard three-dimensional body model to generate the three-dimensional body model of the user and extracting the user's body information from the three-dimensional body model of the user Device.
상기 프로세서는,
상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하고, 상기 뎁스 이미지에서 획득된 뎁스 정보에 기초하여 상기 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 전자 장치. The method according to claim 1,
The processor comprising:
Dimensional body model reflecting the body structure of the user by matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image, and generating a three-dimensional body model based on the depth information obtained in the depth image, Deforms at least a portion of the body model surface and compensates for parts not obtained in the depth image to generate the three-dimensional body model of the user.
상기 프로세서는,
상기 뎁스 이미지으로부터 추적된 사용자의 관절을 상기 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하는 것을 특징으로 하는 전자 장치.3. The method of claim 2,
The processor comprising:
Mapping a joint of the user traced from the depth image to a joint of the standard three-dimensional body model, and deforming a shape of a rigid body part between the joint and the joint, Is matched with a pose of a user included in the electronic device.
상기 프로세서는,
상기 생성된 3차원 신체 모델의 리지드 바디 파트 별로 길이 조정 및 비율 조정 적어도 하나에 따른 리사이징(resizing)을 수행하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 전자 장치. The method of claim 3,
The processor comprising:
Wherein the controller generates the three-dimensional body model of the user by performing resizing according to at least one of length adjustment and ratio adjustment for each rigid body part of the generated three-dimensional body model.
상기 프로세서는,
상기 뎁스 정보에 기초하여 상기 3차원 신체 모델이 상기 사용자의 표면을 따라 변형되면, 상기 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 전자 장치. 3. The method of claim 2,
The processor comprising:
If the three-dimensional body model is deformed along the surface of the user based on the depth information, the vertex having low reliability based on the reliability of the vertex constituting the three-dimensional body model is referred to as a vertex having high reliability Dimensional body model of the user by moving to an adjacent position and compensating for parts not obtained in the depth image.
상기 프로세서는,
상기 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀 (linear regression) 방식을 적용하여 상기 사용자의 신장 정보를 추출하는 것을 특징으로 하는 전자 장치.The method according to claim 1,
The processor comprising:
And extracting the kidney information of the user by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model.
상기 프로세서는,
상기 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 및 거리 측정을 적용하여 상기 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출하는 것을 특징으로 하는 전자 장치. The method according to claim 1,
The processor comprising:
Wherein at least one of the waist circumference information and the hip circumference information of the user is extracted by applying an ASM (Active Shape Model) circumferential sectional shape fitting and distance measurement to the user's three-dimensional body model Device.
상기 프로세서는,
상기 사용자의 3차원 신체 모델에 메쉬(Mesh) 정보를 적용하여 상기 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출하는 것을 특징으로 하는 전자 장치.The method according to claim 1,
The processor comprising:
The mesh information is applied to the user's three-dimensional body model to calculate volume information corresponding to the user's three-dimensional body model, and volume and weight relationship is applied to the calculated volume information to calculate weight information and body mass index Information of at least one of the plurality of devices.
상기 프로세서는,
단일 시점에서 촬영된 한 장의 뎁스 이미지 또는 다 시점에서 촬영된 복수 개의 뎁스 이미지에 기초하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 전자 장치. The method according to claim 1,
The processor comprising:
Dimensional body model of the user based on a depth image taken at a single viewpoint or a plurality of depth images taken at multiple viewpoints.
상기 프로세서는,
상기 복수 개의 뎁스 이미지를 이용하는 경우, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하고, 상기 생성된 3차원 신체 모델에 ICP(iterative closest point) 기반 로컬 트랙킹 방식을 이용하여 형상 변형을 수행하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 전자 장치.10. The method of claim 9,
The processor comprising:
Dimensional body model reflecting the user's body structure by matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image when the plurality of depth images are used, Wherein the shape transformation is performed on the body model using an iterative closest point (ICP) based local tracking method to generate the three-dimensional body model of the user.
디스플레이;를 더 포함하며,
상기 프로세서는,
상기 사용자의 3차원 신체 모델에 기반하여 상기 추출된 사용자의 신체 정보를 포함하는 UI 화면을 상기 디스플레이를 통해 디스플레이하는 것을 특징으로 하는 전자 장치.The method according to claim 1,
Further comprising a display,
The processor comprising:
And displays the UI screen including the extracted user's body information on the display based on the three-dimensional body model of the user.
뎁스 카메라를 이용하여 사용자를 촬영하는 단계;
상기 뎁스 카메라에 의해 촬영된 뎁스 이미지을 기저장된 표준 3차원 신체 모델에 적용하여 상기 사용자의 3차원 신체 모델을 생성하는 단계; 및
상기 사용자의 3차원 신체 모델에서 사용자의 신체 정보를 추출하는 단계;를 포함하는 제어 방법. A method of controlling an electronic device,
Capturing a user using a depth camera;
Generating a three-dimensional body model of the user by applying a depth image photographed by the depth camera to a pre-stored standard three-dimensional body model; And
And extracting the user's body information from the three-dimensional body model of the user.
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계; 및
상기 뎁스 이미지에서 획득된 뎁스 정보에 기초하여 상기 3차원 신체 모델 표면의 적어도 일부분을 변형하고, 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.13. The method of claim 12,
Wherein the generating the three-dimensional body model of the user comprises:
Matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image to generate a three-dimensional body model reflecting the body structure of the user; And
Modifying at least a part of the surface of the three-dimensional body model based on the depth information obtained in the depth image and generating a three-dimensional body model of the user by compensating the part not obtained in the depth image .
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
상기 뎁스 이미지으로부터 추적된 사용자의 관절을 상기 표준 3차원 신체 모델의 관절과 맵핑하고, 관절과 관절 사이의 리지드(rigid) 바디 파트의 형상을 변형하여 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하는 것을 특징으로 하는 제어 방법.14. The method of claim 13,
Wherein the generating the three-dimensional body model of the user comprises:
Mapping a joint of the user traced from the depth image to a joint of the standard three-dimensional body model, and deforming a shape of a rigid body part between the joint and the joint, Is matched with a pose of a user included in the control unit.
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
상기 생성된 3차원 신체 모델의 리지드(rigid) 바디 파트 별로 길이 조정 및 비율 조정 적어도 하나에 따른 리사이징(resizing)을 수행하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 제어 방법.15. The method of claim 14,
Wherein the generating the three-dimensional body model of the user comprises:
Wherein the three-dimensional body model of the user is generated by performing resizing according to at least one of length adjustment and ratio adjustment for each rigid body part of the generated three-dimensional body model.
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
상기 뎁스 정보에 기초하여 상기 3차원 신체 모델이 상기 사용자의 표면을 따라 변형되면, 상기 3차원 신체 모델을 구성하는 버텍스(vertex)의 신뢰도에 기초하여 낮은 신뢰도를 갖는 버텍스를 높은 신뢰도를 갖는 버텍스에 인접한 위치로 이동시켜 상기 뎁스 이미지에서 획득하지 못한 파트를 보상하여 상기 사용자의 3차원 신체 모델을 생성하는 것을 특징으로 하는 제어 방법. 14. The method of claim 13,
Wherein the generating the three-dimensional body model of the user comprises:
If the three-dimensional body model is deformed along the surface of the user based on the depth information, the vertex having low reliability based on the reliability of the vertex constituting the three-dimensional body model is referred to as a vertex having high reliability Dimensional body model of the user is generated by compensating a part that is not acquired in the depth image by moving to an adjacent position.
상기 사용자의 신체 정보를 추출하는 단계는,
상기 사용자의 3차원 신체 모델에서 추적된 관절 간 거리 정보에 선형 회귀 (linear regression) 방식을 적용하여 상기 사용자의 신장 정보를 추출하는 것을 특징으로 하는 제어 방법.13. The method of claim 12,
The step of extracting the user's body information comprises:
And extracting the kidney information of the user by applying a linear regression method to the inter-joint distance information tracked in the user's three-dimensional body model.
상기 사용자의 신체 정보를 추출하는 단계는,
상기 사용자의 3차원 신체 모델에 ASM(Active Shape Model) 방식의 둘레 단면 형상 피팅(fitting) 및 거리 측정을 적용하여 상기 사용자의 허리 둘레 정보 및 엉덩이 둘레 정보 중 적어도 하나를 추출하는 것을 특징으로 하는 제어 방법. 13. The method of claim 12,
The step of extracting the user's body information comprises:
Wherein at least one of the waist circumference information and the hip circumference information of the user is extracted by applying an ASM (Active Shape Model) circumferential sectional shape fitting and distance measurement to the user's three-dimensional body model Way.
상기 사용자의 신체 정보를 추출하는 단계는,
상기 사용자의 3차원 신체 모델에 메쉬(Mesh) 정보를 적용하여 상기 사용자의 3차원 신체 모델에 대응되는 부피 정보를 산출하고, 산출된 부피 정보에 부피 및 체중 간 관계를 적용하여 체중 정보 및 체질량 지수 정보 중 적어도 하나를 산출하는 것을 특징으로 하는 제어 방법. 13. The method of claim 12,
The step of extracting the user's body information comprises:
The mesh information is applied to the user's three-dimensional body model to calculate volume information corresponding to the user's three-dimensional body model, and volume and weight relationship is applied to the calculated volume information to calculate weight information and body mass index Wherein the control unit calculates at least one of the information.
상기 사용자의 3차원 신체 모델을 생성하는 단계는,
다 시점에서 촬영된 복수 개의 뎁스 이미지를 이용하는 경우, 상기 표준 3차원 신체 모델의 포즈를 상기 뎁스 이미지에 포함된 사용자의 포즈와 정합하여 상기 사용자의 신체 구조가 반영된 3차원 신체 모델을 생성하는 단계; 및
상기 생성된 3차원 신체 모델에 ICP(iterative closest point) 기반 로컬 트랙킹 방식을 이용하여 형상 변형을 수행하여 상기 사용자의 3차원 신체 모델을 생성하는 단계;를 포함하는 것을 특징으로 하는 제어 방법.12. The method of claim 11,
Wherein the generating the three-dimensional body model of the user comprises:
Generating a three-dimensional body model in which a body structure of the user is reflected by matching a pose of the standard three-dimensional body model with a pose of a user included in the depth image, when using a plurality of depth images photographed at multiple viewpoints; And
And generating a three-dimensional body model of the user by performing shape transformation using an iterative closest point (ICP) based local tracking method on the generated three-dimensional body model.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20150033760 | 2015-03-11 | ||
KR1020150033760 | 2015-03-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20160110070A true KR20160110070A (en) | 2016-09-21 |
Family
ID=57079979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020160003155A KR20160110070A (en) | 2015-03-11 | 2016-01-11 | Electronic apparatus, and control method therof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20160110070A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110522466A (en) * | 2018-05-23 | 2019-12-03 | 西门子医疗有限公司 | The method and apparatus for determining patient weight and/or body mass index |
EP3699929A1 (en) * | 2019-02-25 | 2020-08-26 | Siemens Healthcare GmbH | Patient weight estimation from surface data using a patient model |
WO2021040156A1 (en) * | 2019-09-01 | 2021-03-04 | 엘지전자 주식회사 | Body measurement device and control method therefor |
CN112652057A (en) * | 2020-12-30 | 2021-04-13 | 北京百度网讯科技有限公司 | Method, device, equipment and storage medium for generating human body three-dimensional model |
KR20220006312A (en) * | 2020-07-08 | 2022-01-17 | 전북대학교산학협력단 | An apparatus for determination of body weight of korean cattle using ToF camera |
KR20220106254A (en) * | 2021-01-21 | 2022-07-29 | 주식회사 아더하프 | System and method for measuring of pet obesity |
-
2016
- 2016-01-11 KR KR1020160003155A patent/KR20160110070A/en not_active Application Discontinuation
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110522466A (en) * | 2018-05-23 | 2019-12-03 | 西门子医疗有限公司 | The method and apparatus for determining patient weight and/or body mass index |
CN110522466B (en) * | 2018-05-23 | 2023-08-18 | 西门子医疗有限公司 | Method and device for determining the weight and/or body mass index of a patient |
EP3699929A1 (en) * | 2019-02-25 | 2020-08-26 | Siemens Healthcare GmbH | Patient weight estimation from surface data using a patient model |
CN111609908A (en) * | 2019-02-25 | 2020-09-01 | 西门子医疗有限公司 | Patient weight estimation from surface data using a patient model |
US11703373B2 (en) | 2019-02-25 | 2023-07-18 | Siemens Healthcare Gmbh | Patient weight estimation from surface data using a patient model |
WO2021040156A1 (en) * | 2019-09-01 | 2021-03-04 | 엘지전자 주식회사 | Body measurement device and control method therefor |
US11527026B2 (en) | 2019-09-01 | 2022-12-13 | Lg Electronics Inc. | Body measurement device and method for controlling the same |
KR20220006312A (en) * | 2020-07-08 | 2022-01-17 | 전북대학교산학협력단 | An apparatus for determination of body weight of korean cattle using ToF camera |
CN112652057A (en) * | 2020-12-30 | 2021-04-13 | 北京百度网讯科技有限公司 | Method, device, equipment and storage medium for generating human body three-dimensional model |
KR20220106254A (en) * | 2021-01-21 | 2022-07-29 | 주식회사 아더하프 | System and method for measuring of pet obesity |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3466070B1 (en) | Method and device for obtaining image, and recording medium thereof | |
KR20160110070A (en) | Electronic apparatus, and control method therof | |
CN106575160B (en) | Interface providing method and device for recognizing action according to user viewpoint | |
US11494915B2 (en) | Image processing system, image processing method, and program | |
CN109801374B (en) | Method, medium, and system for reconstructing three-dimensional model through multi-angle image set | |
TW202030697A (en) | Electronic device and method of recovering depth map | |
CN104346612B (en) | Information processing unit and display methods | |
US20230245391A1 (en) | 3d model reconstruction and scale estimation | |
JP6500355B2 (en) | Display device, display program, and display method | |
WO2016111880A1 (en) | Gaze detection offset for gaze tracking models | |
TW201812700A (en) | Measurement systems and methods for measuring multi-dimensions | |
KR102209745B1 (en) | An information display device of a mirror display for advertisement and shopping by recognizing the reflected images on the mirror and method thereof | |
US11403781B2 (en) | Methods and systems for intra-capture camera calibration | |
KR102183692B1 (en) | An augmented reality service apparatus for a mirror display by recognizing the reflected images on the mirror and method thereof | |
CN110232707A (en) | A kind of distance measuring method and device | |
US11915441B2 (en) | Systems and methods for low compute depth map generation | |
WO2020223940A1 (en) | Posture prediction method, computer device and storage medium | |
CN114766042A (en) | Target detection method, device, terminal equipment and medium | |
KR20220035250A (en) | Co-environment reconstruction and camera calibration | |
US11120624B2 (en) | Three-dimensional head portrait generating method and electronic device | |
CN111742352B (en) | Method for modeling three-dimensional object and electronic equipment | |
US11430086B2 (en) | Upsampling low temporal resolution depth maps | |
US20200211275A1 (en) | Information processing device, information processing method, and recording medium | |
KR102538685B1 (en) | Method and apparatus for restoring 3d information using multi-view information | |
JP7029253B2 (en) | Information processing equipment and its method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |