KR102151265B1 - Hmd system and rehabilitation system including the same - Google Patents
Hmd system and rehabilitation system including the same Download PDFInfo
- Publication number
- KR102151265B1 KR102151265B1 KR1020200030327A KR20200030327A KR102151265B1 KR 102151265 B1 KR102151265 B1 KR 102151265B1 KR 1020200030327 A KR1020200030327 A KR 1020200030327A KR 20200030327 A KR20200030327 A KR 20200030327A KR 102151265 B1 KR102151265 B1 KR 102151265B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- augmented reality
- hmd
- eye
- reality content
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computing Systems (AREA)
- Architecture (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
아래 실시예들은 스마트폰과 HMD(head-mounted display) 장치를 포함하는 HMD 시스템 및 이를 이용한 재활훈련 시스템을 제공하는 기술에 관한 것이다.The following embodiments relate to a technology for providing an HMD system including a smartphone and a head-mounted display (HMD) device and a rehabilitation training system using the same.
실시예들과 관련된 배경기술로, 대한민국 등록특허공보 KR 10-1761751 B1은 직접적인 기하학적 모델링이 행해지는 HMD 보정을 개시한다. 구체적으로, 선행문헌은 (a) 적어도 머리 모델 및 HMD 모델의 기하학적 정보에 기초하여 규정되는 보정(calibration) 행렬 세트를 이용하여, 기준 대상물(reference object)에 대응하는 가상 대상물의 뷰(view)를 투영하는 단계로서, 상기 투영된 가상 대상물이, 상기 HMD를 통해 상기 기준 대상물과 실질적으로 결부(anchor)되는 것으로 인지되도록 투영하는 단계; (b) 상기 사용자 인터페이스를 통해 수신된 지시에 응답하여, 상기 지시가 나타내는 양(amount)만큼 상기 보정 행렬 세트 내의 적어도 하나의 파라미터를 변화시키는 단계; (c) 상기 양만큼 변화된 상기 적어도 하나의 파라미터를 포함하는 상기 보정 행렬 세트에 기초하여, 상기 가상 대상물의 뷰를 투영하는 단계; 및 (d) 상기 (c) 단계에서 투영된 가상 대상물이 상기 기준 대상물과 실질적으로 정렬된 것으로 인지될 수 있을 때까지, 상기 보정 행렬 세트 내의 상기 적어도 하나의 파라미터 이외의 파라미터에 대해 상기 (b) 및 (c) 단계가 수행되도록 허용하여, 그에 의해 상기 보정 행렬을 조정하는 단계를 포함하는 사용자 인터페이스를 포함하는 증강 현실(augmented reality; AR) 시스템의 광학 투시(OST) 머리 장착형 디스플레이(HMD)의 보정 방법을 개시한다.As a background technology related to the embodiments, Korean Patent Application Publication No. KR 10-1761751 B1 discloses HMD correction in which direct geometric modeling is performed. Specifically, the prior literature (a) at least using a set of calibration matrices prescribed based on geometric information of the head model and the HMD model, a view of the virtual object corresponding to the reference object (view). Projecting, comprising: projecting the projected virtual object to be perceived as being substantially anchored to the reference object through the HMD; (b) in response to an instruction received through the user interface, changing at least one parameter in the correction matrix set by an amount indicated by the instruction; (c) projecting a view of the virtual object based on the correction matrix set including the at least one parameter changed by the amount; And (d) the (b) for parameters other than the at least one parameter in the correction matrix set until it can be recognized that the virtual object projected in step (c) is substantially aligned with the reference object. And (c) allowing the step to be performed, thereby adjusting the correction matrix, of an optical perspective (OST) head-mounted display (HMD) of an augmented reality (AR) system comprising a user interface. The correction method is disclosed.
이를 통해, 선행문헌은 AR 시스템을 실세계 장면으로 보정하는 것을 간단하게 해주는 시스템/방법을 제공하고 있다. 또한, 선행문헌은 실시간으로 실세계의 획득된 정보를 가상 대상물의 정보와 실시간으로 결합하여 가상 카메라 표시를 렌더링(rendering)할 수 있는 AR 시스템을 제공하고 있다.Through this, prior literature provides a system/method that simplifies correcting an AR system into a real world scene. In addition, prior literature provides an AR system capable of rendering a virtual camera display by combining information obtained in real time with information of a virtual object in real time.
또한, 대한민국 등록특허공보 KR 10-2028376 B1은 번들 조정 알고리즘을 이용한 립모션과 HMD 사이의 캘리브레이션 방법 및 장치를 개시한다. 구체적으로, 선행문헌은 립모션을 장착하며 적외선 전구들이 형성된 HMD의 전면을 적외선 카메라로 촬영하여 획득한 각기 다른 시점의 n개 2차원 영상을 n개 희소 행렬로 변환하는 단계, 번들 조정 알고리즘을 통해 n개 희소 행렬을 3차 원 공간에 근사시켜 생성한 하나의 3차원 점군과 n개 희소 행렬을 이용하여 n개 투영 행렬을 획득하는 단계, 3차원 점군을 n개 투영 행렬을 통해 n개 2차원 영상에 각각 투영시켜 투영된 n개 2차원 점군을 획득하는 단계, n개 2차원 영상 각각에 대해, 적외선 전구의 형상에 대응하는 복수의 전구 클러스터를 검출 후 2차원 점군 내 소속점들 중 전구 클러스터 내 위치한 2차원 점들을 판별하는 단계, 3차원 점군 내 소속점들 중 전구 클러스터 내에 위치한 2차원 점들에 대응되는 3차원 점들을 기초로 각 전구 클러스터의 3차원 중심점을 획득하는 단계, 및 각 전구 클러스터의 3차원 중심점과 클러스터 크기를 이용하여 립모션과 HMD의 원점을 각각 추정하여 캘리브레이션하는 단계를 포함하는 방법을 개시한다.In addition, Korean Patent Application Publication No. KR 10-2028376 B1 discloses a calibration method and apparatus between a lip motion and an HMD using a bundle adjustment algorithm. Specifically, the prior literature is a step of converting n 2D images of different viewpoints obtained by photographing the front of an HMD with lip motion and infrared light bulbs formed with an infrared camera into n sparse matrices, through a bundle adjustment algorithm. Obtaining n projection matrices using one 3D point group and n sparse matrices generated by approximating n sparse matrices to a 3 dimensional original space, and n 2D 3D point groups through n projection matrices A step of obtaining n 2D point groups projected by projecting each onto an image. For each of n 2D images, a bulb cluster among the belonging points in the 2D point group after detecting a plurality of bulb clusters corresponding to the shape of the infrared bulb Determining the two-dimensional points located within, acquiring a three-dimensional center point of each light bulb cluster based on the three-dimensional points corresponding to the two-dimensional points located in the light bulb cluster among belonging points in the three-dimensional point group, and each light bulb cluster Disclosed is a method including the step of estimating and calibrating the lip motion and the origin of the HMD using the 3D center point and the cluster size of.
그러나 선행문헌들은 HMD 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서 실제 이미지가 촬영된 경우, 실제 이미지를 착용자가 육안으로 바라보는 전방의 실제 모습과 가깝도록 변환하고, 변환 이미지를 기초로 증강현실 콘텐츠의 위치, 면적, 방향 등을 결정하여, 증강현실 콘텐츠와 착용자 전방의 실제 이미지의 불일치·어긋남을 최소화하는 방법 내지 시스템을 개시하지 않는다. 또한, 선행문헌들은 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들에 가중치를 부여한 후, 증강현실 콘텐츠 생성의 기초가 되는 변환 이미지를 생성하는 방법 내지 시스템을 개시하지 않는다. 나아가, 선행문헌들은 눈높이에 위치한 기준 카메라로 촬영한 기준 이미지와 눈높이가 아닌 위치에 놓인 HMD 카메라로 촬영한 테스트 이미지가 미리 정의된 에러 이하의 일치도를 가지도록 하는 선형 변환을 구하는 방법 내지 시스템을 개시하지 않는다.However, prior literatures have shown that when an actual image is taken at a position higher than the HMD wearer's eye level, for example, at a position about the wearer's forehead, the actual image is converted so that it is close to the actual image in front of the wearer with the naked eye, and the converted image is converted. It does not disclose a method or system for minimizing inconsistency or misalignment between the augmented reality content and the actual image in front of the wearer by determining the location, area, and direction of the augmented reality content on the basis. In addition, prior documents specify ranges related to augmented reality content in an actual image, or a method of generating a transformed image that is the basis for creating augmented reality content after assigning weight to ranges related to augmented reality content in an actual image. Does not start the system. Furthermore, prior literature discloses a method or system for obtaining a linear transformation so that a reference image taken with a reference camera positioned at eye level and a test image taken with an HMD camera positioned at a position other than eye level have a degree of agreement less than or equal to a predefined error. I never do that.
이에 따라, HMD 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서 실제 이미지가 촬영된 경우, 실제 이미지를 착용자가 육안으로 바라보는 전방의 실제 모습과 가깝도록 변환하고, 변환 이미지를 기초로 증강현실 콘텐츠의 위치, 면적, 방향 등을 결정하여, 증강현실 콘텐츠와 착용자 전방의 실제 이미지의 불일치·어긋남을 최소화하는 기술의 구현이 요청된다. 또한, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들에 가중치를 부여한 후, 증강현실 콘텐츠 생성의 기초가 되는 변환 이미지를 생성하는 기술의 구현이 요청된다. 나아가, 눈높이에 위치한 기준 카메라로 촬영한 기준 이미지와 눈높이가 아닌 위치에 놓인 HMD 카메라로 촬영한 테스트 이미지가 미리 정의된 에러 이하의 일치도를 가지도록 하는 선형 변환을 구하는 기술의 구현이 요청된다.Accordingly, when the actual image is taken at a position higher than the HMD wearer's eye level, for example, at a position about the wearer's forehead, the actual image is converted to be close to the actual image of the front viewed by the wearer with the naked eye, and the converted image is based. As a result, there is a need to implement a technology that determines the location, area, and direction of the augmented reality content and minimizes the discrepancy and mismatch between the augmented reality content and the actual image in front of the wearer. In addition, after specifying ranges related to augmented reality content in an actual image, or assigning weights to ranges related to augmented reality content in an actual image, implementation of a technology that generates a transformed image that is the basis for creating augmented reality content is Is requested. Furthermore, there is a need for implementation of a technique for obtaining a linear transformation so that a reference image captured by a reference camera positioned at eye level and a test image captured by an HMD camera positioned at a position other than eye level have a degree of agreement less than or equal to a predefined error.
실시예들은 HMD 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서 실제 이미지가 촬영된 경우, 실제 이미지를 착용자가 육안으로 바라보는 전방의 실제 모습과 가깝도록 변환하고, 변환 이미지를 기초로 증강현실 콘텐츠의 위치, 면적, 방향 등을 결정하여, 증강현실 콘텐츠와 착용자 전방의 실제 이미지의 불일치·어긋남을 최소화하는 시스템을 제공하고자 한다.In the embodiments, when an actual image is taken at a position higher than the HMD wearer's eye level, for example, at a position about the wearer's forehead, the actual image is converted to be close to the actual image in front of the wearer with the naked eye, and based on the converted image By determining the location, area, and direction of the augmented reality content, it is intended to provide a system that minimizes inconsistency or mismatch between the augmented reality content and the actual image in front of the wearer.
실시예들은 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들에 가중치를 부여한 후, 증강현실 콘텐츠 생성의 기초가 되는 변환 이미지를 생성하는 시스템을 제공하고자 한다.Embodiments provide a system that designates ranges related to augmented reality content in an actual image, or assigns weights to ranges related to augmented reality content in an actual image, and then generates a converted image that is the basis for creating augmented reality content. I want to.
실시예들은 눈높이에 위치한 기준 카메라로 촬영한 기준 이미지와 눈높이가 아닌 위치에 놓인 HMD 카메라로 촬영한 테스트 이미지가 미리 정의된 에러 이하의 일치도를 가지도록 하는 선형 변환을 구하는 시스템을 제공하고자 한다.The embodiments are intended to provide a system for obtaining a linear transformation so that a reference image photographed with a reference camera positioned at eye level and a test image photographed with an HMD camera positioned at a position other than eye level have a degree of matching less than or equal to a predefined error.
나아가, 실시예들은 배경 기술에서 언급한 과제들 및 본 명세서에서 드러나는 해당 기술 분야의 과제들을 해결하기 위한 방법 및 시스템을 제공하고자 한다.Further, the embodiments are intended to provide a method and system for solving the problems mentioned in the background art and the problems of the relevant technical field disclosed in the present specification.
일실시예에 따른 HMD 시스템은 HMD 장치 및 스마트폰을 포함하고, 상기 HMD 장치는, 제 1 면으로 입사하는 빛을 투과하고, 제 2 면으로 입사하는 빛을 반사하는 하프미러(half-mirror); 스마트폰의 디스플레이가 상기 제 2 면을 향하도록 스마트폰을 거치하는 스마트폰 거치대; 및 상기 제 1 면 방향의 실제 이미지를 획득하는 HMD 카메라를 포함하고, 상기 스마트폰은, 상기 스마트폰 거치대에 거치되며, 증강현실 콘텐츠를 출력하는 디스플레이; 및 상기 HMD 장치와 유무선으로 통신하는 프로세서를 포함하고, 상기 프로세서는, 상기 HMD 카메라를 통해 촬영된 실제 이미지를 획득하고, 상기 실제 이미지에서 적어도 하나의 일부 영역을 인식하고, 각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고, 상기 디스플레이로 상기 증강현실 레이어를 전송하며, 상기 증강현실 레이어의 생성은, 상기 실제 이미지를 변환한 변환 이미지를 생성하고, 상기 변환 이미지 상의 상기 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 상기 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고, 상기 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 상기 각각의 증강현실 콘텐츠를 생성하여 상기 증강현실 레이어에 포함시키는 동작을 포함하여 이루어질 수 있다.An HMD system according to an embodiment includes an HMD device and a smart phone, and the HMD device transmits light incident on a first surface and reflects light incident on a second surface (half-mirror) ; A smart phone cradle for mounting the smart phone so that the display of the smart phone faces the second surface; And a HMD camera that acquires an actual image in the direction of the first surface, wherein the smartphone is mounted on the smartphone cradle, and includes a display configured to output augmented reality content; And a processor that communicates with the HMD device via wired or wireless communication, wherein the processor acquires an actual image photographed through the HMD camera, recognizes at least one partial region in the actual image, and corresponds to each partial region Generates an augmented reality layer including each of the augmented reality content to be transmitted, transmits the augmented reality layer to the display, and generating the augmented reality layer generates a converted image obtained by converting the actual image, and the converted image Each augmented reality content data including the location, area, and direction of each of the augmented reality content based on each partial area data set including the location, area, and direction of each of the partial areas on the image A set may be determined, and based on each of the augmented reality content data sets, each of the augmented reality contents may be generated and included in the augmented reality layer.
일실시예에 따르면, 상기 변환 이미지의 생성은, 상기 실제 이미지를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득하고, 상기 좌안 실제 이미지 및 상기 우안 실제 이미지에 대응하는 실제 이미지 텐서(tensor)에 제 1 선형 변환을 적용하여 제 1 변환 이미지 텐서를 생성하고, 상기 제 1 변환 이미지 텐서를 기초로, 상기 변환 이미지를 생성하는 동작을 포함하여 이루어질 수 있다.According to an embodiment, in the generation of the converted image, based on the real image, a left eye real image and a right eye real image are acquired, and the real image tensor corresponding to the left eye real image and the right eye real image An operation of generating a first transformed image tensor by applying a first linear transform, and generating the transformed image based on the first transformed image tensor may be performed.
일실시예에 따르면, 상기 변환 이미지의 생성은, 상기 실제 이미지를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득하고, 상기 좌안 실제 이미지 및 상기 우안 실제 이미지에 대응하는 실제 이미지 텐서(tensor)에서 상기 각각의 일부 영역에 대응하는 원소들에 코스트(cost, 가중치)를 적용하고, 상기 코스트를 기초로, 제 1 선형 변환을 제 2 선형 변환으로 변환하고, 코스트가 적용된 실제 이미지 텐서에 상기 제 2 선형 변환을 적용하여 제 2 변환 이미지 텐서를 생성하고, 상기 제 2 변환 이미지 텐서를 기초로, 상기 변환 이미지를 생성하는 동작을 포함하여 이루어질 수 있다.According to an embodiment, in the generation of the converted image, based on the real image, the real left eye image and the real right eye image are acquired, and the real image tensor corresponding to the real left eye image and the real right eye image A cost (weight) is applied to elements corresponding to each of the partial regions, and based on the cost, the first linear transform is converted into a second linear transform, and the second is applied to the actual image tensor to which the cost is applied. An operation of generating a second transformed image tensor by applying a linear transform, and generating the transformed image based on the second transformed image tensor may be performed.
일실시예에 따르면, 상기 제 1 선형 변환은, 상기 HMD 시스템 착용 시 기준 착용자의 양안 위치에 좌안 기준 카메라 및 우안 기준 카메라를 설치하고, 상기 좌안 기준 카메라 및 상기 우안 기준 카메라를 통해 촬영된 좌안 기준 이미지 및 우안 기준 이미지를 획득하고, 상기 HMD 카메라를 통해 촬영된 테스트 이미지를 획득하고, 상기 테스트 이미지를 기초로, 좌안 테스트 이미지와 우안 테스트 이미지를 획득하고, 상기 좌안 테스트 이미지 및 상기 우안 테스트 이미지에 대응하는 테스트 이미지 텐서에 후보 선형 변환을 적용하여 기준 추정 이미지 텐서를 생성하고, 상기 좌안 기준 이미지 및 상기 우안 기준 이미지에 대응하는 기준 이미지 텐서와, 상기 기준 추정 이미지 텐서의 차의 노름(norm)을 기초로, 에러를 정의하고, 상기 에러가 미리 정의된 값 이하가 되도록하는 후보 선형 변환을 제 1 선형 변환으로 정의하는 동작을 포함하여 획득할 수 있다.According to an embodiment, in the first linear transformation, a left-eye reference camera and a right-eye reference camera are installed at both eyes of a reference wearer when the HMD system is worn, and a left-eye reference photographed through the left-eye reference camera and the right-eye reference camera Acquire an image and a right-eye reference image, acquire a test image taken through the HMD camera, acquire a left-eye test image and a right-eye test image based on the test image, and the left-eye test image and the right-eye test image A reference estimated image tensor is generated by applying a candidate linear transformation to a corresponding test image tensor, and a norm of a difference between the reference image tensor corresponding to the left-eye reference image and the right-eye reference image, and the reference estimated image tensor is calculated. As a basis, it may be obtained by defining an error and defining a candidate linear transform that causes the error to be less than or equal to a predefined value as a first linear transform.
HMD 시스템을 포함하는 재활훈련 시스템은 HMD 시스템, 서버, 및 미리 정의된 재활훈련 단위들을 포함하고, 상기 서버는, HMD 시스템 착용자가 각각의 미리 정의된 재활훈련 단위마다 미리 정의된 움직임들을 수행하는 동안, 상기 착용자의 움직임을 기록하고, 상기 각각의 미리 정의된 재활훈련 단위는, 상기 미리 정의된 움직임들과 대응 관계를 가지는 미리 정의된 일부 영역들을 포함하고, 각각의 미리 정의된 일부 영역은 적어도 하나 이상의 증강현실 콘텐츠와 미리 정의된 대응 관계를 가지고, 상기 HMD 시스템은, HMD 장치 및 스마트폰을 포함하고, 상기 HMD 장치는, 제 1 면으로 입사하는 빛을 투과하고, 제 2 면으로 입사하는 빛을 반사하는 하프미러(half-mirror); 스마트폰의 디스플레이가 상기 제 2 면을 향하도록 스마트폰을 거치하는 스마트폰 거치대; 및 상기 제 1 면 방향의 실제 이미지를 획득하는 HMD 카메라를 포함하고, 상기 스마트폰은, 상기 스마트폰 거치대에 거치되며, 증강현실 콘텐츠를 출력하는 디스플레이; 및 상기 HMD 장치와 유무선으로 통신하는 프로세서를 포함하고, 상기 프로세서는, 상기 HMD 카메라를 통해 촬영된 실제 이미지를 획득하고, 상기 실제 이미지에서 적어도 하나의 일부 영역을 인식하고, 각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고, 상기 디스플레이로 상기 증강현실 레이어를 전송하며, 상기 증강현실 레이어의 생성은, 상기 실제 이미지를 변환한 변환 이미지를 생성하고, 상기 변환 이미지 상의 상기 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 상기 각각의 일부 영역에 대응하는 상기 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고, 상기 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 상기 각각의 증강현실 콘텐츠를 생성하여 상기 증강현실 레이어에 포함시키는 동작을 포함하여 이루어질 수 있다.The rehabilitation training system including the HMD system includes an HMD system, a server, and predefined rehabilitation training units, and the server, while the HMD system wearer performs predefined movements for each predefined rehabilitation training unit. , The movement of the wearer is recorded, and each predefined rehabilitation unit includes some predefined areas having a corresponding relationship with the predefined movements, and each predefined area includes at least one Having a predefined correspondence relationship with the above augmented reality content, the HMD system includes an HMD device and a smartphone, and the HMD device transmits light incident on the first surface and light incident on the second surface. A half-mirror reflecting the light; A smart phone cradle for mounting the smart phone so that the display of the smart phone faces the second surface; And a HMD camera that acquires an actual image in the direction of the first surface, wherein the smartphone is mounted on the smartphone cradle, and includes a display configured to output augmented reality content; And a processor that communicates with the HMD device via wired or wireless communication, wherein the processor acquires an actual image photographed through the HMD camera, recognizes at least one partial region in the actual image, and corresponds to each partial region Generates an augmented reality layer including each of the augmented reality content to be transmitted, and transmits the augmented reality layer to the display, and the generation of the augmented reality layer generates a converted image obtained by converting the actual image, and the converted image Based on each partial region data set including the location, area, and direction of each of the partial regions on the image, the location, area, and direction of each of the augmented reality contents corresponding to each of the partial regions Each augmented reality content data set to be included may be determined, and based on each of the augmented reality content data sets, the augmented reality content may be generated and included in the augmented reality layer.
실시예들은 HMD 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서 실제 이미지가 촬영된 경우, 실제 이미지를 착용자가 육안으로 바라보는 전방의 실제 모습과 가깝도록 변환하고, 변환 이미지를 기초로 증강현실 콘텐츠의 위치, 면적, 방향 등을 결정하여, 증강현실 콘텐츠와 착용자 전방의 실제 이미지의 불일치·어긋남을 최소화하는 시스템을 제공할 수 있다.In the embodiments, when an actual image is taken at a position higher than the HMD wearer's eye level, for example, at a position about the wearer's forehead, the actual image is converted to be close to the actual image in front of the wearer with the naked eye, and based on the converted image By determining the location, area, and direction of augmented reality content, it is possible to provide a system that minimizes inconsistency or misalignment between the augmented reality content and the actual image in front of the wearer.
실시예들은 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들에 가중치를 부여한 후, 증강현실 콘텐츠 생성의 기초가 되는 변환 이미지를 생성하는 시스템을 제공할 수 있다.Embodiments provide a system that designates ranges related to augmented reality content in an actual image, or assigns weights to ranges related to augmented reality content in an actual image, and then generates a converted image that is the basis for creating augmented reality content. can do.
실시예들은 눈높이에 위치한 기준 카메라로 촬영한 기준 이미지와 눈높이가 아닌 위치에 놓인 HMD 카메라로 촬영한 테스트 이미지가 미리 정의된 에러 이하의 일치도를 가지도록 하는 선형 변환을 구하는 시스템을 제공할 수 있다.The embodiments may provide a system for obtaining a linear transformation such that a reference image photographed with a reference camera positioned at eye level and a test image photographed with an HMD camera positioned at a position other than eye level have a degree of matching less than or equal to a predefined error.
한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects that are not mentioned will be clearly understood by those of ordinary skill in the art from the following description.
도 1은 일실시예에 따른 HMD 시스템의 구성의 예시도이다.
도 2는 일실시예에 따른 HMD 시스템의 동작을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 변환 이미지 생성 동작을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 코스트가 적용된 변환 이미지 생성 동작을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 제 1 선형 변환 생성 동작을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 재활훈련 시스템을 설명하기 위한 도면이다.
도 7은 일실시예 따른 장치의 구성의 예시도이다.1 is an exemplary diagram of a configuration of an HMD system according to an embodiment.
2 is a flow chart for explaining the operation of the HMD system according to an embodiment.
3 is a diagram for describing an operation of generating a converted image according to an embodiment.
4 is a diagram illustrating an operation of generating a converted image to which a cost is applied according to an exemplary embodiment.
5 is a diagram illustrating an operation of generating a first linear transform according to an embodiment.
6 is a view for explaining a rehabilitation training system according to an embodiment.
7 is an exemplary diagram of a configuration of an apparatus according to an embodiment.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the rights of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.
실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be changed in various forms and implemented. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea.
제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being "connected" to another component, it is to be understood that it may be directly connected or connected to the other component, but other components may exist in the middle.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be interpreted as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.
공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용 시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.
도 1은 일실시예에 따른 HMD 시스템의 구성의 예시도이다.1 is an exemplary diagram of a configuration of an HMD system according to an embodiment.
HMD 시스템(100)은 HMD 장치(110)와 스마트폰(120)을 포함할 수 있다. 스마트폰(120)은 HMD 장치(110)에 기기적·전기적으로 연결될 수 있다. HMD 장치(110)와 스마트폰(120)는 유무선으로 통신할 수 있다. 또한, HMD 장치(110) 및 스마트폰(120)은 유무선 통신을 통해 서버, 외부 환경 감지 센서, 신체 변화 감지 센서 등과 데이터를 주거나 받거나, 인터넷, 인트라넷 등에 연결될 수 있다. HMD 장치(110)는 스마트폰(120)과 연동하여, 착용자에게 증강현실 콘텐츠를 제공하는 HMD 시스템(100)을 구성할 수 있다.The
HMD 시스템(100)은 재활훈련에 이용될 수 있다. 구체적으로, 재활훈련 교구를 이용해 진행되는 재활훈련 시스템에 있어서, HMD 시스템(100)은 재활훈련에 임하는 환자들에게 증강현실 콘텐츠를 제공할 수 있다. 재활훈련 교구와 증강현실 콘텐츠가 결합됨으로써, 환자들은 혼합현실(mixed reality) 재활훈련을 제공받을 수 있다. 이를 통해, 환자들의 재활 몰입감이 증가하고 집중력이 향상되어, 재활훈련의 재미 및 치료 효과가 높아질 수 있다. 재활훈련 시스템을 이용하는 환자는 주로 뇌신경 환자일 수 있으나, 재활훈련이 필요한 환자이기만 하다면 환자의 증세·연령·성별·인종 등은 특별한 제한이 없다. HMD 시스템(100)을 포함하는 재활훈련 시스템의 구체적인 구성 및 동작은 도 6을 참조하여 후술된다.The
다시 HMD 시스템(100)의 구성을 살펴보면, 우선, HMD 장치(110)는 하프미러(111), 스마트폰 거치대(112), 및 HMD 카메라(113)를 포함할 수 있다.Looking back at the configuration of the
하프미러(111)는 곡면으로 구성되며, HMD 시스템(100) 착용 시 착용자의 양안을 가리는 형태를 가질 수 있다. 하프미러(111)는 서로 반대면 관계인 제 1 면과 제 2면을 포함할 수 있다. 하프미러(111)는 제 1 면으로 입사하는 빛을 투과하고, 제 2 면으로 입사하는 빛을 반사할 수 있다. 이를 위해, 하프미러(111)는 아크릴, PC(polycarbonate), 유리와 같은 투명 판에 알루미늄, 크롬, 니켈 등의 금속을 적합한 투과도(20~25% 등)로 코팅한 구성을 채용할 수 있다. 하프미러(111)는 HMD 시스템(100) 착용 시 제 1 면이 외부를 향하고, 제 2 면이 착용자를 향하도록 HMD 장치(110)에 체결될 수 있다. 하프미러(111)의 제 1 면으로 입사하는 빛은 투과되므로, HMD 시스템(100) 착용자는 외부에서 입사하는 빛을 볼 수 있다. 이를 통해, HMD 시스템(100) 착용자는 HMD 시스템(100)을 착용한 상태에서도 전방의 실제 모습을 볼 수 있다.The
스마트폰 거치대(112)는 스마트폰(120)을 거치할 수 있다. 스마트폰 거치대(112)는 다양한 규격의 스마트폰(120)을 거치할 수 있도록 탄성부재·결속부재·지지부재 등을 조합하여 구성될 수 있다. 또한, 스마트폰 거치대(112)는 스마트폰(120)과 HMD 장치(110)가 유선통신 가능하도록 하는 USB 포트 등을 포함할 수 있다.The
구체적으로, 스마트폰 거치대(112)는 스마트폰(120)의 디스플레이(121)가 하프미러(111)의 제 2 면을 향하도록 스마트폰(120)을 거치할 수 있다. 이를 통해, 스마트폰(120)의 디스플레이(121)에서 출력되는 빛은 HMD 장치(110)의 하프미러(111)의 제 2 면에 입사할 수 있다. 하프미러(111)의 제 2 면은 HMD 시스템(100) 착용 시 착용자를 향하며, 하프미러(111)의 제 2 면에 입사하는 빛은 반사되므로, HMD 시스템(100) 착용자는 스마트폰(120)의 디스플레이(121)에서 출력되는 빛(증강현실 레이어)을 볼 수 있다.Specifically, the
HMD 카메라(113)는 하프미러(111)의 제 1 면 방향의 실제 이미지를 획득할 수 있는 자리에 위치할 수 있다. 예를 들어, HMD 시스템(100) 착용 시를 기준으로, HMD 카메라(113)는 하프미러(111)보다 윗쪽에 위치할 수 있다. 이 경우, HMD 카메라(113)는 착용자의 이마 위치 정도에 위치하게 된다.The
HMD 카메라(113)는 HMD 시스템(100) 착용자 전방의 이미지를 촬영할 수 있는 디지털 카메라 등일 수 있다. HMD 카메라(113)를 통해 촬영된 이미지는 스마트폰 거치대(112)에 거치된 스마트폰(120)으로 전송될 수 있다.The
또한, HMD 장치(110)는 스피커, 머리착용부, 조정버튼 등을 포함할 수 있다. 스피커는 증강현실 콘텐츠에 대응하는 소리를 출력하거나, 재활훈련 단위 등에 대응하는 미리 프로그래밍된 소리를 출력할 수 있다. 머리착용부는 착용자가 HMD 시스템(100)을 착용할 수 있도록 탄성부재·고정부재 등을 조합한 끈·밴드·벨트형 구성일 수 있다.In addition, the
조정버튼은 HMD 장치(110)에 대한 하프미러(111)의 상대적 각도를 기기적·전기적으로 조정할 수 있다. 이를 통해, 도 2 내지 5를 참조하여 설명하는 후술의 동작에도 불구하고 증강현실 콘텐츠들과 전방의 실제 모습 사이에 불일치·어긋남이 발생할 경우, HMD 시스템(100) 착용자는 불일치·어긋남 현상이 최소화되도록, 자신의 얼굴 특성에 맞추어 하프미러(111)의 위치를 미세 조정할 수 있다.The adjustment button may mechanically and electrically adjust the relative angle of the
스마트폰(120)은 HMD 장치(110)의 스마트폰 거치대(112)에 거치될 수 있다. 스마트폰(120)은 HMD 장치(110) 착용자가 사용하는 통상의 스마트폰일 수 있다. 스마트폰(120)은 통상의 컴퓨터가 가지는 연산 기능; 저장/참조 기능; 입출력 기능; 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 구체적으로, 스마트폰(120)은 디스플레이(121) 및 프로세서(122)를 포함할 수 있다. 디스플레이(121)는 증강현실 콘텐츠를 포함하는 증강현실 레이어를 출력할 수 있다. 프로세서(122)는 스마트폰(120)이 HMD 장치(110)와 유무선으로 통신하도록 기능할 수 있다.The
스마트폰(120)에는 HMD 시스템(100)을 이용한 재활훈련 시스템 등을 제공·운영·관리하는 자 내지 단체가 개발 내지 배포한 어플리케이션이 설치될 수 있다. 어플리케이션은 스마트폰(120)의 기타 하드웨어·소프트웨어 구성들과 연동하여, 증강현실 콘텐츠를 제공하기 위한 일련의 동작을 수행하고, 증강현실 콘텐츠와 관련된 사용자의 피드백 데이터를 관리할 수 있다. 스마트폰(120)은 어플리케이션을 통해, 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망과 연결될 수 있다. 스마트폰(120)에 설치된 어플리케이션은 유무선 통신을 통해 실시간/비실시간으로 업데이트 가능하도록 구성될 수 있다.An application developed or distributed by a person or organization that provides, operates, and manages a rehabilitation training system using the
도 2는 일실시예에 따른 HMD 시스템의 동작을 설명하기 위한 순서도이다.2 is a flow chart for explaining the operation of the HMD system according to an embodiment.
HMD 시스템(100)의 동작은 스마트폰(120)의 프로세서(122)의 동작을 중심으로 기술될 수 있다.The operation of the
우선, 프로세서(122)는 HMD 카메라를 통해 촬영된 실제 이미지를 획득할 수 있다(210).First, the
구체적으로, 스마트폰(120)의 프로세서(122)는 HMD 장치(110)의 HMD 카메라(113)를 통해 촬영한 HMD 시스템(100) 착용자 전방의 실제 이미지를 획득할 수 있다. HMD 카메라(113)는 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서, 착용자 전방의 이미지를 촬영할 수 있다. 이에 따라, 프로세서(122)가 획득하는 실제 이미지는, HMD 시스템(100) 착용자가 육안으로 보는 전방 모습과 일치하지 않을 수 있다.Specifically, the
다음으로, 프로세서(122)는 실제 이미지에서 적어도 하나의 일부 영역을 인식할 수 있다(220).Next, the
프로세서(122)는 사물 인식 알고리즘 또는 태그(tag) 인식 알고리즘을 통해 미리 정의된 일부 영역들을 인식할 수 있다. 여기서, 태그들은 증강현실 콘텐츠와 관련성을 가지는 사물 내지 대상의 특징적인 지점(가장자리, 테두리, 중심점, 분할점, 꼭지점 등)에 자리할 수 있다. 가령, 증강현실 콘텐츠와 관련성을 가지는 사물 내지 대상이 정육면체라면, 태그들은 정육면체의 각 꼭지점에 자리할 수 있다. 프로세서(122)는 실제 이미지에서 태그들을 인식하고, 인식된 태그들을 기초로 가려지거나 보이지 않는 태그들의 위치를 추론하고, 인식된 태그들 및 추론된 태그들을 태그 그룹별로 분류하고, 각각의 태그 그룹을 각각의 일부 영역이라고 인식할 수 있다.The
나아가, 프로세서(122)는 실제 이미지 상에서 일부 영역이 차지하는 위치, 면적, 방향 등을 연산할 수 있다. 일부 영역이 차지하는 위치, 면적, 방향 등의 연산은 태그들을 기초로 수행될 수 있다.Furthermore, the
이를 위해, 각각의 태그는 동일한 면적을 가질 수 있다. 이를 통해, 프로세서(122)는 실제 이미지에서 상대적으로 작은 면적으로 인식되는 태그를 착용자로부터 상대적으로 멀리 위치한 태그로 연산하며, 실제 이미지에서 상대적으로 큰 면적으로 인식되는 태그를 착용자로부터 상대적으로 가까이 위치한 태그로 연산할 수 있다. 이를 통해, 프로세서(122)는 2차원 실제 이미지로부터 태그들의 3차원 위치를 연산할 수 있다.To this end, each tag may have the same area. Through this, the
또한, 각각의 태그는 서로 다른 태그와 구별될 수 있다. 태그 그룹의 각각의 태그는 서로 다른 태그들과 구별되므로, 프로세서(122)는 태그 그룹을 형성하는 각각의 태그의 3차원적 위치를 기초로, 실제 이미지 상에서 태그 그룹이 차지하는 면적, 위치, 3차원적 방향, 배치 등을 연산할 수 있다. 프로세서(122)는 태그 그룹을 기초로 일부 영역을 인식하므로, 실제 이미지 상에서 태그 그룹이 차지하는 면적, 위치, 3차원적 방향, 배치 등을 기초로, 일부 영역이 차지하는 면적, 위치, 3차원적 방향, 배치 등을 획득할 수 있다.In addition, each tag can be distinguished from other tags. Since each tag in the tag group is distinguished from other tags, the
각각의 일부 영역은 적어도 하나 이상의 증강현실 콘텐츠와 대응관계를 가질 수 있다. 일부 영역들은 미리 정의된 단위마다 미리 정의되어 있을 수 있다. 가령, HMD 시스템(100)이 재활훈련 시스템에 사용되는 경우, 일부 영역들은 재활훈련 단위들마다 미리 정의되어 있을 수 있다. 가령, 재활훈련 단위마다 사용되는 각각의 재활훈련 교구는, 증강현실 콘텐츠와 관련된 위치에, 프로세서(122)가 인식할 수 있는 태그(tag)들을 포함할 수 있다. 프로세서(122)는 미리 정의된 복수의 태그들로 구성되는 태그 그룹을 기초로, 일부 영역을 인식할 수 있다. 또한, 프로세서(122)는 실제 이미지 상에서 일부 영역이 차지하는 면적, 위치, 방향 등을 연산할 수 있다.Each partial area may have a corresponding relationship with at least one augmented reality content. Some areas may be predefined for each predefined unit. For example, when the
이어서, 프로세서(122)는 각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성할 수 있다(230).Subsequently, the
이때, HMD 카메라(113)는 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서, 착용자 전방의 이미지를 촬영하게 된다. 이에 따라, 프로세서(122)가 HMD 카메라(113)를 통해 촬영된 실제 이미지 상의 일부 영역의 위치, 면적, 방향을 기초로 디스플레이(121)로 출력될 증강현실 콘텐츠의 위치, 면적, 방향을 결정할 경우, 출력되는 증강현실 콘텐츠들과 착용자가 양안으로 보는 전방의 실제 모습 사이에 위치, 면적, 방향의 불일치·어긋남이 발생할 수 있다. 가령, 증강현실로 표현된 물이 실제 종이컵 안에 들어있는 모습으로 출력되어야 하는데, 증강현실로 표현된 물이 실제 종이컵 주변에 둥둥 떠있는 모습으로 불일치되거나 어긋나게 출력될 수 있다. 이러한 문제를 방지하기 위해, 프로세서(122)는 HMD 카메라(113)가 촬영한 실제 이미지를 변환하고, 변환 이미지를 기초로 출력될 증강현실 콘텐츠의 위치, 면적, 방향을 결정할 필요가 있다.At this time, the
구체적으로, 프로세서(122)는 실제 이미지를 변환한 변환 이미지를 생성할 수 있다(231). 프로세서(122)가 변환 이미지를 생성하는 동작은 도 3 및 4를 참조하여 후술된다. 변환 이미지는 HMD 시스템(100) 착용자의 눈높이가 아닌 위치에서 촬영된 실제 이미지보다 착용자가 육안으로 바라보는 전방의 실제 모습과 가까울 수 있다.Specifically, the
이어서, 프로세서(122)는 각각의 일부 영역 데이터 세트(data set)를 기초로, 각각의 증강현실 콘텐츠 데이터 세트를 결정할 수 있다(232). 데이터 세트는 객체(object)일수도 있고, 배열(array) 내지 리스트(list)일 수도 있고, 개별적인 변수들 및 함수들을 호칭할 수도 있다. 프로세서(122)는 변환 이미지 상의 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정할 수 있다.Subsequently, the
이어서, 프로세서(122)는 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 각각의 증강현실 콘텐츠를 생성하여 증강현실 레이어에 포함시킬 수 있다(233). 이를 위해, 스마트폰(120)은 일부 영역들에 대응하는 증강현실 콘텐츠들을 미리 데이터베이스화해 두거나, 일부 영역들에 대응하는 증강현실 콘텐츠들을 미리 데이터베이스화한 서버와 연동될 수 있다. 각각의 증강현실 콘텐츠는 대응관계를 가지는 일부 영역과 관련성을 가지는 콘텐츠일 수 있다. 가령, 일부 영역이 종이컵의 가장자리인 경우, 대응관계를 가지는 데이터베이스화된 증강현실 콘텐츠는 종이컵에 담긴 물 그래픽일 수 있다. 각각의 증강현실 콘텐츠는 위치, 면적, 방향, 배치 등에 대해 자유도를 가질 수 있다.Subsequently, the
프로세서(122)는 변환 이미지 상의 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정할 수 있다. 이어서, 프로세서(122)는 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 각각의 증강현실 콘텐츠의 위치, 면적, 방향, 배치 등을 결정하여, 각각의 증강현실 콘텐츠를 생성할 수 있다. 이어서, 프로세서(122)는 생성한 증강현실 콘텐츠들을 하나의 증강현실 레이어에 포함시킬 수 있다.
이어지는 순서로, 프로세서(122)는 디스플레이(121)로 증강현실 레이어를 전송할 수 있다(240). 디스플레이(121)는 증강현실 레이어를 출력할 수 있다. 스마트폰(120)의 디스플레이(121)는 HMD 장치(110)의 하프미러(111)의 제 2 면을 향하도록 스마트폰 거치대(112)에 거치될 수 있다. 이를 통해, 스마트폰(120)의 디스플레이(121)에서 출력되는 증강현실 레이어는 HMD 장치(110)의 하프미러(111)의 제 2 면에 입사할 수 있다. 하프미러(111)의 제 2 면은 HMD 시스템(100) 착용 시 착용자를 향하며, 하프미러(111)의 제 2 면에 입사하는 빛은 반사되므로, HMD 시스템(100) 착용자는 스마트폰(120)의 디스플레이(121)에서 출력되는 증강현실 레이어 상의 증강현실 콘텐츠들을 볼 수 있다.In the following order, the
이상을 통해, HMD 시스템(100) 착용자는 HMD 시스템(100)이 출력하는 증강현실 레이어 상의 증강현실 콘텐츠들을 볼 수 있다. 한편, HMD 장치(110)의 하프미러(111)의 제 1 면으로 입사하는 빛은 투과되므로, HMD 시스템(100) 착용자는 증강현실 콘텐츠들과 더불어, 전방의 실제 모습도 볼 수 있다. 이를 통해, HMD 시스템(100) 착용자는 증강현실 콘텐츠들과 더불어, 전방의 실제 모습을 볼 수 있다. 특히, HMD 시스템(100)은 증강현실 콘텐츠들의 위치, 면적, 방향, 배치 등을, 착용자의 눈높이에 위치하지 않은 HMD 카메라(113)가 촬영한 실제 이미지를 기초로 결정하는 것이 아니라, HMD 카메라(113)가 촬영한 실제 이미지를 착용자가 육안으로 바라보는 전방의 실제 모습과 가깝도록 변환한 변환 이미지를 기초로 결정한다. 이를 통해, HMD 시스템(100)은 HMD 시스템(100) 착용자에게 증강현실 콘텐츠들과 전방의 실제 모습 사이에 불일치·어긋남이 적은 증강현실 레이어를 제공할 수 있다.Through the above, a wearer of the
도 3은 일실시예에 따른 변환 이미지 생성 동작을 설명하기 위한 도면이다.3 is a diagram for describing an operation of generating a converted image according to an embodiment.
HMD 카메라(113)는 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서, 착용자 전방의 이미지를 촬영하게 된다. 이에 따라, 프로세서(122)가 HMD 카메라(113)를 통해 촬영된 실제 이미지 상의 일부 영역의 위치, 면적, 방향을 기초로 디스플레이(121)로 출력될 증강현실 콘텐츠의 위치, 면적, 방향을 결정할 경우, 출력되는 증강현실 콘텐츠들과 착용자가 양안으로 보는 전방의 실제 모습 사이에 위치, 면적, 방향의 불일치·어긋남이 발생할 수 있다. 가령, 증강현실로 표현된 물이 실제 종이컵 안에 들어있는 모습으로 출력되어야 하는데, 증강현실로 표현된 물이 실제 종이컵 주변에 둥둥 떠있는 모습으로 불일치되거나 어긋나게 출력될 수 있다. 이러한 문제를 방지하기 위해, 프로세서(122)는 HMD 카메라(113)가 촬영한 실제 이미지를 변환하고, 변환 이미지를 기초로 출력될 증강현실 콘텐츠의 위치, 면적, 방향을 결정할 필요가 있다.The
프로세서(122)가 변환 이미지를 생성하는 동작은 다음의 동작들을 포함할 수 있다.The operation of generating the converted image by the
우선, 프로세서(122)는 실제 이미지(301)를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득할 수 있다. 실제 이미지는 곡면 캘리브레이션(calibration) 알고리즘 등을 통해 좌안 실제 이미지와 우안 실제 이미지로 각각 조정될 수 있다. 2차원으로 이루어진 실제 이미지를 이용하는 것보다, 좌안 실제 이미지와 우안 실제 이미지라는 두 개의 2차원 이미지를 복합적으로 이용할 경우, 프로세서(122)는 실제 이미지 상의 일부 영역들의 3차원적 속성·성질(원근감, 깊이, 채광, 그림자 등)을 보다 용이하게 연산할 수 있다.First, the
다음으로, 프로세서(122)는 좌안 실제 이미지 및 우안 실제 이미지에 대응하는 실제 이미지 텐서(tensor, 302)를 생성할 수 있다. 프로세서(122)는 좌안 실제 이미지 및 우안 실제 이미지의 각 픽셀 내지 질점의 정보를 추출하여, 좌안 실제 이미지 및 우안 실제 이미지의 각 픽셀 내지 질점의 정보를 원소(element)로 하는 실제 이미지 텐서(302)를 생성할 수 있다. 각 픽셀 내지 질점에 대응하는 정보는 각 픽셀 내지 질점의 수평 위치, 수직 위치, 깊이(depth), 색상, 명도, 채도, 휘도 등을 포함할 수 있다.Next, the
이어서, 프로세서(122)는 실제 이미지 텐서(302)에 제 1 선형 변환(310)을 적용하여 제 1 변환 이미지 텐서(322)를 생성할 수 있다.Subsequently, the
제 1 선형 변환(310)은 에러(error)가 미리 정의된 값 이하가 되도록하는 선형 변환일 수 있다. 에러는 좌안 기준 이미지 및 우안 기준 이미지에 대응하는 기준 이미지 텐서와, 기준 추정 이미지 텐서의 차의 노름(norm)을 기초로 정의될 수 있다. 기준 이미지 텐서는 좌안 기준 이미지와 우안 기준 이미지를 기초로 생성할 수 있다. 좌안 기준 이미지 및 우안 기준 이미지는 제 1 선형 변환을 구하는 단계에서 미리 설치된 좌안 기준 카메라 및 우안 기준 카메라를 통해 획득할 수 있다. 좌안 기준 카메라 및 우안 기준 카메라는 기준 착용자의 양안 위치에 설치될 수 있다. 기준 추정 이미지 텐서는 좌안 테스트 이미지와 우안 테스트 이미지를 기초로 생성한 테스트 이미지 텐서에 후보 선형 변환을 적용하여 생성할 수 있다. 좌안 테스트 이미지 및 우안 테스트 이미지는 제 1 선형 변환을 구하는 단계에서 HMD 카메라(113)를 통해 촬영된 테스트 이미지를 기초로 획득할 수 있다. 제 1 선형 변환을 구하는 동작은 도 5를 참조하여 후술된다.The first
제 1 변환 이미지 텐서(322)는 실제 이미지 텐서(302)에 제 1 선형 변환(310)이 적용하여 생성될 수 있다. 제 1 변환 이미지 텐서(322)와 기준 이미지 텐서의 차의 노름은 미리 정의된 값 이하가 되므로, 제 1 변환 이미지 텐서(322)에 대응하는 변환 이미지(321)는 기준 이미지 텐서에 대응하는 기준 착용자의 양안 위치에 설치된 좌안 기준 카메라 및 우안 기준 카메라를 통해 획득한 좌안 기준 이미지 및 우안 기준 이미지와 미리 정의된 값 이하 수준의 일치도을 보일 수 있다.The first transformed
이어지는 순서로, 프로세서(122)는 제 1 변환 이미지 텐서(322)를 기초로, 변환 이미지(321)를 생성할 수 있다. 프로세서(122)가 텐서를 기초로 이미지를 생성하는 동작은, 이미지를 기초로 텐서를 생성하는 동작의 역동작을 통해 이루어질 수 있다. 즉, 프로세서(122)는 제 1 변환 이미지 텐서(322)의 각 원소를 기초로, 변환 이미지 상의 각 픽셀 내지 질점의 정보를 결정하는 방식으로 변환 이미지(321)를 생성할 수 있다.In the following order, the
이상을 통해, 프로세서(122)는 HMD 시스템(100) 착용자의 눈높이가 아닌 위치에서 촬영된 실제 이미지와 비교하여, 착용자가 육안으로 바라보는 전방의 실제 모습과 가까운 변환 이미지를 획득할 수 있다. 변환 이미지를 기초로 디스플레이(121)로 출력될 증강현실 콘텐츠들의 위치, 면적, 방향을 결정할 경우, 출력되는 증강현실 콘텐츠들과 착용자가 양안으로 보는 전방의 실제 모습 사이에 위치, 면적, 방향의 불일치·어긋남이 줄어들 수 있다. 가령, 증강현실로 표현된 물이 실제 종이컵 주변에 둥둥 떠있는 모습으로 불일치되거나 어긋나게 출력되는 경우가 방지될 수 있다. 이를 통해, HMD 시스템(100)은 착용자들의 불만족스러운 사용자 경험을 줄이는 한편, 증강현실 콘텐츠에 대한 집중도, 흥미를 높일 수 있다.Through the above, the
도 4는 일실시예에 따른 코스트가 적용된 변환 이미지 생성 동작을 설명하기 위한 도면이다.4 is a diagram illustrating an operation of generating a converted image to which a cost is applied according to an exemplary embodiment.
프로세서(122)는 HMD 카메라(113)를 통해 촬영된 실제 이미지 전 범위를 기초로 변환 이미지를 생성하지 않고, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들에 가중치를 부여한 후, 변환 이미지를 생성할 수 있다. 이를 통해, 프로세서(122)는 실제 이미지의 전 범위가 아닌, 일부 범위에 집중하여 변환을 수행하므로, 보다 실시간으로 변환 이미지를 생성하여, 버퍼링 없이 증강현실 콘텐츠들을 출력하거나, 실제 이미지에서 증강현실 콘텐츠와 관련된 부분들과 대응하는 불일치·어긋남을 집중적으로 최소함으로써, HMD 시스템(100) 착용자 전방의 실제 모습에서 증강현실 콘텐츠와 관련된 범위들의 불일치·어긋남을 보다 최소화할 수 있다.The
프로세서(122)가 코스트가 적용된 변환 이미지를 생성하는 동작은 다음의 동작들을 포함할 수 있다.The operation of the
우선, 프로세서(122)는 실제 이미지(401)를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득할 수 있다. 좌안 실제 이미지 및 우안 실제 이미지를 획득하는 동작은 도 3을 참조하여 설명한 동작과 동일할 수 있다. 한편, 도 3의 실시예와 비교하여, 실제 이미지(401)는 증강현실 콘텐츠들과 대응관계를 가지는 일부 영역들(430)을 포함할 수 있다. 예를 들어, 일부 영역들(430)은 종이컵들의 가장자리일 수 있다. 일부 영역들(430)과 대응하는 증강현실 콘텐츠는 종이컵에 담긴 물 그래픽일 수 있다.First, the
다음으로, 프로세서(122)는 좌안 실제 이미지 및 상기 우안 실제 이미지에 대응하는 실제 이미지 텐서(302)를 생성할 수 있다. 실제 이미지 텐서(302)는 도 3을 참조하여 설명한 실제 이미지 텐서(302)과 동일할 수 있다.Next, the
이어서, 프로세서(122)는 실제 이미지 텐서(302)에서 각각의 일부 영역에 대응하는 원소들에 코스트(cost, 431)를 적용하여, 코스트를 적용한 실제 이미지 텐서(402)를 획득할 수 있다. 코스트(431)는 실제 이미지에서 증강현실 콘텐츠와 관련되는 일부 영역들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 일부 영역들에 가중치를 부여하는 방식으로 적용될 수 있다.Subsequently, the
코스트(431)가 실제 이미지에서 증강현실 콘텐츠와 관련되는 일부 영역들을 지정하는 방식일 경우, 코스트(431)는 실제 이미지 텐서(302)에서 일부 영역에 대응하는 원소들은 그대로 두고, 일부 영역에 대응하지 않는 원소들은 0으로 만들 수 있다.When the
코스트(431)가 증강현실 콘텐츠와 관련되는 일부 영역들에 가중치를 부여하는 방식일 경우, 코스트(431)는 실제 이미지 텐서(302)에서 일부 영역에 대응하는 원소들의 값은 가중치를 곱하고, 일부 영역에 대응하지 않는 원소들은 그대로 둘 수 있다. 실제 이미지 텐서(302)에서 일부 영역에 대응하는 원소들에 곱해지는 코스트(431)의 가중치는 HMD 시스템(100)과 일부 영역의 각각의 태그의 거리를 기초로 한 가우시안 분포(Gaussian distribution)가 될 수 있다. 즉, 실제 이미지 텐서(302)에서 HMD 시스템(100)과 상대적으로 가까운 태그의 중심부에 위치하는 픽셀 내지 질점과 대응하는 원소일수록, 코스트(431)의 가중치는 클 수 있다. 반면, 해당 태그의 주변부에 위치하는 픽셀 내지 질점과 대응하는 원소이거나, 해당 태그보다 HMD 시스템(100)으로부터 멀리 떨어진 태그의 픽셀 내지 질점과 대응하는 원소일수록, 코스트(431)의 가중치는 줄어들 수 있다.When the
이어지는 순서로, 프로세서(122)는 코스트(431)를 기초로, 제 1 선형 변환(310)을 제 2 선형 변환(410)으로 변환할 수 있다. 제 2 선형 변환(410)은 제 1 선형 변환(310)에, 실제 이미지 텐서(302)에 코스트(431)가 적용된 효과를 보정한 선형 변환일 수 있다. 제 1 선형 변환(310)은 에러가 미리 정의된 값 이하가 되도록하는 선형 변환이므로, 제 2 선형 변환(410)은 코스트가 적용된 기준 이미지 텐서와 코스트가 적용된 실제 이미지 텐서(402)의 노름(norm)의 차를 기초로 구한 에러가 미리 정의된 값 이하가 되도록하는 선형 변환의 추정일 수 있다.In the following order, the
다음으로, 프로세서(122)는 코스트가 적용된 실제 이미지 텐서(402)에 제 2 선형 변환(410)을 적용하여 제 2 변환 이미지 텐서(422)를 생성할 수 있다. 제 2 변환 이미지 텐서(422)와 코스트가 적용된 기준 이미지 텐서의 노름의 차를 기초로 구한 에러는 미리 정의된 값 이하가 될 것으로 기대할 수 있다.Next, the
이어서, 프로세서(122)는 제 2 변환 이미지 텐서(422)를 기초로, 변환 이미지(421)를 생성할 수 있다. 변환 이미지를 생성하는 동작은 도 3을 참조하여 설명한 동작과 동일할 수 있다. 코스트(431)에 대응하는 일부 영역들(430)에 대하여, 제 2 변환 이미지 텐서(422)에 대응하는 변환 이미지(421)는, 제 1 변환 이미지 텐서(322)에 대응하는 변환 이미지(321)과 비교하여, 증강현실 콘텐츠들과 HMD 시스템(100) 착용자의 전방의 실제 모습의 불일치·어긋남이 보다 최소화될 수 있다.Subsequently, the
이상을 통해, 프로세서(122)는 도 3을 참조하여 설명된 동작을 통해 생성한 변환 이미지와 비교하여, 실제 이미지의 전 범위가 아닌, 일부 범위에 집중하여 변환을 수행하므로, 보다 실시간으로 변환 이미지를 생성하여, 버퍼링 없이 증강현실 콘텐츠들을 출력하거나, 실제 이미지에서 증강현실 콘텐츠와 관련된 부분들과 대응하는 불일치·어긋남을 집중적으로 최소함으로써, HMD 시스템(100) 착용자 전방의 실제 모습에서 증강현실 콘텐츠와 관련된 범위들의 불일치·어긋남을 보다 최소화할 수 있다. 이를 통해, HMD 시스템(100)은 버퍼링 발생 등으로 인한 착용자들의 어지럼증, 멀미, 불쾌감 등을 줄이는 한편, 복잡한 증강현실 콘텐츠도 자연스럽게 표현할 수 있다.Through the above, the
또한, 일부 영역들이 미리 정의된 단위마다 미리 정의되어 있는 경우, 가령, HMD 시스템(100)이 재활훈련 시스템에 사용되어, 일부 영역들이 재활훈련 단위들마다 미리 정의되어 있는 경우, 프로세서(122)는 각각의 미리 정의된 단위에 대응하는 일부 영역들에 대응하는 코스트를 실제 이미지 텐서(302)와 제 1 선형 변환(310)에 적용하는 것만으로, 제 2 변환 이미지 텐서(422)에 대응하는 변환 이미지(421)를 생성할 수 있다. 이를 통해, 코스트가 적용된 실제 이미지 텐서마다 에러를 미리 정의된 값 이하로 되게 하는 선형 변환을 일일이 구하는 경우보다 효율적으로 시스템을 운영할 수 있다. 가령, 프로세서(122)가 도 4의 동작을 따른다면, 어느 미리 정의된 단위의 일부 영역에 수정이 생기면, 일부 영역의 수정에 대응하여 코스트를 수정하고, 수정된 코스트를 실제 이미지 텐서(302)와 제 1 선형 변환(310)에 적용하여, 제 2 변환 이미지 텐서(422)에 대응하는 변환 이미지(421)를 생성할 수 있다. 이는, 수정된 코스트가 적용된 실제 이미지 텐서와 수정된 코스트가 적용된 기준 이미지 텐서 사이의 에러를 미리 정의된 값 이하로 되게 하는 선형 변환을 매번 새로 구하는 경우보다 효율적이다.In addition, when some areas are predefined for each predefined unit, for example, when the
한편, 실제 이미지에서 일부 영역이 움직여서, 코스트(431)가 움직이도록 설계되어 있는 경우가 있을 수 있다. 가령, 실제 이미지가 종이컵 두 개가 있는 모습이고, 일부 영역이 종이컵의 가장자리일 때, HMD 시스템(100) 착용자가 종이컵을 움직이면, 실제 이미지 상에서 일부 영역이 움직일 수 있다. 선행 제 1 시점과 후행 제 2 시점이 있다면, 제 1 시점에, 프로세서(122)는 일부 영역의 움직임을 기초로, 제 2 시점의 일부 영역의 위치, 면적, 방향 등을 생성하고; 예상 일부 영역을 기초로, 예상 코스트를 생성하고; 예상 코스트를 기초로, 예상 제 2 선형 변환을 생성하고; 예상 코스트 및 예상 제 2 선형 변환을 캐시화할 수 있다. 제 2 시점에, 일부 영역이 예상된 움직임과 미리 정의된 오차 범위 내로 움직였다고 판별된 경우, 프로세서(122)는 예상 코소트를 그대로 이용하거나, 예상 코스트를 기초로 코스트를 생성하고; 예상 제 2 선형 변환을 그대로 이용하거나, 예상 제 2 선형 변환들을 기초로 제 2 선형 변환을 생성하여; 실제 이미지 텐서, 제 2 변환 이미지 텐서, 변환 이미지 등을 더욱 빨리 생성할 수 있다. 이를 통해, 증강현실 콘텐츠와 관련되는 일부 영역이 움직이는 상황이더라도, HMD 시스템(100)은 버퍼링 발생 등으로 인한 착용자들의 어지럼증, 멀미, 불쾌감 등을 줄이는 한편, 움직이는 증강현실 콘텐츠도 자연스럽게 표현할 수 있다.On the other hand, there may be a case in which the
도 5는 일실시예에 따른 제 1 선형 변환 생성 동작을 설명하기 위한 도면이다.5 is a diagram illustrating an operation of generating a first linear transform according to an embodiment.
제 1 선형 변환(310)을 구하는 단계에서, HMD 시스템(100)에는 착용 시 기준 착용자의 양안 위치에 좌안 기준 카메라(501) 및 우안 기준 카메라(502)가 설치될 수 있다. 기준 착용자의 성별, 연령, 인종, 미간 거리 등의 정보는 미리 데이터베이스화될 수 있다.In the step of obtaining the first
제 1 선형 변환(310)은 좌안 기준 카메라(501) 및 우안 기준 카메라(502)를 통해 촬영된 이미지와, HMD 카메라(113)를 통해 촬영된 이미지가 최대한 일치하도록 변환하는 동작을 기초로 생성될 수 있다. 좌안 기준 카메라(501); 우안 기준 카메라(502); 및 HMD 카메라(113)는 동일한 태그(500)를 촬영하는 상황을 상정할 수 있다.The first
우선, HMD 시스템(100)은 좌안 기준 카메라(501) 및 상기 우안 기준 카메라(502)를 통해 촬영된 좌안 기준 이미지(531) 및 우안 기준 이미지(532)를 획득할 수 있다. 좌안 기준 이미지(531) 및 우안 기준 이미지(532)는 HMD 시스템(100) 착용 시 기준 착용자가 보는 전방의 실제 모습과 대응할 수 있다.First, the
다음으로, HMD 시스템(100)은 좌안 기준 이미지(531) 및 우안 기준 이미지(532)에 대응하는 기준 이미지 텐서를 생성할 수 있다. 이미지로부터 텐서를 생성하는 동작은 도 3 및 4를 참조하여 설명된 동작과 일치할 수 있다.Next, the
이어서, HMD 시스템(100)은 HMD 카메라(113)를 통해 촬영된 테스트 이미지(510)를 획득할 수 있다. HMD 시스템(100)은 테스트 이미지(510)를 기초로, 좌안 테스트 이미지(521)와 우안 테스트 이미지(522)를 획득할 수 있다. 좌안 테스트 이미지(521)와 우안 테스트 이미지(522)를 획득하는 동작은 도 3 및 4를 참조하여 설명된 좌안 실제 이미지와 우안 실제 이미지를 획득하는 동작과 일치할 수 있다.Subsequently, the
이어지는 순서로, HMD 시스템(100)은 기준 추정 이미지 텐서를 생성할 수 있다. 이를 위해, HMD 시스템(100)은 좌안 테스트 이미지(521) 및 우안 테스트 이미지(522)에 대응하는 테스트 이미지 텐서를 생성할 수 있다. 이어서, HMD 시스템(100)은 테스트 이미지 텐서에 후보 선형 변환을 적용하여, 기준 추정 이미지 텐서를 생성할 수 있다.In the following order, the
다음으로, HMD 시스템(100)은 기준 이미지 텐서와, 기준 추정 이미지 텐서의 차의 노름(norm)을 기초로, 에러를 정의할 수 있다. 노름(norm)은 유클리드 노름(Euclidean norm), p-노름(p-norm), 최대값 노름(maximum norm) 등이 채용될 수 있다. 에러는 노름을 그대로 이용할 수도 있고, 노름에서 불필요한 정보를 제거(미리 정의된 소수점 이하의 자리를 절삭 등)하여 정의될 수도 있다.Next, the
이어서, HMD 시스템(100)은 에러가 미리 정의된 값 이하가 되도록하는 후보 선형 변환을 제 1 선형 변환(310)으로 정의할 수 있다. 에러가 미리 정의된 값 이하가 되도록하는 후보 선형 변환은 연립방정식, 다차원 회기 분석(multiple regression analysis), 기계학습(machine learning), 이터레이션(iteration) 및 이들의 조합으로 이루어진 알고리즘 등을 통해 도출될 수 있다. 미리 정의된 값은 테스트 이미지 텐서와 기준 이미지 텐서의 차의 노름을 기초로 정의된 이니셜 에러(initial error)의 비(比)로 정의될 수 있다. 가령, 미리 정의된 값은 이니셜 에러에 p(0<p<1)를 곱한 값일 수 있다. p는 가령, 1/10 또는 1/20일 수 있다.Subsequently, the
이상을 통해, HMD 시스템(100)은 HMD 카메라(113)를 통해 촬영된 이미지에 대응하는 텐서가 기준 이미지 텐서와 미리 정의된 값 이하로 일치되도록 하는 제 1 선형 변환(310)을 획득할 수 있다. 착용자의 눈높이가 아닌 위치에서 HMD 카메라(113)를 통해 촬영된 이미지의 텐서에 제 1 선형 변환(310)을 적용하고, 제 1 선형 변환(310)이 적용된 텐서를 기초로 변환 이미지를 생성하면, 변환 이미지는 기준 착용자의 눈높이에서 보는 전방의 실제 모습과 최대한 일치될 수 있다. 이를 통해, HMD 시스템(100)은 증강현실 콘텐츠가 출력될 위치·면적·방향과 기준 착용자 전방의 실제 모습 사이의 불일치·어긋남을 최소화할 수 있다.Through the above, the
한편, 실제 이미지의 전 범위가 아닌, 일부 범위에 집중하여 변환 이미지를 생성하고자 할 경우, 실제 이미지 텐서에 코스트(431)가 적용될 수 있다. 이 경우, 코스트(431)가 적용된 실제 이미지 텐서에 적용될 제 2 선형 변환(410)은 제 1 선형 변환(310)을 기초로 생성될 수 있다. 따라서, 동일한 전방의 실제 모습에 대해 서로 다른 코스트를 적용하고자 할 경우, 가령, 증강현실 콘텐츠에 대응하는 일부 영역이 움직이거나 움직일 수 있는 경우, 각각의 코스트가 적용된 상황에 대한 선형 변환을 구하기 위해, 좌안 기준 카메라(501) 및 우안 기준 카메라(502)를 설치하여 도 5를 참조하여 설명된 동작을 통해 선형 변환을 매 경우마다 구할 필요 없이, 코스트가 적용되지 않은 선형 변환을 기초로, 코스트가 적용된 선형 변환을 구할 수 있으므로, 효율적인 시스템 운영·업데이트 및 높은 응용성을 도모할 수 있다.Meanwhile, when a converted image is to be generated by focusing on a partial range rather than the entire range of the actual image, the
나아가, HMD 시스템(100)은 착용자별 특성 변수를 이용하여, 제 1 선형 변환(310)을 조정할 수 있다. 이를 위해, HMD 시스템(100)은 착용자의 성별, 연령, 인종, 미간 거리 등의 정보를 획득할 수 있다. 이어서, HMD 시스템(100)은 착용자의 성별, 연령, 인종, 미간 거리 등의 정보와; 기준 착용자의 성별, 연령, 인종, 미간 거리 등의 정보를 기초로, 제 1 선형 변환(310)을 조정할 수 있다.Furthermore, the
구체적으로, HMD 시스템(100)은 착용자의 성별이 기준 착용자의 성별과 불일치할수록, 에러―기준 이미지 텐서와 기준 추정 이미지 텐서의 노름(norm)의 차를 기초로 정의됨―의 증가 경향을 확인할 수 있다. 이어서, HMD 시스템(100)은 에러의 증가 경향을 상쇄하는 방향으로 제 1 선형 변환(310)을 조정할 수 있다. 예를 들어, 성별의 불일치에 의해, 기준 추정 이미지 텐서에서 미리 정의된 수준 이상으로 변화를 보이는 원소들을 획득하고, 해당 원소들의 변화를 상쇄할 수 있도록 제 1 선형 변환(310)이 조정될 수 있다. 나아가, HMD 시스템(100)은 착용자의 연령, 인종, 미간 거리 등에 대해서도 동일한 동작을 수행하여 제 1 선형 변환(310)을 조정할 수 있다.Specifically, the
HMD 시스템(100)은 착용자별 제 1 선형 변환(310) 조정 정도를 미리 데이터베이스화해 두거나, 착용자별 제 1 선형 변환(310) 조정 정도를 미리 데이터베이스화한 서버와 연동될 수 있다. 이를 통해, HMD 시스템(100)은 착용자의 성별, 연령, 인종, 미간 거리 등이 기준 착용자와 다르더라도, 착용자에 맞게 제 1 선형 변환(310)을 조정하여 사용할 수 있다.The
도 6은 일실시예에 따른 재활훈련 시스템을 설명하기 위한 도면이다.6 is a view for explaining a rehabilitation training system according to an embodiment.
재활훈련 시스템은 HMD 시스템(100); 서버(600); 및 재활훈련 단위들(610, 620, 630)을 포함할 수 있다. HMD 시스템(100) 착용자(재활훈련 환자)는 HMD 시스템(100)을 착용한 상태에서 하나의 재활훈련 단위를 이용하여 재활훈련을 진행할 수 있다. HMD 시스템(100)은 증강현실 콘텐츠를 제공할 수 있다. 재활훈련 단위들(610, 620, 630)은 재활훈련 교구들(611, 621, 631)을 포함할 수 있다. 이를 통해, 재활훈련 시스템은 실물 재활훈련 교구들(611, 621, 631)과 증강현실 콘텐츠를 함께 제공할 수 있다. 이를 통해, 재활훈련 환자들은 실물과 증강현실이 결합된 혼합현실(mixed reality) 재활훈련을 제공받을 수 있다. 이를 통해, 환자들의 재활 몰입감이 증가하고 집중력이 향상되어, 재활훈련의 재미 및 치료 효과가 높아질 수 있다. 재활훈련 시스템을 이용하는 환자는 주로 뇌신경 환자일 수 있으나, 재활훈련이 필요한 환자이기만 하다면 환자의 증세·연령·성별·인종 등은 특별한 제한이 없다.The rehabilitation training system includes an
HMD 시스템(100)은 도 1 내지 5를 참조하여 설명된 구성들을 포함하고, 도 1 내지 5를 참조하여 설명된 동작들을 수행할 수 있다. HMD 시스템(100)은 재활훈련에 임하는 환자들에게 증강현실 콘텐츠를 제공할 수 있다. 구체적으로, 재활훈련 단위들(610, 620, 630)은 증강현실 콘텐츠와 대응하는 일부영역들(613, 623, 633)을 포함할 수 있다. HMD 시스템(100)은, HMD 카메라(113)를 통해 촬영된 실제 이미지(612, 622, 632)를 획득하고; 실제 이미지에서 적어도 하나의 일부 영역(613, 623, 633)을 인식하고; 각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고; 디스플레이(121)로 증강현실 레이어를 전송할 수 있다.The
이 과정에서, 증강현실 레이어의 생성은, 실제 이미지를 변환한 변환 이미지를 생성하고; 변환 이미지 상의 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고; 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 각각의 증강현실 콘텐츠를 생성하여 증강현실 레이어에 포함시키는 동작을 포함하여 이루어질 수 있다. 이를 통해, 출력되는 증강현실 콘텐츠의 위치, 면적, 방향은 변환 이미지를 기초로 결정될 수 있다. 이때, 변환 이미지는 에러―기준 이미지 텐서와 기준 추정 이미지 텐서의 노름(norm)의 차를 기초로 정의됨―가 미리 정의된 값 이하가 되도록하는 제 1 선형 변환(310)을 실제 이미지에 적용하여 생성될 수 있다. 따라서, 출력되는 증강현실 콘텐츠들과, 착용자가 양안으로 보는 전방의 실제 모습은, 위치·면적·방향의 불일치·어긋남이 최소화될 수 있다.In this process, the generation of the augmented reality layer generates a converted image obtained by converting the actual image; Each augmented reality content data including the location, area, and direction of each augmented reality content on the basis of each partial area data set including the location, area, and direction of each partial area on the converted image Determine the set; Based on each augmented reality content data set, each augmented reality content may be generated and included in an augmented reality layer. Through this, the location, area, and direction of the output augmented reality content may be determined based on the converted image. At this time, the transformed image is applied to the actual image by applying the first
서버(600)는 재활훈련 시스템을 제공하는 자 또는 단체가 보유한 자체 서버일 수도 있고; 클라우드 서버일 수도 있고; 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 서버(600)는 통상의 컴퓨터가 가지는 연산 기능; 저장/참조 기능; 입출력 기능; 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 서버(600)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다. 서버(600)는 HMD 시스템(100)과 유무선으로 통신하도록 구성될 수 있다.The
서버(600)는 HMD 시스템(100) 착용자가 각각의 미리 정의된 재활훈련 단위(610, 620, 630)마다 미리 정의된 움직임들을 수행하는 동안, 착용자(재활훈련 환자)의 움직임을 기록할 수 있다. 서버(600)는 기록된 움직임들을 기초로, 재활훈련 환자들의 성취도를 평가하고; 평가를 기초로, 재활훈련 환자의 재활훈련 프로그램을 스케줄링할 수 있다.The
재활훈련 단위들(610, 620, 630)은 재활훈련 프로그램에 맞추어 구성될 수 있다. 각각의 재활훈련 단위(610, 620, 630)는 미리 정의된 움직임들과 대응 관계를 가지는 미리 정의된 일부 영역들을(613, 623, 633)을 포함할 수 있다. 각각의 미리 정의된 일부 영역(613, 623, 633)은 적어도 하나 이상의 증강현실 콘텐츠와 미리 정의된 대응 관계를 가질 수 있다. 실시예에서는 세 개의 재활훈련 단위들을 열거했지만, 재활훈련 단위들의 수는 특별한 제한이 없다.The
재활훈련 단위마다 미리 정의된 움직임은 하나의 전체운동(gross motion) 또는 하나의 미세운동(fine motion)을 연습하기 위한 움직임일 수 있다. 또는, 미리 정의된 움직임은 복합적 전체운동, 복합적 미세운동, 전체운동과 미세운동의 연동 등을 연습하기 위한 움직임일 수 있다.The predefined movement for each rehabilitation unit may be a movement for practicing one gross motion or one fine motion. Alternatively, the predefined movement may be a movement for practicing a complex overall movement, a complex fine movement, and a linkage between the overall movement and the fine movement.
각각의 재활훈련 단위(610, 620, 630)는 재활훈련 교구들(611, 621, 631)을 포함할 수 있다. 재활훈련 교구들(611, 621, 631)은 하나의 전체운동; 하나의 미세운동; 복합적 전체운동; 복합적 미세운동; 또는 전체운동과 미세운동의 연동 등을 연습하기 위한 교구일 수 있다. 가령, 제 1 재활훈련 단위(610)의 제 1 교구(611)는 위로 솟아있는 철봉에 빨래집게들을 꼽는 교구일 수 있고; 제 2 재활훈련 단위(620)의 제 2 교구(621)는 구멍들이 있는 나무판에 블록들을 끼우는 교구일 수 있고; 제 3 재활훈련 단위(630)의 제 3 교구(631)는 종이컵 두 개로 물 따르는 연습을 하는 교구일 수 있다.Each of the
재활훈련 교구들(611, 621, 631)은 증강현실 콘텐츠와 대응하는 일부영역들(613, 623, 633)을 포함할 수 있고, 일부영역들(613, 623, 633)은 미리 정의된 움직임과 대응관계를 가질 수 있다. 가령, 제 1 교구(611)의 증강현실 콘텐츠는 철봉의 임의의 부분에서 연기가 나오는 그래픽이고, 증강현실 콘텐츠와 대응하는 일부 영역(613)은 철봉 부분이고, 미리 정의된 움직임은 빨래집게로 철봉에서 연기가 나오는 부분을 집는 움직임일 수 있고; 제 2 교구(621)의 증강현실 콘텐츠는 나무판에 꽂힌 블록에서 꽃이 피는 그래픽이고, 증강현실 콘텐츠와 대응하는 일부 영역(613)은 나무판이고, 미리 정의된 움직임은 나무판의 구멍에 블록을 끼우는 움직임일 수 있고; 제 3 교구(631)의 증강현실 콘텐츠는 종이컵에 담긴 물 그래픽이고, 증강현실 콘텐츠와 대응하는 일부 영역(613)은 종이컵들의 가장자리이고, 미리 정의된 움직임은 한 쪽 종이컵에서 다른 쪽 종이컵으로 물을 따르는 움직임일 수 있다.The
재활훈련 시스템이 수행하는 동작들은 다음을 포함할 수 있다.The operations performed by the rehabilitation training system may include the following.
먼저, HMD 시스템(100) 착용자(재활훈련 환자)가 하나의 재활훈련 단위를 이용하여 재활훈련을 진행하는 상황을 상정할 수 있다. 가령, HMD 시스템(100) 착용자는 제 1 재활훈련 단위(610)를 이용하여 재활훈련을 진행할 수 있다. 재활훈련 환자는 HMD 시스템(100)을 착용한 상태에서 제 1 재활훈련 단위(610)의 제 1 교구(611)를 활용하여 미리 정의된 움직임을 수행하려고 움직일 수 있다.First, a situation in which the wearer (rehabilitation patient) of the
서버(600)는 HMD 시스템(100) 착용자가 제 1 재활훈련 단위(610)의 미리 정의된 움직임들을 수행하는 동안, 착용자의 움직임을 기록할 수 있다. 미리 정의된 움직임은 빨래집게로 철봉에서 연기가 나오는 부분을 집는 움직임일 수 있다. 서버(600)는 HMD 시스템(100) 착용자의 기록된 움직임들이 미리 정의된 움직임과 부합하는 정도에 따라, 재활훈련 환자의 재활훈련 성취도를 평가하고; 평가를 기초로, 재활훈련 환자의 재활훈련 프로그램을 심화·변경·유지·약화시킬 수 있다.The
제 1 재활훈련 단위(610)는 제 1 교구(611)를 포함할 수 있다. 제 1 교구(611)는 위로 솟아있는 철봉에 빨래집게들을 꼽는 교구일 수 있다. 제 1 재활훈련 단위(610)는 미리 정의된 움직임들과 대응 관계를 가지는 미리 정의된 일부 영역들(613)을 포함할 수 있다. 제 1 재활훈련 단위(610)의 미리 정의된 움직임은 빨래집게로 철봉에서 연기가 나오는 부분을 집는 움직임일 수 있다. 제 1 재활훈련 단위(610)의 일부 영역(613)은 철봉 부분일 수 있다. 제 1 재활훈련 단위(610)의 일부 영역(613)은 적어도 하나 이상의 증강현실 콘텐츠와 미리 정의된 대응 관계를 가질 수 있다. 일부 영역(613)과 대응하는 증강현실 콘텐츠는 철봉의 임의의 부분에서 연기가 나오는 그래픽일 수 있다.The
HMD 시스템(100)은 HMD 카메라(113)를 통해 촬영된 제 1 교구(611)를 포함하는 실제 이미지(612)를 획득하고; 실제 이미지에서 적어도 하나의 일부 영역(613)을 인식하고; 각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고; 디스플레이(121)로 증강현실 레이어를 전송할 수 있다. 증강현실 콘텐츠는 철봉의 임의의 부분에서 연기가 나오는 그래픽일 수 있다.The
이 과정에서, 증강현실 레이어의 생성은, 실제 이미지를 변환한 변환 이미지를 생성하고; 변환 이미지 상의 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고; 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 각각의 증강현실 콘텐츠를 생성하여 증강현실 레이어에 포함시키는 동작을 포함하여 이루어질 수 있다. 이를 통해, 출력되는 증강현실 콘텐츠의 위치, 면적, 방향은 변환 이미지를 기초로 결정될 수 있다. 이때, 변환 이미지는 HMD 시스템(100) 착용자의 눈높이가 아닌 위치에서 촬영된 실제 이미지와 비교하여, 착용자가 육안으로 바라보는 전방의 실제 모습과 가까울 수 있다. 따라서, 출력되는 증강현실 콘텐츠들과, 착용자가 양안으로 보는 전방의 실제 모습은, 위치·면적·방향의 불일치·어긋남이 최소화될 수 있다. 가령, 철봉에서 연기가 나오는 증강현실 콘텐츠가, 철봉이 아닌 지역에서 피어오르기 시작하든지, 빨래집게를 집어야 할 위치가 아닌 위치에서 피어오르기 시작하는 불일치 내지 어긋남을 방지할 수 있다.In this process, the generation of the augmented reality layer generates a converted image obtained by converting the actual image; Each augmented reality content data including the location, area, and direction of each augmented reality content on the basis of each partial area data set including the location, area, and direction of each partial area on the converted image Determine the set; Based on each augmented reality content data set, each augmented reality content may be generated and included in an augmented reality layer. Through this, the location, area, and direction of the output augmented reality content may be determined based on the converted image. In this case, the converted image may be close to the actual image of the front viewed by the wearer with the naked eye as compared with an actual image photographed at a position other than the wearer's eye level of the
이상을 통해, 실시예는 기존의 증강현실 재활훈련 프로그램처럼 허공에서 동작을 하는 것이 아니라, 실물 교구와 연동한 재활 동작으로 이루어질 수 있다. 이를 통해, 실시예는 증강현실 콘텐츠와 더불어, 실물 교구를 활용한 혼합현실(mixed reality) 재활훈련 시스템을 제공할 수 있다. 혼합현실 재활훈련 시스템은 전체운동(gross motion)뿐만 아니라 손가락의 운동 같은 미세운동(fine motion)까지 재활 프로그램에 포함시킬 수 있으며, 만성 환자뿐만 아니라 중증 환자 및 경증 환자도 재활훈련 플랫폼을 통한 재활 효과를 볼 수 있다. 나아가, 증강현실 및 실물 교구와 연동된 재활을 통해, 환자는 재활을 하는 동안의 감각과 실제 생활에서의 감각을 일치시킬 수 있으며, 재활 훈련 시 환자의 집중력도 향상될 수 있다.Through the above, the embodiment may be made of a rehabilitation motion linked with a real teaching aid, rather than performing an operation in the air like the existing augmented reality rehabilitation training program. Through this, the embodiment may provide a mixed reality rehabilitation training system using real teaching tools in addition to augmented reality content. The mixed reality rehabilitation training system can include not only gross motion but also fine motion such as finger movements in the rehabilitation program, and rehabilitation effects not only for chronic patients but also for severely ill and mild patients through the rehabilitation training platform. Can be seen. Further, through rehabilitation linked with augmented reality and real teaching aids, the patient can match the sensations during rehabilitation with the sensations in real life, and the patient's concentration during rehabilitation training can be improved.
도 7은 일실시예에 따른 장치의 구성의 예시도이다.7 is an exemplary diagram of a configuration of an apparatus according to an embodiment.
일실시예에 따른 장치(701)는 프로세서(702) 및 메모리(703)를 포함한다. 프로세서(702)는 도 1 내지 도 6을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 6을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 구체적으로, 장치(701)는 HMD 장치(110), 스마트폰(120), 서버(600), 인공 신경망 학습 장치 등일 수 있다.The
메모리(703)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(703)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The
프로세서(702)는 프로그램을 실행하고, 장치(701)를 제어할 수 있다. 프로세서(702)에 의하여 실행되는 프로그램의 코드는 메모리(703)에 저장될 수 있다. 장치(701)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The
장치(701)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(703)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(702)는 메모리(703)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(701)와 학습된 인공 신경망을 이용하는 장치(701)는 동일할 수도 있고 개별적일 수도 있다.The
이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices, methods, and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, various technical modifications and variations can be applied based on those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments and claims and equivalents fall within the scope of the following claims.
Claims (5)
상기 HMD 장치는,
제 1 면으로 입사하는 빛을 투과하고, 제 2 면으로 입사하는 빛을 반사하는 하프미러(half-mirror);
스마트폰의 디스플레이가 상기 제 2 면을 향하도록 스마트폰을 거치하는 스마트폰 거치대; 및
상기 제 1 면 방향의 실제 이미지를 획득하는 HMD 카메라
를 포함하고,
상기 스마트폰은,
상기 스마트폰 거치대에 거치되며,
증강현실 콘텐츠를 출력하는 디스플레이; 및
상기 HMD 장치와 유무선으로 통신하는 프로세서
를 포함하고,
상기 프로세서는,
상기 HMD 카메라를 통해 촬영된 실제 이미지를 획득하고,
상기 실제 이미지에서 적어도 하나의 일부 영역을 인식하고,
각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고,
상기 디스플레이로 상기 증강현실 레이어를 전송하며,
상기 증강현실 레이어의 생성은,
상기 실제 이미지를 변환한 변환 이미지를 생성하고,
상기 변환 이미지 상의 상기 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 상기 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고,
상기 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 상기 각각의 증강현실 콘텐츠를 생성하여 상기 증강현실 레이어에 포함시키는
동작을 포함하여 이루어지고,
상기 변환 이미지의 생성은,
상기 실제 이미지를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득하고,
상기 좌안 실제 이미지 및 상기 우안 실제 이미지에 대응하는 실제 이미지 텐서(tensor)에 제 1 선형 변환을 적용하여 제 1 변환 이미지 텐서를 생성하고,
상기 제 1 변환 이미지 텐서를 기초로, 상기 변환 이미지를 생성하는
동작을 포함하여 이루어지는,
HMD 시스템.
In an HMD system including an HMD device and a smartphone,
The HMD device,
A half-mirror that transmits light incident on the first surface and reflects light incident on the second surface;
A smart phone cradle for mounting the smart phone so that the display of the smart phone faces the second surface; And
HMD camera that acquires an actual image in the direction of the first surface
Including,
The smartphone,
It is mounted on the smartphone cradle,
A display for outputting augmented reality content; And
Processor for wired or wireless communication with the HMD device
Including,
The processor,
Acquire an actual image taken through the HMD camera,
Recognize at least one partial area in the actual image,
Creating an augmented reality layer including each augmented reality content corresponding to each partial area,
Transmitting the augmented reality layer to the display,
Generation of the augmented reality layer,
Generate a converted image by converting the actual image,
On the basis of each partial region data set including the position, area, and direction of each of the partial regions on the converted image, each augmentation including the position, area, and direction of each of the augmented reality contents Determine the real content data set,
Based on the respective augmented reality content data sets, generating each of the augmented reality content and including it in the augmented reality layer
Including motion,
Generation of the converted image,
On the basis of the real image, the real image of the left eye and the real image of the right eye are acquired,
A first transformed image tensor is generated by applying a first linear transform to the real image tensor corresponding to the real image of the left eye and the real image of the right eye,
Generating the converted image based on the first converted image tensor
Consisting of actions,
HMD system.
상기 변환 이미지의 생성은,
상기 실제 이미지 텐서(tensor)에서 상기 각각의 일부 영역에 대응하는 원소들에 코스트(cost, 가중치)를 적용하고,
상기 코스트를 기초로, 상기 제 1 선형 변환을 제 2 선형 변환으로 변환하고,
코스트가 적용된 실제 이미지 텐서에 상기 제 2 선형 변환을 적용하여 제 2 변환 이미지 텐서를 생성하고,
상기 제 2 변환 이미지 텐서를 기초로, 상기 변환 이미지를 생성하는
동작을 포함하여 이루어지는,
HMD 시스템.
The method of claim 1,
Generation of the converted image,
Applying a cost (weight) to elements corresponding to each of the partial regions in the actual image tensor,
Based on the cost, converting the first linear transform into a second linear transform,
Applying the second linear transformation to the actual image tensor to which the cost is applied to generate a second transformed image tensor,
Based on the second transformed image tensor, generating the transformed image
Consisting of actions,
HMD system.
상기 제 1 선형 변환은,
상기 HMD 시스템 착용 시 기준 착용자의 양안 위치에 좌안 기준 카메라 및 우안 기준 카메라를 설치하고,
상기 좌안 기준 카메라 및 상기 우안 기준 카메라를 통해 촬영된 좌안 기준 이미지 및 우안 기준 이미지를 획득하고,
상기 HMD 카메라를 통해 촬영된 테스트 이미지를 획득하고,
상기 테스트 이미지를 기초로, 좌안 테스트 이미지와 우안 테스트 이미지를 획득하고,
상기 좌안 테스트 이미지 및 상기 우안 테스트 이미지에 대응하는 테스트 이미지 텐서에 후보 선형 변환을 적용하여 기준 추정 이미지 텐서를 생성하고,
상기 좌안 기준 이미지 및 상기 우안 기준 이미지에 대응하는 기준 이미지 텐서와, 상기 기준 추정 이미지 텐서의 차의 노름(norm)을 기초로, 에러를 정의하고,
상기 에러가 미리 정의된 값 이하가 되도록하는 후보 선형 변환을 제 1 선형 변환으로 정의하는
동작을 포함하여 획득하는,
HMD 시스템.
The method of claim 1,
The first linear transformation is,
When wearing the HMD system, a left-eye reference camera and a right-eye reference camera are installed at both eyes of the reference wearer,
Acquire a left-eye reference image and a right-eye reference image taken through the left-eye reference camera and the right-eye reference camera,
Acquiring a test image taken through the HMD camera,
Based on the test image, a left eye test image and a right eye test image are obtained,
Applying a candidate linear transformation to a test image tensor corresponding to the left eye test image and the right eye test image to generate a reference estimated image tensor,
An error is defined based on a norm of a difference between the left-eye reference image and a reference image tensor corresponding to the right-eye reference image, and the reference estimated image tensor,
Defining a candidate linear transformation that causes the error to be less than or equal to a predefined value as a first linear transformation
Obtained by including actions,
HMD system.
상기 서버는,
HMD 시스템 착용자가 각각의 미리 정의된 재활훈련 단위마다 미리 정의된 움직임들을 수행하는 동안, 상기 착용자의 움직임을 기록하고,
상기 각각의 미리 정의된 재활훈련 단위는,
상기 미리 정의된 움직임들과 대응 관계를 가지는 미리 정의된 일부 영역들을 포함하고,
각각의 미리 정의된 일부 영역은 적어도 하나 이상의 증강현실 콘텐츠와 미리 정의된 대응 관계를 가지고,
상기 HMD 시스템은,
HMD 장치 및 스마트폰을 포함하고,
상기 HMD 장치는,
제 1 면으로 입사하는 빛을 투과하고, 제 2 면으로 입사하는 빛을 반사하는 하프미러(half-mirror);
스마트폰의 디스플레이가 상기 제 2 면을 향하도록 스마트폰을 거치하는 스마트폰 거치대; 및
상기 제 1 면 방향의 실제 이미지를 획득하는 HMD 카메라
를 포함하고,
상기 스마트폰은,
상기 스마트폰 거치대에 거치되며,
증강현실 콘텐츠를 출력하는 디스플레이; 및
상기 HMD 장치와 유무선으로 통신하는 프로세서
를 포함하고,
상기 프로세서는,
상기 HMD 카메라를 통해 촬영된 실제 이미지를 획득하고,
상기 실제 이미지에서 적어도 하나의 일부 영역을 인식하고,
각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고,
상기 디스플레이로 상기 증강현실 레이어를 전송하며,
상기 증강현실 레이어의 생성은,
상기 실제 이미지를 변환한 변환 이미지를 생성하고,
상기 변환 이미지 상의 상기 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 상기 각각의 일부 영역에 대응하는 상기 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고,
상기 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 상기 각각의 증강현실 콘텐츠를 생성하여 상기 증강현실 레이어에 포함시키는
동작을 포함하여 이루어지고,
상기 변환 이미지의 생성은,
상기 실제 이미지를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득하고,
상기 좌안 실제 이미지 및 상기 우안 실제 이미지에 대응하는 실제 이미지 텐서(tensor)에 제 1 선형 변환을 적용하여 제 1 변환 이미지 텐서를 생성하고,
상기 제 1 변환 이미지 텐서를 기초로, 상기 변환 이미지를 생성하는
동작을 포함하여 이루어지는,
HMD 시스템을 포함하는 재활훈련 시스템.
The rehabilitation training system including the HMD system includes an HMD system, a server, and predefined rehabilitation training units,
The server,
While the HMD system wearer performs predefined movements for each predefined rehabilitation unit, the wearer's movement is recorded,
Each of the predefined rehabilitation training units,
Includes some predefined areas having a corresponding relationship with the predefined movements,
Each of the predefined areas has a predefined correspondence relationship with at least one augmented reality content,
The HMD system,
Including an HMD device and a smartphone,
The HMD device,
A half-mirror that transmits light incident on the first surface and reflects light incident on the second surface;
A smart phone cradle for mounting the smart phone so that the display of the smart phone faces the second surface; And
HMD camera that acquires an actual image in the direction of the first surface
Including,
The smartphone,
It is mounted on the smartphone cradle,
A display that outputs augmented reality content; And
Processor for wired or wireless communication with the HMD device
Including,
The processor,
Acquire an actual image taken through the HMD camera,
Recognize at least one partial area in the actual image,
Creating an augmented reality layer including each augmented reality content corresponding to each partial area,
Transmitting the augmented reality layer to the display,
Generation of the augmented reality layer,
Generate a converted image by converting the actual image,
Location and area of each of the augmented reality content corresponding to each of the partial regions based on a data set of each partial region including the position, area, and direction of each partial region on the converted image , Determine each augmented reality content data set including the direction,
Based on the respective augmented reality content data sets, generating each of the augmented reality content and including it in the augmented reality layer
Including motion,
Generation of the converted image,
On the basis of the real image, the real image of the left eye and the real image of the right eye are acquired,
A first transformed image tensor is generated by applying a first linear transform to the real image tensor corresponding to the real image of the left eye and the real image of the right eye,
Generating the converted image based on the first converted image tensor
Consisting of actions,
Rehabilitation training system including HMD system.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20190174872 | 2019-12-26 | ||
KR1020190174872 | 2019-12-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102151265B1 true KR102151265B1 (en) | 2020-09-02 |
Family
ID=72469426
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200030327A KR102151265B1 (en) | 2019-12-26 | 2020-03-11 | Hmd system and rehabilitation system including the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102151265B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102483387B1 (en) * | 2021-09-29 | 2022-12-30 | 한국기술교육대학교 산학협력단 | Augmented reality content provision method and finger rehabilitation training system for finger rehabilitation training |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150122975A (en) | 2014-04-24 | 2015-11-03 | 엘지전자 주식회사 | Hmd and method for controlling the same |
KR20170022088A (en) * | 2015-08-19 | 2017-03-02 | 한국전자통신연구원 | Method of rendering augmented reality on mirror display based on motion of target of augmented reality and apparatus using the same |
KR101761751B1 (en) | 2014-07-10 | 2017-07-26 | 세이코 엡슨 가부시키가이샤 | Hmd calibration with direct geometric modeling |
KR20180041880A (en) * | 2016-10-17 | 2018-04-25 | 대구대학교 산학협력단 | The walking rehabilitation apparatus for severe disability including virtual reality platform |
KR20180092187A (en) * | 2017-02-08 | 2018-08-17 | 삼성전기주식회사 | System for providing augmented realty |
KR20190061825A (en) | 2017-11-28 | 2019-06-05 | 엘지전자 주식회사 | Tethering type head mounted display and method for controlling the same |
KR20190075596A (en) * | 2017-12-21 | 2019-07-01 | 김일식 | Method for creating augmented reality contents, method for using the contents and apparatus using the same |
KR102028376B1 (en) | 2018-01-05 | 2019-10-04 | 동국대학교 산학협력단 | Calibration method of leap motion-HMD using bundle adjustment algorithm and method thereof |
-
2020
- 2020-03-11 KR KR1020200030327A patent/KR102151265B1/en active IP Right Grant
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20150122975A (en) | 2014-04-24 | 2015-11-03 | 엘지전자 주식회사 | Hmd and method for controlling the same |
KR101761751B1 (en) | 2014-07-10 | 2017-07-26 | 세이코 엡슨 가부시키가이샤 | Hmd calibration with direct geometric modeling |
KR20170022088A (en) * | 2015-08-19 | 2017-03-02 | 한국전자통신연구원 | Method of rendering augmented reality on mirror display based on motion of target of augmented reality and apparatus using the same |
KR20180041880A (en) * | 2016-10-17 | 2018-04-25 | 대구대학교 산학협력단 | The walking rehabilitation apparatus for severe disability including virtual reality platform |
KR20180092187A (en) * | 2017-02-08 | 2018-08-17 | 삼성전기주식회사 | System for providing augmented realty |
KR20190061825A (en) | 2017-11-28 | 2019-06-05 | 엘지전자 주식회사 | Tethering type head mounted display and method for controlling the same |
KR20190075596A (en) * | 2017-12-21 | 2019-07-01 | 김일식 | Method for creating augmented reality contents, method for using the contents and apparatus using the same |
KR102028376B1 (en) | 2018-01-05 | 2019-10-04 | 동국대학교 산학협력단 | Calibration method of leap motion-HMD using bundle adjustment algorithm and method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102483387B1 (en) * | 2021-09-29 | 2022-12-30 | 한국기술교육대학교 산학협력단 | Augmented reality content provision method and finger rehabilitation training system for finger rehabilitation training |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11501529B2 (en) | Enhanced pose determination for display device | |
KR102658303B1 (en) | Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking | |
US11308673B2 (en) | Using three-dimensional scans of a physical subject to determine positions and/or orientations of skeletal joints in the rigging for a virtual character | |
US11669726B2 (en) | Methods and systems for interpolation of disparate inputs | |
CN113168737A (en) | Method and system for three-dimensional model sharing | |
JP2023089294A (en) | Matching meshes for virtual avatars | |
CN112437950A (en) | Skeletal system for animating virtual head portraits | |
CN114600064A (en) | Cross reality system with location services | |
CN114586071A (en) | Cross-reality system supporting multiple device types | |
CN102959616A (en) | Interactive reality augmentation for natural interaction | |
US11823316B2 (en) | Photoreal character configurations for spatial computing | |
CN112753007A (en) | Gesture space dimension reduction for gesture space deformation of virtual characters | |
US11836840B2 (en) | Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters | |
US11574416B2 (en) | Generating body pose information | |
CN107656611A (en) | Somatic sensation television game implementation method and device, terminal device | |
Malleson et al. | Rapid one-shot acquisition of dynamic VR avatars | |
CN106909904B (en) | Human face obverse method based on learnable deformation field | |
KR102151265B1 (en) | Hmd system and rehabilitation system including the same | |
US20230260156A1 (en) | Methods and systems for interpolation of disparate inputs | |
KR102577707B1 (en) | Apparatus and method for evaluating hologram encoding / holographic image quality for amplitude-modulated hologram | |
JP2020201767A (en) | Information processing apparatus, information processing system, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |