KR102151265B1 - Hmd system and rehabilitation system including the same - Google Patents

Hmd system and rehabilitation system including the same Download PDF

Info

Publication number
KR102151265B1
KR102151265B1 KR1020200030327A KR20200030327A KR102151265B1 KR 102151265 B1 KR102151265 B1 KR 102151265B1 KR 1020200030327 A KR1020200030327 A KR 1020200030327A KR 20200030327 A KR20200030327 A KR 20200030327A KR 102151265 B1 KR102151265 B1 KR 102151265B1
Authority
KR
South Korea
Prior art keywords
image
augmented reality
hmd
eye
reality content
Prior art date
Application number
KR1020200030327A
Other languages
Korean (ko)
Inventor
조성민
박정택
조영후
Original Assignee
주식회사 델바인
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 델바인 filed Critical 주식회사 델바인
Application granted granted Critical
Publication of KR102151265B1 publication Critical patent/KR102151265B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Architecture (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Disclosed are an HMD system and a rehabilitation training system including the same. The HMD system comprises: an HMD device; and a smartphone. The HMD device includes: a half-mirror that transmits light incident on a first surface and reflects light incident on a second surface; a smartphone holder that holds a smartphone such that a display of the smartphone faces the second surface; and an HMD camera that acquires an actual image of a first surface direction. The smartphone includes: a display held in the smartphone holder and outputting augmented reality content; and a processor for communicating with the HMD device in a wired/wireless manner. The processor acquires an actual image photographed through the HMD camera, recognizes at least one partial area from the actual image, generates an augmented reality layer including each augmented reality content corresponding to each partial area, and transmits an augmented reality layer to a display. The generation of the augmented reality layer may comprise the operations of generating a converted image obtained by converting the actual image, determining each augmented reality content data set including a location, area and direction of each augmented reality content, on the basis of each partial area data set including a location, area and direction of each partial area on the converted image, and generating each augmented reality content to include the same in the augmented reality layer, on the basis of the each augmented reality content data set.

Description

HMD 시스템 및 이를 포함하는 재활훈련 시스템{HMD SYSTEM AND REHABILITATION SYSTEM INCLUDING THE SAME}HMD system and rehabilitation training system including the same {HMD SYSTEM AND REHABILITATION SYSTEM INCLUDING THE SAME}

아래 실시예들은 스마트폰과 HMD(head-mounted display) 장치를 포함하는 HMD 시스템 및 이를 이용한 재활훈련 시스템을 제공하는 기술에 관한 것이다.The following embodiments relate to a technology for providing an HMD system including a smartphone and a head-mounted display (HMD) device and a rehabilitation training system using the same.

실시예들과 관련된 배경기술로, 대한민국 등록특허공보 KR 10-1761751 B1은 직접적인 기하학적 모델링이 행해지는 HMD 보정을 개시한다. 구체적으로, 선행문헌은 (a) 적어도 머리 모델 및 HMD 모델의 기하학적 정보에 기초하여 규정되는 보정(calibration) 행렬 세트를 이용하여, 기준 대상물(reference object)에 대응하는 가상 대상물의 뷰(view)를 투영하는 단계로서, 상기 투영된 가상 대상물이, 상기 HMD를 통해 상기 기준 대상물과 실질적으로 결부(anchor)되는 것으로 인지되도록 투영하는 단계; (b) 상기 사용자 인터페이스를 통해 수신된 지시에 응답하여, 상기 지시가 나타내는 양(amount)만큼 상기 보정 행렬 세트 내의 적어도 하나의 파라미터를 변화시키는 단계; (c) 상기 양만큼 변화된 상기 적어도 하나의 파라미터를 포함하는 상기 보정 행렬 세트에 기초하여, 상기 가상 대상물의 뷰를 투영하는 단계; 및 (d) 상기 (c) 단계에서 투영된 가상 대상물이 상기 기준 대상물과 실질적으로 정렬된 것으로 인지될 수 있을 때까지, 상기 보정 행렬 세트 내의 상기 적어도 하나의 파라미터 이외의 파라미터에 대해 상기 (b) 및 (c) 단계가 수행되도록 허용하여, 그에 의해 상기 보정 행렬을 조정하는 단계를 포함하는 사용자 인터페이스를 포함하는 증강 현실(augmented reality; AR) 시스템의 광학 투시(OST) 머리 장착형 디스플레이(HMD)의 보정 방법을 개시한다.As a background technology related to the embodiments, Korean Patent Application Publication No. KR 10-1761751 B1 discloses HMD correction in which direct geometric modeling is performed. Specifically, the prior literature (a) at least using a set of calibration matrices prescribed based on geometric information of the head model and the HMD model, a view of the virtual object corresponding to the reference object (view). Projecting, comprising: projecting the projected virtual object to be perceived as being substantially anchored to the reference object through the HMD; (b) in response to an instruction received through the user interface, changing at least one parameter in the correction matrix set by an amount indicated by the instruction; (c) projecting a view of the virtual object based on the correction matrix set including the at least one parameter changed by the amount; And (d) the (b) for parameters other than the at least one parameter in the correction matrix set until it can be recognized that the virtual object projected in step (c) is substantially aligned with the reference object. And (c) allowing the step to be performed, thereby adjusting the correction matrix, of an optical perspective (OST) head-mounted display (HMD) of an augmented reality (AR) system comprising a user interface. The correction method is disclosed.

이를 통해, 선행문헌은 AR 시스템을 실세계 장면으로 보정하는 것을 간단하게 해주는 시스템/방법을 제공하고 있다. 또한, 선행문헌은 실시간으로 실세계의 획득된 정보를 가상 대상물의 정보와 실시간으로 결합하여 가상 카메라 표시를 렌더링(rendering)할 수 있는 AR 시스템을 제공하고 있다.Through this, prior literature provides a system/method that simplifies correcting an AR system into a real world scene. In addition, prior literature provides an AR system capable of rendering a virtual camera display by combining information obtained in real time with information of a virtual object in real time.

또한, 대한민국 등록특허공보 KR 10-2028376 B1은 번들 조정 알고리즘을 이용한 립모션과 HMD 사이의 캘리브레이션 방법 및 장치를 개시한다. 구체적으로, 선행문헌은 립모션을 장착하며 적외선 전구들이 형성된 HMD의 전면을 적외선 카메라로 촬영하여 획득한 각기 다른 시점의 n개 2차원 영상을 n개 희소 행렬로 변환하는 단계, 번들 조정 알고리즘을 통해 n개 희소 행렬을 3차 원 공간에 근사시켜 생성한 하나의 3차원 점군과 n개 희소 행렬을 이용하여 n개 투영 행렬을 획득하는 단계, 3차원 점군을 n개 투영 행렬을 통해 n개 2차원 영상에 각각 투영시켜 투영된 n개 2차원 점군을 획득하는 단계, n개 2차원 영상 각각에 대해, 적외선 전구의 형상에 대응하는 복수의 전구 클러스터를 검출 후 2차원 점군 내 소속점들 중 전구 클러스터 내 위치한 2차원 점들을 판별하는 단계, 3차원 점군 내 소속점들 중 전구 클러스터 내에 위치한 2차원 점들에 대응되는 3차원 점들을 기초로 각 전구 클러스터의 3차원 중심점을 획득하는 단계, 및 각 전구 클러스터의 3차원 중심점과 클러스터 크기를 이용하여 립모션과 HMD의 원점을 각각 추정하여 캘리브레이션하는 단계를 포함하는 방법을 개시한다.In addition, Korean Patent Application Publication No. KR 10-2028376 B1 discloses a calibration method and apparatus between a lip motion and an HMD using a bundle adjustment algorithm. Specifically, the prior literature is a step of converting n 2D images of different viewpoints obtained by photographing the front of an HMD with lip motion and infrared light bulbs formed with an infrared camera into n sparse matrices, through a bundle adjustment algorithm. Obtaining n projection matrices using one 3D point group and n sparse matrices generated by approximating n sparse matrices to a 3 dimensional original space, and n 2D 3D point groups through n projection matrices A step of obtaining n 2D point groups projected by projecting each onto an image. For each of n 2D images, a bulb cluster among the belonging points in the 2D point group after detecting a plurality of bulb clusters corresponding to the shape of the infrared bulb Determining the two-dimensional points located within, acquiring a three-dimensional center point of each light bulb cluster based on the three-dimensional points corresponding to the two-dimensional points located in the light bulb cluster among belonging points in the three-dimensional point group, and each light bulb cluster Disclosed is a method including the step of estimating and calibrating the lip motion and the origin of the HMD using the 3D center point and the cluster size of.

그러나 선행문헌들은 HMD 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서 실제 이미지가 촬영된 경우, 실제 이미지를 착용자가 육안으로 바라보는 전방의 실제 모습과 가깝도록 변환하고, 변환 이미지를 기초로 증강현실 콘텐츠의 위치, 면적, 방향 등을 결정하여, 증강현실 콘텐츠와 착용자 전방의 실제 이미지의 불일치·어긋남을 최소화하는 방법 내지 시스템을 개시하지 않는다. 또한, 선행문헌들은 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들에 가중치를 부여한 후, 증강현실 콘텐츠 생성의 기초가 되는 변환 이미지를 생성하는 방법 내지 시스템을 개시하지 않는다. 나아가, 선행문헌들은 눈높이에 위치한 기준 카메라로 촬영한 기준 이미지와 눈높이가 아닌 위치에 놓인 HMD 카메라로 촬영한 테스트 이미지가 미리 정의된 에러 이하의 일치도를 가지도록 하는 선형 변환을 구하는 방법 내지 시스템을 개시하지 않는다.However, prior literatures have shown that when an actual image is taken at a position higher than the HMD wearer's eye level, for example, at a position about the wearer's forehead, the actual image is converted so that it is close to the actual image in front of the wearer with the naked eye, and the converted image is converted. It does not disclose a method or system for minimizing inconsistency or misalignment between the augmented reality content and the actual image in front of the wearer by determining the location, area, and direction of the augmented reality content on the basis. In addition, prior documents specify ranges related to augmented reality content in an actual image, or a method of generating a transformed image that is the basis for creating augmented reality content after assigning weight to ranges related to augmented reality content in an actual image. Does not start the system. Furthermore, prior literature discloses a method or system for obtaining a linear transformation so that a reference image taken with a reference camera positioned at eye level and a test image taken with an HMD camera positioned at a position other than eye level have a degree of agreement less than or equal to a predefined error. I never do that.

이에 따라, HMD 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서 실제 이미지가 촬영된 경우, 실제 이미지를 착용자가 육안으로 바라보는 전방의 실제 모습과 가깝도록 변환하고, 변환 이미지를 기초로 증강현실 콘텐츠의 위치, 면적, 방향 등을 결정하여, 증강현실 콘텐츠와 착용자 전방의 실제 이미지의 불일치·어긋남을 최소화하는 기술의 구현이 요청된다. 또한, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들에 가중치를 부여한 후, 증강현실 콘텐츠 생성의 기초가 되는 변환 이미지를 생성하는 기술의 구현이 요청된다. 나아가, 눈높이에 위치한 기준 카메라로 촬영한 기준 이미지와 눈높이가 아닌 위치에 놓인 HMD 카메라로 촬영한 테스트 이미지가 미리 정의된 에러 이하의 일치도를 가지도록 하는 선형 변환을 구하는 기술의 구현이 요청된다.Accordingly, when the actual image is taken at a position higher than the HMD wearer's eye level, for example, at a position about the wearer's forehead, the actual image is converted to be close to the actual image of the front viewed by the wearer with the naked eye, and the converted image is based. As a result, there is a need to implement a technology that determines the location, area, and direction of the augmented reality content and minimizes the discrepancy and mismatch between the augmented reality content and the actual image in front of the wearer. In addition, after specifying ranges related to augmented reality content in an actual image, or assigning weights to ranges related to augmented reality content in an actual image, implementation of a technology that generates a transformed image that is the basis for creating augmented reality content is Is requested. Furthermore, there is a need for implementation of a technique for obtaining a linear transformation so that a reference image captured by a reference camera positioned at eye level and a test image captured by an HMD camera positioned at a position other than eye level have a degree of agreement less than or equal to a predefined error.

대한민국 등록특허공보 KR 10-1761751 B1Korean patent publication KR 10-1761751 B1 대한민국 등록특허공보 KR 10-2028376 B1Korean patent publication KR 10-2028376 B1 대한민국 공개특허공보 KR 10-2019-0061825 AKorean Patent Application Publication KR 10-2019-0061825 A 대한민국 공개특허공보 KR 10-2015-0122975 AKorean Patent Application Publication KR 10-2015-0122975 A

실시예들은 HMD 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서 실제 이미지가 촬영된 경우, 실제 이미지를 착용자가 육안으로 바라보는 전방의 실제 모습과 가깝도록 변환하고, 변환 이미지를 기초로 증강현실 콘텐츠의 위치, 면적, 방향 등을 결정하여, 증강현실 콘텐츠와 착용자 전방의 실제 이미지의 불일치·어긋남을 최소화하는 시스템을 제공하고자 한다.In the embodiments, when an actual image is taken at a position higher than the HMD wearer's eye level, for example, at a position about the wearer's forehead, the actual image is converted to be close to the actual image in front of the wearer with the naked eye, and based on the converted image By determining the location, area, and direction of the augmented reality content, it is intended to provide a system that minimizes inconsistency or mismatch between the augmented reality content and the actual image in front of the wearer.

실시예들은 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들에 가중치를 부여한 후, 증강현실 콘텐츠 생성의 기초가 되는 변환 이미지를 생성하는 시스템을 제공하고자 한다.Embodiments provide a system that designates ranges related to augmented reality content in an actual image, or assigns weights to ranges related to augmented reality content in an actual image, and then generates a converted image that is the basis for creating augmented reality content. I want to.

실시예들은 눈높이에 위치한 기준 카메라로 촬영한 기준 이미지와 눈높이가 아닌 위치에 놓인 HMD 카메라로 촬영한 테스트 이미지가 미리 정의된 에러 이하의 일치도를 가지도록 하는 선형 변환을 구하는 시스템을 제공하고자 한다.The embodiments are intended to provide a system for obtaining a linear transformation so that a reference image photographed with a reference camera positioned at eye level and a test image photographed with an HMD camera positioned at a position other than eye level have a degree of matching less than or equal to a predefined error.

나아가, 실시예들은 배경 기술에서 언급한 과제들 및 본 명세서에서 드러나는 해당 기술 분야의 과제들을 해결하기 위한 방법 및 시스템을 제공하고자 한다.Further, the embodiments are intended to provide a method and system for solving the problems mentioned in the background art and the problems of the relevant technical field disclosed in the present specification.

일실시예에 따른 HMD 시스템은 HMD 장치 및 스마트폰을 포함하고, 상기 HMD 장치는, 제 1 면으로 입사하는 빛을 투과하고, 제 2 면으로 입사하는 빛을 반사하는 하프미러(half-mirror); 스마트폰의 디스플레이가 상기 제 2 면을 향하도록 스마트폰을 거치하는 스마트폰 거치대; 및 상기 제 1 면 방향의 실제 이미지를 획득하는 HMD 카메라를 포함하고, 상기 스마트폰은, 상기 스마트폰 거치대에 거치되며, 증강현실 콘텐츠를 출력하는 디스플레이; 및 상기 HMD 장치와 유무선으로 통신하는 프로세서를 포함하고, 상기 프로세서는, 상기 HMD 카메라를 통해 촬영된 실제 이미지를 획득하고, 상기 실제 이미지에서 적어도 하나의 일부 영역을 인식하고, 각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고, 상기 디스플레이로 상기 증강현실 레이어를 전송하며, 상기 증강현실 레이어의 생성은, 상기 실제 이미지를 변환한 변환 이미지를 생성하고, 상기 변환 이미지 상의 상기 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 상기 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고, 상기 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 상기 각각의 증강현실 콘텐츠를 생성하여 상기 증강현실 레이어에 포함시키는 동작을 포함하여 이루어질 수 있다.An HMD system according to an embodiment includes an HMD device and a smart phone, and the HMD device transmits light incident on a first surface and reflects light incident on a second surface (half-mirror) ; A smart phone cradle for mounting the smart phone so that the display of the smart phone faces the second surface; And a HMD camera that acquires an actual image in the direction of the first surface, wherein the smartphone is mounted on the smartphone cradle, and includes a display configured to output augmented reality content; And a processor that communicates with the HMD device via wired or wireless communication, wherein the processor acquires an actual image photographed through the HMD camera, recognizes at least one partial region in the actual image, and corresponds to each partial region Generates an augmented reality layer including each of the augmented reality content to be transmitted, transmits the augmented reality layer to the display, and generating the augmented reality layer generates a converted image obtained by converting the actual image, and the converted image Each augmented reality content data including the location, area, and direction of each of the augmented reality content based on each partial area data set including the location, area, and direction of each of the partial areas on the image A set may be determined, and based on each of the augmented reality content data sets, each of the augmented reality contents may be generated and included in the augmented reality layer.

일실시예에 따르면, 상기 변환 이미지의 생성은, 상기 실제 이미지를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득하고, 상기 좌안 실제 이미지 및 상기 우안 실제 이미지에 대응하는 실제 이미지 텐서(tensor)에 제 1 선형 변환을 적용하여 제 1 변환 이미지 텐서를 생성하고, 상기 제 1 변환 이미지 텐서를 기초로, 상기 변환 이미지를 생성하는 동작을 포함하여 이루어질 수 있다.According to an embodiment, in the generation of the converted image, based on the real image, a left eye real image and a right eye real image are acquired, and the real image tensor corresponding to the left eye real image and the right eye real image An operation of generating a first transformed image tensor by applying a first linear transform, and generating the transformed image based on the first transformed image tensor may be performed.

일실시예에 따르면, 상기 변환 이미지의 생성은, 상기 실제 이미지를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득하고, 상기 좌안 실제 이미지 및 상기 우안 실제 이미지에 대응하는 실제 이미지 텐서(tensor)에서 상기 각각의 일부 영역에 대응하는 원소들에 코스트(cost, 가중치)를 적용하고, 상기 코스트를 기초로, 제 1 선형 변환을 제 2 선형 변환으로 변환하고, 코스트가 적용된 실제 이미지 텐서에 상기 제 2 선형 변환을 적용하여 제 2 변환 이미지 텐서를 생성하고, 상기 제 2 변환 이미지 텐서를 기초로, 상기 변환 이미지를 생성하는 동작을 포함하여 이루어질 수 있다.According to an embodiment, in the generation of the converted image, based on the real image, the real left eye image and the real right eye image are acquired, and the real image tensor corresponding to the real left eye image and the real right eye image A cost (weight) is applied to elements corresponding to each of the partial regions, and based on the cost, the first linear transform is converted into a second linear transform, and the second is applied to the actual image tensor to which the cost is applied. An operation of generating a second transformed image tensor by applying a linear transform, and generating the transformed image based on the second transformed image tensor may be performed.

일실시예에 따르면, 상기 제 1 선형 변환은, 상기 HMD 시스템 착용 시 기준 착용자의 양안 위치에 좌안 기준 카메라 및 우안 기준 카메라를 설치하고, 상기 좌안 기준 카메라 및 상기 우안 기준 카메라를 통해 촬영된 좌안 기준 이미지 및 우안 기준 이미지를 획득하고, 상기 HMD 카메라를 통해 촬영된 테스트 이미지를 획득하고, 상기 테스트 이미지를 기초로, 좌안 테스트 이미지와 우안 테스트 이미지를 획득하고, 상기 좌안 테스트 이미지 및 상기 우안 테스트 이미지에 대응하는 테스트 이미지 텐서에 후보 선형 변환을 적용하여 기준 추정 이미지 텐서를 생성하고, 상기 좌안 기준 이미지 및 상기 우안 기준 이미지에 대응하는 기준 이미지 텐서와, 상기 기준 추정 이미지 텐서의 차의 노름(norm)을 기초로, 에러를 정의하고, 상기 에러가 미리 정의된 값 이하가 되도록하는 후보 선형 변환을 제 1 선형 변환으로 정의하는 동작을 포함하여 획득할 수 있다.According to an embodiment, in the first linear transformation, a left-eye reference camera and a right-eye reference camera are installed at both eyes of a reference wearer when the HMD system is worn, and a left-eye reference photographed through the left-eye reference camera and the right-eye reference camera Acquire an image and a right-eye reference image, acquire a test image taken through the HMD camera, acquire a left-eye test image and a right-eye test image based on the test image, and the left-eye test image and the right-eye test image A reference estimated image tensor is generated by applying a candidate linear transformation to a corresponding test image tensor, and a norm of a difference between the reference image tensor corresponding to the left-eye reference image and the right-eye reference image, and the reference estimated image tensor is calculated. As a basis, it may be obtained by defining an error and defining a candidate linear transform that causes the error to be less than or equal to a predefined value as a first linear transform.

HMD 시스템을 포함하는 재활훈련 시스템은 HMD 시스템, 서버, 및 미리 정의된 재활훈련 단위들을 포함하고, 상기 서버는, HMD 시스템 착용자가 각각의 미리 정의된 재활훈련 단위마다 미리 정의된 움직임들을 수행하는 동안, 상기 착용자의 움직임을 기록하고, 상기 각각의 미리 정의된 재활훈련 단위는, 상기 미리 정의된 움직임들과 대응 관계를 가지는 미리 정의된 일부 영역들을 포함하고, 각각의 미리 정의된 일부 영역은 적어도 하나 이상의 증강현실 콘텐츠와 미리 정의된 대응 관계를 가지고, 상기 HMD 시스템은, HMD 장치 및 스마트폰을 포함하고, 상기 HMD 장치는, 제 1 면으로 입사하는 빛을 투과하고, 제 2 면으로 입사하는 빛을 반사하는 하프미러(half-mirror); 스마트폰의 디스플레이가 상기 제 2 면을 향하도록 스마트폰을 거치하는 스마트폰 거치대; 및 상기 제 1 면 방향의 실제 이미지를 획득하는 HMD 카메라를 포함하고, 상기 스마트폰은, 상기 스마트폰 거치대에 거치되며, 증강현실 콘텐츠를 출력하는 디스플레이; 및 상기 HMD 장치와 유무선으로 통신하는 프로세서를 포함하고, 상기 프로세서는, 상기 HMD 카메라를 통해 촬영된 실제 이미지를 획득하고, 상기 실제 이미지에서 적어도 하나의 일부 영역을 인식하고, 각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고, 상기 디스플레이로 상기 증강현실 레이어를 전송하며, 상기 증강현실 레이어의 생성은, 상기 실제 이미지를 변환한 변환 이미지를 생성하고, 상기 변환 이미지 상의 상기 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 상기 각각의 일부 영역에 대응하는 상기 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고, 상기 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 상기 각각의 증강현실 콘텐츠를 생성하여 상기 증강현실 레이어에 포함시키는 동작을 포함하여 이루어질 수 있다.The rehabilitation training system including the HMD system includes an HMD system, a server, and predefined rehabilitation training units, and the server, while the HMD system wearer performs predefined movements for each predefined rehabilitation training unit. , The movement of the wearer is recorded, and each predefined rehabilitation unit includes some predefined areas having a corresponding relationship with the predefined movements, and each predefined area includes at least one Having a predefined correspondence relationship with the above augmented reality content, the HMD system includes an HMD device and a smartphone, and the HMD device transmits light incident on the first surface and light incident on the second surface. A half-mirror reflecting the light; A smart phone cradle for mounting the smart phone so that the display of the smart phone faces the second surface; And a HMD camera that acquires an actual image in the direction of the first surface, wherein the smartphone is mounted on the smartphone cradle, and includes a display configured to output augmented reality content; And a processor that communicates with the HMD device via wired or wireless communication, wherein the processor acquires an actual image photographed through the HMD camera, recognizes at least one partial region in the actual image, and corresponds to each partial region Generates an augmented reality layer including each of the augmented reality content to be transmitted, and transmits the augmented reality layer to the display, and the generation of the augmented reality layer generates a converted image obtained by converting the actual image, and the converted image Based on each partial region data set including the location, area, and direction of each of the partial regions on the image, the location, area, and direction of each of the augmented reality contents corresponding to each of the partial regions Each augmented reality content data set to be included may be determined, and based on each of the augmented reality content data sets, the augmented reality content may be generated and included in the augmented reality layer.

실시예들은 HMD 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서 실제 이미지가 촬영된 경우, 실제 이미지를 착용자가 육안으로 바라보는 전방의 실제 모습과 가깝도록 변환하고, 변환 이미지를 기초로 증강현실 콘텐츠의 위치, 면적, 방향 등을 결정하여, 증강현실 콘텐츠와 착용자 전방의 실제 이미지의 불일치·어긋남을 최소화하는 시스템을 제공할 수 있다.In the embodiments, when an actual image is taken at a position higher than the HMD wearer's eye level, for example, at a position about the wearer's forehead, the actual image is converted to be close to the actual image in front of the wearer with the naked eye, and based on the converted image By determining the location, area, and direction of augmented reality content, it is possible to provide a system that minimizes inconsistency or misalignment between the augmented reality content and the actual image in front of the wearer.

실시예들은 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들에 가중치를 부여한 후, 증강현실 콘텐츠 생성의 기초가 되는 변환 이미지를 생성하는 시스템을 제공할 수 있다.Embodiments provide a system that designates ranges related to augmented reality content in an actual image, or assigns weights to ranges related to augmented reality content in an actual image, and then generates a converted image that is the basis for creating augmented reality content. can do.

실시예들은 눈높이에 위치한 기준 카메라로 촬영한 기준 이미지와 눈높이가 아닌 위치에 놓인 HMD 카메라로 촬영한 테스트 이미지가 미리 정의된 에러 이하의 일치도를 가지도록 하는 선형 변환을 구하는 시스템을 제공할 수 있다.The embodiments may provide a system for obtaining a linear transformation such that a reference image photographed with a reference camera positioned at eye level and a test image photographed with an HMD camera positioned at a position other than eye level have a degree of matching less than or equal to a predefined error.

한편, 실시예들에 따른 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 해당 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.On the other hand, the effects according to the embodiments are not limited to those mentioned above, and other effects that are not mentioned will be clearly understood by those of ordinary skill in the art from the following description.

도 1은 일실시예에 따른 HMD 시스템의 구성의 예시도이다.
도 2는 일실시예에 따른 HMD 시스템의 동작을 설명하기 위한 순서도이다.
도 3은 일실시예에 따른 변환 이미지 생성 동작을 설명하기 위한 도면이다.
도 4는 일실시예에 따른 코스트가 적용된 변환 이미지 생성 동작을 설명하기 위한 도면이다.
도 5는 일실시예에 따른 제 1 선형 변환 생성 동작을 설명하기 위한 도면이다.
도 6은 일실시예에 따른 재활훈련 시스템을 설명하기 위한 도면이다.
도 7은 일실시예 따른 장치의 구성의 예시도이다.
1 is an exemplary diagram of a configuration of an HMD system according to an embodiment.
2 is a flow chart for explaining the operation of the HMD system according to an embodiment.
3 is a diagram for describing an operation of generating a converted image according to an embodiment.
4 is a diagram illustrating an operation of generating a converted image to which a cost is applied according to an exemplary embodiment.
5 is a diagram illustrating an operation of generating a first linear transform according to an embodiment.
6 is a view for explaining a rehabilitation training system according to an embodiment.
7 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments will be described in detail with reference to the accompanying drawings. However, since various changes may be made to the embodiments, the scope of the rights of the patent application is not limited or limited by these embodiments. It should be understood that all changes, equivalents, or substitutes to the embodiments are included in the scope of the rights.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of the embodiments are disclosed for illustrative purposes only, and may be changed in various forms and implemented. Accordingly, the embodiments are not limited to a specific disclosure form, and the scope of the present specification includes changes, equivalents, or substitutes included in the technical idea.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.Although terms such as first or second may be used to describe various components, these terms should be interpreted only for the purpose of distinguishing one component from other components. For example, a first component may be referred to as a second component, and similarly, a second component may be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.When a component is referred to as being "connected" to another component, it is to be understood that it may be directly connected or connected to the other component, but other components may exist in the middle.

실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terms used in the examples are used for illustrative purposes only and should not be interpreted as limiting. Singular expressions include plural expressions unless the context clearly indicates otherwise. In the present specification, terms such as "comprise" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.

공간적으로 상대적인 용어인 "아래(below)", "아래(beneath)", "하부(lower)", "위(above)", "상부(upper)" 등은 도면에 도시되어 있는 바와 같이 하나의 구성요소와 다른 구성요소들과의 상관관계를 용이하게 기술하기 위해 사용될 수 있다. 공간적으로 상대적인 용어는 도면에 도시되어 있는 방향에 더하여 사용 시 또는 동작 시 구성요소들의 서로 다른 방향을 포함하는 용어로 이해되어야 한다. 예를 들어, 도면에 도시되어 있는 구성요소를 뒤집을 경우, 다른 구성요소의 "아래(below)"또는 "아래(beneath)"로 기술된 구성요소는 다른 구성요소의 "위(above)"에 놓일 수 있다. 따라서, 예시적인 용어인 "아래"는 아래와 위의 방향을 모두 포함할 수 있다. 구성요소는 다른 방향으로도 배향될 수 있으며, 이에 따라 공간적으로 상대적인 용어들은 배향에 따라 해석될 수 있다.Spatially relative terms "below", "beneath", "lower", "above", "upper", etc., as shown in the figure It can be used to easily describe the correlation between a component and other components. Spatially relative terms should be understood as terms including different directions of components during use or operation in addition to the directions shown in the drawings. For example, if a component shown in a drawing is turned over, a component described as "below" or "beneath" of another component will be placed "above" the other component. I can. Accordingly, the exemplary term “below” may include both directions below and above. Components may be oriented in other directions, and thus spatially relative terms may be interpreted according to orientation.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which the embodiment belongs. Terms as defined in a commonly used dictionary should be interpreted as having a meaning consistent with the meaning in the context of the related technology, and should not be interpreted as an ideal or excessively formal meaning unless explicitly defined in this application. Does not.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.In addition, in the description with reference to the accompanying drawings, the same reference numerals are assigned to the same components regardless of the reference numerals, and redundant descriptions thereof will be omitted. In describing the embodiments, when it is determined that a detailed description of related known technologies may unnecessarily obscure the subject matter of the embodiments, the detailed description thereof will be omitted.

도 1은 일실시예에 따른 HMD 시스템의 구성의 예시도이다.1 is an exemplary diagram of a configuration of an HMD system according to an embodiment.

HMD 시스템(100)은 HMD 장치(110)와 스마트폰(120)을 포함할 수 있다. 스마트폰(120)은 HMD 장치(110)에 기기적·전기적으로 연결될 수 있다. HMD 장치(110)와 스마트폰(120)는 유무선으로 통신할 수 있다. 또한, HMD 장치(110) 및 스마트폰(120)은 유무선 통신을 통해 서버, 외부 환경 감지 센서, 신체 변화 감지 센서 등과 데이터를 주거나 받거나, 인터넷, 인트라넷 등에 연결될 수 있다. HMD 장치(110)는 스마트폰(120)과 연동하여, 착용자에게 증강현실 콘텐츠를 제공하는 HMD 시스템(100)을 구성할 수 있다.The HMD system 100 may include an HMD device 110 and a smartphone 120. The smartphone 120 may be mechanically and electrically connected to the HMD device 110. The HMD device 110 and the smartphone 120 may communicate via wired or wireless. In addition, the HMD device 110 and the smartphone 120 may transmit or receive data such as a server, an external environment detection sensor, a body change detection sensor, etc. through wired or wireless communication, or may be connected to the Internet or an intranet. The HMD device 110 may configure the HMD system 100 to provide augmented reality content to a wearer by interworking with the smartphone 120.

HMD 시스템(100)은 재활훈련에 이용될 수 있다. 구체적으로, 재활훈련 교구를 이용해 진행되는 재활훈련 시스템에 있어서, HMD 시스템(100)은 재활훈련에 임하는 환자들에게 증강현실 콘텐츠를 제공할 수 있다. 재활훈련 교구와 증강현실 콘텐츠가 결합됨으로써, 환자들은 혼합현실(mixed reality) 재활훈련을 제공받을 수 있다. 이를 통해, 환자들의 재활 몰입감이 증가하고 집중력이 향상되어, 재활훈련의 재미 및 치료 효과가 높아질 수 있다. 재활훈련 시스템을 이용하는 환자는 주로 뇌신경 환자일 수 있으나, 재활훈련이 필요한 환자이기만 하다면 환자의 증세·연령·성별·인종 등은 특별한 제한이 없다. HMD 시스템(100)을 포함하는 재활훈련 시스템의 구체적인 구성 및 동작은 도 6을 참조하여 후술된다.The HMD system 100 may be used for rehabilitation training. Specifically, in a rehabilitation training system conducted using a rehabilitation training tool, the HMD system 100 may provide augmented reality content to patients undergoing rehabilitation training. By combining the rehabilitation training tool and augmented reality content, patients can receive mixed reality rehabilitation training. Through this, the patient's immersion in rehabilitation increases and concentration is improved, so that the fun and therapeutic effect of rehabilitation training can be enhanced. Patients who use the rehabilitation training system may be mainly neurological patients, but as long as they are patients who need rehabilitation training, there are no special restrictions on the patient's symptoms, age, gender, and race. The specific configuration and operation of the rehabilitation training system including the HMD system 100 will be described later with reference to FIG. 6.

다시 HMD 시스템(100)의 구성을 살펴보면, 우선, HMD 장치(110)는 하프미러(111), 스마트폰 거치대(112), 및 HMD 카메라(113)를 포함할 수 있다.Looking back at the configuration of the HMD system 100, first, the HMD device 110 may include a half mirror 111, a smartphone cradle 112, and an HMD camera 113.

하프미러(111)는 곡면으로 구성되며, HMD 시스템(100) 착용 시 착용자의 양안을 가리는 형태를 가질 수 있다. 하프미러(111)는 서로 반대면 관계인 제 1 면과 제 2면을 포함할 수 있다. 하프미러(111)는 제 1 면으로 입사하는 빛을 투과하고, 제 2 면으로 입사하는 빛을 반사할 수 있다. 이를 위해, 하프미러(111)는 아크릴, PC(polycarbonate), 유리와 같은 투명 판에 알루미늄, 크롬, 니켈 등의 금속을 적합한 투과도(20~25% 등)로 코팅한 구성을 채용할 수 있다. 하프미러(111)는 HMD 시스템(100) 착용 시 제 1 면이 외부를 향하고, 제 2 면이 착용자를 향하도록 HMD 장치(110)에 체결될 수 있다. 하프미러(111)의 제 1 면으로 입사하는 빛은 투과되므로, HMD 시스템(100) 착용자는 외부에서 입사하는 빛을 볼 수 있다. 이를 통해, HMD 시스템(100) 착용자는 HMD 시스템(100)을 착용한 상태에서도 전방의 실제 모습을 볼 수 있다.The half mirror 111 has a curved surface and may have a shape that covers both eyes of the wearer when the HMD system 100 is worn. The half mirror 111 may include a first surface and a second surface that are opposite to each other. The half mirror 111 may transmit light incident on the first surface and reflect light incident on the second surface. To this end, the half mirror 111 may adopt a configuration in which a metal such as aluminum, chromium, or nickel is coated on a transparent plate such as acrylic, polycarbonate (PC), or glass with suitable transmittance (20-25%, etc.). When the HMD system 100 is worn, the half mirror 111 may be fastened to the HMD device 110 such that the first side faces the outside and the second side faces the wearer. Since light incident on the first surface of the half mirror 111 is transmitted, the wearer of the HMD system 100 can see the light incident from the outside. Through this, the wearer of the HMD system 100 can see the actual appearance of the front side even when wearing the HMD system 100.

스마트폰 거치대(112)는 스마트폰(120)을 거치할 수 있다. 스마트폰 거치대(112)는 다양한 규격의 스마트폰(120)을 거치할 수 있도록 탄성부재·결속부재·지지부재 등을 조합하여 구성될 수 있다. 또한, 스마트폰 거치대(112)는 스마트폰(120)과 HMD 장치(110)가 유선통신 가능하도록 하는 USB 포트 등을 포함할 수 있다.The smartphone holder 112 may mount the smartphone 120. The smartphone holder 112 may be configured by a combination of an elastic member, a binding member, a support member, and the like to mount the smartphone 120 of various standards. In addition, the smartphone cradle 112 may include a USB port or the like to enable wired communication between the smartphone 120 and the HMD device 110.

구체적으로, 스마트폰 거치대(112)는 스마트폰(120)의 디스플레이(121)가 하프미러(111)의 제 2 면을 향하도록 스마트폰(120)을 거치할 수 있다. 이를 통해, 스마트폰(120)의 디스플레이(121)에서 출력되는 빛은 HMD 장치(110)의 하프미러(111)의 제 2 면에 입사할 수 있다. 하프미러(111)의 제 2 면은 HMD 시스템(100) 착용 시 착용자를 향하며, 하프미러(111)의 제 2 면에 입사하는 빛은 반사되므로, HMD 시스템(100) 착용자는 스마트폰(120)의 디스플레이(121)에서 출력되는 빛(증강현실 레이어)을 볼 수 있다.Specifically, the smartphone holder 112 may mount the smartphone 120 such that the display 121 of the smartphone 120 faces the second surface of the half mirror 111. Through this, light output from the display 121 of the smartphone 120 may enter the second surface of the half mirror 111 of the HMD device 110. The second side of the half mirror 111 faces the wearer when the HMD system 100 is worn, and light incident on the second side of the half mirror 111 is reflected, so that the wearer of the HMD system 100 is the smartphone 120 You can see the light (augmented reality layer) output from the display 121 of.

HMD 카메라(113)는 하프미러(111)의 제 1 면 방향의 실제 이미지를 획득할 수 있는 자리에 위치할 수 있다. 예를 들어, HMD 시스템(100) 착용 시를 기준으로, HMD 카메라(113)는 하프미러(111)보다 윗쪽에 위치할 수 있다. 이 경우, HMD 카메라(113)는 착용자의 이마 위치 정도에 위치하게 된다.The HMD camera 113 may be positioned at a position where an actual image in the direction of the first surface of the half mirror 111 can be acquired. For example, when the HMD system 100 is worn, the HMD camera 113 may be positioned above the half mirror 111. In this case, the HMD camera 113 is positioned at the wearer's forehead position.

HMD 카메라(113)는 HMD 시스템(100) 착용자 전방의 이미지를 촬영할 수 있는 디지털 카메라 등일 수 있다. HMD 카메라(113)를 통해 촬영된 이미지는 스마트폰 거치대(112)에 거치된 스마트폰(120)으로 전송될 수 있다.The HMD camera 113 may be a digital camera capable of capturing an image in front of the wearer of the HMD system 100. The image captured through the HMD camera 113 may be transmitted to the smartphone 120 mounted on the smartphone cradle 112.

또한, HMD 장치(110)는 스피커, 머리착용부, 조정버튼 등을 포함할 수 있다. 스피커는 증강현실 콘텐츠에 대응하는 소리를 출력하거나, 재활훈련 단위 등에 대응하는 미리 프로그래밍된 소리를 출력할 수 있다. 머리착용부는 착용자가 HMD 시스템(100)을 착용할 수 있도록 탄성부재·고정부재 등을 조합한 끈·밴드·벨트형 구성일 수 있다.In addition, the HMD device 110 may include a speaker, a head wearing unit, and an adjustment button. The speaker may output a sound corresponding to an augmented reality content or a pre-programmed sound corresponding to a rehabilitation unit or the like. The head wearing unit may be a string-band-belt-type configuration in which an elastic member and a fixing member are combined so that the wearer can wear the HMD system 100.

조정버튼은 HMD 장치(110)에 대한 하프미러(111)의 상대적 각도를 기기적·전기적으로 조정할 수 있다. 이를 통해, 도 2 내지 5를 참조하여 설명하는 후술의 동작에도 불구하고 증강현실 콘텐츠들과 전방의 실제 모습 사이에 불일치·어긋남이 발생할 경우, HMD 시스템(100) 착용자는 불일치·어긋남 현상이 최소화되도록, 자신의 얼굴 특성에 맞추어 하프미러(111)의 위치를 미세 조정할 수 있다.The adjustment button may mechanically and electrically adjust the relative angle of the half mirror 111 with respect to the HMD device 110. Through this, in case a discrepancy or mismatch occurs between the augmented reality contents and the actual image in front despite the operation described below with reference to FIGS. 2 to 5, the wearer of the HMD system 100 minimizes the discrepancy and misalignment. , It is possible to finely adjust the position of the half mirror 111 according to the characteristics of the face.

스마트폰(120)은 HMD 장치(110)의 스마트폰 거치대(112)에 거치될 수 있다. 스마트폰(120)은 HMD 장치(110) 착용자가 사용하는 통상의 스마트폰일 수 있다. 스마트폰(120)은 통상의 컴퓨터가 가지는 연산 기능; 저장/참조 기능; 입출력 기능; 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 구체적으로, 스마트폰(120)은 디스플레이(121) 및 프로세서(122)를 포함할 수 있다. 디스플레이(121)는 증강현실 콘텐츠를 포함하는 증강현실 레이어를 출력할 수 있다. 프로세서(122)는 스마트폰(120)이 HMD 장치(110)와 유무선으로 통신하도록 기능할 수 있다.The smartphone 120 may be mounted on the smartphone cradle 112 of the HMD device 110. The smartphone 120 may be a general smartphone used by the wearer of the HMD device 110. The smart phone 120 has a calculation function of a typical computer; Save/reference function; Input/output function; And it may be configured to perform all or part of the control function. Specifically, the smartphone 120 may include a display 121 and a processor 122. The display 121 may output an augmented reality layer including augmented reality content. The processor 122 may function to allow the smartphone 120 to communicate with the HMD device 110 by wire or wirelessly.

스마트폰(120)에는 HMD 시스템(100)을 이용한 재활훈련 시스템 등을 제공·운영·관리하는 자 내지 단체가 개발 내지 배포한 어플리케이션이 설치될 수 있다. 어플리케이션은 스마트폰(120)의 기타 하드웨어·소프트웨어 구성들과 연동하여, 증강현실 콘텐츠를 제공하기 위한 일련의 동작을 수행하고, 증강현실 콘텐츠와 관련된 사용자의 피드백 데이터를 관리할 수 있다. 스마트폰(120)은 어플리케이션을 통해, 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망과 연결될 수 있다. 스마트폰(120)에 설치된 어플리케이션은 유무선 통신을 통해 실시간/비실시간으로 업데이트 가능하도록 구성될 수 있다.An application developed or distributed by a person or organization that provides, operates, and manages a rehabilitation training system using the HMD system 100 may be installed on the smartphone 120. The application may perform a series of operations for providing augmented reality content by interlocking with other hardware/software components of the smartphone 120 and manage user feedback data related to the augmented reality content. The smartphone 120 may be connected to at least one artificial neural network that performs an inference function through an application. The application installed on the smartphone 120 may be configured to be updated in real time/non-real time through wired or wireless communication.

도 2는 일실시예에 따른 HMD 시스템의 동작을 설명하기 위한 순서도이다.2 is a flow chart for explaining the operation of the HMD system according to an embodiment.

HMD 시스템(100)의 동작은 스마트폰(120)의 프로세서(122)의 동작을 중심으로 기술될 수 있다.The operation of the HMD system 100 may be described based on the operation of the processor 122 of the smartphone 120.

우선, 프로세서(122)는 HMD 카메라를 통해 촬영된 실제 이미지를 획득할 수 있다(210).First, the processor 122 may acquire an actual image captured through the HMD camera (210).

구체적으로, 스마트폰(120)의 프로세서(122)는 HMD 장치(110)의 HMD 카메라(113)를 통해 촬영한 HMD 시스템(100) 착용자 전방의 실제 이미지를 획득할 수 있다. HMD 카메라(113)는 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서, 착용자 전방의 이미지를 촬영할 수 있다. 이에 따라, 프로세서(122)가 획득하는 실제 이미지는, HMD 시스템(100) 착용자가 육안으로 보는 전방 모습과 일치하지 않을 수 있다.Specifically, the processor 122 of the smartphone 120 may acquire an actual image in front of the wearer of the HMD system 100 photographed through the HMD camera 113 of the HMD device 110. The HMD camera 113 may capture an image in front of the wearer at a position higher than the wearer's eye level, for example, about the wearer's forehead. Accordingly, the actual image acquired by the processor 122 may not match the front view seen by the wearer of the HMD system 100 with the naked eye.

다음으로, 프로세서(122)는 실제 이미지에서 적어도 하나의 일부 영역을 인식할 수 있다(220).Next, the processor 122 may recognize at least one partial region in the actual image (220).

프로세서(122)는 사물 인식 알고리즘 또는 태그(tag) 인식 알고리즘을 통해 미리 정의된 일부 영역들을 인식할 수 있다. 여기서, 태그들은 증강현실 콘텐츠와 관련성을 가지는 사물 내지 대상의 특징적인 지점(가장자리, 테두리, 중심점, 분할점, 꼭지점 등)에 자리할 수 있다. 가령, 증강현실 콘텐츠와 관련성을 가지는 사물 내지 대상이 정육면체라면, 태그들은 정육면체의 각 꼭지점에 자리할 수 있다. 프로세서(122)는 실제 이미지에서 태그들을 인식하고, 인식된 태그들을 기초로 가려지거나 보이지 않는 태그들의 위치를 추론하고, 인식된 태그들 및 추론된 태그들을 태그 그룹별로 분류하고, 각각의 태그 그룹을 각각의 일부 영역이라고 인식할 수 있다.The processor 122 may recognize some predefined areas through an object recognition algorithm or a tag recognition algorithm. Here, the tags may be located at characteristic points (edges, borders, center points, division points, vertices, etc.) of objects or objects having a relevance to the augmented reality content. For example, if an object or object having a relationship with the augmented reality content is a cube, tags may be placed at each vertex of the cube. The processor 122 recognizes tags in an actual image, infers positions of hidden or invisible tags based on the recognized tags, classifies the recognized tags and inferred tags by tag group, and classifies each tag group. Each can be recognized as a partial area.

나아가, 프로세서(122)는 실제 이미지 상에서 일부 영역이 차지하는 위치, 면적, 방향 등을 연산할 수 있다. 일부 영역이 차지하는 위치, 면적, 방향 등의 연산은 태그들을 기초로 수행될 수 있다.Furthermore, the processor 122 may calculate a location, area, direction, etc. occupied by a partial area on the actual image. The calculation of a location, area, direction, etc. occupied by some areas may be performed based on tags.

이를 위해, 각각의 태그는 동일한 면적을 가질 수 있다. 이를 통해, 프로세서(122)는 실제 이미지에서 상대적으로 작은 면적으로 인식되는 태그를 착용자로부터 상대적으로 멀리 위치한 태그로 연산하며, 실제 이미지에서 상대적으로 큰 면적으로 인식되는 태그를 착용자로부터 상대적으로 가까이 위치한 태그로 연산할 수 있다. 이를 통해, 프로세서(122)는 2차원 실제 이미지로부터 태그들의 3차원 위치를 연산할 수 있다.To this end, each tag may have the same area. Through this, the processor 122 calculates a tag that is recognized as a relatively small area in an actual image as a tag located relatively far from the wearer, and a tag that is recognized as a relatively large area in the actual image is a tag located relatively close to the wearer. Can be calculated with Through this, the processor 122 may calculate the 3D positions of the tags from the 2D actual image.

또한, 각각의 태그는 서로 다른 태그와 구별될 수 있다. 태그 그룹의 각각의 태그는 서로 다른 태그들과 구별되므로, 프로세서(122)는 태그 그룹을 형성하는 각각의 태그의 3차원적 위치를 기초로, 실제 이미지 상에서 태그 그룹이 차지하는 면적, 위치, 3차원적 방향, 배치 등을 연산할 수 있다. 프로세서(122)는 태그 그룹을 기초로 일부 영역을 인식하므로, 실제 이미지 상에서 태그 그룹이 차지하는 면적, 위치, 3차원적 방향, 배치 등을 기초로, 일부 영역이 차지하는 면적, 위치, 3차원적 방향, 배치 등을 획득할 수 있다.In addition, each tag can be distinguished from other tags. Since each tag in the tag group is distinguished from other tags, the processor 122 uses the area, location, and three-dimensional space occupied by the tag group on the actual image based on the three-dimensional position of each tag forming the tag group. You can calculate enemy direction, placement, etc. Since the processor 122 recognizes a partial area based on the tag group, the area occupied by a partial area, a location, and a three-dimensional direction based on the area, position, three-dimensional direction, and arrangement of the tag group on the actual image , Placement, etc. can be obtained.

각각의 일부 영역은 적어도 하나 이상의 증강현실 콘텐츠와 대응관계를 가질 수 있다. 일부 영역들은 미리 정의된 단위마다 미리 정의되어 있을 수 있다. 가령, HMD 시스템(100)이 재활훈련 시스템에 사용되는 경우, 일부 영역들은 재활훈련 단위들마다 미리 정의되어 있을 수 있다. 가령, 재활훈련 단위마다 사용되는 각각의 재활훈련 교구는, 증강현실 콘텐츠와 관련된 위치에, 프로세서(122)가 인식할 수 있는 태그(tag)들을 포함할 수 있다. 프로세서(122)는 미리 정의된 복수의 태그들로 구성되는 태그 그룹을 기초로, 일부 영역을 인식할 수 있다. 또한, 프로세서(122)는 실제 이미지 상에서 일부 영역이 차지하는 면적, 위치, 방향 등을 연산할 수 있다.Each partial area may have a corresponding relationship with at least one augmented reality content. Some areas may be predefined for each predefined unit. For example, when the HMD system 100 is used in a rehabilitation training system, some areas may be predefined for each rehabilitation training unit. For example, each rehabilitation training tool used for each rehabilitation training unit may include tags that can be recognized by the processor 122 at a location related to augmented reality content. The processor 122 may recognize a partial area based on a tag group consisting of a plurality of predefined tags. Also, the processor 122 may calculate an area, a location, a direction, etc. occupied by a partial area on the actual image.

이어서, 프로세서(122)는 각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성할 수 있다(230).Subsequently, the processor 122 may generate an augmented reality layer including each augmented reality content corresponding to each partial region (230).

이때, HMD 카메라(113)는 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서, 착용자 전방의 이미지를 촬영하게 된다. 이에 따라, 프로세서(122)가 HMD 카메라(113)를 통해 촬영된 실제 이미지 상의 일부 영역의 위치, 면적, 방향을 기초로 디스플레이(121)로 출력될 증강현실 콘텐츠의 위치, 면적, 방향을 결정할 경우, 출력되는 증강현실 콘텐츠들과 착용자가 양안으로 보는 전방의 실제 모습 사이에 위치, 면적, 방향의 불일치·어긋남이 발생할 수 있다. 가령, 증강현실로 표현된 물이 실제 종이컵 안에 들어있는 모습으로 출력되어야 하는데, 증강현실로 표현된 물이 실제 종이컵 주변에 둥둥 떠있는 모습으로 불일치되거나 어긋나게 출력될 수 있다. 이러한 문제를 방지하기 위해, 프로세서(122)는 HMD 카메라(113)가 촬영한 실제 이미지를 변환하고, 변환 이미지를 기초로 출력될 증강현실 콘텐츠의 위치, 면적, 방향을 결정할 필요가 있다.At this time, the HMD camera 113 captures an image in front of the wearer at a position higher than the wearer's eye level, for example, about the wearer's forehead. Accordingly, when the processor 122 determines the location, area, and direction of the augmented reality content to be output to the display 121 based on the location, area, and direction of a partial area on the actual image captured by the HMD camera 113 , Inconsistencies or deviations in location, area, and direction may occur between the output augmented reality contents and the actual image of the front viewed by the wearer with both eyes. For example, water expressed in augmented reality should be output as it is actually contained in a paper cup, but water expressed in augmented reality may be output inconsistent or out of alignment as it is floating around the actual paper cup. In order to prevent such a problem, the processor 122 needs to convert the actual image captured by the HMD camera 113 and determine the location, area, and direction of the augmented reality content to be output based on the converted image.

구체적으로, 프로세서(122)는 실제 이미지를 변환한 변환 이미지를 생성할 수 있다(231). 프로세서(122)가 변환 이미지를 생성하는 동작은 도 3 및 4를 참조하여 후술된다. 변환 이미지는 HMD 시스템(100) 착용자의 눈높이가 아닌 위치에서 촬영된 실제 이미지보다 착용자가 육안으로 바라보는 전방의 실제 모습과 가까울 수 있다.Specifically, the processor 122 may generate a converted image obtained by converting the actual image (231). The operation of generating the converted image by the processor 122 will be described later with reference to FIGS. 3 and 4. The transformed image may be closer to the actual image of the front viewed by the wearer with the naked eye than the actual image photographed at a position other than the wearer's eye level of the HMD system 100.

이어서, 프로세서(122)는 각각의 일부 영역 데이터 세트(data set)를 기초로, 각각의 증강현실 콘텐츠 데이터 세트를 결정할 수 있다(232). 데이터 세트는 객체(object)일수도 있고, 배열(array) 내지 리스트(list)일 수도 있고, 개별적인 변수들 및 함수들을 호칭할 수도 있다. 프로세서(122)는 변환 이미지 상의 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정할 수 있다.Subsequently, the processor 122 may determine each augmented reality content data set based on each partial region data set (232). The data set may be an object, an array or a list, and may refer to individual variables and functions. Processor 122 is based on each partial region data set (data set) including the position, area, and direction of each partial region on the converted image, each including the position, area, and direction of each augmented reality content Augmented reality content data set can be determined.

이어서, 프로세서(122)는 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 각각의 증강현실 콘텐츠를 생성하여 증강현실 레이어에 포함시킬 수 있다(233). 이를 위해, 스마트폰(120)은 일부 영역들에 대응하는 증강현실 콘텐츠들을 미리 데이터베이스화해 두거나, 일부 영역들에 대응하는 증강현실 콘텐츠들을 미리 데이터베이스화한 서버와 연동될 수 있다. 각각의 증강현실 콘텐츠는 대응관계를 가지는 일부 영역과 관련성을 가지는 콘텐츠일 수 있다. 가령, 일부 영역이 종이컵의 가장자리인 경우, 대응관계를 가지는 데이터베이스화된 증강현실 콘텐츠는 종이컵에 담긴 물 그래픽일 수 있다. 각각의 증강현실 콘텐츠는 위치, 면적, 방향, 배치 등에 대해 자유도를 가질 수 있다.Subsequently, the processor 122 may generate each augmented reality content based on each augmented reality content data set and include it in the augmented reality layer (233). To this end, the smartphone 120 may have previously converted augmented reality contents corresponding to some areas into a database, or interlocked with a server that has previously converted augmented reality contents corresponding to some areas into a database. Each augmented reality content may be a content having a relationship with a partial area having a corresponding relationship. For example, when a part of the area is the edge of a paper cup, the databaseized augmented reality content having a corresponding relationship may be a water graphic contained in the paper cup. Each augmented reality content may have a degree of freedom with respect to location, area, direction, and arrangement.

프로세서(122)는 변환 이미지 상의 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정할 수 있다. 이어서, 프로세서(122)는 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 각각의 증강현실 콘텐츠의 위치, 면적, 방향, 배치 등을 결정하여, 각각의 증강현실 콘텐츠를 생성할 수 있다. 이어서, 프로세서(122)는 생성한 증강현실 콘텐츠들을 하나의 증강현실 레이어에 포함시킬 수 있다.Processor 122 is based on each partial region data set (data set) including the position, area, and direction of each partial region on the converted image, each including the position, area, and direction of each augmented reality content Augmented reality content data set can be determined. Subsequently, the processor 122 may generate each augmented reality content by determining a location, area, direction, arrangement, etc. of each augmented reality content based on each augmented reality content data set. Subsequently, the processor 122 may include the generated augmented reality contents in one augmented reality layer.

이어지는 순서로, 프로세서(122)는 디스플레이(121)로 증강현실 레이어를 전송할 수 있다(240). 디스플레이(121)는 증강현실 레이어를 출력할 수 있다. 스마트폰(120)의 디스플레이(121)는 HMD 장치(110)의 하프미러(111)의 제 2 면을 향하도록 스마트폰 거치대(112)에 거치될 수 있다. 이를 통해, 스마트폰(120)의 디스플레이(121)에서 출력되는 증강현실 레이어는 HMD 장치(110)의 하프미러(111)의 제 2 면에 입사할 수 있다. 하프미러(111)의 제 2 면은 HMD 시스템(100) 착용 시 착용자를 향하며, 하프미러(111)의 제 2 면에 입사하는 빛은 반사되므로, HMD 시스템(100) 착용자는 스마트폰(120)의 디스플레이(121)에서 출력되는 증강현실 레이어 상의 증강현실 콘텐츠들을 볼 수 있다.In the following order, the processor 122 may transmit the augmented reality layer to the display 121 (240). The display 121 may output an augmented reality layer. The display 121 of the smartphone 120 may be mounted on the smartphone holder 112 to face the second surface of the half mirror 111 of the HMD device 110. Through this, the augmented reality layer output from the display 121 of the smartphone 120 may enter the second surface of the half mirror 111 of the HMD device 110. The second side of the half mirror 111 faces the wearer when the HMD system 100 is worn, and light incident on the second side of the half mirror 111 is reflected, so that the wearer of the HMD system 100 is the smartphone 120 You can view augmented reality contents on the augmented reality layer output from the display 121 of.

이상을 통해, HMD 시스템(100) 착용자는 HMD 시스템(100)이 출력하는 증강현실 레이어 상의 증강현실 콘텐츠들을 볼 수 있다. 한편, HMD 장치(110)의 하프미러(111)의 제 1 면으로 입사하는 빛은 투과되므로, HMD 시스템(100) 착용자는 증강현실 콘텐츠들과 더불어, 전방의 실제 모습도 볼 수 있다. 이를 통해, HMD 시스템(100) 착용자는 증강현실 콘텐츠들과 더불어, 전방의 실제 모습을 볼 수 있다. 특히, HMD 시스템(100)은 증강현실 콘텐츠들의 위치, 면적, 방향, 배치 등을, 착용자의 눈높이에 위치하지 않은 HMD 카메라(113)가 촬영한 실제 이미지를 기초로 결정하는 것이 아니라, HMD 카메라(113)가 촬영한 실제 이미지를 착용자가 육안으로 바라보는 전방의 실제 모습과 가깝도록 변환한 변환 이미지를 기초로 결정한다. 이를 통해, HMD 시스템(100)은 HMD 시스템(100) 착용자에게 증강현실 콘텐츠들과 전방의 실제 모습 사이에 불일치·어긋남이 적은 증강현실 레이어를 제공할 수 있다.Through the above, a wearer of the HMD system 100 can view augmented reality contents on the augmented reality layer output by the HMD system 100. On the other hand, since light incident on the first surface of the half mirror 111 of the HMD device 110 is transmitted, the wearer of the HMD system 100 can see the augmented reality contents as well as the actual image of the front. Through this, the wearer of the HMD system 100 can see an actual image in front of the augmented reality contents. In particular, the HMD system 100 does not determine the location, area, direction, and arrangement of augmented reality contents based on the actual image captured by the HMD camera 113 not located at the wearer's eye level, but the HMD camera ( 113) is determined on the basis of the converted image that is converted so that it is close to the actual image of the front viewed by the wearer with the naked eye. Through this, the HMD system 100 may provide an augmented reality layer with less inconsistency or misalignment between the augmented reality contents and the actual image in front to the wearer of the HMD system 100.

도 3은 일실시예에 따른 변환 이미지 생성 동작을 설명하기 위한 도면이다.3 is a diagram for describing an operation of generating a converted image according to an embodiment.

HMD 카메라(113)는 착용자의 눈높이보다 높은 위치, 가령, 착용자의 이마 정도 되는 위치에서, 착용자 전방의 이미지를 촬영하게 된다. 이에 따라, 프로세서(122)가 HMD 카메라(113)를 통해 촬영된 실제 이미지 상의 일부 영역의 위치, 면적, 방향을 기초로 디스플레이(121)로 출력될 증강현실 콘텐츠의 위치, 면적, 방향을 결정할 경우, 출력되는 증강현실 콘텐츠들과 착용자가 양안으로 보는 전방의 실제 모습 사이에 위치, 면적, 방향의 불일치·어긋남이 발생할 수 있다. 가령, 증강현실로 표현된 물이 실제 종이컵 안에 들어있는 모습으로 출력되어야 하는데, 증강현실로 표현된 물이 실제 종이컵 주변에 둥둥 떠있는 모습으로 불일치되거나 어긋나게 출력될 수 있다. 이러한 문제를 방지하기 위해, 프로세서(122)는 HMD 카메라(113)가 촬영한 실제 이미지를 변환하고, 변환 이미지를 기초로 출력될 증강현실 콘텐츠의 위치, 면적, 방향을 결정할 필요가 있다.The HMD camera 113 captures an image in front of the wearer at a position higher than the wearer's eye level, for example, about the wearer's forehead. Accordingly, when the processor 122 determines the location, area, and direction of the augmented reality content to be output to the display 121 based on the location, area, and direction of a partial area on the actual image captured by the HMD camera 113 , Inconsistencies or deviations in location, area, and direction may occur between the output augmented reality contents and the actual image of the front viewed by the wearer with both eyes. For example, water expressed in augmented reality should be output as it is actually contained in a paper cup, but water expressed in augmented reality may be output inconsistent or out of alignment as it is floating around the actual paper cup. In order to prevent such a problem, the processor 122 needs to convert the actual image captured by the HMD camera 113 and determine the location, area, and direction of the augmented reality content to be output based on the converted image.

프로세서(122)가 변환 이미지를 생성하는 동작은 다음의 동작들을 포함할 수 있다.The operation of generating the converted image by the processor 122 may include the following operations.

우선, 프로세서(122)는 실제 이미지(301)를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득할 수 있다. 실제 이미지는 곡면 캘리브레이션(calibration) 알고리즘 등을 통해 좌안 실제 이미지와 우안 실제 이미지로 각각 조정될 수 있다. 2차원으로 이루어진 실제 이미지를 이용하는 것보다, 좌안 실제 이미지와 우안 실제 이미지라는 두 개의 2차원 이미지를 복합적으로 이용할 경우, 프로세서(122)는 실제 이미지 상의 일부 영역들의 3차원적 속성·성질(원근감, 깊이, 채광, 그림자 등)을 보다 용이하게 연산할 수 있다.First, the processor 122 may acquire a left-eye real image and a right-eye real image based on the real image 301. The actual image can be adjusted to a real left-eye image and a real right-eye image, respectively, through a curved surface calibration algorithm. Rather than using a two-dimensional real image, when using two two-dimensional images, a real left-eye image and a real right-eye image in combination, the processor 122 determines the three-dimensional properties and properties of some areas on the real image (perspective, Depth, lighting, shadows, etc.) can be calculated more easily.

다음으로, 프로세서(122)는 좌안 실제 이미지 및 우안 실제 이미지에 대응하는 실제 이미지 텐서(tensor, 302)를 생성할 수 있다. 프로세서(122)는 좌안 실제 이미지 및 우안 실제 이미지의 각 픽셀 내지 질점의 정보를 추출하여, 좌안 실제 이미지 및 우안 실제 이미지의 각 픽셀 내지 질점의 정보를 원소(element)로 하는 실제 이미지 텐서(302)를 생성할 수 있다. 각 픽셀 내지 질점에 대응하는 정보는 각 픽셀 내지 질점의 수평 위치, 수직 위치, 깊이(depth), 색상, 명도, 채도, 휘도 등을 포함할 수 있다.Next, the processor 122 may generate a real image tensor 302 corresponding to the real left eye image and the real right eye image. The processor 122 extracts information on each pixel or mass of the real left-eye image and the real right-eye image, and uses the information of each pixel or mass of the real left-eye image and the real right-eye image as an element. Can be created. The information corresponding to each pixel or mass may include a horizontal position, a vertical position, a depth, color, brightness, saturation, and luminance of each pixel or mass.

이어서, 프로세서(122)는 실제 이미지 텐서(302)에 제 1 선형 변환(310)을 적용하여 제 1 변환 이미지 텐서(322)를 생성할 수 있다.Subsequently, the processor 122 may generate the first transformed image tensor 322 by applying the first linear transform 310 to the actual image tensor 302.

제 1 선형 변환(310)은 에러(error)가 미리 정의된 값 이하가 되도록하는 선형 변환일 수 있다. 에러는 좌안 기준 이미지 및 우안 기준 이미지에 대응하는 기준 이미지 텐서와, 기준 추정 이미지 텐서의 차의 노름(norm)을 기초로 정의될 수 있다. 기준 이미지 텐서는 좌안 기준 이미지와 우안 기준 이미지를 기초로 생성할 수 있다. 좌안 기준 이미지 및 우안 기준 이미지는 제 1 선형 변환을 구하는 단계에서 미리 설치된 좌안 기준 카메라 및 우안 기준 카메라를 통해 획득할 수 있다. 좌안 기준 카메라 및 우안 기준 카메라는 기준 착용자의 양안 위치에 설치될 수 있다. 기준 추정 이미지 텐서는 좌안 테스트 이미지와 우안 테스트 이미지를 기초로 생성한 테스트 이미지 텐서에 후보 선형 변환을 적용하여 생성할 수 있다. 좌안 테스트 이미지 및 우안 테스트 이미지는 제 1 선형 변환을 구하는 단계에서 HMD 카메라(113)를 통해 촬영된 테스트 이미지를 기초로 획득할 수 있다. 제 1 선형 변환을 구하는 동작은 도 5를 참조하여 후술된다.The first linear transformation 310 may be a linear transformation such that an error becomes less than or equal to a predefined value. The error may be defined based on a norm of a difference between the reference image tensor corresponding to the left-eye reference image and the right-eye reference image, and the reference estimated image tensor. A reference image tensor may be generated based on a left-eye reference image and a right-eye reference image. The left-eye reference image and the right-eye reference image may be acquired through a pre-installed left-eye reference camera and a right-eye reference camera in the step of obtaining the first linear transformation. The left-eye reference camera and the right-eye reference camera may be installed at both eyes of the reference wearer. The reference estimated image tensor may be generated by applying a candidate linear transformation to a test image tensor generated based on the left eye test image and the right eye test image. The left eye test image and the right eye test image may be acquired based on the test image captured by the HMD camera 113 in the step of obtaining the first linear transformation. The operation of obtaining the first linear transformation will be described later with reference to FIG. 5.

제 1 변환 이미지 텐서(322)는 실제 이미지 텐서(302)에 제 1 선형 변환(310)이 적용하여 생성될 수 있다. 제 1 변환 이미지 텐서(322)와 기준 이미지 텐서의 차의 노름은 미리 정의된 값 이하가 되므로, 제 1 변환 이미지 텐서(322)에 대응하는 변환 이미지(321)는 기준 이미지 텐서에 대응하는 기준 착용자의 양안 위치에 설치된 좌안 기준 카메라 및 우안 기준 카메라를 통해 획득한 좌안 기준 이미지 및 우안 기준 이미지와 미리 정의된 값 이하 수준의 일치도을 보일 수 있다.The first transformed image tensor 322 may be generated by applying the first linear transform 310 to the actual image tensor 302. Since the norm of the difference between the first converted image tensor 322 and the reference image tensor is less than or equal to a predefined value, the converted image 321 corresponding to the first converted image tensor 322 is a reference wearer corresponding to the reference image tensor. The left-eye reference image and the right-eye reference image acquired through the left-eye reference camera and the right-eye reference camera installed at both eyes of the may show a degree of correspondence equal to or less than a predefined value.

이어지는 순서로, 프로세서(122)는 제 1 변환 이미지 텐서(322)를 기초로, 변환 이미지(321)를 생성할 수 있다. 프로세서(122)가 텐서를 기초로 이미지를 생성하는 동작은, 이미지를 기초로 텐서를 생성하는 동작의 역동작을 통해 이루어질 수 있다. 즉, 프로세서(122)는 제 1 변환 이미지 텐서(322)의 각 원소를 기초로, 변환 이미지 상의 각 픽셀 내지 질점의 정보를 결정하는 방식으로 변환 이미지(321)를 생성할 수 있다.In the following order, the processor 122 may generate the converted image 321 based on the first converted image tensor 322. An operation in which the processor 122 generates an image based on the tensor may be performed through a reverse operation of the operation of generating a tensor based on the image. That is, the processor 122 may generate the transformed image 321 in a manner of determining information on each pixel or mass point on the transformed image based on each element of the first transformed image tensor 322.

이상을 통해, 프로세서(122)는 HMD 시스템(100) 착용자의 눈높이가 아닌 위치에서 촬영된 실제 이미지와 비교하여, 착용자가 육안으로 바라보는 전방의 실제 모습과 가까운 변환 이미지를 획득할 수 있다. 변환 이미지를 기초로 디스플레이(121)로 출력될 증강현실 콘텐츠들의 위치, 면적, 방향을 결정할 경우, 출력되는 증강현실 콘텐츠들과 착용자가 양안으로 보는 전방의 실제 모습 사이에 위치, 면적, 방향의 불일치·어긋남이 줄어들 수 있다. 가령, 증강현실로 표현된 물이 실제 종이컵 주변에 둥둥 떠있는 모습으로 불일치되거나 어긋나게 출력되는 경우가 방지될 수 있다. 이를 통해, HMD 시스템(100)은 착용자들의 불만족스러운 사용자 경험을 줄이는 한편, 증강현실 콘텐츠에 대한 집중도, 흥미를 높일 수 있다.Through the above, the processor 122 may compare the HMD system 100 with an actual image photographed at a position other than the wearer's eye level, and obtain a converted image close to the actual image of the front viewed by the wearer with the naked eye. When determining the location, area, and direction of the augmented reality contents to be output to the display 121 based on the converted image, the position, area, and direction are inconsistent between the output augmented reality contents and the actual image in front of the wearer viewed with both eyes · Mismatch can be reduced. For example, inconsistent or mismatched output of water expressed in augmented reality as floating around a paper cup can be prevented. Through this, the HMD system 100 can reduce unsatisfactory user experience of wearers, while increasing concentration and interest in augmented reality content.

도 4는 일실시예에 따른 코스트가 적용된 변환 이미지 생성 동작을 설명하기 위한 도면이다.4 is a diagram illustrating an operation of generating a converted image to which a cost is applied according to an exemplary embodiment.

프로세서(122)는 HMD 카메라(113)를 통해 촬영된 실제 이미지 전 범위를 기초로 변환 이미지를 생성하지 않고, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 범위들에 가중치를 부여한 후, 변환 이미지를 생성할 수 있다. 이를 통해, 프로세서(122)는 실제 이미지의 전 범위가 아닌, 일부 범위에 집중하여 변환을 수행하므로, 보다 실시간으로 변환 이미지를 생성하여, 버퍼링 없이 증강현실 콘텐츠들을 출력하거나, 실제 이미지에서 증강현실 콘텐츠와 관련된 부분들과 대응하는 불일치·어긋남을 집중적으로 최소함으로써, HMD 시스템(100) 착용자 전방의 실제 모습에서 증강현실 콘텐츠와 관련된 범위들의 불일치·어긋남을 보다 최소화할 수 있다.The processor 122 does not generate a converted image based on the entire range of the actual image captured through the HMD camera 113, and designates ranges related to augmented reality content from the actual image, or relates to augmented reality content from the actual image. After assigning weights to the ranges, a transformed image can be generated. Through this, the processor 122 performs the conversion by focusing on a partial range, not the entire range of the actual image, so that the converted image is generated in real time and outputs augmented reality contents without buffering, or augmented reality contents from the actual image By intensively minimizing the discrepancies and discrepancies corresponding to the parts related to the HMD system 100, discrepancy and discrepancy of ranges related to the augmented reality content in the actual appearance in front of the wearer of the HMD system 100 may be further minimized.

프로세서(122)가 코스트가 적용된 변환 이미지를 생성하는 동작은 다음의 동작들을 포함할 수 있다.The operation of the processor 122 generating the converted image to which the cost is applied may include the following operations.

우선, 프로세서(122)는 실제 이미지(401)를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득할 수 있다. 좌안 실제 이미지 및 우안 실제 이미지를 획득하는 동작은 도 3을 참조하여 설명한 동작과 동일할 수 있다. 한편, 도 3의 실시예와 비교하여, 실제 이미지(401)는 증강현실 콘텐츠들과 대응관계를 가지는 일부 영역들(430)을 포함할 수 있다. 예를 들어, 일부 영역들(430)은 종이컵들의 가장자리일 수 있다. 일부 영역들(430)과 대응하는 증강현실 콘텐츠는 종이컵에 담긴 물 그래픽일 수 있다.First, the processor 122 may acquire an actual left eye image and an actual right eye image based on the actual image 401. The operation of acquiring the real left eye image and the real right eye image may be the same as the operation described with reference to FIG. 3. Meanwhile, compared with the embodiment of FIG. 3, the actual image 401 may include some areas 430 having a corresponding relationship with the augmented reality contents. For example, some of the areas 430 may be edges of paper cups. The augmented reality content corresponding to some areas 430 may be water graphics contained in a paper cup.

다음으로, 프로세서(122)는 좌안 실제 이미지 및 상기 우안 실제 이미지에 대응하는 실제 이미지 텐서(302)를 생성할 수 있다. 실제 이미지 텐서(302)는 도 3을 참조하여 설명한 실제 이미지 텐서(302)과 동일할 수 있다.Next, the processor 122 may generate an actual left eye image and an actual image tensor 302 corresponding to the right eye actual image. The actual image tensor 302 may be the same as the actual image tensor 302 described with reference to FIG. 3.

이어서, 프로세서(122)는 실제 이미지 텐서(302)에서 각각의 일부 영역에 대응하는 원소들에 코스트(cost, 431)를 적용하여, 코스트를 적용한 실제 이미지 텐서(402)를 획득할 수 있다. 코스트(431)는 실제 이미지에서 증강현실 콘텐츠와 관련되는 일부 영역들을 지정하거나, 실제 이미지에서 증강현실 콘텐츠와 관련되는 일부 영역들에 가중치를 부여하는 방식으로 적용될 수 있다.Subsequently, the processor 122 may obtain the actual image tensor 402 to which the cost is applied by applying a cost 431 to elements corresponding to each partial region in the actual image tensor 302. The cost 431 may be applied by designating some areas related to augmented reality content in an actual image, or applying weights to some areas related to augmented reality content in an actual image.

코스트(431)가 실제 이미지에서 증강현실 콘텐츠와 관련되는 일부 영역들을 지정하는 방식일 경우, 코스트(431)는 실제 이미지 텐서(302)에서 일부 영역에 대응하는 원소들은 그대로 두고, 일부 영역에 대응하지 않는 원소들은 0으로 만들 수 있다.When the cost 431 is a method of designating some areas related to augmented reality content in the actual image, the cost 431 leaves the elements corresponding to some areas in the actual image tensor 302 and does not correspond to some areas. Unless elements can be made to zero.

코스트(431)가 증강현실 콘텐츠와 관련되는 일부 영역들에 가중치를 부여하는 방식일 경우, 코스트(431)는 실제 이미지 텐서(302)에서 일부 영역에 대응하는 원소들의 값은 가중치를 곱하고, 일부 영역에 대응하지 않는 원소들은 그대로 둘 수 있다. 실제 이미지 텐서(302)에서 일부 영역에 대응하는 원소들에 곱해지는 코스트(431)의 가중치는 HMD 시스템(100)과 일부 영역의 각각의 태그의 거리를 기초로 한 가우시안 분포(Gaussian distribution)가 될 수 있다. 즉, 실제 이미지 텐서(302)에서 HMD 시스템(100)과 상대적으로 가까운 태그의 중심부에 위치하는 픽셀 내지 질점과 대응하는 원소일수록, 코스트(431)의 가중치는 클 수 있다. 반면, 해당 태그의 주변부에 위치하는 픽셀 내지 질점과 대응하는 원소이거나, 해당 태그보다 HMD 시스템(100)으로부터 멀리 떨어진 태그의 픽셀 내지 질점과 대응하는 원소일수록, 코스트(431)의 가중치는 줄어들 수 있다.When the cost 431 is a method of assigning weights to some areas related to augmented reality content, the cost 431 is the actual image tensor 302 multiplying the values of elements corresponding to some areas by the weights, and Elements that do not correspond to can be left alone. In the actual image tensor 302, the weight of the cost 431 multiplied by the elements corresponding to a partial region will be a Gaussian distribution based on the distance between the HMD system 100 and each tag of the partial region. I can. That is, the weight of the cost 431 may be larger as an element corresponding to a pixel or a material point located at the center of the tag relatively close to the HMD system 100 in the actual image tensor 302 is. On the other hand, the weight of the cost 431 may decrease as an element corresponding to a pixel or a material point located at the periphery of the tag, or an element corresponding to a pixel or a material point of a tag farther from the HMD system 100 than the corresponding tag. .

이어지는 순서로, 프로세서(122)는 코스트(431)를 기초로, 제 1 선형 변환(310)을 제 2 선형 변환(410)으로 변환할 수 있다. 제 2 선형 변환(410)은 제 1 선형 변환(310)에, 실제 이미지 텐서(302)에 코스트(431)가 적용된 효과를 보정한 선형 변환일 수 있다. 제 1 선형 변환(310)은 에러가 미리 정의된 값 이하가 되도록하는 선형 변환이므로, 제 2 선형 변환(410)은 코스트가 적용된 기준 이미지 텐서와 코스트가 적용된 실제 이미지 텐서(402)의 노름(norm)의 차를 기초로 구한 에러가 미리 정의된 값 이하가 되도록하는 선형 변환의 추정일 수 있다.In the following order, the processor 122 may convert the first linear transform 310 into the second linear transform 410 based on the cost 431. The second linear transformation 410 may be a linear transformation obtained by correcting an effect of applying the cost 431 to the first linear transformation 310 and the actual image tensor 302. Since the first linear transformation 310 is a linear transformation such that the error is less than or equal to a predefined value, the second linear transformation 410 is the norm of the reference image tensor to which the cost is applied and the actual image tensor 402 to which the cost is applied. It may be an estimation of a linear transformation such that the error obtained based on the difference of) becomes less than or equal to a predefined value.

다음으로, 프로세서(122)는 코스트가 적용된 실제 이미지 텐서(402)에 제 2 선형 변환(410)을 적용하여 제 2 변환 이미지 텐서(422)를 생성할 수 있다. 제 2 변환 이미지 텐서(422)와 코스트가 적용된 기준 이미지 텐서의 노름의 차를 기초로 구한 에러는 미리 정의된 값 이하가 될 것으로 기대할 수 있다.Next, the processor 122 may generate the second transformed image tensor 422 by applying the second linear transform 410 to the actual image tensor 402 to which the cost is applied. The error obtained based on the difference between the second transformed image tensor 422 and the norm of the reference image tensor to which the cost is applied may be expected to be less than or equal to a predefined value.

이어서, 프로세서(122)는 제 2 변환 이미지 텐서(422)를 기초로, 변환 이미지(421)를 생성할 수 있다. 변환 이미지를 생성하는 동작은 도 3을 참조하여 설명한 동작과 동일할 수 있다. 코스트(431)에 대응하는 일부 영역들(430)에 대하여, 제 2 변환 이미지 텐서(422)에 대응하는 변환 이미지(421)는, 제 1 변환 이미지 텐서(322)에 대응하는 변환 이미지(321)과 비교하여, 증강현실 콘텐츠들과 HMD 시스템(100) 착용자의 전방의 실제 모습의 불일치·어긋남이 보다 최소화될 수 있다.Subsequently, the processor 122 may generate a transformed image 421 based on the second transformed image tensor 422. The operation of generating the converted image may be the same as the operation described with reference to FIG. 3. For some regions 430 corresponding to the cost 431, the converted image 421 corresponding to the second converted image tensor 422 is a converted image 321 corresponding to the first converted image tensor 322 Compared with, inconsistencies or deviations between augmented reality contents and an actual appearance of the wearer of the HMD system 100 may be further minimized.

이상을 통해, 프로세서(122)는 도 3을 참조하여 설명된 동작을 통해 생성한 변환 이미지와 비교하여, 실제 이미지의 전 범위가 아닌, 일부 범위에 집중하여 변환을 수행하므로, 보다 실시간으로 변환 이미지를 생성하여, 버퍼링 없이 증강현실 콘텐츠들을 출력하거나, 실제 이미지에서 증강현실 콘텐츠와 관련된 부분들과 대응하는 불일치·어긋남을 집중적으로 최소함으로써, HMD 시스템(100) 착용자 전방의 실제 모습에서 증강현실 콘텐츠와 관련된 범위들의 불일치·어긋남을 보다 최소화할 수 있다. 이를 통해, HMD 시스템(100)은 버퍼링 발생 등으로 인한 착용자들의 어지럼증, 멀미, 불쾌감 등을 줄이는 한편, 복잡한 증강현실 콘텐츠도 자연스럽게 표현할 수 있다.Through the above, the processor 122 compares the converted image generated through the operation described with reference to FIG. 3 and performs the conversion by focusing on a partial range rather than the entire range of the actual image. By generating and outputting augmented reality contents without buffering, or by intensively minimizing inconsistencies and misalignments corresponding to parts related to augmented reality contents in the actual image, the augmented reality contents and the augmented reality contents in the real image in front of the wearer of the HMD system 100 Inconsistency and misalignment of related ranges can be further minimized. Through this, the HMD system 100 can reduce dizziness, motion sickness, discomfort, and the like of wearers due to buffering occurrence, etc., while also naturally expressing complex augmented reality content.

또한, 일부 영역들이 미리 정의된 단위마다 미리 정의되어 있는 경우, 가령, HMD 시스템(100)이 재활훈련 시스템에 사용되어, 일부 영역들이 재활훈련 단위들마다 미리 정의되어 있는 경우, 프로세서(122)는 각각의 미리 정의된 단위에 대응하는 일부 영역들에 대응하는 코스트를 실제 이미지 텐서(302)와 제 1 선형 변환(310)에 적용하는 것만으로, 제 2 변환 이미지 텐서(422)에 대응하는 변환 이미지(421)를 생성할 수 있다. 이를 통해, 코스트가 적용된 실제 이미지 텐서마다 에러를 미리 정의된 값 이하로 되게 하는 선형 변환을 일일이 구하는 경우보다 효율적으로 시스템을 운영할 수 있다. 가령, 프로세서(122)가 도 4의 동작을 따른다면, 어느 미리 정의된 단위의 일부 영역에 수정이 생기면, 일부 영역의 수정에 대응하여 코스트를 수정하고, 수정된 코스트를 실제 이미지 텐서(302)와 제 1 선형 변환(310)에 적용하여, 제 2 변환 이미지 텐서(422)에 대응하는 변환 이미지(421)를 생성할 수 있다. 이는, 수정된 코스트가 적용된 실제 이미지 텐서와 수정된 코스트가 적용된 기준 이미지 텐서 사이의 에러를 미리 정의된 값 이하로 되게 하는 선형 변환을 매번 새로 구하는 경우보다 효율적이다.In addition, when some areas are predefined for each predefined unit, for example, when the HMD system 100 is used in the rehabilitation training system and some areas are predefined for each rehabilitation training unit, the processor 122 Converted images corresponding to the second transformed image tensor 422 by simply applying the cost corresponding to the partial regions corresponding to each predefined unit to the actual image tensor 302 and the first linear transform 310 (421) can be created. Through this, it is possible to operate the system more efficiently than the case of individually obtaining a linear transformation that causes the error to fall below a predefined value for each actual image tensor to which the cost is applied. For example, if the processor 122 follows the operation of FIG. 4, when a correction occurs in a partial region of a predefined unit, the cost is corrected in response to the correction of the partial region, and the corrected cost is converted into the actual image tensor 302. And the first linear transform 310, a transformed image 421 corresponding to the second transformed image tensor 422 may be generated. This is more efficient than the case of newly obtaining a linear transformation that causes the error between the actual image tensor to which the corrected cost is applied and the reference image tensor to which the corrected cost is applied to be less than or equal to a predefined value.

한편, 실제 이미지에서 일부 영역이 움직여서, 코스트(431)가 움직이도록 설계되어 있는 경우가 있을 수 있다. 가령, 실제 이미지가 종이컵 두 개가 있는 모습이고, 일부 영역이 종이컵의 가장자리일 때, HMD 시스템(100) 착용자가 종이컵을 움직이면, 실제 이미지 상에서 일부 영역이 움직일 수 있다. 선행 제 1 시점과 후행 제 2 시점이 있다면, 제 1 시점에, 프로세서(122)는 일부 영역의 움직임을 기초로, 제 2 시점의 일부 영역의 위치, 면적, 방향 등을 생성하고; 예상 일부 영역을 기초로, 예상 코스트를 생성하고; 예상 코스트를 기초로, 예상 제 2 선형 변환을 생성하고; 예상 코스트 및 예상 제 2 선형 변환을 캐시화할 수 있다. 제 2 시점에, 일부 영역이 예상된 움직임과 미리 정의된 오차 범위 내로 움직였다고 판별된 경우, 프로세서(122)는 예상 코소트를 그대로 이용하거나, 예상 코스트를 기초로 코스트를 생성하고; 예상 제 2 선형 변환을 그대로 이용하거나, 예상 제 2 선형 변환들을 기초로 제 2 선형 변환을 생성하여; 실제 이미지 텐서, 제 2 변환 이미지 텐서, 변환 이미지 등을 더욱 빨리 생성할 수 있다. 이를 통해, 증강현실 콘텐츠와 관련되는 일부 영역이 움직이는 상황이더라도, HMD 시스템(100)은 버퍼링 발생 등으로 인한 착용자들의 어지럼증, 멀미, 불쾌감 등을 줄이는 한편, 움직이는 증강현실 콘텐츠도 자연스럽게 표현할 수 있다.On the other hand, there may be a case in which the coast 431 is designed to move due to the movement of some areas in the actual image. For example, when the actual image shows two paper cups, and a part of the area is the edge of the paper cup, when the wearer of the HMD system 100 moves the paper cup, the part of the area may move on the actual image. If there is a preceding first viewpoint and a following second viewpoint, at the first viewpoint, the processor 122 generates a location, area, direction, etc. of the partial region of the second viewpoint based on the movement of the partial region; Generate an expected cost based on the expected partial area; Based on the expected cost, generate an expected second linear transform; The expected cost and the expected second linear transform can be cached. At the second time point, if it is determined that the partial region has moved within the predicted motion and the predefined error range, the processor 122 uses the predicted cosort as it is or generates a cost based on the predicted cost; Using the expected second linear transform as it is, or generating a second linear transform based on the expected second linear transforms; An actual image tensor, a second transformed image tensor, and a transformed image can be generated more quickly. Through this, even in a situation in which some areas related to augmented reality content are moving, the HMD system 100 can reduce dizziness, motion sickness, and discomfort of wearers due to buffering, etc., while also expressing moving augmented reality content naturally.

도 5는 일실시예에 따른 제 1 선형 변환 생성 동작을 설명하기 위한 도면이다.5 is a diagram illustrating an operation of generating a first linear transform according to an embodiment.

제 1 선형 변환(310)을 구하는 단계에서, HMD 시스템(100)에는 착용 시 기준 착용자의 양안 위치에 좌안 기준 카메라(501) 및 우안 기준 카메라(502)가 설치될 수 있다. 기준 착용자의 성별, 연령, 인종, 미간 거리 등의 정보는 미리 데이터베이스화될 수 있다.In the step of obtaining the first linear transformation 310, the HMD system 100 may be equipped with a left-eye reference camera 501 and a right-eye reference camera 502 at both eyes of a reference wearer when worn. Information such as gender, age, race, and glabellar distance of the reference wearer may be previously databased.

제 1 선형 변환(310)은 좌안 기준 카메라(501) 및 우안 기준 카메라(502)를 통해 촬영된 이미지와, HMD 카메라(113)를 통해 촬영된 이미지가 최대한 일치하도록 변환하는 동작을 기초로 생성될 수 있다. 좌안 기준 카메라(501); 우안 기준 카메라(502); 및 HMD 카메라(113)는 동일한 태그(500)를 촬영하는 상황을 상정할 수 있다.The first linear transformation 310 will be generated based on an operation of converting an image photographed through the left-eye reference camera 501 and the right-eye reference camera 502 and an image photographed through the HMD camera 113 to match as much as possible. I can. A left-eye reference camera 501; Right eye reference camera 502; And, the HMD camera 113 may assume a situation in which the same tag 500 is photographed.

우선, HMD 시스템(100)은 좌안 기준 카메라(501) 및 상기 우안 기준 카메라(502)를 통해 촬영된 좌안 기준 이미지(531) 및 우안 기준 이미지(532)를 획득할 수 있다. 좌안 기준 이미지(531) 및 우안 기준 이미지(532)는 HMD 시스템(100) 착용 시 기준 착용자가 보는 전방의 실제 모습과 대응할 수 있다.First, the HMD system 100 may acquire a left-eye reference camera 501 and a left-eye reference image 531 and a right-eye reference image 532 photographed through the right-eye reference camera 502. The left-eye reference image 531 and the right-eye reference image 532 may correspond to an actual front view of the reference wearer when wearing the HMD system 100.

다음으로, HMD 시스템(100)은 좌안 기준 이미지(531) 및 우안 기준 이미지(532)에 대응하는 기준 이미지 텐서를 생성할 수 있다. 이미지로부터 텐서를 생성하는 동작은 도 3 및 4를 참조하여 설명된 동작과 일치할 수 있다.Next, the HMD system 100 may generate a reference image tensor corresponding to the left-eye reference image 531 and the right-eye reference image 532. The operation of generating a tensor from an image may be consistent with the operation described with reference to FIGS. 3 and 4.

이어서, HMD 시스템(100)은 HMD 카메라(113)를 통해 촬영된 테스트 이미지(510)를 획득할 수 있다. HMD 시스템(100)은 테스트 이미지(510)를 기초로, 좌안 테스트 이미지(521)와 우안 테스트 이미지(522)를 획득할 수 있다. 좌안 테스트 이미지(521)와 우안 테스트 이미지(522)를 획득하는 동작은 도 3 및 4를 참조하여 설명된 좌안 실제 이미지와 우안 실제 이미지를 획득하는 동작과 일치할 수 있다.Subsequently, the HMD system 100 may acquire a test image 510 photographed through the HMD camera 113. The HMD system 100 may acquire a left eye test image 521 and a right eye test image 522 based on the test image 510. The operation of acquiring the left eye test image 521 and the right eye test image 522 may be consistent with the operation of acquiring the actual left eye image and the actual right eye image described with reference to FIGS. 3 and 4.

이어지는 순서로, HMD 시스템(100)은 기준 추정 이미지 텐서를 생성할 수 있다. 이를 위해, HMD 시스템(100)은 좌안 테스트 이미지(521) 및 우안 테스트 이미지(522)에 대응하는 테스트 이미지 텐서를 생성할 수 있다. 이어서, HMD 시스템(100)은 테스트 이미지 텐서에 후보 선형 변환을 적용하여, 기준 추정 이미지 텐서를 생성할 수 있다.In the following order, the HMD system 100 may generate a reference estimated image tensor. To this end, the HMD system 100 may generate a test image tensor corresponding to the left eye test image 521 and the right eye test image 522. Subsequently, the HMD system 100 may generate a reference estimated image tensor by applying a candidate linear transformation to the test image tensor.

다음으로, HMD 시스템(100)은 기준 이미지 텐서와, 기준 추정 이미지 텐서의 차의 노름(norm)을 기초로, 에러를 정의할 수 있다. 노름(norm)은 유클리드 노름(Euclidean norm), p-노름(p-norm), 최대값 노름(maximum norm) 등이 채용될 수 있다. 에러는 노름을 그대로 이용할 수도 있고, 노름에서 불필요한 정보를 제거(미리 정의된 소수점 이하의 자리를 절삭 등)하여 정의될 수도 있다.Next, the HMD system 100 may define an error based on a norm of a difference between the reference image tensor and the reference estimated image tensor. As the norm, Euclidean norm, p-norm, maximum norm, or the like may be employed. The error may be defined by using the norm as it is or by removing unnecessary information from the norm (cutting the digits after a predefined decimal point, etc.).

이어서, HMD 시스템(100)은 에러가 미리 정의된 값 이하가 되도록하는 후보 선형 변환을 제 1 선형 변환(310)으로 정의할 수 있다. 에러가 미리 정의된 값 이하가 되도록하는 후보 선형 변환은 연립방정식, 다차원 회기 분석(multiple regression analysis), 기계학습(machine learning), 이터레이션(iteration) 및 이들의 조합으로 이루어진 알고리즘 등을 통해 도출될 수 있다. 미리 정의된 값은 테스트 이미지 텐서와 기준 이미지 텐서의 차의 노름을 기초로 정의된 이니셜 에러(initial error)의 비(比)로 정의될 수 있다. 가령, 미리 정의된 값은 이니셜 에러에 p(0<p<1)를 곱한 값일 수 있다. p는 가령, 1/10 또는 1/20일 수 있다.Subsequently, the HMD system 100 may define a candidate linear transform that causes the error to be less than or equal to a predefined value as the first linear transform 310. Candidate linear transformations that cause errors to fall below a predefined value can be derived through algorithms consisting of a system of equations, multiple regression analysis, machine learning, iteration, and combinations thereof. I can. The predefined value may be defined as a ratio of an initial error defined based on a norm of a difference between a test image tensor and a reference image tensor. For example, the predefined value may be a value obtained by multiplying the initial error by p (0<p<1). p can be, for example, 1/10 or 1/20.

이상을 통해, HMD 시스템(100)은 HMD 카메라(113)를 통해 촬영된 이미지에 대응하는 텐서가 기준 이미지 텐서와 미리 정의된 값 이하로 일치되도록 하는 제 1 선형 변환(310)을 획득할 수 있다. 착용자의 눈높이가 아닌 위치에서 HMD 카메라(113)를 통해 촬영된 이미지의 텐서에 제 1 선형 변환(310)을 적용하고, 제 1 선형 변환(310)이 적용된 텐서를 기초로 변환 이미지를 생성하면, 변환 이미지는 기준 착용자의 눈높이에서 보는 전방의 실제 모습과 최대한 일치될 수 있다. 이를 통해, HMD 시스템(100)은 증강현실 콘텐츠가 출력될 위치·면적·방향과 기준 착용자 전방의 실제 모습 사이의 불일치·어긋남을 최소화할 수 있다.Through the above, the HMD system 100 may obtain the first linear transformation 310 such that the tensor corresponding to the image photographed through the HMD camera 113 matches the reference image tensor to a predetermined value or less. . When the first linear transform 310 is applied to the tensor of the image captured through the HMD camera 113 at a position other than the wearer's eye level, and a transformed image is generated based on the tensor to which the first linear transform 310 is applied, The transformed image can be matched as much as possible with the actual image of the front viewed from the reference wearer's eye level. Through this, the HMD system 100 can minimize discrepancies or misalignments between the location, area, and direction in which the augmented reality content is to be output and the actual image in front of the reference wearer.

한편, 실제 이미지의 전 범위가 아닌, 일부 범위에 집중하여 변환 이미지를 생성하고자 할 경우, 실제 이미지 텐서에 코스트(431)가 적용될 수 있다. 이 경우, 코스트(431)가 적용된 실제 이미지 텐서에 적용될 제 2 선형 변환(410)은 제 1 선형 변환(310)을 기초로 생성될 수 있다. 따라서, 동일한 전방의 실제 모습에 대해 서로 다른 코스트를 적용하고자 할 경우, 가령, 증강현실 콘텐츠에 대응하는 일부 영역이 움직이거나 움직일 수 있는 경우, 각각의 코스트가 적용된 상황에 대한 선형 변환을 구하기 위해, 좌안 기준 카메라(501) 및 우안 기준 카메라(502)를 설치하여 도 5를 참조하여 설명된 동작을 통해 선형 변환을 매 경우마다 구할 필요 없이, 코스트가 적용되지 않은 선형 변환을 기초로, 코스트가 적용된 선형 변환을 구할 수 있으므로, 효율적인 시스템 운영·업데이트 및 높은 응용성을 도모할 수 있다.Meanwhile, when a converted image is to be generated by focusing on a partial range rather than the entire range of the actual image, the cost 431 may be applied to the actual image tensor. In this case, the second linear transform 410 to be applied to the actual image tensor to which the cost 431 is applied may be generated based on the first linear transform 310. Therefore, if you want to apply different costs to the actual image of the same front, for example, if some areas corresponding to augmented reality content move or can move, in order to obtain a linear transformation for the situation where each cost is applied, By installing the left-eye reference camera 501 and the right-eye reference camera 502, there is no need to obtain a linear transformation in each case through the operation described with reference to FIG. 5, and the cost is applied based on the linear transformation in which the cost is not applied. Since linear transformation can be obtained, efficient system operation and update, and high applicability can be achieved.

나아가, HMD 시스템(100)은 착용자별 특성 변수를 이용하여, 제 1 선형 변환(310)을 조정할 수 있다. 이를 위해, HMD 시스템(100)은 착용자의 성별, 연령, 인종, 미간 거리 등의 정보를 획득할 수 있다. 이어서, HMD 시스템(100)은 착용자의 성별, 연령, 인종, 미간 거리 등의 정보와; 기준 착용자의 성별, 연령, 인종, 미간 거리 등의 정보를 기초로, 제 1 선형 변환(310)을 조정할 수 있다.Furthermore, the HMD system 100 may adjust the first linear transformation 310 using a wearer-specific characteristic variable. To this end, the HMD system 100 may obtain information such as the wearer's gender, age, race, and glabellar distance. Subsequently, the HMD system 100 includes information such as gender, age, race, and glabellar distance of the wearer; The first linear transformation 310 may be adjusted based on information such as gender, age, race, and glabellar distance of the reference wearer.

구체적으로, HMD 시스템(100)은 착용자의 성별이 기준 착용자의 성별과 불일치할수록, 에러―기준 이미지 텐서와 기준 추정 이미지 텐서의 노름(norm)의 차를 기초로 정의됨―의 증가 경향을 확인할 수 있다. 이어서, HMD 시스템(100)은 에러의 증가 경향을 상쇄하는 방향으로 제 1 선형 변환(310)을 조정할 수 있다. 예를 들어, 성별의 불일치에 의해, 기준 추정 이미지 텐서에서 미리 정의된 수준 이상으로 변화를 보이는 원소들을 획득하고, 해당 원소들의 변화를 상쇄할 수 있도록 제 1 선형 변환(310)이 조정될 수 있다. 나아가, HMD 시스템(100)은 착용자의 연령, 인종, 미간 거리 등에 대해서도 동일한 동작을 수행하여 제 1 선형 변환(310)을 조정할 수 있다.Specifically, the HMD system 100 can check the increasing tendency of the error-defined based on the difference between the norm of the reference image tensor and the reference estimated image tensor, as the wearer's gender is inconsistent with the reference wearer's gender. have. Subsequently, the HMD system 100 may adjust the first linear transform 310 in a direction that cancels the increasing tendency of the error. For example, the first linear transformation 310 may be adjusted so as to obtain elements that change beyond a predefined level in the reference estimated image tensor due to gender discrepancy, and compensate for changes in the corresponding elements. Furthermore, the HMD system 100 may adjust the first linear transformation 310 by performing the same operation on the wearer's age, race, and glabellar distance.

HMD 시스템(100)은 착용자별 제 1 선형 변환(310) 조정 정도를 미리 데이터베이스화해 두거나, 착용자별 제 1 선형 변환(310) 조정 정도를 미리 데이터베이스화한 서버와 연동될 수 있다. 이를 통해, HMD 시스템(100)은 착용자의 성별, 연령, 인종, 미간 거리 등이 기준 착용자와 다르더라도, 착용자에 맞게 제 1 선형 변환(310)을 조정하여 사용할 수 있다.The HMD system 100 may pre-database the adjustment degree of the first linear transformation 310 for each wearer, or may be linked with a server that has previously converted the adjustment degree of the first linear transformation 310 for each wearer into a database. Through this, the HMD system 100 may adjust and use the first linear transformation 310 according to the wearer, even if the wearer's gender, age, race, and glabellar distance are different from the reference wearer.

도 6은 일실시예에 따른 재활훈련 시스템을 설명하기 위한 도면이다.6 is a view for explaining a rehabilitation training system according to an embodiment.

재활훈련 시스템은 HMD 시스템(100); 서버(600); 및 재활훈련 단위들(610, 620, 630)을 포함할 수 있다. HMD 시스템(100) 착용자(재활훈련 환자)는 HMD 시스템(100)을 착용한 상태에서 하나의 재활훈련 단위를 이용하여 재활훈련을 진행할 수 있다. HMD 시스템(100)은 증강현실 콘텐츠를 제공할 수 있다. 재활훈련 단위들(610, 620, 630)은 재활훈련 교구들(611, 621, 631)을 포함할 수 있다. 이를 통해, 재활훈련 시스템은 실물 재활훈련 교구들(611, 621, 631)과 증강현실 콘텐츠를 함께 제공할 수 있다. 이를 통해, 재활훈련 환자들은 실물과 증강현실이 결합된 혼합현실(mixed reality) 재활훈련을 제공받을 수 있다. 이를 통해, 환자들의 재활 몰입감이 증가하고 집중력이 향상되어, 재활훈련의 재미 및 치료 효과가 높아질 수 있다. 재활훈련 시스템을 이용하는 환자는 주로 뇌신경 환자일 수 있으나, 재활훈련이 필요한 환자이기만 하다면 환자의 증세·연령·성별·인종 등은 특별한 제한이 없다.The rehabilitation training system includes an HMD system 100; Server 600; And it may include rehabilitation training units (610, 620, 630). The HMD system 100 wearer (rehabilitation patient) may perform rehabilitation training using one rehabilitation training unit while wearing the HMD system 100. The HMD system 100 may provide augmented reality content. The rehabilitation training units 610, 620, 630 may include rehabilitation training tools 611, 621, 631. Through this, the rehabilitation training system may provide real rehabilitation training tools 611, 621, 631 and augmented reality content together. Through this, rehabilitation patients can be provided with mixed reality rehabilitation training in which real objects and augmented reality are combined. Through this, the patient's immersion in rehabilitation increases and concentration is improved, so that the fun and therapeutic effect of rehabilitation training can be enhanced. Patients who use the rehabilitation training system may be mainly neurological patients, but as long as they are patients who need rehabilitation training, there are no special restrictions on the patient's symptoms, age, gender, and race.

HMD 시스템(100)은 도 1 내지 5를 참조하여 설명된 구성들을 포함하고, 도 1 내지 5를 참조하여 설명된 동작들을 수행할 수 있다. HMD 시스템(100)은 재활훈련에 임하는 환자들에게 증강현실 콘텐츠를 제공할 수 있다. 구체적으로, 재활훈련 단위들(610, 620, 630)은 증강현실 콘텐츠와 대응하는 일부영역들(613, 623, 633)을 포함할 수 있다. HMD 시스템(100)은, HMD 카메라(113)를 통해 촬영된 실제 이미지(612, 622, 632)를 획득하고; 실제 이미지에서 적어도 하나의 일부 영역(613, 623, 633)을 인식하고; 각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고; 디스플레이(121)로 증강현실 레이어를 전송할 수 있다.The HMD system 100 includes the components described with reference to FIGS. 1 to 5 and may perform the operations described with reference to FIGS. 1 to 5. The HMD system 100 may provide augmented reality content to patients undergoing rehabilitation training. Specifically, the rehabilitation training units 610, 620, and 630 may include partial areas 613, 623, and 633 corresponding to augmented reality content. The HMD system 100 acquires the actual images 612, 622, 632 taken through the HMD camera 113; Recognize at least one partial area 613, 623, 633 in the actual image; Generating an augmented reality layer including each augmented reality content corresponding to each partial area; The augmented reality layer may be transmitted to the display 121.

이 과정에서, 증강현실 레이어의 생성은, 실제 이미지를 변환한 변환 이미지를 생성하고; 변환 이미지 상의 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고; 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 각각의 증강현실 콘텐츠를 생성하여 증강현실 레이어에 포함시키는 동작을 포함하여 이루어질 수 있다. 이를 통해, 출력되는 증강현실 콘텐츠의 위치, 면적, 방향은 변환 이미지를 기초로 결정될 수 있다. 이때, 변환 이미지는 에러―기준 이미지 텐서와 기준 추정 이미지 텐서의 노름(norm)의 차를 기초로 정의됨―가 미리 정의된 값 이하가 되도록하는 제 1 선형 변환(310)을 실제 이미지에 적용하여 생성될 수 있다. 따라서, 출력되는 증강현실 콘텐츠들과, 착용자가 양안으로 보는 전방의 실제 모습은, 위치·면적·방향의 불일치·어긋남이 최소화될 수 있다.In this process, the generation of the augmented reality layer generates a converted image obtained by converting the actual image; Each augmented reality content data including the location, area, and direction of each augmented reality content on the basis of each partial area data set including the location, area, and direction of each partial area on the converted image Determine the set; Based on each augmented reality content data set, each augmented reality content may be generated and included in an augmented reality layer. Through this, the location, area, and direction of the output augmented reality content may be determined based on the converted image. At this time, the transformed image is applied to the actual image by applying the first linear transform 310 such that the error-defined based on the difference between the norm of the reference image tensor and the reference estimated image tensor, is equal to or less than a predefined value. Can be created. Accordingly, the augmented reality contents that are output and the actual image of the front that the wearer sees with both eyes can minimize the discrepancy and misalignment of the location, area, and direction.

서버(600)는 재활훈련 시스템을 제공하는 자 또는 단체가 보유한 자체 서버일 수도 있고; 클라우드 서버일 수도 있고; 분산된 노드(node)들의 p2p(peer-to-peer) 집합일 수도 있다. 서버(600)는 통상의 컴퓨터가 가지는 연산 기능; 저장/참조 기능; 입출력 기능; 및 제어 기능을 전부 또는 일부 수행하도록 구성될 수 있다. 서버(600)는 추론 기능을 수행하는 적어도 하나 이상의 인공 신경망을 구비할 수 있다. 서버(600)는 HMD 시스템(100)과 유무선으로 통신하도록 구성될 수 있다.The server 600 may be its own server owned by a person or organization providing a rehabilitation training system; May be a cloud server; It may be a peer-to-peer (p2p) set of distributed nodes. The server 600 includes arithmetic functions of an ordinary computer; Save/reference function; Input/output function; And it may be configured to perform all or part of the control function. The server 600 may include at least one artificial neural network that performs an inference function. The server 600 may be configured to communicate with the HMD system 100 over wired or wirelessly.

서버(600)는 HMD 시스템(100) 착용자가 각각의 미리 정의된 재활훈련 단위(610, 620, 630)마다 미리 정의된 움직임들을 수행하는 동안, 착용자(재활훈련 환자)의 움직임을 기록할 수 있다. 서버(600)는 기록된 움직임들을 기초로, 재활훈련 환자들의 성취도를 평가하고; 평가를 기초로, 재활훈련 환자의 재활훈련 프로그램을 스케줄링할 수 있다.The server 600 may record the movement of the wearer (rehabilitation patient) while the wearer of the HMD system 100 performs predefined movements for each of the predefined rehabilitation units 610, 620, and 630. . The server 600 evaluates the achievement of rehabilitation patients based on the recorded movements; Based on the evaluation, a rehabilitation program for rehabilitation patients can be scheduled.

재활훈련 단위들(610, 620, 630)은 재활훈련 프로그램에 맞추어 구성될 수 있다. 각각의 재활훈련 단위(610, 620, 630)는 미리 정의된 움직임들과 대응 관계를 가지는 미리 정의된 일부 영역들을(613, 623, 633)을 포함할 수 있다. 각각의 미리 정의된 일부 영역(613, 623, 633)은 적어도 하나 이상의 증강현실 콘텐츠와 미리 정의된 대응 관계를 가질 수 있다. 실시예에서는 세 개의 재활훈련 단위들을 열거했지만, 재활훈련 단위들의 수는 특별한 제한이 없다.The rehabilitation training units 610, 620, and 630 may be configured according to a rehabilitation training program. Each of the rehabilitation training units 610, 620, and 630 may include some predefined areas 613, 623, and 633 having a correspondence relationship with predefined movements. Each of the predefined partial areas 613, 623, and 633 may have a predefined correspondence relationship with at least one augmented reality content. In the embodiment, three rehabilitation training units are listed, but the number of rehabilitation units is not particularly limited.

재활훈련 단위마다 미리 정의된 움직임은 하나의 전체운동(gross motion) 또는 하나의 미세운동(fine motion)을 연습하기 위한 움직임일 수 있다. 또는, 미리 정의된 움직임은 복합적 전체운동, 복합적 미세운동, 전체운동과 미세운동의 연동 등을 연습하기 위한 움직임일 수 있다.The predefined movement for each rehabilitation unit may be a movement for practicing one gross motion or one fine motion. Alternatively, the predefined movement may be a movement for practicing a complex overall movement, a complex fine movement, and a linkage between the overall movement and the fine movement.

각각의 재활훈련 단위(610, 620, 630)는 재활훈련 교구들(611, 621, 631)을 포함할 수 있다. 재활훈련 교구들(611, 621, 631)은 하나의 전체운동; 하나의 미세운동; 복합적 전체운동; 복합적 미세운동; 또는 전체운동과 미세운동의 연동 등을 연습하기 위한 교구일 수 있다. 가령, 제 1 재활훈련 단위(610)의 제 1 교구(611)는 위로 솟아있는 철봉에 빨래집게들을 꼽는 교구일 수 있고; 제 2 재활훈련 단위(620)의 제 2 교구(621)는 구멍들이 있는 나무판에 블록들을 끼우는 교구일 수 있고; 제 3 재활훈련 단위(630)의 제 3 교구(631)는 종이컵 두 개로 물 따르는 연습을 하는 교구일 수 있다.Each of the rehabilitation training units 610, 620, and 630 may include rehabilitation training tools 611, 621, and 631. Rehabilitation training parishes (611, 621, 631) are one whole exercise; One micro-motion; Complex total movement; Complex micromotor; Alternatively, it may be a teaching tool for practicing the linkage of the overall movement and the micro movement. For example, the first parish 611 of the first rehabilitation unit 610 may be a parish in which clothespins are inserted into an iron bar rising upward; The second parish 621 of the second rehabilitation unit 620 may be a parish that inserts blocks into a wooden board with holes; The third parish 631 of the third rehabilitation training unit 630 may be a parish for practicing water pouring with two paper cups.

재활훈련 교구들(611, 621, 631)은 증강현실 콘텐츠와 대응하는 일부영역들(613, 623, 633)을 포함할 수 있고, 일부영역들(613, 623, 633)은 미리 정의된 움직임과 대응관계를 가질 수 있다. 가령, 제 1 교구(611)의 증강현실 콘텐츠는 철봉의 임의의 부분에서 연기가 나오는 그래픽이고, 증강현실 콘텐츠와 대응하는 일부 영역(613)은 철봉 부분이고, 미리 정의된 움직임은 빨래집게로 철봉에서 연기가 나오는 부분을 집는 움직임일 수 있고; 제 2 교구(621)의 증강현실 콘텐츠는 나무판에 꽂힌 블록에서 꽃이 피는 그래픽이고, 증강현실 콘텐츠와 대응하는 일부 영역(613)은 나무판이고, 미리 정의된 움직임은 나무판의 구멍에 블록을 끼우는 움직임일 수 있고; 제 3 교구(631)의 증강현실 콘텐츠는 종이컵에 담긴 물 그래픽이고, 증강현실 콘텐츠와 대응하는 일부 영역(613)은 종이컵들의 가장자리이고, 미리 정의된 움직임은 한 쪽 종이컵에서 다른 쪽 종이컵으로 물을 따르는 움직임일 수 있다.The rehabilitation training tools 611, 621, 631 may include some areas 613, 623, 633 corresponding to augmented reality content, and some areas 613, 623, and 633 may include predefined movements and You can have a correspondence relationship. For example, the augmented reality content of the first parish 611 is a graphic in which smoke is emitted from an arbitrary part of the iron bar, a partial area 613 corresponding to the augmented reality content is an iron bar, and the predefined movement is an iron bar with a clothespin. It may be a movement to pick up the part where the smoke comes from; The augmented reality content of the second parish 621 is a graphic blooming from a block inserted into a wooden board, a partial area 613 corresponding to the augmented reality content is a wooden board, and a predefined movement is a block in the hole of the wooden board. May be a movement to fit; The augmented reality content of the third parish (631) is water graphics contained in a paper cup, and some areas 613 corresponding to the augmented reality content are the edges of the paper cups, and a predefined movement draws water from one paper cup to the other. It can be a follow movement.

재활훈련 시스템이 수행하는 동작들은 다음을 포함할 수 있다.The operations performed by the rehabilitation training system may include the following.

먼저, HMD 시스템(100) 착용자(재활훈련 환자)가 하나의 재활훈련 단위를 이용하여 재활훈련을 진행하는 상황을 상정할 수 있다. 가령, HMD 시스템(100) 착용자는 제 1 재활훈련 단위(610)를 이용하여 재활훈련을 진행할 수 있다. 재활훈련 환자는 HMD 시스템(100)을 착용한 상태에서 제 1 재활훈련 단위(610)의 제 1 교구(611)를 활용하여 미리 정의된 움직임을 수행하려고 움직일 수 있다.First, a situation in which the wearer (rehabilitation patient) of the HMD system 100 performs rehabilitation training using one rehabilitation unit may be assumed. For example, a wearer of the HMD system 100 may perform rehabilitation training using the first rehabilitation training unit 610. The rehabilitation training patient may move to perform a predefined movement using the first parish 611 of the first rehabilitation unit 610 while wearing the HMD system 100.

서버(600)는 HMD 시스템(100) 착용자가 제 1 재활훈련 단위(610)의 미리 정의된 움직임들을 수행하는 동안, 착용자의 움직임을 기록할 수 있다. 미리 정의된 움직임은 빨래집게로 철봉에서 연기가 나오는 부분을 집는 움직임일 수 있다. 서버(600)는 HMD 시스템(100) 착용자의 기록된 움직임들이 미리 정의된 움직임과 부합하는 정도에 따라, 재활훈련 환자의 재활훈련 성취도를 평가하고; 평가를 기초로, 재활훈련 환자의 재활훈련 프로그램을 심화·변경·유지·약화시킬 수 있다.The server 600 may record the movement of the wearer while the wearer of the HMD system 100 performs predefined movements of the first rehabilitation training unit 610. The predefined movement may be a movement of picking up a part where smoke comes out of an iron bar with a clothespin. The server 600 evaluates the rehabilitation training achievement of the rehabilitation patient according to the degree to which the recorded movements of the HMD system 100 correspond to the predefined movements; Based on the evaluation, it is possible to deepen, change, maintain, and weaken the rehabilitation program of rehabilitation patients.

제 1 재활훈련 단위(610)는 제 1 교구(611)를 포함할 수 있다. 제 1 교구(611)는 위로 솟아있는 철봉에 빨래집게들을 꼽는 교구일 수 있다. 제 1 재활훈련 단위(610)는 미리 정의된 움직임들과 대응 관계를 가지는 미리 정의된 일부 영역들(613)을 포함할 수 있다. 제 1 재활훈련 단위(610)의 미리 정의된 움직임은 빨래집게로 철봉에서 연기가 나오는 부분을 집는 움직임일 수 있다. 제 1 재활훈련 단위(610)의 일부 영역(613)은 철봉 부분일 수 있다. 제 1 재활훈련 단위(610)의 일부 영역(613)은 적어도 하나 이상의 증강현실 콘텐츠와 미리 정의된 대응 관계를 가질 수 있다. 일부 영역(613)과 대응하는 증강현실 콘텐츠는 철봉의 임의의 부분에서 연기가 나오는 그래픽일 수 있다.The first rehabilitation unit 610 may include a first parish 611. The first parish 611 may be a parish in which clothespins are inserted into an iron bar rising above. The first rehabilitation training unit 610 may include some predefined areas 613 having a correspondence relationship with predefined movements. The predefined movement of the first rehabilitation unit 610 may be a movement of picking up a part of the iron bar where smoke is emitted with a clothespin. The partial area 613 of the first rehabilitation training unit 610 may be an iron bar. A partial region 613 of the first rehabilitation unit 610 may have a predefined correspondence relationship with at least one augmented reality content. The augmented reality content corresponding to the partial area 613 may be a graphic in which smoke is emitted from an arbitrary part of the iron bar.

HMD 시스템(100)은 HMD 카메라(113)를 통해 촬영된 제 1 교구(611)를 포함하는 실제 이미지(612)를 획득하고; 실제 이미지에서 적어도 하나의 일부 영역(613)을 인식하고; 각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고; 디스플레이(121)로 증강현실 레이어를 전송할 수 있다. 증강현실 콘텐츠는 철봉의 임의의 부분에서 연기가 나오는 그래픽일 수 있다.The HMD system 100 acquires an actual image 612 including the first parish 611 taken through the HMD camera 113; Recognize at least one partial area 613 in the actual image; Generating an augmented reality layer including each augmented reality content corresponding to each partial area; The augmented reality layer may be transmitted to the display 121. The augmented reality content may be a graphic in which smoke is emitted from an arbitrary part of the iron bar.

이 과정에서, 증강현실 레이어의 생성은, 실제 이미지를 변환한 변환 이미지를 생성하고; 변환 이미지 상의 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고; 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 각각의 증강현실 콘텐츠를 생성하여 증강현실 레이어에 포함시키는 동작을 포함하여 이루어질 수 있다. 이를 통해, 출력되는 증강현실 콘텐츠의 위치, 면적, 방향은 변환 이미지를 기초로 결정될 수 있다. 이때, 변환 이미지는 HMD 시스템(100) 착용자의 눈높이가 아닌 위치에서 촬영된 실제 이미지와 비교하여, 착용자가 육안으로 바라보는 전방의 실제 모습과 가까울 수 있다. 따라서, 출력되는 증강현실 콘텐츠들과, 착용자가 양안으로 보는 전방의 실제 모습은, 위치·면적·방향의 불일치·어긋남이 최소화될 수 있다. 가령, 철봉에서 연기가 나오는 증강현실 콘텐츠가, 철봉이 아닌 지역에서 피어오르기 시작하든지, 빨래집게를 집어야 할 위치가 아닌 위치에서 피어오르기 시작하는 불일치 내지 어긋남을 방지할 수 있다.In this process, the generation of the augmented reality layer generates a converted image obtained by converting the actual image; Each augmented reality content data including the location, area, and direction of each augmented reality content on the basis of each partial area data set including the location, area, and direction of each partial area on the converted image Determine the set; Based on each augmented reality content data set, each augmented reality content may be generated and included in an augmented reality layer. Through this, the location, area, and direction of the output augmented reality content may be determined based on the converted image. In this case, the converted image may be close to the actual image of the front viewed by the wearer with the naked eye as compared with an actual image photographed at a position other than the wearer's eye level of the HMD system 100. Accordingly, the augmented reality contents that are output and the actual image of the front that the wearer sees with both eyes can minimize the discrepancy and misalignment of the location, area, and direction. For example, it is possible to prevent inconsistencies or discrepancies in which augmented reality content that smokes from an iron bar starts to rise in an area other than the iron bar, or starts to rise in a location other than where the clothespin should be picked up.

이상을 통해, 실시예는 기존의 증강현실 재활훈련 프로그램처럼 허공에서 동작을 하는 것이 아니라, 실물 교구와 연동한 재활 동작으로 이루어질 수 있다. 이를 통해, 실시예는 증강현실 콘텐츠와 더불어, 실물 교구를 활용한 혼합현실(mixed reality) 재활훈련 시스템을 제공할 수 있다. 혼합현실 재활훈련 시스템은 전체운동(gross motion)뿐만 아니라 손가락의 운동 같은 미세운동(fine motion)까지 재활 프로그램에 포함시킬 수 있으며, 만성 환자뿐만 아니라 중증 환자 및 경증 환자도 재활훈련 플랫폼을 통한 재활 효과를 볼 수 있다. 나아가, 증강현실 및 실물 교구와 연동된 재활을 통해, 환자는 재활을 하는 동안의 감각과 실제 생활에서의 감각을 일치시킬 수 있으며, 재활 훈련 시 환자의 집중력도 향상될 수 있다.Through the above, the embodiment may be made of a rehabilitation motion linked with a real teaching aid, rather than performing an operation in the air like the existing augmented reality rehabilitation training program. Through this, the embodiment may provide a mixed reality rehabilitation training system using real teaching tools in addition to augmented reality content. The mixed reality rehabilitation training system can include not only gross motion but also fine motion such as finger movements in the rehabilitation program, and rehabilitation effects not only for chronic patients but also for severely ill and mild patients through the rehabilitation training platform. Can be seen. Further, through rehabilitation linked with augmented reality and real teaching aids, the patient can match the sensations during rehabilitation with the sensations in real life, and the patient's concentration during rehabilitation training can be improved.

도 7은 일실시예에 따른 장치의 구성의 예시도이다.7 is an exemplary diagram of a configuration of an apparatus according to an embodiment.

일실시예에 따른 장치(701)는 프로세서(702) 및 메모리(703)를 포함한다. 프로세서(702)는 도 1 내지 도 6을 참조하여 전술된 적어도 하나의 장치들을 포함하거나, 도 1 내지 도 6을 참조하여 전술된 적어도 하나의 방법을 수행할 수 있다. 구체적으로, 장치(701)는 HMD 장치(110), 스마트폰(120), 서버(600), 인공 신경망 학습 장치 등일 수 있다.The device 701 according to an embodiment includes a processor 702 and a memory 703. The processor 702 may include at least one of the devices described above with reference to FIGS. 1 to 6, or may perform at least one method described above with reference to FIGS. 1 to 6. Specifically, the device 701 may be an HMD device 110, a smartphone 120, a server 600, an artificial neural network learning device, or the like.

메모리(703)는 전술된 방법들과 관련된 정보를 저장하거나 후술되는 방법들이 구현된 프로그램을 저장할 수 있다. 메모리(703)는 휘발성 메모리 또는 비휘발성 메모리일 수 있다.The memory 703 may store information related to the above-described methods or a program in which methods described below are implemented. The memory 703 may be a volatile memory or a nonvolatile memory.

프로세서(702)는 프로그램을 실행하고, 장치(701)를 제어할 수 있다. 프로세서(702)에 의하여 실행되는 프로그램의 코드는 메모리(703)에 저장될 수 있다. 장치(701)는 입출력 장치(도면 미 표시)를 통하여 외부 장치(예를 들어, 퍼스널 컴퓨터 또는 네트워크)에 연결되고, 유무선 통신을 통해 데이터를 교환할 수 있다.The processor 702 can execute a program and control the device 701. The code of a program executed by the processor 702 may be stored in the memory 703. The device 701 is connected to an external device (eg, a personal computer or a network) through an input/output device (not shown), and may exchange data through wired or wireless communication.

장치(701)는 인공 신경망을 학습시키거나, 학습된 인공 신경망을 이용하는데 사용될 수 있다. 메모리(703)는 학습 중인 또는 학습된 인공 신경망을 포함할 수 있다. 프로세서(702)는 메모리(703)에 저장된 인공 신경망 알고리즘을 학습시키거나 실행시킬 수 있다. 인공 신경망을 학습시키는 장치(701)와 학습된 인공 신경망을 이용하는 장치(701)는 동일할 수도 있고 개별적일 수도 있다.The device 701 may be used to train an artificial neural network or use the learned artificial neural network. The memory 703 may include a learning artificial neural network or a learned artificial neural network. The processor 702 may train or execute an artificial neural network algorithm stored in the memory 703. The apparatus 701 for training the artificial neural network and the apparatus 701 using the learned artificial neural network may be the same or may be separate.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented as a hardware component, a software component, and/or a combination of a hardware component and a software component. For example, the devices, methods, and components described in the embodiments include, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate (FPGA). array), programmable logic unit (PLU), microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The program instructions recorded on the medium may be specially designed and configured for the embodiment, or may be known and usable to those skilled in computer software. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical media such as CD-ROMs and DVDs, and magnetic media such as floptical disks. -A hardware device specially configured to store and execute program instructions such as magneto-optical media, and ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine language codes such as those produced by a compiler but also high-level language codes that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules to perform the operation of the embodiment, and vice versa.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. , Or may be permanently or temporarily embodyed in a transmitted signal wave. The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited drawings, various technical modifications and variations can be applied based on those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments and claims and equivalents fall within the scope of the following claims.

Claims (5)

HMD 장치 및 스마트폰을 포함하는 HMD 시스템에 있어서,
상기 HMD 장치는,
제 1 면으로 입사하는 빛을 투과하고, 제 2 면으로 입사하는 빛을 반사하는 하프미러(half-mirror);
스마트폰의 디스플레이가 상기 제 2 면을 향하도록 스마트폰을 거치하는 스마트폰 거치대; 및
상기 제 1 면 방향의 실제 이미지를 획득하는 HMD 카메라
를 포함하고,
상기 스마트폰은,
상기 스마트폰 거치대에 거치되며,
증강현실 콘텐츠를 출력하는 디스플레이; 및
상기 HMD 장치와 유무선으로 통신하는 프로세서
를 포함하고,
상기 프로세서는,
상기 HMD 카메라를 통해 촬영된 실제 이미지를 획득하고,
상기 실제 이미지에서 적어도 하나의 일부 영역을 인식하고,
각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고,
상기 디스플레이로 상기 증강현실 레이어를 전송하며,
상기 증강현실 레이어의 생성은,
상기 실제 이미지를 변환한 변환 이미지를 생성하고,
상기 변환 이미지 상의 상기 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 상기 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고,
상기 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 상기 각각의 증강현실 콘텐츠를 생성하여 상기 증강현실 레이어에 포함시키는
동작을 포함하여 이루어지고,
상기 변환 이미지의 생성은,
상기 실제 이미지를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득하고,
상기 좌안 실제 이미지 및 상기 우안 실제 이미지에 대응하는 실제 이미지 텐서(tensor)에 제 1 선형 변환을 적용하여 제 1 변환 이미지 텐서를 생성하고,
상기 제 1 변환 이미지 텐서를 기초로, 상기 변환 이미지를 생성하는
동작을 포함하여 이루어지는,
HMD 시스템.


In an HMD system including an HMD device and a smartphone,
The HMD device,
A half-mirror that transmits light incident on the first surface and reflects light incident on the second surface;
A smart phone cradle for mounting the smart phone so that the display of the smart phone faces the second surface; And
HMD camera that acquires an actual image in the direction of the first surface
Including,
The smartphone,
It is mounted on the smartphone cradle,
A display for outputting augmented reality content; And
Processor for wired or wireless communication with the HMD device
Including,
The processor,
Acquire an actual image taken through the HMD camera,
Recognize at least one partial area in the actual image,
Creating an augmented reality layer including each augmented reality content corresponding to each partial area,
Transmitting the augmented reality layer to the display,
Generation of the augmented reality layer,
Generate a converted image by converting the actual image,
On the basis of each partial region data set including the position, area, and direction of each of the partial regions on the converted image, each augmentation including the position, area, and direction of each of the augmented reality contents Determine the real content data set,
Based on the respective augmented reality content data sets, generating each of the augmented reality content and including it in the augmented reality layer
Including motion,
Generation of the converted image,
On the basis of the real image, the real image of the left eye and the real image of the right eye are acquired,
A first transformed image tensor is generated by applying a first linear transform to the real image tensor corresponding to the real image of the left eye and the real image of the right eye,
Generating the converted image based on the first converted image tensor
Consisting of actions,
HMD system.


삭제delete 제 1항에 있어서,
상기 변환 이미지의 생성은,
상기 실제 이미지 텐서(tensor)에서 상기 각각의 일부 영역에 대응하는 원소들에 코스트(cost, 가중치)를 적용하고,
상기 코스트를 기초로, 상기 제 1 선형 변환을 제 2 선형 변환으로 변환하고,
코스트가 적용된 실제 이미지 텐서에 상기 제 2 선형 변환을 적용하여 제 2 변환 이미지 텐서를 생성하고,
상기 제 2 변환 이미지 텐서를 기초로, 상기 변환 이미지를 생성하는
동작을 포함하여 이루어지는,
HMD 시스템.
The method of claim 1,
Generation of the converted image,
Applying a cost (weight) to elements corresponding to each of the partial regions in the actual image tensor,
Based on the cost, converting the first linear transform into a second linear transform,
Applying the second linear transformation to the actual image tensor to which the cost is applied to generate a second transformed image tensor,
Based on the second transformed image tensor, generating the transformed image
Consisting of actions,
HMD system.
제 1항에 있어서,
상기 제 1 선형 변환은,
상기 HMD 시스템 착용 시 기준 착용자의 양안 위치에 좌안 기준 카메라 및 우안 기준 카메라를 설치하고,
상기 좌안 기준 카메라 및 상기 우안 기준 카메라를 통해 촬영된 좌안 기준 이미지 및 우안 기준 이미지를 획득하고,
상기 HMD 카메라를 통해 촬영된 테스트 이미지를 획득하고,
상기 테스트 이미지를 기초로, 좌안 테스트 이미지와 우안 테스트 이미지를 획득하고,
상기 좌안 테스트 이미지 및 상기 우안 테스트 이미지에 대응하는 테스트 이미지 텐서에 후보 선형 변환을 적용하여 기준 추정 이미지 텐서를 생성하고,
상기 좌안 기준 이미지 및 상기 우안 기준 이미지에 대응하는 기준 이미지 텐서와, 상기 기준 추정 이미지 텐서의 차의 노름(norm)을 기초로, 에러를 정의하고,
상기 에러가 미리 정의된 값 이하가 되도록하는 후보 선형 변환을 제 1 선형 변환으로 정의하는
동작을 포함하여 획득하는,
HMD 시스템.
The method of claim 1,
The first linear transformation is,
When wearing the HMD system, a left-eye reference camera and a right-eye reference camera are installed at both eyes of the reference wearer,
Acquire a left-eye reference image and a right-eye reference image taken through the left-eye reference camera and the right-eye reference camera,
Acquiring a test image taken through the HMD camera,
Based on the test image, a left eye test image and a right eye test image are obtained,
Applying a candidate linear transformation to a test image tensor corresponding to the left eye test image and the right eye test image to generate a reference estimated image tensor,
An error is defined based on a norm of a difference between the left-eye reference image and a reference image tensor corresponding to the right-eye reference image, and the reference estimated image tensor,
Defining a candidate linear transformation that causes the error to be less than or equal to a predefined value as a first linear transformation
Obtained by including actions,
HMD system.
HMD 시스템을 포함하는 재활훈련 시스템은 HMD 시스템, 서버, 및 미리 정의된 재활훈련 단위들을 포함하고,
상기 서버는,
HMD 시스템 착용자가 각각의 미리 정의된 재활훈련 단위마다 미리 정의된 움직임들을 수행하는 동안, 상기 착용자의 움직임을 기록하고,
상기 각각의 미리 정의된 재활훈련 단위는,
상기 미리 정의된 움직임들과 대응 관계를 가지는 미리 정의된 일부 영역들을 포함하고,
각각의 미리 정의된 일부 영역은 적어도 하나 이상의 증강현실 콘텐츠와 미리 정의된 대응 관계를 가지고,
상기 HMD 시스템은,
HMD 장치 및 스마트폰을 포함하고,
상기 HMD 장치는,
제 1 면으로 입사하는 빛을 투과하고, 제 2 면으로 입사하는 빛을 반사하는 하프미러(half-mirror);
스마트폰의 디스플레이가 상기 제 2 면을 향하도록 스마트폰을 거치하는 스마트폰 거치대; 및
상기 제 1 면 방향의 실제 이미지를 획득하는 HMD 카메라
를 포함하고,
상기 스마트폰은,
상기 스마트폰 거치대에 거치되며,
증강현실 콘텐츠를 출력하는 디스플레이; 및
상기 HMD 장치와 유무선으로 통신하는 프로세서
를 포함하고,
상기 프로세서는,
상기 HMD 카메라를 통해 촬영된 실제 이미지를 획득하고,
상기 실제 이미지에서 적어도 하나의 일부 영역을 인식하고,
각각의 일부 영역에 대응하는 각각의 증강현실 콘텐츠를 포함하는 증강현실 레이어를 생성하고,
상기 디스플레이로 상기 증강현실 레이어를 전송하며,
상기 증강현실 레이어의 생성은,
상기 실제 이미지를 변환한 변환 이미지를 생성하고,
상기 변환 이미지 상의 상기 각각의 일부 영역의 위치, 면적, 방향을 포함하는 각각의 일부 영역 데이터 세트(data set)를 기초로, 상기 각각의 일부 영역에 대응하는 상기 각각의 증강현실 콘텐츠의 위치, 면적, 방향을 포함하는 각각의 증강현실 콘텐츠 데이터 세트를 결정하고,
상기 각각의 증강현실 콘텐츠 데이터 세트를 기초로, 상기 각각의 증강현실 콘텐츠를 생성하여 상기 증강현실 레이어에 포함시키는
동작을 포함하여 이루어지고,
상기 변환 이미지의 생성은,
상기 실제 이미지를 기초로, 좌안 실제 이미지와 우안 실제 이미지를 획득하고,
상기 좌안 실제 이미지 및 상기 우안 실제 이미지에 대응하는 실제 이미지 텐서(tensor)에 제 1 선형 변환을 적용하여 제 1 변환 이미지 텐서를 생성하고,
상기 제 1 변환 이미지 텐서를 기초로, 상기 변환 이미지를 생성하는
동작을 포함하여 이루어지는,
HMD 시스템을 포함하는 재활훈련 시스템.
The rehabilitation training system including the HMD system includes an HMD system, a server, and predefined rehabilitation training units,
The server,
While the HMD system wearer performs predefined movements for each predefined rehabilitation unit, the wearer's movement is recorded,
Each of the predefined rehabilitation training units,
Includes some predefined areas having a corresponding relationship with the predefined movements,
Each of the predefined areas has a predefined correspondence relationship with at least one augmented reality content,
The HMD system,
Including an HMD device and a smartphone,
The HMD device,
A half-mirror that transmits light incident on the first surface and reflects light incident on the second surface;
A smart phone cradle for mounting the smart phone so that the display of the smart phone faces the second surface; And
HMD camera that acquires an actual image in the direction of the first surface
Including,
The smartphone,
It is mounted on the smartphone cradle,
A display that outputs augmented reality content; And
Processor for wired or wireless communication with the HMD device
Including,
The processor,
Acquire an actual image taken through the HMD camera,
Recognize at least one partial area in the actual image,
Creating an augmented reality layer including each augmented reality content corresponding to each partial area,
Transmitting the augmented reality layer to the display,
Generation of the augmented reality layer,
Generate a converted image by converting the actual image,
Location and area of each of the augmented reality content corresponding to each of the partial regions based on a data set of each partial region including the position, area, and direction of each partial region on the converted image , Determine each augmented reality content data set including the direction,
Based on the respective augmented reality content data sets, generating each of the augmented reality content and including it in the augmented reality layer
Including motion,
Generation of the converted image,
On the basis of the real image, the real image of the left eye and the real image of the right eye are acquired,
A first transformed image tensor is generated by applying a first linear transform to the real image tensor corresponding to the real image of the left eye and the real image of the right eye,
Generating the converted image based on the first converted image tensor
Consisting of actions,
Rehabilitation training system including HMD system.
KR1020200030327A 2019-12-26 2020-03-11 Hmd system and rehabilitation system including the same KR102151265B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20190174872 2019-12-26
KR1020190174872 2019-12-26

Publications (1)

Publication Number Publication Date
KR102151265B1 true KR102151265B1 (en) 2020-09-02

Family

ID=72469426

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200030327A KR102151265B1 (en) 2019-12-26 2020-03-11 Hmd system and rehabilitation system including the same

Country Status (1)

Country Link
KR (1) KR102151265B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102483387B1 (en) * 2021-09-29 2022-12-30 한국기술교육대학교 산학협력단 Augmented reality content provision method and finger rehabilitation training system for finger rehabilitation training

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150122975A (en) 2014-04-24 2015-11-03 엘지전자 주식회사 Hmd and method for controlling the same
KR20170022088A (en) * 2015-08-19 2017-03-02 한국전자통신연구원 Method of rendering augmented reality on mirror display based on motion of target of augmented reality and apparatus using the same
KR101761751B1 (en) 2014-07-10 2017-07-26 세이코 엡슨 가부시키가이샤 Hmd calibration with direct geometric modeling
KR20180041880A (en) * 2016-10-17 2018-04-25 대구대학교 산학협력단 The walking rehabilitation apparatus for severe disability including virtual reality platform
KR20180092187A (en) * 2017-02-08 2018-08-17 삼성전기주식회사 System for providing augmented realty
KR20190061825A (en) 2017-11-28 2019-06-05 엘지전자 주식회사 Tethering type head mounted display and method for controlling the same
KR20190075596A (en) * 2017-12-21 2019-07-01 김일식 Method for creating augmented reality contents, method for using the contents and apparatus using the same
KR102028376B1 (en) 2018-01-05 2019-10-04 동국대학교 산학협력단 Calibration method of leap motion-HMD using bundle adjustment algorithm and method thereof

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150122975A (en) 2014-04-24 2015-11-03 엘지전자 주식회사 Hmd and method for controlling the same
KR101761751B1 (en) 2014-07-10 2017-07-26 세이코 엡슨 가부시키가이샤 Hmd calibration with direct geometric modeling
KR20170022088A (en) * 2015-08-19 2017-03-02 한국전자통신연구원 Method of rendering augmented reality on mirror display based on motion of target of augmented reality and apparatus using the same
KR20180041880A (en) * 2016-10-17 2018-04-25 대구대학교 산학협력단 The walking rehabilitation apparatus for severe disability including virtual reality platform
KR20180092187A (en) * 2017-02-08 2018-08-17 삼성전기주식회사 System for providing augmented realty
KR20190061825A (en) 2017-11-28 2019-06-05 엘지전자 주식회사 Tethering type head mounted display and method for controlling the same
KR20190075596A (en) * 2017-12-21 2019-07-01 김일식 Method for creating augmented reality contents, method for using the contents and apparatus using the same
KR102028376B1 (en) 2018-01-05 2019-10-04 동국대학교 산학협력단 Calibration method of leap motion-HMD using bundle adjustment algorithm and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102483387B1 (en) * 2021-09-29 2022-12-30 한국기술교육대학교 산학협력단 Augmented reality content provision method and finger rehabilitation training system for finger rehabilitation training

Similar Documents

Publication Publication Date Title
US11501529B2 (en) Enhanced pose determination for display device
KR102658303B1 (en) Head-mounted display for virtual and mixed reality with inside-out positional, user body and environment tracking
US11308673B2 (en) Using three-dimensional scans of a physical subject to determine positions and/or orientations of skeletal joints in the rigging for a virtual character
US11669726B2 (en) Methods and systems for interpolation of disparate inputs
CN113168737A (en) Method and system for three-dimensional model sharing
JP2023089294A (en) Matching meshes for virtual avatars
CN112437950A (en) Skeletal system for animating virtual head portraits
CN114600064A (en) Cross reality system with location services
CN114586071A (en) Cross-reality system supporting multiple device types
CN102959616A (en) Interactive reality augmentation for natural interaction
US11823316B2 (en) Photoreal character configurations for spatial computing
CN112753007A (en) Gesture space dimension reduction for gesture space deformation of virtual characters
US11836840B2 (en) Systems and methods for cross-application authoring, transfer, and evaluation of rigging control systems for virtual characters
US11574416B2 (en) Generating body pose information
CN107656611A (en) Somatic sensation television game implementation method and device, terminal device
Malleson et al. Rapid one-shot acquisition of dynamic VR avatars
CN106909904B (en) Human face obverse method based on learnable deformation field
KR102151265B1 (en) Hmd system and rehabilitation system including the same
US20230260156A1 (en) Methods and systems for interpolation of disparate inputs
KR102577707B1 (en) Apparatus and method for evaluating hologram encoding / holographic image quality for amplitude-modulated hologram
JP2020201767A (en) Information processing apparatus, information processing system, information processing method, and program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant