KR102542641B1 - Apparatus and operation method for rehabilitation training using hand tracking - Google Patents
Apparatus and operation method for rehabilitation training using hand tracking Download PDFInfo
- Publication number
- KR102542641B1 KR102542641B1 KR1020200167847A KR20200167847A KR102542641B1 KR 102542641 B1 KR102542641 B1 KR 102542641B1 KR 1020200167847 A KR1020200167847 A KR 1020200167847A KR 20200167847 A KR20200167847 A KR 20200167847A KR 102542641 B1 KR102542641 B1 KR 102542641B1
- Authority
- KR
- South Korea
- Prior art keywords
- hand
- unit
- user
- tracking
- virtual space
- Prior art date
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/163—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state by tracking eye movement, gaze, or pupil change
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4076—Diagnosing or monitoring particular conditions of the nervous system
- A61B5/4088—Diagnosing of monitoring cognitive diseases, e.g. Alzheimer, prion diseases or dementia
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/014—Hand-worn input/output arrangements, e.g. data gloves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M2021/0005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
- A61M2021/0044—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2205/00—General characteristics of the apparatus
- A61M2205/50—General characteristics of the apparatus with microprocessors or computers
- A61M2205/502—User interfaces, e.g. screens or keyboards
- A61M2205/507—Head Mounted Displays [HMD]
Abstract
훈련 장치가 제공된다. 상기 훈련 장치는 사용자의 손을 감지하는 센싱부; 상기 센싱부의 감지 결과를 이용해서 상기 손의 제1 위치를 추적하는 트래킹부;를 포함할 수 있다.A training device is provided. The training device includes a sensing unit for sensing a user's hand; It may include a; tracking unit for tracking the first position of the hand by using the detection result of the sensing unit.
Description
본 발명은 XR(eXtended Reality) 기술을 이용하여 가상 현실(Virtual Reality) 또는 증강 현실(Augmented Reality) 상에 표현되는 사용자의 실제 손을 이용하여 인지 재활 훈련 콘텐츠를 통해 제공되는 미션을 수행할 수 있는 재활 훈련 장치 및 작동 방법에 관한 것이다.The present invention uses XR (eXtended Reality) technology to perform missions provided through cognitive rehabilitation training contents using a user's actual hand represented on Virtual Reality or Augmented Reality. It relates to a rehabilitation training device and operation method.
가상현실(Virtual Reality)을 이용한 운동 및 인지기능 훈련의 효과는 다양한 연구결과를 통해 입증이 되었다.The effects of motor and cognitive function training using virtual reality have been proven through various research results.
그러나, 인지기능이 저하된 사람과 고령자가 사용하기에는 불편하고 어려운 점이 많아 인지기능 평가 및 훈련을 위한 진일보한 시스템임에도 불구하고 사용되지 못하고 있다.However, it is inconvenient and difficult for people with reduced cognitive function and the elderly to use it, so it is not used even though it is an advanced system for cognitive function evaluation and training.
한국등록특허공보 제1881986호에는 경도인지장애 노인의 인지능력 향상을 위한 VR 인지재활훈련 시스템 및 방법이 나타나 있다.Korean Registered Patent Publication No. 1881986 discloses a VR cognitive rehabilitation training system and method for improving cognitive abilities of elderly people with mild cognitive impairment.
본 발명은 사용자가 자신의 실제 손을 이용해서 가상 공간 상에서 인지 재활 훈련을 수행할 수 있는 훈련 장치 및 훈련 장치의 작동 방법을 제공하기 위한 것이다.An object of the present invention is to provide a training device and a method of operating the training device that allow a user to perform cognitive rehabilitation training in a virtual space using his or her actual hands.
본 발명의 훈련 장치는 사용자의 손을 감지하는 센싱부; 상기 센싱부의 감지 결과를 이용해서 상기 손의 제1 위치를 추적하는 트래킹부;를 포함하고, 상기 트래킹부는 상기 사용자가 시청하는 화면에 표시되는 오브젝트의 제2 위치를 입수하며, 상기 트래킹부는 상기 제1 위치와 상기 제2 위치를 이용해서 상기 손과 상기 오브젝트의 상호작용 가능 여부를 판별할 수 있다.The training apparatus of the present invention includes a sensing unit for detecting a user's hand; and a tracking unit that tracks a first position of the hand by using a detection result of the sensing unit, wherein the tracking unit obtains a second position of an object displayed on a screen viewed by the user, and the tracking unit obtains a second position of an object displayed on a screen viewed by the user. It is possible to determine whether the hand can interact with the object using the first position and the second position.
본 발명의 훈련 장치의 작동 방법은 사용자의 손의 위치에 해당하는 제1 위치, 가상 공간에 표시되는 오브젝트의 위치에 해당하는 제2 위치 및 상기 가상 공간의 기준 위치를 입수하는 입수 단계; 상기 기준 위치를 이용해서 상기 제1 위치를 상기 가상 공간 상에 배치하고, 상기 제1 위치와 상기 제2 위치의 상호작용 여부를 판별하는 판별 단계; 상기 가상 공간을 생성하는 미디어부에 상기 상호작용 여부의 판별 결과를 제공하는 제공 단계;를 포함할 수 있다.The operating method of the training apparatus of the present invention includes an acquisition step of acquiring a first position corresponding to the position of a user's hand, a second position corresponding to the position of an object displayed in a virtual space, and a reference position of the virtual space; determining whether the first location interacts with the second location by arranging the first location in the virtual space using the reference location; and a providing step of providing a result of determining whether or not the interaction has occurred to a media unit generating the virtual space.
본 발명은 자신의 손이 가상 현실 상에 직접 투영되어 별도의 도구를 사용하지 않고도 가상 현실 상의 오브젝트와 상호작용할 수 있는 기술로, VR의 단점인 컨트롤러 조작법에 대한 문제를 해소하고, VR의 장점인 다양하고 유연한 체험이 가능하도록 하여 효과적인 인지 재활 훈련 환경을 제공할 수 있다.The present invention is a technology in which one's hand is directly projected on virtual reality and can interact with objects in virtual reality without using a separate tool. An effective cognitive rehabilitation training environment can be provided by enabling various and flexible experiences.
본 발명의 훈련 장치는 사용자의 실제 손을 가상 공간 상에 투영시킬 수 있다. 현실 세계의 손과 가상 공간 상의 이질적인 좌표를 동기화할 수 있다. 서로 다른 차원 간의 좌표 동기화 과정에서 발생되는 오류를 해소하기 위해, 본 발명은 사용자의 눈의 실제 위치를 추가로 이용할 수 있다.The training apparatus of the present invention can project the user's real hand onto a virtual space. Hands in the real world and disparate coordinates in virtual space can be synchronized. In order to solve errors generated in the coordinate synchronization process between different dimensions, the present invention may additionally use the actual position of the user's eyes.
본 발명에 따르면, 현실 세계에서 실제의 오브젝트를 터치하는 것과 유사한 재활 훈련 환경을 가상 공간 상에서 체험할 수 있다.According to the present invention, it is possible to experience a rehabilitation training environment similar to touching a real object in the real world in a virtual space.
도 1은 본 발명의 훈련 장치를 나타낸 블록도이다.
도 2는 트래킹부를 나타낸 개략도이다.
도 3은 본 발명의 훈련 장치를 나타낸 개략도이다.
도 4는 본 발명의 다른 훈련 장치를 나타낸 개략도이다.
도 5는 본 발명의 훈련 장치에서 사용자에게 표시되는 화면을 나타낸 개략도이다.
도 6은 본 발명의 훈련 장치의 작동 방법을 나타낸 흐름도이다.
도 7은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.1 is a block diagram showing a training device of the present invention.
2 is a schematic diagram showing a tracking unit.
Figure 3 is a schematic diagram showing the training device of the present invention.
4 is a schematic diagram showing another training device of the present invention.
5 is a schematic diagram showing a screen displayed to a user in the training apparatus of the present invention.
Figure 6 is a flow chart showing the operating method of the training device of the present invention.
7 is a diagram illustrating a computing device according to an embodiment of the present invention.
아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, embodiments of the present invention will be described in detail so that those skilled in the art can easily carry out the present invention. However, the present invention may be embodied in many different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.
본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In this specification, redundant descriptions of the same components are omitted.
또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, when a component is referred to as being 'connected' or 'connected' to another component, it may be directly connected or connected to the other component, but another component in the middle It should be understood that may exist. On the other hand, in this specification, when a component is referred to as 'directly connected' or 'directly connected' to another component, it should be understood that no other component exists in the middle.
또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, terms used in this specification are only used to describe specific embodiments and are not intended to limit the present invention.
또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, a singular expression may include a plurality of expressions unless the context clearly indicates otherwise.
또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.In addition, in this specification, terms such as 'include' or 'having' are only intended to designate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more It should be understood that the presence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof is not precluded.
또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of listed items or any item among a plurality of listed items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.
또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the subject matter of the present invention will be omitted.
도 1은 본 발명의 훈련 장치를 나타낸 블록도이다. 도 2는 트래킹부(130)를 나타낸 개략도이다. 도 3은 본 발명의 훈련 장치를 나타낸 개략도이다. 도 4는 본 발명의 다른 훈련 장치를 나타낸 개략도이다.1 is a block diagram showing a training device of the present invention. 2 is a schematic diagram showing the
크로마키 환경 부스(30)의 상단 또는 HMD 전면에 부착된 깊이 센서에 촬영된 깊이 정보가 트래킹 모듈(100)로 전송될 수 있다.Depth information photographed by a depth sensor attached to the top of the chroma
VR을 이용할 경우 HMD 전면에 부착된 Stereoscopic Camera에서 촬영된 이미지에서 손과 팔의 이미지를 추출하여 가상 현실(가상 공간(99)) 상의 이미지와 합성하여 사용자(10)의 손(11)이 가상 공간(99)에 투영될 수 있다. VR의 경우, 사용자(10)의 실제 손이 화면(90)에 표시되기 어려우므로, 별도의 스테레오스코픽 카메라, 비전 등을 이용해서 사용자(10)의 손을 촬영하고, 촬영된 사용자(10)의 손을 모의적으로 구현한 그래픽이 가상 공간(99)에 투영될 수 있다.When using VR, images of hands and arms are extracted from the images taken by the stereoscopic camera attached to the front of the HMD and synthesized with images in virtual reality (virtual space 99) so that the
실물이 화면(90)에 표시되는 See-through Type의 AR을 이용할 경우 훈련 콘텐츠의 일부 오브젝트(91)가 HMD에 투영되어 표시될 수 있다.In the case of using AR of a see-through type in which a real object is displayed on the
미디어부(210)는 가상 공간(99) 상의 상호작용 가능한 오브젝트(91)의 좌표(제2 위치) 및 크기 정보를 트래킹 모듈(100)로 전송할 수 있다. The
트래킹 모듈(100)에서는 깊이 정보로부터 손과 팔의 좌표(제1 위치)를 검출하고 가상 공간(99) 상의 상호작용 가능한 오브젝트(91)와 상호작용이 가능한지 여부를 판별할 수 있다. 트래킹 모듈(100)은 판별 결과는 미디어부(210)로 다시 전송할 수 있다.The
사용자(10)는 일련의 동작으로 구현된 핸드 트래킹 기술을 이용하여 미디어부(210)에서 제공하는 미션을 자신의 손으로 직접 수행하며 이를 지속적이고 반복적으로 수행하여 인지 기능의 재활 훈련을 수행할 수 있다.The
본 발명의 가상 공간(99)은 XR, VR, MR, AR 등으로 구현될 수 있다.The
XR(eXtended Reality, 확장 현실)은 VR(Virtual Reality, 가상 현실), MR (Mixed Reality, 혼합 현실), AR(Augmented Reality, 증강 현실) 등을 아우르는 개념으로, 가상과 현실이 밀접하게 연결된 환경을 의미할 수 있다.XR (eXtended Reality) is a concept that encompasses VR (Virtual Reality), MR (Mixed Reality), AR (Augmented Reality), etc. can mean
본 특허에서 제시하는 인지재활훈련 콘텐츠는 VR, MR, AR 등에서 모두 구현이 가능하기에 XR을 이용한 재활 훈련으로 표현될 수 있다. The cognitive rehabilitation training content presented in this patent can be expressed as rehabilitation training using XR because it can be implemented in VR, MR, and AR.
도면에 도시된 훈련 장치는 트래킹 모듈(100), 미디어부(210), 표시부(230)를 포함할 수 있다.The training device shown in the figure may include a
트래킹 모듈(100)은 현실 세계에 존재하는 사용자(10)의 실제 손을 추적할 수 있다. 또한, 트래킹 모듈(100)은 가상 공간(99)에 배치된 오브젝트(91)와 사용자(10)의 실제 손 간의 상호작용 여부를 판별할 수 있다.The
트래킹 모듈(100)에는 센싱부(110), 트래킹부(130)가 마련될 수 있다.A
센싱부(110)는 사용자(10)의 손을 감지할 수 있다. 일 예로, 센싱부(110)는 사용자(10)의 손의 깊이(depth) 정보를 획득하는 거리 센서 등을 포함할 수 있다. 센싱부(110)는 크로마키 환경 부스(30)(Chromakey booth)에 설치되거나, 사용자(10)가 착용하는 HMD에 설치될 수 있다. HMD(Head Mount Display, 머리 착용 디스플레이)는 가상 오브젝트(91)와 현실을 함께 보기 위한 디스플레이 장치로 사용자(10)의 머리에 안경과 유사하게 착용될 수 있다.The
트래킹부(130)는 센싱부(110)의 감지 결과를 이용해서 현실 세계에 존재하는 사용자(10)의 손의 위치에 해당하는 제1 위치를 추적할 수 있다.The
트래킹부(130)는 사용자(10)가 시청하는 화면(90)에 표시되는 오브젝트(91)의 제2 위치를 미디어부(210)로부터 입수할 수 있다.The
트래킹부(130)는 제1 위치와 제2 위치를 이용해서 손과 오브젝트(91)의 상호작용 가능 여부를 판별할 수 있다.The
미디어부(210)는 화면(90)에 오브젝트(91)가 포함된 재활 콘텐츠를 표시할 수 있다.The
미디어부(210)는 3D Engine을 통해 개발된 인지기능 개선용 훈련 콘텐츠를 제공할 수 있다. 미디어부(210)는 HMD를 통해 3차원 가상 현실(가상 공간(99))을 표현하고 트래킹 모듈(100)에 의해 이루어지는 핸드 트래킹 또는 컨트롤러를 통해 가상 현실과의 상호작용을 통해 반응형 콘텐츠를 제공할 수 있다.The
구동되는 환경에 따라 100% 가상 현실인 VR, 일부 현실 정보를 포함한 MR, 현실 환경을 기반으로 동작하는 AR로 구분되어 각 환경에 맞는 콘텐츠, 미션이 HMD를 통해 표시되고 사용자(10)는 이를 수행할 수 있다.Depending on the operating environment, it is divided into 100% virtual reality VR, MR including some reality information, and AR operating based on the real environment. Contents and missions suitable for each environment are displayed through the HMD, and the
미디어부(210)는 트래킹부(130)로부터 상호작용 가능 여부에 대한 판별 결과를 입수할 수 있다. 미디어부(210)는 판별 결과에 따라 오브젝트(91)를 변화시킬 수 있다. 예를 들어, 오브젝트(91)가 밸브인 경우, 상호작용이 존재하는 것으로 판별되면, 미디어부(210)는 밸브를 회전시킬 수 있다.The
화면(90)은 표시부(230)에 의해 제공되는 LCD(Liquid Crystal Display) 화면(90), OLED(Organic Light Emitting Diode) 화면(90) 등을 포함할 수 있다. 다시 말해, 미디어부(210)는 각종 디스플레이가 구비된 표시부(230)를 통해 재활 콘텐츠를 표시할 수 있다. 오브젝트(91)가 포함된 재활 콘텐츠는 미디어부(210)에 의해 생성된 가상 공간(99)에 배치될 수 있다.The
표시부(230)는 LCD, OLED, HMD(Head mounted Display) 등을 포함할 수 있다.The
센싱부(110)에는 제1 통신 수단(131), 제1 추적 수단(132), 제2 통신 수단(137), 제2 추적 수단(137), 판별 수단(135)이 마련될 수 있다.The
제1 통신 수단(131)은 센싱부(110)로부터 깊이 정보를 유무선 통신망을 통해 수신할 수 있다.The
제1 추적 수단(132)은 깊이 정보를 이용해서 제1 위치를 추적할 수 있다. 제1 추적 수단(132)에 의해 추적되는 제1 위치는 현실 세계에서의 위치를 나타낼 수 있다.The
제2 통신 수단(137)은 오브젝트(91)를 획득할 수 있다. 일 예로, 제2 통신 수단(137)은 오브젝트(91)를 제공하는 미디어부(210)와 각종 유무선 통신망을 통해 통신하고, 미디어부(210)로부터 오브젝트(91)를 수신할 수 있다.The
제2 추적 수단(137)은 오브젝트(91)의 위치에 해당하는 제2 위치를 추적할 수 있다. 이때, 제2 위치는 가상 공간(99)에서의 위치를 나타낼 수 있다.The
판별 수단(135)는 제1 위치와 제2 위치를 이용해서 상호작용 가능 여부를 판별할 수 있다.The
제1 위치는 손의 위치를 나타내고, 제2 위치는 오브젝트(91)의 위치를 나타낼 수 있다.The first position may indicate a position of the hand, and the second position may indicate a position of the
손의 위치는 현실 세계의 위치이고, 오브젝트(91)의 위치는 가상 공간(99)의 위치일 수 있다. 차원을 달리하는 2개의 위치를 이용해 상호작용 여부를 판별하기 위한 방안이 추가로 마련될 수 있다.The position of the hand may be a position in the real world, and the position of the
본 발명의 인지 재활 훈련은 손으로 조작하는 오브젝트(91)가 실제로는 손으로 조작할 수 없는 가상 공간(99)에 마련될 수 있다. 따라서, 본 발명의 인지 재활 훈련은 손의 촉각보다는 눈의 시각에 의존해서 이루어질 수 있다.In the cognitive rehabilitation training of the present invention, an
따라서, 가상 공간(99)에 배치된 오브젝트(91)는 눈에 의해 인식되며, 이때, 사용자(10)에게 인식되는 오브젝트(91)의 형상 등은 사용자(10)의 실제 눈의 위치와 관련이 있다.Therefore, the
따라서, 정상적인 상호 작용을 위해서는 사용자(10)가 자신의 손을 직접 화면(90)을 통해서 바라보는 것이 좋다.Therefore, for normal interaction, it is recommended that the
사용자(10)의 실제 손이 화면(90)에 표시되는 증강 현실 등과 달리 사용자(10)의 실제 손이 화면(90)에 투영되기 어려운 VR 환경에서는 사용자(10)의 실제 손을 가상 공간(99) 상에 렌더링하는 별도의 수단이 마련될 필요가 있다.Unlike augmented reality where the user's 10's real hand is displayed on the
일 예로, 센싱부(110)는 사용자(10)의 손을 3차원 촬영하는 비전(vision) 센서, 스테레오스코픽 카메라(Stereoscopic Camera)를 포함할 수 있다.For example, the
정리하면, 판별 수단(135)는 XR 콘텐츠와 상호작용하기 위한 방법으로 핸드 트래킹을 사용하여 XR 콘텐츠의 오브젝트(91)와 상호작용을 판별할 수 있다.In summary, the determining
트래킹 모듈(100)에 의해 수행되는 핸드 트래킹은 사용자(10)의 손의 위치를 감지하여 XR 콘텐츠의 오브젝트(91)와 상호작용하는 방식을 포함할 수 있다.Hand tracking performed by the
실제의 주변 환경을 볼 수 없는 VR의 경우 Stereoscopic Camera를 HMD 전면에 부착하여 사용자(10)의 손을 2차원 또는 3차원으로 촬영하고, 가상 현실에 2차원 또는 3차원으로 투영할 수 있다. In the case of VR where the real surrounding environment cannot be seen, a stereoscopic camera can be attached to the front of the HMD to capture the hand of the
구체적으로, 트래킹부(130)는 센싱부(110)로부터 손을 촬영한 영상 데이터를 입수할 수 있다.Specifically, the
트래킹부(130)는 화면(90)에 오브젝트(91)가 포함된 재활 콘텐츠를 표시하는 미디어부(210)에 제1 위치와 함께 손을 나타내는 영상 데이터를 제공할 수 있다.The
가상 공간(99)에서 바라보는 오브젝트(91)의 제2 위치는 오브젝트(91)의 표면에 걸쳐 정상적으로 설정될 수 있다.The second position of the
반면, 사용자(10)의 손 좌표를 나타내는 제1 위치는 깊이 센서 등의 센싱부(110)를 통해 측정된 값에 기반하며, 해당 값에는 일부 오류가 존재할 수 있으며, 시각적인 착시 현상을 수반할 수 있다. 예를 들어, 사용자(10)는 이 정도 위치이로 손을 가져가면 오브젝트(91)를 터치할 수 있을 것으로 기대할 수 있다. 하지만, 각종 빛 효과가 무시되기 쉬운 오브젝트(91)의 경우, 사용자(10)의 착시 현상을 쉽게 유발할 수 있으며, 이러한 착시 효과는 사용자(10)의 인지 재활 훈련의 성과에 부정적일 수 있다.On the other hand, the first position representing the coordinates of the hand of the
착시 효과는 사용자(10)의 시각 위치에 따라 큰 차이를 보이며, 해당 시각 위치로 인한 오차를 줄이기 위한 방안이 추가로 마련될 수 있다.The optical illusion effect shows a great difference according to the visual position of the
일 예로, 트래킹부(130)는 화면(90)에 형성된 가상 공간(99)에서 기준 좌표를 추가로 입수할 수 있다.For example, the
트래킹부(130)는 기준 좌표를 이용해서 가상 공간(99)에서 제1 위치를 특정할 수 있다. 또한, 트래킹부(130)는 기준 좌표를 기준으로 제1 위치와 제2 위치 간의 거리를 이용해서 상호작용 가능 여부를 판별할 수 있다.The
트래킹부(130)는 센싱부(110)로부터 사용자(10)의 눈의 위치에 해당하는 제3 위치를 추가로 입수할 수 있다.The
트래킹부(130)는 제3 위치를 이용해서 상호 가능 여부의 판별 결과를 보정할 수 있다. 일 예로, 트래킹부(130)는 제3 위치를 이용해서 제2 위치를 사용자(10)의 손 영역 범위 내에서 조정할 수 있다. 손의 표면 위치는 각종 오류로 인해 일부 달라질 수 있으며, 실제로 정확한 위치를 지정하고 있는 상태라 하더라도 각종 음영이 정상적으로 반영되기 어려운 오브젝트(91)의 경우, 사용자(10)에게 각종 착시를 유발할 수 있다. 해당 오류 및 착시로 인해 사용자(10)의 눈으로 인지한 상호작용 기대값과 트래킹부(130)에 의해 판별된 상호작용 결과값이 서로 다를 수 있다. 본 실시예에 따르면, 오브젝트(91) 및 손을 바라보는 사용자(10)의 눈을 기준으로 상호작용 결과값이 보정되므로, 사용자(10)가 기대한 기대값과 트래킹부(130)의 판별값의 차이가 감소될 수 있다. 해당 보정값은 눈 위치에 대한 실험적인 데이터를 통해 획득될 수 있다.The
도 5는 본 발명의 훈련 장치에서 사용자(10)에게 표시되는 화면(90)을 나타낸 개략도이다.5 is a schematic diagram showing a
도 5는 VR 환경을 나타낼 수 있다. VR에서는 사용자(10)의 실제 손이 가상 공간(99)에 직접 투영되지 않는다. 이 경우, 사용자(10)의 손을 모의한 가상 손(93)이 해당 가상 공간(99)에 렌더링될 수 있다.5 may represent a VR environment. In VR, the actual hand of the
도 6은 본 발명의 훈련 장치의 작동 방법을 나타낸 흐름도이다.Figure 6 is a flow chart showing the operating method of the training device of the present invention.
도 6의 훈련 장치의 작동 방법은 도 1에 도시된 훈련 장치에 의해 수행될 수 있다.The operation method of the training device of FIG. 6 may be performed by the training device shown in FIG. 1 .
훈련 장치의 작동 방법은 입수 단계(S 510), 판별 단계(S 520), 제공 단계(S 530)를 포함할 수 있다.The operation method of the training device may include an acquisition step (S 510), a determination step (S 520), and a provision step (S 530).
입수 단계(S 510)는 사용자(10)의 손의 위치에 해당하는 제1 위치, 가상 공간(99)에 표시되는 오브젝트(91)의 위치에 해당하는 제2 위치 및 상기 가상 공간(99)의 기준 위치(97)를 입수할 수 있다. 트래킹부(130)에 의해 수행되는 동작으로, 트래킹부(130)는 센싱부(110)로부터 제1 위치를 입수할 수 있다. 트래킹부(130)는 미디어부(210)로부터 제2 위치 및 기준 위치(97)를 입수할 수 있다.In the obtaining step (S510), the first position corresponding to the position of the hand of the
판별 단계(S 520)는 기준 위치(97)를 이용해서 제1 위치를 가상 공간(99) 상에 배치하고, 제1 위치와 제2 위치의 상호작용 여부를 판별할 수 있다. 판별 단계(S 520)는 트래킹부(130)에 의해 수행될 수 있다.In the determination step (S520), the first location may be placed on the
제공 단계(S 530)는 가상 공간(99)을 생성하는 미디어부(210)에 상호작용 여부의 판별 결과를 제공할 수 있다. 제공 단계(S 520)는 트래킹부(130)에 의해 수행될 수 있다.In the providing step (S530), a determination result of whether or not an interaction may be provided may be provided to the
입수 단계(S 510)는 사용자(10)의 눈의 위치에 해당하는 제3 위치를 추가로 획득할 수 있다.In the acquiring step ( S510 ), a third position corresponding to the position of the user's 10 eyes may be additionally obtained.
판별 단계(S 520)는 제3 위치를 이용해서 제2 위치를 보정하며, 보정된 제2 위치를 이용해서 상호작용 여부를 판별할 수 있다.In the determination step (S520), the second position may be corrected using the third position, and it may be determined whether or not the interaction occurs using the corrected second position.
도 7은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 7의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 훈련 장치, 트래킹부(130) 등) 일 수 있다. 7 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 7 may be a device described in this specification (eg, a training device, a
도 7의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 7 , the computing device TN100 may include at least one processor TN110, a transceiver TN120, and a memory TN130. In addition, the computing device TN100 may further include a storage device TN140, an input interface device TN150, and an output interface device TN160. Elements included in the computing device TN100 may communicate with each other by being connected by a bus TN170.
프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute program commands stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to embodiments of the present invention are performed. Processor TN110 may be configured to implement procedures, functions, methods, and the like described in relation to embodiments of the present invention. The processor TN110 may control each component of the computing device TN100.
메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may include at least one of a volatile storage medium and a non-volatile storage medium. For example, the memory TN130 may include at least one of read only memory (ROM) and random access memory (RAM).
송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transmitting/receiving device TN120 may transmit or receive a wired signal or a wireless signal. The transmitting/receiving device TN120 may perform communication by being connected to a network.
한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. Meanwhile, the embodiments of the present invention are not implemented only through the devices and/or methods described so far, and may be implemented through a program that realizes functions corresponding to the configuration of the embodiments of the present invention or a recording medium in which the program is recorded. And, such implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment.
이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements of those skilled in the art using the basic concept of the present invention defined in the following claims are also provided. belong to the scope of the invention.
10...사용자 11...손
30...크로마키 환경 부스 90...화면
91...오브젝트 93...가상 손
97...기준 위치 99...가상 공간
100...트래킹 모듈 110...센싱부
130...트래킹부 131...제1 통신 수단
132...제1 추적 수단 135...판별 수단
137...제2 통신 수단 138...제2 추적 수단
210...미디어부 230...표시부10...
30...chroma
91 ... object 93 ... virtual hand
97 ...
100 ... tracking
130 ... tracking
132
137... Second communication means 138... Second tracking means
210 ...
Claims (7)
상기 센싱부의 감지 결과를 이용해서 상기 손의 제1 위치를 추적하는 트래킹부;를 포함하고,
상기 트래킹부는 상기 사용자가 시청하는 화면에 표시되는 오브젝트의 제2 위치를 입수하며,
상기 트래킹부는 상기 제1 위치와 상기 제2 위치를 이용해서 상기 손과 상기 오브젝트의 상호작용 가능 여부를 판별하고,
상기 트래킹부는 상기 센싱부로부터 상기 손을 촬영한 영상 데이터를 입수하고,
상기 트래킹부는 상기 화면에 상기 오브젝트가 포함된 재활 콘텐츠를 표시하는 미디어부에 상기 제1 위치와 함께 상기 영상 데이터를 제공하며,
상기 트래킹부는 상기 화면에 형성된 가상 공간에서 기준 좌표를 추가로 입수하고,
상기 트래킹부는 상기 기준 좌표를 이용해서 상기 가상 공간에서 상기 제1 위치를 특정하며,
상기 트래킹부는 상기 기준 좌표를 기준으로 상기 제1 위치와 상기 제2 위치 간의 거리를 이용해서 상기 상호작용 가능 여부를 판별하고,
상기 트래킹부는 상기 센싱부로부터 상기 사용자의 눈의 위치에 해당하는 제3 위치를 추가로 입수하고,
상기 트래킹부는 상기 제3 위치를 이용해서 상기 상호작용 가능 여부의 판별 결과를 보정하며,
상기 트래킹부는 상기 제3 위치를 이용해서 상기 제2 위치를 상기 사용자의 손 영역 범위 내에서 조정하고,
상기 화면에 형성된 상기 가상 공간에는 상기 사용자의 손을 모의한 가상 손이 렌더링되는 훈련 장치.
a sensing unit that detects a user's hand;
A tracking unit tracking the first position of the hand by using a detection result of the sensing unit;
The tracking unit obtains a second position of an object displayed on a screen viewed by the user,
The tracking unit determines whether an interaction between the hand and the object is possible using the first position and the second position,
The tracking unit obtains image data of the hand from the sensing unit,
The tracking unit provides the image data along with the first location to a media unit displaying rehabilitation content including the object on the screen,
The tracking unit additionally obtains reference coordinates in the virtual space formed on the screen,
The tracking unit specifies the first position in the virtual space using the reference coordinates,
The tracking unit determines whether the interaction is possible using a distance between the first position and the second position based on the reference coordinates;
The tracking unit additionally obtains a third position corresponding to the position of the user's eyes from the sensing unit,
The tracking unit corrects a result of determining whether the interaction is possible using the third position,
The tracking unit adjusts the second position within a range of the user's hand using the third position,
A training device in which a virtual hand simulating the user's hand is rendered in the virtual space formed on the screen.
상기 화면에 상기 오브젝트가 포함된 재활 콘텐츠를 표시하는 상기 미디어부가 마련되고,
상기 미디어부는 상기 트래킹부로부터 상기 상호작용 가능 여부에 대한 판별 결과를 입수하며,
상기 미디어부는 상기 판별 결과에 따라 상기 오브젝트를 변화시키는 훈련 장치.
According to claim 1,
The media unit for displaying rehabilitation content including the object on the screen is provided,
The media unit obtains a result of determining whether the interaction is possible from the tracking unit,
The training device for changing the object according to the determination result of the media unit.
제1 통신 수단, 제1 추적 수단, 제2 통신 수단, 제2 추적 수단, 판별 수단이 마련되고,
상기 제1 통신 수단은 상기 센싱부로부터 깊이 정보를 수신하며,
상기 제1 추적 수단은 상기 깊이 정보를 이용해서 상기 제1 위치를 추적하고,
상기 제2 통신 수단은 상기 오브젝트를 획득하고,
상기 제2 추적 수단은 상기 제2 위치를 추적하며,
상기 판별 수단은 상기 제1 위치와 상기 제2 위치를 이용해서 상기 상호작용 가능 여부를 판별하는 훈련 장치.
According to claim 1,
A first communication means, a first tracking means, a second communication means, a second tracking means, and a determining means are provided;
The first communication unit receives depth information from the sensing unit,
The first tracking means tracks the first position using the depth information;
the second communication means acquires the object;
the second tracking means tracks the second location;
wherein the determining unit determines whether the interaction is possible using the first location and the second location.
사용자의 손의 위치에 해당하는 제1 위치, 가상 공간에 표시되는 오브젝트의 위치에 해당하는 제2 위치 및 상기 가상 공간의 기준 위치를 입수하는 입수 단계;
상기 기준 위치를 이용해서 상기 제1 위치를 상기 가상 공간 상에 배치하고, 상기 제1 위치와 상기 제2 위치의 상호작용 여부를 판별하는 판별 단계;
상기 가상 공간을 생성하는 미디어부에 상기 상호작용 여부의 판별 결과를 제공하는 제공 단계;를 포함하고,
상기 사용자의 손을 촬영한 영상 데이터를 입수하고,
상기 사용자가 시청하는 화면에 상기 오브젝트가 포함된 재활 콘텐츠를 표시하는 미디어부에 상기 제1 위치와 함께 상기 영상 데이터를 제공하며,
상기 사용자의 눈의 위치에 해당하는 제3 위치를 추가로 입수하고,
상기 제3 위치를 이용해서 상기 상호작용 가능 여부의 판별 결과를 보정하며,
상기 제3 위치를 이용해서 상기 제2 위치를 상기 사용자의 손 영역 범위 내에서 조정하고,
상기 화면에 형성된 상기 가상 공간에는 상기 사용자의 손을 모의한 가상 손이 렌더링되는 작동 방법.In the operation method performed by the training device,
obtaining a first position corresponding to a position of a user's hand, a second position corresponding to a position of an object displayed in the virtual space, and a reference position in the virtual space;
a determination step of arranging the first location on the virtual space using the reference location and determining whether the first location interacts with the second location;
A providing step of providing a result of determining whether or not the interaction has occurred to a media unit generating the virtual space;
Obtaining image data of the user's hand,
Providing the image data together with the first location to a media unit displaying rehabilitation content including the object on a screen viewed by the user;
additionally obtaining a third position corresponding to the position of the user's eyes;
Correcting a result of determining whether the interaction is possible using the third position,
Adjusting the second position within a range of the user's hand area using the third position;
A virtual hand simulating the user's hand is rendered in the virtual space formed on the screen.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200167847A KR102542641B1 (en) | 2020-12-03 | 2020-12-03 | Apparatus and operation method for rehabilitation training using hand tracking |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200167847A KR102542641B1 (en) | 2020-12-03 | 2020-12-03 | Apparatus and operation method for rehabilitation training using hand tracking |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220078366A KR20220078366A (en) | 2022-06-10 |
KR102542641B1 true KR102542641B1 (en) | 2023-06-14 |
Family
ID=81986750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200167847A KR102542641B1 (en) | 2020-12-03 | 2020-12-03 | Apparatus and operation method for rehabilitation training using hand tracking |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102542641B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011018129A (en) * | 2009-07-07 | 2011-01-27 | Ritsumeikan | Human interface device |
KR101890459B1 (en) * | 2011-12-06 | 2018-08-21 | 톰슨 라이센싱 | Method and system for responding to user's selection gesture of object displayed in three dimensions |
KR102058458B1 (en) * | 2018-11-14 | 2019-12-23 | 주식회사 드림한스 | System for providing virtual reality content capable of multi-user interaction |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101881986B1 (en) | 2016-11-29 | 2018-07-26 | 주식회사 에스와이이노테크 | virtual Reality rehabilitation system for improving mild cognitive impairment of old person, and method thereof |
KR20190036864A (en) * | 2017-09-28 | 2019-04-05 | 주식회사 아인픽춰스 | VR observation telescope, driving method and application for VR observation using the same |
-
2020
- 2020-12-03 KR KR1020200167847A patent/KR102542641B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011018129A (en) * | 2009-07-07 | 2011-01-27 | Ritsumeikan | Human interface device |
KR101890459B1 (en) * | 2011-12-06 | 2018-08-21 | 톰슨 라이센싱 | Method and system for responding to user's selection gesture of object displayed in three dimensions |
KR102058458B1 (en) * | 2018-11-14 | 2019-12-23 | 주식회사 드림한스 | System for providing virtual reality content capable of multi-user interaction |
Also Published As
Publication number | Publication date |
---|---|
KR20220078366A (en) | 2022-06-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3469458B1 (en) | Six dof mixed reality input by fusing inertial handheld controller with hand tracking | |
US9829989B2 (en) | Three-dimensional user input | |
US10739936B2 (en) | Zero parallax drawing within a three dimensional display | |
EP3000020B1 (en) | Hologram anchoring and dynamic positioning | |
US9165381B2 (en) | Augmented books in a mixed reality environment | |
US20160267720A1 (en) | Pleasant and Realistic Virtual/Augmented/Mixed Reality Experience | |
JP6558839B2 (en) | Intermediary reality | |
EP3248045A1 (en) | Augmented reality field of view object follower | |
US20240037880A1 (en) | Artificial Reality System with Varifocal Display of Artificial Reality Content | |
CN113050802A (en) | Method, system and device for navigating in a virtual reality environment | |
JPWO2014128747A1 (en) | I / O device, I / O program, and I / O method | |
EP3688985A1 (en) | Head-mountable display system | |
US11682138B2 (en) | Localization and mapping using images from multiple devices | |
US20210377515A1 (en) | Information processing device, information processing method, and program | |
US20170300121A1 (en) | Input/output device, input/output program, and input/output method | |
KR102542641B1 (en) | Apparatus and operation method for rehabilitation training using hand tracking | |
WO2021182124A1 (en) | Information processing device and information processing method | |
JPH0628452A (en) | Three-dimensional image processor | |
US20170302904A1 (en) | Input/output device, input/output program, and input/output method | |
CN114253389B (en) | Augmented reality system integrating motion sensor and augmented reality display method | |
EP3891584B1 (en) | Mixed reality presentation | |
Faaborg et al. | METHODS AND APPARATUS TO SCALE ANNOTATIONS FOR DESIRABLE VIEWING IN AUGMENTED REALITY ENVIRONMENTS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |