KR102461024B1 - Head mounted display and method for executing action in virtual environment using the same - Google Patents
Head mounted display and method for executing action in virtual environment using the same Download PDFInfo
- Publication number
- KR102461024B1 KR102461024B1 KR1020170143281A KR20170143281A KR102461024B1 KR 102461024 B1 KR102461024 B1 KR 102461024B1 KR 1020170143281 A KR1020170143281 A KR 1020170143281A KR 20170143281 A KR20170143281 A KR 20170143281A KR 102461024 B1 KR102461024 B1 KR 102461024B1
- Authority
- KR
- South Korea
- Prior art keywords
- wearer
- motion
- virtual space
- information
- motion information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/003—Navigation within 3D models or images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0179—Display position adjusting means not related to the information to be displayed
- G02B2027/0187—Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Optics & Photonics (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
일 실시예에 따른 헤드 마운티드 디스플레이(head mounted display)는 착용자의 움직임을 감지하는 센서부와, 가상 공간 영상과 상기 감지된 움직임을 나타내는 움직임 정보를 표시하는 영상 표시부와, 복수 개의 움직임 정보 및 상기 복수 개의 움직임 정보 각각에 맵핑되어 있는 동작에 대한 정보를 저장하는 저장부와, 상기 착용자로부터 컨펌 입력을 받아들이는 조작부와, 상기 표시된 움직임 정보에 맵핑되어 있는 동작에 대한 정보를 상기 저장부로부터 획득하며, 상기 조작부가 받아들인 컨펌 입력에 따라서 상기 획득된 정보에 따른 동작이 상기 가상 공간 영상에서 수행되거나 수행되지 않도록 제어하는 제어부를 포함한다.A head mounted display according to an embodiment includes a sensor unit detecting a movement of a wearer, an image display unit displaying a virtual space image and motion information indicating the detected motion, a plurality of motion information and the plurality of motion information. A storage unit for storing information on a motion mapped to each of the motion information of the dog, a manipulation unit for receiving a confirmation input from the wearer, and information on the motion mapped to the displayed motion information are obtained from the storage unit, and a control unit for controlling the operation according to the obtained information to be performed or not performed on the virtual space image according to the confirmation input received by the manipulation unit.
Description
본 발명은 헤드 마운티드 디스플레이 및 이를 이용하여 가상 공간에서 동작이 수행되도록 하는 방법에 관한 것이다.The present invention relates to a head mounted display and a method for performing an operation in a virtual space using the same.
온라인 커뮤니티 활동이 보편화 되면서 가상 공간은 정보탐색 목적 이상으로 인간관계 형성과 욕구를 실현하는 공간으로 자리 잡았다. 사용자는 가상 공간에서 정보검색, 전자상거래 또는 커뮤니케이션과 같은 다양한 서비스를 이용할 수 있다. As online community activities become more common, virtual space has become a space for realizing human relationships and desires beyond the purpose of information search. Users can use various services such as information retrieval, e-commerce or communication in the virtual space.
아바타(avatar)는 이러한 가상 공간에서 사용자를 나타내는 매개체이다. 사용자는 가상 공간에서 자신의 아바타를 이용하여서 타인의 아바타와 끊임없는 의사소통을 할 수 있다. 이러한 아바타는 원격회의(teleconference) 등 다양한 분야에서 유용하게 사용되고 있다. An avatar is a medium representing a user in this virtual space. A user can continuously communicate with another's avatar by using his/her avatar in a virtual space. Such avatars are usefully used in various fields such as teleconference.
한편, 가상 공간에서의 의사 소통에서 시각적 요소는 비교적 큰 비중을 차지한다. 가상 공간에서 사용자를 시각적으로 나타내는 것이 아바타라는 점에서, 효과적인 의사 소통 내지는 의사 전달을 목적으로, 아바타를 시각적으로 모델링하는 방법에 대한 다양한 연구들이 진행되고 있다. 예컨대, 사용자가 발한 음성에 기반하여서, 아바타의 입모양을 이러한 음성에 실시간으로 부합되도록 구현하는 연구들이 진행된 바 있다.On the other hand, in communication in the virtual space, the visual element occupies a relatively large proportion. Since an avatar is a visual representation of a user in a virtual space, various studies are being conducted on a method of visually modeling an avatar for the purpose of effective communication or communication. For example, studies have been conducted to implement an avatar's mouth shape to match the voice of an avatar in real time, based on a user's voice.
본 발명이 해결하고자 하는 과제는, 가상 공간에서 사용자가 자신의 의사를 아바타를 통하여 반영할 수 있도록 하는 것이다. 예컨대, 사용자가 자신의 기분이나 표정을 아바타를 통하여 표현하도록 하는 기술 또는 사용자가 아바타를 이용하여서 특정 객체에 사전에 정의된 동작을 수행하도록 하는 기술을 제공하는 것이다.An object of the present invention is to allow a user to reflect his/her intention through an avatar in a virtual space. For example, a technique for allowing a user to express their mood or expression through an avatar or a technique for allowing a user to perform a predefined operation on a specific object using the avatar is provided.
다만, 본 발명의 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved of the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned can be clearly understood by those of ordinary skill in the art to which the present invention belongs from the following description. will be.
일 실시예에 따른 헤드 마운티드 디스플레이(head mounted display)는 착용자의 움직임을 감지하는 센서부와, 가상 공간 영상과 상기 감지된 움직임을 나타내는 움직임 정보를 표시하는 영상 표시부와, 복수 개의 움직임 정보 및 상기 복수 개의 움직임 정보 각각에 맵핑되어 있는 동작에 대한 정보를 저장하는 저장부와, 상기 착용자로부터 컨펌 입력을 받아들이는 조작부와, 상기 표시된 움직임 정보에 맵핑되어 있는 동작에 대한 정보를 상기 저장부로부터 획득하며, 상기 조작부가 받아들인 컨펌 입력에 따라서 상기 획득된 정보에 따른 동작이 상기 가상 공간 영상에서 수행되거나 수행되지 않도록 제어하는 제어부를 포함한다.A head mounted display according to an embodiment includes a sensor unit detecting a movement of a wearer, an image display unit displaying a virtual space image and motion information indicating the detected motion, a plurality of motion information and the plurality of motion information. A storage unit for storing information on a motion mapped to each of the motion information of the dog, a manipulation unit for receiving a confirmation input from the wearer, and information on the motion mapped to the displayed motion information are obtained from the storage unit, and a control unit for controlling the operation according to the obtained information to be performed or not performed on the virtual space image according to the confirmation input received by the manipulation unit.
일 실시예에 따른 가상 공간 영상에서 동작이 수행되도록 하는 방법은 헤드 마운티드 디스플레이(head mounted display)에 의해 수행되며, 가상 공간 영상을 표시하는 단계와, 착용자의 움직임을 감지하는 단계와, 상기 감지된 움직임을 나타내는 움직임 정보를 표시하는 단계와, 상기 표시된 움직임 정보에 맵핑되어 있는 동작에 대한 정보를, 상기 헤드 마운티드 디스플레이에 기 저장되어 있는 복수 개의 움직임 정보 및 상기 복수 개의 움직임 정보 각각에 맵핑되어 있는 동작에 대한 정보 중에서 획득하는 단계와, 상기 착용자로부터 컨펌 입력을 받아들이는 단계와, 상기 컨펌 입력에 따라서 상기 획득된 정보에 따른 동작이 상기 가상 공간 영상에서 수행되거나 수행되지 않도록 제어하는 단계를 포함한다.A method for performing an operation in a virtual space image according to an embodiment is performed by a head mounted display, displaying a virtual space image, detecting a wearer's movement, and the detected movement. Displaying motion information representing a motion, and applying information on the motion mapped to the displayed motion information to a plurality of motion information pre-stored in the head mounted display and an operation mapped to each of the plurality of motion information The method includes: obtaining from among information on , accepting a confirmation input from the wearer; and controlling an operation according to the obtained information according to the confirmation input to be performed or not performed in the virtual space image.
일 실시예에 따르면 가상 공간에서 착용자는 자신의 기분이나 표정을 아바타를 통하여 표현할 수 있다. 또한, 착용자는 가상 공간 영상에 존재하는 특정 객체에 대해 사전에 정의된 동작이 수행되도록 할 수 있다.According to an embodiment, the wearer may express his/her mood or expression through an avatar in a virtual space. In addition, the wearer may cause a predefined operation to be performed on a specific object existing in the virtual space image.
도 1은 헤드 마운티드 디스플레이를 착용자들이 착용한 것을 도시하고 있다.
도 2는 도 1에 도시된 착용자들이 경험하고 있는 가상 공간 내지는 가상 현실에 대한 예시적인 형태를 도시하고 있다.
도 3은 일 실시예에 따른 헤드 마운티드 디스플레이의 구성을 예시적으로 도시하고 있다.
도 4는 도 3에 도시된 센서부에 의해 감지 가능한 착용자의 움직임을 예를 들어 도시하고 있다.
도 5는 도 3에 도시된 헤드 마운티드 디스플레이를 착용한 착용자에게, 도 3에 도시된 영상 표시부가 제공하는 화면을 예시적으로 도시하고 있다.
도 6은 도 3에 도시된 저장부가 저장하는 정보의 예를 도시하고 있다.
도 7은 일 실시예에 따라, 가상 공간에서 아바타가 착용자의 표정을 나타내는 것을 예시적으로 도시하고 있다.
도 8은 도 3에 도시된 조작부의 외형을 예시적으로 도시하고 있다.
도 9는 일 실시예에 따라 가상 공간에서 동작이 수행되도록 하는 방법의 절차를 예시적으로 도시하고 있다.
도 10은 착용자의 움직임에 의해, 가상 공간에서 특정 객체가 선택되는 과정을 예시적으로 도시하고 있다.
도 11은 도 3에 도시된 저장부가 저장하는 정보에 대한 또 다른 예를 도시하고 있다.1 illustrates wearers wearing the head mounted display.
FIG. 2 shows an exemplary form of a virtual space or virtual reality experienced by the wearers shown in FIG. 1 .
3 exemplarily illustrates a configuration of a head mounted display according to an embodiment.
FIG. 4 illustrates, for example, a movement of the wearer that can be detected by the sensor unit shown in FIG. 3 .
FIG. 5 exemplarily illustrates a screen provided by the image display unit shown in FIG. 3 to a wearer wearing the head mounted display shown in FIG. 3 .
FIG. 6 shows an example of information stored by the storage unit shown in FIG. 3 .
7 exemplarily illustrates an avatar representing a wearer's facial expression in a virtual space, according to an embodiment.
FIG. 8 exemplarily shows the external appearance of the manipulation unit shown in FIG. 3 .
9 exemplarily illustrates a procedure of a method for performing an operation in a virtual space according to an embodiment.
10 exemplarily illustrates a process in which a specific object is selected in a virtual space by a wearer's movement.
FIG. 11 shows another example of information stored by the storage unit shown in FIG. 3 .
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, if it is determined that a detailed description of a well-known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted. In addition, the terms to be described later are terms defined in consideration of functions in an embodiment of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the content throughout this specification.
도 1은 헤드 마운티드 디스플레이(head mounted display, HMD)(100)를 착용자들(10)이 착용한 것을 도시하고 있다. 각각의 착용자들(10)은 인접하거나 같은 현실 공간에 존재하거나 또는 서로 이격된 현실 공간에 존재할 수 있다.1 illustrates that the
도 2는 도 1에 도시된 착용자들(10)이 경험하고 있는 가상 공간(virtual circumstance) 내지는 가상 현실(virtual reality, VR)의 예시적인 형태를 도시하고 있다. 도 2를 참조하면, 착용자들(10)은 각각 가상 공간에서 아바타(avatar)로 나타내어 진다. 이 때, 도 1에 도시된 착용자들(10)이 서로 인접하거나 같은 현실 공간에 존재하거나 서로 이격된 현실 공간에 존재하는 것과는 무관하게, 이들 착용자들(10)의 아바타들은 같은 가상 공간에서 존재할 수 있다. FIG. 2 shows an exemplary form of a virtual circumstance or virtual reality (VR) that the
착용자들(10)은 가상 공간에서 자신의 아바타를 통해 회의를 진행하거나 물건을 사고팔 수 있다. 또한, 착용자들(10)은 아바타를 통해 자신의 정보 내지는 의사를 표현할 수 있고, 타 착용자(10)의 아바타와 의사 소통을 수행할 수 있다. 도 2에 도시된 바와 같이 아바타에는 착용자(10) 자신의 이름 또는 아바타에 부여된 이름 등이 표시될 수 있다. The
착용자들(10)은 가상 공간에서 아바타를 통해 기 정의된 동작이 수행되도록 할 수 있다. 기 정의된 동작에는 예컨대 자신의 아바타가 가상 공간 상에서 다양한 표정을 갖도록 하는 것, 가상 공간에 배치된 특정 객체에 대해 기 정의된 동작이 수행되도록 하는 것 등이 있을 수 있다. 이를 위해 착용자들(10)은 자신이 착용하고 있는 헤드 마운티드 디스플레이(100)를 이용할 수 있다. 이하에서는 이러한 헤드 마운티드 디스플레이(100)에 대해 구체적으로 살펴보기로 한다.The
도 3은 도 1에 도시된 헤드 마운티드 디스플레이(100)의 구성을 예시적으로 도시하고 있다. 도 3을 도 1 및 2와 함께 이하에서 참조하면, 헤드 마운티드 디스플레이(100)는 센서부(110), 영상 표시부(120), 저장부(130), 조작부(140) 및 제어부(150)를 포함하며, 다만 헤드 마운티드 디스플레이(100)의 구성이 도 3에 도시된 것으로 한정 해석되지는 않는다. 예컨대, 헤드 마운티드 디스플레이(100)는 도 3에는 도시되지 않았지만 스마트폰과 같은 스마트기기와 통신을 수행하기 위한 통신부, 전원부, 착용자(10)의 머리에 착용되는 수단을 제공하는 착용부 등을 포함할 수 있다. 실시예에 따라, 헤드 마운티드 디스플레이(100)는 스마트폰과 같은 스마트기기와 결합되어서 전술한 구성, 예컨대 센서부(110), 영상 표시부(120), 저장부(130), 조작부(140) 또는 제어부(150) 등이 구현될 수도 있다.FIG. 3 exemplarily shows the configuration of the head mounted
이 중에서 센서부(110)는 헤드 마운티드 디스플레이(100)에 장착되어서, 헤드 마운티드 디스플레이(100) 자체의 움직임을 감지한다. 여기서, 헤드 마운티드 디스플레이(100)는 착용자(10)의 머리에 장착된다. 따라서, 센서부(110)가 감지하는 움직임은 착용자(10)의 머리 움직임일 수 있다. 도 4는 센서부(110)가 감지 가능한 착용자(10)의 머리 움직임을 예를 들어 도시하고 있으며, 다만 도 4에 도시된 움직임으로 한정 해석되는 것은 아니다. 이러한 센서부(110)는 관성 측정 센서(inertial measurement unit, IMU) 등으로 구현될 수 있으나 이에 한정되지 않는다.Among them, the
다시 도 3을 참조하면, 영상 표시부(120)는 가상 공간에 대한 영상이 착용자(10)에게 제공되도록 표시한다. 도 5는 영상 표시부(120)가 착용자(10)에게 제공하는 가상 공간 영상을 예시적으로 도시하고 있다. Referring back to FIG. 3 , the
도 5를 참조하면, 영상 표시부(120)에는 가상 공간에 존재하는 다양한 객체들(A,B)이 표시될 수 있다. Referring to FIG. 5 , various objects A and B existing in the virtual space may be displayed on the
또한, 영상 표시부(120)에는 센서부(110)에 의해 감지된 착용자(10) 자신의 움직임, 예컨대 착용자(10)의 머리 움직임이 표시될 수 있다. 이 때 도 5의 하단에 표시된 것과 같이 자이로(gyro)(121)의 형상으로 머리 움직임이 표시될 수 있다. 예컨대, 착용자(10)가 머리를 끄덕이는 경우 자이로(121) 역시 착용자(10)의 머리가 끄덕여지는 방향으로 움직일 수 있다.In addition, the
영상 표시부(120)의 화면 가운데에는 화면의 가운데를 나타내면서 또한 착용자(10)의 시선 방향을 나타내는 중심마크(123)가 배치될 수 있다. 중심마크(123)는 추후 착용자(10)가 특정 객체를 선택할 때 이용될 수 있는데, 이에 대해서는 도 10에서 후술하기로 한다.In the center of the screen of the
영상 표시부(120)에는 기 정의된 표식(122)이 표시될 수 있다. 이러한 표식(122)이 표시된 상황은, 후술할 제어부(150)가 착용자(10)의 머리 움직임을 착용자(10)의 명령 내지 특정한 의사로 받아들여서 해석할 준비가 되어 있다는 것을 의미한다. 즉, 표식(122)이 영상 표시부(120)에 표시 중인 경우에 센서부(110)가 감지한 착용자(10)의 머리 움직임은, 제어부(150)에 의해 착용자(10)의 명령이나 특정한 의사로 해석될 수 있는 반면, 표식(122)이 영상 표시부(120)에 표시되지 않은 경우에 착용자(10)의 머리 움직임은 착용자(10)의 명령이나 특정한 의사로 해석되지 않을 수 있다. 표식(122)은 특정한 이미지 또는 텍스트일 수 있다. 이러한 표식(122)은 후술할 조작부(140)에 대한 착용자(10)의 조작이 있어야 표시될 수 있는데, 이에 대해서는 후술하기로 한다.A
한편, 실시예에 따라서 전술한 표식(122) 자체를 도입하지 않은 영상 표시부(120)가 구현될 수도 있는데, 이 경우에 제어부(150)가 착용자(10)의 머리 움직임을 해석하는 절차에 대해서는 제어부(150)에 대해 설명하면서 보다 자세하게 설명하기로 한다.On the other hand, according to an embodiment, the
저장부(130)는 데이터를 저장하며, 메모리 등으로 구현 가능하다. 도 6은 저장부(140)에 저장된 데이터를 예를 들어 도시하고 있다. 도 6을 참조하면, 저장부(140)에는 기 정의된 복수 개의 움직임 정보, 그리고 이들 복수 개의 움직임 정보 각각에 맵핑되어 있는 동작 정보가 저장될 수 있다. 즉, 저장부(130)에는 특정 움직임이 센서부(110)에서 감지되었을 때 어떤 동작이 수행되어야 하는지에 대한 정보가 저장될 수 있다.The
여기서, 움직임 정보는 착용자(10)의 움직임을 나타낸다. 예컨대, 움직임 정보에는 착용자(10)의 머리 움직임이 도 4에 도시된 것과 같이 종류 별로 포함될 수 있다. 동작 정보는 가상 공간 영상에서 수행될 수 있는 동작을 나타낸다. 예컨대, 동작 정보에는 착용자(10)의 아바타가 특정 얼굴 표정(기쁜 표정, 슬픈 표정, 놀란 표정 등)을 짓는 것, 도 7에 도시된 것과 같이 착용자(10)의 아바타(124)가 표정이나 기분 등을 나타내는 이모티콘(125)을 표시하는 것, 착용자(10)의 아바타가 착용자(10)의 기분을 텍스트로 표시하도록 하는 것, 현재 저장부(130)에 저장되어 있는 움직임 정보 및 각각의 움직임 정보에 맵핑되어 있는 동작 정보를 리스트의 형태로 해당 착용자(10)에게 표시하는 것 등이 포함될 수 있다.Here, the motion information represents the motion of the
조작부(140)는 착용자(10)로부터 입력을 받아들이는 구성이다. 도 8은 이러한 조작부(140)의 외형을 예시적으로 도시하고 있는데, 이러한 외형을 갖는 조작부(140)는 헤드 마운티드 디스플레이(100)와 유선 또는 무선 방식으로 연결될 수 있다. 다만, 도 8에 도시된 것과는 달리 조작부(140)는 헤드 마운티드 디스플레이(100)에 버튼 형식으로 구현될 수도 있다. 한편, 이하에서는 조작부(140)는 도 8에 도시된 외형을 갖는 것을 전제로 설명하기로 한다. The
도 8을 참조하면, 조작부(140)에는 입력 버튼(141)이 구비될 수 있다. 착용자(10)가 입력 버튼(141)을 누른 경우 또는 누른 상태가 해제(release)된 경우 각각에 신호가 발생될 수 있으며, 각각의 신호는 후술할 제어부(150)에게 전달될 수 있다. 제어부(150)는 조작부(140)로부터 신호를 전달받아서 기 정의된 기능이 수행되도록 할 수 있는데, 이는 이하에서 보다 자세하게 설명하기로 한다.Referring to FIG. 8 , the
도 3을 참조하면, 헤드 마운티드 디스플레이(100)는 제어부(150)를 포함한다. 제어부(150)는 이하에서 설명할 기능을 수행하도록 프로그램된 명령어를 저장하는 메모리 및 이러한 명령어를 실행하는 마이크로프로세서에 의해 구현 가능하다.Referring to FIG. 3 , the head mounted
조작부(140)의 입력 버튼(141)이 눌리면 조작부(140)는 제어부(150)에게 제1 신호를 전달할 수 있으며, 이 경우 제어부(150)는 제1 신호를 기초로 영상 표시부(120)에 전술한 표식(122)이 표시되도록 제어할 수 있다. 이러한 표식(122)은, 표식(122)이 표시된 이후에 센서부(110)가 감지한 착용자(10)의 움직임을 제어부(150)가 착용자(10)의 명령 내지 특정한 의사로 해석할 준비가 완료되었다는 것을 의미할 수 있다. 이하에서는 영상 표시부(120)가 표식(122)을 표시하도록, 조작부(140)에 가해지는 착용자(10)의 조작 자체를 '준비 완료 입력'이라고 지칭하기로 한다.When the
아울러, 조작부(140)의 입력 버튼(141)이 눌렸다가 해제(release)되면 조작부(140)는 제어부(150)에게 제2 신호를 전달할 수 있으며, 이 경우 제어부(150)는 이러한 제2 신호를 기초로, 센서부(110)가 감지한 착용자(10)의 움직임에 맵핑되는 동작 정보를 저장부(130)로부터 획득한 뒤, 해당 동작 정보에 상응하는 동작이 수행되도록 제어할 수 있다. 즉, 조작부(140)의 입력 버튼(141)이 눌렸다가 해제되는 동작 자체는, 착용자(10)의 움직임에 맵핑되어 있는 기 정의된 동작이 수행되도록 컨펌하는 것을 의미할 수 있다. 전술한 기 정의된 동작이 수행되도록, 조작부(140)에 가해지는 착용자(10)의 조작 자체를 '컨펌 입력'이라고 지칭하기로 한다. 여기서, 조작부(140)의 입력 버튼(141)이 눌렸다가 해제되지 않은 시간이 일정 시간, 예컨대 5초를 경과한다면 조작부(140)는 제어부(150)에게 제3 신호를 전달할 수 있으며, 이 경우 제어부(150)는 이러한 제3 신호를 기초로, 착용자(10)의 움직임이 감지되는 것과는 별개로, 저장부(130)에 저장된 어떠한 동작도 수행되지 않도록 제어할 수 있다.In addition, when the
한편, 실시예에 따라서 영상 표시부(120)가 표식(122)을 표시하는 동작은 수행되지 않을 수 있다. 즉, 이 경우는 '준비 완료 입력'이 요구되지 않으며, 따라서 착용자(10)는 준비 완료 입력을 위해서 조작부(140)를 조작하지 않는다. 이러한 실시예에서, 표식(122)과는 무관하게 센서부(110)는 착용자(10)의 움직임을 감지하고, 영상 표시부(120)는 감지된 움직임에 대한 움직임 정보를 표시하며, 제어부(150)는 이러한 움직임 정보를 착용자(10)의 명령 내지는 특정한 의사로 해석할 수 있다. 만약 움직임 정보가 부정확하거나 저장부(130)에 저장되지 않은 움직임 정보라면 어떠한 동작도 수행되지 않도록 할 수 있다.Meanwhile, according to an embodiment, the operation of the
이하에서는 도 9를 참조하여서 헤드 마운티드 디스플레이(100)에 의해 가상 공간 영상에서 기 정의된 동작이 수행되는 과정에 대해 살펴보기로 한다.Hereinafter, a process in which a predefined operation is performed in a virtual space image by the head mounted
도 9를 참조하면, 먼저 영상 표시부(120)는 가상 공간 영상이 착용자(10)에게 제공되도록 표시할 수 있다(S100). Referring to FIG. 9 , first, the
이 후, 조작부(140)의 입력 버튼(141)이 눌리면, 조작부(140)는 이를 준비 완료 입력으로 받아들이며(S110), 영상 표시부(120)는 가상 공간 영상에 기 정의된 표식(122)을 표시할 수 있다(S120). 그러나, 조작부(140)의 입력 버튼(141)이 눌리지 않으면, 영상 표시부(120)는 가상 공간 영상에 기 정의된 표식(122)을 표시하지 않는다. 여기서, 실시예에 따라서, 단계 S110과 S120은 수행되지 않을 수 있으며, 이 경우 단계 S100에서 곧바로 이하의 단계 S130이 수행될 수 있다.After that, when the
센서부(110)에서 감지된(S130) 착용자(10)의 움직임은 영상 표시부(120)에서 움직임 정보로 표시될 수 있다(S140). 움직임 정보는 자이로(gyro) 형상으로 표시될 수 있다.The motion of the
착용자(10)가 조작부(140)의 입력 버튼(141)을 기 정의된 시간 이내에 해제하면, 조작부(140)는 이를 컨펌 입력으로 받아들인다(S150). 이 경우 제어부(150)는 영상 표시부(120)에 표시된 움직임 정보에 맵핑되어 있는 동작 정보를 저장부(130)로부터 획득한 뒤, 이러한 동작 정보에 따른 동작이 수행되도록 할 수 있다(S170). 여기서의 동작은 착용자(10)의 아바타가 특정 얼굴 표정(기쁜 표정, 슬픈 표정, 놀란 표정 등)을 짓는 것, 도 7에 도시된 것과 같이 착용자(10)의 아바타(124)가 특정 표정 이모티콘(125)을 표시하는 것, 착용자(10)의 아바타가 착용자(10)의 기분을 텍스트로 표시하도록 하는 것, 현재 저장부(130)에 저장되어 있는 움직임 정보 및 각각의 움직임 정보에 맵핑되어 있는 동작 정보를 리스트의 형태로 해당 착용자(10)에게 표시하는 것 등이 포함될 수 있다. When the
반면, 착용자(10)가 조작부(140)의 입력 버튼(141)을 기 정의된 시간이 경과하여도 해제하지 않거나 기 정의된 시간 이후에 해제할 경우, 제어부(150)는 이를 컨펌되지 않은 것으로 받아들인다. 이 경우 제어부(150)는 영상 표시부(120)에서 착용자(10)에게 움직임을 재요청하는 메시지가 표시되도록 제어할 수 있다(S160).On the other hand, when the
여기서, 만약 실시예에 따라서 단계 S110과 S120이 수행되지 않았을 경우, 단계 S150의 컨펌 입력은 착용자(10)가 조작부(140)의 입력 버튼(141)을 누름으로써 입력될 수 있다.Here, if steps S110 and S120 are not performed according to an embodiment, the confirmation input of step S150 may be input by the
이상에서 살펴본 바와 같이, 일 실시예에 따르면 가상 공간에서 착용자는 자신의 기분이나 표정을 아바타를 통하여 표현할 수 있다. 이 경우, 자신의 머리 움직임을 나타내는 영상 표시부, 그리고 이러한 머리 움직임이 자신의 의도한 움직임인지를 컨펌하는데 사용되는 조작부에 의해, 정확하게 자신의 기분이나 표정이 아바타를 통하여 표현되도록 할 수 있다.As described above, according to an embodiment, the wearer may express his or her mood or expression through an avatar in a virtual space. In this case, it is possible to accurately express one's mood or expression through the avatar by the image display unit indicating the movement of one's own head and the operation unit used to confirm whether the movement of the head is intended by the user.
한편, 전술한 실시예는 착용자(10)의 기분이나 표정을 아바타를 통해 표시하는 것인데, 이와는 달리 또는 이에 추가하여서 가상 공간 영상에 존재하는 특정 객체에 기 정의된 동작이 수행되도록 할 수도 있다. 이에 대해서는 도 10과 도 11을 참고하여서 살펴보기로 한다.Meanwhile, in the above-described embodiment, the mood or expression of the
도 10은 가상 공간 영상에 존재하는 복수 개의 객체 중 어느 하나의 객체가 선택되는 과정을 예시적으로 도시하고 있다. 도 10을 참조하면, 영상 표시부(120)에는 중심마크(123)가 표시될 수 있다. 중심마크(123)는 영상 표시부(120)의 화면 가운데에서 화면의 가운데를 나타내며 또한 착용자(10)의 시선 방향을 나타낸다. 10 exemplarily illustrates a process in which any one object is selected from among a plurality of objects existing in a virtual space image. Referring to FIG. 10 , a
착용자(10)는 자신의 머리 움직임을 이용해서 중심마크(123)가 가상 공간 영상에서 움직이도록 할 수 있다. 예컨대, 착용자(10)가 자신의 머리를 좌우로 회전할 경우 그 궤적(125)은 도 10에 도시된 것과 같을 수 있다. 이 경우 제어부(150)는 해당 궤적(125)이 지나가는 경로에 있는 객체 A를 착용자(10)가 선택한 객체로 인식할 수 있다. 즉, 가상 공간 영상에는 복수 개의 객체가 존재하며, 영상 표시부(120)에 표시된 객체 또한 적어도 한 개 이상일 수 있는데, 일 실시예에서는 이 중 어느 하나의 객체를 선택하는 방법으로서 착용자(10) 자신의 머리 움직임의 궤적(125)을 이용하는 방법을 제시하고 있다. 다만, 도 10에 도시된 궤적(125)의 모양은 예시적인 것이며, 다양한 모양의 궤적이 사전에 정의되어 있을 수 있다.The
이러한 실시예에서 저장부(130)에는 가상 공간 영상에 존재하는 모든 객체, 즉 복수 개의 객체 각각에 대해 움직임 정보와, 각각의 움직임 정보에 맵핑되는 동작 정보가 저장되어 있을 수 있다. 도 11은 이러한 정보의 형태를 리스트의 형태로 예를 들어서 표시하고 있다. 도 11을 참조하면, 복수 개의 서로 상이한 움직임 정보가 설정 및 저장되어 있다. 아울러, 객체마다 특정 움직임에 의해 수행되는 동작이 서로 상이하거나 동일할 수 있다. 예컨대, 움직임이 a일 때 객체 A에서는 해당 객체 A를 여는 동작이 수행되지만 객체 B에서는 해당 객체 B를 마시는 동작이 수행될 수 있다. 착용자(10)는 사전에 어떠한 머리 움직임이 어떠한 동작을 수행하는데에 필요한지에 대해 알고 있어야 한다.In this embodiment, the
이하에서는 이러한 실시예가 실시되는 구체적인 과정에 대해 다시 도 9를 참조하여서 예를 들어 살펴보기로 한다.Hereinafter, a detailed process in which this embodiment is implemented will be described as an example with reference to FIG. 9 again.
먼저 영상 표시부(120)는 가상 공간 영상이 착용자(10)에게 제공되도록 표시할 수 있다(S100). First, the
이 후, 조작부(140)의 입력 버튼(141)이 눌리면, 조작부(140)는 이를 준비 완료 입력으로 받아들이며(S110), 영상 표시부(120)는 가상 공간 영상에 기 정의된 표식(122)을 표시할 수 있다(S120). 그러나, 조작부(140)의 입력 버튼(141)이 눌리지 않으면, 영상 표시부(120)는 가상 공간 영상에 기 정의된 표식(122)을 표시하지 않는다. 여기서, 실시예에 따라서, 단계 S110과 S120은 수행되지 않을 수 있으며, 이 경우 단계 S100에서 곧바로 이하의 단계 S130이 수행될 수 있다.After that, when the
센서부(110)에서 감지된(S130) 착용자(10)의 움직임은 영상 표시부(120)에서 움직임 정보로 표시될 수 있다(S140). 움직임 정보는 자이로(gyro) 형상으로 표시될 수 있다. 아울러, 이러한 움직임은 제어부(150)에 의해 가상 공간 영상에 존재하는 복수 개의 객체 중 어느 하나를 선택하는 정보로 활용될 수 있다. 즉, 움직임에 의해 중심마크(123)의 궤적이 변할 때, 그 궤적에 있는 객체가 선택될 수 있다.The motion of the
착용자(10)가 조작부(140)의 입력 버튼(141)을 기 정의된 시간 이내에 해제함으로써 컨펌 입력이 조작부(140)에 받아들여지면(S150), 제어부(150)는 영상 표시부(120)에 표시된 움직임 정보에 맵핑되어 있는 동작 정보를 저장부(130)로부터 획득한 뒤, 이러한 동작 정보에 따른 동작이 수행되도록 할 수 있다(S170). 여기서의 동작은 선택된 특정 객체에 미리 저장되어 있는 동작, 예컨대 해당 객체를 열거나 듣거나 던지거나 마시거나 버리는 동작 등일 수 있으며, 또한 현재 저장부(130)에 저장되어 있는 움직임 정보 및 각각의 움직임 정보에 맵핑되어 있는 동작 정보를 리스트의 형태로 해당 착용자(10)에게 표시하는 것 등이 포함될 수 있다. When the
반면, 착용자(10)가 조작부(140)의 입력 버튼(141)을 기 정의된 시간이 경과하여도 해제하지 않거나 기 정의된 시간 이후에 해제할 경우, 제어부(150)는 컨펌되지 않은 것으로 받아들일 수 있고, 이 경우 제어부(150)는 영상 표시부(120)에서 착용자(10)에게 움직임을 재요청하는 메시지가 표시되도록 제어할 수 있다(S160). On the other hand, if the
여기서, 만약 실시예에 따라서 단계 S110과 S120이 수행되지 않았을 경우, 단계 S150의 컨펌 입력은 착용자(10)가 조작부(140)의 입력 버튼(141)을 누른 것에 의해 조작부(140)에 받아들여질 수 있다.Here, if steps S110 and S120 are not performed according to the embodiment, the confirmation input of step S150 may be accepted by the
이상에서 살펴본 바와 같이, 일 실시예에 따르면 착용자는 아바타를 이용하여서 가상 공간 영상에 존재하는 특정 객체에 사전에 정의된 동작을 수행하도록 할 수 있다. As described above, according to an embodiment, the wearer may use an avatar to perform a predefined operation on a specific object existing in a virtual space image.
이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely illustrative of the technical idea of the present invention, and various modifications and variations will be possible without departing from the essential quality of the present invention by those skilled in the art to which the present invention pertains. Therefore, the embodiments disclosed in the present invention are not intended to limit the technical spirit of the present invention, but to explain, and the scope of the technical spirit of the present invention is not limited by these embodiments. The protection scope of the present invention should be construed by the following claims, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present invention.
일 실시예에 따르면, 가상 공간에서 헤드 마운티드 디스플레이의 착용자는 자신의 의사를 아바타를 통하여 반영할 수 있다.According to an embodiment, the wearer of the head mounted display may reflect his/her intention through the avatar in the virtual space.
100: 헤드 마운티드 디스플레이100: head mounted display
Claims (12)
착용자의 움직임을 감지하는 센서부와,
가상 공간 영상과 상기 감지된 움직임을 나타내는 움직임 정보를 표시하는 영상 표시부를 포함하되, 상기 착용자에 대응되는 아바타가 기 정의되어 있으며,
상기 헤드 마운티드 디스플레이는,
복수 개의 움직임 정보 및 상기 복수 개의 움직임 정보 각각에 맵핑되어 있는, 상기 아바타의 동작에 대한 정보를 저장하는 저장부와,
상기 착용자로부터 컨펌 입력을 받아들이는 조작부와,
상기 표시된 움직임 정보에 맵핑되어 있는 동작에 대한 정보를 상기 저장부로부터 획득하며, 상기 조작부가 받아들인 컨펌 입력에 따라서 상기 획득된 정보에 따른 상기 아바타의 동작이 상기 가상 공간 영상에서 수행되거나 수행되지 않도록 제어하는 제어부를 포함하고,
상기 복수 개의 움직임 정보 각각에 맵핑되어 있는, 상기 아바타의 동작은,
상기 가상 공간 영상에서 상기 착용자에 대응되는 아바타의 표정을 나타내는 것을 포함하는,
헤드 마운티드 디스플레이.In the head mounted display,
A sensor unit that detects the movement of the wearer,
A virtual space image and an image display unit for displaying motion information representing the sensed motion, wherein an avatar corresponding to the wearer is predefined;
The head mounted display,
a storage unit for storing a plurality of motion information and information on the motion of the avatar mapped to each of the plurality of motion information;
a manipulation unit for receiving a confirmation input from the wearer;
information on the motion mapped to the displayed motion information is obtained from the storage unit, and according to the confirmation input received by the manipulation unit, the motion of the avatar according to the obtained information is performed or not performed in the virtual space image including a control unit to control,
The motion of the avatar mapped to each of the plurality of motion information includes:
In the virtual space image, including displaying the expression of the avatar corresponding to the wearer,
Head mounted display.
상기 영상 표시부는,
상기 복수 개의 움직임 정보 중에서 상기 착용자의 머리 움직임에 대응되는 움직임 정보를 표시하는
헤드 마운티드 디스플레이.The method of claim 1,
The video display unit,
Displaying movement information corresponding to the wearer's head movement among the plurality of movement information
Head mounted display.
상기 영상 표시부는,
상기 착용자의 머리 움직임에 대응되는 움직임 정보를 자이로(gyro) 형상으로 표시하는
헤드 마운티드 디스플레이.3. The method of claim 2,
The video display unit,
Displaying movement information corresponding to the wearer's head movement in a gyro shape
Head mounted display.
상기 저장부에 저장된 동작은,
상기 복수 개의 움직임 정보 및 상기 복수 개의 움직임 정보 각각에 맵핑되어 있는 동작에 대한 정보를 상기 가상 공간 영상에서 상기 착용자에게 제공되도록 표시하는 것을 포함하는
헤드 마운티드 디스플레이.The method of claim 1,
The operation stored in the storage unit,
Displaying the plurality of motion information and information on motion mapped to each of the plurality of motion information to be provided to the wearer in the virtual space image
Head mounted display.
상기 조작부는 상기 착용자로부터 준비 완료 입력을 받아들이고,
상기 영상 표시부는 상기 가상 공간 영상에 기 정의된 표식을 표시한 뒤, 상기 착용자가 행한, 상기 센서부에 의해 감지된 움직임에 대한 움직임 정보를 표시하는
헤드 마운티드 디스플레이.The method of claim 1,
The manipulation unit receives a ready input from the wearer,
The image display unit displays a predefined mark on the virtual space image, and then displays movement information on the movement sensed by the sensor unit, performed by the wearer.
Head mounted display.
상기 가상 공간 영상을 표시하는 단계와,
착용자의 움직임을 감지하는 단계와,
상기 감지된 움직임을 나타내는 움직임 정보를 표시하는 단계를 포함하되, 상기 착용자에 대응되는 아바타가 기 정의되어 있으며,
상기 가상 공간 영상에서 동작이 수행되도록 하는 방법은,
상기 표시된 움직임 정보에 맵핑되어 있는 아바타의 동작에 대한 정보를, 상기 헤드 마운티드 디스플레이에 기 저장되어 있는 복수 개의 움직임 정보 및 상기 복수 개의 움직임 정보 각각에 맵핑되어 있는 동작에서 획득하는 단계와,
상기 착용자로부터 컨펌 입력을 받아들이는 단계와,
상기 컨펌 입력에 따라서 상기 획득된 정보에 따른 상기 아바타의 동작이 상기 가상 공간 영상에서 수행되거나 수행되지 않도록 제어하는 단계를 포함하고,
상기 복수 개의 움직임 정보 각각에 맵핑되어 있는, 상기 아바타의 동작은,
상기 가상 공간 영상에서 상기 착용자에 대응되는 아바타의 표정을 나타내는 것을 포함하는,
가상 공간 영상에서 동작이 수행되도록 하는 방법.A method for performing an operation in a virtual space image, the method being performed by a head mounted display,
displaying the virtual space image;
detecting the wearer's movement; and
displaying motion information indicating the detected motion, wherein an avatar corresponding to the wearer is predefined;
A method for performing an operation in the virtual space image,
obtaining information on the motion of the avatar mapped to the displayed motion information from a plurality of motion information pre-stored in the head mounted display and a motion mapped to each of the plurality of motion information;
receiving a confirmation input from the wearer;
and controlling the operation of the avatar according to the obtained information to be performed or not performed in the virtual space image according to the confirmation input;
The motion of the avatar mapped to each of the plurality of motion information includes:
In the virtual space image, including displaying the expression of the avatar corresponding to the wearer,
A method for allowing an action to be performed in a virtual space image.
상기 움직임 정보를 표시하는 단계는,
상기 복수 개의 움직임 정보 중에서 상기 착용자의 머리 움직임에 대응되는 움직임 정보를 표시하는
가상 공간 영상에서 동작이 수행되도록 하는 방법.8. The method of claim 7,
The step of displaying the motion information comprises:
Displaying movement information corresponding to the wearer's head movement among the plurality of movement information
A method for allowing an action to be performed in a virtual space image.
상기 움직임 정보를 표시하는 단계는,
상기 착용자의 머리 움직임에 대응되는 움직임 정보를 자이로(gyro) 형상으로 표시하는
가상 공간 영상에서 동작이 수행되도록 하는 방법.9. The method of claim 8,
The step of displaying the motion information comprises:
Displaying movement information corresponding to the wearer's head movement in a gyro shape
A method for allowing an action to be performed in a virtual space image.
상기 기 저장된 복수 개의 움직임 정보 각각에 맵핑되어 있는 동작은,
상기 복수 개의 움직임 정보 및 상기 복수 개의 움직임 정보 각각에 맵핑되어 있는 동작에 대한 정보를 상기 가상 공간 영상을 통해 상기 착용자에게 제공되도록 표시하는 것을 포함하는
가상 공간 영상에서 동작이 수행되도록 하는 방법.8. The method of claim 7,
The operation mapped to each of the plurality of pre-stored motion information includes:
Displaying the plurality of motion information and information on motion mapped to each of the plurality of motion information to be provided to the wearer through the virtual space image
A method for allowing an action to be performed in a virtual space image.
상기 방법은,
상기 착용자로부터 준비 완료 입력을 받아들이는 단계와,
상기 가상 공간 영상에 기 정의된 표식을 표시하는 단계를 더 포함하고,
상기 움직임 정보를 표시하는 단계는,
상기 표식이 상기 가상 공간 영상에 표시된 이후에 상기 착용자가 행함으로써 감지된 움직임에 대한 움직임 정보를 표시하는
가상 공간 영상에서 동작이 수행되도록 하는 방법.8. The method of claim 7,
The method is
accepting a ready input from the wearer;
Further comprising the step of displaying a predefined mark on the virtual space image,
The step of displaying the motion information comprises:
Displaying motion information about a motion detected by the wearer after the mark is displayed on the virtual space image
A method for allowing an action to be performed in a virtual space image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170143281A KR102461024B1 (en) | 2017-10-31 | 2017-10-31 | Head mounted display and method for executing action in virtual environment using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170143281A KR102461024B1 (en) | 2017-10-31 | 2017-10-31 | Head mounted display and method for executing action in virtual environment using the same |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190048370A KR20190048370A (en) | 2019-05-09 |
KR102461024B1 true KR102461024B1 (en) | 2022-10-31 |
Family
ID=66545956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170143281A KR102461024B1 (en) | 2017-10-31 | 2017-10-31 | Head mounted display and method for executing action in virtual environment using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102461024B1 (en) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100866847B1 (en) * | 2005-12-08 | 2008-11-04 | 한국전자통신연구원 | System and method for on-line fighting aaction game using tracker |
TW200941271A (en) | 2008-01-17 | 2009-10-01 | Vivox Inc | Scalable techniques for providing real-time per-avatar streaming data in virtual reality systems that employ per-avatar rendered environments |
KR100978929B1 (en) * | 2008-06-24 | 2010-08-30 | 한국전자통신연구원 | Registration method of reference gesture data, operation method of mobile terminal and mobile terminal |
US9141197B2 (en) * | 2012-04-16 | 2015-09-22 | Qualcomm Incorporated | Interacting with a device using gestures |
KR20170089228A (en) * | 2016-01-26 | 2017-08-03 | 이재민 | Method for controlling a virtual reality head mounted display using smart phone |
-
2017
- 2017-10-31 KR KR1020170143281A patent/KR102461024B1/en active IP Right Grant
Also Published As
Publication number | Publication date |
---|---|
KR20190048370A (en) | 2019-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6240301B1 (en) | Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program | |
EP3063587B1 (en) | Apparatus and method for head mounted display indicating process of 3d printing | |
JP6462059B1 (en) | Information processing method, information processing program, information processing system, and information processing apparatus | |
US20150145653A1 (en) | Device control using a wearable device | |
JP6532393B2 (en) | Display control apparatus and display control method | |
JP6470796B2 (en) | Information processing method, program, and computer | |
US20190377474A1 (en) | Systems and methods for a mixed reality user interface | |
CN108431667A (en) | Information processing unit, information processing method and program | |
JP6122537B1 (en) | Information processing method and program for causing computer to execute information processing method | |
JP6439806B2 (en) | Robot apparatus and program | |
JP6220937B1 (en) | Information processing method, program for causing computer to execute information processing method, and computer | |
JP2018013938A (en) | Method for providing virtual space, method for providing virtual experience, program and recording medium | |
US20220297006A1 (en) | Program, method, and terminal device | |
KR20200034716A (en) | Unlock augmented reality experiences through target image detection | |
JP2018200678A (en) | Program executed by computer capable of communicating with head mounted device, information processing apparatus for executing that program, and method implemented by computer capable of communicating with head mounted device | |
KR102461024B1 (en) | Head mounted display and method for executing action in virtual environment using the same | |
JP6479933B1 (en) | Program, information processing apparatus, and method | |
JP6113897B1 (en) | Method for providing virtual space, method for providing virtual experience, program, and recording medium | |
JP6203346B1 (en) | Method, program, and recording medium for providing virtual space | |
JP6278546B1 (en) | Information processing method, apparatus, and program for causing computer to execute information processing method | |
JP2019036239A (en) | Information processing method, information processing program, information processing system, and information processing device | |
JP2019197478A (en) | Program and information processing apparatus | |
JP6159455B1 (en) | Method, program, and recording medium for providing virtual space | |
CN114302762A (en) | Program, method, and information processing terminal | |
JP6242452B1 (en) | Method for providing virtual space, method for providing virtual experience, program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |