KR20170076534A - Virtual reality interface apparatus and method for controlling the apparatus - Google Patents

Virtual reality interface apparatus and method for controlling the apparatus Download PDF

Info

Publication number
KR20170076534A
KR20170076534A KR1020160055768A KR20160055768A KR20170076534A KR 20170076534 A KR20170076534 A KR 20170076534A KR 1020160055768 A KR1020160055768 A KR 1020160055768A KR 20160055768 A KR20160055768 A KR 20160055768A KR 20170076534 A KR20170076534 A KR 20170076534A
Authority
KR
South Korea
Prior art keywords
user
virtual reality
hand
coordinates
source
Prior art date
Application number
KR1020160055768A
Other languages
Korean (ko)
Inventor
조용진
이성연
김기환
김종윤
여문기
이대규
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020160147636A priority Critical patent/KR20170076544A/en
Priority to US15/390,229 priority patent/US10338688B2/en
Publication of KR20170076534A publication Critical patent/KR20170076534A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/014Hand-worn input/output arrangements, e.g. data gloves

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시는 가상 현실에서 사용자에게 이미지를 제공하여 조작된 감각 자극을 통해 사용자가 현실감을 느끼도록 하는 기술과 관련된 것이다. 본 개시는 상기 기술을 기반으로 하는 게임, 교육, 의료, 저널리즘 등 많은 산업 영역에서 활용될 수 있다. 본 개시는 가상 현실 인터페이스 장치 및 사용자의 손을 이용하여 이를 제어하는 방법을 개시한다. The present disclosure relates to a technique for providing an image to a user in a virtual reality and allowing the user to feel the reality through manipulated sensory stimulation. The present disclosure can be utilized in many industrial areas such as games, education, medical care, journalism, etc. based on the above-described technology. The present disclosure discloses a virtual reality interface device and a method for controlling the same using a user's hand.

Figure P1020160055768
Figure P1020160055768

Description

가상 현실 인터페이스 장치 및 제어 방법{VIRTUAL REALITY INTERFACE APPARATUS AND METHOD FOR CONTROLLING THE APPARATUS} TECHNICAL FIELD [0001] The present invention relates to a virtual reality interface device,

가상 현실 인터페이스 장치 및 제어 방법에 관한 것이다. A virtual reality interface device, and a control method.

최근 가상 현실 장치(Virtual Reality Device)를 이용하여 사용자에게 이미지를 제공하는 장치들이 개발되고 있다. 가상 현실 기술은 조작된 감각 자극을 통해 사용자가 현실감을 느끼도록 하는 것으로 게임, 교육, 의료, 저널리즘 등 많은 산업 영역에서 활용될 수 있다. Recently, devices for providing images to users by using a virtual reality device have been developed. Virtual reality technology enables users to feel reality through manipulated sensory stimulation and can be used in many industrial fields such as games, education, medical care, journalism.

기존의 평판 디스플레이에서 정해진 크기의 화면만 보여주던 것과는 다르게, 가상 현실 장치를 이용하여 360도 시야 전체가 가득차는 것을 경험할 수 있게 된다. 이를 통해 사용자는 마치 다른 세상으로 이동한 듯한 몰입감을 느끼게 된다. 가상 현실 기술은 사용자에게 시각, 청각 등의 감각을 제공하는 것 이외에도 촉감을 느끼게 하여 몰입감을 향상시킨다. Unlike a conventional flat panel display in which only a screen of a predetermined size is displayed, it is possible to experience a full 360-degree field of view using a virtual reality apparatus. This allows the user to feel immersive as if they were moving to another world. Virtual reality technology not only provides the user with a sense of sight, hearing, etc., but also enhances immersion by making the user feel tactile.

가상 현실 인터페이스 장치 및 제어 방법을 제공하는 데 있다. 또한, 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다. 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 이하의 실시예들로부터 또 다른 기술적 과제들이 유추될 수 있다.A virtual reality interface device, and a control method. The present invention also provides a computer-readable recording medium on which a program for causing the computer to execute the method is provided. The technical problem to be solved by this embodiment is not limited to the above-mentioned technical problems, and other technical problems can be deduced from the following embodiments.

제 1측면에 따른 가상 현실 인터페이스 장치는 자기장을 발생하는 소스; 발생된 자기장에 기초하여, 사용자의 손의 좌표를 획득하는 모션 검출기(motion detector); 및 모션 검출기로부터 수신한 사용자의 손의 좌표를 사용자의 움직임에 따른 소스의 위치 변화에 기초하여 가상 현실에 반영하는 가상 현실 제공 장치를 포함할 수 있다. A virtual reality interface apparatus according to a first aspect includes: a source for generating a magnetic field; A motion detector for obtaining coordinates of a user's hand based on the generated magnetic field; And a virtual reality providing device that reflects the coordinates of the user's hand received from the motion detector on the virtual reality based on a change in the position of the source in accordance with the movement of the user.

또한, 가상 현실 제공 장치는 상기 소스를 탈부착 가능할 수 있다. Further, the virtual reality providing apparatus may be detachable from the source.

또한, 가상 현실 제공 장치는 모션 검출기에서 수신한 소스의 위치를 기준으로 한 사용자의 손의 좌표를, 사용자의 움직임에 따라 소스의 위치 변화에 기초하여, 사용자의 몸의 일부를 기준으로 보정할 수 있다. The virtual reality providing apparatus can correct the coordinates of the user's hand based on the position of the source received from the motion detector on the basis of a part of the user's body based on the change in the position of the source in accordance with the movement of the user have.

또한, 사용자의 움직임은 사용자의 머리 움직임이고, 사용자의 몸의 일부는 사용자의 흉부일 수 있다. Further, the movement of the user may be the head movement of the user, and a part of the user's body may be the chest of the user.

또한, 가상 현실 제공 장치는, 모션 검출기와 통신하는 통신 인터페이스; 사용자의 움직임을 감지하는 센서; 모션 검출기로부터 수신한 사용자의 손의 좌표를 사용자의 몸의 일부를 기준으로 보정하여 사용자의 손의 좌표를 구하는 프로세서 를 포함할 수 있다. The virtual reality providing apparatus further includes: a communication interface for communicating with the motion detector; A sensor for detecting movement of the user; And a processor for obtaining the coordinates of the user's hand by correcting coordinates of the user's hand received from the motion detector on the basis of a part of the user's body.

또한, 가상 현실 제공 장치는, 사용자의 손의 좌표를 반영한 가상 현실을 사용자에게 디스플레이하는 디스플레이를 더 포함할 수 있다.Further, the virtual reality providing apparatus may further include a display for displaying to the user a virtual reality reflecting the coordinates of the user's hand.

또한, 통신 인터페이스는, 외부의 디스플레이 장치로 사용자의 손의 좌표를 반영한 가상 현실을 전송할 수 있다.Further, the communication interface can transmit the virtual reality reflecting the coordinates of the user's hand to an external display device.

또한, 가상 현실 제공 장치는 가상 현실 내 객체 좌표와 사용자의 손의 좌표에 기초하여 진동 발생 신호를 생성할 수 있다. In addition, the virtual reality providing apparatus can generate the vibration generation signal based on the object coordinates in the virtual reality and the coordinates of the user's hand.

또한, 모션 검출기는, 모션 검출기의 어느 일부가 구부러진 형태를 포함하고, 사용자의 손의 어느 일부에 구부러진 형태의 일부가 거치될 수 있다.Further, the motion detector may include a part of the motion detector including a bent part, and a part of the bent part may be mounted on a part of the user's hand.

또한, 상기 모션 검출기는, 사용자의 손가락의 움직임을 감지하는 적어도 하나의 센서를 모션 검출기의 적어도 하나의 측면에 위치시킬 수 있다.In addition, the motion detector may position at least one sensor, which senses movement of the user's finger, on at least one side of the motion detector.

제 2측면에 따른 가상 현실 인터페이스 장치를 제어하는 방법은, 소스에서 발생된 자기장에 기초하여, 사용자의 손의 좌표를 획득하는 단계; 사용자의 움직임에 따른 소스의 위치 변화를 감지하는 단계; 및 획득한 사용자의 손의 좌표를 감지된 소스의 위치 변화에 기초하여 가상 현실에 반영하는 단계를 포함할 수 있다. A method of controlling a virtual reality interface device according to a second aspect includes obtaining coordinates of a user's hand based on a magnetic field generated at a source; Detecting a change in the position of the source in accordance with the movement of the user; And reflecting the coordinates of the obtained hand of the user to the virtual reality based on the change in the position of the sensed source.

제 3측면에 따라, 가상 현실 인터페이스 장치를 제어하는 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체가 제공될 수 있다.According to a third aspect, there is provided a computer-readable recording medium having recorded thereon a program for causing a computer to execute a method of controlling a virtual reality interface device.

도 1은 일 실시예에 따른 가상 현실 인터페이스 장치의 구성을 설명하기 위한 블록도이다.
도 2는 일 실시예에 따른 가상 현실 인터페이스 장치의 동작을 설명하기 위한 도면이다.
도 3은 다른 실시 예에 따른 가상 현실 인터페이스 장치의 동작을 설명하기 위한 도면이다.
도 4는 일 실시예에 따른 가상 현실 제공 장치의 구성을 설명하기 위한 블록도이다.
도 5는 일 실시예에 따른 소스(source)의 구성을 설명하기 위한 블록도이다.
도 6은 일 실시예에 따른 모션 검출기(motion detector)의 구성을 설명하기 위한 블록도이다.
도 7은 일 실시예에 따른 가상 현실 인터페이스 장치를 제어하는 방법을 설명하기 위한 도면이다.
도 8은 사용자의 머리 움직임을 보정하기 위하여 목 관절을 기준점으로 하는 연산을 설명하기 위한 도면이다.
도 9는 일 실시예에 따라 손가락 움직임 정보를 반영하는 가상 현실 인터페이스 장치를 제어하는 방법을 설명하기 위한 도면이다.
도 10은 일 실시예에 따른 모션 검출기의 형태를 설명하기 위한 도면이다.
도 11은 일 실시예에 따른 모션 검출기의 센서를 설명하기 위한 도면이다.
도 12는 일 실시예에 따라 가상 현실 인터페이스 장치를 제어하는 방법을 설명하기 위한 흐름도이다.
도 13은 일 실시예에 따라 가상 현실 인터페이스 장치를 제어하는 방법에 있어 가상 현실을 제공하는 과정을 설명하기 위한 흐름도이다.
도 14는 일 실시예에 따라 모션 검출기에서 진동이 발생하는 과정을 설명하기 위한 흐름도이다.
도 15는 일 실시예에 따라 모션 검출기에서 생성하는 모션 데이터의 필드를 설명하기 위한 도면이다.
도 16은 일 실시예에 따라 모션 검출기에서 생성하는 모션 데이터의 필드에 대하여 구체적으로 설명하기 위한 도면이다.
1 is a block diagram illustrating a configuration of a virtual reality interface apparatus according to an embodiment.
2 is a diagram for explaining the operation of the virtual reality interface apparatus according to an embodiment.
3 is a view for explaining the operation of the virtual reality interface apparatus according to another embodiment.
4 is a block diagram illustrating a configuration of a virtual reality providing apparatus according to an embodiment.
5 is a block diagram illustrating a configuration of a source according to an embodiment.
6 is a block diagram illustrating a configuration of a motion detector according to an embodiment.
7 is a diagram for explaining a method of controlling a virtual reality interface apparatus according to an embodiment.
8 is a view for explaining an operation using a neck joint as a reference point for correcting a head movement of a user.
9 is a diagram for explaining a method of controlling a virtual reality interface apparatus that reflects finger motion information according to an embodiment.
10 is a view for explaining a form of a motion detector according to an embodiment.
11 is a view for explaining a sensor of a motion detector according to an embodiment.
12 is a flowchart illustrating a method of controlling a virtual reality interface apparatus according to an embodiment.
13 is a flowchart illustrating a process of providing a virtual reality in a method of controlling a virtual reality interface device according to an embodiment.
FIG. 14 is a flowchart illustrating a process of generating vibration in the motion detector according to an embodiment.
15 is a diagram for explaining fields of motion data generated by a motion detector according to an embodiment.
16 is a diagram for explaining a field of motion data generated by a motion detector according to an embodiment.

이하 첨부된 도면을 참조하여 예시적인 실시예에 의해 발명을 상세히 설명하기로 한다. 하기 실시예는 발명을 구체화하기 위한 것일 뿐 발명의 권리 범위를 제한하거나 한정하는 것이 아니다. 상세한 설명 및 실시예로부터 발명이 속하는 기술분야의 전문가가 용이하게 유추할 수 있는 것은 발명의 권리범위에 속하는 것으로 해석된다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will now be described in detail with reference to the accompanying drawings. The following examples are intended to illustrate the invention and are not intended to limit or limit the scope of the invention. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.

본 개시에서 사용되는 '구성된다' 또는 '포함한다' 등의 용어는 여러 구성 요소들, 또는 여러 단계들을 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.As used in this disclosure, the terms " comprising " or " comprising " or " comprising ", etc. should not be construed as necessarily including a plurality of elements or steps, Or may further include additional components or steps.

본 개시에서 사용되는 용어는, 본 개시에서 언급되는 기능을 고려하여 현재 사용되는 일반적인 용어로 기재되었으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 다양한 다른 용어를 의미할 수 있다. 따라서 본 개시에서 사용되는 용어는 용어의 명칭만으로 해석되어서는 안되며, 용어가 가지는 의미와 본 개시의 전반에 걸친 내용을 토대로 해석되어야 한다. 또한, 단수의 표현은 문맥상 명백하게 단수를 뜻하지 않는 한, 복수의 의미를 포함한다. Although the terms used in this disclosure have been described in general terms that are currently used in consideration of the functions referred to in this disclosure, they are intended to encompass various other terms depending on the intention or circumstance of the skilled artisan, . Accordingly, the terms used in the present disclosure should not be construed as merely the names of the terms, but rather on the meaning of the terms and throughout the present disclosure. Also, the singular expressions include plural meanings unless the context clearly dictates singular.

본 명세서(특히, 특허 청구 범위에서)에서 사용된 “상기” 및 이와 유사한 지시어는 단수 및 복수 모두를 지시하는 것일 수 있다. 또한, 본 개시에 따른 방법을 설명하는 단계들의 순서를 명백하게 지정하는 기재가 없다면, 기재된 단계들은 적당한 순서로 행해질 수 있다. 기재된 단계들의 기재 순서에 따라 본 개시가 한정되는 것은 아니다. The " above " and similar indications used in this specification (especially in the claims) may refer to both singular and plural. Further, if there is no description explicitly specifying the order of the steps describing the method according to the present disclosure, the steps described may be performed in any suitable order. The present disclosure is not limited by the order of description of the steps described.

본 명세서에서 다양한 곳에 등장하는 "일 실시예에서" 등의 어구는 반드시 모두 동일한 실시예를 가리키는 것은 아니다. The phrases such as "in one embodiment" appearing in various places in this specification are not necessarily all referring to the same embodiment.

본 개시의 일부 실시예는 기능적인 블록 구성들 및 다양한 처리 단계들로 나타내어질 수 있다. 이러한 기능 블록들의 일부 또는 전부는, 특정 기능들을 실행하는 다양한 개수의 하드웨어 및/또는 소프트웨어 구성들로 구현될 수 있다. Some embodiments of the present disclosure may be represented by functional block configurations and various processing steps. Some or all of these functional blocks may be implemented with various numbers of hardware and / or software configurations that perform particular functions.

또한, 도면에 도시된 구성 요소들 간의 연결 선 또는 연결 부재들은 기능적인 연결 및/또는 물리적 또는 회로적 연결들을 예시적으로 나타낸 것일 뿐이다. 실제 장치에서는 대체 가능하거나 추가된 다양한 기능적인 연결, 물리적인 연결, 또는 회로 연결들에 의해 구성 요소들 간의 연결이 나타내어질 수 있다. Also, the connection lines or connection members between the components shown in the figures are merely illustrative of functional connections and / or physical or circuit connections. In practical devices, connections between components can be represented by various functional connections, physical connections, or circuit connections that can be replaced or added.

본 실시예들은 가상 현실 인터페이스 장치 및 제어 방법에 관한 것으로서 이하의 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자에게 널리 알려져 있는 사항들에 관해서는 자세한 설명을 생략한다. 이하 첨부된 도면을 참고하여 본 개시를 상세히 설명하기로 한다. The embodiments relate to a virtual reality interface device and a control method, and a detailed description thereof will be omitted with respect to matters widely known to those skilled in the art to which the following embodiments belong. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described in detail with reference to the accompanying drawings.

도 1은 일 실시예에 따른 가상 현실 인터페이스 장치(1000)의 구성을 설명하기 위한 도면이다. 도 1에 도시된 바와 같이, 가상 현실 인터페이스 장치(1000)는 가상 현실 제공 장치(100), 소스(200), 모션 검출기(300)를 포함할 수 있다. 1 is a diagram for explaining a configuration of a virtual reality interface apparatus 1000 according to an embodiment. 1, the virtual reality interface apparatus 1000 may include a virtual reality providing apparatus 100, a source 200, and a motion detector 300. [

소스(200)는 가상 현실 제공 장치(100)에 탈부착 가능하고, 가상 현실 제공 장치(100)는 사용자가 지닐 수 있거나 웨어러블(wearable)하다. 일 실시예에서, 소스(200)는 가상 현실 제공 장치(100)에 고정되거나 부착되어 물리적으로 근접할 뿐, 연동되지는 않는 반면에, 가상 현실 제공 장치(100)와 모션 검출기(300)는 통신 인터페이스들(110, 310)을 통해 무선 또는 유선으로 연결되어 데이터를 송수신할 수 있다. The source 200 is attachable to and detachable from the virtual reality providing apparatus 100 and the virtual reality providing apparatus 100 is user-wearable or wearable. In one embodiment, the source 200 is fixed or attached to the virtual reality providing device 100 and is physically adjacent, but not interlocked, while the virtual reality providing device 100 and the motion detector 300 communicate And may be wirelessly or wire-connected through the interfaces 110 and 310 to transmit and receive data.

일 실시예에서, 가상 현실 제공 장치(100)와 모션 검출기(300)는 블루투스와 같은 무선 통신 방식으로 연결되고, 하기와 같은 예시의 초기 연결이 이루어진다. 초기 연결은 가상 현실 제공 장치(100)에서 블루투스를 통해 주변 기기를 검색하여 모션 검출기(300)와 페어 연결을 하거나, 모션 검출기(300)에 장착된 NFC를 통해 가상 현실 제공 장치(100)의 특정 부위에 모션 검출기(300)가 인식될 경우 자동으로 페어 연결이 이루어진다. 초기 연결이 이루어진 후에는, 가상 현실 제공 장치(100)가 실행되면, 모션 검출기(300)의 전원이 켜질 때마다 연결을 시도하여, 바로 모션 검출기(300)를 사용할 수 있다. In one embodiment, the virtual reality providing apparatus 100 and the motion detector 300 are connected by a wireless communication method such as Bluetooth, and the following initial connection is made as an example. In the initial connection, the virtual reality providing apparatus 100 searches for a peripheral device via Bluetooth and performs a pair connection with the motion detector 300, or performs a specific connection of the virtual reality providing apparatus 100 through the NFC mounted on the motion detector 300 A pair connection is automatically made when the motion detector 300 is recognized. After the initial connection is established, when the virtual reality providing apparatus 100 is executed, the connection is attempted every time the power of the motion detector 300 is turned on, so that the motion detector 300 can be used immediately.

일 실시예에서, 가상 현실 제공 장치(100)는 사용자가 있는 공간과 다른 공간의 이미지를 사용자에게 제공한다. 예를 들어, 사용자는 실내에서 가상 현실 제공 장치(100)를 이용하여 외국의 도시의 이미지를 볼 수 있다. 사용자는 몸 전체를 움직이거나, 머리만 움직일 수 있다. 가상 현실 제공 장치(100)는 사용자의 몸 전체가 움직이면 사용자의 이동 방향에 따라 이미지의 크기를 조절할 수 있다. 또한, 가상 현실 제공 장치(100)는 사용자의 머리가 움직이면 사용자의 머리의 이동 및/또는 회전 방향에 따라 다른 이미지를 제공할 수 있다. In one embodiment, the virtual reality providing apparatus 100 provides the user with an image of a space different from the space where the user is. For example, a user can view an image of a foreign city by using the virtual reality providing apparatus 100 indoors. The user can move the whole body or only the head. The virtual reality providing apparatus 100 can adjust the size of the image according to the moving direction of the user when the entire body of the user moves. In addition, the virtual reality providing apparatus 100 may provide different images according to the movement and / or direction of the user's head when the user's head moves.

가상 현실 제공 장치(100)는 헤드 마운트 디스플레이(Head Mounnted Display), VR 헤드셋(headset), 가상 현실 장치, PC(Personal Computer), 랩탑(laptop), 스마트 TV, 휴대폰, PDA, 스마트 단말기, 또는 게임기 등일 수 있으나 이에 제한되지 않는다. 또한, 가상 현실 제공 장치(100)는 통신 기능 및 데이터 프로세싱 기능을 구비한 안경, 헤어 밴드, 시계등일 수 있다. The virtual reality providing apparatus 100 may be a head mounted display, a VR headset, a virtual reality apparatus, a PC, a laptop, a smart TV, a mobile phone, a PDA, a smart terminal, And the like. In addition, the virtual reality providing apparatus 100 may be a pair of glasses, a hair band, a watch, etc., having a communication function and a data processing function.

모션 검출기(300)는 사용자가 손에 들고 이용하는 핸드헬드(handheld) 형태 또는 손바닥 부위에 착용하는 웨어러블(wearable)한 형태 일 수 있다. 모션 검출기(300)는 왼손용과 오른손용으로 구성될 수 있으며, 개별적으로 이용이 가능하고, 동시에 이용될 수도 있다. The motion detector 300 may be in the form of a handheld hand held by a user or a wearable type worn on the palm of a hand. The motion detector 300 may be configured as a left hand and a right hand, and may be used individually or simultaneously.

도 2는 일 실시예에 따른 가상 현실 인터페이스 장치(1000)의 동작을 설명하기 위한 도면이다. 도 2를 참조하여, 일 실시예에서 가상 현실 제공 장치(100)는 헤드 마운트 디스플레이(Head Mounnted Display), VR 헤드셋(headset), 가상 현실 장치 등 사용자의 머리에 착용하는 형태로 제작되어 사용자에게 360도 컨텐츠를 디스플레이하는 디바이스일 수 있다. 2 is a diagram for explaining the operation of the virtual reality interface apparatus 1000 according to an embodiment. Referring to FIG. 2, in an embodiment, the virtual reality providing apparatus 100 is manufactured in a form to be worn on a user's head such as a head mounted display, a VR headset, and a virtual reality apparatus, May also be a device that displays content.

또한, 가상 현실 제공 장치(100)는 사용자의 몸 전체가 움직이면 사용자의 이동 방향에 따라 이미지의 크기를 조절할 수 있고, 사용자의 머리가 움직이면 사용자의 머리의 이동 및 회전 방향에 따라 다른 이미지를 디스플레이할 수 있다. 또한, 가상 현실에서, 컨텐츠에 따라 실제 사용자의 손의 위치와 각도에 부합하게 손이나 다른 형상의 유저 인터페이스(user interface)가 디스플레이될 수 있다. In addition, when the entire body of the user moves, the virtual reality providing apparatus 100 can adjust the size of the image according to the moving direction of the user. When the user's head moves, the virtual reality providing apparatus 100 displays different images according to the movement and rotation direction of the user's head . Also, in a virtual reality, a user interface of a hand or other shape can be displayed in accordance with the position and angle of an actual user's hand according to the contents.

도 3은 다른 실시예에 따른 가상 현실 인터페이스 장치(1000)의 동작을 설명하기 위한 도면이다. 도 3을 참조하여, 일 실시예에서 가상 현실 제공 장치(100)는 PC(Personal Computer), 랩탑(laptop), 스마트 TV, 휴대폰, PDA, 스마트 단말기, 또는 게임기 등일 수 있다. 3 is a diagram for explaining the operation of the virtual reality interface apparatus 1000 according to another embodiment. 3, the virtual reality providing apparatus 100 may be a personal computer (PC), a laptop, a smart TV, a mobile phone, a PDA, a smart terminal, a game machine, or the like.

가상 현실 제공 장치(100)는 외부 디스플레이 장치(400)에 가상 현실을 제공하고, 외부 디스플레이 장치(400)를 통하여 가상 현실이 디스플레이된다. 가상 현실 제공 장치(100)는 외부 디스플레이 장치(400)와 유선 또는 무선의 통신 인터페이스(110)로 연결될 수 있으며, 일 실시예에서 가상 현실 제공 장치(100)에 디스플레이된 스크린을 외부 디스플레이 장치(400)에 동일하게 디스플레이 할 수 있다. 또한, 가상 현실에서 컨텐츠에 따라 실제 사용자의 손의 위치와 각도에 부합하게 손이나 다른 형상의 유저 인터페이스(user interface)가 디스플레이될 수 있다. The virtual reality providing apparatus 100 provides a virtual reality to the external display apparatus 400 and the virtual reality is displayed through the external display apparatus 400. [ The virtual reality providing apparatus 100 may be connected to the external display apparatus 400 through a wired or wireless communication interface 110 and may transmit the screen displayed on the virtual reality providing apparatus 100 to the external display apparatus 400 As shown in FIG. In addition, a user interface of a hand or other shape can be displayed in accordance with the position and angle of an actual user's hand according to contents in a virtual reality.

도 4는 일 실시예에 따른 가상 현실 제공 장치(100)의 구성을 설명하기 위한 블록도이다. 도 4에 도시된 바와 같이, 가상 현실 제공 장치(100)는, 통신 인터페이스(110), 센서(120), 프로세서(130), 디스플레이(140)를 포함할 수 있다. FIG. 4 is a block diagram illustrating a configuration of a virtual reality providing apparatus 100 according to an embodiment. As shown in FIG. 4, the virtual reality providing apparatus 100 may include a communication interface 110, a sensor 120, a processor 130, and a display 140.

통신 인터페이스(110)는 다양한 종류의 통신 방식에 따라 다양한 유형의 외부 장치와 통신을 수행할 수 있다. 통신 인터페이스(110)는 블루투스 칩, 와이파이 칩, 이동통신용 칩, 지그비(Zigbee) 칩, NFC(Near Field Communication) 칩, 적외선 통신 칩 등 다양한 종류의 무선 통신 칩 중 적어도 하나를 포함할 수 있다. 블루투스 칩, 와이파이 칩은 각각 블루투스 방식, WiFi 방식으로 통신을 수행할 수 있다. 블루투스 칩이나 와이파이 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 블루투스 칩은 블루투스4.0(BLE) 프로토콜 기반의 근거리 무선통신을 지원할 수 있다. 이동통신용 칩은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. 지그비 칩은 IEEE 802.15.4 표준 중 하나에 해당하는 근거리 무선통신을 지원하며, 20 미터 내외의 거리에 있는 디바이스들 간의 데이터 저속 전송에 이용될 수 있다. NFC 칩은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 근거리 무선통신 방식으로 동작하는 칩을 의미한다. The communication interface 110 may perform communication with various types of external devices according to various communication methods. The communication interface 110 may include at least one of various types of wireless communication chips such as a Bluetooth chip, a Wi-Fi chip, a mobile communication chip, a Zigbee chip, an NFC (Near Field Communication) chip and an infrared communication chip. The Bluetooth chip and the Wi-Fi chip can communicate with each other via the Bluetooth method and the WiFi method, respectively. When a Bluetooth chip or a Wi-Fi chip is used, various connection information such as an SSID and a session key may be transmitted and received first, and communication information may be used to transmit and receive various information. The Bluetooth chip can support short range wireless communication based on the Bluetooth 4.0 (BLE) protocol. The mobile communication chip refers to a chip that performs communication according to various communication standards such as 3G (3rd Generation), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE). The ZigBee chip supports short-range wireless communication corresponding to one of the IEEE 802.15.4 standards and can be used for low-speed data transmission between devices at distances of around 20 meters. The NFC chip refers to a chip operating in a short-range wireless communication system using the 13.56 MHz band among various RF-ID frequency bands.

또한, 통신 인터페이스(110)를 통해 가상 현실 제공 장치(100)는 모션 검출기(300)와 무선 또는 유선으로 연결되어 데이터를 송수신할 수 있다. 통신 인터페이스(110)는, 네트워크를 통해 연결될 수 있으며, 네트워크는, 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 통신 인터페이스(110)로 구현될 수 있다. In addition, the virtual reality providing apparatus 100 may be connected to the motion detector 300 through a communication interface 110 in a wireless or wired manner to transmit and receive data. The communication interface 110 may be connected via a network and the network may be a wired network such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN) A mobile radio communication network, a satellite communication network, or the like.

센서(120)는, 센서들을 통해 사용자의 움직임을 감지하고, 감지된 정보를 프로세서(130)로 전송할 수 있다. 센서(120)는, 자기장 센서(Magnetic sensor), 자이로스코프 센서, 가속도 센서(Acceleration sensor), 광 센서, 카메라 센서, 초음파 센서, 적외선 센서, 온/습도 센서, 위치 센서, 기압 센서, 근접 센서, 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다. The sensor 120 may sense the movement of the user through the sensors and may transmit the sensed information to the processor 130. The sensor 120 may be a sensor such as a magnetic sensor, a gyroscope sensor, an acceleration sensor, an optical sensor, a camera sensor, an ultrasonic sensor, an infrared sensor, a temperature / humidity sensor, And an RGB sensor (illuminance sensor), but the present invention is not limited thereto. The function of each sensor can be intuitively deduced from the name by those skilled in the art, so a detailed description will be omitted.

프로세서(130)는 가상 현실 제공 장치(100)의 전반적인 제어를 수행할 수 있다. 프로세서(130)는 통신 인터페이스(110)를 이용하여, 외부 기기들과 통신을 수행할 수 있다. 또한, 프로세서(130)는 유저 인터페이스를 통한 사용자 조작이 이루어지면, 사용자의 조작에 대응되는 제어 동작을 수행할 수 있다. The processor 130 may perform overall control of the virtual reality providing apparatus 100. [ The processor 130 may use the communication interface 110 to perform communication with external devices. In addition, the processor 130 may perform a control operation corresponding to a user operation when a user operation is performed through the user interface.

프로세서(130)는 RAM, ROM, CPU, GPU(Graphic Processing Unit) 및 데이터버스 중 적어도 하나를 포함할 수 있다. RAM, ROM, CPU, 및 GPU 등은 데이터버스를 통해 서로 연결될 수 있다. CPU는 메모리(미도시)에 액세스(access)하여, 메모리(미도시)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메모리(미도시)에 저장된 각종 프로그램, 컨텐츠, 데이터 등을 이용하여 다양한 동작을 수행한다. ROM에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 예를 들면, 가상 현실 제공 장치(100)는 턴온(turn on) 명령이 입력되어 전원이 공급되면, CPU가 ROM에 저장된 명령어에 따라 메모리에 저장된 O/S를 RAM에 복사하고, O/S를 실행시켜 시스템을 부팅시킬 수 있다. 부팅이 완료되면, CPU는 메모리(미도시)에 저장된 각종 프로그램을 RAM에 복사하고, RAM에 복사된 프로그램을 실행시켜 각종 동작을 수행한다. GPU는 가상 현실 제공 장치(100)의 부팅이 완료되면, 디스플레이(140)에 스크린을 디스플레이한다. The processor 130 may include at least one of RAM, ROM, a CPU, a GPU (Graphic Processing Unit), and a data bus. RAM, ROM, CPU, GPU, etc. may be interconnected via a data bus. The CPU accesses a memory (not shown) and performs booting using the O / S stored in the memory (not shown). Then, various operations are performed using various programs, contents, data stored in a memory (not shown). ROM stores a set of commands for booting the system and the like. For example, when the turn-on command is inputted and power is supplied, the CPU copies the O / S stored in the memory to the RAM according to the instruction stored in the ROM, You can run it to boot the system. When the booting is completed, the CPU copies various programs stored in the memory (not shown) to the RAM, executes the program copied to the RAM, and performs various operations. The GPU displays the screen on the display 140 when the booting of the virtual reality providing apparatus 100 is completed.

일 실시예에서, GPU는 컨텐츠, 아이콘, 메뉴 등과 같은 다양한 객체를 포함하는 전자문서가 표시된 스크린을 생성할 수 있다. GPU는 스크린의 레이아웃에 따라 각 객체들이 표시될 좌표값, 형태, 크기, 컬러 등과 같은 속성값을 연산한다. 그리고, GPU는 연산된 속성값에 기초하여 객체를 포함하는 다양한 레이아웃의 스크린을 생성할 수 있다. GPU에서 생성된 스크린은 디스플레이(140)로 제공되어, 디스플레이(140)의 각 영역에 각각 표시될 수 있다. In one embodiment, the GPU may generate a screen displaying an electronic document containing various objects such as content, icons, menus, and the like. The GPU calculates attribute values such as coordinate values, shape, size, color, etc., which each object will be displayed according to the layout of the screen. The GPU can then generate screens of various layouts including objects based on the computed attribute values. The screens generated in the GPU may be provided to the display 140 and displayed in each area of the display 140, respectively.

메모리(미도시)는, 프로세서(130)의 처리 및 제어를 위한 프로그램을 저장할 수 있고, 가상 현실 제공 장치(100)로 입력되거나 가상 현실 제공 장치(100)로부터 출력되는 데이터를 저장할 수도 있다. 메모리(미도시)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(RAM, Random Access Memory) SRAM(Static Random Access Memory), 롬(ROM, Read-Only Memory), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. 메모리(미도시)에 저장된 프로그램들은 그 기능에 따라 복수개의 모듈들로 분류할 수 있다. The memory (not shown) may store a program for processing and controlling the processor 130, and may store data input to or output from the virtual reality providing apparatus 100. [ The memory (not shown) may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) (Random Access Memory) SRAM (Static Random Access Memory), ROM (Read Only Memory), EEPROM (Electrically Erasable Programmable Read-Only Memory), PROM (Programmable Read-Only Memory) A disk, and / or an optical disk. Programs stored in a memory (not shown) can be classified into a plurality of modules according to their functions.

디스플레이(140)는 가상 현실 프로그램 실행에 따라 가상 현실을 디스플레이하고, 프로세서(130)에 의해 제어되는 가상 현실 내 객체를 가상 현실에 디스플레이 한다. 디스플레이(140)는 LCD(Liquid Crystal Display), OLED(Organic Light Emitting Diodes) 디스플레이, AM-OLED(Active-Matrix Organic Light-Emitting Diode), PDP(Plasma Display Panel) 등과 같은 다양한 형태의 디스플레이로 구현될 수 있다. 디스플레이(140)는 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. The display 140 displays the virtual reality according to the execution of the virtual reality program and displays the object in the virtual reality controlled by the processor 130 to the virtual reality. The display 140 may be implemented as various types of displays such as a liquid crystal display (LCD), an organic light emitting diode (OLED) display, an active matrix organic light-emitting diode (AM-OLED), a plasma display panel . The display 140 may be embodied as being flexible, transparent or wearable.

전술한 가상 현실 제공 장치(100)의 구성들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 가상 현실 제공 장치(100)는 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 예를 들어, 가상 현실 제공 장치(100)는 디스플레이(140)를 포함할 수 있지만, 디스플레이(140)를 생략하고, 통신 인터페이스(110)를 통해 외부 디스플레이 장치(400)에서 디스플레이할 수도 있다. 즉, 가상 현실 제공 장치(100)의 종류 또는 특성에 따라 구성요소들은 가감될 수 있다. The names of the configurations of the virtual reality providing apparatus 100 may vary. In addition, the virtual reality providing apparatus 100 according to the present disclosure may be configured to include at least one of the above-described components, and some components may be omitted or further other additional components may be included. For example, the virtual reality providing apparatus 100 may include the display 140, but may omit the display 140 and display it on the external display device 400 via the communication interface 110. [ That is, the components may be added or subtracted depending on the type or characteristics of the virtual reality providing apparatus 100.

도 5는 일 실시예에 따른 소스(source, 200)의 구성을 설명하기 위한 블록도이다. 도 5를 참조하면, 소스(200)는 프로세서(미도시)와 자기장 발생부(210)로 구성될 수 있다. 프로세서(미도시)는 자기장 발생부(210)를 제어하고, 자기장 발생부(210)는 3축 코일에 전류를 통과하여 자기장을 발생한다. 즉, 특정 주파수의 교류 주파수를 3축으로 생성한다.5 is a block diagram illustrating a configuration of a source 200 according to an embodiment. Referring to FIG. 5, the source 200 may include a processor (not shown) and a magnetic field generator 210. A processor (not shown) controls the magnetic field generator 210, and the magnetic field generator 210 generates a magnetic field by passing current through the triaxial coil. That is, the AC frequency of a specific frequency is generated in three axes.

전술한 소스(200)의 구성들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 소스(200)는 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. The names of the configurations of the source 200 described above may be different. Further, the source 200 according to the present disclosure may be configured to include at least one of the above-described elements, and some of the elements may be omitted or further include other additional elements.

도 6은 일 실시예에 따른 모션 검출기(motion detector, 300)의 구성을 설명하기 위한 블록도이다. 도 6에 도시된 바와 같이, 모션 검출기(300)는 통신 인터페이스(310), 센서(120), 입력부(330), 출력부(340), 프로세서(350)로 구성될 수 있다. 6 is a block diagram illustrating a configuration of a motion detector 300 according to an embodiment. 6, the motion detector 300 may include a communication interface 310, a sensor 120, an input unit 330, an output unit 340, and a processor 350.

통신 인터페이스(310)는 다양한 종류의 통신 방식에 따라 다양한 유형의 외부 장치와 통신을 수행할 수 있다. 통신 인터페이스(310)는 블루투스 칩, 와이파이 칩, 이동통신용 칩, 지그비(Zigbee) 칩, NFC(Near Field Communication) 칩, 적외선 통신 칩 등 다양한 종류의 무선 통신 칩 중 적어도 하나를 포함할 수 있다. 블루투스 칩, 와이파이 칩은 각각 블루투스 방식, WiFi 방식으로 통신을 수행할 수 있다. 블루투스 칩이나 와이파이 칩을 이용하는 경우에는 SSID 및 세션 키 등과 같은 각종 연결 정보를 먼저 송수신하여, 이를 이용하여 통신 연결한 후 각종 정보들을 송수신할 수 있다. 블루투스 칩은 블루투스4.0(BLE) 프로토콜 기반의 근거리 무선통신을 지원할 수 있다. 이동통신용 칩은 3G(3rd Generation), 3GPP(3rd Generation Partnership Project), LTE(Long Term Evoloution) 등과 같은 다양한 통신 규격에 따라 통신을 수행하는 칩을 의미한다. 지그비 칩은 IEEE 802.15.4 표준 중 하나에 해당하는 근거리 무선통신을 지원하며, 20 미터 내외의 거리에 있는 디바이스들 간의 데이터 저속 전송에 이용될 수 있다. NFC 칩은 다양한 RF-ID 주파수 대역들 중에서 13.56MHz 대역을 사용하는 근거리 무선통신 방식으로 동작하는 칩을 의미한다. The communication interface 310 can perform communication with various types of external devices according to various types of communication methods. The communication interface 310 may include at least one of various types of wireless communication chips such as a Bluetooth chip, a Wi-Fi chip, a mobile communication chip, a Zigbee chip, an NFC (Near Field Communication) chip, and an infrared communication chip. The Bluetooth chip and the Wi-Fi chip can communicate with each other via the Bluetooth method and the WiFi method, respectively. When a Bluetooth chip or a Wi-Fi chip is used, various connection information such as an SSID and a session key may be transmitted and received first, and communication information may be used to transmit and receive various information. The Bluetooth chip can support short range wireless communication based on the Bluetooth 4.0 (BLE) protocol. The mobile communication chip refers to a chip that performs communication according to various communication standards such as 3G (3rd Generation), 3rd Generation Partnership Project (3GPP), and Long Term Evolution (LTE). The ZigBee chip supports short-range wireless communication corresponding to one of the IEEE 802.15.4 standards and can be used for low-speed data transmission between devices at distances of around 20 meters. The NFC chip refers to a chip operating in a short-range wireless communication system using the 13.56 MHz band among various RF-ID frequency bands.

또한, 통신 인터페이스(310)를 통해 모션 검출기(300)는 가상 현실 제공 장치(100)와 무선 또는 유선으로 연결되어 데이터를 송수신할 수 있다. 통신 인터페이스(310)는, 네트워크를 통해 연결될 수 있으며, 네트워크는, 근거리 통신망(Local Area Network; LAN), 광역 통신망(Wide Area Network; WAN) 또는 부가가치 통신망(Value Added Network; VAN) 등과 같은 유선 네트워크나 이동 통신망(mobile radio communication network) 또는 위성 통신망 등과 같은 모든 종류의 무선 통신 인터페이스(310)로 구현될 수 있다. In addition, the motion detector 300 may be connected to the virtual reality providing apparatus 100 via a communication interface 310 to transmit or receive data wirelessly or by wire. The communication interface 310 may be connected via a network and the network may be a wired network such as a local area network (LAN), a wide area network (WAN), or a value added network (VAN) Or any type of wireless communication interface 310, such as a mobile radio communication network or a satellite communication network.

또한, 통신 인터페이스(310)는 초기 위치 교정을 위한 근접 통신 모듈이 이용될 수 있다. 근접 통신 모듈은 NFC, 적외선 통신 모듈, 초음파 통신 모듈등의 통신 모듈로 구성될 수 있다. 모션 검출기(300)가 소스(200) 또는 가상 현실 제공 장치(100)에 일정 거리 이상 근접하였을 때, 근접 통신 모듈을 통해 이를 감지하여 프로세서(350)에 초기 위치 교정 명령을 내릴 수 있다. In addition, the communication interface 310 may use a proximity communication module for initial position calibration. The proximity communication module may be composed of a communication module such as an NFC, an infrared communication module, and an ultrasonic communication module. When the motion detector 300 approaches the source 200 or the virtual reality providing apparatus 100 a predetermined distance or more, it can sense this through the proximity communication module and issue an initial position correction command to the processor 350.

센서(320)는, 센서들을 통해 사용자의 움직임을 감지하고, 감지된 정보를 프로세서(350)로 전송할 수 있다. 센서(320)는, 자기장 센서(Magnetic sensor), 자이로스코프 센서, 가속도 센서(Acceleration sensor), 광 센서, 카메라 센서, 초음파 센서, 적외선 센서, 온/습도 센서, 위치 센서, 기압 센서, 근접 센서, 및 RGB 센서(illuminance sensor) 중 적어도 하나를 포함할 수 있으나, 이에 한정되지 않는다. 자기장 센서는 3축 코일을 비롯하여 증폭기, ADC(Analog to Digital Converter), 대역 통과 필터 등이 포함될 수 있다. 소스(200)의 자기장 발생부(210)에서 발생된 자기장이 모션 검출기(300)의 자기장 센서 내의 3축 코일에 유도되어 발생하는 전류의 세기를 측정하면, 소스(200)에 대한 모션 검출기(300)의 상대적인 좌표를 구할 수 있고, 이를 통해 움직임을 검출할 수 있다.The sensor 320 may sense the user's movement through the sensors and transmit the sensed information to the processor 350. [ The sensor 320 may be a sensor such as a magnetic sensor, a gyroscope sensor, an acceleration sensor, an optical sensor, a camera sensor, an ultrasonic sensor, an infrared sensor, a temperature / humidity sensor, And an RGB sensor (illuminance sensor), but the present invention is not limited thereto. Magnetic field sensors can include amplifiers, analog-to-digital converters (ADCs), bandpass filters, and the like, as well as three-axis coils. When the intensity of the electric current generated by the magnetic field generated by the magnetic field generator 210 of the source 200 is induced in the three-axis coil of the magnetic sensor of the motion detector 300, the intensity of the current generated by the motion detector 300 ) Can be obtained, and the motion can be detected through this.

일 실시예에서, 센서(320)를 통해 손가락 움직임 정보를 획득한다. 또한, 근접 센서는 소정의 검출면에 접근하는 물체, 혹은 근방에 존재하는 물체의 유무를 전자계의 힘 또는 적외선을 이용하여 기계적 접촉이 없이 검출하는 센서를 말하는 데, 앞서 설명한 초기 위치 교정에 이용될 수 있다. 센서(320)에서 감지한 결과들은 프로세서(350)로 전송한다. 각 센서들의 기능은 그 명칭으로부터 당업자가 직관적으로 추론할 수 있으므로, 구체적인 설명은 생략하기로 한다. In one embodiment, finger motion information is obtained via the sensor 320. The proximity sensor refers to a sensor that detects the presence of an object approaching a predetermined detection surface or an object existing in the vicinity of the detection surface without mechanical contact using an electromagnetic force or infrared rays. . The results detected by the sensor 320 are transmitted to the processor 350. The function of each sensor can be intuitively deduced from the name by those skilled in the art, so a detailed description will be omitted.

입력부(330)는 외부로부터 또는 사용자로부터 소정의 신호를 입력받을 수 있다. 입력부(330)는 버튼, 키패드(key pad), 돔 스위치(dome switch), 터치 패드(접촉식 정전 용량 방식, 압력식 저항막 방식, 적외선 감지 방식, 표면 초음파 전도 방식, 적분식 장력 측정 방식, 피에조 효과 방식 등), 조그 휠, 조그 스위치 등이 있을 수 있으나 이에 한정되는 것은 아니다. 예를 들어, 버튼은 물리적인 버튼의 눌려진 상태 정보를 통해 사용자의 입력을 프로세서(350)로 전송할 수 있다.The input unit 330 can receive a predetermined signal from outside or from a user. The input unit 330 may include at least one of a button, a key pad, a dome switch, a touch pad (contact type capacitance type, pressure type resistive type, infrared ray detection type, surface ultrasonic wave conduction type, A piezo effect method, etc.), a jog wheel, a jog switch, and the like, but is not limited thereto. For example, the button may transmit the user's input to the processor 350 via the pressed state information of the physical button.

출력부(340)는 생성된 신호를 외부로 출력하는데 이용될 수 있다. 출력부(340)는 진동 액츄에이터, 스피커, 조명 등을 포함할 수 있다. 진동 액츄에이터는 프로세서(350)의 제어 신호에 따라 진동을 발생한다. 스피커는 오디오 데이터를 출력할 수 있다. 스피커는 데이터를 실은 음파를 외부로 출력할 수 있다. 조명은 빛을 방출할 수 있다. 조명은 LED와 같은 발광 소자를 포함할 수 있으며, 빛의 점멸을 통해 데이터를 전송할 수 있다.The output unit 340 may be used to output the generated signal to the outside. The output unit 340 may include a vibration actuator, a speaker, an illumination, and the like. The vibration actuator generates vibration according to the control signal of the processor 350. [ The speaker can output audio data. The speaker can output the sound wave containing the data to the outside. Illumination can emit light. The illumination may include a light emitting device such as an LED, and may transmit data through flashing of light.

프로세서(350)는 모션 검출기(300)의 전반적인 제어를 수행할 수 있다. 프로세서(350)는 통신 인터페이스(310)를 이용하여, 외부 기기들과 통신을 수행할 수 있다. 프로세서(350)는 출력부(150)를 통해 외부에 소정의 신호를 출력하거나, 입력부(160)를 통해 외부로부터 소정의 신호를 입력받을 수 있다. 또한, 프로세서(350)는 센서(320)로부터 감지 데이터를 수신하여, 각 축별 신호값을 획득하여 손의 위치와 방향을 나타내는 좌표를 계산한다. The processor 350 may perform overall control of the motion detector 300. The processor 350 may use the communication interface 310 to communicate with external devices. The processor 350 may output a predetermined signal to the outside through the output unit 150 or may receive a predetermined signal from the outside through the input unit 160. [ In addition, the processor 350 receives the sensed data from the sensor 320, acquires signal values for each axis, and calculates coordinates indicating the position and direction of the hand.

프로세서(350)는 소스(200)에서 발생한 3축 자기장의 출처와 자기장 출처에 대한 모션 검출기(300)의 3축 센서(320) 코일의 측정값 9개를 이용하여 각 위치에서의 자기장 벡터를 구하고, 자기장 공식에 의해 모션 검출기(300)의 위치와 회전값을 계산하여, 통신 인터페이스(310)을 통해 가상 현실 제공 장치(100)로 전송한다. The processor 350 obtains the magnetic field vector at each position using the measured values of the three-axis sensor 320 coil of the motion detector 300 with respect to the origin of the triaxial magnetic field generated at the source 200 and the magnetic field source Calculates the position and the rotation value of the motion detector 300 by the magnetic field formula, and transmits the position and the rotation value to the virtual reality providing device 100 through the communication interface 310.

일 실시예에서, 프로세서(350)는 센서(320) 측정값을 이용하여 도 7 및 도 8에 도시된 데이터를 생성한다. 예를 들어, 상기 도 7 및 도 8에 도시된 데이터는 블루투스 통신 규격에 따라 생성될 수 있다. 일 실시예에서, 프로세서(350)는 사용자 입력에 의한 또는 컨텐츠 상황에 적합한 피드백을 표현하기 위해 출력부(340)를 제어한다. 예를 들어, 가상 현실 상에서 주변 객체와 사용자의 손의 유저 인터페이스가 만나면 출력부(340)의 진동 액츄에이터에 의해 진동이 발생한다. 또한, 프로세서(350)는 RAM, ROM, CPU, GPU(Graphic Processing Unit) 및 데이터버스 중 적어도 하나를 포함할 수 있다. RAM, ROM, CPU, 및 GPU 등은 데이터버스를 통해 서로 연결될 수 있다.   In one embodiment, the processor 350 generates the data shown in Figures 7 and 8 using the sensor 320 measurements. For example, the data shown in FIGS. 7 and 8 may be generated according to the Bluetooth communication standard. In one embodiment, the processor 350 controls the output 340 to represent feedback appropriate for user input or content context. For example, when the user interface of the user's hand and the surrounding object on the virtual reality meet, the vibration is generated by the vibration actuator of the output unit 340. In addition, the processor 350 may include at least one of RAM, ROM, CPU, GPU (Graphic Processing Unit) and a data bus. RAM, ROM, CPU, GPU, etc. may be interconnected via a data bus.

전술한 모션 검출기(300)의 구성들의 명칭은 달라질 수 있다. 또한, 본 개시에 따른 모션 검출기(300)는 전술한 구성요소들 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. The names of the constructions of the motion detector 300 described above may be different. Further, the motion detector 300 according to the present disclosure may be configured to include at least one of the above-described components, and some components may be omitted or further include other additional components.

도 7은 일 실시예에 따른 가상 현실 인터페이스 장치(1000)를 제어하는 방법을 설명하기 위한 도면이다. 도 7을 참고하여, 가상 현실 제공 장치(100), 소스(200), 및 모션 검출기(300) 사이의 데이터 전송 과정을 나타낸다. 7 is a diagram for explaining a method of controlling the virtual reality interface apparatus 1000 according to an embodiment. Referring to FIG. 7, a process of transferring data between the virtual reality providing apparatus 100, the source 200, and the motion detector 300 is shown.

단계 710에서 소스(200)는 자기장을 발생할 수 있다(S 710). In step 710, the source 200 may generate a magnetic field (S 710).

단계 720에서 모션 검출기(300)는 센서(320)를 통해 자기장을 감지할 수 있어, 소스(200)에서 발생된 자기장의 세기에 기초하여, 손의 위치와 방향을 계산하여 소스(200) 대비 상대적인 사용자의 손의 좌표를 획득한다(S 720). The motion detector 300 may sense the magnetic field through the sensor 320 and calculate the position and orientation of the hand based on the intensity of the magnetic field generated at the source 200 to determine The coordinates of the user's hand are acquired (S720).

이후, 단계 730에서 모션 검출기(300)는 가상 현실 제공 장치(100)로 획득한 사용자의 손의 좌표를 전송하고(S 730), 단계 740에서 가상 현실 제공 장치(100)는 모션 검출기(300)로부터 획득한 소스 대비 사용자의 손의 좌표를 수신한다(S 740). In operation 730, the motion detector 300 transmits coordinates of the user's hand acquired by the virtual reality providing apparatus 100 (S 730). In operation 740, the virtual reality providing apparatus 100 transmits the coordinates of the user's hand to the motion detector 300. The coordinates of the user's hand versus the source acquired from the source (S740).

단계 750에서, 소스(200)는 가상 현실 제공 장치(100)에 부착될 수 있고, 사용자는 가상 현실 제공 장치(100)를 몸에 지니거나 착용할 수 있으므로, 사용자가 움직이면 가상 현실 제공 장치(100)뿐만 아니라 소스(200)의 위치가 변화한다(S 750). The source 200 may be attached to the virtual reality providing device 100 and the user may wear or wear the virtual reality providing device 100 so that the virtual reality providing device 100 ) As well as the position of the source 200 (S 750).

단계 760에서, 가상 현실 제공 장치(100)는 센서(120)에 의해 소스(200)의 위치 변화를 감지한다(S 760). 따라서, 사용자의 움직임에 따른 소스의 위치와 각도에 대한 변화를 반영할 필요가 있다. In step 760, the virtual reality providing apparatus 100 detects a change in the position of the source 200 by the sensor 120 (S760). Therefore, it is necessary to reflect a change in the position and angle of the source in accordance with the movement of the user.

단계 770에서, 모션 검출기(300)로부터 수신한 사용자의 손의 좌표를 감지된 소스(200)의 위치 변화에 기초하여 가상 현실에 반영한다(S 770). 하기에서 어떻게 가상 현실에 반영하는지 예시적인 실시예에 따라 살펴보겠다. In step 770, the coordinates of the user's hand received from the motion detector 300 are reflected on the virtual reality based on the change in the position of the detected source 200 (S770). Hereinafter, how the virtual reality is reflected will be described according to an exemplary embodiment.

일 실시예에서, 사용자의 움직임에 따른 감지된 소스(200)의 위치 변화에 기초하여, 소스(200)를 기준으로 한 사용자의 손의 좌표를 사용자의 몸의 일부를 기준으로 보정하고, 보정된 사용자의 손의 좌표를 가상현실에 반영할 수 있다. 사용자의 움직임을 보정하기 위한 것이기 때문에, 사용자의 몸의 일부는 사용자의 움직임에 영향을 적게 받는 곳일수록 좋다. In one embodiment, based on a change in the position of the sensed source 200 as the user moves, the coordinates of the user's hand with respect to the source 200 are corrected on the basis of a portion of the user's body, The coordinates of the user's hand can be reflected in the virtual reality. Since it is for correcting the movement of the user, it is better that the part of the user's body is less influenced by the movement of the user.

가상 현실 제공 장치(100)가 VR 헤드셋인 예시적인 일 실시예에 따르면, 단계 750에서, 소스(200)는 가상 현실 제공 장치(100)에 부착되고, 사용자는 가상 현실 제공 장치(100)를 머리에 착용하므로, 사용자가 머리를 움직이면 가상 현실 제공 장치(100)뿐만 아니라 소스(200)의 위치가 변화한다. 이에 따라 단계 770에서, 사용자의 머리 움직임에 따른 감지된 소스(200)의 위치 변화에 기초하여, 상기 소스(200)를 기준으로 한 상기 사용자의 손의 위치와 각도를 나타내는 좌표를 사용자의 흉부를 기준으로 보정하고, 보정된 사용자의 손의 좌표를 가상 현실에 반영할 수 있다. According to one exemplary embodiment in which the virtual reality providing apparatus 100 is a VR headset, in step 750, the source 200 is attached to the virtual reality providing apparatus 100, and the user places the virtual reality providing apparatus 100 in the head The position of the source 200 as well as the virtual reality providing apparatus 100 changes when the user moves his or her head. Accordingly, at step 770, coordinates indicating the position and angle of the user's hand with respect to the source 200 are displayed on the user's chest, based on the change in the position of the sensed source 200 according to the head movement of the user And the coordinates of the hand of the calibrated user can be reflected in the virtual reality.

도 8은 소스(200)의 위치 변화에 따라 사용자 머리의 움직임을 보정하기 위하여 목 관절을 기준점으로 하는 연산을 설명하기 위한 도면이다. 도 8을 참고하여, 모션 검출기(300)에서 획득한 소스(200)를 기준으로 한 사용자의 손의 좌표를, 사용자의 머리 움직임에 따른 소스(200)의 위치 변화에 기초하여, 사용자의 흉부를 기준으로 보정하여 사용자의 손의 좌표를 구하는 예시적인 매트릭스 연산이 기술된다. 8 is a view for explaining an operation using the neck joint as a reference point in order to correct the movement of the user's head according to the change of the position of the source 200. [ The coordinates of the user's hand based on the source 200 acquired by the motion detector 300 may be referred to as the position of the user's chest on the basis of the positional change of the source 200 according to the movement of the user's head An exemplary matrix operation for calibrating by reference and obtaining the coordinates of the user's hand is described.

소스(200)에서 발생한 자기장에 기초하여, 모션 검출기(300)는 유도된 전류의 세기를 측정하여 소스(200) 대비 모션 검출기(300)의 위치와 3축의 기울기를 계산한다. 이러한 상대적인 위치에, 가상 현실 제공 장치(100)의 기울기와 목 관절의 움직임을 반영하여, 실제 손의 위치와 기울기를 계산한다. 상세 내용은 아래에서 설명한다. Based on the magnetic field generated by the source 200, the motion detector 300 measures the intensity of the induced current to calculate the position of the motion detector 300 and the slope of the three axes relative to the source 200. At this relative position, the position and slope of the actual hand are calculated by reflecting the inclination of the virtual reality providing apparatus 100 and the movement of the neck joint. Details are given below.

소스(200)는 가상 현실 제공 장치(100)에 탈부착 가능하기 때문에, 사용자의 손의 위치가 이동하지 않았더라도 머리의 방향에 따라 다른 좌표 값을 가질 수 있다. 위치의 기준이 되는 소스(200)의 기준 좌표계도 머리의 회전과 같이 회전하기 때문이다. 센서(320)에서 측정되는 위치 및 회전 데이터는 소스(200) 기준의 로컬 좌표계가 되며, 실제 사용자 공간에서 손 움직임의 절대 좌표와 회전 값을 산출하기 위해서는 센서(320)에서 측정된 좌표값에 소스(200)의 움직임에 대한 보정이 필요하다. Since the source 200 is detachable to the virtual reality providing apparatus 100, it can have different coordinate values depending on the direction of the head even if the position of the user's hand is not moved. This is because the reference coordinate system of the source 200 serving as a reference of the position also rotates as the head rotates. The position and the rotation data measured by the sensor 320 become the local coordinate system based on the source 200. In order to calculate the absolute coordinates and the rotation value of the hand movement in the actual user space, It is necessary to correct the motion of the robot 200.

소스(200)의 회전에 대한 보정은 소스(200)의 기울기와 사람의 머리 움직임을 고려하여 이루어진다. 사용자의 머리는 목 관절을 중심으로 회전하므로, 소스(200)의 위치 보정은 목 관절의 위치에서 소스(200)의 위치까지의 이동과 소스(200)의 회전 값을 더해준 것으로 계산한다. The correction for the rotation of the source 200 is made in consideration of the inclination of the source 200 and the head movement of the person. Since the user's head is rotated around the neck joint, the position correction of the source 200 is calculated by adding the movement of the source 200 to the position of the neck joint and the rotation value of the source 200.

일 실시예에 따라, 가상 현실 제공 장치(100)에 부착된 소스(200)의 회전 값은 가상 현실 제공 장치(100)의 회전 값과 같으므로, 가상 현실 제공 장치(100)의 센서(120) 데이터의 회전값을 적용할 수 있고, 목 관절 기준의 소스의 위치 값은 측정 (Calibration)을 통해 알 수 있다. According to one embodiment, since the rotation value of the source 200 attached to the virtual reality providing apparatus 100 is equal to the rotation value of the virtual reality providing apparatus 100, the sensor 120 of the virtual reality providing apparatus 100, The rotation value of the data can be applied, and the position value of the source of the wood-base reference can be known through measurement (Calibration).

본 실시예에서는 흉부의 위치를 기준점으로 삼는 좌표계를 제공하려 하므로 각 파라미터의 정의는 아래와 같고, 다음과 같은 계산순서를 따른다. In this embodiment, to provide a coordinate system that uses the position of the chest as a reference point, the definition of each parameter is as follows, and the following calculation procedure is followed.

입력P' : 소스 기준 좌표계에서 모션 검출기의 상대적인 위치값Input P ': Relative position value of the motion detector in the source reference coordinate system

입력R' : 소스 기준 좌표계에서 모션 검출기의 상대적인 회전값Input R ': Relative rotation value of the motion detector in the source reference coordinate system

S : 가상 현실 제공 장치에서 목 관절까지의 이동 연산S: Moving operation from the virtual reality device to the neck joint

R : 가상 현실 제공 장치의 회전 연산R: rotation calculation of virtual reality providing device

B : 목 관절에서 최종 기준 좌표계인 흉부까지의 이동 연산B: Movement from the neck joint to the final reference frame, chest

최종위치P = B * R * S * 입력P'Final position P = B * R * S * Input P '

최종각도R = R * 입력R'Final angle R = R * Input R '

최종위치Pc = 입력P' * S * R * BFinal position Pc = input P '* S * R * B

최종각도Rc = 입력R' * RFinal angle Rc = input R '* R

일 실시예에 따른 측정값은 다음과 같다. The measured values according to one embodiment are as follows.

모션 검출기(300)로부터 측정된 소스(200)부터의 현재의 상대적인 위치 입력P'는 X=30cm, Y=0cm, Z=100cm라고 가정하고, 수학식 1에 따라 매트릭스로 변환한다. The current relative position input P 'from the source 200 measured from the motion detector 300 is converted to a matrix according to Equation 1, assuming X = 30 cm, Y = 0 cm, Z = 100 cm.

[수학식 1][Equation 1]

Figure pat00001
Figure pat00001

사용자의 얼굴 길이가 30cm이고, 사용자의 머리가 앞으로 10cm정도 나와있다고 가정하면, 가상 현실 제공 장치(100)에서 목 관절까지의 이동 연산 S와 목 관절의 회전한 정도에 따른 가상 현실 제공 장치(100)의 회전 연산 R은 수학식 2 및 3에 의해 결정된다. R은 오일러 각도로 표시하였다. Assuming that the face length of the user is 30 cm and the head of the user is about 10 cm from the virtual reality providing apparatus 100, the movement calculation S from the virtual reality providing apparatus 100 to the neck joint, ) Is determined by Equations (2) and (3). R is expressed in Euler angles.

[수학식 2]&Quot; (2) "

Figure pat00002
Figure pat00002

[수학식 3]&Quot; (3) "

Figure pat00003
Figure pat00003

흉부를 기준점으로 하였으므로, 목 관절에서 최종 기준 좌표계인 흉부까지의 이동 연산은 수학식 4에 의해 결정된다. Since the chest is the reference point, the movement calculation from the neck joint to the final reference coordinate system, the chest, is determined by Equation (4).

[수학식 4]&Quot; (4) "

Figure pat00004
Figure pat00004

흉부를 기준으로 사용자의 머리 움직임을 보정한 모션 검출기(300)의 위치는 수학식 5에 따른 매트릭스 연산에 의해 결정된다. The position of the motion detector 300, which corrects the head movement of the user with respect to the chest, is determined by a matrix operation according to Equation (5).

[수학식 5]&Quot; (5) "

Figure pat00005
Figure pat00005

최종위치 P를 벡터값으로 변환하면 최종위치 Pc가 도출된다. Converting the final position P to a vector value yields the final position Pc.

Figure pat00006
Figure pat00006

따라서, 최종 보정된 모션 검출기(300)의 위치는 X=0.3cm, Y=0.21cm, Z=1.1cm이다. Thus, the position of the final corrected motion detector 300 is X = 0.3 cm, Y = 0.21 cm, and Z = 1.1 cm.

모션 검출기(300)로부터 측정된 소스(200)부터의 현재의 상대적인 회전값 입력R'을

Figure pat00007
라고 가정하고, 수학식 6에 따라 매트릭스로 변환한다. The current relative rotation value input R 'from the source 200 measured from the motion detector 300
Figure pat00007
And converts it into a matrix according to Equation (6).

[수학식 6] &Quot; (6) "

Figure pat00008
Figure pat00008

흉부를 기준으로 사용자의 머리 움직임을 보정한 모션 검출기(300)의 회전값은 수학식 7에 따른 매트릭스 연산에 의해 결정된다. The rotation value of the motion detector 300, which corrects the user's head motion based on the chest, is determined by a matrix operation according to Equation (7).

[수학식 7] &Quot; (7) "

Figure pat00009
Figure pat00009

최종위치 R를 벡터값으로 변환하면 최종위치 Pc가 도출된다. Converting the final position R to a vector value yields the final position Pc.

Figure pat00010
Figure pat00010

따라서, 최종 보정된 모션 검출기(300)의 각도는

Figure pat00011
이다.Thus, the angle of the final corrected motion detector 300 is
Figure pat00011
to be.

수학식 1 내지 7과 같은 예시적인 매트릭스 연산을 통하여, 사용자의 흉부를 기준으로 한 사용자의 손의

Figure pat00012
Figure pat00013
와 같은 절대 좌표를 구할 수 있다.Through an exemplary matrix operation such as Equations (1) to (7), the user's hand relative to the chest of the user
Figure pat00012
Wow
Figure pat00013
Can be obtained.

도 9는 일 실시예에 따라 손가락 움직임 정보를 반영하는 가상 현실 인터페이스 장치(1000)를 제어하는 방법을 설명하기 위한 도면이다. 도 9를 참고하여, 가상 현실 제공 장치(100), 소스(200), 및 모션 검출기(300) 사이의 정보 전송 과정을 나타낸다. 9 is a diagram for explaining a method of controlling a virtual reality interface apparatus 1000 that reflects finger motion information according to an embodiment. Referring to FIG. 9, the process of transmitting information between the virtual reality providing apparatus 100, the source 200, and the motion detector 300 is shown.

단계 910에서 소스(200)는 자기장을 발생할 수 있다(S 910). In step 910, the source 200 may generate a magnetic field (S910).

단계 920에서는 모션 검출기(300)는 센서(320)를 통해 자기장을 감지할 수 있어, 소스(200)에서 발생된 자기장의 세기에 기초하여, 손의 위치와 방향을 계산하여 소스(200) 대비 사용자의 손의 좌표를 획득한다(S 920). In step 920, the motion detector 300 may sense the magnetic field through the sensor 320 to calculate the position and orientation of the hand based on the strength of the magnetic field generated at the source 200, (S920).

단계 930에서, 모션 검출기(300)는 센서(320)를 통해 사용자의 손가락 움직임을 감지할 수 있다(S 930). 일 실시예에서, 자기장을 감지하는 데 자기장 센서를, 손가락 움직임을 감지하는 데 광 센서를 이용한다. In step 930, the motion detector 300 may sense the user's finger movement through the sensor 320 (S930). In one embodiment, a magnetic field sensor is used to sense the magnetic field, and a light sensor is used to sense finger motion.

단계 940에서는, 이후, 모션 검출기(300)는 가상 현실 제공 장치(100)로 사용자의 손의 좌표와 손가락 움직임 정보를 전송한다(S 940). In operation 940, the motion detector 300 transmits coordinates of the user's hand and finger motion information to the virtual reality providing apparatus 100 (S940).

단계 950에서는, 단계 940에서 전송한 손가락 움직임 정보에 따라, 가상 현실 제공 장치(100)는 모션 검출기(300)로부터 소스(200) 대비 사용자의 손의 좌표 및 손가락 움직임 정보를 수신한다(S 950). In operation 950, in accordance with the finger motion information transmitted in operation 940, the virtual reality providing apparatus 100 receives coordinates of the user's hand and finger motion information from the motion detector 300 with respect to the source 200 (S 950) .

단계 960에서, 소스(200)는 가상 현실 제공 장치(100)에 부착될 수 있고, 사용자는 가상 현실 제공 장치(100)를 몸에 지니거나 착용할 수 있으므로, 사용자가 움직이면 가상 현실 제공 장치(100)뿐만 아니라 소스(200)의 위치가 변화한다(S 960). In operation 960, the source 200 may be attached to the virtual reality providing apparatus 100, and the user may wear or wear the virtual reality providing apparatus 100, so that if the user moves, the virtual reality providing apparatus 100 ) As well as the position of the source 200 (S960).

단계 970에서, 가상 현실 제공 장치(100)는 센서(120)에 의해 소스(200)의 위치 변화를 감지한다(S 970). 따라서, 사용자의 움직임에 따른 소스의 위치와 각도에 대한 변화를 반영할 필요가 있다. In step 970, the virtual reality providing apparatus 100 senses a change in the position of the source 200 by the sensor 120 (S970). Therefore, it is necessary to reflect a change in the position and angle of the source in accordance with the movement of the user.

단계 980에서는, 모션 검출기(300)로부터 수신한 사용자의 손의 좌표를 감지된 소스(200)의 위치 변화에 기초하여 가상 현실에 반영하고, 손가락 움직임 정보 또한 가상 현실에 반영한다.(S 980). In step 980, the coordinates of the user's hand received from the motion detector 300 are reflected on the virtual reality based on the change in the position of the sensed source 200, and the finger motion information is also reflected on the virtual reality (S 980) .

일 실시예에서, 모션 검출기(300)가 가상 현실 제공 장치(100)에 전송하는 정보는 사용자의 손의 좌표 및 손가락 움직임 정보뿐만 아니라, 모션 검출기(300)의 종류, 상태, 손의 모양, 버튼의 입력 등도 포함될 수 있다. In one embodiment, the information that the motion detector 300 transmits to the virtual reality providing device 100 includes information such as the type and state of the motion detector 300, the shape of the hand, May also be included.

도 10은 일 실시예에 따른 모션 검출기(300)의 형태를 설명하기 위한 도면이다. 10 is a view for explaining a form of the motion detector 300 according to an embodiment.

모션 검출기(300)는 어느 일부가 구부러진 형태를 포함한다. 따라서, 사용자의 손의 어느 일부에 구부러진 형태의 일부가 거치될 수 있다. 일 실시예에서, 구부러진 형태는 중앙부이나, 상측부 또는 하측부일 수 있으며, 또는 각 사용자들의 손에 맞게 구부릴 수 있도록 유연한(flexible) 형태일 수 있다. The motion detector 300 includes a form in which any part is bent. Accordingly, a part of the bent shape can be mounted on any part of the user's hand. In one embodiment, the bent shape may be a central portion, an upper portion or a lower portion, or it may be flexible in shape to allow it to bend to the hands of each user.

또한, 실시예들에 따라, 모션 검출기(300)의 일부만 구부러진 형태일 수 있고, 또는 전부가 구부러진 형태일 수 있다. 또한, 모션 검출기(300)의 일부 또는 전부를 거치하는 사용자의 손의 어느 일부는 손등, 손바닥, 손가락, 손바닥과 손등 사이, 손의 어느 일 측면 등 매우 다양할 수 있다. Also, according to embodiments, only a portion of the motion detector 300 may be in a bent shape, or all may be in a bent shape. In addition, any part of the user's hand resting on some or all of the motion detector 300 can vary widely, such as the back of the hand, the palm, the finger, between the palm and the back of the hand,

일 실시예에서, 도 10에 도시된 바와 같이, 사용자의 엄지와 검지 사이에 U자형 모션 검출기(300)의 구부러진 형태를 거치하여, 자유로운 사용자의 손가락의 움직임이 가능하다. 또한, 오른손용과 왼손용 모션 검출기(300)의 형태가 다를 수 있고, 거치 부분도 다를 수 있음은 물론이다. In one embodiment, as shown in Fig. 10, the free finger movement of the user is possible by placing the bent shape of the U-shaped motion detector 300 between the user's thumb and index finger. It is needless to say that the shape of the right-handed and left-handed motion detectors 300 may be different from each other, and the mounting portion may be different.

도 11은 일 실시예에 따른 모션 검출기(300)의 센서(320)를 설명하기 위한 도면이다. 도 11을 참조하여, 사용자의 손가락의 움직임을 감지하는 적어도 하나의 센서(320)를 모션 검출기(300)의 적어도 하나의 측면에 위치시킬 수 있다. 11 is a view for explaining a sensor 320 of the motion detector 300 according to an embodiment. Referring to FIG. 11, at least one sensor 320 sensing the movement of a user's finger may be positioned on at least one side of the motion detector 300.

일 실시예에서, 센서(320)는 광 센서, 카메라 센서, 초음파 센서, 적외선 센서 중 적어도 하나를 포함할 수 있으나, 이에 제한되지 않는다. In one embodiment, the sensor 320 may include, but is not limited to, an optical sensor, a camera sensor, an ultrasonic sensor, and an infrared sensor.

일 실시예에서, 손가락의 구부러진 정도를 감지하기 위하여, 모션 검출기(300)의 손바닥 쪽의 일 측면에 센서(320)를 배치한다. 실시예들에 따라, 센서(320)의 위치는 모션 검출기(300)의 전면, 후면, 상측면, 하측면, 양측면, 또는 전체일 수 있으나 이에 제한되지 않는다. In one embodiment, a sensor 320 is disposed on one side of the palm side of the motion detector 300 to sense the degree of bending of the finger. According to embodiments, the position of the sensor 320 may be, but is not limited to, the front, back, top, bottom, both sides, or the entirety of the motion detector 300.

또한, 일 실시예에서, 한 개 또는 복수개의 센서(320)가 일렬로 배치될 수 있다. 배치된 센서(320)를 통해 사용자의 손의 위치뿐만 아니라 사용자의 손 모양, 각 손가락의 구부러진 정도, 사용자의 손의 각도, 회전 정도 등의 정보를 획득할 수 있어, 실제 손 모양과 동일하게 또는 부합하게 가상 현실에 반영할 수 있다.Also, in one embodiment, one or more sensors 320 may be arranged in a row. Information on the position of the user's hand as well as the shape of the user's hand, the degree of bending of each finger, the angle of the user's hand, and the degree of rotation can be obtained through the placed sensor 320, It can be reflected in the virtual reality in a consistent manner.

도 12는 일 실시예에 따라 가상 현실 인터페이스 장치(1000)를 제어하는 방법을 설명하기 위한 흐름도이다. 12 is a flowchart for explaining a method of controlling the virtual reality interface apparatus 1000 according to an embodiment.

단계 1210에서는 모션 검출기(300)는 소스(200)에서 발생된 자기장에 기초하여, 사용자의 손의 좌표를 획득한다(S 1210). 모션 검출기(300)는 센서(320)를 통해 소스(200)에서 발생한 자기장 신호를 감지하여, 사용자 손의 위치와 각도를 프로세서(350)를 통해 계산하여, 소스(200)를 기준으로 한 사용자의 손의 좌표를 획득한다. In step 1210, the motion detector 300 obtains the coordinates of the user's hand based on the magnetic field generated in the source 200 (S1210). The motion detector 300 senses a magnetic field signal generated at the source 200 through the sensor 320 and calculates the position and angle of the user's hand through the processor 350 to determine the position of the user based on the source 200 Obtain the coordinates of the hand.

단계 1220에서, 가상 현실 제공 장치(100)는 사용자의 움직임에 따른 소스(200)의 위치 변화를 감지한다(S 1220). 사용자의 움직임에 따라 소스(200)의 위치도 변하는 경우, 가상 현실 제공 장치(100)는 자기장 센서를 통해 자기장 세기의 변화를 감지하여 소스(200)의 위치 변화를 알 수 있다. In operation 1220, the virtual reality providing apparatus 100 detects a change in the position of the source 200 according to the movement of the user (S 1220). When the position of the source 200 changes according to the movement of the user, the virtual reality providing apparatus 100 can detect a change in the intensity of the magnetic field through the magnetic field sensor and know the change in the position of the source 200.

단계 1230에서, 가상 현실 제공 장치(100)는 감지된 소스(200)의 위치 변화에 기초하여 획득한 사용자의 손의 좌표를 가상 현실에 반영한다(S 1230). 가상 현실 제공 장치(100)는 단계 1210 이후, 모션 검출기(300)로부터 획득한 사용자의 손의 좌표를 수신하고, 프로세서(130)를 통해 이를 소스(200)의 위치 변화에 부합하게 보정하여 가상 현실에 반영한다. In step 1230, the virtual reality providing apparatus 100 reflects the coordinates of the user's hand obtained based on the change in the position of the detected source 200 in the virtual reality (S1230). The virtual reality providing apparatus 100 receives the coordinates of the user's hand acquired from the motion detector 300 after step 1210 and corrects it to match the positional change of the source 200 via the processor 130, .

도 13은 일 실시예에 따라 가상 현실 인터페이스 장치(1000)를 제어하는 방법에 있어 가상 현실을 제공하는 과정을 설명하기 위한 흐름도이다. 13 is a flowchart illustrating a process of providing a virtual reality in a method of controlling the virtual reality interface apparatus 1000 according to an embodiment.

단계 1310은 방법(1200)에 이어서, 도 12의 단계 1230 이후에 사용자의 손의 좌표가 반영된 가상 현실을 제공한다. 여기에서, 가상 현실 제공 장치(100)가 제공하는 가상 현실에는 사용자의 손의 좌표뿐만 아니라 사용자의 손가락 움직임 정보도 포함될 수 있다. Step 1310, following method 1200, provides a virtual reality that reflects the coordinates of the user's hand after step 1230 of FIG. Here, the virtual reality provided by the virtual reality providing apparatus 100 may include not only coordinates of the user's hand but also finger motion information of the user.

가상 현실을 제공한다는 의미는 가상 현실 제공 장치(100)가 사용자에게 가상 현실을 디스플레이하거나, 가상 현실 제공 장치(100)가 외부 디스플레이 장치(400)로 가상 현실을 전송하여, 외부 디스플레이 장치(400)가 디스플레이하는 것 또는 가상 현실 제공 장치(100)와 외부 디스플레이 장치(400)가 모두 가상 현실을 디스플레이하는 것일 수 있다. 또한, 사용자의 손의 좌표가 반영된 가상 현실에서, 컨텐츠에 따라 손의 위치와 각도에 부합하게 손이나 다른 형상의 유저 인터페이스가 디스플레이될 수 있다. The provision of the virtual reality means that the virtual reality providing apparatus 100 displays the virtual reality to the user or the virtual reality providing apparatus 100 transmits the virtual reality to the external display apparatus 400, Or the virtual reality providing apparatus 100 and the external display apparatus 400 both display virtual reality. Further, in a virtual reality in which the coordinates of the user's hand are reflected, a user interface of a hand or other shape can be displayed in accordance with the position and angle of the hand according to the contents.

도 14는 일 실시예에 따라 모션 검출기(300)에서 진동이 발생하는 방법을 설명하기 위한 흐름도이다. 일 실시예에서, 도 14의 방법(1400)은 도 12의 방법(1200)에 이어진다. FIG. 14 is a flowchart illustrating a method of generating vibration in the motion detector 300 according to an embodiment. In one embodiment, method 1400 of FIG. 14 leads to method 1200 of FIG.

단계 1410에서, 사용자의 손의 좌표를 가상 현실에 반영한(S 1230) 후에, 가상 현실 제공 장치(100)는 가상 현실 내의 주변에 있는 객체의 좌표를 산출한다(S 1410). In step 1410, after the coordinates of the user's hand are reflected on the virtual reality (S 1230), the virtual reality providing apparatus 100 calculates the coordinates of the surrounding objects in the virtual reality (S 1410).

단계 1420에서, 가상 현실 제공 장치(100)는 산출한 가상 현실 내 객체의 좌표와 사용자의 손의 좌표가 소정의 범위 내에서 오버랩(overlap) 되는지를 결정한다(S 1420). In step 1420, the virtual reality providing apparatus 100 determines whether the coordinates of the object in the calculated virtual reality and the coordinates of the user's hand overlap within a predetermined range (S 1420).

단계 1430에서, 가상 현실 제공 장치(100)가 오버랩 된다고 결정하면, 모션 검출기(300)에서 출력부(340)의 진동 액츄에이터를 통해 진동을 발생한다(S 1430). In step 1430, when the virtual reality providing apparatus 100 determines that the virtual reality providing apparatus 100 is overlapped, the vibration is generated through the vibration actuator of the output unit 340 in the motion detector 300 (S 1430).

단계 1440에서, 가상 현실 제공 장치(100)가 오버랩 되지 않는다고 결정하면, 모션 검출기(300)에서 프로세서(350)의 명령을 통해 진동 발생을 중단한다(S 1440). 원래 진동이 발생하지 않았다면, 아무 변화도 일어나지 않는다. In step 1440, when the virtual reality providing apparatus 100 determines that the virtual reality providing apparatus 100 is not overlapped, the motion detector 300 interrupts the vibration generation through the command of the processor 350 (S1440). If the original vibration has not occurred, no change occurs.

일 실시예에서, 가상 현실 제공 장치(100)가 상기 좌표들이 오버랩 된다고 결정하면, 출력으로써 진동을 발생하게 할 수 있으나, 진동을 발생하는 것 외에도, 가상 현실 상에서의 상호 작용과 함께 햅틱(haptic)과 같은 촉감을 느끼게 하거나, 음향이나 빛을 출력하는 등의 다양한 실시예들이 있을 수 있다. In one embodiment, if the virtual reality providing device 100 determines that the coordinates overlap, it may cause the vibration to occur as an output, but in addition to generating the vibration, the haptic, along with the interaction on the virtual reality, And there may be various embodiments such as sound or light output.

도 15는 일 실시예에 따라 모션 검출기(300)에서 생성하는 모션 데이터의 필드를 설명하기 위한 도면이다. 15 is a diagram for explaining fields of motion data generated by the motion detector 300 according to an embodiment.

도 15에서, 모션 검출기(300)는 유도된 전류의 세기를 인식하여, 사용자의 움직임을 감지하며, 감지된 사용자의 움직임에 대한 모션 데이터를 생성한다. 일 실시예에서, 사용자의 움직임에 대한 모션 데이터는 Data Start, 장치 종류, 장치 상태, 메시지 종류, 손 위치 정보, 손 회전 정보, 손가락 움직임 정보, 버튼 정보, Data End 중 선택된 하나 이상을 포함할 수 있다. In FIG. 15, the motion detector 300 recognizes the intensity of the induced current, detects the motion of the user, and generates motion data on the motion of the sensed user. In one embodiment, the motion data for a user's motion may include one or more selected from Data Start, device type, device state, message type, hand position information, hand rotation information, finger motion information, button information, have.

모션 검출기(300)는 사용자의 움직임에 대한 모션 데이터를 가상 현실 제공 장치(100)로 전송하고, 가상 현실 제공 장치(100)는 수신한 모션 데이터를 사용자의 움직임에 부합하게 보정하여, 가상 현실 내 객체의 동작 제어가 이루어지도록 한다. The motion detector 300 transmits motion data on the motion of the user to the virtual reality providing apparatus 100. The virtual reality providing apparatus 100 corrects the received motion data in accordance with the motion of the user, Thereby controlling the operation of the object.

도 16은 일 실시예에 따라 모션 검출기(300)에서 생성하는 모션 데이터의 필드에 대하여 구체적으로 설명하기 위한 도면이다. 도 15로 돌아가서, 모션 검출기(300)는 Data Start, 장치 종류, 장치 상태, 메시지 종류, 손 위치 정보, 손 회전 정보, 손가락 움직임 정보, 버튼 정보, Data End 중 선택된 하나 이상을 포함하는 사용자의 움직임에 대한 모션 데이터를 생성하는데, 도 16을 참조하여, 모션 검출기(300)가 생성하는 모션 데이터에 대해 상세히 살펴보겠다. 16 is a diagram for explaining a field of motion data generated by the motion detector 300 in detail according to an embodiment. Returning to FIG. 15, the motion detector 300 may detect motion of a user including at least one selected from Data Start, device type, device state, message type, hand position information, hand rotation information, finger motion information, button information, The motion data generated by the motion detector 300 will be described in detail with reference to FIG.

일 실시예에서, Data Start는 메시지의 시작을 알리고, 메시지 무결성 확인에 사용된다. 장치 종류는 모션 검출기(300)가 왼손용인지 오른손용인지 등에 대한 정보를 표시한다. 예를 들어, 왼손용이면 1로, 오른손용이면 2로 표시한다. 장치 상태는 모션 검출기(300)의 현재 상태를 표시한다. 예를 들어, Disconnected는 연결이 해지된 상태, Calibrating은 초기 설정값 조정 상태, Disabled는 연결은 되어있지만, 사용자에 의해 동작은 멈춘 상태, Connected는 정상적인 데이터를 송수신하는 상태이다. In one embodiment, Data Start notifies the start of the message and is used for message integrity verification. The device type displays information on whether the motion detector 300 is for the left hand or right hand. For example, 1 for left hand and 2 for right hand. The device status indicates the current status of the motion detector 300. For example, Disconnected is in the disconnected state, Calibrating is in the initial setting adjustment state, Disabled is in the connected state, but the operation is stopped by the user, and Connected is in a state of transmitting / receiving normal data.

메시지 종류는 현재 메시지의 종류를 의미한다. 예를 들어, Information은 장치의 정보에 대한 것이고, Action은 장치의 움직임 정보에 대한 것이다. 손 위치 정보는 가상 현실 제공 장치(100)의 소스(200) 대비 상대 위치를 x, y, z 좌표계 상의 값으로 표시하고, 손 회전 정보는 가상 현실 제공 장치(100)의 소스(200) 대비 회전값을 x축, y축, z축 회전값으로 표시한다. 손가락 움직임 정보는 각 손가락 별 기울어짐 값을 0에서 1사이의 실수값으로 표현한다. 예를 들어, 0은 손가락을 완전히 편 상태이고, 1은 손가락을 최대한 구부린 상태이다. 버튼 정보는 물리적인 버튼이 눌려진 상태를 표현한다. Data End는 데이터의 끝을 알리고, 데이터의 무결성 확인용으로 사용된다. The message type indicates the type of the current message. For example, Information is about device information, and Action is about device motion information. The hand position information indicates the relative position of the virtual reality providing apparatus 100 with respect to the source 200 in the x, y, z coordinate system, and the hand rotation information indicates the rotation relative to the source 200 of the virtual reality providing apparatus 100 Values are displayed as x, y and z axis rotation values. The finger motion information expresses the inclination value of each finger as a real value between 0 and 1. For example, 0 means that the finger is completely flat, and 1 means that the finger is bent to the maximum. The button information represents a pressed state of a physical button. The Data End informs the end of the data and is used to check the integrity of the data.

본 개시에 의해 사용자의 손의 움직임을 가상 현실에 보다 정확하게 반영할 수 있고, 햅틱을 통해서 컨텐츠와 상호작용이 가능하다. 이로 인해 사용자에게 가상 현실에의 실제적인 몰입감을 제공할 수 있다. 또한, 사용자에게 단순한 감상형 컨텐츠가 아닌, 참여형 컨텐츠를 제공하는 장점이 있다. By this disclosure, the motion of the user's hand can be more accurately reflected in the virtual reality, and it is possible to interact with the content through the haptic. This can provide the user with a real immersion feeling in the virtual reality. In addition, there is an advantage in that the user is provided not with simple sentimental content but with participatory content.

한편, 상술한 본 발명의 실시예에 따른 가상 현실 인터페이스를 제어하는 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 이와 같은 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 이와 같은 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다. 또한, 컴퓨터가 읽을 수 있는 복수의 기록 매체가 네트워크로 연결된 컴퓨터 시스템들에 분산되어 있을 수 있으며, 분산된 기록 매체들에 저장된 데이터(예를 들어, 프로그램 명령어 및 코드)가 적어도 하나의 컴퓨터에 의해 실행될 수 있다. Meanwhile, a method for controlling a virtual reality interface according to an embodiment of the present invention can be realized by a general-purpose digital computer that can be created as a program that can be executed by a computer and operates the program using a computer-readable recording medium Can be implemented. Such a computer readable recording medium includes a storage medium such as a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD ROM, DVD, etc.). In addition, a plurality of computer-readable recording media may be distributed over networked computer systems, and data (e.g., program instructions and code) stored on distributed recording media may be stored on at least one computer Lt; / RTI >

이제까지 실시예들을 중심으로 살펴보았다. 개시된 실시예들이 속하는 기술 분야에서 통상의 지식을 가진 자는 개시된 실시예들이 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 실시예들에 따른 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 발명의 범위에 포함된 것으로 해석되어야 할 것이다.So far, the embodiments have been mainly described. It will be understood by those skilled in the art that the disclosed embodiments may be embodied in various other forms without departing from the essential characteristics thereof. Therefore, the disclosed embodiments should be considered in an illustrative rather than a restrictive sense. The scope of the invention in accordance with the embodiments is set forth in the appended claims rather than the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the scope of the invention.

본 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. The terms " part, "" module, " and the like, as used herein, refer to a unit that processes at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software.

"부", "모듈"은 어드레싱될 수 있는 저장 매체에 저장되며 프로세서에 의해 실행될 수 있는 프로그램에 의해 구현될 수도 있다."Module" may be embodied by a program stored on a storage medium that can be addressed and that may be executed by a processor.

예를 들어, "부", "모듈" 은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.For example, "part" or "module" may include components such as software components, object oriented software components, class components and task components, Microcode, circuitry, data, databases, data structures, tables, arrays, and variables, as will be appreciated by those skilled in the art.

Claims (20)

자기장을 발생하는 소스;
상기 발생된 자기장에 기초하여, 사용자의 손의 좌표를 획득하는 모션 검출기(motion detector); 및
상기 모션 검출기로부터 수신한 상기 사용자의 손의 좌표를 상기 사용자의 움직임에 따른 상기 소스의 위치 변화에 기초하여 가상 현실에 반영하는 가상 현실 제공 장치;
를 포함하는 가상 현실 인터페이스 장치.
A source generating a magnetic field;
A motion detector for obtaining coordinates of a user's hand based on the generated magnetic field; And
A virtual reality providing device for reflecting the coordinates of the hand of the user received from the motion detector to the virtual reality based on a change in the position of the source according to the movement of the user;
And a virtual reality interface device.
제 1항에 있어서,
상기 가상 현실 제공 장치는 상기 소스를 탈부착 가능한, 가상 현실 인터페이스 장치.
The method according to claim 1,
Wherein the virtual reality providing device is detachable from the source.
제 1항에 있어서,
상기 가상 현실 제공 장치는 상기 모션 검출기에서 수신한 상기 소스의 위치를 기준으로 한 사용자의 손의 좌표를, 상기 사용자의 움직임에 따른 상기 소스의 위치 변화에 기초하여, 상기 사용자의 몸의 일부를 기준으로 보정하는, 가상 현실 인터페이스 장치.
The method according to claim 1,
Wherein the virtual reality providing apparatus is configured to set coordinates of a hand of a user based on a position of the source received by the motion detector as a reference of a part of the user's body based on a change in position of the source in accordance with movement of the user To the virtual reality interface device.
제 1항에 있어서,
상기 가상 현실 제공 장치는 상기 모션 검출기에서 수신한 상기 소스의 위치를 기준으로 한 사용자의 손의 좌표를, 상기 사용자의 머리 움직임에 따른 상기 소스의 위치 변화에 기초하여, 상기 사용자의 흉부를 기준으로 보정하는, 가상 현실 인터페이스 장치.
The method according to claim 1,
Wherein the virtual reality providing apparatus is configured to set coordinates of the hand of the user based on the position of the source received by the motion detector on the basis of the change in the position of the source in accordance with the head movement of the user, A virtual reality interface device.
제 1항에 있어서,
상기 가상 현실 제공 장치는,
상기 모션 검출기와 통신하는 통신 인터페이스;
상기 사용자의 움직임을 감지하는 센서;
상기 모션 검출기로부터 수신한 사용자의 손의 좌표를 상기 사용자의 몸의 일부를 기준으로 보정하여 상기 사용자의 손의 좌표를 구하는 프로세서;
를 포함하는, 가상 현실 인터페이스 장치.
The method according to claim 1,
The virtual reality providing apparatus includes:
A communication interface for communicating with the motion detector;
A sensor for sensing movement of the user;
A processor for correcting coordinates of a user's hand received from the motion detector based on a part of the user's body to obtain coordinates of the user's hand;
And a virtual reality interface device.
제 5항에 있어서,
상기 가상 현실 제공 장치는,
상기 사용자의 손의 좌표를 반영한 상기 가상 현실을 상기 사용자에게 디스플레이하는 디스플레이를 더 포함하는 가상 현실 인터페이스 장치.
6. The method of claim 5,
The virtual reality providing apparatus includes:
Further comprising a display for displaying to the user the virtual reality reflecting the coordinates of the user's hand.
제 5항에 있어서,
상기 통신 인터페이스는,
외부의 디스플레이 장치로 상기 사용자의 손의 좌표를 반영한 상기 가상 현실을 전송하는, 가상 현실 인터페이스 장치.
6. The method of claim 5,
Wherein the communication interface comprises:
And transmits the virtual reality reflecting the coordinates of the user's hand to an external display device.
제 1항에 있어서,
상기 가상 현실 제공 장치는,
상기 가상 현실 내 객체 좌표와 상기 사용자의 손의 좌표에 기초하여 진동 발생 신호를 생성하는, 가상 현실 인터페이스 장치.
The method according to claim 1,
The virtual reality providing apparatus includes:
And generates a vibration generating signal based on the coordinates of the object in the virtual reality and the coordinates of the hand of the user.
제 1항에 있어서,
상기 모션 검출기는,
상기 모션 검출기의 어느 일부가 구부러진 형태를 포함하고, 상기 사용자의 손의 어느 일부에 상기 구부러진 형태의 일부가 거치되는, 가상 현실 인터페이스 장치.
The method according to claim 1,
The motion detector comprising:
Wherein a portion of the motion detector includes a bent shape and a portion of the bent shape is mounted to any portion of the user's hand.
제 1항에 있어서,
상기 모션 검출기는,
상기 사용자의 손가락의 움직임을 감지하는 적어도 하나의 센서를 상기 모션 검출기의 적어도 하나의 측면에 위치시키는, 가상 현실 인터페이스 장치
The method according to claim 1,
The motion detector comprising:
And at least one sensor for sensing movement of the user's finger on at least one side of the motion detector,
소스에서 발생된 자기장에 기초하여, 사용자의 손의 좌표를 획득하는 단계;
상기 사용자의 움직임에 따른 상기 소스의 위치 변화를 감지하는 단계; 및
상기 획득한 사용자의 손의 좌표를 상기 감지된 소스의 위치 변화에 기초하여 가상 현실에 반영하는 단계;
를 포함하는 가상 현실 인터페이스 장치를 제어하는 방법.
Obtaining coordinates of the user's hand based on the magnetic field generated at the source;
Detecting a change in the position of the source according to a movement of the user; And
Reflecting coordinates of the obtained hand of the user to a virtual reality based on a change in the position of the detected source;
Wherein the virtual reality interface device is a virtual reality interface device.
제 11항에 있어서,
가상 현실 제공 장치에 자기장을 발생하는 상기 소스를 부착하는 단계를 더 포함하고,
상기 획득하는 단계는,
상기 부착된 소스에서 발생된 자기장에 기초하여, 상기 사용자의 손의 좌표를 획득하는, 가상 현실 인터페이스 장치를 제어하는 방법.
12. The method of claim 11,
Further comprising the step of attaching said source generating a magnetic field to a virtual reality providing device,
Wherein the acquiring comprises:
And obtains the coordinates of the user's hand based on the magnetic field generated at the attached source.
제 11항에 있어서, 상기 획득한 사용자의 손의 좌표를 가상 현실에 반영하는 단계는,
상기 사용자의 움직임에 따른 상기 감지된 소스의 위치 변화에 기초하여, 상기 소스의 위치를 기준으로 한 상기 사용자의 손의 좌표를 상기 사용자의 몸의 일부를 기준으로 보정하는 단계를 포함하는 가상 현실 인터페이스 장치를 제어하는 방법.
12. The method of claim 11, wherein the step of reflecting the coordinates of the obtained hand of the user to the virtual reality comprises:
And adjusting the coordinates of the hand of the user based on the position of the source based on a change in the position of the detected source in accordance with the movement of the user, How to control the device.
제 13항에 있어서, 상기 사용자의 움직임은 사용자의 머리 움직임이고, 상기 사용자의 몸의 일부는 사용자의 흉부인, 가상 현실 인터페이스 장치를 제어하는 방법.
14. The method of claim 13, wherein the movement of the user is head movement of the user, and a portion of the body of the user is the chest of the user.
제 11항에 있어서,
상기 사용자의 손의 좌표를 반영한 상기 가상 현실을 상기 사용자에게 디스플레이하는 단계를 더 포함하는 가상 현실 인터페이스 장치를 제어하는 방법.
12. The method of claim 11,
And displaying the virtual reality reflecting the coordinates of the user's hand to the user.
제 11항에 있어서,
외부의 디스플레이 장치로 상기 사용자의 손의 좌표를 반영한 상기 가상 현실을 전송하는 단계를 더 포함하는 가상 현실 인터페이스 장치를 제어하는 방법.
12. The method of claim 11,
And transmitting the virtual reality reflecting the coordinates of the user's hand to an external display device.
제 11항에 있어서,
상기 가상 현실 내 객체 좌표와 상기 사용자의 반영된 손의 좌표에 기초하여 진동 발생 신호를 생성하는 단계를 더 포함하는 가상 현실 인터페이스 장치를 제어하는 방법.
12. The method of claim 11,
And generating a vibration generating signal based on the coordinates of the object in the virtual reality and the coordinates of the reflected hand of the user.
제 17항에 있어서,
상기 진동을 발생 신호를 생성하는 단계는,
상기 가상 현실 내 객체 좌표를 산출하는 단계;
상기 객체 좌표와 상기 반영된 사용자의 손의 좌표가 소정의 범위 내에서 오버랩되는지 결정하는 단계; 및
상기 결정에 기초하여 진동을 생성하는 단계;
를 포함하는 가상 현실 인터페이스 장치를 제어하는 방법.
18. The method of claim 17,
The step of generating the vibration generating signal includes:
Calculating object coordinates in the virtual reality;
Determining whether the object coordinates and the coordinates of the reflected user's hand overlap within a predetermined range; And
Generating vibration based on the determination;
Wherein the virtual reality interface device is a virtual reality interface device.
제 11항에 있어서,
상기 사용자의 손의 좌표를 획득하는 단계는,
상기 사용자의 손의 좌표를 획득하는 모션 검출기의 일 측면에 위치하는 적어도 하나의 센서를 이용하여 상기 사용자의 손가락 움직임 정보를 더 획득하는 단계를 포함하는 가상 현실 인터페이스 장치를 제어하는 방법.
12. The method of claim 11,
The step of acquiring the coordinates of the user's hand comprises:
And further obtaining finger movement information of the user using at least one sensor located at one side of the motion detector that obtains the coordinates of the user's hand.
제 11항 내지 제 19항 중에 적어도 어느 한 항의 방법을 컴퓨터에서 실행시키기 위한 프로그램이 기록된 컴퓨터로 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for causing a computer to execute the method according to any one of claims 11 to 19.
KR1020160055768A 2015-12-24 2016-05-04 Virtual reality interface apparatus and method for controlling the apparatus KR20170076534A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160147636A KR20170076544A (en) 2015-12-24 2016-11-07 Electronic device and method for controlling the electronic device
US15/390,229 US10338688B2 (en) 2015-12-24 2016-12-23 Electronic device and method of controlling the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201562387184P 2015-12-24 2015-12-24
US62/387,184 2015-12-24

Publications (1)

Publication Number Publication Date
KR20170076534A true KR20170076534A (en) 2017-07-04

Family

ID=59356923

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020160055768A KR20170076534A (en) 2015-12-24 2016-05-04 Virtual reality interface apparatus and method for controlling the apparatus
KR1020160147636A KR20170076544A (en) 2015-12-24 2016-11-07 Electronic device and method for controlling the electronic device

Family Applications After (1)

Application Number Title Priority Date Filing Date
KR1020160147636A KR20170076544A (en) 2015-12-24 2016-11-07 Electronic device and method for controlling the electronic device

Country Status (1)

Country Link
KR (2) KR20170076534A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200110103A (en) * 2019-03-14 2020-09-23 주식회사 듀코젠 Method and system for authoring virtual reality contents with two hands motion input
US10860117B2 (en) 2016-12-08 2020-12-08 Samsung Electronics Co., Ltd Method for displaying object and electronic device thereof
KR20220016562A (en) * 2020-08-03 2022-02-10 주식회사 탑앤피 Taekwondo training system using AR and VR equipment

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019083113A1 (en) * 2017-10-23 2019-05-02 주식회사 디미콜론 Controller and simulation system including same
KR102143358B1 (en) * 2018-03-14 2020-08-12 고려대학교 산학협력단 Finger-wearable wireless controller apparatus and wireless control method using the same
KR102233004B1 (en) * 2018-12-28 2021-03-26 중앙대학교 산학협력단 Virtual Reality Karaoke Interaction Method and Apparatus
KR102309454B1 (en) * 2018-12-31 2021-10-05 (주)엠라인스튜디오 Wearable device for virtual reality
KR102218088B1 (en) * 2019-01-22 2021-02-19 (주)스코넥엔터테인먼트 Virtual Reality Control System

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10860117B2 (en) 2016-12-08 2020-12-08 Samsung Electronics Co., Ltd Method for displaying object and electronic device thereof
KR20200110103A (en) * 2019-03-14 2020-09-23 주식회사 듀코젠 Method and system for authoring virtual reality contents with two hands motion input
KR20220016562A (en) * 2020-08-03 2022-02-10 주식회사 탑앤피 Taekwondo training system using AR and VR equipment

Also Published As

Publication number Publication date
KR20170076544A (en) 2017-07-04

Similar Documents

Publication Publication Date Title
KR20170076534A (en) Virtual reality interface apparatus and method for controlling the apparatus
US10338688B2 (en) Electronic device and method of controlling the same
US11699271B2 (en) Beacons for localization and content delivery to wearable devices
KR101541082B1 (en) System and method for rehabilitation exercise of the hands
TWI492146B (en) Virtual hand based on combined data
US11016569B2 (en) Wearable device and method for providing feedback of wearable device
US20200023272A1 (en) Haptic surround functionality
WO2017117562A1 (en) Augmented reality based path visualization for motion planning
CN108027987B (en) Information processing method, information processing apparatus, and information processing system
US9213440B2 (en) System and method for remote touch detection
KR102389063B1 (en) Method and electronic device for providing haptic feedback
WO2019044003A1 (en) Spatial position indication system
JP2018072992A (en) Information processing method and equipment and program making computer execute the information processing method
CN117348743A (en) Computer, rendering method and position indication device
JP6220937B1 (en) Information processing method, program for causing computer to execute information processing method, and computer
KR102290991B1 (en) The method for generating thermal image and apparatus thereof
RU2670649C1 (en) Method of manufacturing virtual reality gloves (options)
KR20220086939A (en) Electronic device and operation method thereof
JP6373537B1 (en) Spatial position indication system
KR102572675B1 (en) Method and electronic device for adaptively configuring user interface
RU2673406C1 (en) Method of manufacturing virtual reality glove
JP6290493B2 (en) Information processing method, program for causing computer to execute information processing method, and computer
JP2016194798A (en) Information processing device, information processing method, and program
KR101605474B1 (en) 3d pointing device based on finger gesture and presentation system using the same
US20190369713A1 (en) Display control apparatus, display control method, and program

Legal Events

Date Code Title Description
A201 Request for examination