KR20170119272A - 3D Motion Input Apparatus for Virtual Reality Device - Google Patents

3D Motion Input Apparatus for Virtual Reality Device Download PDF

Info

Publication number
KR20170119272A
KR20170119272A KR1020160076393A KR20160076393A KR20170119272A KR 20170119272 A KR20170119272 A KR 20170119272A KR 1020160076393 A KR1020160076393 A KR 1020160076393A KR 20160076393 A KR20160076393 A KR 20160076393A KR 20170119272 A KR20170119272 A KR 20170119272A
Authority
KR
South Korea
Prior art keywords
unit
virtual reality
sensing
input unit
input
Prior art date
Application number
KR1020160076393A
Other languages
Korean (ko)
Inventor
김종만
Original Assignee
김종만
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 김종만 filed Critical 김종만
Priority to KR1020160076393A priority Critical patent/KR20170119272A/en
Priority to PCT/KR2017/003261 priority patent/WO2017183822A1/en
Publication of KR20170119272A publication Critical patent/KR20170119272A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자에게 착용된 별도의 가상현실 기기와 연동하여 모션을 입력하는 3차원 모션 입력장치에 관한 것으로서, 사용자가 그립할 수 있으며, 일측에 별도의 감지신호를 송신하는 송신부를 포함하는 입력유닛, 적어도 세 개 이상으로 구성되어 상호 이격 배치되며, 상기 입력유닛에서 송신되는 상기 감지신호를 각각 독립적으로 수신하는 수신부를 포함하는 감지유닛 및 상기 수신부 각각에서 수신된 상기 감지신호를 통해 상기 송신부에서 각각의 상기 수신부에 상기 감지신호가 도달하는 시간을 측정하고 이를 통해 상기 송신부의 3차원 위치정보를 측정하여 상기 가상현실 기기에 전송하는 산출유닛을 포함하며, 상기 산출유닛에서 산출된 상기 송신부의 위치정보 변화를 통해 상기 입력유닛의 움직임을 측정하는 것을 특징으로 하는 가상현실 기기용 3차원 모션 입력장치가 개시된다.The present invention relates to a three-dimensional motion input device for inputting motion in cooperation with a separate virtual reality device worn by a user, and more particularly, to a three-dimensional motion input device for inputting motion, comprising an input unit including a transmitter capable of gripping a user, A sensing unit including at least three sensing units which are spaced apart from each other and which receive the sensing signals transmitted from the input unit, and a control unit Dimensional position information of the transmitting unit, and transmitting the measured three-dimensional position information to the virtual reality device by measuring the time at which the detection signal arrives at the receiving unit of the transmitting unit, And the movement of the input unit is measured through a change. The three-dimensional motion input device for the apparatus.

Description

가상현실 기기용 3차원 모션 입력장치{3D Motion Input Apparatus for Virtual Reality Device}TECHNICAL FIELD [0001] The present invention relates to a 3D motion input device for a virtual reality device,

본 발명은 가상현실 기기용 3차원 모션 입력장치에 관한 것으로서, 보다 상세하게는, 가상현실 기기와 연동된 입력유닛과 감지유닛을 통해 측정된 위치정보와 자세정보를 통합하여, 사용자의 조작에 의한 입력유닛의 모션 변화를 간단하게 측정하여 가상현실 기기로 전달할 수 있는 가상현실 기기용 3차원 모션 입력장치에 관한 것이다.
The present invention relates to a three-dimensional motion input apparatus for a virtual reality apparatus, and more particularly, to an apparatus and method for integrating position information and attitude information measured through an input unit interlocked with a virtual reality apparatus, And more particularly, to a three-dimensional motion input device for a virtual reality device capable of easily measuring a motion change of an input unit and transmitting the motion change to a virtual reality device.

일반적으로 가상현실 기기는 사용자에게 현실감을 주기 위해 단순히 사용자의 시점변화에 대한 움직임만을 3차원 형태로 정보화 하여 영상과 소리를 제어하는 기술이다.Generally, a virtual reality device is a technology for controlling the image and sound by informing only the movement of the user's viewpoint change in a three-dimensional form in order to give a sense of reality to the user.

하지만, 상술한 바와 같은 가상현실 기기는 사용자의 행동이 아닌 사용자의 시점변화에 대한 정보만을 이용하기에 현실감이 떨어지게 된다However, since the above-described virtual reality device uses only information on the viewpoint change of the user, not the behavior of the user, the reality becomes less realistic

이에 따라 사용자의 행동(모션)을 가상현실기기에 반영하기 위해 자이로센서 및 가속도 센서가 탑재된 입력장치(조이스틱)을 다수의 카메라를 이용하여 촬영하여 자이로 가속도 센서를 통해 얻어낸 3차원 변화량(pitch, roll, yaw) 과 카메라를 통해 얻어낸 3차원 위치 정보(X, Y, Z)를 통합하여 가상현실기기의 입력장치로 사용하는 것이 일반적이다.Accordingly, in order to reflect motion of a user to a virtual reality device, an input device (joystick) equipped with a gyro sensor and an acceleration sensor is photographed using a plurality of cameras, and a three-dimensional variation amount (pitch, roll, yaw) and the 3D position information (X, Y, Z) obtained through the camera are combined and used as an input device of the virtual reality device.

하지만, 카메라 촬영을 통해 얻어진 이미지는 복잡한 이미지 연산처리 과정을 거쳐야 하므로 반응 속도가 저하되는 단점과 사용자가 카메라의 설치방향과 반대방향으로 돌아 섰을 때 음영지역이 되어 위치정보를 산출하지 못하는 단점이 있다.However, since the image obtained through camera shooting has to undergo a complicated image processing process, there is a disadvantage in that the reaction rate is lowered and the user can not calculate the position information because it becomes a shadow area when the user turns around the direction of the camera installation .

뿐만 아니라, 카메라 촬영을 통해 모션을 측정하는 경우, 사용자가 이를 사용하기 위한 위치나 공간적 제약이 있으며, 카메라와 이미지 연산 처리를 위한 회로부품의 가격이 높아 가상현실 기기의 가격을 현저하게 높이는 단점이 있다.In addition, when the motion is measured through camera shooting, there is a limitation on the position and space for the user to use the camera, and the price of the circuit parts for the camera and image processing is high, have.

따라서 이와 같은 문제점들을 해결하기 위한 방법이 요구된다.
Therefore, a method for solving such problems is required.

본 발명은 상술한 종래 기술의 문제점을 해결하기 위하여 안출된 발명으로서, 카메라 대신 송신부가 내장된 입력유닛과 다수의 수신부를 가진 감지유닛을 이용해 입력유닛의 3차원 위치정보(X, Y, Z)를 산출하고, 자세감지부에서 산출된 입력유닛의 모션 변화량(pitch, roll, yaw) 정보와 통합하여 이 정보를 가상현실 기기에 무선 전송함으로써, 간단한 구조로 정확한 모션정보를 전달할 수 있는 가상현실 기기용 3차원 모션 입력장치를 제공함에 있다.(X, Y, Z) of an input unit using an input unit having a transmitting unit incorporated therein and a sensing unit having a plurality of receiving units, instead of a camera, to solve the above- (Pitch, roll, yaw) information of the input unit calculated by the attitude sensing unit and wirelessly transmits the information to the virtual reality device to thereby transmit the accurate motion information in a simple structure, Dimensional motion input device.

본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
The problems of the present invention are not limited to the above-mentioned problems, and other problems not mentioned can be clearly understood by those skilled in the art from the following description.

상기한 목적을 달성하기 위한 본 발명은 사용자에게 작용된 가상현실 기기와 연동하여 모션을 입력하는 3차원 모션 입력장치에 관한 것으로서, 사용자가 그립할 수 있으며, 서로 반대 방향으로 한 쌍이 구비되어 기울기에 따라 어느 하나가 동작하여 별도의 감지신호를 송신하는 송신부 및 자이로센서 및 가속도센서를 통해 움직임을 측정하는 자세감지부를 포함하는 입력유닛, 적어도 세 개 이상으로 구성되어 상호 이격 배치되며, 상기 입력유닛에서 송신되는 상기 감지신호를 각각 독립적으로 수신하는 수신부를 포함하는 감지유닛 및 상기 수신부 각각에서 수신된 상기 감지신호를 통해 상기 송신부에서 각각의 상기 수신부에 상기 감지신호가 도달하는 시간을 측정하고 이를 통해 상기 송신부의 3차원 위치정보를 측정하여 상기 가상현실 기기에 전송하는 산출유닛을 포함하며, 상기 산출유닛에서 산출된 상기 송신부의 위치정보 변화를 통해 상기 입력유닛의 움직임을 측정한다.According to an aspect of the present invention, there is provided a three-dimensional motion input device for inputting motion in cooperation with a virtual reality device operated by a user. The motion input device includes a pair of motion- And an input unit including a transmission unit for transmitting a separate sensing signal and a gyro sensor and a position sensing unit for measuring a movement through an acceleration sensor, and are spaced apart from each other, A sensing unit including a sensing unit for independently receiving the sensing signals to be transmitted and a sensing unit for sensing the time at which the sensing signal reaches each of the sensing units in the sensing unit through the sensing signal received by the sensing unit, Dimensional position information of the transmitting unit, And the movement of the input unit is measured through the change of the position information of the transmission unit calculated by the calculation unit.

또한, 상기 입력유닛은 3차원 방향 측정을 위한 별도의 지자기 센서를 더 포함할 수 있다.In addition, the input unit may further include a separate geomagnetic sensor for three-dimensional direction measurement.

또한, 상기 감지신호는 상기 수신부에 별도의 수신명령을 전달하는 기준신호 및 상기 수신부에서 상기 기준신호보다 상대적으로 느린 속도를 가지며 상기 수신부 각각에 송신되는 음파신호를 포함할 수 있다.The sensing signal may include a reference signal for transmitting a separate reception command to the receiver, and a sound signal having a relatively slower rate than the reference signal in the receiver and transmitted to the receiver.

또한, 상기 감지유닛은 상기 입력유닛의 하부에 배치되는 것을 특징으로 할 수 있다.The sensing unit may be disposed below the input unit.

또한, 상기 입력유닛은 내부에 별도의 진동모터가 구비되며 상기 가상현실 기기와 연통하여 선택적으로 진동을 발생시킬 수 있다.
In addition, the input unit may include a separate vibration motor to generate vibration selectively in communication with the virtual reality device.

상기한 과제를 해결하기 위한 본 발명의 가상현실 기기용 3차원 모션 입력장치는 다음과 같은 효과가 있다.According to an embodiment of the present invention, there is provided a three-dimensional motion input apparatus for a virtual reality apparatus having the following effects.

첫째, 송신부가 구비된 입력유닛과, 세 개 이상의 수신부를 가진 감지유닛을 포함하며, 송신부에서 송신한 감지정보를 수신부에서 각각 수신하고, 이를 통해 송신부와 수신부 사이의 이격거리를 측정함으로써, 별도의 카메라를 이용한 이미지 처리에 비해 간단한 구성만으로 입력유닛의 3차원 위치정보를 산출할 수 있는 이점이 있다.First, an input unit having a transmitter and a detection unit having three or more receivers are provided. The receiver receives the sensed information transmitted from the transmitter, and measures the distance between the transmitter and the receiver through the receiver. There is an advantage that three-dimensional position information of an input unit can be calculated by a simple configuration compared with image processing using a camera.

둘째, 감지유닛에 구비된 수신부의 개수를 증가시킴에 따라 보다 정밀하게 입력유닛의 3차원 위치정보를 산출할 수 있는 이점이 있다.Secondly, there is an advantage that the three-dimensional position information of the input unit can be calculated more precisely by increasing the number of receiving units provided in the sensing unit.

셋째, 복수 개의 수신부가 설치부상에서 사용자를 중심으로 둘레를 따라 방사형으로 배치됨으로써 감지신호를 수신하지 못하는 음영지역이 발생하는 것을 방지할 수 있다.Thirdly, a plurality of receiving units can be radially arranged along the circumference around the user on the installation site, thereby preventing occurrence of a shaded area that does not receive the detection signal.

본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
The effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description of the claims.

도 1은 본 발명의 제1실시예에 따른 모션 입력장치의 구성을 개략적으로 나타낸 도면;
도 2는 도 1의 모션 입력장치에서, 입력유닛이 감지유닛으로 감지신호를 송신하는 상태를 나타낸 도면;
도 3은 도 2의 모션입력장치에서 요청신호와 대응신호가 전달되는 상태를 나타낸 도면;
도 4은 도 1의 모션 입력장치에 의해 입력유닛의 모션 변화가 가상현실 기기로 전달되는 과정을 나타낸 도면;
도 5는 도 1의 모션 입력장치에서 감지유닛에서 수신된 감지신호를 통해 입력유닛의 3차원 위치정보를 도출하는 상태를 나타낸 도면;
도 6는 도 1의 모션 입력장치에서 입력유닛의 상하 위치가 변화하는 상태를 나타낸 도면; 및
도 7은 도 1의 모션 입력장치에서 입력유닛의 모션 변화에 따라 송신부가 동작하는 상태를 나타낸 도면이다.
FIG. 1 schematically shows a configuration of a motion input device according to a first embodiment of the present invention; FIG.
FIG. 2 is a diagram illustrating a state in which an input unit transmits a detection signal to a sensing unit in the motion input device of FIG. 1; FIG.
FIG. 3 is a diagram illustrating a state in which a request signal and a corresponding signal are transmitted in the motion input apparatus of FIG. 2;
4 is a diagram illustrating a process in which a motion change of an input unit is transferred to a virtual reality device by the motion input device of FIG. 1;
FIG. 5 is a diagram illustrating a state in which three-dimensional position information of an input unit is derived through a sensing signal received by a sensing unit in the motion input device of FIG. 1; FIG.
FIG. 6 is a diagram illustrating a state in which a vertical position of an input unit changes in the motion input device of FIG. 1; FIG. And
FIG. 7 is a diagram illustrating a state in which a transmitter operates according to a motion change of an input unit in the motion input device of FIG. 1;

이하 본 발명의 목적이 구체적으로 실현될 수 있는 본 발명의 바람직한 실시예를 첨부된 도면을 참조하여 설명한다. 본 실시예를 설명함에 있어서, 동일 구성에 대해서는 동일 명칭 및 동일 부호가 사용되며 이에 따른 부가적인 설명은 생략하기로 한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. In describing the present embodiment, the same designations and the same reference numerals are used for the same components, and further description thereof will be omitted.

본 발명에 따른 가상현실 기기용 3차원 모션 입력장치는 사용자가 착용한 3차원 기기(VR 또는 AR기기)와 연동되어 사용자의 모션 정보를 입력하기 위한 장치이다.The 3D motion input device for a virtual reality device according to the present invention is an apparatus for inputting motion information of a user in cooperation with a 3D device (VR or AR device) worn by a user.

먼저, 도 1 내지 도 4을 참조하여 본 발명에 따른 가상현실 기기용 3차원 모션 입력장치에 대해 개략적으로 살펴보면 다음과 같다.First, a three-dimensional motion input apparatus for a virtual reality apparatus according to the present invention will be schematically described with reference to FIGS. 1 to 4. FIG.

도 1은 본 발명의 제1실시예에 따른 모션 입력장치의 구성을 개략적으로 나타낸 도면이고, 도 2는 도 1의 모션 입력장치에서, 입력유닛이 감지유닛으로 감지신호를 송신하는 상태를 나타낸 도면이다.FIG. 1 is a view schematically showing a configuration of a motion input device according to a first embodiment of the present invention. FIG. 2 is a diagram showing a state in which an input unit transmits a detection signal to a detection unit in the motion input device of FIG. to be.

그리고, 도 3은 도 2의 모션입력장치에서 요청신호와 대응신호가 전달되는 상태를 나타낸 도면, 도 4은 도 1의 모션 입력장치에 의해 입력유닛의 모션 변화가 가상현실 기기로 전달되는 과정을 나타낸 도면이다.FIG. 3 is a diagram illustrating a state in which a request signal and a corresponding signal are transmitted in the motion input device of FIG. 2. FIG. 4 illustrates a process of transmitting a motion change of an input unit to the virtual reality device by the motion input device of FIG. Fig.

본 발명에 따른 모션 입력장치는 사용자에게 착용된 별도의 가상현실 기기(10: 도 7참조)와 연동하여 모션을 입력하는 장치로, 크게 입력유닛(100), 감지유닛(200) 및 산출유닛(미도시)를 포함한다.The motion input device according to the present invention is a device for inputting motion in cooperation with a separate virtual reality device 10 (see FIG. 7) worn by a user and includes a large input unit 100, a sensing unit 200, (Not shown).

먼저, 상기 입력유닛(100)은, 사용자가 그립하여 모션정보를 입력하는 장치로, 일반적인 조작수단(미도시)을 포함하여 연동된 상기 가상현실 기기(10)를 조작하거나 정보를 입력할 수 있도록 구성될 수 있다.First, the input unit 100 is a device for inputting motion information by a user's grip. The input unit 100 may include general operation means (not shown) to manipulate the virtual reality apparatus 10 and input information Lt; / RTI >

본 발명에 따른 상기 입력유닛(100)은 사용자가 그립할 수 있도록 형성되며 일측에 별도로의 감지신호(S1, S2)를 송신할 수 있는 송신부(110)가 구비된다.The input unit 100 according to the present invention is provided with a transmission unit 110 formed to be able to grip by a user and capable of transmitting separate sensing signals S1 and S2 to one side.

구체적으로, 상기 입력유닛(100)은 길게 형성되어 측면을 감싸는 형태로 사용자가 그립하며, 상기 가상현실 기기(10)와 무선으로 연동된다. 그리고 길이방향에 따른 일측에 상기 송신부(110)가 구비된다.Specifically, the input unit 100 is elongated and grips the user in a form of wrapping the side surface, and is interlocked with the virtual reality device 10 wirelessly. And the transmission unit 110 is provided on one side along the longitudinal direction.

상기 송신부(110)는 상기 입력유닛(100)상에서 후술하는 상기 감지유닛(200)으로 감지신호(S1, S2)를 송신하는 구성으로, 상기 감지유닛(200)에서 상기 감지신호(S1, S2)를 전달 받음으로써 상기 입력유닛(100)의 3차원 위치를 측정할 수 있다.The transmitting unit 110 transmits the sensing signals S1 and S2 to the sensing unit 200 to be described later on the input unit 100. The sensing unit 200 senses the sensing signals S1 and S2, The three-dimensional position of the input unit 100 can be measured.

여기서, 상기 송신부(110)는 일반적인 초음파를 송신하는 구성으로서 초지향성(직진성은 높지만 송수신 각도가 작음)이 아닌 광지향성 센서로 구성될 수 있으며, 후술하는 상기 감지유닛(200)을 향해 상기 감지신호(S1, S2)를 전달할 수 있도록 구성된다.Here, the transmitting unit 110 may be configured as an optical directional sensor that is not super-directivity (high linearity but low transmission / reception angle) for transmitting general ultrasonic waves, (S1, S2).

상기 감지신호(S1, S2)에 대한 구체적인 설명은 후술한다.The sensing signals S1 and S2 will be described later in detail.

이와 같이 상기 입력유닛(100)이 구성되며 사용자의 모션에 의해 상기 입력유닛(100)의 위치가 변화하고, 해당 위치에서 상기 송신부(110)는 상기 감지신호를 송신한다.In this way, the input unit 100 is configured and the position of the input unit 100 is changed by the motion of the user, and the transmission unit 110 transmits the detection signal at the corresponding position.

따라서, 후술하는 상기 수신유닛(200)은 사용자의 조작에 의해 상기 입력유닛(110)의 위치가 변화한 지점에서 상기 송신부(110)로부터 상기 감지신호(S1, S2)를 전달받아 해당 지점의 위치를 측정할 수 있다.Accordingly, the receiving unit 200 receives the sensing signals S1 and S2 from the transmitting unit 110 at a position where the position of the input unit 110 is changed by a user's operation, Can be measured.

이때, 상기 입력유닛(100)은 도면에 도시되지 않았지만, 내부에 별도의 자이로센서, 가속도센서 및 지자기센서를 포함한 자세감지부(미도시)를 포함하며, 상기 자세감지부에 의해 상기 입력유닛(100)의 움직임에 대한 자세정보를 획득할 수 있다.The input unit 100 includes an orientation sensing unit (not shown) including a separate gyro sensor, an acceleration sensor, and a geomagnetic sensor, though not shown in the drawing, 100) can be obtained.

즉, 상기 입력유닛(100)은 후술하는 상기 감지유닛(200)과 연동하여 상기 송신부(110) 및 상기 자세감지부를 통해 사용자에 의한 위치변화 및 모션변화를 측정할 수 있도록 구성된다.That is, the input unit 100 is configured to be able to measure a positional change and a motion change by the user through the transmitter 110 and the posture sensing unit in conjunction with the sensing unit 200, which will be described later.

그리고 본 실시예에서 상기 입력유닛(100)은 상기 가상현실 기기(10)와 연동하여 상기 조작수단을 통해 사용자의 조작에 의한 정보를 입력할 수 있도록 구성되며, 바람직하게 Bluetooth 방식으로 연결될 수 있다.In the present embodiment, the input unit 100 is configured to be able to input information by a user's operation through the operating means in cooperation with the virtual reality device 10, and may preferably be connected by Bluetooth.

추가적으로 상기 입력유닛(100)은 상기 조작수단과 함께, 내부에 별도의 배터리(미도시) 및 충전수단(미도시)을 구비하여 유선적인 연결수단을 배제할 수 있도록 구성될 수 있다. In addition, the input unit 100 may include an additional battery (not shown) and a charging means (not shown) in the interior of the input unit 100 to exclude the connection means.

또한 별도의 진동모터(미도시)가 구비되어 사용자가 가상현실 기기(10)를 통해 게임 등을 진행하는 경우 진동을 발생시켜 현실감을 증가시킬 수 있도록 구성된다.In addition, a separate vibration motor (not shown) is provided to increase vibrations when the user proceeds through a game or the like through the virtual reality device 10 to increase the sense of reality.

한편, 본 발명에서 상기 송신부(110)는 복수 개로 구성될 수 있으며, 상기 입력유닛(100)의 배치 상태에 대응하여 어느 하나가 동작하여 상기 감지신호(S1, S2)를 상기 감지유닛(200)으로 송신하도록 구성될 수 있다.In the present invention, the transmitting unit 110 may include a plurality of transmitting units, and one of the transmitting units 110 may operate corresponding to the arrangement of the input unit 100 to transmit the sensing signals S1 and S2 to the sensing unit 200, Lt; / RTI >

본 실시예에서 상기 송신부(110)는 한 쌍으로 구성될 수 있으며 상기 입력유닛(100)의 길이방향에 따른 양측에서 서로 반대방향으로 배치된다. 그리고 상기 입력유닛(100)의 기울기에 따라 어느 하나가 동작하도록 구성된다.In the present embodiment, the transmission units 110 may be configured as a pair, and are arranged in opposite directions on both sides of the input unit 100 in the longitudinal direction. And one of them is operated according to the inclination of the input unit 100. [

이때, 상기 입력유닛(100)의 기울기는 상기 자세감지부에 구비된 자이로센서를 통해 측정될 수 있다.At this time, the inclination of the input unit 100 may be measured through the gyro sensor provided in the posture sensing unit.

상기 복수 개의 송신부(110)가 동작하는 상태에 대해서는 도 6를 참조하여 후술한다.The operation of the plurality of transmitting units 110 will be described later with reference to FIG.

한편, 상기 감지유닛(200)은 적어도 세 개 이상으로 구성되어 상호 이격 배치되며, 각각이 상기 감지신호(S1, S2)를 수신할 수 있도록 구성된다.Meanwhile, the sensing unit 200 is composed of at least three and spaced apart from each other, and each sensing unit 200 is configured to receive the sensing signals S1 and S2.

구체적으로, 상기 감지유닛(200)은 적어도 세 개 이상의 수신부(210)을 포함하며, 각각이 이격 배치된다.Specifically, the sensing unit 200 includes at least three receiving units 210, which are spaced apart from each other.

그리고 각각의 상기 수신부(210)는 상기 입력유닛(100)으로부터 송신되는 상기 감지신호(S1, S2)를 독립적으로 전달받는다.Each of the receiving units 210 receives the sensing signals S1 and S2 transmitted from the input unit 100 independently.

구체적으로 상기 수신부(210)는 상기 감지신호(S1, S2)를 수신하기 위한 초음파 수신기로 구성될 수 있으며, 각각이 상기 감지신호(S1, S2)를 독립적으로 수신한다.More specifically, the receiving unit 210 may be an ultrasonic receiver for receiving the sensing signals S1 and S2, and each receiving the sensing signals S1 and S2 independently.

본 실시예에서 상기 수신부(210)는 상기 입력유닛(100)의 하부에서 세 개로 구성되어 각각이 이격 배치되며, 상기 송신부(110)로부터 전달되는 상기 감지신호(S1, S2)를 각각 수신한다.In the present embodiment, the receiving unit 210 comprises three units at the lower part of the input unit 100 and is spaced apart from each other and receives the sensing signals S1 and S2 transmitted from the transmitting unit 110, respectively.

이때, 상기 송신부(110)에서 송신되는 상기 감지신호(S1, S2)는 각각 기준신호(S1) 및 음파신호(S2)로 구성된다.At this time, the sensing signals S1 and S2 transmitted from the transmitting unit 110 are composed of a reference signal S1 and an acoustic signal S2, respectively.

상기 기준신호(S1)의 경우 일반적인 RF방식의 무선 신호로서 광속에 근접하는 속도를 가지고 송신된다. 그리고 상기 음파신호(S2)는 초음파로 이루어질 수 있다.In the case of the reference signal S1, it is transmitted as a radio signal of a general RF system at a speed close to the speed of light. And the sound wave signal S2 may be an ultrasonic wave.

이와 같이 구성된 상기 감지신호(S1, S2)가 상기 송신부(110)에서 송신되며, 상기 수신부(210)에서 각각 수신된다.The sensing signals S1 and S2 configured as described above are transmitted from the transmitting unit 110 and received by the receiving unit 210, respectively.

따라서, 상기 수신부(210)와 상기 송신부(110) 사이의 이격 거리에 따라 상기 수신부(210) 각각에서 상기 감지신호(S1, S2)의 수신 시간 차이가 발생하게 된다.Therefore, a difference in reception time of the sensing signals S1 and S2 occurs in each of the reception units 210 according to the distance between the reception unit 210 and the transmission unit 110. [

그리고 이를 통해 후술하는 상기 산출유닛이 상기 수신부(210) 각각에서 수신된 상기 기준신호(S1)과 상기 음파신호(S2)의 시간 차이를 통해 상기 송신부(110)의 위치정보를 도출한다.The calculation unit described later derives the position information of the transmission unit 110 through the time difference between the reference signal S1 and the sound wave signal S2 received from each of the reception units 210. [

여기서, 상기 감지유닛(200)은 상기 송신부(110)가 향하는 방향에 배치되는 것이 바람직하며, 본 실시예에서 상기 감지유닛(200)은 상기 입력유닛(100)의 하부에서 사용자를 중심으로 방사형으로 배치될 수 있다.Here, it is preferable that the sensing unit 200 is disposed in a direction in which the transmitting unit 110 is oriented. In the present embodiment, the sensing unit 200 is disposed radially .

이와 같이 상기 수신부(210)는 적어도 세 개 이상으로 구성되어 각각 이격 배치되며, 상기 송신부(110)에서 송신되는 상기 감지신호(S1, S2)를 독립적으로 수신한다.As described above, the receiving unit 210 includes at least three and is spaced apart from each other, and receives the sensing signals S1 and S2 transmitted from the transmitting unit 110 independently.

이어서, 상기 감지유닛(200)에서 상기 감지정보를 수신하는 상태에 대해 보다 상세하게 살펴보면, 먼저, 도 2에 도시된 바와 같이 상기 송신부(110)에서 송신되는 상기 감지신호(S1, S2)가 상기 기준신호(S1) 및 상기 음파신호(S2)로 구성된다.2, the sensing signals S1 and S2 transmitted from the transmission unit 110 are transmitted to the sensing unit 200 through the sensing unit 200, A reference signal S1 and the sound wave signal S2.

구체적으로, 송신부(110)에서 송신되는 상기 감지신호(S1, S2)는 일반적인 수신명령을 가지며, 복수 개의 상기 수신부(210) 모두에서 수신 가능하도록 하는 기준신호(S1)와, 별도로 초음파를 송신하는 음파신호(S2)를 포함한다.Specifically, the sensing signals S1 and S2 transmitted from the transmission unit 110 have a general reception command, and include a reference signal S1 to be received by all of the plurality of reception units 210, And a sound wave signal S2.

여기서, 상기 기준신호(S1)는 상술한 바와 같이 무선통신방식으로 광속에 근접한 속도를 가지는 전기적 신호로, 모든 상기 수신부(210)에서 수신하는 형태이며, 상기 수신부(210)각각에서 상기 음파신호(S2)의 수신을 준비하도록 하는 신호이다.Here, the reference signal S1 is an electrical signal having a speed close to the speed of light in a wireless communication system as described above, and is received by all the receiving units 210. In each of the receiving units 210, S2 to be ready for reception.

이때, 상기 기준신호(S1)는 실질적으로 광속에 근접하는 속도를 가지기 때문에 상기 송신부(110)에서 송신과 동시에 상기 수신부(210)에서 수신하게 된다.At this time, since the reference signal S1 has a velocity substantially close to the light flux, the reception unit 210 receives the reference signal S1 at the same time as the transmission unit 110 transmits the reference signal S1.

그리고 상기 기준신호(S1)에 비해 상대적으로 느린 상기 음파신호(S2)는 상기 기준신호(S1)와 동시에 송신되더라도 상기 수신부(210)에서 수신되는 시간 차이가 발생하게 된다.Even when the sound signal S2 relatively slower than the reference signal S1 is transmitted at the same time as the reference signal S1, the time difference received by the receiver 210 occurs.

따라서, 상기 기준신호(S1)는 상기 송신부(110)에서 송신된 상기 음파신호가 상기 수신부(210)에서 수신되기까지 걸린 시간을 측정하기 위한 기준이 되는 신호가 된다. Therefore, the reference signal S1 becomes a reference signal for measuring the time taken for the sound wave signal transmitted from the transmitter 110 to be received by the receiver 210. [

한편, 상기 산출유닛은, 상기 입력유닛(100) 또는 상기 산출유닛 중 어느 하나에 구비될 수 있으며, 상기 수신부(210)에서 수신된 상기 감지신호(S1, S2)를 통해 상기 송신부(110)의 3차원 위치정보를 산출한다.The calculation unit may be provided in either the input unit 100 or the calculation unit and may be connected to the transmission unit 110 through the sensing signals S1 and S2 received by the receiving unit 210. [ And calculates three-dimensional position information.

구체적으로 산출유닛은 상기 감지유닛(200) 또는 상기 입력유닛(100) 중 적어도 어느 하나에 구비되며, 상기 수신부(210) 각각에서 수신된 상기 기준신호(S1)와 상기 음파신호(S2)의 도달시간 차이를 이용해 측정정보를 도출한다.More specifically, the calculation unit may be provided in at least one of the sensing unit 200 and the input unit 100, and may be configured to determine the arrival of the reference signal S1 and the sound signal S2 Derive measurement information using time difference.

그리고 도출된 상기 측정정보를 통해 상기 송신부(110)의 3차원 위치정보를 측정하여 상기 가상현실 기기에 전송한다.Then, the 3D position information of the transmitter 110 is measured through the derived measurement information and transmitted to the virtual reality device.

즉 상기 산출유닛은, 상기 수신부(210) 각각에서 수신된 상기 감지신호(S1, S2)를 통해 상기 송신부(110)와 거리를 산출하고 이를 통해 상기 송신부(110)의 3차원 위치정보를 측정하여 상기 가상현실 기기(10)로 전송한다.That is, the calculation unit calculates the distance from the transmission unit 110 through the sensing signals S1 and S2 received by the receiving units 210 and measures the three-dimensional position information of the transmission unit 110 To the virtual reality device (10).

상기 산출유닛은 상기 수신부(210) 각각에서 수신된 기준신호(S1)와 음파신호(S2)의 감지시간 차이를 통해 상기 상기 송신부(110)와의 이격거리를 도출할 수 있으며, 수학적인 계산을 통해 상기 송신부(110)의 3차원 위치정보를 도출할 수 있다.The calculation unit may derive a separation distance from the transmission unit 110 through a difference in sensing time between the reference signal S1 and the sound wave signal S2 received by the receiving units 210, The three-dimensional position information of the transmitting unit 110 can be derived.

상기 산출유닛에서 상기 송신부(110)의 위치정보를 도출하는 구체적인 과정은 도 5를 통해 후술한다.A detailed process of deriving the location information of the transmission unit 110 in the calculation unit will be described later with reference to FIG.

본 실시예에서 상기 산출유닛이 상기 송신부(110)의 상기 위치정보를 도출하기 위해서 세 개의 상기 수신부(210)가 필요하지만, 이와 달리 상기 수신부(210)가 세 개 이상으로 구성될 수 있으며, 이에 따라 상기 위치정보를 보다 정밀하게 측정할 수도 있다. In the present embodiment, the calculation unit needs three reception units 210 to derive the position information of the transmission unit 110. Alternatively, the reception unit 210 may include three or more reception units 210, The position information can be measured more precisely.

이와 같이 상기 산출유닛을 통해 상기 송신부(110)의 3차원 위치정보를 도출하고, 사용자가 상기 입력유닛(100)의 위치를 변화시킴에 따라 상기 송신부(110)의 위치 변화도 함께 측정할 수 있다.As described above, the three-dimensional position information of the transmission unit 110 is derived through the calculation unit, and the position change of the transmission unit 110 can be measured as the user changes the position of the input unit 100 .

한편, 이와 함께 상기 산출유닛은 상기 입력유닛(100)에 구비된 상기 자세감지부에서 감지된 상기 자세정보와 상기 감지유닛(200)에 수신된 상기 감지신호(S1, S2)로부터 도출된 상기 위치정보를 이용하여 사용자에 의한 상기 입력유닛(100)의 모션정보를 도출할 수 있다.Meanwhile, the calculation unit calculates the posture information detected by the posture sensing unit included in the input unit 100 and the position information derived from the sensing signals S1 and S2 received by the sensing unit 200 The motion information of the input unit 100 can be derived by the user using the information.

여기서, 상기 모션정보는 사용자의 움직임에 의해 상기 입력유닛(100)의 3차원 위치정보와 자세의 3차원 변화량(pitch, roll, yaw)이 통합된 정보이다.Here, the motion information is information in which the three-dimensional position information of the input unit 100 and the three-dimensional variation amount (pitch, roll, yaw) of the posture are integrated by the user's motion.

그리고 이와 같이 도출된 상기 입력유닛(100)의 상기 모션정보는 사용자의 움직임에 의해 발생된 것으로, 상기 가상현실 기기(10)와 연동되어 입력신호로 전달된다.The motion information of the input unit 100 thus generated is generated by the motion of the user and is transmitted to the input signal in cooperation with the virtual reality device 10. [

즉, 본 발명에 따른 3차원 모션 입력장치는 상기 산출유닛에서 산출된 상기 송신부(110)의 위치정보 변화와 상기 자세감지부에 의해 측정된 자세정보를 통해 상기 입력유닛(100)의 움직임을 측정할 수 있다.That is, the three-dimensional motion input device according to the present invention measures the motion of the input unit 100 through the change of position information of the transmission unit 110 calculated by the calculation unit and the attitude information measured by the attitude sensing unit can do.

이에 따라, 가상현실 기기(10)에 사용자의 운동 모션을 입력해야 하는 경우 본 발명에 따른 3차원 모션 입력장치를 통해 간단하게 사용자의 모션정보를 도출하여 입력할 수 있다.Accordingly, when the user's motion motion is to be input to the virtual reality device 10, the motion information of the user can be easily derived and inputted through the three-dimensional motion input device according to the present invention.

한편, 도 3에 도시된 바와 같이 본 발명의 실시예에 따른 상기 송신부(110)는 별도의 요청신호(S3)를 상기 수신부(210)로 송신할 수 있으며, 상기 수신부(210)는 상기 요청신호(S3)에 대응하여 대응신호(S4)를 상기 송신부(110)로 회신하도록 구성될 수도 있다.3, the transmitting unit 110 may transmit a separate request signal S3 to the receiving unit 210. The receiving unit 210 may receive the request signal S3, And to return the corresponding signal S4 to the transmitter 110 in response to the signal S3.

구체적으로 상기 요청신호(S3)는 RF 신호로서 송신부(110)에서 상기 수신부(210)로 송신하는 것으로, 미리 설정된 상기 음파신호가 상기 수신부(210)에 도달하는데 걸리는 최대 시간 후에 송신된다.Specifically, the request signal S3 is transmitted as an RF signal from the transmitting unit 110 to the receiving unit 210, and is transmitted after a maximum time required for the predetermined sound signal to reach the receiving unit 210. [

이때, 상기 요청신호(S3)는 별도의 식별번호가 부여된 상태이며, 복수 개의 상기 수신부(210) 각각에 동일한 속도로 송신된다.At this time, the request signal S3 has a separate identification number and is transmitted to each of the plurality of receiving units 210 at the same speed.

여기서, 상기 식별번호는 주파수나 파장 등의 변화를 통해 상기 수신부(210)의 개수에 대응하여 서로 다른 형태로 송신된다. 그리고 복수 개의 수신부(210) 각각은 상기 요청신호(S3)에 대응하여 해당하는 신호만을 수신하도록 구성된다.Here, the identification numbers are transmitted in different forms corresponding to the number of the receiving units 210 through changes in frequency, wavelength, and the like. Each of the plurality of receiving units 210 is configured to receive only a corresponding signal corresponding to the request signal S3.

이와 함께, 상기 수신부(210)는 복수 개 각각이 상기 요청신호(S3)를 수신 받음에 따라, 상기 감지신호(S1, S2)의 수신에 따라 각각에서 측정된 측정정보를 대응신호(S4)로 상기 송신부(110)에 회신한다.In response to receipt of the request signal S3, each of the plurality of receiving units 210 receives the measurement signals S1 and S2 and transmits the measured measurement information to the corresponding signal S4 To the transmission unit 110.

구체적으로 상기 대응신호(S4)는 일반적인 RF신호로 구성될 수 있으며, 상기 수신부(210)에서 상기 기준신호(S1) 및 상기 음파신호(S2)를 수신함에 따라 측정된 상기 측정정보를 상기 입력유닛(100)으로 전달한다. Specifically, the corresponding signal S4 may be composed of a general RF signal. The receiving unit 210 may receive the reference signal S1 and the sound signal S2 from the measurement information measured by the input unit 210, (100).

이때, 상기 측정정보는 상기 기준신호(S1)와 상기 음파신호(S2)의 도달 시간 차이 또는 상기 송신부(110)와 상기 수신부(210) 사이의 이격거리 등 나타낸다.The measurement information indicates a difference in arrival time between the reference signal S1 and the sound wave signal S2 or a distance between the transmitter 110 and the receiver 210. [

그리고 이와 같이 상기 대응신호(S4)를 상기 송신부(110)에서 수신함으로써, 상기 산출유닛이 상기 송신부(110)의 3차원 위치를 도출할 수 있다.By receiving the corresponding signal S4 in the transmitter 110 as described above, the calculation unit can derive the three-dimensional position of the transmitter 110. [

여기서, 상기 송신부(110)는 상기 수신부(210)의 개수에 대응하여 동일한 속도를 가지며 식별 가능하도록 각각 서로 다른 형태의 RF신호로 상기 요청신호(S3)를 송신하고, 상기 수신부(210)는 상기 요청신호(S3)의 특징에 대응하여 복수 개 각각이 해당하는 신호에만 독립적으로 반응하여 상기 측정정보를 전달한다.Here, the transmitting unit 110 transmits the request signal S3 to RF signals of different types so as to have the same speed corresponding to the number of the receiving units 210, and the receiving unit 210 may transmit Corresponding to the characteristics of the request signal S3, each of the plurality of signals independently responds to the corresponding signal and transmits the measurement information.

본 실시예에서, 상기 산출유닛은 상기 입력유닛(100)과 일체로 구성될 수 있으나, 이와 달리 상기 입력유닛(100)이 상기 산출유닛과 별도로 분리되어 있는 경우 상기 수신부(210)에서 상기 대응신호(S4)를 상기 송신부(110)로 전달하지 않고 상기 산출유닛으로 전달하도록 구성될 수도 있다.In the present embodiment, the calculation unit may be integrally formed with the input unit 100. Alternatively, when the input unit 100 is separated from the calculation unit, (S4) to the calculation unit without transferring it to the transmission unit 110. [

보다 상세하게 살펴보면, 도 3에 도시된 바와 같이 상기 송신부(110)에서 상기 요청신호(S3)를 상기 수신부(210)의 개수에 대응하여 식별번호를 가지도록 송신한다. In more detail, as shown in FIG. 3, the transmitting unit 110 transmits the request signal S3 so that it has an identification number corresponding to the number of the receiving units 210.

이때, 본 실시예에서 상기 요청신호(S3)는 식별번호에 따라 각각 S3`, S3``, S3```로 구분하여 나타낼 수 있다.At this time, in the present embodiment, the request signal S3 may be divided into S3`, S3`` and S3`` according to the identification number.

그리고 각각의 상기 수신부(210)는 해당하는 식별번호를 가진 상기 요청신호(S3)에 반응하여 독립적으로 측정된 상기 측정정보를 상기 대응신호(S4)로 회신한다.Each of the receiving units 210 responds to the request signal S3 having the corresponding identification number and returns the measurement information independently measured in the corresponding signal S4.

여기서, 각각의 상기 수신부(210)에서 회신하는 상기 대응신호(S4)는 도시된 바와 같이 S4`, S4``, S4```로 구분할 수 있으며, 각각 S3`, S3``, S3```에 대응하여 송신부로 전달된다.Here, the corresponding signal S4 returned from each of the receiving units 210 can be divided into S4`, S4``, and S4`` as shown in the figure, and S3`, S3``, and S3`` ≪ / RTI >

즉, 상기 요청신호(S3)는 복수 개의 상기 수신부(210)에 전달되지만, 상기 수신부(210) 각각은 해당하는 식별번호를 가진 상기 요청신호(S3)에만 반응하여 상기 대응신호(S4)를 송신한다.That is, although the request signal S3 is transmitted to the plurality of receiving units 210, each of the receiving units 210 transmits the corresponding signal S4 in response to only the request signal S3 having the corresponding identification number do.

이와 같이 본 발명에 따른 입력장치는 상기 송신부(110)에서 상기 요청신호(S3)를 송신하고, 상기 수신부(210)에서 상기 대응신호(S4)를 회신하도록 구성됨으로써, 상기 수신부(210) 각각에서 측정된 상기 측정정보를 상기 산출유닛에서 수집하여 상기 송신부(110)의 상기 위치정보를 측정할 수 있다.The input unit according to the present invention is configured to transmit the request signal S3 from the transmitter 110 and to return the corresponding signal S4 from the receiver 210, The measurement information may be collected by the calculation unit and the position information of the transmission unit 110 may be measured.

다음으로, 도 5를 참조하여 상기 입력유닛(100)의 3차원 위치정보를 도출하는 과정에 대해 살펴보면 다음과 같다.Next, a process of deriving the three-dimensional position information of the input unit 100 will be described with reference to FIG.

도 5는 도 1의 모션 입력장치에서 감지유닛(200)에서 수신된 감지신호(S1, S2)를 통해 입력유닛(100)의 3차원 위치정보를 도출하는 상태를 나타낸 도면이다.FIG. 5 is a diagram showing a state in which the three-dimensional position information of the input unit 100 is derived through the sensing signals S1 and S2 received by the sensing unit 200 in the motion input device of FIG.

도시된 도면을 살펴보면, 상기 수신부(210)는 3개로 구성될 수 있으며, 편의상 제1수신부(210), 제2수신부(210) 및 제3수신부(210)로 구분하여 설명한다.3, the receiving unit 210 includes a first receiving unit 210, a second receiving unit 210, and a third receiving unit 210. The first receiving unit 210, the second receiving unit 210, and the third receiving unit 210 will be described in detail.

먼저, 제1수신부(210) 내지 제3와 상기 송신부(110)의 이격거리는 각각 d1, d2, d3 로 나타낼 수 있으며, 각각의 거리는 아래의 수학식1과 같다.First, the distances between the first receiving unit 210 and the third transmitting unit 110 can be denoted by d1, d2, and d3, respectively.

(수학식1)(1)

Figure pat00001
Figure pat00001

그리고 상기 송신부(110)에서 제1수신부(210)에 이르는 거리 d1과 제2수신부(210)에 이르는 거리 d2의 거리차이인 d12는 아래의 수학식2를 통해 도출할 수 있다.The distance d12 between the distance d1 from the transmitting unit 110 to the first receiving unit 210 and the distance d2 from the transmitting unit 110 to the second receiving unit 210 can be derived by the following equation (2).

(수학식2)(2)

Figure pat00002
Figure pat00002

수학식2를 이항하여 다시 정리하면, 아래의 수학식3이 도출된다.By rearranging the equation (2), the following equation (3) is derived.

(수학식3)(3)

Figure pat00003
Figure pat00003

그리고 수학식1 내지 수학식3과 같은 방식을 통해 상기 송신부(110)에서 제1수신부(210)에 이르는 거리 d1과 제3수신부(210)에 이르는 거리 d3의 거리차이인 d13을 도출할 수 있다.The distance d1 between the transmission unit 110 and the first reception unit 210 and the distance d3 between the transmission unit 110 and the third reception unit 210 can be derived from Equation (1) to Equation (3) .

이와 같이 도출된 d12와 d13에 대한 선형방정식을 행렬로 표시하면 수학식4가 도출되고 벡터형식으로 표현하면 수학식5가 도출된다.If the linear equations for d12 and d13 thus derived are expressed by a matrix, equation (4) is derived and equation (5) is derived by expressing it in a vector form.

(수학식4)(4)

Figure pat00004
Figure pat00004

(수학식5)(5)

Figure pat00005
Figure pat00005

이와 같이 도출된 수학식4와 수학식5를 이용하여 수학식6이 도출되는 것을 확인할 수 있다.Using Equation (4) and Equation (5) thus derived, it can be confirmed that Equation (6) is derived.

(수학식6)(6)

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

그리고 수학식 6을 통해 상기 송신부(110)의 x, y좌표를 도출할 수 있으며, 각각을 아래의 수학식 7에 대입함으로써 z좌표를 도출할 수 있다.The x and y coordinates of the transmitter 110 can be derived through Equation (6), and the z coordinate can be derived by substituting each of the x and y coordinates into Equation (7).

(수학식7)(7)

Figure pat00008

Figure pat00008

이와 같은 과정을 통해 상기 송신부(110)의 위치에 대한 x, y, z 3차원 좌표를 도출할 수 있다.The x, y, z three-dimensional coordinates of the position of the transmitter 110 can be derived through this process.

그리고 이와 같이 도출된 상기 송신부(110)의 초기 위치 및 변화하는 위치를 통해 상기 입력유닛(100)의 위치정보를 도출할 수 있다.The position information of the input unit 100 can be derived through the initial position and the changed position of the transmitter 110 thus derived.

다음으로, 도 6 및 도 7을 참조하여 사용자에 의해 상기 입력유닛(100)의 자세정보가 변화하는 상태를 살펴보면 다음과 같다.Next, a state where the attitude information of the input unit 100 changes by a user will be described with reference to FIGs. 6 and 7. FIG.

도 6는 도 1의 모션 입력장치에서 입력유닛(100)의 상하 위치가 변화하는 상태를 나타낸 도면이고, 도 7은 도 1의 모션 입력장치에서 입력유닛(100)의 모션 변화에 따라 송신부(110)가 동작하는 상태를 나타낸 도면이다. FIG. 6 is a diagram illustrating a state in which a vertical position of the input unit 100 changes in the motion input apparatus of FIG. 1, and FIG. 7 is a diagram illustrating a state in which the transmission unit 110 In Fig.

먼저 도 6를 살펴보면, 상기 입력유닛(100)은 도시된 바와 같이 길게 형성되어 길이방향에 따른 양측에 상기 송신부(110)가 한 쌍으로 구성된다.Referring to FIG. 6, the input unit 100 is formed as a pair as shown in FIG. 1, and the transmitting unit 110 is formed on both sides along the longitudinal direction.

구체적으로 상기 송신부(110)는 상기 입력유닛(100)상에서 서로 반대 방향으로 구비되며, 상기 입력유닛(100)의 기울기에 따라 어느 하나가 동작하여 상기 감지신호(S1, S2)를 송신한다.Specifically, the transmission unit 110 is provided on the input unit 100 in opposite directions, and one of them operates according to the tilt of the input unit 100 to transmit the sensing signals S1 and S2.

도 6의 (a)를 살펴보면 상기 입력유닛(100)이 소정 각도 기울어진 상태이며 이때 A지점에 위치한 송신부(110a)가 하부 방향에 위치하게 된다.Referring to FIG. 6A, the input unit 100 is tilted at a predetermined angle, and the transmitter 110a located at the A point is positioned downward.

여기서, 본 실시예에서 상기 입력유닛(100)은 길게 형성되며 길이방향에 따른 양측을 각각 A지점과 B지점으로 구분하여 설명한다.Here, in the present embodiment, the input unit 100 is formed to be long and both sides along the longitudinal direction are divided into A point and B point, respectively.

이와 같은 경우 한 쌍의 상기 송신부(110) 중 A 지점의 송신부(110a)만 동작하여 상기 감지신호(S1, S2)를 상기 수신부(210)로 송신하고, B지점의 송신부(110b)는 동작하지 않는 상태가 된다.In this case, only the transmitting unit 110a of the A-point among the pair of the transmitting units 110 operates to transmit the sensing signals S1 and S2 to the receiving unit 210, and the transmitting unit 110b of the B- .

그리고 도 6의 (b)를 살펴보면, 도시된 바와 같이 사용자의 조작에 의해 상기 입력유닛(100)이 반대 방향으로 기울어져 B지점의 송신부(110b)가 하부로 위치하게 된다.Referring to FIG. 6 (b), as shown in FIG. 6, the input unit 100 is tilted in the opposite direction by the operation of the user, so that the transmitting unit 110b at the point B is located at the lower position.

이와 같은 경우 상기 입력유닛(100)의 내부에 구비된 상기 자세감지부에서 기울어진 정도를 감지하고 이를 통해 B 지점에 위치한 송신부(110b)가 동작하게 된다.In this case, the degree of inclination of the posture sensing unit provided in the input unit 100 is sensed and the transmission unit 110b located at the point B operates.

즉, 도시된 바와 같이 상기 자세감지부에서 상기 입력유닛(100)의 기울기를 감지하고, 이를 통해 상기 한 쌍의 송신부(110) 중 상기 수신부(210)에 인접하게 배치되는 것이 동작한다.That is, as shown in the figure, the posture sensing unit senses the inclination of the input unit 100, and is disposed adjacent to the receiving unit 210 of the pair of transmitting units 110 through the sensing unit.

이때, 상기 송신부(110)는 광지향성으로 구성되어 넓은 각도로 상기 감지신호(S1, S2)를 송신할 수 있도록 구성된다.At this time, the transmitting unit 110 is configured to be light-directing so as to transmit the sensing signals S1 and S2 at a wide angle.

이와 같이 상기 입력유닛(100)이 구성됨으로써, 사용자가 상기 입력유닛(100)을 이용하여 모션을 변화시키더라도, 자세에 따라 복수 개의 상기 송신부(110) 중 상기 수신부(210)를 향하도록 배치된 하나가 동작하여 상기 입력유닛(100)의 위치를 정확하게 측정할 수 있도록 한다.The input unit 100 may be configured so that even if the user changes the motion using the input unit 100, the user may move the input unit 100 to the receiving unit 210 of the plurality of transmitting units 110 So that the position of the input unit 100 can be accurately measured.

따라서, 상기 입력유닛(100)이 상기 가상현실 기기(10)와 연동된 상태에서, 도 7에 도시된 바와 같이 사용자가 모션을 변화시켜 정보를 입력하더라도 정확하게 입력이 가능하다.Therefore, in a state where the input unit 100 is interlocked with the virtual reality device 10, even if the user inputs information by changing the motion as shown in FIG. 7, it is possible to accurately input the information.

이와 같이 본 발명에 따른 3차원 모션 입력장치가 구성되며, 상기 가상현실기기를 통해 게임이나 운동을 즐길 수 있으며, 이를 위한 조작의 입력 수단으로 사용될 수 있다.
As described above, the three-dimensional motion input device according to the present invention is constituted, and can enjoy a game or a movement through the virtual reality device, and can be used as an input means for an operation for this.

이상과 같이 본 발명에 따른 바람직한 실시예를 살펴보았으며, 앞서 설명된 실시예 이외에도 본 발명이 그 취지나 범주에서 벗어남이 없이 다른 특정 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 그러므로, 상술된 실시예는 제한적인 것이 아니라 예시적인 것으로 여겨져야 하고, 이에 따라 본 발명은 상술한 설명에 한정되지 않고 첨부된 청구항의 범주 및 그 동등 범위 내에서 변경될 수도 있다.
It will be apparent to those skilled in the art that the present invention can be embodied in other specific forms without departing from the spirit or scope of the invention as defined in the appended claims. It is obvious to them. Therefore, the above-described embodiments are to be considered as illustrative rather than restrictive, and the present invention is not limited to the above description, but may be modified within the scope of the appended claims and equivalents thereof.

10: 가상현실 기기(VR기기)
100: 입력유닛:
110: 송신부
200: 감지유닛
210: 수신부
S1: 기준신호
S2: 음파신호
S3: 요청신호
S4: 대응신호
10: Virtual reality device (VR device)
100: Input unit:
110:
200: sensing unit
210:
S1: Reference signal
S2: sound wave signal
S3: Request signal
S4: Corresponding signal

Claims (5)

사용자에게 착용된 별도의 가상현실 기기와 연동하여 모션을 입력하는 3차원 모션 입력장치에 관한 것으로서,
사용자가 그립할 수 있으며, 서로 반대 방향으로 한 쌍이 구비되어 기울기에 따라 어느 하나가 동작하여 별도의 감지신호를 송신하는 송신부 및 자이로센서 및 가속도센서를 통해 움직임을 측정하는 자세감지부를 포함하는 입력유닛;
적어도 세 개 이상으로 구성되어 상호 이격 배치되며, 상기 입력유닛에서 송신되는 상기 감지신호를 각각 독립적으로 수신하는 수신부를 포함하는 감지유닛; 및
상기 수신부 각각에서 수신된 상기 감지신호를 통해 상기 송신부에서 각각의 상기 수신부에 상기 감지신호가 도달하는 시간을 측정하고 이를 통해 상기 송신부의 3차원 위치정보를 측정하여 상기 가상현실 기기에 전송하는 산출유닛; 을 포함하며,
상기 산출유닛에서 산출된 상기 송신부의 위치정보 변화를 통해 상기 입력유닛의 움직임을 측정하는 것을 특징으로 하는 가상현실 기기용 3차원 모션 입력장치.
The present invention relates to a three-dimensional motion input device for inputting motion in cooperation with a separate virtual reality device worn by a user,
A gyro sensor and a posture sensing unit for measuring a movement through an acceleration sensor, each of which can be gripped by a user and each pair of which is provided in opposite directions, ;
A sensing unit including at least three or more sensing units and being spaced apart from each other and receiving the sensing signals independently from each other; And
And a transmission unit for transmitting the detection signal to the virtual reality device, wherein the transmission unit measures the arrival time of the detection signal to each of the reception units through the sensing signal received by each of the reception units, ; / RTI >
And the motion of the input unit is measured through the position information change of the transmitter calculated by the calculation unit.
제1항에 있어서,
상기 입력유닛은,
3차원 방향 측정을 위한 별도의 지자기 센서를 더 포함하는 가상현실 기기용 3차원 모션 입력장치.
The method according to claim 1,
Wherein the input unit comprises:
A three-dimensional motion input device for a virtual reality device further comprising a separate geomagnetic sensor for three-dimensional direction measurement.
제1항에 있어서,
상기 감지신호는,
상기 수신부에 별도의 수신명령을 전달하는 기준신호; 및
상기 수신부에서 상기 기준신호보다 상대적으로 느린 속도를 가지며 상기 수신부 각각에 송신되는 음파신호;
를 포함하는 가상현실 기기용 3차원 모션 입력장치.
The method according to claim 1,
The sensing signal may comprise:
A reference signal for transmitting a separate reception command to the receiver; And
A sound wave signal having a speed relatively slower than that of the reference signal in the receiver and transmitted to each of the receiver;
Dimensional motion input device for a virtual reality device.
제1항에 있어서,
상기 감지유닛은,
상기 입력유닛의 하부에 배치되는 것을 특징으로 하는 가상현실 기기용 3차원 모션 입력장치.
The method according to claim 1,
The sensing unit includes:
Wherein the input unit is disposed below the input unit.
제1항에 있어서,
상기 입력유닛은,
내부에 별도의 진동모터가 구비되며 상기 가상현실 기기와 연통하여 선택적으로 진동을 발생시키는 가상현실 기기용 3차원 모션 입력장치.
The method according to claim 1,
Wherein the input unit comprises:
A three-dimensional motion input device for a virtual reality device, wherein a separate vibration motor is provided inside the virtual reality device and generates vibration selectively in association with the virtual reality device.
KR1020160076393A 2016-04-18 2016-06-20 3D Motion Input Apparatus for Virtual Reality Device KR20170119272A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020160076393A KR20170119272A (en) 2016-06-20 2016-06-20 3D Motion Input Apparatus for Virtual Reality Device
PCT/KR2017/003261 WO2017183822A1 (en) 2016-04-18 2017-03-27 Three-dimensional motion input apparatus for virtual reality device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160076393A KR20170119272A (en) 2016-06-20 2016-06-20 3D Motion Input Apparatus for Virtual Reality Device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020160047198 Division 2016-04-18 2016-04-18

Publications (1)

Publication Number Publication Date
KR20170119272A true KR20170119272A (en) 2017-10-26

Family

ID=60300999

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160076393A KR20170119272A (en) 2016-04-18 2016-06-20 3D Motion Input Apparatus for Virtual Reality Device

Country Status (1)

Country Link
KR (1) KR20170119272A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110082909A (en) * 2018-01-25 2019-08-02 宏碁股份有限公司 Head-mounted display and its operating method
WO2020073684A1 (en) * 2018-10-08 2020-04-16 Boe Technology Group Co., Ltd. Electronic apparatus, spatial positioning system and spatial positioning method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110082909A (en) * 2018-01-25 2019-08-02 宏碁股份有限公司 Head-mounted display and its operating method
CN110082909B (en) * 2018-01-25 2021-08-17 宏碁股份有限公司 Head mounted display and method of operating the same
WO2020073684A1 (en) * 2018-10-08 2020-04-16 Boe Technology Group Co., Ltd. Electronic apparatus, spatial positioning system and spatial positioning method
US11392196B2 (en) 2018-10-08 2022-07-19 Beijing Boe Optoelectronics Technology Co., Ltd. Electronic apparatus, spatial positioning system and spatial positioning method

Similar Documents

Publication Publication Date Title
EP3433689B1 (en) Multi-axis controller
US10732730B2 (en) Method for remote-controlling target apparatus using mobile communication terminal and remote control system thereof
US20050225453A1 (en) Method and apparatus for controlling device using three-dimensional pointing
EP3422155A1 (en) Object controller
US20080311990A1 (en) Position system for interactive gaming device and method using the same
KR101920473B1 (en) Method and apparatus for estimating 3D position and orientation by means of sensor fusion
AU2017271003B2 (en) Accelerometers
JP5640716B2 (en) Information processing apparatus and information processing system
KR101815938B1 (en) Method and apparatus for estimating 3D position and orientation by means of sensor fusion
KR101714868B1 (en) 3d fish finder
CN102441277A (en) Multi-purpose game controller, system and method with posture sensing function
KR102218582B1 (en) System for underwater localization
CN113543863A (en) Method and system for six degree of freedom tracking of transmitter in augmented reality system using phased array beamforming
KR101679779B1 (en) 3D Motion Input Apparatus for Virtual Reality Device
JP2013033425A (en) Haptic system
KR20190012311A (en) System and method for underwater localization
KR101779569B1 (en) Input Apparatus Interlocking Virtual Reality Device
KR20170119272A (en) 3D Motion Input Apparatus for Virtual Reality Device
EP3736534A1 (en) Circuit board and unmanned aerial vehicle using circuit board
KR101956173B1 (en) Apparatus and Method for Calibrating 3D Position/Orientation Tracking System
KR101911916B1 (en) Drone system for controlling a plurality of drones
US10114478B2 (en) Control method, control apparatus, and program
JP6560479B1 (en) Unmanned aircraft control system, unmanned aircraft control method, and program
JP2012143383A (en) Controller, model device, and control method
KR20190060625A (en) Apparatus for compensating position of IMU and Method for compensating the same

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application