KR102032425B1 - Virtual reality game system using fiber bragg grating sensor and positional tracking sensor - Google Patents

Virtual reality game system using fiber bragg grating sensor and positional tracking sensor Download PDF

Info

Publication number
KR102032425B1
KR102032425B1 KR1020180111587A KR20180111587A KR102032425B1 KR 102032425 B1 KR102032425 B1 KR 102032425B1 KR 1020180111587 A KR1020180111587 A KR 1020180111587A KR 20180111587 A KR20180111587 A KR 20180111587A KR 102032425 B1 KR102032425 B1 KR 102032425B1
Authority
KR
South Korea
Prior art keywords
sensor
fbg
user
virtual reality
reality game
Prior art date
Application number
KR1020180111587A
Other languages
Korean (ko)
Inventor
옥철식
Original Assignee
옥철식
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 옥철식 filed Critical 옥철식
Priority to KR1020180111587A priority Critical patent/KR102032425B1/en
Priority to PCT/KR2019/011581 priority patent/WO2020060086A1/en
Application granted granted Critical
Publication of KR102032425B1 publication Critical patent/KR102032425B1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/646Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for small deviations, e.g. due to vibration or shake
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0161Head-up displays characterised by mechanical features characterised by the relative positioning of the constitutive elements

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

The present invention relates to a virtual reality game system. The purpose of the present invention is to provide the virtual reality game system for improving motion and positional tracking performance by using a fiber Bragg gating (FBG) sensor and a positioning sensor. For example, the virtual reality game system comprises: motion capture sensor modules each attached to the body of a user, measuring the moving directions and bending angles of joints through FBG sensors, and transmitting the measured values to an external device; a plurality of positioning sensor modules installed in the actual game space of the user, measuring positions of the user, to whom the motion capture sensor modules are attached, through a positioning sensor, and transmitting the measured position to the external device; a central processing terminal implementing a virtual reality game image based on joint motion data received through the motion capture sensor modules and position measurement data received through the positioning sensor modules, and controlling the motion of the avatar within the virtual reality game image; and an head mounted display (HMD) worn on the user′s body to receive the virtual image from the central processing terminal and output the same. The motion capture sensor modules include elasticity providing units installed on one sides of the FBG sensors, respectively, to provide resiliency to the FBG sensors when tension is generated by the movements and bending of the joints of the user.

Description

광섬유 브래그 격자 센서 및 위치 추적 센서를 이용한 가상현실 게임시스템{VIRTUAL REALITY GAME SYSTEM USING FIBER BRAGG GRATING SENSOR AND POSITIONAL TRACKING SENSOR}VIRTUAL REALITY GAME SYSTEM USING FIBER BRAGG GRATING SENSOR AND POSITIONAL TRACKING SENSOR}

본 발명의 실시예는 FBG 센서 및 위치 추적 센서를 이용한 가상현실 게임시스템에 관한 것이다.An embodiment of the present invention relates to a virtual reality game system using an FBG sensor and a position tracking sensor.

현재, 광섬유 센서(Optical Fiber Sensor)를 응응하여 활발한 연구가 진행되고 있으며, 그 중 대표적인 예로는 광섬유 브래그 격자(Fiber Bragg Grating, 이하 FBG라 함) 센서가 있다. Currently, active research is being conducted in response to optical fiber sensors, and a representative example thereof is an optical fiber Bragg grating (FBG) sensor.

이러한 FBG 센서는 광섬유 레이저 및 필터, 펄스압축 등에 이용되고 있으며, FBG 센서의 장점은 단일 센서를 이용한 측정뿐만 아니라 단일 광섬유 안에 여러 개의 센서를 삽입하여 여러 지점의 물리적 변화량을 측정할 수 있고, 센서에서 반사되어 돌아온 파장을 측정하기가 용이하다는 것이다.These FBG sensors are used for fiber lasers, filters, and pulse compression. The advantages of FBG sensors are not only the measurement using a single sensor, but also the measurement of physical changes at multiple points by inserting several sensors into a single optical fiber. It is easy to measure the reflected wavelength back.

또한, FBG 센서는 광케이블에 특정파장을 반사시키는 브래그 격자를 생성시켜 인장-압축 또는 온도변화에 따라서 반사되는 파장이 달라지기 때문에, 초기 파장에서 변화된 반사파장의 변화량을 인장-압축으로 환산함으로써 센서로서 활용할 수 있다. In addition, the FBG sensor generates a Bragg grating that reflects a specific wavelength on the optical cable, so that the reflected wavelength changes according to the tension-compression or temperature change. It can be utilized.

또한, FBG 센서는 하나의 케이블에 파장이 다른 여러 개의 센서를 동시에 설치할 수 있어 멀티플레싱이 가능하고, 빛이 소스이기 때문에 케이블 길이가 길어진다 하더라도 신호에 노이즈 및 왜곡이 발생되지 않으며, 수십 km까지 증폭기 없이 신호를 전달할 수 있는 장점이 있다. 또한, 전자기파에 영향이 거의 없으며, 유리재질이기 때문에 습기 등에 의한 부식의 영향이 거의 없어 장기적인 내구성이 매우 뛰어난 센서이다.In addition, FBG sensors can be installed multiple sensors of different wavelengths on one cable at the same time, enabling multiplexing. Since the light is a source, even if the cable length is long, noise and distortion are not generated in the signal. The advantage is that the signal can be delivered without an amplifier. In addition, since it has little influence on electromagnetic waves and is made of glass, it is hardly affected by corrosion due to moisture, and thus has excellent long-term durability.

또한, FBG 센서는 광섬유 코어 안에 주기적인 굴절률을 만들어 구성하며, 외부의 물리적 변화에 의해 FBG 센서에 의해 반사된 광신호의 중심 파장이 물리적 변화량만큼 변화하는데 이러한 점을 이용해, 파장 변화량을 검출함으로써 물리적인 변화량을 계산할 수 있다.In addition, the FBG sensor is constructed by forming a periodic refractive index in the optical fiber core, and the central wavelength of the optical signal reflected by the FBG sensor is changed by the physical change amount by an external physical change. The amount of phosphorus change can be calculated.

등록특허공보 제10-1501415호(등록일자: 2015년03월04일)Patent Registration No. 10-1501415 (Registration Date: March 04, 2015)

본 발명의 실시예는, FBG 센서 및 위치 추적 센서를 이용하여 모션 및 위치 트래킹 성능이 향상된 가상현실 게임시스템을 제공한다.An embodiment of the present invention provides a virtual reality game system having improved motion and position tracking performance using an FBG sensor and a position tracking sensor.

본 발명의 실시예에 따른 가상현실 게임시스템은, 사용자에 신체에 각각 부착되고, FBG(Fiber Bragg Grating) 센서를 통해 관절의 움직임 방향과 굽힘 각도를 각각 측정하여 외부장치로 전송하는 모션캡쳐 센서모듈; 사용자의 실제게임공간 내에 다수 개로 설치되고, 위치추적센서를 통해 상기 모션캡쳐 센서모듈을 부착된 사용자의 위치를 측정하여 외부장치로 전송하는 위치추적 센서모듈; 상기 모션캡쳐 센서모듈을 통해 수신되는 관절모션데이터 및 상기 위치추적 센서모듈을 통해 수신되는 위치측정데이터를 기반으로 가상현실게임영상을 구현하되, 상기 가상현실게임영상 내 아바타의 모션을 제어하는 중앙처리단말; 사용자의 신체에 착용되고, 상기 중앙처리단말로부터 상기 가상영상을 수신하여 출력하는 HMD(Head Mounted Display); 및 상기 모션캡쳐 센서모듈은, 상기 FBG 센서의 일측에 각각 설치되어 사용자의 관절의 움직임과 굽힘으로 인해 장력이 발생되는 경우 상기 FBG 센서에 복원력을 제공하는 탄성 제공부를 포함한다.The virtual reality game system according to an embodiment of the present invention, the motion capture sensor module is attached to the body to the user, respectively, and measures the movement direction and the bending angle of the joint through the Fiber Bragg Grating (FBG) sensor to the external device ; A location tracking sensor module installed in a plurality of real game spaces of the user and measuring the location of the user to which the motion capture sensor module is attached through a location tracking sensor to an external device; Central processing for implementing a virtual reality game image based on joint motion data received through the motion capture sensor module and position measurement data received through the position tracking sensor module, and controlling the motion of the avatar in the virtual reality game image. Terminal; A head mounted display (HMD) which is worn on a user's body and receives and outputs the virtual image from the central processing terminal; And the motion capture sensor module is provided at one side of the FBG sensor and provides an elastic providing unit for providing a restoring force to the FBG sensor when tension is generated due to movement and bending of a joint of a user.

또한, 상기 모션캡쳐 센서모듈은, 사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 형상을 감지하기 위한 적어도 하나의 FBG 형상 센서; 사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 각도를 감지하기 위한 적어도 하나의 FBG 각도 센서; 상기 사용자 관절의 움직임에 따른 사용자 관절의 비틀림을 감지하기 위한 적어도 하나의 FBG 비틀림 센서; 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서로 각각 광 신호를 송신하고, 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서로부터 반사되는 광 신호를 수신하는 광원 송수신부; 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서와 상기 광원 송수신부 사이를 연결하는 커넥터; 상기 광원 송수신부를 통해 수신된 광 신호의 파장을 분석하여 사용자 관절의 형상, 각도, 비틀림에 대한 3차원 좌표 데이터로 변환하는 제1 데이터 변환부; 및 상기 제1 데이터 변환부를 통해 변환된 3차원 좌표 데이터를 상기 중앙처리단말로 전송하는 제1 무선 통신부를 포함할 수 있다.In addition, the motion capture sensor module, at least one FBG shape sensor for detecting a shape in which the user joint is bent in accordance with the movement of the user joint; At least one FBG angle sensor for detecting an angle at which the user joint is bent according to the movement of the user joint; At least one FBG torsion sensor for detecting a torsion of the user joint according to the movement of the user joint; A light source transceiver configured to transmit an optical signal to the FBG shape sensor, the FBG angle sensor, and the FBG torsion sensor, respectively, and to receive an optical signal reflected from the FBG shape sensor, the FBG angle sensor, and the FBG torsion sensor; A connector connecting the FBG shape sensor, the FBG angle sensor, the FBG torsion sensor, and the light source transceiver; A first data converter configured to analyze the wavelength of the optical signal received through the light source transceiver and convert the wavelength into three-dimensional coordinate data about a shape, an angle, and a twist of a user joint; And a first wireless communication unit transmitting the 3D coordinate data converted through the first data conversion unit to the central processing terminal.

또한, 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서는 사용자의 손가락과 팔 부분에 부착되어 해당 신체부위에 대한 모션을 추적하고, 사용자의 손가락과 팔 부분을 제외한 다른 신체부위에 대하여, 상기 가상현실 게임시스템은, 적외선 광학식 카메라 추적 및 마커 중 적어도 하나를 더 이용하여 모션캡쳐를 실시할 수 있다.In addition, the FBG shape sensor, the FBG angle sensor and the FBG torsion sensor are attached to the user's finger and arm portion to track the motion of the corresponding body part, for other body parts except the user's finger and arm, The virtual reality game system may further perform motion capture using at least one of an infrared optical camera tracking and a marker.

또한, 상기 탄성 제공부는, 상기 커넥터 측에 설치되고, 사용자 관절의 움직임과 굽힘으로 인해 장력이 발생되는 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서에 복원력을 제공할 수 있다.The elastic providing unit may be provided at the connector side to provide a restoring force to the FBG shape sensor, the FBG angle sensor, and the FBG torsion sensor, in which tension is generated due to movement and bending of a user joint.

또한, 상기 위치추적 센서모듈은, 상기 실제게임공간의 외곽부에 설치되고, 상기 실제게임공간 내에 이동하는 사용자의 위치를 감지하기 위한 적어도 하나의 제1 위치추적센서; 상기 실제게임공간의 내부에 설치되고, 상기 실제게임공간 내에 이동하는 사용자의 위치를 감지하기 위한 적어도 하나의 제2 위치추적센서; 상기 제1 라이다 센서 및 상기 제2 라이다 센서를 통해 측정된 신호를 3차원 좌표 데이터로 변환하는 제2 데이터 변환부; 및 상기 제2 데이터 변환부를 통해 생성된 3차원 좌표 데이터를 상기 중앙처리단말로 전송하는 제2 무선 통신부를 포함할 수 있다.The position tracking sensor module may include: at least one first position tracking sensor installed at an outer portion of the real game space and configured to sense a position of a user moving in the real game space; At least one second position tracking sensor installed in the real game space and configured to sense a position of a user moving in the real game space; A second data converter configured to convert signals measured by the first lidar sensor and the second lidar sensor into three-dimensional coordinate data; And a second wireless communication unit transmitting the 3D coordinate data generated by the second data conversion unit to the central processing terminal.

또한, 상기 제1 위치추적센서 및 상기 제2 위치추적센서는, 라이다(LiDAR) 센서, 초음파센서, 적외선 광학식 마커 추적센서 및 GPS 센서 중 적어도 하나를 포함할 수 있다.The first position tracking sensor and the second position tracking sensor may include at least one of a LiDAR sensor, an ultrasonic sensor, an infrared optical marker tracking sensor, and a GPS sensor.

또한, 상기 중앙처리단말은 5G 무선통신 영상 스트리밍 방식을 통해 상기 HMD로 상기 가상영상을 전송할 수 있다.In addition, the central processing terminal may transmit the virtual image to the HMD through a 5G wireless communication video streaming method.

본 발명에 따르면, FBG 센서 및 위치 추적 센서를 이용하여 모션 및 위치 트래킹 성능이 향상된 가상현실 게임시스템을 제공할 수 있다. According to the present invention, it is possible to provide a virtual reality game system having improved motion and position tracking performance using an FBG sensor and a position tracking sensor.

도 1은 본 발명의 실시예에 따른 가상현실 게임시스템의 전체 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 모션캡쳐 센서모듈의 전체 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 위치추적 센서모듈의 전체 구성을 나타낸 블록도이다.
도 4는 본 발명의 실시예에 따른 모션 캡쳐 센서모듈의 착용 예시를 나타낸 도면이다.
도 5는 본 발명의 실시예에 따른 HMD 상에 표시되는 아바타를 포함하는 가상현실 게임영상을 나타낸 도면이다.
도 6은 본 발명의 실시예에 따른 FBG 센서의 종류와 구성을 설명하기 위해 나타낸 도면이다.
도 7은 본 발명의 실시예에 따른 제1 탄성 제공부의 구성 개념을 설명하기 위해 나타낸 도면이다.
도 8은 본 발명의 실시예에 따른 제2 탄성 제공부의 구성 개념을 설명하기 위해 나타낸 도면이다.
도 9는 본 발명의 실시예에 따른 위치추적 센서모듈의 구성 배치와 동작을 설명하기 위해 나타낸 도면이다.
1 is a block diagram showing the overall configuration of a virtual reality game system according to an embodiment of the present invention.
2 is a block diagram showing the overall configuration of a motion capture sensor module according to an embodiment of the present invention.
3 is a block diagram showing the overall configuration of the position tracking sensor module according to an embodiment of the present invention.
4 is a diagram illustrating an example of wearing a motion capture sensor module according to an embodiment of the present invention.
5 is a diagram illustrating a virtual reality game image including an avatar displayed on the HMD according to an embodiment of the present invention.
6 is a view showing for explaining the type and configuration of the FBG sensor according to an embodiment of the present invention.
7 is a view showing for explaining the configuration concept of the first elastic providing unit according to an embodiment of the present invention.
8 is a view illustrating a configuration concept of the second elastic providing unit according to the embodiment of the present invention.
9 is a view showing for explaining the configuration arrangement and operation of the position tracking sensor module according to an embodiment of the present invention.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used herein will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as widely used general terms as possible in consideration of the functions in the present invention, but this may vary according to the intention or precedent of the person skilled in the art, the emergence of new technologies and the like. In addition, in certain cases, there is also a term arbitrarily selected by the applicant, in which case the meaning will be described in detail in the description of the invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents throughout the present invention, rather than the names of the simple terms.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When any part of the specification is to "include" any component, this means that it may further include other components, except to exclude other components unless otherwise stated. In addition, the terms "... unit", "module", etc. described in the specification mean a unit for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software. .

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

도 1은 본 발명의 실시예에 따른 가상현실 게임시스템의 전체 구성을 나타낸 블록도이고, 도 2는 본 발명의 실시예에 따른 모션캡쳐 센서모듈의 전체 구성을 나타낸 블록도이고, 도 3은 본 발명의 실시예에 따른 위치추적 센서모듈의 전체 구성을 나타낸 블록도이고, 도 4는 본 발명의 실시예에 따른 모션 캡쳐 센서모듈의 착용 예시를 나타낸 도면이고, 도 5는 본 발명의 실시예에 따른 HMD 상에 표시되는 아바타를 포함하는 가상현실 게임영상을 나타낸 도면이고, 도 6은 본 발명의 실시예에 따른 FBG 센서의 종류와 구성을 설명하기 위해 나타낸 도면이고, 도 7은 본 발명의 실시예에 따른 제1 탄성 제공부의 구성 개념을 설명하기 위해 나타낸 도면이고, 도 8은 본 발명의 실시예에 따른 제2 탄성 제공부의 구성 개념을 설명하기 위해 나타낸 도면이며, 도 9는 본 발명의 실시예에 따른 위치추적 센서모듈의 구성 배치와 동작을 설명하기 위해 나타낸 도면이다.1 is a block diagram showing the overall configuration of a virtual reality game system according to an embodiment of the present invention, Figure 2 is a block diagram showing the overall configuration of a motion capture sensor module according to an embodiment of the present invention, Figure 3 is 4 is a block diagram showing the overall configuration of the position tracking sensor module according to an embodiment of the present invention, Figure 4 is a view showing an example of wearing a motion capture sensor module according to an embodiment of the present invention, Figure 5 is an embodiment of the present invention FIG. 6 is a view illustrating a virtual reality game image including an avatar displayed on an HMD, and FIG. 6 is a view illustrating a type and configuration of an FBG sensor according to an embodiment of the present invention, and FIG. 7 is an embodiment of the present invention. 8 is a view illustrating a configuration concept of a first elastic providing unit according to an example, and FIG. 8 is a view illustrating a configuration concept of a second elastic providing unit according to an embodiment of the present invention. A diagram for the explanation of the construction and operation of the arrangement position tracking sensor module according to an embodiment of the invention.

도 1 내지 도 9를 참조하면, 본 발명의 실시예에 따른 가상현실 게임시스템(1000)은 모션캡쳐 센서모듈(100), 위치추적 센서모듈(200), 중앙처리단말(300) 및 HMD(Head Mounted Display)(400) 중 적어도 하나를 포함할 수 있다.1 to 9, the virtual reality game system 1000 according to an embodiment of the present invention includes a motion capture sensor module 100, a position tracking sensor module 200, a central processing terminal 300, and an HMD (Head). It may include at least one of the Mounted Display (400).

상기 모션캡쳐 센서모듈(100)은, 사용자에 신체에 각각 부착되고, FBG(Fiber Bragg Grating) 센서를 통해 관절의 움직임 방향과 굽힘 각도를 각각 측정하여 중앙처리단말(300)로 무선 또는 유선 통신을 통해 전송할 수 있다. 이러한 모션캡쳐(Motion Capture)는 사용자의 몸에 센서를 부착하거나 카메라를 이용하는 등의 방법으로 인체의 움직임을 디지털 형태로 기록하는 기술을 의미하는 것으로, 본 실시예에서는 센서 부착 방식의 형태로 구현되며, 이를 위해 모션캡쳐 센서모듈(100)은 기본적으로 슈트 형태로 제작될 수 있으며, 이러한 구성은 생략 가능하며, FBG 형상 센서(110), FBG 각도 센서(120), FBG 비틀림 센서(130), 광원 송수신부(140), 커넥터(150), 제1 데이터 변환부(160), 제1 무선 통신부(170) 및 제1 탄성 제공부(180)를 포함할 수 있으며, 제1 탄성 제공부(180)를 대체하여 제2 탄성 제공부(180)가 포함될 수 있으며, 이러한 제1 및 제2 탄성 제공부(180, 190)는 함께 구현되어도 무방하다.The motion capture sensor module 100 is attached to the body to the user, respectively, by measuring the direction of movement and the bending angle of the joint through the FBG (Fiber Bragg Grating) sensor to wireless or wired communication to the central processing terminal 300 Can be sent through. This motion capture refers to a technology of recording a human body's movement in a digital form by attaching a sensor to a user's body or using a camera. In this embodiment, the motion capture is implemented in the form of a sensor attachment method. For this purpose, the motion capture sensor module 100 can be basically manufactured in the form of a chute, such a configuration can be omitted, FBG shape sensor 110, FBG angle sensor 120, FBG torsion sensor 130, light source It may include a transceiver 140, a connector 150, a first data converter 160, a first wireless communication unit 170, and a first elastic providing unit 180, and a first elastic providing unit 180. In place of the second elastic providing unit 180 may be included, the first and second elastic providing unit 180, 190 may be implemented together.

본 실시예에서 적용되는 FBG(Fiber Bragg Grating)라 불리는 광섬유 브래그 격자는 광 섬유의 코어(core)에 굴절률(refractive index)이 다른 격자(Grating)을 일정한 간격으로 배치된 구조를 가지며, 이러한 굴절률(refractive index) 차이에 의해 빛이 반사하는 현상을 이용하는 것이다. 좀 더 구체적으로는, 격자(Grating)의 간격에 따라 특정 파장의 빛만 반사되어 들어오는데, 외부의 힘, 온도 변화에 의해 격자(Grating)의 간격이 변하면서 파장이 변화(shifting)하게 된다. 하나의 광섬유에는 여러 개의 FBG를 새길 수 있으며, 하나의 광섬유로 여러 가지의 센서 제작이 가능하며 동일 센서를 분산시켜 여러 지역을 동시에 측정할 수도 있다.The optical fiber Bragg grating called FBG (Fiber Bragg Grating) applied in this embodiment has a structure in which gratings having different refractive indexes are arranged at regular intervals on a core of the optical fiber. This is to use the phenomenon that light is reflected by the difference of refractive index. More specifically, only light of a specific wavelength is reflected by the interval of the grating, and the wavelength is shifted while the distance of the grating is changed by external force and temperature change. One fiber can be engraved with several FBGs, and one fiber can be used to manufacture several sensors, and the same sensor can be distributed to measure multiple areas simultaneously.

또한, FBG 센서는 인테로게이터(Interrogator)를 통하여 광원을 전달 받고, 해당 센서에서 반사되는 빛의 파장의 측정하게 되는데, 2가지 방식의 인테로게이터가 적용될 수 있다. 첫 번째, 파장-위치 변환 방식의 인테로게이터는, 광대역의 광원을 이용하여 동시에 전달되어 반사되는 광파를 분산하여 CCD 센서에 전달하는 방식으로, 제한된 분해능과 SNR 비율의 특징을 갖는다. 두 번째, Tunable 레이저 방식의 인테로게이터는 필터를 이용하여 스위핑 레이저를 생성하고, 단일 광파가 센서에 전달 및 반사되는 것을 이용하는 것으로, 높은 분해능을 제공하는 특성이 있다.In addition, the FBG sensor receives a light source through an interrogator and measures the wavelength of the light reflected from the sensor. Two types of interrogators may be applied. First, an interrogator of the wavelength-position conversion method has a limited resolution and an SNR ratio by distributing and transmitting the reflected light waves to the CCD sensor simultaneously using a broadband light source. Secondly, the Tunable laser type interrogator uses a filter to generate a swept laser, and uses a single light wave transmitted and reflected to the sensor, which provides high resolution.

상기 FBG 형상 센서(110)는 사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 방향과 함께 그 형상을 감지하기 위한 FBG 센서로, 도 6의 (a)에 도시된 바와 같이, 3가닥의 광섬유를 120도 간격으로 평행하게 배치하여 제작될 수 있다. 이러한, FBG 형상 센서(110)를 통해 피크 디텍션(peak detection, 스트레인 컨버전(strain conversion), 형상 복원(shape reconstruction)의 프로세스를 거쳐 사용자 관절의 움직임에 따른 신체 일부의 형상과 위치 측정이 가능하다.The FBG shape sensor 110 is an FBG sensor for detecting the shape along with the direction in which the user joint is bent according to the movement of the user joint. As shown in FIG. It can be produced by placing parallel to the interval. Through the FBG shape sensor 110, the shape and position of the body part according to the movement of the user joint may be measured through a process of peak detection, strain conversion, and shape reconstruction.

상기 FBG 각도 센서(120)는 사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 각도를 감지하기 위한 센서로 도 6의 (b)에 도시된 바와 같이, 에폭시(Epoxy) 한 가닥에 하나의 광섬유를 배치하여 제작될 수 있다. The FBG angle sensor 120 is a sensor for detecting the angle at which the user joint is bent according to the movement of the user joint, as shown in FIG. 6 (b), to place one optical fiber on one strand of epoxy. Can be produced.

상기 FBG 비틀림 센서(130)는 사용자 관절의 움직임에 따른 사용자 관절의 비틀림을 감지하기 위한 FBG 센서로 FBG 형상 센서(110)과 동일한 형태로 제작될 수 있다.The FBG torsion sensor 130 may be manufactured in the same form as the FBG shape sensor 110 as an FBG sensor for detecting the twist of the user joint according to the movement of the user joint.

이와 같이 본 실시예의 FBG 센서는 형상, 각도, 비틀림 센서의 조합으로 이루어질 수 있으며, 신체 부위에 따라 다양한 조합으로 설계될 수 있으며, 필요에 따라 3개의 FBG 센서 중 적어도 하나가 생략된 형태로의 구현도 가능하다. 또한, 이러한 FBG 센서는 상술한 바와 같이 슈트와 함께 구현되어 사용자의 신체에 부착될 수 있다. As described above, the FBG sensor of the present embodiment may be formed of a combination of a shape, an angle, and a torsion sensor, and may be designed in various combinations according to body parts, and if necessary, at least one of three FBG sensors may be omitted. It is also possible. In addition, the FBG sensor may be implemented together with the chute as described above and attached to the body of the user.

한편, 기존의 사용자 모션 센서로서 IMU 센서를 이용하였는데, 이러한 IMU 센서는 자기장에 의한 장애가 일어나 센싱 오류가 빈번히 발생되었으나, 본 실시예에서는 FBG 센서(110, 120, 130)를 적용하여 손가락 관절의 움직임까지 디테일한 모션 트래킹이 가능할 뿐만 아니라, 높은 내구성으로 인해 장기간 사용(약 8,000회 구부러짐)에도 성능 저하가 거의 없다는 장점이 있다.Meanwhile, an IMU sensor is used as a conventional user motion sensor. In this embodiment, a sensing error occurs frequently due to an obstacle caused by a magnetic field, but in this embodiment, FBG sensors 110, 120, and 130 are applied to move a finger joint. In addition to detailed motion tracking up to and including high durability, there is almost no performance degradation even during long-term use (about 8,000 bends).

상기 광원 송수신부(140)는 FBG 형상 센서(110), FBG 각도 센서(120) 및 FBG 비틀림 센서(130)로 각각 특정 주파수 대역의 광 신호를 송신하고, FBG 형상 센서(110), FBG 각도 센서(120) 및 FBG 비틀림 센서(130)로부터 반사되는 광 신호를 수신함으로써 반사 광파를 측정할 수 있다. 이러한 광원 송수신부(140)는 FBG 인테로게이터(Interrogator)일 수 있다. 본 실시예의 FBG 인테로게이터(Interrogator)는 상술한 바와 같이 파장-위치 변환 방식과 Tunable 레이저 방식 중 적어도 하나가 적용되어 구현될 수 있으며, 신체에 부착 위치에 따라 각자의 특성에 적합한 방식의 인테로게이터가 적용될 수 있다.The light source transceiver 140 transmits an optical signal of a specific frequency band to the FBG shape sensor 110, the FBG angle sensor 120, and the FBG torsion sensor 130, respectively, and the FBG shape sensor 110 and the FBG angle sensor. The reflected light wave may be measured by receiving the light signal reflected from the 120 and the FBG torsion sensor 130. The light source transceiver 140 may be an FBG interrogator. As described above, the FBG interrogator of the present embodiment may be implemented by applying at least one of a wavelength-position conversion method and a tunable laser method. Gators can be applied.

상기 커넥터(150)는 FBG 형상 센서(110), FBG 각도 센서(120) 및 FBG 비틀림 센서(130)와, 광원 송수신부(140) 간을 연결할 수 있다. The connector 150 may connect the FBG shape sensor 110, the FBG angle sensor 120, the FBG torsion sensor 130, and the light source transceiver 140.

상기 제1 데이터 변환부(160)는 광원 송수신부(140)를 통해 수신된 광 신호의 파장을 분석 즉, 측정된 스트레인 값을 기초로 이를 관절 좌표계 변환을 통해 사용자 관절의 형상(방향 포함), 각도, 비틀림에 대한 3차원 좌표 데이터를 생성할 수 있다. The first data converter 160 analyzes the wavelength of the optical signal received through the light source transceiver 140, that is, the shape of the user joint through the joint coordinate system transformation based on the measured strain value. Three-dimensional coordinate data about angle and torsion can be generated.

상기 제1 무선 통신부(170)는 제1 데이터 변환부(160)를 통해 변환된 3차원 좌표 데이터를 중앙처리단말(300)로 와이파이 등의 무선통신을 통해 전송할 수 있다. The first wireless communication unit 170 may transmit the 3D coordinate data converted through the first data conversion unit 160 to the central processing terminal 300 through wireless communication such as Wi-Fi.

한편, 본 실시예의 모션캡쳐 센서모듈(100)은 탄성 제공부를 더 포함할 수 있는데, 이러한 탄성 제공부는 커넥터(150) 측에 설치되고, 사용자 관절의 움직임과 굽힘으로 인해 장력이 발생되는 FBG 형상 센서(110), FBG 각도 센서(120) 및 FBG 비틀림 센서(130)에 복원력을 제공하도록 이루어질 수 있다. 이러한 탄성 제공부는 실시예에 따라 제1 탄성 제공부(180)와 제2 탄성 제공부(190)을 포함할 수 있다.On the other hand, the motion capture sensor module 100 of the present embodiment may further include an elastic providing unit, the elastic providing unit is installed on the connector 150 side, the FBG shape sensor is generated tension due to the movement and bending of the user joint. 110, the FBG angle sensor 120, and the FBG torsion sensor 130 may be provided to provide a restoring force. The elastic providing part may include a first elastic providing part 180 and a second elastic providing part 190 according to an embodiment.

상기 제1 탄성 제공부(180)는, 커넥터(150) 측에 직접 연결되어, 사용자 관절이 굽혀짐(고곡률이 일어나는 경우)에 따라 FBG 센서(110, 120, 130)가 잡아 당겨지는 경우 FBG 센서(110, 120, 130)에 탄성을 제공함으로써, 관절의 움직임을 보다 자연스럽게 해주며, 관절의 펴지는 경우 FBG 센서(110, 120, 130)의 단부 위치가 원위치로 재빨리 복귀되도록 할 수 있다.The first elastic providing unit 180 is directly connected to the connector 150 side, the FBG sensor 110, 120, 130 when the user joint is bent (when a high curvature occurs) is pulled FBG By providing elasticity to the sensors 110, 120, and 130, the movement of the joints is made more natural, and when the joints are stretched, the end positions of the FBG sensors 110, 120, and 130 may be quickly returned to their original positions.

예를 들어, 도 7에 도시된 바와 같이, 제1 탄성 제공부(180)는 커넥터(150) 후단부에 연결되는 탄성부재(181)(스프링, 고무줄 등)와 가이드 부재(182)를 포함할 수 있다. 이러한 제1 탄성 제공부(180)는 FBG 센서(110, 120, 130)가 잡아당겨지게 되면, 도 7의 (b)에 도시된 바와 같이 커넥터(150)가 가이드 부재(182)를 따라 전진하게 되며, 커넥터(150)가 멈춰진 지점에서는 탄성부재(181)에 의한 복원력이 작용하게 되고, 이후, FBG 센서(110, 120, 130)에 잡아당겨지는 힘 즉 장력이 제거되면 도 7의 (c)에 도시된 바와 같이 커넥터(150)는 탄성부재(181)에 의해 가이드 부재(182)를 따라 원위치로 복귀하게 된다.For example, as shown in FIG. 7, the first elastic providing unit 180 may include an elastic member 181 (spring, rubber band, etc.) and a guide member 182 connected to the rear end of the connector 150. Can be. When the FBG sensors 110, 120, and 130 are pulled out, the first elastic providing part 180 moves the connector 150 along the guide member 182 as shown in FIG. 7B. At the point where the connector 150 is stopped, the restoring force by the elastic member 181 is applied, and then, when the force pulled by the FBG sensors 110, 120, and 130, that is, the tension is removed, FIG. 7 (c). As shown in FIG. 5, the connector 150 is returned to its original position along the guide member 182 by the elastic member 181.

상기 제2 탄성 제공부(190)는, 커넥터(150)와 연결되는 FBG 센서(110, 120, 130)의 단부 측에 설치되어, 사용자 관절이 굽혀짐(고곡률이 일어나는 경우)에 따라 FBG 센서(110, 120, 130)가 잡아 당겨지는 경우 FBG 센서(110, 120, 130)에 탄성을 제공함으로써, 관절의 움직임을 보다 자연스럽게 해주며, 관절의 펴지는 경우 FBG 센서(110, 120, 130)의 단부가 원위치로 재빨리 복귀되도록 할 수 있다.The second elastic providing unit 190 is installed at the end side of the FBG sensors 110, 120, and 130 connected to the connector 150, and according to the bending of the user joint (when a high curvature occurs), the FBG sensor By providing elasticity to the FBG sensors 110, 120, and 130 when the 110, 120, and 130 are pulled out, the movement of the joint is more natural, and when the joints are stretched, the FBG sensors 110, 120, and 130 are stretched. The end of can be quickly returned to its original position.

이와 같은 제2 탄성 제공부(190)는 커넥터(150)과 연결되는 FBG 센서(110, 120, 130)의 단부 측에 설치된 구성으로, 가이드 롤러(191)와 탄성 레일(192)을 포함할 수 있다. The second elastic providing unit 190 has a configuration installed at the end side of the FBG sensors 110, 120, 130 connected with the connector 150, and may include a guide roller 191 and an elastic rail 192. have.

상기 가이드 롤러(191)는 제1 가이드 롤러(191a)와 제2 가이드 롤러(191b)를 포함할 수 있으나, 본 실시예에서는 이해를 돕기 위해 2개의 가이드 롤러를 예시한 것이며, 2개 이상의 가이드 롤러가 적용되어도 무방하다. 이러한 제1 가이드 롤러(191a)와 제2 가이드 롤러(191b)는 도 8에 도시된 바와 같이 엇각의 위치에 설치되고, FBG 센서(110, 120, 130)의 단부 측 라인이 지그재그 형태로 감길수 있다. The guide roller 191 may include a first guide roller 191a and a second guide roller 191b. However, in the present embodiment, two guide rollers are illustrated to facilitate understanding, and two or more guide rollers. May be applied. The first guide roller 191a and the second guide roller 191b are installed at right angles as shown in FIG. 8, and the end side lines of the FBG sensors 110, 120, and 130 may be wound in a zigzag form. have.

상기 탄성 레일(192)은 제1 가이드 롤러(1912a)의 하부에 연결되는 제1 탄성 레일(192a)과 제2 가이드 롤러(191b)의 하부에 연결되는 제2 탄성 레일(192b)을 포함할 수 있다. 제1 탄성 레일(192a)과 제2 탄성 레일(192b)의 개수는 가이드 롤러(191)의 개수에 따라 적정한 개수로 설치될 수 있다. 여기서, 가이드 롤러(191)의 중심축이 탄성 레일(192) 상부 중 끝부분에 고정되고, 가이드 롤러(191)의 각 외주연이 FBG 센서(110, 120, 130)가 이동할 수 있도록 회전 가능하게 구성될 수 있다. 이러한 탄성 레일(192)의 각 단부에는 탄성부재가 구성되어 탄성 레일(192)의 이동에 따른 탄성력과 복원력을 제공할 수 있다.The elastic rail 192 may include a first elastic rail 192a connected to a lower portion of the first guide roller 1912a and a second elastic rail 192b connected to a lower portion of the second guide roller 191b. have. The number of the first elastic rail 192a and the second elastic rail 192b may be installed in an appropriate number depending on the number of the guide rollers 191. Here, the central axis of the guide roller 191 is fixed to the end of the upper portion of the elastic rail 192, each outer periphery of the guide roller 191 is rotatable so that the FBG sensors 110, 120, 130 can move Can be configured. An elastic member is formed at each end of the elastic rail 192 to provide elastic force and restoring force according to the movement of the elastic rail 192.

상술한 FBG 센서뿐만 아니라 이와 함께 광원 송수신부(140), 커넥터(150), 제1 데이터 변환부(160), 제1 무선 통신부(170), 제1 탄성 제공부(180) 및 제2 탄성 제공부(180)과 함께 모듈로서 구현될 수 있다. In addition to the above-described FBG sensor, the light source transceiver 140, the connector 150, the first data converter 160, the first wireless communication unit 170, the first elastic providing unit 180, and the second elastic agent are combined with the FBG sensor. It can be implemented as a module with study 180.

한편, 상술한 FBG 형상 센서(110), FBG 각도 센서(120) 및 FBG 비틀림 센서(130)는 사용자의 손가락과 팔 부분에 부착 및 적용되어 해당 신체부위에 대한 모션 추적을 위해 이용될 수 있으며, 그 이외의 신체부위에 대한 모션캡쳐를 위해서는 적외선 광학식 카메라 추적(관절인식용 카메라 추적 방식)과 신체부착 마커(바이브 모션 트래커)를 혼합적으로 적용할 수 있다.On the other hand, the above-described FBG shape sensor 110, FBG angle sensor 120 and FBG torsion sensor 130 is attached and applied to the user's finger and arm portion can be used for motion tracking for the body part, For motion capture on other body parts, infrared optical camera tracking (joint camera tracking) and body attachment markers (vibration motion trackers) may be mixedly applied.

상기 위치추적 센서모듈(200)은, 사용자의 실제게임공간(10) 내에 다수 개로 설치되고, 라이다(LiDAR) 센서를 통해 상기 모션캡쳐 센서모듈을 부착된 사용자의 위치를 측정하여 중앙처리단말(300)로 전송할 수 있다. 이를 위해, 위치추적 센서모듈(200)은 제1 라이다 센서(210), 제2 라이다 센서(220), 제2 데이터 변환부(230) 및 제2 무선 통신부(240) 중 적어도 하나를 포함할 수 있다.The position tracking sensor module 200 is installed in a plurality of real game space 10 of the user, and measures the position of the user to which the motion capture sensor module is attached via a LiDAR sensor to the central processing terminal ( 300). To this end, the position tracking sensor module 200 includes at least one of the first lidar sensor 210, the second lidar sensor 220, the second data converter 230, and the second wireless communication unit 240. can do.

상기 제1 라이다 센서(210)는 도 9에 도시된 바와 같이, 실제게임공간(10)의 외곽부에 설치되고, 실제게임공간(10) 내에 이동하는 사용자의 위치를 감지할 수 있으며, 다수 개로 이루어질 수 있다.As shown in FIG. 9, the first lidar sensor 210 may be installed at an outer portion of the real game space 10, and detect a location of a user moving in the real game space 10. Can be made of dogs.

상기 제2 라이다 센서(220)는 도 9에 도시된 바와 같이, 실제게임공간(10)의 내부에 설치되고, 실제게임공간(10) 내에 이동하는 사용자의 위치를 감지할 수 있으며, 다수 개로 이루어질 수 있다. As shown in FIG. 9, the second lidar sensor 220 may be installed inside the real game space 10, and may detect a location of a user moving in the real game space 10. Can be done.

이러한 제1 라이다 센서(210)와 제2 라이다 센서(220)는 레이저 펄스를 발사하고, 그 빛이 주위의 대상 물체에서 반사되어 돌아오는 것을 받아 물체까지의 거리 등을 측정함으로써 주변의 모습을 정밀하게 그려내는 장치로, 360도 회전할 수 있다.. The first lidar sensor 210 and the second lidar sensor 220 emits a laser pulse, and receives the light reflected from the surrounding target object and measures the distance to the object. This device draws precisely and can rotate 360 degrees.

기존의 가상현실 게임시스템에서 사용자의 위치를 추적하기 위한 장치의 경우, 초음하, 삼각측정, GPS 등의 기술을 이용하였으나 큰 오차를 가지며, 특히 도 9를 참조하면, 제1 라이다 센서(210)가 사용자 1은 인식할 수 있으나, 사용자 1과 동일선 상에서 있으며, 사용자 1 뒤에 위치한 사용자 2의 경우 사용자 1에 의해 정확한 트래킹이 어려웠다. In the conventional virtual reality game system for tracking the location of the user, but using a technique such as supersonic, triangulation, GPS, but has a large error, in particular referring to Figure 9, the first lidar sensor 210 ) Can be recognized by user 1, but user 2 is on the same line as user 1, and user 2, which is behind user 1, is difficult to accurately track by user 1.

이와 같이 기존의 위치 트래킹에 대한 오차를 줄이고 추적 성능을 높이기 위하여, 본 실시예에는 실제게임공간(10)의 외곽부와 내부에 각각 라이다 센서를 설치하여 기존과 같은 트래킹 사각지대를 최소화하였다. 이에 따라, 도 9에 도시된 바와 같이 제1 라이다 센서(210)가 사용자 1만 인식하고 그 뒤에 위치한 사용자 2가 인식되지 못하더라도 실제게임공간(10)의 내부에 위치한 제2 라이다 센서(220)에 의해 인식함에 따라 실제게임공간(10) 내 트래킹 사각지대를 최대한 줄일 수 있다.As such, in order to reduce the error of the existing position tracking and increase the tracking performance, the present invention minimizes the tracking blind spots by installing lidar sensors on the outer and inner sides of the actual game space 10, respectively. Accordingly, as shown in FIG. 9, although the first lidar sensor 210 recognizes only the user 1 and the user 2 located behind the second lidar sensor 210 is not recognized, the second lidar sensor ( 220, the tracking blind spot in the actual game space 10 can be reduced as much as possible.

한편, 이상에서는 라이다 센서만으로 사용자의 위치 추적을 실시하는 것으로 설명하였으나, 이 뿐만 아니라, 초음파센서를 이용한 삼각측위기법과 GPS 센서를 이용한 삼각측위기법 중 적어도 하나를 추가 적용하여 실시하는 것도 가능하다.In the above description, the position tracking of the user is performed using only the lidar sensor. However, in addition, at least one of the triangulation method using the ultrasonic sensor and the triangulation method using the GPS sensor may be additionally applied. .

상기 제2 데이터 변환부(230)는 제1 라이다 센서(210)와 제2 라이다 센서(220)를 통해 측정된 신호를 3차원 좌표 데이터로 변환할 수 있다. 다만, 필요에 따라 시스템 설계 사양에 따라 2차원 좌표 데이터로의 변환도 가능하다. The second data converter 230 may convert signals measured by the first lidar sensor 210 and the second lidar sensor 220 into three-dimensional coordinate data. However, if necessary, conversion to two-dimensional coordinate data is possible according to the system design specification.

상기 제2 무선 통신부(240)는 제2 데이터 변환부(230)를 통해 생성된 3차원 좌표 데이터를 와이파이 등과 같은 무선통신을 통해 중앙처리단말로 전송할 수 있다. The second wireless communication unit 240 may transmit the 3D coordinate data generated by the second data converter 230 to the central processing terminal through wireless communication such as Wi-Fi.

상기 중앙처리단말(300)는, 모션캡쳐 센서모듈(100)을 통해 수신되는 관절모션데이터와, 위치추적 센서모듈(200)을 통해 수신되는 위치측정데이터를 기반으로 가상현실게임영상을 구현하며 가상현실게임영상 내 아바타의 모션을 제어할 수 있다. 이러한 중앙처리단말(300)은 기본적인 3차원 가상현실게임영상과 콘텐츠를 제공하며, 도시되지 않았으나, 사용자의 게임 실행과 진행에 필요한 컨트롤러(모의 총기 등)와 연동하여 해당 컨트롤러로부터 발생되는 신호를 수신해 가상현실게임영상과 게임프로세스에 반영하여 게임을 진행하고 전반적인 제어를 수행할 수 있다. 이러한 중앙처리단말(300)은 5G 무선통신 영상 스트리밍 기술을 이용하여 HMD(400)로 가상영상데이터를 실시간 무선 또는 유선으로 전송할 수 있다. The central processing terminal 300 implements a virtual reality game image based on the joint motion data received through the motion capture sensor module 100 and the position measurement data received through the position tracking sensor module 200. It is possible to control the motion of the avatar in the real game image. The central processing terminal 300 provides a basic three-dimensional virtual reality game video and content, although not shown, in conjunction with a controller (mock firearms, etc.) necessary for the user's game execution and progression receives signals generated from the controller. The solution can be reflected in the virtual reality game video and game process to proceed with the game and perform overall control. The central processing terminal 300 may transmit virtual image data to the HMD 400 in real time wirelessly or by wire using 5G wireless communication video streaming technology.

상기 HMD(Head Mounted Display)(400)는 사용자의 두부에 착용되고, 중앙처리단말(300)로부터 가상영상을 수신하여 출력할 수 있다. 이러한 HMD는 사용자 두부에 착용되면 양쪽 눈의 근접한 위치에 소형 디스플레이가 있어 시차를 이용한 삼차원(3D) 영상이 투영되며, 사용자의 움직임을 트래킹하는 자이로 센서, 움직임에 따라 영상을 만드는 렌더링 기능 등으로 3D 공간에 있는 것 같은 가상 현실(VR) 또는 증강 현실(AR)을 실감할 수 있도록 한다. The head mounted display (HMD) 400 may be worn on a user's head and may receive and output a virtual image from the central processing terminal 300. When worn on the user's head, the HMD has a small display in close proximity to both eyes, so that three-dimensional (3D) images using parallax are projected, and a gyro sensor that tracks the user's movements and a rendering function that creates images according to the movements. Allows you to experience virtual reality (VR) or augmented reality (AR) as if it were in space.

이상에서 설명한 것은 본 발명에 의한 FBG 센서 및 라이다 센서를 이용한 가상현실 게임시스템을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is just one embodiment for implementing a virtual reality game system using the FBG sensor and the lidar sensor according to the present invention, the present invention is not limited to the above embodiment, it is claimed in the claims As will be apparent to those skilled in the art to which the present invention pertains without departing from the gist of the present invention, the technical spirit of the present invention will be described to the extent that various modifications can be made.

1000: 가상현실 시스템 100: 모션캡쳐 센서모듈
110: FBG 형상 센서 120: FBG 각도 센서
130: FBG 비틀림 센서 140: 광원 송수신부
150: 커넥터 160: 제1 데이터 변환부
170: 제1 무선 통신부 180: 제1 텐션 제공부
181: 탄성부재 182: 가이드 부재
190: 제2 텐션 제공부 191: 가이드 롤러
191a: 제1 가이드 롤러 191b: 제2 가이드 롤러
192: 탄성 레일 192a: 제1 탄성 레일
192b: 제2 탄성 레일 200: 위치추적 센서모듈
210: 제1 라이다 센서 220: 제2 라이다 센서
230: 제2 데이터 변환부 240: 제2 무선 통신부
300: 중앙처리단말 400: HMD
10: 실제게임공간
1000: virtual reality system 100: motion capture sensor module
110: FBG shape sensor 120: FBG angle sensor
130: FBG torsion sensor 140: light source transceiver
150: connector 160: first data conversion unit
170: first wireless communication unit 180: first tension providing unit
181: elastic member 182: guide member
190: second tension providing unit 191: guide roller
191a: first guide roller 191b: second guide roller
192: elastic rail 192a: first elastic rail
192b: second elastic rail 200: position tracking sensor module
210: first lidar sensor 220: second lidar sensor
230: second data converter 240: second wireless communication unit
300: central processing terminal 400: HMD
10: Real Game Space

Claims (7)

사용자에 신체에 각각 부착되고, FBG(Fiber Bragg Grating) 센서를 통해 관절의 움직임 방향과 굽힘 각도를 각각 측정하여 외부장치로 전송하는 모션캡쳐 센서모듈;
사용자의 실제게임공간 내에 다수 개로 설치되고, 위치추적센서를 통해 상기 모션캡쳐 센서모듈을 부착된 사용자의 위치를 측정하여 외부장치로 전송하는 위치추적 센서모듈;
상기 모션캡쳐 센서모듈을 통해 수신되는 관절모션데이터 및 상기 위치추적 센서모듈을 통해 수신되는 위치측정데이터를 기반으로 가상현실게임영상을 구현하되, 상기 가상현실게임영상 내 아바타의 모션을 제어하는 중앙처리단말; 및
사용자의 신체에 착용되고, 상기 중앙처리단말로부터 상기 가상현실게임영상을 수신하여 출력하는 HMD(Head Mounted Display)를 포함하고,
상기 모션캡쳐 센서모듈은,
사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 형상을 감지하기 위한 적어도 하나의 FBG 형상 센서, 사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 각도를 감지하기 위한 적어도 하나의 FBG 각도 센서, 및 상기 사용자 관절의 움직임에 따른 사용자 관절의 비틀림을 감지하기 위한 적어도 하나의 FBG 비틀림 센서를 포함하는 FBG 센서;
상기 FBG 센서로 각각 광 신호를 송신하고, 상기 FBG 센서로부터 각각 반사되는 광 신호를 수신하는 광원 송수신부;
상기 FBG 센서와 상기 광원 송수신부 사이를 각각 연결하는 커넥터;
상기 광원 송수신부를 통해 수신된 광 신호의 파장을 분석하여 사용자 관절의 형상, 각도, 비틀림에 대한 3차원 좌표 데이터로 변환하는 제1 데이터 변환부;
상기 제1 데이터 변환부를 통해 변환된 3차원 좌표 데이터를 상기 중앙처리단말로 전송하는 제1 무선 통신부; 및
상기 FBG 센서의 일측에 각각 설치되어 사용자의 관절의 움직임과 굽힘으로 인해 장력이 발생되는 경우 상기 FBG 센서에 복원력을 제공하는 탄성 제공부를 포함하고,
상기 탄성 제공부는,
상기 커넥터의 후단부에 연결되는 탄성부재와, 상기 FBG 센서의 이동에 따른 상기 커넥터의 이동 시 상기 커넥터의 이동을 가이드하기 위한 가이드 부재를 포함하는 제1 탄성 제공부; 및
상기 커넥터와 연결되는 상기 FBG 센서의 단부 측에 설치되되, 상기 FBG 센서의 단부를 지그재그 형태로 감아 서로 엇각의 위치에 설치되는 다수의 가이드 롤러와, 상기 가이드 롤러에 각각 연결된 다수의 탄성 레일을 포함하는 제2 탄성 제공부를 적어도 하나를 포함하고,
상기 가이드 롤러의 중심축은 상기 탄성 레일에 각각 고정되고,
상기 가이드 롤러는 상기 FBG 센서의 이동 시 회전하면서 상기 탄성 레일을 따라 이동하는 것을 특징으로 하는 가상현실 게임시스템.
A motion capture sensor module attached to the body to the user and measuring the movement direction and the bending angle of the joint through FBG (Fiber Bragg Grating) sensor, respectively, and transmitting the motion capture sensor module to an external device;
A location tracking sensor module installed in a plurality of real game spaces of the user and measuring the location of the user to which the motion capture sensor module is attached through a location tracking sensor to an external device;
Central processing for implementing a virtual reality game image based on joint motion data received through the motion capture sensor module and position measurement data received through the position tracking sensor module, and controlling the motion of the avatar in the virtual reality game image. Terminal; And
It is worn on the user's body, and includes a head mounted display (HMD) for receiving and outputting the virtual reality game image from the central processing terminal,
The motion capture sensor module,
At least one FBG shape sensor for detecting a shape in which the user joint is bent according to the movement of the user joint, at least one FBG angle sensor for detecting an angle at which the user joint is bent according to the movement of the user joint, and the user joint An FBG sensor including at least one FBG torsion sensor for detecting a torsion of a user joint according to the movement of the;
A light source transceiver for transmitting optical signals to the FBG sensors and receiving optical signals reflected from the FBG sensors, respectively;
A connector connecting the FBG sensor and the light source transceiver;
A first data converter configured to analyze the wavelength of the optical signal received through the light source transceiver and convert the wavelength into three-dimensional coordinate data about a shape, an angle, and a twist of a user joint;
A first wireless communication unit transmitting the 3D coordinate data converted through the first data conversion unit to the central processing terminal; And
It is provided on each side of the FBG sensor and includes an elastic providing unit for providing a restoring force to the FBG sensor when tension is generated due to the movement and bending of the user's joints,
The elastic providing unit,
A first elastic providing part including an elastic member connected to a rear end of the connector and a guide member for guiding the movement of the connector when the connector moves according to the movement of the FBG sensor; And
It is installed on the end side of the FBG sensor connected to the connector, the end of the FBG sensor is wound in a zigzag form and comprises a plurality of guide rollers installed at mutually opposite positions and a plurality of elastic rails respectively connected to the guide rollers At least one second elastic providing part,
The central axis of the guide roller is fixed to the elastic rail, respectively
The guide roller is a virtual reality game system, characterized in that to move along the elastic rail while rotating the movement of the FBG sensor.
삭제delete 제1 항에 있어서,
상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서는 사용자의 손가락과 팔 부분에 부착되어 해당 신체부위에 대한 모션을 추적하고,
사용자의 손가락과 팔 부분을 제외한 다른 신체부위에 대하여, 상기 가상현실 게임시스템은, 적외선 광학식 카메라 추적 및 마커 중 적어도 하나를 더 이용하여
모션캡쳐를 실시하는 것을 특징으로 하는 가상현실 게임시스템.
According to claim 1,
The FBG shape sensor, the FBG angle sensor and the FBG torsion sensor are attached to the user's finger and arm portion to track the motion of the body part,
For other body parts except the user's finger and arm, the virtual reality game system further uses at least one of an infrared optical camera tracking and a marker.
Virtual reality game system, characterized in that the motion capture.
제1 항에 있어서,
상기 탄성 제공부는,
상기 커넥터 측에 설치되고, 사용자 관절의 움직임과 굽힘으로 인해 장력이 발생되는 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서에 복원력을 제공하는 것을 특징으로 하는 가상현실 게임시스템.
According to claim 1,
The elastic providing unit,
The virtual reality game system is installed on the connector side, and provides a restoring force to the FBG shape sensor, the FBG angle sensor and the FBG torsion sensor generated tension due to the movement and bending of the user joint.
제1 항에 있어서,
상기 위치추적 센서모듈은,
상기 실제게임공간의 외곽부에 설치되고, 상기 실제게임공간 내에 이동하는 사용자의 위치를 감지하기 위한 적어도 하나의 제1 위치추적센서;
상기 실제게임공간의 내부에 설치되고, 상기 실제게임공간 내에 이동하는 사용자의 위치를 감지하기 위한 적어도 하나의 제2 위치추적센서;
상기 제1 위치추적센서 및 상기 제2 위치추적센서를 통해 측정된 신호를 3차원 좌표 데이터로 변환하는 제2 데이터 변환부; 및
상기 제2 데이터 변환부를 통해 생성된 3차원 좌표 데이터를 상기 중앙처리단말로 전송하는 제2 무선 통신부를 포함하는 것을 특징으로 하는 가상현실 게임시스템.
According to claim 1,
The position tracking sensor module,
At least one first position tracking sensor installed at an outer portion of the real game space and configured to sense a position of a user moving in the real game space;
At least one second position tracking sensor installed in the real game space and configured to sense a position of a user moving in the real game space;
A second data converter configured to convert signals measured by the first position tracking sensor and the second position tracking sensor into 3D coordinate data; And
And a second wireless communication unit which transmits the 3D coordinate data generated by the second data conversion unit to the central processing terminal.
제5 항에 있어서,
상기 제1 위치추적센서 및 상기 제2 위치추적센서는,
라이다(LiDAR) 센서, 초음파센서, 적외선 광학식 마커 추적센서 및 GPS 센서 중 적어도 하나를 포함하는 것을 특징으로 하는 가상현실 게임시스템.
The method of claim 5,
The first position tracking sensor and the second position tracking sensor,
Virtual reality game system comprising at least one of a LiDAR sensor, an ultrasonic sensor, an infrared optical marker tracking sensor and a GPS sensor.
제1 항에 있어서,
상기 중앙처리단말은 5G 무선통신 영상 스트리밍 방식을 통해 상기 HMD로 상기 가상현실게임영상을 전송하는 것을 특징으로 하는 가상현실 게임시스템.
According to claim 1,
The central processing terminal is a virtual reality game system, characterized in that for transmitting the virtual reality game video to the HMD via 5G wireless communication video streaming.
KR1020180111587A 2018-09-18 2018-09-18 Virtual reality game system using fiber bragg grating sensor and positional tracking sensor KR102032425B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020180111587A KR102032425B1 (en) 2018-09-18 2018-09-18 Virtual reality game system using fiber bragg grating sensor and positional tracking sensor
PCT/KR2019/011581 WO2020060086A1 (en) 2018-09-18 2019-09-06 Virtual reality game system using fiber bragg grating sensor and position tracking sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180111587A KR102032425B1 (en) 2018-09-18 2018-09-18 Virtual reality game system using fiber bragg grating sensor and positional tracking sensor

Publications (1)

Publication Number Publication Date
KR102032425B1 true KR102032425B1 (en) 2019-11-08

Family

ID=68542418

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180111587A KR102032425B1 (en) 2018-09-18 2018-09-18 Virtual reality game system using fiber bragg grating sensor and positional tracking sensor

Country Status (2)

Country Link
KR (1) KR102032425B1 (en)
WO (1) WO2020060086A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102342872B1 (en) * 2020-12-15 2021-12-24 옥재윤 Mutual sympathy system between user and avatar using motion tracking
KR102605282B1 (en) * 2022-08-18 2023-11-23 옥재윤 Virtual reality game system for providing motion and position of player using wearable sensors and lidar sensors

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010042235A (en) * 2008-08-08 2010-02-25 Epionics Medical Gmbh Method and device for detecting parameter for characterization of kinetic sequence at human or animal body
KR101501415B1 (en) 2014-09-22 2015-03-19 서울과학기술대학교 산학협력단 System for monitoring muscular condition using Fiber Bragg Grating sensor
KR20160018436A (en) * 2014-08-08 2016-02-17 그렉 반 쿠렌 Virtual reality system and audition game system using the same
KR20170111221A (en) * 2016-03-25 2017-10-12 가온소프트(주) Location Tracking System of the Patient using LiDAR
KR20170138768A (en) * 2016-06-08 2017-12-18 한국과학기술연구원 Motion capture system using a FBG sensor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9785744B2 (en) * 2010-09-14 2017-10-10 General Electric Company System and method for protocol adherence

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010042235A (en) * 2008-08-08 2010-02-25 Epionics Medical Gmbh Method and device for detecting parameter for characterization of kinetic sequence at human or animal body
KR20160018436A (en) * 2014-08-08 2016-02-17 그렉 반 쿠렌 Virtual reality system and audition game system using the same
KR101501415B1 (en) 2014-09-22 2015-03-19 서울과학기술대학교 산학협력단 System for monitoring muscular condition using Fiber Bragg Grating sensor
KR20170111221A (en) * 2016-03-25 2017-10-12 가온소프트(주) Location Tracking System of the Patient using LiDAR
KR20170138768A (en) * 2016-06-08 2017-12-18 한국과학기술연구원 Motion capture system using a FBG sensor

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102342872B1 (en) * 2020-12-15 2021-12-24 옥재윤 Mutual sympathy system between user and avatar using motion tracking
KR102605282B1 (en) * 2022-08-18 2023-11-23 옥재윤 Virtual reality game system for providing motion and position of player using wearable sensors and lidar sensors

Also Published As

Publication number Publication date
WO2020060086A1 (en) 2020-03-26

Similar Documents

Publication Publication Date Title
US20180245907A1 (en) Apparatus and method for generating 3-d data for an anatomical target using optical fiber shape sensing
US11129553B2 (en) Motion capture system using FBG sensor
KR102032425B1 (en) Virtual reality game system using fiber bragg grating sensor and positional tracking sensor
US10739529B2 (en) Interferometric alignment of optical multicore fibers to be connected
US10642368B2 (en) Body posture detection system, suit and method
CN216167530U (en) Ultrasound imaging system configured to generate three-dimensional ultrasound images of a target region
US7720322B2 (en) Fiber optic shape sensor
CN102822645B (en) Optical fiber and fibre optics sensing
CN104335067A (en) Coordinate measurement system and method
CN106646494A (en) Laser radar system employing emitting and receiving optical path multiplexing structure
JP2013518656A5 (en)
CN103153162A (en) Backloadable optical shape sensing guidewires
KR101972293B1 (en) Touch and pressure sensing systems with different upper layers
JP6259661B2 (en) Optical tracking system
CN106255864A (en) The rough laser scanner of 3D
CN113566857B (en) Human body posture identification method based on optical fiber composite flexible sensor
JP6346852B2 (en) Optical fiber bending shape measuring apparatus and bending shape measuring method thereof
KR20020067588A (en) Method and system for optical distance and angle measurement
CN109323659A (en) A kind of airborne synthetic aperture radar baseline length measurement method and device
WO2017085879A1 (en) Curvature sensor
US20220381630A1 (en) Ultrasound Probe with Pointer Remote Control Capability
KR20170078580A (en) Fyperspectral camera based on Fourier transform
CN111207691A (en) Method for realizing measurement of optical fiber shape
KR102605282B1 (en) Virtual reality game system for providing motion and position of player using wearable sensors and lidar sensors
Fujiwara et al. Optical fiber 3D shape sensor for motion capture

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant