WO2020060086A1 - Virtual reality game system using fiber bragg grating sensor and position tracking sensor - Google Patents

Virtual reality game system using fiber bragg grating sensor and position tracking sensor Download PDF

Info

Publication number
WO2020060086A1
WO2020060086A1 PCT/KR2019/011581 KR2019011581W WO2020060086A1 WO 2020060086 A1 WO2020060086 A1 WO 2020060086A1 KR 2019011581 W KR2019011581 W KR 2019011581W WO 2020060086 A1 WO2020060086 A1 WO 2020060086A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensor
fbg
user
virtual reality
joint
Prior art date
Application number
PCT/KR2019/011581
Other languages
French (fr)
Korean (ko)
Inventor
옥철식
Original Assignee
옥철식
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 옥철식 filed Critical 옥철식
Publication of WO2020060086A1 publication Critical patent/WO2020060086A1/en

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • G02B27/646Imaging systems using optical elements for stabilisation of the lateral and angular position of the image compensating for small deviations, e.g. due to vibration or shake
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/64Imaging systems using optical elements for stabilisation of the lateral and angular position of the image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0149Head-up displays characterised by mechanical features
    • G02B2027/0161Head-up displays characterised by mechanical features characterised by the relative positioning of the constitutive elements

Definitions

  • the FBG sensor can be installed multiple sensors with different wavelengths on one cable at the same time, and multi-flashing is possible. Because the light is a source, noise and distortion do not occur in the signal even if the cable length is long, up to several tens of kilometers It has the advantage of being able to transmit signals without an amplifier. In addition, since it has little effect on electromagnetic waves and is made of glass, it is a sensor with excellent long-term durability because there is little effect of corrosion due to moisture or the like.
  • the position tracking sensor module is installed on the outer portion of the real game space, at least one first position tracking sensor for detecting the user's location moving in the real game space; At least one second position tracking sensor installed inside the real game space and detecting a user's location moving within the real game space; A second data converter configured to convert signals measured through the first lidar sensor and the second lidar sensor into three-dimensional coordinate data; And it may include a second wireless communication unit for transmitting the three-dimensional coordinate data generated by the second data conversion unit to the central processing terminal.
  • FIG. 3 is a block diagram showing the overall configuration of a position tracking sensor module according to an embodiment of the present invention.
  • FIG. 7 is a view showing to explain the configuration concept of the first elastic providing unit according to an embodiment of the present invention.
  • FIG. 9 is a view showing to explain the configuration arrangement and operation of the position tracking sensor module according to an embodiment of the present invention.
  • FIG. 7 is an embodiment of the present invention 8 is a view illustrating a configuration concept of a first elastic providing unit according to an example
  • FIG. 8 is a diagram illustrating a configuration concept of a second elastic providing unit according to an embodiment of the present invention.
  • the virtual reality game system 1000 includes a motion capture sensor module 100, a location tracking sensor module 200, a central processing terminal 300 and a HMD (Head) Mounted Display) (400).
  • a motion capture sensor module 100 includes a motion capture sensor module 100, a location tracking sensor module 200, a central processing terminal 300 and a HMD (Head) Mounted Display) (400).
  • HMD Head) Mounted Display
  • the motion capture sensor module 100 is attached to the user's body, and measures the movement direction and bending angle of the joint through the FBG (Fiber Bragg Grating) sensor, respectively, to perform wireless or wired communication to the central processing terminal 300. Can be transmitted through.
  • the motion capture refers to a technique of recording the movement of the human body in a digital form by attaching a sensor to the user's body or using a camera, and is implemented in the form of a sensor attachment method in this embodiment.
  • the FBG sensor receives a light source through an interrogator and measures the wavelength of light reflected from the sensor.
  • Two types of interrogator may be applied.
  • the wavelength-position conversion type interrogator is a method of dispersing and transmitting the reflected light waves simultaneously to a CCD sensor by using a broadband light source, and has characteristics of limited resolution and SNR ratio.
  • the tunable laser type interrogator uses a filter to generate a sweeping laser, and a single light wave is transmitted and reflected by a sensor, and has a property of providing high resolution.
  • the second elastic providing unit 190 is installed on the end side of the FBG sensors 110, 120, and 130 connected to the connector 150, and the user's joint is bent (when high curvature occurs).
  • the (110, 120, 130) is pulled, by providing elasticity to the FBG sensor (110, 120, 130), it makes the movement of the joint more natural, and when the joint is stretched, the FBG sensor (110, 120, 130) The end of can be quickly returned to the original position.
  • the second data converter 230 may convert the signal measured through the first lidar sensor 210 and the second lidar sensor 220 into three-dimensional coordinate data. However, if necessary, conversion to 2D coordinate data is also possible according to system design specifications.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

The present invention relates to a virtual reality game system, and a technical problem to be solved is to provide a virtual reality game system with improved motion and position tracking performance by using an FBG sensor and a position tracking sensor. For example, disclosed is a virtual reality game system comprising: a motion capture sensor module each attached to a user's body, measuring each of a movement direction and a bending angle of a joint via a fiber Bragg grating (FBG) sensor, and transmitting the measured movement direction and bending angle to an external device; a plurality of position tracking sensor modules installed in an actual game space of the user, measuring a position of the user, to which the motion capture sensor module is attached, via a position tracking sensor, and transmitting the measured position to the external device; a central processing terminal for implementing a virtual reality game image based on joint motion data received from the motion capture sensor module and position measurement data received from the position tracking sensor module, and controlling a motion of an avatar in the virtual reality game image; and a head mounted display (HMD) worn on the user's body, receiving the virtual image from the central processing terminal, and outputting the received virtual image, wherein the motion capture sensor module includes an elasticity providing unit each installed on one side of the FBG sensor to provide a restoring force to the FBG sensor when tension is generated due to movement and bending of the user's joint.

Description

광섬유 브래그 격자 센서 및 위치 추적 센서를 이용한 가상현실 게임시스템Virtual reality game system using fiber Bragg grating sensor and position tracking sensor
본 발명의 실시예는 FBG 센서 및 위치 추적 센서를 이용한 가상현실 게임시스템에 관한 것이다.An embodiment of the present invention relates to a virtual reality game system using an FBG sensor and a location tracking sensor.
현재, 광섬유 센서(Optical Fiber Sensor)를 응응하여 활발한 연구가 진행되고 있으며, 그 중 대표적인 예로는 광섬유 브래그 격자(Fiber Bragg Grating, 이하 FBG라 함) 센서가 있다. Currently, active research is being conducted in response to an optical fiber sensor, and a representative example is an optical fiber Bragg grating (hereinafter referred to as FBG) sensor.
이러한 FBG 센서는 광섬유 레이저 및 필터, 펄스압축 등에 이용되고 있으며, FBG 센서의 장점은 단일 센서를 이용한 측정뿐만 아니라 단일 광섬유 안에 여러 개의 센서를 삽입하여 여러 지점의 물리적 변화량을 측정할 수 있고, 센서에서 반사되어 돌아온 파장을 측정하기가 용이하다는 것이다.These FBG sensors are used in optical fiber lasers, filters, pulse compression, etc.The advantage of FBG sensors is not only the measurement using a single sensor, but also the insertion of multiple sensors in a single optical fiber to measure the amount of physical change at multiple points. It is easy to measure the reflected wavelength.
또한, FBG 센서는 광케이블에 특정파장을 반사시키는 브래그 격자를 생성시켜 인장-압축 또는 온도변화에 따라서 반사되는 파장이 달라지기 때문에, 초기 파장에서 변화된 반사파장의 변화량을 인장-압축으로 환산함으로써 센서로서 활용할 수 있다. In addition, the FBG sensor generates a Bragg grating that reflects a specific wavelength on an optical cable, so that the reflected wavelength varies according to tensile-compression or temperature change, so as to convert the amount of reflected wavelength changed from the initial wavelength into tensile-compression. Can be utilized.
또한, FBG 센서는 하나의 케이블에 파장이 다른 여러 개의 센서를 동시에 설치할 수 있어 멀티플레싱이 가능하고, 빛이 소스이기 때문에 케이블 길이가 길어진다 하더라도 신호에 노이즈 및 왜곡이 발생되지 않으며, 수십 km까지 증폭기 없이 신호를 전달할 수 있는 장점이 있다. 또한, 전자기파에 영향이 거의 없으며, 유리재질이기 때문에 습기 등에 의한 부식의 영향이 거의 없어 장기적인 내구성이 매우 뛰어난 센서이다.In addition, the FBG sensor can be installed multiple sensors with different wavelengths on one cable at the same time, and multi-flashing is possible. Because the light is a source, noise and distortion do not occur in the signal even if the cable length is long, up to several tens of kilometers It has the advantage of being able to transmit signals without an amplifier. In addition, since it has little effect on electromagnetic waves and is made of glass, it is a sensor with excellent long-term durability because there is little effect of corrosion due to moisture or the like.
또한, FBG 센서는 광섬유 코어 안에 주기적인 굴절률을 만들어 구성하며, 외부의 물리적 변화에 의해 FBG 센서에 의해 반사된 광신호의 중심 파장이 물리적 변화량만큼 변화하는데 이러한 점을 이용해, 파장 변화량을 검출함으로써 물리적인 변화량을 계산할 수 있다.In addition, the FBG sensor is constructed by making a periodic refractive index in the optical fiber core, and the center wavelength of the optical signal reflected by the FBG sensor is changed by the physical change by the external physical change. The amount of phosphorus change can be calculated.
본 발명의 실시예는, FBG 센서 및 위치 추적 센서를 이용하여 모션 및 위치 트래킹 성능이 향상된 가상현실 게임시스템을 제공한다.An embodiment of the present invention provides a virtual reality game system with improved motion and location tracking performance using an FBG sensor and a location tracking sensor.
본 발명의 실시예에 따른 가상현실 게임시스템은, 사용자에 신체에 각각 부착되고, FBG(Fiber Bragg Grating) 센서를 통해 관절의 움직임 방향과 굽힘 각도를 각각 측정하여 외부장치로 전송하는 모션캡쳐 센서모듈; 사용자의 실제게임공간 내에 다수 개로 설치되고, 위치추적센서를 통해 상기 모션캡쳐 센서모듈을 부착된 사용자의 위치를 측정하여 외부장치로 전송하는 위치추적 센서모듈; 상기 모션캡쳐 센서모듈을 통해 수신되는 관절모션데이터 및 상기 위치추적 센서모듈을 통해 수신되는 위치측정데이터를 기반으로 가상현실게임영상을 구현하되, 상기 가상현실게임영상 내 아바타의 모션을 제어하는 중앙처리단말; 사용자의 신체에 착용되고, 상기 중앙처리단말로부터 상기 가상영상을 수신하여 출력하는 HMD(Head Mounted Display); 및 상기 모션캡쳐 센서모듈은, 상기 FBG 센서의 일측에 각각 설치되어 사용자의 관절의 움직임과 굽힘으로 인해 장력이 발생되는 경우 상기 FBG 센서에 복원력을 제공하는 탄성 제공부를 포함한다.The virtual reality game system according to an embodiment of the present invention is a motion capture sensor module that is attached to a user's body and measures the motion direction and bending angle of a joint through an FBG (Fiber Bragg Grating) sensor, respectively, and transmits it to an external device. ; A location tracking sensor module installed in the user's actual game space and measuring the location of the user with the motion capture sensor module attached to the external device through a location tracking sensor; Based on the joint motion data received through the motion capture sensor module and the location measurement data received through the location tracking sensor module, a virtual reality game image is implemented, but central processing to control the motion of the avatar in the virtual reality game image Terminal; A head mounted display (HMD) worn on the user's body and receiving and outputting the virtual image from the central processing terminal; And the motion capture sensor module, which is installed on one side of the FBG sensor, and includes an elasticity providing unit that provides resilience to the FBG sensor when tension is generated due to movement and bending of a user's joint.
또한, 상기 모션캡쳐 센서모듈은, 사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 형상을 감지하기 위한 적어도 하나의 FBG 형상 센서; 사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 각도를 감지하기 위한 적어도 하나의 FBG 각도 센서; 상기 사용자 관절의 움직임에 따른 사용자 관절의 비틀림을 감지하기 위한 적어도 하나의 FBG 비틀림 센서; 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서로 각각 광 신호를 송신하고, 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서로부터 반사되는 광 신호를 수신하는 광원 송수신부; 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서와 상기 광원 송수신부 사이를 연결하는 커넥터; 상기 광원 송수신부를 통해 수신된 광 신호의 파장을 분석하여 사용자 관절의 형상, 각도, 비틀림에 대한 3차원 좌표 데이터로 변환하는 제1 데이터 변환부; 및 상기 제1 데이터 변환부를 통해 변환된 3차원 좌표 데이터를 상기 중앙처리단말로 전송하는 제1 무선 통신부를 포함할 수 있다.In addition, the motion capture sensor module, at least one FBG shape sensor for detecting the shape of the user joint bent according to the movement of the user joint; At least one FBG angle sensor for detecting an angle at which the user joint is bent according to the movement of the user joint; At least one FBG twist sensor for detecting twist of the user joint according to the movement of the user joint; A light source transmitting and receiving unit that transmits optical signals to the FBG shape sensor, the FBG angle sensor, and the FBG torsion sensor, and receives optical signals reflected from the FBG shape sensor, the FBG angle sensor, and the FBG twist sensor; A connector for connecting the FBG shape sensor, the FBG angle sensor, and the FBG torsion sensor and the light source transceiver; A first data conversion unit that analyzes the wavelength of the optical signal received through the light source transmission / reception unit and converts the shape, angle, and twist of the user joint into 3D coordinate data; And it may include a first wireless communication unit for transmitting the three-dimensional coordinate data converted through the first data conversion unit to the central processing terminal.
또한, 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서는 사용자의 손가락과 팔 부분에 부착되어 해당 신체부위에 대한 모션을 추적하고, 사용자의 손가락과 팔 부분을 제외한 다른 신체부위에 대하여, 상기 가상현실 게임시스템은, 적외선 광학식 카메라 추적 및 마커 중 적어도 하나를 더 이용하여 모션캡쳐를 실시할 수 있다.In addition, the FBG shape sensor, the FBG angle sensor, and the FBG torsion sensor are attached to the user's finger and arm parts to track motion for the corresponding body part, and for other body parts except the user's finger and arm parts, The virtual reality game system may further perform motion capture using at least one of an infrared optical camera tracking and a marker.
또한, 상기 탄성 제공부는, 상기 커넥터 측에 설치되고, 사용자 관절의 움직임과 굽힘으로 인해 장력이 발생되는 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서에 복원력을 제공할 수 있다.In addition, the elastic providing unit may be provided on the connector side and provide resilience to the FBG shape sensor, the FBG angle sensor, and the FBG torsion sensor where tension is generated due to movement and bending of the user joint.
또한, 상기 위치추적 센서모듈은, 상기 실제게임공간의 외곽부에 설치되고, 상기 실제게임공간 내에 이동하는 사용자의 위치를 감지하기 위한 적어도 하나의 제1 위치추적센서; 상기 실제게임공간의 내부에 설치되고, 상기 실제게임공간 내에 이동하는 사용자의 위치를 감지하기 위한 적어도 하나의 제2 위치추적센서; 상기 제1 라이다 센서 및 상기 제2 라이다 센서를 통해 측정된 신호를 3차원 좌표 데이터로 변환하는 제2 데이터 변환부; 및 상기 제2 데이터 변환부를 통해 생성된 3차원 좌표 데이터를 상기 중앙처리단말로 전송하는 제2 무선 통신부를 포함할 수 있다.In addition, the position tracking sensor module is installed on the outer portion of the real game space, at least one first position tracking sensor for detecting the user's location moving in the real game space; At least one second position tracking sensor installed inside the real game space and detecting a user's location moving within the real game space; A second data converter configured to convert signals measured through the first lidar sensor and the second lidar sensor into three-dimensional coordinate data; And it may include a second wireless communication unit for transmitting the three-dimensional coordinate data generated by the second data conversion unit to the central processing terminal.
또한, 상기 제1 위치추적센서 및 상기 제2 위치추적센서는, 라이다(LiDAR) 센서, 초음파센서, 적외선 광학식 마커 추적센서 및 GPS 센서 중 적어도 하나를 포함할 수 있다.Further, the first position tracking sensor and the second position tracking sensor may include at least one of a LiDAR sensor, an ultrasonic sensor, an infrared optical marker tracking sensor, and a GPS sensor.
또한, 상기 중앙처리단말은 5G 무선통신 영상 스트리밍 방식을 통해 상기 HMD로 상기 가상영상을 전송할 수 있다.In addition, the central processing terminal may transmit the virtual image to the HMD through a 5G wireless communication video streaming method.
본 발명에 따르면, FBG 센서 및 위치 추적 센서를 이용하여 모션 및 위치 트래킹 성능이 향상된 가상현실 게임시스템을 제공할 수 있다. According to the present invention, it is possible to provide a virtual reality game system with improved motion and location tracking performance using an FBG sensor and a location tracking sensor.
도 1은 본 발명의 실시예에 따른 가상현실 게임시스템의 전체 구성을 나타낸 블록도이다.1 is a block diagram showing the overall configuration of a virtual reality game system according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 모션캡쳐 센서모듈의 전체 구성을 나타낸 블록도이다.2 is a block diagram showing the overall configuration of a motion capture sensor module according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 위치추적 센서모듈의 전체 구성을 나타낸 블록도이다.3 is a block diagram showing the overall configuration of a position tracking sensor module according to an embodiment of the present invention.
도 4는 본 발명의 실시예에 따른 모션 캡쳐 센서모듈의 착용 예시를 나타낸 도면이다.4 is a view showing an example of wearing a motion capture sensor module according to an embodiment of the present invention.
도 5는 본 발명의 실시예에 따른 HMD 상에 표시되는 아바타를 포함하는 가상현실 게임영상을 나타낸 도면이다.5 is a diagram showing a virtual reality game image including an avatar displayed on an HMD according to an embodiment of the present invention.
도 6은 본 발명의 실시예에 따른 FBG 센서의 종류와 구성을 설명하기 위해 나타낸 도면이다.6 is a view showing to explain the type and configuration of the FBG sensor according to an embodiment of the present invention.
도 7은 본 발명의 실시예에 따른 제1 탄성 제공부의 구성 개념을 설명하기 위해 나타낸 도면이다.7 is a view showing to explain the configuration concept of the first elastic providing unit according to an embodiment of the present invention.
도 8은 본 발명의 실시예에 따른 제2 탄성 제공부의 구성 개념을 설명하기 위해 나타낸 도면이다.8 is a view showing to explain the configuration concept of the second elastic providing unit according to an embodiment of the present invention.
도 9는 본 발명의 실시예에 따른 위치추적 센서모듈의 구성 배치와 동작을 설명하기 위해 나타낸 도면이다.9 is a view showing to explain the configuration arrangement and operation of the position tracking sensor module according to an embodiment of the present invention.
본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.Terms used in the present specification will be briefly described, and the present invention will be described in detail.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terminology used in the present invention was selected from the general terms that are currently widely used while considering the functions in the present invention, but this may vary according to the intention or precedent of a person skilled in the art or the appearance of new technologies. In addition, in certain cases, some terms are arbitrarily selected by the applicant, and in this case, their meanings will be described in detail in the description of the applicable invention. Therefore, the terms used in the present invention should be defined based on the meanings of the terms and the contents of the present invention, not simply the names of the terms.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a certain part of the specification "includes" a certain component, this means that other components may be further included instead of excluding other components unless specifically stated otherwise. In addition, terms such as “... unit” and “module” described in the specification mean a unit that processes at least one function or operation, which may be implemented in hardware or software, or a combination of hardware and software. .
아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art to which the present invention pertains may easily practice. However, the present invention can be implemented in many different forms and is not limited to the embodiments described herein. In addition, in order to clearly describe the present invention in the drawings, parts irrelevant to the description are omitted, and like reference numerals are assigned to similar parts throughout the specification.
도 1은 본 발명의 실시예에 따른 가상현실 게임시스템의 전체 구성을 나타낸 블록도이고, 도 2는 본 발명의 실시예에 따른 모션캡쳐 센서모듈의 전체 구성을 나타낸 블록도이고, 도 3은 본 발명의 실시예에 따른 위치추적 센서모듈의 전체 구성을 나타낸 블록도이고, 도 4는 본 발명의 실시예에 따른 모션 캡쳐 센서모듈의 착용 예시를 나타낸 도면이고, 도 5는 본 발명의 실시예에 따른 HMD 상에 표시되는 아바타를 포함하는 가상현실 게임영상을 나타낸 도면이고, 도 6은 본 발명의 실시예에 따른 FBG 센서의 종류와 구성을 설명하기 위해 나타낸 도면이고, 도 7은 본 발명의 실시예에 따른 제1 탄성 제공부의 구성 개념을 설명하기 위해 나타낸 도면이고, 도 8은 본 발명의 실시예에 따른 제2 탄성 제공부의 구성 개념을 설명하기 위해 나타낸 도면이며, 도 9는 본 발명의 실시예에 따른 위치추적 센서모듈의 구성 배치와 동작을 설명하기 위해 나타낸 도면이다.1 is a block diagram showing the overall configuration of a virtual reality game system according to an embodiment of the present invention, FIG. 2 is a block diagram showing the overall configuration of a motion capture sensor module according to an embodiment of the present invention, and FIG. FIG. 4 is a block diagram showing the overall configuration of a position tracking sensor module according to an embodiment of the present invention, and FIG. 4 is a diagram showing an example of wearing a motion capture sensor module according to an embodiment of the present invention, and FIG. FIG. 6 is a view showing a virtual reality game image including an avatar displayed on an HMD, and FIG. 6 is a view illustrating a type and configuration of an FBG sensor according to an embodiment of the present invention, and FIG. 7 is an embodiment of the present invention 8 is a view illustrating a configuration concept of a first elastic providing unit according to an example, and FIG. 8 is a diagram illustrating a configuration concept of a second elastic providing unit according to an embodiment of the present invention. A diagram for the explanation of the construction and operation of the arrangement position tracking sensor module according to an embodiment of the invention.
도 1 내지 도 9를 참조하면, 본 발명의 실시예에 따른 가상현실 게임시스템(1000)은 모션캡쳐 센서모듈(100), 위치추적 센서모듈(200), 중앙처리단말(300) 및 HMD(Head Mounted Display)(400) 중 적어도 하나를 포함할 수 있다.1 to 9, the virtual reality game system 1000 according to an embodiment of the present invention includes a motion capture sensor module 100, a location tracking sensor module 200, a central processing terminal 300 and a HMD (Head) Mounted Display) (400).
상기 모션캡쳐 센서모듈(100)은, 사용자에 신체에 각각 부착되고, FBG(Fiber Bragg Grating) 센서를 통해 관절의 움직임 방향과 굽힘 각도를 각각 측정하여 중앙처리단말(300)로 무선 또는 유선 통신을 통해 전송할 수 있다. 이러한 모션캡쳐(Motion Capture)는 사용자의 몸에 센서를 부착하거나 카메라를 이용하는 등의 방법으로 인체의 움직임을 디지털 형태로 기록하는 기술을 의미하는 것으로, 본 실시예에서는 센서 부착 방식의 형태로 구현되며, 이를 위해 모션캡쳐 센서모듈(100)은 기본적으로 슈트 형태로 제작될 수 있으며, 이러한 구성은 생략 가능하며, FBG 형상 센서(110), FBG 각도 센서(120), FBG 비틀림 센서(130), 광원 송수신부(140), 커넥터(150), 제1 데이터 변환부(160), 제1 무선 통신부(170) 및 제1 탄성 제공부(180)를 포함할 수 있으며, 제1 탄성 제공부(180)를 대체하여 제2 탄성 제공부(180)가 포함될 수 있으며, 이러한 제1 및 제2 탄성 제공부(180, 190)는 함께 구현되어도 무방하다.The motion capture sensor module 100 is attached to the user's body, and measures the movement direction and bending angle of the joint through the FBG (Fiber Bragg Grating) sensor, respectively, to perform wireless or wired communication to the central processing terminal 300. Can be transmitted through. The motion capture refers to a technique of recording the movement of the human body in a digital form by attaching a sensor to the user's body or using a camera, and is implemented in the form of a sensor attachment method in this embodiment. For this, the motion capture sensor module 100 may be basically manufactured in a suit form, and such a configuration may be omitted, and the FBG shape sensor 110, the FBG angle sensor 120, the FBG torsion sensor 130, and the light source Transceiver 140, the connector 150, the first data conversion unit 160, may include a first wireless communication unit 170 and the first elastic providing unit 180, the first elastic providing unit 180 In the alternative, the second elastic providing unit 180 may be included, and the first and second elastic providing units 180 and 190 may be implemented together.
본 실시예에서 적용되는 FBG(Fiber Bragg Grating)라 불리는 광섬유 브래그 격자는 광 섬유의 코어(core)에 굴절률(refractive index)이 다른 격자(Grating)을 일정한 간격으로 배치된 구조를 가지며, 이러한 굴절률(refractive index) 차이에 의해 빛이 반사하는 현상을 이용하는 것이다. 좀 더 구체적으로는, 격자(Grating)의 간격에 따라 특정 파장의 빛만 반사되어 들어오는데, 외부의 힘, 온도 변화에 의해 격자(Grating)의 간격이 변하면서 파장이 변화(shifting)하게 된다. 하나의 광섬유에는 여러 개의 FBG를 새길 수 있으며, 하나의 광섬유로 여러 가지의 센서 제작이 가능하며 동일 센서를 분산시켜 여러 지역을 동시에 측정할 수도 있다.An optical fiber Bragg grating called FBG (Fiber Bragg Grating) applied in this embodiment has a structure in which a grating having a different refractive index is disposed at regular intervals at a core of an optical fiber, and this refractive index ( It is to use the phenomenon that light reflects due to the difference in refractive index. More specifically, only light of a specific wavelength is reflected according to the interval of the grating, and the wavelength of the grating changes as the interval of the grating changes due to external force and temperature change. Multiple FBGs can be engraved on a single fiber, and multiple sensors can be manufactured with a single fiber, and multiple regions can be measured simultaneously by dispersing the same sensor.
또한, FBG 센서는 인테로게이터(Interrogator)를 통하여 광원을 전달 받고, 해당 센서에서 반사되는 빛의 파장의 측정하게 되는데, 2가지 방식의 인테로게이터가 적용될 수 있다. 첫 번째, 파장-위치 변환 방식의 인테로게이터는, 광대역의 광원을 이용하여 동시에 전달되어 반사되는 광파를 분산하여 CCD 센서에 전달하는 방식으로, 제한된 분해능과 SNR 비율의 특징을 갖는다. 두 번째, Tunable 레이저 방식의 인테로게이터는 필터를 이용하여 스위핑 레이저를 생성하고, 단일 광파가 센서에 전달 및 반사되는 것을 이용하는 것으로, 높은 분해능을 제공하는 특성이 있다.In addition, the FBG sensor receives a light source through an interrogator and measures the wavelength of light reflected from the sensor. Two types of interrogator may be applied. First, the wavelength-position conversion type interrogator is a method of dispersing and transmitting the reflected light waves simultaneously to a CCD sensor by using a broadband light source, and has characteristics of limited resolution and SNR ratio. Second, the tunable laser type interrogator uses a filter to generate a sweeping laser, and a single light wave is transmitted and reflected by a sensor, and has a property of providing high resolution.
상기 FBG 형상 센서(110)는 사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 방향과 함께 그 형상을 감지하기 위한 FBG 센서로, 도 6의 (a)에 도시된 바와 같이, 3가닥의 광섬유를 120도 간격으로 평행하게 배치하여 제작될 수 있다. 이러한, FBG 형상 센서(110)를 통해 피크 디텍션(peak detection, 스트레인 컨버전(strain conversion), 형상 복원(shape reconstruction)의 프로세스를 거쳐 사용자 관절의 움직임에 따른 신체 일부의 형상과 위치 측정이 가능하다.The FBG shape sensor 110 is an FBG sensor for detecting the shape of the user joint along with the bending direction of the user joint according to the movement of the user joint, as shown in FIG. It can be produced by arranging in parallel at even intervals. Through the FBG shape sensor 110, the shape and position of a part of the body according to the movement of a user joint may be measured through a process of peak detection, strain conversion, and shape reconstruction.
상기 FBG 각도 센서(120)는 사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 각도를 감지하기 위한 센서로 도 6의 (b)에 도시된 바와 같이, 에폭시(Epoxy) 한 가닥에 하나의 광섬유를 배치하여 제작될 수 있다. The FBG angle sensor 120 is a sensor for detecting the angle at which the user's joint is bent according to the movement of the user's joint, as shown in FIG. 6 (b), placing one optical fiber on one strand of epoxy Can be produced.
상기 FBG 비틀림 센서(130)는 사용자 관절의 움직임에 따른 사용자 관절의 비틀림을 감지하기 위한 FBG 센서로 FBG 형상 센서(110)과 동일한 형태로 제작될 수 있다.The FBG twist sensor 130 is an FBG sensor for detecting twist of the user joint according to the movement of the user joint, and may be manufactured in the same form as the FBG shape sensor 110.
이와 같이 본 실시예의 FBG 센서는 형상, 각도, 비틀림 센서의 조합으로 이루어질 수 있으며, 신체 부위에 따라 다양한 조합으로 설계될 수 있으며, 필요에 따라 3개의 FBG 센서 중 적어도 하나가 생략된 형태로의 구현도 가능하다. 또한, 이러한 FBG 센서는 상술한 바와 같이 슈트와 함께 구현되어 사용자의 신체에 부착될 수 있다. As described above, the FBG sensor of the present embodiment may be formed of a combination of a shape, an angle, and a torsion sensor, and may be designed in various combinations according to body parts. If necessary, at least one of the three FBG sensors may be omitted. It is also possible. In addition, the FBG sensor may be implemented with a suit as described above and attached to the user's body.
한편, 기존의 사용자 모션 센서로서 IMU 센서를 이용하였는데, 이러한 IMU 센서는 자기장에 의한 장애가 일어나 센싱 오류가 빈번히 발생되었으나, 본 실시예에서는 FBG 센서(110, 120, 130)를 적용하여 손가락 관절의 움직임까지 디테일한 모션 트래킹이 가능할 뿐만 아니라, 높은 내구성으로 인해 장기간 사용(약 8,000회 구부러짐)에도 성능 저하가 거의 없다는 장점이 있다.On the other hand, as an existing user motion sensor, an IMU sensor is used, and the IMU sensor frequently experiences a sensing error due to a magnetic field failure, but in this embodiment, the FBG sensor 110, 120, 130 is applied to move the finger joint. Not only is it possible to track motion in detail, but it also has the advantage that there is little performance degradation even for long-term use (about 8,000 bends) due to its high durability.
상기 광원 송수신부(140)는 FBG 형상 센서(110), FBG 각도 센서(120) 및 FBG 비틀림 센서(130)로 각각 특정 주파수 대역의 광 신호를 송신하고, FBG 형상 센서(110), FBG 각도 센서(120) 및 FBG 비틀림 센서(130)로부터 반사되는 광 신호를 수신함으로써 반사 광파를 측정할 수 있다. 이러한 광원 송수신부(140)는 FBG 인테로게이터(Interrogator)일 수 있다. 본 실시예의 FBG 인테로게이터(Interrogator)는 상술한 바와 같이 파장-위치 변환 방식과 Tunable 레이저 방식 중 적어도 하나가 적용되어 구현될 수 있으며, 신체에 부착 위치에 따라 각자의 특성에 적합한 방식의 인테로게이터가 적용될 수 있다.The light source transceiving unit 140 transmits optical signals of a specific frequency band to the FBG shape sensor 110, the FBG angle sensor 120, and the FBG torsion sensor 130, respectively, and the FBG shape sensor 110 and the FBG angle sensor The reflected light wave may be measured by receiving the light signal reflected from the 120 and the FBG torsion sensor 130. The light source transmitting and receiving unit 140 may be an FBG interrogator. As described above, the FBG interrogator of this embodiment may be implemented by applying at least one of a wavelength-position conversion method and a tunable laser method, and an interro of a method suitable for each characteristic according to a position attached to the body Gator can be applied.
상기 커넥터(150)는 FBG 형상 센서(110), FBG 각도 센서(120) 및 FBG 비틀림 센서(130)와, 광원 송수신부(140) 간을 연결할 수 있다. The connector 150 may connect the FBG shape sensor 110, the FBG angle sensor 120 and the FBG twist sensor 130, and the light source transceiver 140.
상기 제1 데이터 변환부(160)는 광원 송수신부(140)를 통해 수신된 광 신호의 파장을 분석 즉, 측정된 스트레인 값을 기초로 이를 관절 좌표계 변환을 통해 사용자 관절의 형상(방향 포함), 각도, 비틀림에 대한 3차원 좌표 데이터를 생성할 수 있다. The first data converter 160 analyzes the wavelength of the optical signal received through the light source transceiving unit 140, that is, based on the measured strain value, converts it into a joint coordinate system (including direction) of the user joint, Three-dimensional coordinate data for angle and torsion can be generated.
상기 제1 무선 통신부(170)는 제1 데이터 변환부(160)를 통해 변환된 3차원 좌표 데이터를 중앙처리단말(300)로 와이파이 등의 무선통신을 통해 전송할 수 있다. The first wireless communication unit 170 may transmit the 3D coordinate data converted through the first data conversion unit 160 to the central processing terminal 300 through wireless communication such as Wi-Fi.
한편, 본 실시예의 모션캡쳐 센서모듈(100)은 탄성 제공부를 더 포함할 수 있는데, 이러한 탄성 제공부는 커넥터(150) 측에 설치되고, 사용자 관절의 움직임과 굽힘으로 인해 장력이 발생되는 FBG 형상 센서(110), FBG 각도 센서(120) 및 FBG 비틀림 센서(130)에 복원력을 제공하도록 이루어질 수 있다. 이러한 탄성 제공부는 실시예에 따라 제1 탄성 제공부(180)와 제2 탄성 제공부(190)을 포함할 수 있다.On the other hand, the motion capture sensor module 100 of the present embodiment may further include an elastic providing portion, the elastic providing portion is installed on the connector 150 side, FBG shape sensor that generates tension due to movement and bending of the user joint 110, the FBG angle sensor 120 and the FBG torsion sensor 130 may be configured to provide resilience. The elastic providing part may include a first elastic providing part 180 and a second elastic providing part 190 according to an embodiment.
상기 제1 탄성 제공부(180)는, 커넥터(150) 측에 직접 연결되어, 사용자 관절이 굽혀짐(고곡률이 일어나는 경우)에 따라 FBG 센서(110, 120, 130)가 잡아 당겨지는 경우 FBG 센서(110, 120, 130)에 탄성을 제공함으로써, 관절의 움직임을 보다 자연스럽게 해주며, 관절의 펴지는 경우 FBG 센서(110, 120, 130)의 단부 위치가 원위치로 재빨리 복귀되도록 할 수 있다.The first elastic providing unit 180 is directly connected to the connector 150 side, and when the user joint is bent (when high curvature occurs), the FBG sensors 110, 120, and 130 are pulled when the FBG By providing elasticity to the sensors 110, 120, 130, the movement of the joint is made more natural, and when the joint is stretched, the end positions of the FBG sensors 110, 120, 130 can be quickly returned to the original position.
예를 들어, 도 7에 도시된 바와 같이, 제1 탄성 제공부(180)는 커넥터(150) 후단부에 연결되는 탄성부재(181)(스프링, 고무줄 등)와 가이드 부재(182)를 포함할 수 있다. 이러한 제1 탄성 제공부(180)는 FBG 센서(110, 120, 130)가 잡아당겨지게 되면, 도 7의 (b)에 도시된 바와 같이 커넥터(150)가 가이드 부재(182)를 따라 전진하게 되며, 커넥터(150)가 멈춰진 지점에서는 탄성부재(181)에 의한 복원력이 작용하게 되고, 이후, FBG 센서(110, 120, 130)에 잡아당겨지는 힘 즉 장력이 제거되면 도 7의 (c)에 도시된 바와 같이 커넥터(150)는 탄성부재(181)에 의해 가이드 부재(182)를 따라 원위치로 복귀하게 된다.For example, as shown in FIG. 7, the first elastic providing unit 180 includes an elastic member 181 (spring, rubber band, etc.) and a guide member 182 connected to the rear end of the connector 150. You can. When the FBG sensors 110, 120, and 130 are pulled from the first elastic providing unit 180, the connector 150 moves forward along the guide member 182, as shown in FIG. 7 (b). When the connector 150 is stopped, the restoring force by the elastic member 181 acts, and then, when the force pulled by the FBG sensors 110, 120, 130, that is, the tension is removed, FIG. 7 (c) As shown in the connector 150 is returned to the original position along the guide member 182 by the elastic member 181.
상기 제2 탄성 제공부(190)는, 커넥터(150)와 연결되는 FBG 센서(110, 120, 130)의 단부 측에 설치되어, 사용자 관절이 굽혀짐(고곡률이 일어나는 경우)에 따라 FBG 센서(110, 120, 130)가 잡아 당겨지는 경우 FBG 센서(110, 120, 130)에 탄성을 제공함으로써, 관절의 움직임을 보다 자연스럽게 해주며, 관절의 펴지는 경우 FBG 센서(110, 120, 130)의 단부가 원위치로 재빨리 복귀되도록 할 수 있다.The second elastic providing unit 190 is installed on the end side of the FBG sensors 110, 120, and 130 connected to the connector 150, and the user's joint is bent (when high curvature occurs). When the (110, 120, 130) is pulled, by providing elasticity to the FBG sensor (110, 120, 130), it makes the movement of the joint more natural, and when the joint is stretched, the FBG sensor (110, 120, 130) The end of can be quickly returned to the original position.
이와 같은 제2 탄성 제공부(190)는 커넥터(150)과 연결되는 FBG 센서(110, 120, 130)의 단부 측에 설치된 구성으로, 가이드 롤러(191)와 탄성 레일(192)을 포함할 수 있다. The second elastic providing unit 190 is configured to be installed on the end side of the FBG sensors 110, 120, and 130 connected to the connector 150, and may include a guide roller 191 and an elastic rail 192. have.
상기 가이드 롤러(191)는 제1 가이드 롤러(191a)와 제2 가이드 롤러(191b)를 포함할 수 있으나, 본 실시예에서는 이해를 돕기 위해 2개의 가이드 롤러를 예시한 것이며, 2개 이상의 가이드 롤러가 적용되어도 무방하다. 이러한 제1 가이드 롤러(191a)와 제2 가이드 롤러(191b)는 도 8에 도시된 바와 같이 엇각의 위치에 설치되고, FBG 센서(110, 120, 130)의 단부 측 라인이 지그재그 형태로 감길수 있다. The guide roller 191 may include a first guide roller 191a and a second guide roller 191b, but in this embodiment, two guide rollers are illustrated to help understanding, and two or more guide rollers are provided. May be applied. The first guide roller 191a and the second guide roller 191b are installed at opposite positions as shown in FIG. 8, and the end side lines of the FBG sensors 110, 120, 130 can be wound in a zigzag form. have.
상기 탄성 레일(192)은 제1 가이드 롤러(1912a)의 하부에 연결되는 제1 탄성 레일(192a)과 제2 가이드 롤러(191b)의 하부에 연결되는 제2 탄성 레일(192b)을 포함할 수 있다. 제1 탄성 레일(192a)과 제2 탄성 레일(192b)의 개수는 가이드 롤러(191)의 개수에 따라 적정한 개수로 설치될 수 있다. 여기서, 가이드 롤러(191)의 중심축이 탄성 레일(192) 상부 중 끝부분에 고정되고, 가이드 롤러(191)의 각 외주연이 FBG 센서(110, 120, 130)가 이동할 수 있도록 회전 가능하게 구성될 수 있다. 이러한 탄성 레일(192)의 각 단부에는 탄성부재가 구성되어 탄성 레일(192)의 이동에 따른 탄성력과 복원력을 제공할 수 있다.The elastic rail 192 may include a first elastic rail 192a connected to a lower portion of the first guide roller 1912a and a second elastic rail 192b connected to a lower portion of the second guide roller 191b. have. The number of the first elastic rail 192a and the second elastic rail 192b may be installed in an appropriate number according to the number of guide rollers 191. Here, the central axis of the guide roller 191 is fixed to the end of the upper portion of the elastic rail 192, each outer periphery of the guide roller 191 is rotatable so that the FBG sensor (110, 120, 130) can move Can be configured. An elastic member is formed at each end of the elastic rail 192 to provide elastic force and restoring force according to the movement of the elastic rail 192.
상술한 FBG 센서뿐만 아니라 이와 함께 광원 송수신부(140), 커넥터(150), 제1 데이터 변환부(160), 제1 무선 통신부(170), 제1 탄성 제공부(180) 및 제2 탄성 제공부(180)과 함께 모듈로서 구현될 수 있다. In addition to the above-described FBG sensor, the light source transmitting and receiving unit 140, the connector 150, the first data conversion unit 160, the first wireless communication unit 170, the first elastic providing unit 180 and the second elastic agent It may be implemented as a module with the study (180).
한편, 상술한 FBG 형상 센서(110), FBG 각도 센서(120) 및 FBG 비틀림 센서(130)는 사용자의 손가락과 팔 부분에 부착 및 적용되어 해당 신체부위에 대한 모션 추적을 위해 이용될 수 있으며, 그 이외의 신체부위에 대한 모션캡쳐를 위해서는 적외선 광학식 카메라 추적(관절인식용 카메라 추적 방식)과 신체부착 마커(바이브 모션 트래커)를 혼합적으로 적용할 수 있다.Meanwhile, the above-described FBG shape sensor 110, FBG angle sensor 120, and FBG torsion sensor 130 may be attached and applied to a user's finger and arm parts to be used for motion tracking for a corresponding body part, For the motion capture of other parts of the body, infrared optical camera tracking (joint tracking camera for joint recognition) and body attachment markers (vibe motion tracker) can be mixed.
상기 위치추적 센서모듈(200)은, 사용자의 실제게임공간(10) 내에 다수 개로 설치되고, 라이다(LiDAR) 센서를 통해 상기 모션캡쳐 센서모듈을 부착된 사용자의 위치를 측정하여 중앙처리단말(300)로 전송할 수 있다. 이를 위해, 위치추적 센서모듈(200)은 제1 라이다 센서(210), 제2 라이다 센서(220), 제2 데이터 변환부(230) 및 제2 무선 통신부(240) 중 적어도 하나를 포함할 수 있다.The location tracking sensor module 200 is installed in a plurality of users in the actual game space 10, and measures the location of the user to which the motion capture sensor module is attached through a LiDAR sensor to perform a central processing terminal ( 300). To this end, the position tracking sensor module 200 includes at least one of the first lidar sensor 210, the second lidar sensor 220, the second data conversion unit 230, and the second wireless communication unit 240. can do.
상기 제1 라이다 센서(210)는 도 9에 도시된 바와 같이, 실제게임공간(10)의 외곽부에 설치되고, 실제게임공간(10) 내에 이동하는 사용자의 위치를 감지할 수 있으며, 다수 개로 이루어질 수 있다.The first lidar sensor 210 is installed on the outer portion of the real game space 10, as shown in Figure 9, it is possible to detect the location of the user moving in the real game space 10, a number Can consist of dogs.
상기 제2 라이다 센서(220)는 도 9에 도시된 바와 같이, 실제게임공간(10)의 내부에 설치되고, 실제게임공간(10) 내에 이동하는 사용자의 위치를 감지할 수 있으며, 다수 개로 이루어질 수 있다. As illustrated in FIG. 9, the second lidar sensor 220 is installed inside the real game space 10 and can detect the location of a user moving in the real game space 10, and a plurality of It can be done.
이러한 제1 라이다 센서(210)와 제2 라이다 센서(220)는 레이저 펄스를 발사하고, 그 빛이 주위의 대상 물체에서 반사되어 돌아오는 것을 받아 물체까지의 거리 등을 측정함으로써 주변의 모습을 정밀하게 그려내는 장치로, 360도 회전할 수 있다.. The first lidar sensor 210 and the second lidar sensor 220 emit a laser pulse and receive the light reflected from the surrounding object and return, thereby measuring a distance to the object and the like. It is a device that accurately draws and can rotate 360 degrees.
기존의 가상현실 게임시스템에서 사용자의 위치를 추적하기 위한 장치의 경우, 초음하, 삼각측정, GPS 등의 기술을 이용하였으나 큰 오차를 가지며, 특히 도 9를 참조하면, 제1 라이다 센서(210)가 사용자 1은 인식할 수 있으나, 사용자 1과 동일선 상에서 있으며, 사용자 1 뒤에 위치한 사용자 2의 경우 사용자 1에 의해 정확한 트래킹이 어려웠다. In the existing virtual reality game system, a device for tracking a user's location uses technologies such as subsonic, triangulation, and GPS, but has a large error. In particular, referring to FIG. 9, the first lidar sensor 210 ) User 1 can be recognized, but it is on the same line as User 1, and in the case of User 2 located behind User 1, accurate tracking was difficult by User 1.
이와 같이 기존의 위치 트래킹에 대한 오차를 줄이고 추적 성능을 높이기 위하여, 본 실시예에는 실제게임공간(10)의 외곽부와 내부에 각각 라이다 센서를 설치하여 기존과 같은 트래킹 사각지대를 최소화하였다. 이에 따라, 도 9에 도시된 바와 같이 제1 라이다 센서(210)가 사용자 1만 인식하고 그 뒤에 위치한 사용자 2가 인식되지 못하더라도 실제게임공간(10)의 내부에 위치한 제2 라이다 센서(220)에 의해 인식함에 따라 실제게임공간(10) 내 트래킹 사각지대를 최대한 줄일 수 있다.As described above, in order to reduce the error for the existing location tracking and increase the tracking performance, in this embodiment, the lidar sensors are respectively installed in the outer part and the inside of the actual game space 10 to minimize the existing blind spot for tracking. Accordingly, as illustrated in FIG. 9, even if the first lidar sensor 210 recognizes only the user 1 and the user 2 located thereafter is not recognized, the second lidar sensor located inside the actual game space 10 ( 220), the tracking blind spot in the real game space 10 can be reduced as much as possible.
한편, 이상에서는 라이다 센서만으로 사용자의 위치 추적을 실시하는 것으로 설명하였으나, 이 뿐만 아니라, 초음파센서를 이용한 삼각측위기법과 GPS 센서를 이용한 삼각측위기법 중 적어도 하나를 추가 적용하여 실시하는 것도 가능하다.On the other hand, in the above, it has been described that the user's position is tracked using only the lidar sensor, but it is also possible to additionally apply at least one of a triangulation method using an ultrasonic sensor and a triangulation method using a GPS sensor. .
상기 제2 데이터 변환부(230)는 제1 라이다 센서(210)와 제2 라이다 센서(220)를 통해 측정된 신호를 3차원 좌표 데이터로 변환할 수 있다. 다만, 필요에 따라 시스템 설계 사양에 따라 2차원 좌표 데이터로의 변환도 가능하다. The second data converter 230 may convert the signal measured through the first lidar sensor 210 and the second lidar sensor 220 into three-dimensional coordinate data. However, if necessary, conversion to 2D coordinate data is also possible according to system design specifications.
상기 제2 무선 통신부(240)는 제2 데이터 변환부(230)를 통해 생성된 3차원 좌표 데이터를 와이파이 등과 같은 무선통신을 통해 중앙처리단말로 전송할 수 있다. The second wireless communication unit 240 may transmit the 3D coordinate data generated through the second data conversion unit 230 to a central processing terminal through wireless communication such as Wi-Fi.
상기 중앙처리단말(300)는, 모션캡쳐 센서모듈(100)을 통해 수신되는 관절모션데이터와, 위치추적 센서모듈(200)을 통해 수신되는 위치측정데이터를 기반으로 가상현실게임영상을 구현하며 가상현실게임영상 내 아바타의 모션을 제어할 수 있다. 이러한 중앙처리단말(300)은 기본적인 3차원 가상현실게임영상과 콘텐츠를 제공하며, 도시되지 않았으나, 사용자의 게임 실행과 진행에 필요한 컨트롤러(모의 총기 등)와 연동하여 해당 컨트롤러로부터 발생되는 신호를 수신해 가상현실게임영상과 게임프로세스에 반영하여 게임을 진행하고 전반적인 제어를 수행할 수 있다. 이러한 중앙처리단말(300)은 5G 무선통신 영상 스트리밍 기술을 이용하여 HMD(400)로 가상영상데이터를 실시간 무선 또는 유선으로 전송할 수 있다. The central processing terminal 300 implements a virtual reality game image based on the joint motion data received through the motion capture sensor module 100 and the position measurement data received through the position tracking sensor module 200 and performs virtualization. You can control the motion of the avatar in the reality game video. The central processing terminal 300 provides basic 3D virtual reality game images and contents, and although not shown, receives signals generated from the controller in connection with a controller (simulated firearm, etc.) necessary for the user's game execution and progress. The game can be reflected in the virtual reality game video and game process, and overall control can be performed. The central processing terminal 300 may transmit virtual image data to the HMD 400 in real-time wireless or wired by using 5G wireless communication image streaming technology.
상기 HMD(Head Mounted Display)(400)는 사용자의 두부에 착용되고, 중앙처리단말(300)로부터 가상영상을 수신하여 출력할 수 있다. 이러한 HMD는 사용자 두부에 착용되면 양쪽 눈의 근접한 위치에 소형 디스플레이가 있어 시차를 이용한 삼차원(3D) 영상이 투영되며, 사용자의 움직임을 트래킹하는 자이로 센서, 움직임에 따라 영상을 만드는 렌더링 기능 등으로 3D 공간에 있는 것 같은 가상 현실(VR) 또는 증강 현실(AR)을 실감할 수 있도록 한다. The HMD (Head Mounted Display) 400 may be worn on the user's head and receive and output a virtual image from the central processing terminal 300. When worn on the user's head, the HMD has a small display near the eyes of both eyes to project a three-dimensional (3D) image using parallax, a gyro sensor that tracks the user's movement, and a 3D rendering function that creates the image according to the movement. It allows you to realize virtual reality (VR) or augmented reality (AR) as if you are in space.
이상에서 설명한 것은 본 발명에 의한 FBG 센서 및 라이다 센서를 이용한 가상현실 게임시스템을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.What has been described above is only one embodiment for implementing the virtual reality game system using the FBG sensor and the lidar sensor according to the present invention, the present invention is not limited to the above embodiment, and is claimed in the following claims As described above, any person having ordinary knowledge in the field to which the present invention belongs, without departing from the gist of the present invention, will have the technical spirit of the present invention to the extent that various changes can be implemented.

Claims (7)

  1. 사용자에 신체에 각각 부착되고, FBG(Fiber Bragg Grating) 센서를 통해 관절의 움직임 방향과 굽힘 각도를 각각 측정하여 외부장치로 전송하는 모션캡쳐 센서모듈;A motion capture sensor module that is attached to the user's body and measures the motion direction and bending angle of the joint through an FBG (Fiber Bragg Grating) sensor, and transmits it to an external device;
    사용자의 실제게임공간 내에 다수 개로 설치되고, 위치추적센서를 통해 상기 모션캡쳐 센서모듈을 부착된 사용자의 위치를 측정하여 외부장치로 전송하는 위치추적 센서모듈;A location tracking sensor module installed in the user's actual game space and measuring the location of the user with the motion capture sensor module attached to the external device through a location tracking sensor;
    상기 모션캡쳐 센서모듈을 통해 수신되는 관절모션데이터 및 상기 위치추적 센서모듈을 통해 수신되는 위치측정데이터를 기반으로 가상현실게임영상을 구현하되, 상기 가상현실게임영상 내 아바타의 모션을 제어하는 중앙처리단말; Based on the joint motion data received through the motion capture sensor module and the position measurement data received through the location tracking sensor module, a virtual reality game image is implemented, but central processing to control the motion of the avatar in the virtual reality game image Terminal;
    사용자의 신체에 착용되고, 상기 중앙처리단말로부터 상기 가상영상을 수신하여 출력하는 HMD(Head Mounted Display); 및A head mounted display (HMD) worn on the user's body and receiving and outputting the virtual image from the central processing terminal; And
    상기 모션캡쳐 센서모듈은, 상기 FBG 센서의 일측에 각각 설치되어 사용자의 관절의 움직임과 굽힘으로 인해 장력이 발생되는 경우 상기 FBG 센서에 복원력을 제공하는 탄성 제공부를 포함하는 것을 특징으로 하는 가상현실 게임시스템.The motion capture sensor module is installed on one side of the FBG sensor, a virtual reality game characterized in that it includes an elasticity providing unit that provides resilience to the FBG sensor when tension is generated due to movement and bending of the user's joint. system.
  2. 제1 항에 있어서,According to claim 1,
    상기 모션캡쳐 센서모듈은,The motion capture sensor module,
    사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 형상을 감지하기 위한 적어도 하나의 FBG 형상 센서;At least one FBG shape sensor for detecting a shape in which the user joint is bent according to the movement of the user joint;
    사용자 관절의 움직임에 따라 사용자 관절이 굽혀지는 각도를 감지하기 위한 적어도 하나의 FBG 각도 센서;At least one FBG angle sensor for detecting an angle at which the user joint is bent according to the movement of the user joint;
    상기 사용자 관절의 움직임에 따른 사용자 관절의 비틀림을 감지하기 위한 적어도 하나의 FBG 비틀림 센서;At least one FBG twist sensor for detecting twist of the user joint according to the movement of the user joint;
    상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서로 각각 광 신호를 송신하고, 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서로부터 반사되는 광 신호를 수신하는 광원 송수신부;A light source transmitting and receiving unit that transmits optical signals to the FBG shape sensor, the FBG angle sensor, and the FBG torsion sensor, and receives optical signals reflected from the FBG shape sensor, the FBG angle sensor, and the FBG twist sensor;
    상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서와 상기 광원 송수신부 사이를 연결하는 커넥터;A connector for connecting the FBG shape sensor, the FBG angle sensor, and the FBG torsion sensor and the light source transceiver;
    상기 광원 송수신부를 통해 수신된 광 신호의 파장을 분석하여 사용자 관절의 형상, 각도, 비틀림에 대한 3차원 좌표 데이터로 변환하는 제1 데이터 변환부; 및A first data conversion unit that analyzes the wavelength of the optical signal received through the light source transmission / reception unit and converts the shape, angle, and twist of the user joint into 3D coordinate data; And
    상기 제1 데이터 변환부를 통해 변환된 3차원 좌표 데이터를 상기 중앙처리단말로 전송하는 제1 무선 통신부를 포함하는 것을 특징으로 가상현실 게임시스템.And a first wireless communication unit for transmitting the 3D coordinate data converted through the first data conversion unit to the central processing terminal.
  3. 제2 항에 있어서,According to claim 2,
    상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서는 사용자의 손가락과 팔 부분에 부착되어 해당 신체부위에 대한 모션을 추적하고,The FBG shape sensor, the FBG angle sensor, and the FBG torsion sensor are attached to the user's finger and arm parts to track motion for the corresponding body part,
    사용자의 손가락과 팔 부분을 제외한 다른 신체부위에 대하여, 상기 가상현실 게임시스템은, 적외선 광학식 카메라 추적 및 마커 중 적어도 하나를 더 이용하여 For other body parts except the user's finger and arm, the virtual reality game system further uses at least one of infrared optical camera tracking and a marker.
    모션캡쳐를 실시하는 것을 특징으로 하는 가상현실 게임시스템.A virtual reality game system characterized by performing motion capture.
  4. 제2 항에 있어서,According to claim 2,
    상기 탄성 제공부는,The elastic providing unit,
    상기 커넥터 측에 설치되고, 사용자 관절의 움직임과 굽힘으로 인해 장력이 발생되는 상기 FBG 형상 센서, 상기 FBG 각도 센서 및 상기 FBG 비틀림 센서에 복원력을 제공하는 것을 특징으로 하는 가상현실 게임시스템.It is installed on the connector side, the virtual reality game system characterized in that it provides a restoring force to the FBG shape sensor, the FBG angle sensor and the FBG torsion sensor that generates tension due to movement and bending of the user joint.
  5. 제1 항에 있어서,According to claim 1,
    상기 위치추적 센서모듈은,The position tracking sensor module,
    상기 실제게임공간의 외곽부에 설치되고, 상기 실제게임공간 내에 이동하는 사용자의 위치를 감지하기 위한 적어도 하나의 제1 위치추적센서;At least one first location tracking sensor installed on the outer portion of the real game space and detecting a user's location moving in the real game space;
    상기 실제게임공간의 내부에 설치되고, 상기 실제게임공간 내에 이동하는 사용자의 위치를 감지하기 위한 적어도 하나의 제2 위치추적센서;At least one second position tracking sensor installed inside the real game space and detecting a user's location moving within the real game space;
    상기 제1 라이다 센서 및 상기 제2 라이다 센서를 통해 측정된 신호를 3차원 좌표 데이터로 변환하는 제2 데이터 변환부; 및A second data converter configured to convert signals measured through the first lidar sensor and the second lidar sensor into three-dimensional coordinate data; And
    상기 제2 데이터 변환부를 통해 생성된 3차원 좌표 데이터를 상기 중앙처리단말로 전송하는 제2 무선 통신부를 포함하는 것을 특징으로 하는 가상현실 게임시스템.And a second wireless communication unit transmitting the 3D coordinate data generated through the second data conversion unit to the central processing terminal.
  6. 제5 항에 있어서,The method of claim 5,
    상기 제1 위치추적센서 및 상기 제2 위치추적센서는,The first position tracking sensor and the second position tracking sensor,
    라이다(LiDAR) 센서, 초음파센서, 적외선 광학식 마커 추적센서 및 GPS 센서 중 적어도 하나를 포함하는 것을 특징으로 하는 가상현실 게임시스템.A virtual reality game system comprising at least one of a LiDAR sensor, an ultrasonic sensor, an infrared optical marker tracking sensor, and a GPS sensor.
  7. 제1 항에 있어서,According to claim 1,
    상기 중앙처리단말은 5G 무선통신 영상 스트리밍 방식을 통해 상기 HMD로 상기 가상영상을 전송하는 것을 특징으로 하는 가상현실 게임시스템.The central processing terminal is a virtual reality game system, characterized in that for transmitting the virtual image to the HMD through a 5G wireless communication video streaming method.
PCT/KR2019/011581 2018-09-18 2019-09-06 Virtual reality game system using fiber bragg grating sensor and position tracking sensor WO2020060086A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180111587A KR102032425B1 (en) 2018-09-18 2018-09-18 Virtual reality game system using fiber bragg grating sensor and positional tracking sensor
KR10-2018-0111587 2018-09-18

Publications (1)

Publication Number Publication Date
WO2020060086A1 true WO2020060086A1 (en) 2020-03-26

Family

ID=68542418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/011581 WO2020060086A1 (en) 2018-09-18 2019-09-06 Virtual reality game system using fiber bragg grating sensor and position tracking sensor

Country Status (2)

Country Link
KR (1) KR102032425B1 (en)
WO (1) WO2020060086A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102342872B1 (en) * 2020-12-15 2021-12-24 옥재윤 Mutual sympathy system between user and avatar using motion tracking
KR102605282B1 (en) * 2022-08-18 2023-11-23 옥재윤 Virtual reality game system for providing motion and position of player using wearable sensors and lidar sensors

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010042235A (en) * 2008-08-08 2010-02-25 Epionics Medical Gmbh Method and device for detecting parameter for characterization of kinetic sequence at human or animal body
US20120154582A1 (en) * 2010-09-14 2012-06-21 General Electric Company System and method for protocol adherence
KR20160018436A (en) * 2014-08-08 2016-02-17 그렉 반 쿠렌 Virtual reality system and audition game system using the same
KR20170111221A (en) * 2016-03-25 2017-10-12 가온소프트(주) Location Tracking System of the Patient using LiDAR
KR20170138768A (en) * 2016-06-08 2017-12-18 한국과학기술연구원 Motion capture system using a FBG sensor

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101501415B1 (en) 2014-09-22 2015-03-19 서울과학기술대학교 산학협력단 System for monitoring muscular condition using Fiber Bragg Grating sensor

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010042235A (en) * 2008-08-08 2010-02-25 Epionics Medical Gmbh Method and device for detecting parameter for characterization of kinetic sequence at human or animal body
US20120154582A1 (en) * 2010-09-14 2012-06-21 General Electric Company System and method for protocol adherence
KR20160018436A (en) * 2014-08-08 2016-02-17 그렉 반 쿠렌 Virtual reality system and audition game system using the same
KR20170111221A (en) * 2016-03-25 2017-10-12 가온소프트(주) Location Tracking System of the Patient using LiDAR
KR20170138768A (en) * 2016-06-08 2017-12-18 한국과학기술연구원 Motion capture system using a FBG sensor

Also Published As

Publication number Publication date
KR102032425B1 (en) 2019-11-08

Similar Documents

Publication Publication Date Title
WO2020060086A1 (en) Virtual reality game system using fiber bragg grating sensor and position tracking sensor
US10642368B2 (en) Body posture detection system, suit and method
WO2010050526A1 (en) Medical device
US6127672A (en) Topological and motion measuring tool
CN106896367A (en) A kind of optical distance measurement apparatus and optical ranging system
CN113566857B (en) Human body posture identification method based on optical fiber composite flexible sensor
FR2399768A1 (en) DEVICE FOR CONNECTING AN OPTICAL LINK TO A DATA PROCESSING UNIT
CN103153162A (en) Backloadable optical shape sensing guidewires
US10359329B2 (en) Sensing system with different upper layers
CN105628169A (en) Fiber-optic hydrophone system based on distributed optical fiber sound sensing technology
WO2018026147A1 (en) Lidar device
CN204964060U (en) Temperature sensing device based on optic fibre mach -Zehnder that receives a little interferes
CN206757042U (en) A kind of optical distance measurement apparatus and optical ranging system
CN106597422A (en) Miniature photoelectric passive distance measuring device
CN101285701A (en) Optic cable vibration detecting device capable of positioning
CN216257172U (en) Ultrasound system with pointer remote control capability
CN201188005Y (en) Bidirectional light path-sharing distributed optical fibre interferometer
CN201965086U (en) Endoscopic imaging probe
CN216652273U (en) Based on single-ended single-fiber Michelson optical fiber interferometer vital sign device
CN205562046U (en) Three -dimensional hot imaging device of hand -held type
KR102605282B1 (en) Virtual reality game system for providing motion and position of player using wearable sensors and lidar sensors
CN206876953U (en) A kind of range-finding telescope of optional emission source
Fujiwara et al. Optical fiber 3D shape sensor for motion capture
KR20200100368A (en) Medical laser treatment apparatus
CN104729548A (en) Bio-directional common optical path distributed fiber optic interferometer

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19863855

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

32PN Ep: public notification in the ep bulletin as address of the adressee cannot be established

Free format text: NOTING OF LOSS OF RIGHTS PURSUANT TO RULE 112(1) EPC (EPO FORM 1205A DATED 15/07/2021)

122 Ep: pct application non-entry in european phase

Ref document number: 19863855

Country of ref document: EP

Kind code of ref document: A1