KR101366444B1 - Virtual reality shooting system for real time interaction - Google Patents

Virtual reality shooting system for real time interaction Download PDF

Info

Publication number
KR101366444B1
KR101366444B1 KR1020120013571A KR20120013571A KR101366444B1 KR 101366444 B1 KR101366444 B1 KR 101366444B1 KR 1020120013571 A KR1020120013571 A KR 1020120013571A KR 20120013571 A KR20120013571 A KR 20120013571A KR 101366444 B1 KR101366444 B1 KR 101366444B1
Authority
KR
South Korea
Prior art keywords
user
laser
signal
image
simulation
Prior art date
Application number
KR1020120013571A
Other languages
Korean (ko)
Other versions
KR20130092077A (en
Inventor
강성준
권대규
윤정환
이낙범
유미
Original Assignee
전북대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전북대학교산학협력단 filed Critical 전북대학교산학협력단
Priority to KR1020120013571A priority Critical patent/KR101366444B1/en
Publication of KR20130092077A publication Critical patent/KR20130092077A/en
Application granted granted Critical
Publication of KR101366444B1 publication Critical patent/KR101366444B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • F41A33/02Light- or radiation-emitting guns ; Light- or radiation-sensitive guns; Cartridges carrying light emitting sources, e.g. laser
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/219Input arrangements for video game devices characterised by their sensors, purposes or types for aiming at specific areas on the display, e.g. light-guns
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • F41A33/06Recoil simulators
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2622Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile
    • F41G3/2655Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile in which the light beam is sent from the weapon to the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J5/00Target indicating systems; Target-hit or score detecting systems
    • F41J5/02Photo-electric hit-detector systems

Abstract

복수의 사용자 각각의 시간과 장소에 제한 없이 상호 연동된 사격 체험을 제공할 수 있는 가상 사격 시스템을 제공한다. 본 발명에 따른 가상 사격 시스템은 사격 시뮬레이션 영상을 출력하는 디스플레이 장치, 실제 총기와 유사한 형태를 갖고 격발 시 격발 신호를 생성하고 레이저를 출력하는 모의 총기와, 사용자의 머리의 움직임 방향을 감지하는 센싱 신호를 생성하는 감지 헬멧 및 실시간으로 모의 총기에서 출력된 레이저에 대한 영상을 획득하기 위한 레이저 검출 카메라를 구비하는 복수개의 체감 제공부, 센싱 신호를 수신하고, 사용자 머리의 움직임 방향에 따라 사격 시뮬레이션 영상이 디스플레이 장치에서 출력되도록 영상 신호를 송신하고, 레이저 검출 카메라에서 획득된 영상을 분석하여 레이저의 좌표를 판별하고, 판별된 레이저의 좌표를 사격 시뮬레이션 상의 가상 공간의 좌표로 변환하는 복수개의 사용자 컨트롤러, 및 복수개의 사용자 컨트롤러 중 상호 연동하여 사격 시뮬레이션을 진행하고자 하는 사용자 컨트롤러를 판별하고, 상호 연동된 사용자 컨트롤러들로부터 상태 신호를 수신하여 사용자 컨트롤러들 각각의 사격 시뮬레이션 진행 상태를 판별하여, 연동 신호를 상호 연동된 사용자 컨트롤러로 전송하는 메인 서버를 포함한다. 따라서 시간 및 장소에 구애받지 않기 때문에, 사용자들이 접근하기 용이한 장소에 사격 체험 서비스를 제공할 수 있다.Provides a virtual shooting system that can provide an interactive shooting experience of any number of users at any time and place without limitation. The virtual shooting system according to the present invention is a display device for outputting a fire simulation image, a simulated firearm having a form similar to a real firearm, generating a trigger signal and outputting a laser when triggered, and a sensing signal for detecting a direction of movement of a user's head. A plurality of haptic providing unit having a sensing helmet for generating a laser and a laser detection camera for obtaining an image of the laser output from the simulated firearm in real time, receives a sensing signal, the shooting simulation image according to the direction of movement of the user's head A plurality of user controllers for transmitting an image signal to be output from a display apparatus, analyzing an image acquired by a laser detection camera to determine coordinates of the laser, and converting the determined laser coordinates into coordinates of a virtual space on a fire simulation; Phase among multiple user controllers Determining the user controller to perform the firing simulation by interlocking, receiving the status signal from the interlocking user controllers to determine the progress of the firing simulation of each of the user controllers, and transmits the interlocking signal to the interlocking user controller Contains the main server. Therefore, regardless of time and place, it is possible to provide a shooting experience service in a place that is easy for users to access.

Description

실시간 상호 연동 가능한 가상 사격 시스템{VIRTUAL REALITY SHOOTING SYSTEM FOR REAL TIME INTERACTION}VIRTUAL REALITY SHOOTING SYSTEM FOR REAL TIME INTERACTION}

본 발명은 실시간 상호 연동 가능한 가상 사격 시스템에 관한 것으로, 특히 복수의 사용자 각각의 시간과 장소에 제한 없이 상호 연동된 사격 체험을 제공할 수 있는 가상 사격 시스템에 관한 것이다.
The present invention relates to a virtual shooting system that can interoperate in real time, and more particularly, to a virtual shooting system capable of providing an interoperable shooting experience without limitation in each time and place of a plurality of users.

사격은 올림픽 정식 종목으로 채택될 만큼 오랜 역사를 갖고 있는 스포츠 종목으로, 최근에는 레포츠의 한 종목으로 부각되고 있는 스포츠이다.Shooting is a sport that has a long history of being adopted as an official Olympic sport, and has recently emerged as a sport of sports.

사격을 활용하는 레포츠로는 실탄을 사용하는 클레이 사격과 모의탄을 사용하는 서바이벌 게임이 대표적이다.The most notable examples of shooting sports are clay shooting using live bullets and survival games using mock shots.

그러나 클레이 사격의 경우에는 국내에서 실총의 사용이 엄격하게 제한되고 있으므로, 사격을 체험하기 위해서는 주로 교외에 위치한 사격장에 방문을 해야 하는 번거로움이 있으며, 넓은 공간과 더불어 실탄의 사용으로 인해 고비용이 요구되어 대중화에 어려움이 있다. 또한 클레이 사격은 단순히 표적을 맞추는 방식으로 진행되기 때문에, 순수하게 사격을 즐기려는 사람들 이외의 사람들이 즐기기 위한 게임으로서 접근하기 어렵다는 문제가 있다.However, in the case of clay shooting, the use of the real gun is strictly restricted in Korea, so it is cumbersome to visit the shooting range located in the suburbs in order to experience the shooting. There is a difficulty in popularization. In addition, since clay shooting proceeds in a way that simply targets, there is a problem that it is difficult to approach as a game for people other than purely to enjoy shooting.

유사하게, 서바이벌 게임의 경우에는 비록 실탄을 사용하지는 않지만, 게임을 진행하기 위해서는 게임 참여자에게 넓은 활동 공간이 제공되어야 하므로, 대부분 교외에서만 게임을 수행할 수 있다. 또한 모의탄일지라도 실탄과 유사하게 소모성 탄환이 사용됨에 따라 비용의 소모가 크며, 모의탄에 의한 게임 참여자의 부상이 발생할 우려가 있다는 문제가 있다.
Similarly, in the case of survival games, although the game is not used, most games can be played only in the suburbs because a large amount of activity space must be provided for game participants to proceed with the game. In addition, even if a simulated bullet is consumed by a consumable bullet similarly to a real bullet, it consumes a lot of money, and there is a problem that a game participant may be injured by the simulated bullet.

본 발명의 목적은 복수의 사용자가 시간 및 장소에 구애받지 않고, 상호 연동하여 실감나는 사격 체험을 수행할 수 있는 가상 사격 시스템을 제공하는데 있다.An object of the present invention is to provide a virtual shooting system that allows a plurality of users to perform a realistic shooting experience in conjunction with each other, regardless of time and place.

상기 목적을 달성하기 위한 가상 사격 시스템은 사격 시뮬레이션 영상을 출력하는 디스플레이 장치, 실제 총기와 유사한 형태를 갖고 격발 시 격발 신호를 생성하고 레이저를 출력하는 모의 총기와, 사용자의 머리의 움직임 방향을 감지하는 센싱 신호를 생성하는 감지 헬멧 및 실시간으로 상기 모의 총기에서 출력된 상기 레이저에 대한 영상을 획득하기 위한 레이저 검출 카메라를 구비하는 복수개의 체감 제공부; 상기 센싱 신호를 수신하고, 상기 사용자 머리의 움직임 방향에 따라 상기 사격 시뮬레이션 영상이 상기 디스플레이 장치에서 출력되도록 영상 신호를 송신하고, 상기 레이저 검출 카메라에서 획득된 영상을 분석하여 레이저의 좌표를 판별하고, 판별된 레이저의 좌표를 상기 사격 시뮬레이션 상의 가상 공간의 좌표로 변환하는 복수개의 사용자 컨트롤러; 및 상기 복수개의 사용자 컨트롤러 중 상호 연동하여 사격 시뮬레이션을 진행하고자 하는 사용자 컨트롤러를 판별하고, 상호 연동된 상기 사용자 컨트롤러들로부터 상태 신호를 수신하여 상기 사용자 컨트롤러들 각각의 사격 시뮬레이션 진행 상태를 판별하여, 연동 신호를 상기 상호 연동된 사용자 컨트롤러로 전송하는 메인 서버; 를 포함한다.The virtual shooting system for achieving the above object is a display device for outputting a fire simulation image, a simulated firearm having a form similar to a real firearm, generating a trigger signal and outputting a laser when triggering, and detecting a direction of movement of a user's head. A plurality of bodily sensation providing units including a sensing helmet for generating a sensing signal and a laser detection camera for acquiring an image of the laser output from the simulated firearm in real time; Receiving the sensing signal, transmitting an image signal such that the shooting simulation image is output from the display device according to the direction of movement of the user's head, and analyzing the image acquired by the laser detection camera to determine coordinates of the laser; A plurality of user controllers for converting the determined coordinates of the laser into coordinates of the virtual space on the shooting simulation; And determining a user controller to perform shooting simulation by interworking with the plurality of user controllers, receiving a status signal from the interworking user controllers, and determining a shooting simulation progress state of each of the user controllers. A main server transmitting a signal to the interworking user controller; .

상기 목적을 달성하기 위한 감지 헬멧은 사용자의 머리의 움직임 방향을 감지하는 센싱 신호를 생성하기 위한 적어도 하나의 감지 센서; 및 상기 사용자 컨트롤러로부터 음향 신호를 수신하여 음향을 출력하는 적어도 하나의 스피커; 를 구비하는 것을 특징으로 한다.Sensing helmet for achieving the above object comprises at least one sensor for generating a sensing signal for detecting the direction of movement of the user's head; And at least one speaker receiving a sound signal from the user controller and outputting sound. Characterized in having a.

상기 목적을 달성하기 위한 적어도 하나의 감지 센서는 자이로 센서, 가속도 센서, 중력 센서 및 지자기 센서 중 적어도 하나의 센서인 것을 특징으로 한다.At least one detection sensor for achieving the above object is characterized in that at least one sensor of the gyro sensor, acceleration sensor, gravity sensor and geomagnetic sensor.

상기 목적을 달성하기 위한 감지 헬멧은 상기 디스플레이 장치에서 출력되는 사격 시뮬레이션 영상이 3차원 입체 영상인 경우에, 상기 3차원 입체 영상에 대응하는 입체 안경을 더 구비하는 것을 특징으로 한다.The sensing helmet for achieving the above object is characterized in that it further comprises a three-dimensional glasses corresponding to the three-dimensional stereoscopic image, when the shooting simulation image output from the display device is a three-dimensional stereoscopic image.

상기 목적을 달성하기 위한 상기 입체 안경은 셔터 글래스 방식의 3차원 입체 안경인 것을 특징으로 한다.The three-dimensional glasses for achieving the above object is characterized in that the three-dimensional glasses of the shutter glass method.

상기 목적을 달성하기 위한 감지 헬멧은 상기 사용자 컨트롤러로부터 제1 진동 신호를 수신하면, 진동을 발생하는 적어도 하나의 제1 진동 수단을 더 구비하는 것을 특징으로 한다.Sensing helmet for achieving the above object is characterized in that it further comprises at least one first vibration means for generating a vibration when receiving the first vibration signal from the user controller.

상기 목적을 달성하기 위한 모의 총기는 상기 격발 신호를 발생하기 위한 방아쇠;상기 격발 신호가 발생하면, 상기 레이저를 출력하기 위한 레이저 포인터; 상기 격발 신호가 발생하면, 실제 총기와 유사한 반발력을 생성하기 위한 반발력 생성 수단; 을 구비하는 것을 특징으로 한다.A simulated firearm for achieving the object includes a trigger for generating the trigger signal; a laser pointer for outputting the laser when the trigger signal is generated; A repulsive force generating means for generating a repulsive force similar to an actual firearm when the trigger signal is generated; And FIG.

상기 목적을 달성하기 위한 반발력 생성 수단은 압축된 공기를 생성하는 에어 컴프레셔; 상기 격발 신호를 수신하여 상기 압축된 공기를 전달하는 솔레노이드 밸브; 및 상기 솔레노이드 밸브를 통해 전달된 상기 압축된 공기를 상기 모의 총기의 사용자 방향을 전달하여 상기 반발력을 생성하는 공기 전달 파이프; 를 구비하는 것을 특징으로 한다.Repulsive force generating means for achieving the above object comprises an air compressor for producing compressed air; A solenoid valve receiving the trigger signal and delivering the compressed air; And an air delivery pipe configured to transfer the compressed air delivered through the solenoid valve to the user direction of the simulated firearm to generate the repulsive force. Characterized in having a.

상기 목적을 달성하기 위한 모의 총기는 상기 사격 시뮬레이션을 진행 시에 필요한 부가 기능을 수행하기 위한 적어도 하나의 부가기능 버튼을 더 구비하는 것을 특징으로 한다.The simulated firearm for achieving the above object is characterized in that it further comprises at least one additional function button for performing the additional function required in proceeding with the shooting simulation.

상기 목적을 달성하기 위한 모의 총기는 복수개의 상기 모의 총기가 하나의 상기 에어 컴프레셔를 공통으로 사용하는 것을 특징으로 한다.A simulated firearm for achieving the above object is characterized in that a plurality of the simulated firearms commonly use one of the air compressor.

상기 목적을 달성하기 위한 레이저 검출 카메라는 상기 레이저를 용이하게 검출하기 위한 적외선 카메라인 것을 특징으로 한다.A laser detection camera for achieving the above object is an infrared camera for easily detecting the laser.

상기 목적을 달성하기 위한 복수개의 체감 제공부는 상기 사용자 컨트롤러로부터 제2 진동 신호를 수신하는 신호 수신부; 및 상기 신호 수신부의 제어에 따라 진동을 발생하는 복수개의 제2 진동 수단; 을 구비하는 진동 조끼를 더 구비하는 것을 특징으로 한다.A plurality of haptic providing unit for achieving the above object is a signal receiving unit for receiving a second vibration signal from the user controller; A plurality of second vibration means for generating vibrations under the control of the signal receiver; It further comprises a vibration vest having a.

상기 목적을 달성하기 위한 복수개의 제2 진동 수단은 상기 진동 조끼의 전면부와 후면부 각각에 분산 배치되는 것을 특징으로 한다.A plurality of second vibrating means for achieving the above object is characterized in that the front and rear portions of the vibration vest is disposed distributed.

상기 목적을 달성하기 위한 복수개의 체감 제공부는 상기 사용자를 식별하기 위한 사용자 식별 정보가 저장된 사용자 식별 카드를 더 구비하는 것을 특징으로 한다.A plurality of haptic providing unit for achieving the above object is characterized by further comprising a user identification card is stored user identification information for identifying the user.

상기 목적을 달성하기 위한 사용자 컨트롤러는 사격 시뮬레이션을 진행하기 위한 시뮬레이션 영상 정보를 포함한 시뮬레이션 정보를 저장하는 정보 저장부; 상기 감지 헬멧에서 전송되는 상기 센싱 신호를 분석하여 상기 사용자 머리의 움직임을 판별하고, 상기 감지 헬멧으로 음향 신호를 전송하는 움직임 감지부; 상기 움직임 감지부에서 감지된 상기 사용자 머리의 움직임에 따라 상기 시뮬레이션 영상 정보를 획득하여 상기 디스플레이 장치에서 영상으로 출력 가능한 영상 신호로 변환하는 그래픽 처리부; 상기 격발 신호를 수신하여 상기 반발력 생성 수단으로 전달하는 총기 제어부; 상기 레이저 검출 카메라에서 획득한 영상을 수신 및 분석하여 상기 모의 총기에서 출력된 레이저의 좌표를 판별하는 레이저 인식부; 및 상기 상태 신호를 상기 메인 서버로 전송하고, 상기 연동 신호를 상기 메인서버로부터 수신하기 위한 통신부; 를 구비하는 것을 특징으로 한다.The user controller for achieving the above object comprises: an information storage unit for storing simulation information including simulation image information for performing shooting simulation; A motion detector configured to analyze the sensing signal transmitted from the sensing helmet to determine a movement of the user's head, and to transmit an acoustic signal to the sensing helmet; A graphic processor for acquiring the simulation image information according to the movement of the user's head detected by the motion detector and converting the image into an image signal output from the display apparatus as an image; A firearm control unit which receives the triggered signal and transmits the triggered signal to the repulsive force generating means; A laser recognizer configured to receive and analyze an image acquired by the laser detection camera to determine coordinates of a laser output from the simulated firearm; And a communication unit for transmitting the status signal to the main server and receiving the interworking signal from the main server. Characterized in having a.

상기 목적을 달성하기 위한 사용자 컨트롤러는 상기 사용자 식별 카드로부터 상기 사용자 식별 정보를 회득하고, 획득된 사용자 식별 정보에 대응하는 사용자 정보를 상기 메인 서버로부터 수신하여 상기 정보 저장부에 저장하는 사용자 인식부를 더 구비하는 것을 특징으로 한다.The user controller for achieving the above object further acquires the user identification information from the user identification card, and receives a user information corresponding to the obtained user identification information from the main server to further store the user identification unit It is characterized by including.

상기 목적을 달성하기 위한 레이저 인식부는 상기 레이저 검출 카메라로부터 전송된 영상에서 레이저의 위치 좌표를 판별하고, 판별된 레이저의 위치 좌표를 미리 작성된 룩업 테이블에 대입하여 상기 사격 시뮬레이션 상의 가상 공간에서의 위치 좌표로 변환하는 것을 특징으로 한다.
The laser recognition unit for achieving the above object is to determine the position coordinates of the laser in the image transmitted from the laser detection camera, the position coordinates in the virtual space on the shooting simulation by substituting the determined position coordinates of the laser into a pre-created lookup table Characterized in that converted to.

따라서, 본 발명의 가상 사격 시스템은 레이저 기술을 이용한 상호 연동 사격 시뮬레이션 장비로서, 레이저 총기, 체감형 헬멧 및 체감형 조끼 등을 제공하여, 사용자의 시간과 장소에 구애받지 않고 사용자가 실제 전투 환경과 유사한 환경에서 사격 체험을 수행할 수 있도록 하므로, 사용자들이 실감나는 사격을 즐길 수 있다. 그리고, 시간 및 장소에 구애받지 않기 때문에, 사용자들이 접근하기 용이한 장소에 사격 체험 서비스를 제공할 수 있으므로, 레포츠로서의 사격의 대중화에 기여할 수 있다.
Accordingly, the virtual shooting system of the present invention is an interlocked shooting simulation apparatus using laser technology, and provides a laser gun, a haptic helmet, a haptic vest, and the like, regardless of the user's time and place, so that the user is able to interact with the actual combat environment. It allows users to perform shooting experience in a similar environment, so users can enjoy realistic shooting. In addition, since the shooting experience service can be provided in a place that is easy for users to access, regardless of time and place, it can contribute to the popularization of shooting as a sports.

도1 은 본 발명의 일 실시예에 따른 가상 사격 시스템의 구성도이다.
도2 는 본 발명의 일 예에 따른 가상체험 제공부와 사용자 컨트롤러의 구성을 나타낸다.
도3 은 본 발명의 일 예에 따른 감지 헬멧을 나타낸다.
도4 는 본 발명의 일 예에 따른 모의 총기를 나타낸다.
도5 는 본 발명의 일 예에 따른 총기 반동 작용부의 구조를 나타낸다.
도6 은 본 발명의 다른 예에 따른 모의 총기를 나타낸다.
도7 은 본 발명의 일 예에 따른 진동 조끼를 나타낸다.
도8 은 본 발명의 일 예에 따른 레이저 좌표 처리 방법을 나타낸다.
1 is a block diagram of a virtual shooting system according to an embodiment of the present invention.
2 illustrates a configuration of a virtual experience providing unit and a user controller according to an embodiment of the present invention.
3 shows a sensing helmet according to an embodiment of the present invention.
4 illustrates a simulated firearm according to an example of the present invention.
Figure 5 shows the structure of the gun recoil action according to an embodiment of the present invention.
6 shows a simulated firearm according to another example of the present invention.
7 shows a vibration vest according to an embodiment of the present invention.
8 shows a laser coordinate processing method according to an embodiment of the present invention.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, operational advantages of the present invention, and objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the accompanying drawings which illustrate preferred embodiments of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로서, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention can be implemented in various different forms, and is not limited to the embodiments described. In order to clearly describe the present invention, parts that are not related to the description are omitted, and the same reference numerals in the drawings denote the same members.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “...부”, “...기”, “모듈”, “블록” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when an element is referred to as " including " an element, it does not exclude other elements unless specifically stated to the contrary. The terms "part", "unit", "module", "block", and the like described in the specification mean units for processing at least one function or operation, And a combination of software.

본 발명에서 사격 시뮬레이션은 본 발명에 따른 가상 사격 체험 시스템을 활용한 모든 형태의 시뮬레이션 프로그램을 의미하는 것으로, 가상 사격 체험 시스템을 활용한 게임, 사격 트레이닝 등을 포함할 수 있다.
Shooting simulation in the present invention refers to any type of simulation program using the virtual shooting experience system according to the present invention, may include a game, shooting training and the like using the virtual shooting experience system.

도1 은 본 발명의 일 실시예에 따른 가상 사격 시스템의 구성도이다.1 is a block diagram of a virtual shooting system according to an embodiment of the present invention.

도1 을 참조하면, 본 발명에 따른 상호 연동 가능한 가상 사격 시스템은 복수개의 체감 제공부(110 ~ 1n0)와, 복수개의 체감 제공부(110 ~ 1n0) 각각에 대응하여 구비되는 복수개의 사용자 컨트롤러(210 ~ 2n0) 및 복수개의 사용자 컨트롤러(2110 ~ 2n0)와 네트워크를 통해 연결되는 메인 서버(300)를 구비한다.Referring to FIG. 1, a virtual shooting system interoperable with each other includes a plurality of haptic providing units 110 to 1n0 and a plurality of user controllers corresponding to each of the plural haptic providing units 110 to 1n0 ( 210 to 2n0) and a plurality of user controllers 2110 to 2n0 are provided with a main server 300 connected through a network.

복수개의 체감 제공부(110 ~ 1n0) 각각은 사용자가 가상 사격을 직접 체험할 수 있도록 지원하기 위한 복수개의 장치를 구비하고, 복수개의 장치 각각은 사용자의 동작을 감지하거나, 사용자에 의해 조작되면, 명령 신호를 생성하여 대응하는 사용자 컨트롤러(210 ~ 2n0)로 전송한다. 또한 복수개의 장치 각각은 사용자 컨트롤러(210 ~ 2n0)에서 인가되는 제어 신호에 응답하여 미리 설정된 동작을 수행한다. 여기서 복수개의 체감 제공부(110 ~ 1n0) 각각에 구비되는 복수개의 장치에 대해서는 후술하도록 한다.Each of the plurality of haptic providing units 110 to 1n0 includes a plurality of devices for supporting a user to directly experience a virtual shooting, and each of the plurality of devices detects a user's motion or is operated by the user. The command signal is generated and transmitted to the corresponding user controllers 210 to 2n0. In addition, each of the plurality of devices performs a preset operation in response to a control signal applied from the user controllers 210 to 2n0. Here, a plurality of devices provided in each of the plurality of haptic providing units 110 to 1n0 will be described later.

복수개의 사용자 컨트롤러(210 ~ 2n0)는 복수개의 체감 제공부(110 ~ 1n0) 각각에 구비되는 복수개의 장치로부터 인가되는 명령 신호들을 수신하여 판별하고, 판별된 명령 신호에 따라 복수개의 장치를 제어하거나, 사격 시뮬레이션을 진행한다. 한편 복수개의 사용자 컨트롤러(210 ~ 2n0) 각각은 사격 시뮬레이션 진행 상태에서 다른 사용자 컨트롤러가 인지해야하는 정보를 상태 신호를 메인 서버(300)로 전송한다. 또한 복수개의 사용자 컨트롤러(210 ~ 2n0) 각각은 메인 서버(300)가 다른 사용자 컨트롤러의 상태 신호를 분석하여 생성하는 연동 신호를 수신하고, 분석된 연동 신호를 사격 시뮬레이션 진행 시에 함께 적용하여, 복수개의 사용자 컨트롤러(210 ~ 2n0) 중 하나의 사용자 컨트롤러가 적어도 하나의 다른 사용자 컨트롤러와 연동되어 사격 시뮬레이션을 진행 할 수 있도록 한다. 즉 복수개의 사용자 컨트롤러(210 ~ 2n0)는 각각 복수개의 장치로부터 인가되는 명령 신호를 분석하여 사격 시뮬레이션을 진행함과 동시에 상태 신호를 메인 서버(300)로 전송하여 자신의 시뮬레이션 진행 상태를 메인 서버(300)에 통지하고, 메인 서버(300)로부터 연동 신호를 전송받아 다른 사용자 컨트롤러와 연동된 사격 시뮬레이션을 진행할 수 있다.The plurality of user controllers 210 to 2n0 receive and determine command signals applied from a plurality of devices provided in each of the plurality of haptic providing units 110 to 1n0, and control the plurality of devices according to the determined command signals. , Fire shooting simulation. On the other hand, each of the plurality of user controllers 210 to 2n0 transmits a status signal to the main server 300 for information that another user controller should recognize in the shooting simulation progress state. In addition, each of the plurality of user controllers 210 to 2n0 receives an interlocking signal generated by the main server 300 by analyzing a state signal of another user controller, and applies the analyzed interlocking signal together during the firing simulation process, thereby providing a plurality of user controllers. One user controller of the two user controllers 210 to 2n0 may be linked with at least one other user controller to perform shooting simulation. That is, the plurality of user controllers 210 to 2n0 analyze the command signals applied from the plurality of devices, respectively, and conduct shooting simulation, and simultaneously transmit a status signal to the main server 300 to transmit its simulation progress state to the main server ( Notify 300 and receive the interlocking signal from the main server 300 to proceed with the fire simulation linked to the other user controller.

메인 서버(300)는 복수개의 사용자 컨트롤러(210 ~ 2n0) 중 상호 연동하여 사격 시뮬레이션을 진행하고자 하는 사용자 컨트롤러를 판별하여 서로 연결하며, 복수개의 사용자 컨트롤러(210 ~ 2n0) 각각에서 인가되는 상태 신호를 수신하여, 각각의 사용자 컨트롤러(210 ~ 2n0)의 사격 시뮬레이션 진행 상태를 판별하고, 판별된 진행 상태에 대응하여 생성되는 연동 신호를 복수개의 사용자 컨트롤러(210 ~ 2n0) 중 상호 연동되는 사용자 컨트롤러로 전송한다.The main server 300 determines the user controllers to be fired by interlocking with each other among the plurality of user controllers 210 to 2n0 and connects them to each other, and provides a status signal applied to each of the plurality of user controllers 210 to 2n0. Receives, determines the shooting simulation progress of each user controller (210 ~ 2n0), and transmits the interlocking signal generated corresponding to the determined progress state to the user controller of the plurality of user controllers (210 ~ 2n0) interworking do.

결과적으로 도1 에 도시된 본 발명에 따른 가상 사격 시스템은 복수개의 체감 제공부(110 ~ 1n0) 각각에 구비되는 복수개의 장치에 의해 사용자가 실감나는 사격 시뮬레이션을 수행할 수 있으며, 복수개의 사용자 컨트롤러(210 ~ 2n0)와 메인 서버(300)가 사격 시뮬레이션 진행을 위한 상태 신호와 연동 신호를 서로 전송함에 의해 복수의 사용자가 상호 연동하여 사격 시뮬레이션을 진행할 수 있다. 이때 상호 연동하여 진행하는 사격 시뮬레이션은 복수의 사용자가 서로 적으로서 시뮬레이션을 진행하는 대전 형태로 진행될 수도 있으며, 복수의 사용자가 팀을 구성하여 공동의 적을 상대하는 팀 매치 방식으로 시뮬레이션을 진행할 수도 있다. 또한 복수의 사용자가 복수개의 팀을 구성하여, 사용자간 팀 대 팀 방식으로 시뮬레이션을 진행할 수도 있다.As a result, the virtual shooting system according to the present invention shown in FIG. 1 may perform shooting simulation in which a user feels realistically by a plurality of devices provided in each of the plurality of haptic providing units 110 to 1n0, and a plurality of user controllers. By 210 to 2n0 and the main server 300 by transmitting the status signal and the interlocking signal for the firing simulation proceeds with each other, a plurality of users can interoperate with each other to proceed with the firing simulation. At this time, the shooting simulation proceeding in cooperation with each other may be conducted in a form of competition in which a plurality of users perform simulations as enemies, or a plurality of users may form a team to perform a simulation in a team match method to face a common enemy. In addition, a plurality of users may form a plurality of teams, and the simulation may be performed in a team-to-team manner between users.

그러나 본 발명에 따른 가상 사격 시스템은 복수개의 사용자 컨트롤러(210 ~ 2n0) 각각이 다른 사용자 컨트롤러와 상호 연동하지 않고, 개인전 형식으로 사격 시뮬레이션을 진행할 수도 있다.However, in the virtual shooting system according to the present invention, each of the plurality of user controllers 210 to 2n0 may perform shooting simulation in an individual form without interworking with other user controllers.

도2 는 본 발명의 일 예에 따른 가상체험 제공부와 사용자 컨트롤러의 구성을 나타낸다.2 illustrates a configuration of a virtual experience providing unit and a user controller according to an embodiment of the present invention.

도2 에서는 설명의 편의를 위하여 도1 에 도시된 복수개의 체감 제공부(110 ~ 1n0)와 복수개의 사용자 컨트롤러(210 ~ 2n0) 중 하나의 체감 제공부(110)와 체감 제공부(110)에 대응하는 하나의 사용자 컨트롤러(210 ~ 2n0)만을 도시하였다.In FIG. 2, for convenience of description, one haptic providing unit 110 and haptic providing unit 110 of the plurality of haptic providing units 110 to 1n0 and the plurality of user controllers 210 to 2n0 shown in FIG. 1 are provided. Only one user controller 210 to 2n0 is shown.

도2 에 도시된 바와 같이, 체감 제공부(110)는 복수개의 장치로서 디스플레이 장치(111), 모의 총기(112), 레이저 검출 카메라(113), 감지 헬멧(114), 진동 조끼(115) 및 사용자 식별 카드(116)를 구비한다.As shown in FIG. 2, the haptic providing unit 110 includes a plurality of devices such as a display device 111, a simulated firearm 112, a laser detection camera 113, a detection helmet 114, a vibration vest 115, and the like. A user identification card 116.

디스플레이 장치(111)는 사용자 컨트롤러(210)로부터 제어 신호로서 인가되는 영상 신호에 따라 사격 시뮬레이션 영상을 출력한다. 디스플레이 장치(111)는 사용자에게 실감나는 사격 시뮬레이션 영상을 제공할 수 있도록 대화면 디스플레이 장치로 구현될 수 있으며, 일 예로 프로젝터(projector)와 스크린(screen)으로 구현될 수 있다. 디스플레이 장치(111)는 단순히 사용자 컨트롤러(210)에서 인가되는 영상 신호를 영상으로 변환하여 출력할 뿐이므로, 사용자 컨트롤러(210)로 명령 신호를 전송하지 않아도 무방하다.The display device 111 outputs a fire simulation image according to an image signal applied as a control signal from the user controller 210. The display device 111 may be implemented as a large-screen display device to provide a realistic shooting simulation image to the user. For example, the display device 111 may be implemented as a projector and a screen. Since the display device 111 simply converts an image signal applied from the user controller 210 into an image and outputs the image signal, the display device 111 may not transmit a command signal to the user controller 210.

모의 총기(112)는 사격 시뮬레이션에서 가장 중요한 장치로서, 사용자가 실제 사격을 하고 있는 것으로 느낄 수 있도록 하기 위한 장치이다. 모의 총기(112)에게 요구되는 사항으로는 실제 총기에서 탄환이 발사될 때, 반발력이 발생하는 것과 마찬가지로 사용자가 모의 총기(112)를 격발하는 경우에 모의 총기(112)에 반발력이 발생할 수 있어야 하는 점과, 모의 총기의 격발 시에 모의 총기가 조준한 위치를 사격 시뮬레이션이 인식할 수 있어야 하는 점이다. 이에 본 발명에서는 모의 총기에 격발 시에 반발력을 발생하기 위한 반발력 발생 수단이 구비되고, 모의 총기가 조준한 위치를 표시할 수 있도록 레이저 포인터가 구비된다. 모의 총기의 구성에 대한 상세한 설명은 후술하도록 한다. 모의 총기(112)는 격발 시에 격발 정보를 사용자 컨트롤러(210)에 통지해야만 사격 시뮬레이션이 진행될 수 있으므로, 격발 신호를 사용자 컨트롤러(210)에 전송하고, 사용자 컨트롤러(210)가 격발 신호에 응답하여 전송하는 제어 신호인 반발력 신호에 응답하여 반발력을 생성한다. 또한 모의 총기는 실제 사격 체험과 달리 시뮬레이션 상에서 수행되므로, 시뮬레이션을 진행하기 위한 각종 부가 기능을 제공하기 위한 다양한 부가 기능 버튼을 구비할 수 있다. 모의 총기가 부가 기능 버튼을 구비하는 경우에 모의 총기는 부가 기능 버튼이 사용자에 의해 선택되면, 선택된 부가 기능 버튼에 대응하는 명력 신호를 사용자 컨트롤러(210)로 전송한다.The simulated firearm 112 is the most important device in the shooting simulation, and is a device for the user to feel that he is actually shooting. What is required of the simulated firearm 112 is that when the bullet is fired from the actual firearm, the repulsive force must be able to occur in the simulated firearm 112 when the user triggers the simulated firearm 112 as well as the repulsive force occurs. The point and the point at which the simulation simulates the location of the simulated firearm at the time of triggering the simulated firearm. Accordingly, in the present invention, a repulsive force generating means for generating a repelling force when triggering a simulated firearm is provided, and a laser pointer is provided to display a position where the simulated firearm is aimed at. Detailed description of the configuration of the simulated firearm will be described later. Since the simulated firearm 112 can trigger the firing simulation only when the trigger information is notified to the user controller 210 at the time of the trigger, the trigger signal is transmitted to the user controller 210, and the user controller 210 responds to the trigger signal. The reaction force is generated in response to the reaction force signal, which is a control signal transmitted. In addition, since the simulated firearm is performed on a simulation unlike an actual shooting experience, the simulated firearm may be provided with various additional function buttons for providing various additional functions for performing a simulation. When the simulated firearm has the additional function button, the simulated firearm transmits a brightness signal corresponding to the selected additional function button to the user controller 210 when the additional function button is selected by the user.

레이저 검출 카메라(113)는 모의 총기(112)에서 격발 시에 출력되는 레이저를 검출하기 위한 장치로서, 레이저를 용이하게 검출 할 수 있도록 적외선(infrared) 카메라로 구현될 수 있다. 사격 시뮬레이션은 디스플레이 장치(111)에서 출력되는 영상을 기반으로 진행될 수 있다. 그리고 디스플레이 장치(111)에서 출력되는 영상은 시뮬레이션의 진행에 따라 계속적으로 변화될 수 있다. 한편 모의 총기는 사용자의 조작에 의해 격발 되면, 레이저를 출력한다. 출력된 레이저는 기본적으로 디스플레이 장치(111)에 출력된 영상으로 출력된다. 사격 시뮬레이션이 원활하게 진행되기 위해서는 모의 총기(112)에서 출력된 레이저의 위치가 디스플레이 장치(111)에서 출력된 영상의 어느 위치로 출력되었는지 판별할 수 있어야 한다. 즉 모의 총기(112)에서 출력된 레이저의 위치와 디스플레이 장치(111)에서 출력된 영상을 서로 매칭시킬 수 있어야 한다. 이를 위해서는 먼저 출력된 레이저를 검출하여 레이저의 위치를 감지할 수 있어야 한다. 즉 레이저 검출 카메라(113)가 영상을 수집하여 사용자 컨트롤러(210)로 전송하면, 사용자 컨트롤러(210)는 수집된 영상으로부터 레이저를 검출하고, 레이저가 검출된 위치를 판별한다. 또한 사용자 컨트롤러(210)는 디스플레이 장치(111)로 출력된 영상 신호와 검출된 레이저의 위치를 매핑하여 사용자가 모의 총기(112)를 사용하여 사격한 위치를 정확하게 판별한다.The laser detection camera 113 is a device for detecting a laser output when the simulated firearm 112 is triggered, and may be implemented as an infrared camera to easily detect the laser. Shooting simulation may be performed based on an image output from the display device 111. The image output from the display device 111 may continuously change as the simulation proceeds. On the other hand, the simulated firearm outputs a laser when triggered by a user's operation. The output laser is basically output as an image output to the display device 111. In order for the shooting simulation to proceed smoothly, the position of the laser output from the simulation gun 112 should be able to determine to which position of the image output from the display device 111. That is, the position of the laser output from the simulated firearm 112 and the image output from the display device 111 should be able to match each other. To do this, first, the position of the laser must be detected by detecting the output laser. That is, when the laser detection camera 113 collects an image and transmits the image to the user controller 210, the user controller 210 detects a laser from the collected image and determines a position where the laser is detected. In addition, the user controller 210 maps the image signal output to the display device 111 and the position of the detected laser to accurately determine the position where the user shot using the simulated firearm 112.

감지 헬멧(114)은 사용자 컨트롤러(210)로부터 음향 신호를 수신하여 사용자에게 시뮬레이션 진행 상태에 따른 음향 효과를 제공한다. 음향 효과는 단순히 소리만을 들려주는 것이 아니라, 입체적인 공간감을 제공할 수 있도록 방향성이 있는 3차원 입체 음향으로 제공될 수 있다. 3차원 입체 음향을 발생하기 위해 감지 헬멧은 5.1 채널 스피커나 그 이상의 채널의 스피커를 구비할 수 있다. 또한 감지 헬멧(114)은 사격 시뮬레이션이 3차원 입체 영상을 제공하는 경우에 3차원 입체 영상용 입체 안경을 구비할 수 있다. 현재 상용화되어 제공되는 3차원 입체 영상 방식에는 무안경식, 편광 방식 및 셔터 글래스 방식 등이 있으나, 이 중 안경이 불필요한 무안경식은 대화면 구현이 어렵다는 문제가 있다. 그리고 편광 방식 및 셔터 글래스 방식은 모드 안경을 필요로 한다. 이에 본 발명의 가상 사격 시스템은 감지 헬멧(114)에 안경을 구비한다. 안경은 3차원 입체 영상의 구현 방식에 따라 편광 안경 또는 셔터 글래스 방식의 안경이 선택되어 구비될 수 있으며, 본 발명에서는 일 예로 셔터 글래스 방식의 안경이 사용되는 것으로 가정한다. 그리고 3차원 입체 영상은 감지 헬멧(114)에 구비된 안경만으로 구현될 수 없으므로, 가상 사격 시스템이 3차원 입체 영상을 제공하기 위해서는 디스플레이 장치(111)에서 출력되는 영상이 3차원 입체 영상의 형태로 제공되어야 한다.The sensing helmet 114 receives a sound signal from the user controller 210 to provide a sound effect according to the simulation progress state to the user. The sound effect may not be merely a sound, but may be provided as a directional three-dimensional stereo sound to provide a three-dimensional sense of space. In order to generate three-dimensional stereo sound, the sensing helmet may be equipped with 5.1-channel speakers or more. In addition, the sensing helmet 114 may be provided with three-dimensional glasses for three-dimensional stereoscopic images when the shooting simulation provides a three-dimensional stereoscopic image. Currently commercially available three-dimensional stereoscopic image system, such as a glasses-free, a polarizing method and a shutter glass method, but there is a problem that the implementation of a large-screen glasses-free glasses is difficult. The polarization method and the shutter glass method require mode glasses. Accordingly, the virtual shooting system of the present invention includes glasses on the sensing helmet 114. The glasses may be provided with a polarized glasses or a shutter glass glasses according to the implementation method of the three-dimensional stereoscopic image, it is assumed in the present invention that the glasses of the shutter glass glasses are used as an example. In addition, since the 3D stereoscopic image may not be implemented by glasses provided in the sensing helmet 114, the image output from the display device 111 may be in the form of a 3D stereoscopic image in order to provide a 3D stereoscopic image to the virtual shooting system. Should be provided.

추가로 감지 헬멧(114)은 사용자의 시선 방향을 확인하기 위한 적어도 하나의 센서를 구비할 수 있다. 일 예로 감지 헬멧(114)은 사용자의 시선 방향을 확인하기 위해 자이로 센서(gyro sensor)를 구비할 수 있다. 자이로 센서는 자이로스코프(gyroscope)를 이용하여 각속도를 검출함으로서 방향 및 기울기를 측정할 수 있는 센서로서 최근 휴대폰에 적용되어 보급되고 있는 센서이다. 또한 감지 헬멧(114)은 자이로센서 이외에 가속도 센서나 중력 센서 및 지자기 센서와 같은 다른 센서를 구비하여 사용자의 시선 방향을 확인할 수 있다. 뿐만 아니라 복수개의 센서를 구비하고, 복수개의 센서 각각에서 감지되는 감지 신호를 조합하여 더욱 정확하게 상요자의 시선 방향을 확인할 수도 있다.In addition, the sensing helmet 114 may be provided with at least one sensor for checking the user's gaze direction. For example, the sensing helmet 114 may be provided with a gyro sensor to check the user's gaze direction. Gyro sensor is a sensor that can measure the direction and inclination by detecting the angular velocity by using a gyroscope is a sensor that has been recently applied to the mobile phone. In addition, the sensing helmet 114 may be provided with other sensors such as an acceleration sensor, a gravity sensor, and a geomagnetic sensor in addition to the gyro sensor to check the user's gaze direction. In addition, a plurality of sensors may be provided, and combinations of detection signals sensed by each of the plurality of sensors may be used to more accurately identify the gaze direction of the user.

또한 감지 헬멧(114)은 사격 시뮬레이션의 사실감을 더하기 위하여 적어도 하나의 진동수단을 구비할 수 있다. 진동 수단은 진동 모터 등으로 구현될 수 있으며, 사격 시뮬레이션 진행시에 사용자가 다른 사용자 또는 가상의 적으로부터 피격당한 경우에 진동을 발생하여 사용자에게 실감나는 사격 시뮬레이션을 제공할 수 있다. 그리고 감지 헬멧에 구비되는 진동 수단은 사격 시뮬레이션에서 사용자의 머리 부분에 피격을 당한 것으로 판별된 경우에만 진동이 발생하도록 설정될 수도 있다. 또한 도시하지 않았으나, 감지 헬멧(114)은 사용자 컨트롤러(210)와의 신호 전송을 위한 통신 수단을 구비할 수 있다. 만일 통신 수단이 유선으로 사용자 컨트롤러(210)와 신호를 전송하게 되면, 사용자에게 불편을 초래할 수 있으므로, 감지 헬멧(114)은 사용자 컨트롤러(210)와의 통신을 위하여 무선 통신 수단을 구비할 수 있다.In addition, the sensing helmet 114 may be provided with at least one vibration means to add the realism of the shooting simulation. The vibration means may be implemented by a vibration motor or the like, and when the user is hit by another user or a virtual enemy during the firing simulation, vibration may be generated to provide a realistic firing simulation to the user. The vibration means provided in the sensing helmet may be set to generate vibration only when it is determined in the shooting simulation that the user's head is hit. In addition, although not shown, the sensing helmet 114 may include a communication means for transmitting a signal with the user controller 210. If the communication means transmits a signal with the user controller 210 by wire, it may cause inconvenience to the user. Therefore, the sensing helmet 114 may include a wireless communication means for communication with the user controller 210.

진동 조끼(115) 또한 사격 시뮬레이션의 사실감을 더하기 위하여 감지 헬멧(114)과 마찬가지로 복수개의 진동 수단을 구비한다. 복수개의 진동 수단 각각은 진동 조끼(115)에 분산 배치되어 사용자가 피격당한 위치를 정확히 표현할 수 있도록하여 더욱 사실적인 사격 시뮬레이션이 수행될 수 있도록 한다. 그리고 진동 조끼(115)는 사용자 컨트롤러(210)와 통신을 수행하고, 사용자 컨트롤러(210)로부터 전송되는 제어 신호에 따라 복수개의 진동 수단을 개별적으로 제어하기 위한 진동 제어기를 구비할 수 있다.The vibration vest 115 also has a plurality of vibration means as well as the sensing helmet 114 to add realism to the shooting simulation. Each of the plurality of vibration means is distributedly disposed in the vibration vest 115 so that the user can accurately represent the location to be hit so that more realistic shooting simulation can be performed. In addition, the vibration vest 115 may include a vibration controller for communicating with the user controller 210 and individually controlling a plurality of vibration means according to a control signal transmitted from the user controller 210.

사용자 식별 카드(116)는 사격 시뮬레이션을 수행하는 사용자에 대한 사용자 식별 정보를 저장한다. 사용자 식별 카드(116)는 RFID 카드로 구현될 수 있으며, 무선으로 사용자 컨트롤러(210)로 사용자 식별 정보를 전송할 수 있다. 이에 사용자 컨트롤러(210)는 사용자 식별 정보를 판별하여, 저장된 사용자 정보를 호출하여 사격 시뮬레이션을 진행한다.The user identification card 116 stores user identification information for the user who performs shooting simulation. The user identification card 116 may be implemented as an RFID card, and may wirelessly transmit user identification information to the user controller 210. In response, the user controller 210 determines the user identification information, calls the stored user information, and proceeds to fire simulation.

체감 제공부(110)에 대응하는 하나의 사용자 컨트롤러(210 ~ 2n0)는 그래픽 처리부(211), 총기 제어부(212), 레이저 인식부(213), 움직임 감지부(214), 진동 신호 발생부(215), 사용자 인식부(216), 통신부(217) 및 정보 저장부(218)를 구비한다.One user controller 210 to 2n0 corresponding to the haptic providing unit 110 may include a graphic processor 211, a gun controller 212, a laser recognizer 213, a motion detector 214, and a vibration signal generator ( 215, a user recognition unit 216, a communication unit 217, and an information storage unit 218.

먼저 그래픽 처리부(211)는 체감 제공부(110)의 디스플레이 장치(111)에 대응하는 구성으로 정보 저장부(218)에 저장된 사격 시뮬레이션 화면 정보 중 현재 디스플레이되어야 하는 화면 정보를 인가받아, 디스플레이 장치(111)가 인식할 수 있는 영상 신호로 변환하는 기능을 수행한다.First, the graphic processor 211 is configured to correspond to the display device 111 of the haptic providing unit 110 and receives screen information to be currently displayed from the shooting simulation screen information stored in the information storage unit 218. And converts the image signal into recognizable image.

총기 제어부(212)는 모의 총기(112)에 대응하는 구성으로, 모의 총기(112)로부터 격발 신호를 인가받아 모의 총기(112)의 격발 유무를 판별하며, 모의 총기(112)가 격발된 경우 반발력 신호를 모의 총기로 제공하여 모의 총기(112)에 격발에 대한 반발력이 발생되도록 한다. 또한 총기 제어부(212)는 모의 총기에 부가 기능 버튼이 구비된 경우에, 부가 기능 버튼의 선택 여부를 판별하여 선택된 부가 기능 버튼에 대응하여 미리 지정된 동작을 수행할 수 있도록 한다. 이때 부가 기능 버튼에 대응하여 미리 지정된 동작은 모의 총기(212)에 대한 제어가 포함될 수도 있으나, 기본적으로는 사격 시뮬레이션 진행을 위한 동작이다. 이러한 부가 기능 버튼의 일 예로는 사용자에 대응하는 사격 시뮬레이션 상의 캐릭터의 움직임 제어나 총을 제외한 다른 종류의 무기 사용 등의 기능일 수 있다.The firearm control unit 212 has a configuration corresponding to the simulated firearms 112, determines whether the simulated firearms 112 are triggered by receiving a trigger signal from the simulated firearms 112, and when the simulated firearms 112 are triggered, the repulsive force is triggered. The signal is provided to the simulated firearm so that the reaction force against the trigger is generated in the simulated firearm 112. In addition, when the simulated firearm is equipped with the additional function button, the firearm controller 212 may determine whether to select the additional function button and perform a predetermined operation corresponding to the selected additional function button. In this case, a predetermined operation corresponding to the additional function button may include control of the simulated firearm 212, but basically, the operation is for proceeding shooting simulation. An example of such an additional function button may be a function of controlling the movement of a character in a shooting simulation corresponding to a user or using a weapon other than a gun.

레이저 인식부(213)는 레이저 검출 카메라(113)에 대응하는 구성으로, 레이저 검출 카메라(113)에서 수집되어 전송된 영상을 분석하여 모의 총기(112)에서 출력된 레이저를 검출하고, 검출된 레이저의 위치를 판별한다. 이때 판별하는 레이저의 위치는 사격 시뮬레이션 상의 가상 공간에서의 위치가 아닌 모의 총기(112)에서 출력된 레이저가 디스플레이 장치(111)에 도달한 실제 위치를 의미한다. 레이저의 위치를 정확하게 검출하기 위해서 레이저 인식부(213)는 프레임 그루버(Frame groover)등을 이용할 수 있다. 그리고 레이저 인식부(213)는 레이저의 실제 위치와 디스플레이 장치(111)에서 출력되는 영상에 대한 정보로부터 레이저의 실제 위치를 사격 시뮬레이션 상의 가상 공간에서의 위치로 변환한다.The laser recognition unit 213 has a configuration corresponding to the laser detection camera 113, and analyzes the image collected and transmitted by the laser detection camera 113 to detect the laser output from the simulated firearm 112, and detects the detected laser. Determine the position of. In this case, the position of the laser to be determined means not the position in the virtual space on the firing simulation but the actual position where the laser output from the simulated firearm 112 reaches the display device 111. In order to accurately detect the position of the laser, the laser recognizer 213 may use a frame groover or the like. The laser recognizer 213 converts the actual position of the laser from the information about the actual position of the laser and the image output from the display device 111 into a position in the virtual space on the shooting simulation.

움직임 감지부(214)는 감지 헬멧(114)에 대응하는 구성으로 감지 헬멧(114)에 구비된 적어도 하나의 센서가 감지하여 인가되는 감지 신호를 분석하여 감지 헬멧(114)의 움직임을 판별한다. 판별된 움직임은 사용자의 시선의 움직임으로 분석될 수 있으며, 이에 디스플레이 장치(111)에 출력되는 사격 시뮬레이션 상의 가상 공간에 대한 영상이 시선의 움직임에 따라 변화되도록 한다. 또한 움직임 감지부(214)는 감지 헬멧(114)로 사격 시뮬레이션 진행 시에 발생하는 음향 신호를 전송하여 감지 헬멧(114)에 구비된 스피커를 통해 음향이 출력되도록 할 수 있다. 경우에 따라서는 사용자 컨트롤러(210)에 음향 신호를 출력하는 음향 처리부가 움직임 감지부(214)와 별개로 구비될 수 있다.The movement detecting unit 214 determines a movement of the sensing helmet 114 by analyzing a sensing signal applied by sensing at least one sensor provided in the sensing helmet 114 in a configuration corresponding to the sensing helmet 114. The determined motion may be analyzed as the movement of the gaze of the user, thereby causing the image of the virtual space on the fire simulation output to the display device 111 to change according to the movement of the gaze. In addition, the motion detection unit 214 may transmit a sound signal generated when the shooting simulation proceeds to the detection helmet 114 to output sound through a speaker provided in the detection helmet 114. In some cases, the sound processor for outputting a sound signal to the user controller 210 may be provided separately from the motion detector 214.

진동 신호 발생부(215)는 진동 조끼(115)에 대응하는 구성으로 사격 시뮬레이션 상에서 사용자가 피격된 경우에 진동 조끼(115)에 구비된 복수개의 진동 수단이 각각 개별적으로 진동할 수 있도록 진동 신호를 전송한다. 그리고 진동 신호 발생부(215)는 감지 헬멧(114)에 진동 수단이 구비된 경우에, 감지 헬멧(114)에 구비된 진동 수단이 진동하도록 감지 헬멧(114)로 진동 신호를 전송할 수 있다.The vibration signal generator 215 is configured to correspond to the vibration vest 115 to generate a vibration signal so that a plurality of vibration means provided in the vibration vest 115 may individually vibrate when the user is hit on the shooting simulation. send. When the vibration helmet is provided in the sensing helmet 114, the vibration signal generator 215 may transmit a vibration signal to the sensing helmet 114 such that the vibration means included in the sensing helmet 114 vibrates.

사용자 인식부(216)는 사용자 식별 카드(116)에 대응하여 사용자 컨트롤러에 구비되며, 사용자 식별 카드(116)로부터 전송되는 사용자 식별 정보를 획득하여 저장된 사용자 정보를 호출한다.The user recognition unit 216 is provided in the user controller in response to the user identification card 116, acquires user identification information transmitted from the user identification card 116, and calls the stored user information.

정보 저장부(218)는 사격 시뮬레이션을 진행하기 위한 시뮬레이션 정보를 저장하고, 사용자 인식부(216)에서 사용자 정보를 호출 신호가 발생하면, 메인 서버(300)로 사용자 정보를 요청하여 획득하고 저장한다. The information storage unit 218 stores simulation information for executing shooting simulation, and when a call signal is generated for the user information from the user recognition unit 216, requests and obtains and stores the user information from the main server 300. .

여기서 사용자 정보에는 미리 저장된 사용자 사진이나 신상 정보 및 이전까지 수행한 사격 시뮬레이션 상태 정보, 전적 정보 및 상호 연동하여 사격 시뮬레이션을 수행한 다른 사용자 정보를 포함할 수 있다. 만일 사용자 정보에 사용자 사진과 같은 사용자 이미지가 존재하면, 사격 시뮬레이션 상에서 사용자가 활용하는 캐릭터에 사용자의 이미지를 적용할 수도 있다.In this case, the user information may include pre-stored user photographs or personal information, fire shooting state information previously performed, total information, and other user information in which fire simulation was performed in cooperation with each other. If a user image such as a user picture exists in the user information, the user's image may be applied to a character used by the user in the shooting simulation.

상기에서는 복수개의 체감 제공부(110 ~ 1n0)와 복수개의 사용자 컨트롤러(210 ~ 2n0)가 1 대 1로 대응하여 구성되어 복수개의 사용자 컨트롤러(210 ~ 2n0) 각각이 대응하는 하나의 체감 제공부(110 ~ 1n0)만을 제어하는 것으로 설명하였으나, 경우에 따라서는 복수개의 사용자 컨트롤러(210 ~ 2n0) 각각이 복수개의 체감 제공부(110 ~ 1n0)를 제어할 수도 있다. 즉 체감 제공부(110 ~ 1n0)가 복수개일 지라도 하나의 사용자 컨트롤러로 복수개의 체감 제공부(110 ~ 1n0)를 제어하여도 무방하다. 다만 사용자 컨트롤러가 복수개의 체감 제공부(110 ~ 1n0)를 제어하는 경우에 동시에 제어 가능한 체감 제공부(110 ~ 1n0)의 개수는 한정될 수 있으며, 이때 동시에 제어 가능한 체감 제공부(110 ~ 1n0)의 개수는 사용자 컨트롤러의 성능에 따라 달라질 수 있다. 본 발명에서는 일예로 하나의 사용자 컨트롤러가 동시에 동시에 제어 가능한 체감 제공부(110 ~ 1n0)의 개수는 4개인 것으로 가정한다. In the above description, the plurality of haptic providing units 110 to 1n0 and the plurality of user controllers 210 to 2n0 are configured in a one-to-one correspondence, so that each of the plurality of user controllers 210 to 2n0 corresponds to one haptic providing unit ( Although only 110 to 1n0 has been described, in some cases, each of the plurality of user controllers 210 to 2n0 may control the plurality of haptic providing units 110 to 1n0. That is, even if there are a plurality of haptic providing units 110 to 1n0, a plurality of haptic providing units 110 to 1n0 may be controlled by one user controller. However, when the user controller controls the plurality of haptic providing units 110 to 1n0, the number of haptic providing units 110 to 1n0 that can be controlled at the same time may be limited, and at this time, the haptic providing unit 110 to 1n0 that can be controlled at the same time. The number of times may vary depending on the performance of the user controller. In the present invention, as an example, it is assumed that the number of haptic providing units 110 to 1n0 that can be controlled simultaneously by one user controller is four.

도3 은 본 발명의 일 예에 따른 감지 헬멧을 나타낸다.3 shows a sensing helmet according to an embodiment of the present invention.

도3 을 참조하면, 본 발명에 따른 감지 헬멧은 상기한 바와 같이, 적어도 하나의 스피커(SPK) 및 적어도 하나의 감지 센서(HSSR)를 구비할 수 있다. 적어도 하나의 스피커(SPK)는 사용자 컨트롤러(210)로부터 음향 신호를 받아서 음향을 출력하며, 만일 사격 시뮬레이션이 입체 음향을 지원하는 경우, 복수개의 스피커를 구비하여 입체 음향 효과를 제공할 수 있다. 본 발명에서는 사격 시뮬레이션이 입체 음향을 지원하는 것으로 가정하여, 감지 헬멧(114)이 5.1 채널 스피커를 구비하여 입체 음향 효과를 제공하는 것으로 가정한다. 도3 에서는 감지 헬멧(114)의 측면에 스피커가 구비되는 것으로 도시하였으나, 스피커(SPK)의 위치는 다양하게 조절될 수 있다.Referring to FIG. 3, the sensing helmet according to the present invention may include at least one speaker SPK and at least one sensing sensor HSSR. The at least one speaker SPK receives a sound signal from the user controller 210 and outputs a sound. If the shooting simulation supports stereo sound, the at least one speaker SPK may include a plurality of speakers to provide a stereo sound effect. In the present invention, it is assumed that the shooting simulation supports the stereo sound, and it is assumed that the sensing helmet 114 is provided with the 5.1 channel speaker to provide the stereo sound effect. In FIG. 3, the speaker is provided on the side of the sensing helmet 114, but the position of the speaker SPK may be variously adjusted.

그리고 사용자의 시선 방향을 감지하기 위한 적어도 하나의 감지 센서(HSSR)는 실제로 사용자의 시선방향 보다는 사용자의 머리의 움직임 방향을 감지하기 위해 구비되며, 도3 에서는 감지 헬멧(114)의 상부에 배치되는 것으로 도시하였으나, 센서의 특성에 따라 사용자의 머리의 움직임을 용이하게 감지할 수 있는 위치에 배치될 수 있다. 상기한 바와 같이, 적어도 하나의 감지 센서(HSSR)는 자이로 센서, 가속도 센서, 중력 센서 및 지자기 센서로 구현될 수 있다.At least one HSSR for detecting a user's gaze direction is actually provided to detect a moving direction of the user's head rather than the user's gaze direction, and in FIG. 3, an upper part of the detection helmet 114 is disposed. Although illustrated as, it may be arranged in a position that can easily detect the movement of the user's head according to the characteristics of the sensor. As described above, the at least one sensing sensor HSSR may be implemented as a gyro sensor, an acceleration sensor, a gravity sensor, and a geomagnetic sensor.

또한 사격 시뮬레이션이 3차원 입체 영상을 제공하는 경우에, 감지 헬멧(114)의 전면부에는 3차원 입체 영상용 입체 안경이 구비된다. 감지 헬멧(114)에 구비되는 3차원 입체 안경은 3차원 입체 영상의 구현 방법에 따라 편광 방식 또는 셔터 글래스 방식의 입체 안경이 사용될 수 있다. 그리고 상기한 바와 같이, 감지 헬멧(114)은 사격 시뮬레이션의 사실감을 더하기 위하여 적어도 하나의 진동 수단을 구비하고, 사용자 컨트롤러(210)의 진동 신호 발생부(215)에서 인가되는 진동 신호에 응답하여 진동할 수 있도록 할 수 있다. 진동 수단의 개수는 한정되지 않으나, 도3 에서는 일 예로 감지 헬멧(114)의 양측면에 배치되는 것으로 도시하였다.In addition, when the shooting simulation provides a three-dimensional stereoscopic image, the front surface of the sensing helmet 114 is provided with a three-dimensional glasses for the three-dimensional stereoscopic image. As the 3D stereoscopic glasses provided in the sensing helmet 114, the 3D glasses of the polarization method or the shutter glass method may be used according to a 3D stereoscopic image. In addition, as described above, the sensing helmet 114 includes at least one vibration means in order to add realism to the shooting simulation, and vibrates in response to a vibration signal applied from the vibration signal generator 215 of the user controller 210. You can do it. Although the number of vibration means is not limited, it is illustrated in FIG. 3 as being disposed on both sides of the sensing helmet 114 as an example.

도4 는 본 발명의 일 예에 따른 모의 총기를 나타낸다.4 illustrates a simulated firearm according to an example of the present invention.

도4 에 도시된 바와 같이, 모의 총기(112)는 실제 총기와 유사한 형태를 가진다. 모의 총기(112)의 형태는 도4 의 총기 형태로 한정되지 않으며, 다양한 실제 총기가 존재하듯이 다양한 형태의 모의 총기(112)가 사격 시뮬레이션에 사용될 수 있다. 그리고 모의 총기(112)의 총구에는 레이저 포인터(LSP)가 구비된다. 레이저 포인터(LSP)는 모의 총기(112)의 방아쇠가 당겨져서 격발 신호가 발생하면, 레이저를 출력한다. 레이저는 확산이 적고 직진성이 강한 빛이므로 실제 총기의 탄환을 대신하여 모의 총기(112)의 탄환 역할을 수행한다. 그리고 도4에서는 모의 총기(112)에서 반발력 발생부(KIG)는 모의 총기(112)의 뒤쪽에 배치된다. 더욱 구체적으로 반발력 발생부(KIG)에서 발생하는 반발력이 실제 총기에서 총탄이 격발되는 위치에 대응하도록 배치된다. 또한 도4 에서는 모의 총기(112)에 4개의 오른쪽 부가 기능 버튼(RB)을 도시하였다. 비록 도4 에서는 모의 총기(112)의 오른쪽에만 부가 기능 버튼(RB)을 도시하였으나, 왼쪽에도 부가 기능 버튼을 구비할 수 있다. 또한 오른쪽과 왼쪽의 부가 기능 버튼의 개수는 사격 시뮬레이션의 설정에 따라 다양하게 조절될 수 있다.As shown in Fig. 4, the simulated firearm 112 has a form similar to an actual firearm. The shape of the simulated firearm 112 is not limited to the form of the firearm of FIG. 4, and various types of simulated firearms 112 may be used in the shooting simulation as various actual firearms exist. The muzzle of the simulated firearm 112 is provided with a laser pointer LSP. The laser pointer LSP outputs a laser when a trigger signal of the simulated firearm 112 is pulled and a trigger signal is generated. Since the laser is light having low diffusion and strong straightness, the laser serves as a bullet of the simulated firearm 112 in place of the bullet of the actual firearm. In FIG. 4, the repulsive force generating unit KIG is disposed behind the simulated firearm 112 in the simulated firearm 112. More specifically, the repulsive force generated in the repelling force generating unit KIG is arranged to correspond to the position where the bullet is triggered in the actual firearm. 4, four right side additional function buttons RB are shown in the simulated firearm 112. Although FIG. 4 illustrates the additional function button RB only on the right side of the simulated firearm 112, the additional function button may be provided on the left side. In addition, the number of additional function buttons on the right and left sides can be variously adjusted according to the setting of the shooting simulation.

도5 는 본 발명의 일 예에 따른 반발력 생성 수단의 구조를 나타낸다.5 shows the structure of the repulsive force generating means according to an embodiment of the present invention.

도5 의 모의 총기(112)는 비록 도4 의 모의 총기(112)와 형상이 다르지만, 상기한 바와 같이, 모의 총기는 실제 총기의 형상과 유사한 여러 가지 형상으로 구현될 수 있다.Although the simulated firearm 112 of FIG. 5 is different in shape from the simulated firearm 112 of FIG. 4, as described above, the simulated firearm can be implemented in various shapes similar to the shape of an actual firearm.

도5 를 참조하면, 반발력 생성 수단은 압축 공기를 생성하는 에어 콤프레셔(Air Compressor : ACP), 격발 신호에 응답하여 개폐되어 반발력 생성부(KIG)로 에어 콤프레셔에서 생성된 압축 공기를 반발력 생성부(KIG)로 전달하는 솔레노이드 밸브(Solanoid Valve : SV) 및 압축 공기를 이용하여 모의 총기(112)에서 사용자에게 반발력을 제공하는 반발력 생성부(KIG)를 구비한다.Referring to FIG. 5, the repulsive force generating means is an air compressor (ACP) that generates compressed air, is opened and closed in response to a trigger signal, and the compressed air generated by the air compressor by the repulsive force generating unit (KIG) is formed into a repulsive force generating unit ( And a repulsive force generating unit (KIG) for providing repulsive force to the user in the simulated firearm 112 using a solenoid valve (SV) and compressed air to be delivered to the KIG.

반발력 생성 수단이 반발력을 발생하는 과정을 살펴보면, 먼저 에어 콤프레셔(ACP)는 압축 공기가 항상 미리 지정된 압력 이상이 되도록 모터를 구동하여 공기를 압축하여 저장한다. 이때 솔레노이드 밸브(SV)가 닫혀있으므로, 압축 공기는 모의 총기(112)에 전달되지 않는다. 이후 사용자가 모의 총기(112)를 격발하면 격발 신호가 솔레노이드 밸브(SV)에 전달되어, 솔레노이드 밸브(SV)가 열린다. 솔레노이브 밸브(SV)가 열리게 됨에 따라 압축 공기는 순간적으로 솔레노이드 밸브(SV)를 통해 반발력 생성부(KIG)의 공기 전달 파이프(ARP)로 전달된다. 그리고 반발력 생성부(KIG)의 공기 전달 파이프(ARP)는 실제 총기에서 탄환이 격발되는 노리쇠(Breechblock) 위치에 대응하는 모의 총기(112)의 위치에서 사용자의 방향으로 굴곡을 이루어 솔레노이드 밸브(SV)를 통해 전달된 압축 공기가 사용자 방향의 반발력이 생성하도록 한다. 즉 실제 총기와 달리 모의 총기(112)는 에어 콤프레셔(ACP)에서 생성한 압축 공기를 솔레노이드 밸브(SV)에서 개폐하도록 하여 모의 총기의 반발력 생성부(KIG)에 반발력이 생기도록 한다.Looking at the process of generating the repulsive force repulsive force generating means, first, the air compressor (ACP) compresses and stores the air by driving the motor so that the compressed air is always above a predetermined pressure. At this time, since the solenoid valve SV is closed, compressed air is not transmitted to the simulated firearm 112. Then, when the user triggers the simulated firearm 112, the trigger signal is transmitted to the solenoid valve SV, and the solenoid valve SV is opened. As the solenoid valve SV is opened, the compressed air is instantaneously transferred to the air transfer pipe ARP of the repulsive force generating unit KIG through the solenoid valve SV. And the air transfer pipe (ARP) of the repulsive force generating unit (KIG) is bent in the direction of the user in the position of the simulated firearm 112 corresponding to the position of the breck (Breechblock) in which the bullet is triggered in the real gun solenoid valve (SV) Compressed air delivered through the to create a reaction force in the user direction. That is, unlike the actual firearm, the simulated firearm 112 opens and closes the compressed air generated by the air compressor ACP in the solenoid valve SV to generate a repulsive force in the repulsive force generation unit KIG of the simulated firearm.

도6 은 본 발명의 다른 예에 따른 모의 총기를 나타낸다.6 shows a simulated firearm according to another example of the present invention.

도6 에서는 복수의 사용자가 각각 모의 총기를 가지고, 동시에 사격 시뮬레이션을 수행하는 경우를 나타내었다. 복수의 사용자는 서로 다른 공간에서 사격 시뮬레이션을 수행할 수도 있으나, 경우에 따라서는 동일한 공간에서 함께 사격 시뮬레이션을 수행할 수도 있다.6 illustrates a case where a plurality of users each have a simulated firearm and simultaneously perform shooting simulation. Although a plurality of users may perform shooting simulation in different spaces, in some cases, shooting simulations may be performed together in the same space.

상기에서 하나의 사용자 컨트롤러로 복수개의 체감 제공부(110 ~ 1n0)를 제어하여도 무방한 것으로 설명하였다. 즉 사용자 컨트롤러(210)의 총기 제어부(212)는 복수개의 모의 총기(GUN1 ~ GUN4)를 제어할 수 있다. 그리고 복수개의 모의 총기 각각에는 개별 총기 제어부(IGC1 ~ IGC4)가 구비된다. 복수개의 개별 총기 제어부(IGC1 ~ IGC4) 각각은 대응하는 모의 총기(GUN1 ~ GUN4)에서 사용자의 조작에 의해 방아쇠가 당겨졌는지 판별하고, 방아쇠가 당겨졌으면 격발 신호를 발생하여 총기 제어부(212)로 전송한다. 또한 격발 신호를 대응하는 솔레노이드 밸브(SV1 ~ SV4)로 전송하여 에어 컴프레셔(ACP)에서 생성한 압축 공기가 대응하는 모의 총기(GUN1 ~ GUN4)로 전달되어 반발력이 생성되도록 한다.In the above description, the plurality of haptic providing units 110 to 1n0 may be controlled by one user controller. That is, the firearm controller 212 of the user controller 210 may control the plurality of simulated firearms GUN1 to GUN4. Each of the plurality of simulated firearms is provided with individual firearm control units IGC1 to IGC4. Each of the plurality of individual firearm control units IGC1 to IGC4 determines whether the trigger is pulled by a user's operation in the corresponding simulated firearms GUN1 to GUN4, and if a trigger is pulled, a trigger signal is generated and transmitted to the gun control unit 212. do. In addition, the trigger signal is transmitted to the corresponding solenoid valves SV1 to SV4 so that the compressed air generated by the air compressor ACP is transmitted to the corresponding simulated guns GUN1 to GUN4 to generate the repulsive force.

도5 에서는 하나의 모의 총기(112)에 각각 에어 컴프레셔(ACP)와 솔레노이드 밸브(SV)가 구비되는 것으로 도시하였다. 그러나 모의 총기(112)의 격발을 감지하여 동작하는 솔레노이드 밸브(SV)와 달리 에어 컴프레셔(ACP)는 모의 총기의 격발 이전에 압축 공기를 생성하기 때문에 모의 총기가 복수개일 지라도 하나의 에어 컴프레셔(ACP)로 대응할 수 있다.In FIG. 5, one simulated firearm 112 is provided with an air compressor ACP and a solenoid valve SV, respectively. However, unlike the solenoid valve (SV) which operates by detecting the trigger of the simulated firearm 112, the air compressor (ACP) generates compressed air before the trigger of the simulated firearm, so even if there are a plurality of simulated firearms, one air compressor (ACP) is used. ).

도5 의 개별 총기 제어부(IGC1 ~ IGC4)는 총기 제어부(212)에 포함되어 구현될 수 있으나, 경우에 따라서는 모의 총기(GUN1 ~ GUN4) 내부에 구현될 수도 있다.The individual firearm control units ICC1 to IGC4 of FIG. 5 may be implemented by being included in the firearm control unit 212, but in some cases, may be implemented in the simulated firearms GUN1 to GUN4.

그리고 복수의 사용자가 동일한 공간에서 사격 시뮬레이션을 수행할 때에도, 복수의 사용자는 개별적으로 서로 다른 사격 시뮬레이션을 수행할 수 있지만 경우에 따라서는 하나의 동일한 디스플레이 장치(111)에서 복수의 사용자가 사격 시뮬레이션을 수행할 수도 있다. 즉 하나의 디스플레이 장치(111)를 복수의 사용자가 공유하여 사격 시뮬레이션을 진행할 수도 있다. 복수의 사용자가 하나의 디스플레이 장치(111)를 공유하여 사용하게 되면, 복수의 사용자 각각에 대응하는 모의 총기(GUN1 ~ GUN4)가 출력하는 레이저는 모두 공유하는 하나의 디스플레이 장치(111)로 출력될 것이다. 즉 복수개의 모의 총기(GUN1 ~ GUN4)로부터 출력된 레이저가 모두 하나의 공유된 디스플레이 장치(111)로 출력된다. 이 때, 디스플레이 장치(111)의 영상을 수집하는 레이저 검출 카메라(113)는 단순히 영상을 수집하여 레이저 인식부(213)로 전송하는 단순한 동작을 수행하므로, 영상에 레이저가 비추어 진 경우에 복수개의 모의 총기(GUN1 ~ GUN4) 중 어느 모의 총기에서 출력된 레이저인지 판별할 수 없다. 그리고 레이저 인식부(213) 또한 복수개의 모의 총기(GUN1 ~ GUN4)에서 출력되는 레이저가 모두 동일한 레이저라면 어느 모의 총기에서 출력된 레이저인지 판별하기 어렵다. 이에 본 발명에서는 각각의 모의 총기(GUN1 ~ GUN4)에서 전송된 격발 신호의 타이밍과 레이저가 비추어진 타이밍을 비교하여 어떤 모의 총기(GUN1 ~ GUN4)에서 레이저가 출력되었는지 판별하는 방법을 사용할 수 있다. 그러나 이러한 타이밍에 대한 매칭 방법은 다수의 사용자가 동시에 사격 시뮬레이션을 진행하는 경우에 부정확한 결과를 도출할 수도 있다. 이에 본 발명에서는 복수개의 모의 총기(GUN1 ~ GUN4) 각각의 레이저 포인터(LSP)에서 출력되는 레이저의 파장이나 출력 패턴을 다르게 설정할 수 있다. 즉 레이저의 파장이나 출력 패턴이 서로 다르게 설정되면, 레이저 인식부(213)는 디스플레이 장치(111)에 비추어져고, 레이저 검출 카메라(113)에 의해 수집된 영상을 인가받아 분석하여, 수집된 영상에 표시된 레이저가 어떤 모의 총기에서 출력된 레이저인지 판별할 수 있게 된다. 그리고 타이밍 매칭 방법과 레이저의 파장 및 출력 패턴을 서로 다르게 설정하는 방법을 조합하여 사용할 수도 있다.In addition, even when a plurality of users perform a shooting simulation in the same space, a plurality of users may individually perform different shooting simulations, but in some cases, a plurality of users may perform a shooting simulation on the same display device 111. It can also be done. That is, a plurality of users may share a single display device 111 to perform shooting simulation. When a plurality of users share and use one display apparatus 111, all lasers output by the simulated guns GUN1 to GUN4 corresponding to each of the plurality of users may be output to one display apparatus 111 that is shared. will be. That is, the lasers output from the plurality of simulated firearms GUN1 to GUN4 are all output to one shared display device 111. In this case, since the laser detection camera 113 collecting the image of the display device 111 performs a simple operation of simply collecting the image and transmitting the image to the laser recognition unit 213, a plurality of laser beams are displayed on the image. It is not possible to determine which of the simulated firearms GUN1 to GUN4 is the laser output from the simulated firearms. In addition, if the laser output unit 213 also outputs the lasers output from the plurality of simulated firearms GUN1 to GUN4 are all the same laser, it is difficult to determine which laser device is output from the simulated firearm. Accordingly, the present invention compares the timing of the trigger signal transmitted from each of the simulation guns GUN1 to GUN4 with the timing at which the laser is emitted, and thus, a method of determining which simulation guns GUN1 to GUN4 outputs the laser. However, this method of matching timing may lead to inaccurate results when multiple users simultaneously perform shooting simulation. Accordingly, in the present invention, the wavelength or output pattern of the laser output from the laser pointer LSP of each of the plurality of simulated firearms GUN1 to GUN4 can be set differently. That is, when the wavelength or the output pattern of the laser is set differently, the laser recognition unit 213 is reflected on the display device 111, the image collected by the laser detection camera 113 is applied to and analyzed, the collected image It is possible to determine which simulated gun the laser is displayed. The timing matching method and the method of differently setting the wavelength and the output pattern of the laser may be used in combination.

도7 은 본 발명의 일 예에 따른 진동 조끼를 나타낸다.7 shows a vibration vest according to an embodiment of the present invention.

도7 에서 진동 조끼(115)는 복수개의 진동 수단(FJV, BJV) 및 신호 수신부(SRU)를 구비한다. 복수개의 진동 수단(FJV, BJV)은 진동 조끼(115)에서 전면 진동 수단(FJV)과 후면 진동 수단(BJV)으로 구분될 수 있으며, 전면 진동 수단(FJV)과 후면 진동 수단(BJV) 각각은 분산 배치된 복수개의 진동 수단을 구비한다. 진동 조끼(115)가 전면과 후면 각각에 분산 배치된 복수개의 진동 수단을 구비하는 것은 사격 시뮬레이션의 사실감을 높이기 위해서이다. 즉 사격 시뮬레이션 진행 중에 사용자가 피격 당한 경우에, 피격 당한 위치에 대응하는 위치에 배치된 진동 수단이 진동을 하도록 하여, 사용자에게 자신이 피격당한 위치를 정확히 알릴 수 있도록 한다. 또한 전면 진동 수단(FJV)과 후면 진동 수단(BJV)이 구분되어 있으므로, 사용자가 전방의 적으로부터 피격당했는지, 후방의 적으로부터 피격당했는지를 판별할 수 있도록 한다. 그리고 신호 수신부(SRU)는 사용자 컨트롤러(210)의 진동 신호 발생부(215)로부터 복수개의 진동 수단(FJV, BJV) 중 어떤 진동 수단이 진동할지에 대한 진동 신호를 수신한다. 진동 조끼(115)는 사용자가 착용하는 장치이므로, 유선으로 진동 신호를 수신한다면 사용자가 사격 시뮬레이션을 수행할 때 불편함을 초래할 수 있다. 이에 신호 수신부(SRU)는 무선으로 진동 신호를 수신할 수 있도록 구현되는 것이 바람직하다.In FIG. 7, the vibration vest 115 has a plurality of vibration means FJV, BJV and a signal receiver SRU. The plurality of vibration means (FJV, BJV) may be divided into a front vibration means (FJV) and a rear vibration means (BJV) in the vibration vest 115, each of the front vibration means (FJV) and rear vibration means (BJV) It comprises a plurality of vibration means distributed. The vibration vest 115 is provided with a plurality of vibration means distributed in each of the front and rear to increase the realism of the shooting simulation. That is, when the user is hit while the shooting simulation is in progress, the vibration means disposed at the position corresponding to the hit position causes the vibration to be made, so that the user can be notified exactly where the hit has been hit. In addition, since the front vibration means (FJV) and the rear vibration means (BJV) are separated, it is possible to determine whether the user has been hit by the enemy in front, or hit by the rear enemy. The signal receiving unit SRU receives a vibration signal of which of the plurality of vibration means FJV and BJV vibrates from the vibration signal generator 215 of the user controller 210. Since the vibration vest 115 is a device worn by a user, if the user receives a vibration signal in a wired manner, the vibration vest 115 may cause inconvenience when the user performs the shooting simulation. Accordingly, the signal receiver SRU may be implemented to wirelessly receive the vibration signal.

도8 은 본 발명의 일 예에 따른 레이저 좌표 계산 방법을 나타낸다.8 illustrates a laser coordinate calculation method according to an embodiment of the present invention.

가상 사격 시스템에서 레이저 좌표 계산 방법은 사용자가 모의 총기를 이용하여 출력한 레이저의 위치를 사격 시뮬레이션 상의 가상 공간에서의 위치에 정확히 매칭 시키는 작업이다. 이는 사용자가 목표로 한 타겟을 명중시켰는지, 명중시키지 못했는지를 판별하기 위한 요소로서, 사격 시뮬레이션 진행 시에 가장 중요한 요소 중 하나이다. 예를 들어 사용자가 디스플레이 장치에서 출력하는 영상에서 목표로 한 타겟을 명중시켰음에도, 레이저 좌표의 위치를 정확히 분석하지 못하여 명중시키지 못한 것으로 처리되면, 사용자는 가상 사격 시스템에 대한 흥미를 잃게 된다. 따라서 사용자의 가상 사격 시스템에 대해 흥미를 높이기 위해서는 레이저 좌표에 대한 정확한 처리가 필수적이다.The laser coordinate calculation method in the virtual shooting system is a task of accurately matching the position of the laser output by the user with a simulated gun to the position in the virtual space on the shooting simulation. This is a factor for determining whether the user has hit or missed the target, which is one of the most important factors in the shooting simulation process. For example, if a user hits a target targeted in an image output from a display device, but the user does not accurately analyze the position of the laser coordinates and is not treated, the user loses interest in the virtual shooting system. Therefore, accurate processing of laser coordinates is essential to increase interest in the user's virtual shooting system.

도8 을 참조하여, 본 발명에 따른 레이저 좌표 계산 방법을 설명하면, 먼저 레이저 검출 카메라(113)가 실시간으로 레이저 영상을 획득한다(S110). 사용자가 모의 총기(112)를 격발하여, 모의 총기(112)에서 출력된 레이저가 영상의 특정 위치에 비추어지게 되면, 레이저 검출 카메라(113)는 모의 총기(112)에서 출력된 레이저 영상을 획득하여 제이저 인식부(213)로 전송한다. 여기서, 레이저 검출 카메라(113)는 모의 총기(112)에서 레이저가 출력될 때만 디스플레이 장치(111)에서 출력된 영상을 촬영하도록 구성될 수도 있으나, 일반적으로는 항시 디스플레이 장치(111)에서 출력된 영상을 촬영하여 실시간으로 레이저 인식부(213)로 전송하도록 하는 것이 바람직하다.Referring to FIG. 8, the laser coordinate calculation method according to the present invention will be described first, the laser detection camera 113 obtains a laser image in real time (S110). When the user triggers the simulated firearm 112 and the laser output from the simulated firearm 112 is illuminated at a specific position of the image, the laser detection camera 113 acquires the laser image output from the simulated firearm 112 It transmits to the Jay recognition unit 213. Here, the laser detection camera 113 may be configured to capture an image output from the display device 111 only when the laser is output from the simulated firearm 112, but generally an image output from the display device 111 is always available. It is preferable to take a picture and transmit it to the laser recognition unit 213 in real time.

실시간으로 레이저 영상이 획득되면, 레이저 인식부(213)는 획득된 영상을 분석하여 레이저가 비추어진 위치를 인식한다(S120). 레이저 인식부(213)는 레이저 검출 카메라(113)가 획득하는 영상의 전체 좌표를 미리 저장하고 있으며, 레이저 검출 카메라(113)가 획득하는 영상의 좌표를 저장하고 있으므로, 영상에서 레이저가 검출된 위치에 대한 실제 좌표를 즉각적으로 판단하여 인식할 수 있다.When the laser image is acquired in real time, the laser recognizer 213 analyzes the acquired image to recognize a position where the laser is illuminated (S120). Since the laser recognition unit 213 stores the overall coordinates of the image acquired by the laser detection camera 113 in advance and stores the coordinates of the image acquired by the laser detection camera 113, the position where the laser is detected in the image. Instantly determine and recognize the actual coordinates for.

이후 레이저 인식부(213)는 레이저가 검출된 실제 좌표에 대응하고 있는 사격 시뮬레이션 상의 가상 공간에서의 위치를 미리 작성된 룩업테이블(Look Up Table : LUT)에 매칭하여 가상 공간에서의 좌표로 변환한다(S130).Thereafter, the laser recognition unit 213 converts the position in the virtual space on the firing simulation corresponding to the actual coordinates where the laser is detected, into a coordinate in the virtual space by matching a look up table (LUT) which is prepared in advance ( S130).

사격 시뮬레이션 상의 가상 공간에 대한 영상 데이터는 사용자 컨틀롤러(210)에 미리 저장되어 있으며, 그래픽 처리부(211)는 상기한 바와 같이 시뮬레이션의 진행 상황에 따라 가상 공간에서 필요한 영상 데이터를 영상 신호로 변환하여 디스플레이 장치(111)로 전송한다. 즉 사용자 컨트롤러(210)는 현재 출력되고 있는 사격 시뮬레이션 상의 가상 공간의 전체 좌표를 파악하고 있다. 따라서 디스플레이 장치(111)에서 출력되는 영상들에 대한 좌표를 사용자 컨트롤러(210)가 파악하고 있으므로, 출력되는 영상들에 대한 좌표와 실제 좌표를 매칭시킨 룩업테이블(LUT)을 생성할 수 있다. 룩업테이블이 생성되면, 이후 사격 시뮬레이션 진행시에는 세리저가 비추어진 실제 위치를 룩업테이블에 대입하여 즉각적으로 사격 시뮬레이션 상의 가상 공간에서의 좌표로 변환할 수 있다. 다만 사격 시뮬레이션이 3차원 입체 영상을 제공하는 경우에는 원근감에 따른 좌표의 수정이 필요한 경우가 발생할 수 있다. 이를 위해 본 발명에 따른 레이저 좌표 계산 방법은 역 원근 변환 작업을 더 수행할 수 있다.The image data of the virtual space on the shooting simulation is stored in the user controller 210 in advance, and the graphic processor 211 converts the image data necessary in the virtual space into an image signal according to the progress of the simulation as described above. Transfer to the display device 111. That is, the user controller 210 grasps the overall coordinates of the virtual space on the shooting simulation currently being output. Accordingly, since the user controller 210 knows the coordinates of the images output from the display device 111, a lookup table (LUT) matching the actual coordinates and the coordinates of the output images may be generated. When the lookup table is generated, the firing simulation can be immediately converted into coordinates in the virtual space on the fire simulation by substituting the actual position of the serer into the lookup table. However, if the shooting simulation provides a 3D stereoscopic image, it may be necessary to correct the coordinates according to the perspective. To this end, the laser coordinate calculation method according to the present invention may further perform an inverse perspective transformation.

그리고 변환된 가상 공간에서의 좌표에 따라 그래픽 처리부(211)는 디스플레이 장치(111)를 통해 출력되는 영상의 해당 좌표에 총탄이 도달한 것을 표시할 수 있으며, 만일 사용자의 위치에 다른 사용자의 모의 총기에서 발사한 레이저가 명중된 것으로 판별되면, 사용자의 감지 헬멧(114) 및 진동 조끼(115)에 구비된 진동 수단이 진동하도록 한다(S140).In addition, the graphic processor 211 may display that the bullet reaches the corresponding coordinate of the image output through the display device 111 according to the coordinates in the converted virtual space. When it is determined that the laser shot from the hit, the vibration means provided in the user's detection helmet 114 and the vibration vest 115 to vibrate (S140).

결과적으로 본 발명에 따른 실시간 상호 연동 가능한 가상 사격 시스템은 복수의 사용자 각각이 실감나는 사격 시뮬레이션을 수행할 수 있도록 복수개의 체감 제공부(110 ~ 1n0)를 구비하고, 복수개의 사용자 컨트롤러(210 ~ 2n0)와 메인 서버(300)가 사격 시뮬레이션 진행을 위한 상태 신호와 연동 신호를 서로 전송함에 의해 복수의 사용자가 상호 연동하여 사격 시뮬레이션을 진행할 수 있도록 한다.
As a result, the real-time interoperable virtual shooting system according to the present invention includes a plurality of haptic providing units 110 to 1n0 so that each of the plurality of users can perform realistic shooting simulation, and a plurality of user controllers 210 to 2n0. And the main server 300 transmit a status signal and an interlocking signal for the firing simulation to each other so that a plurality of users can interoperate with the firing simulation.

본 발명에 따른 장치는 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
The device according to the invention can be embodied as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a floppy disk, an optical data storage device, and the like, and a carrier wave (for example, transmission via the Internet). The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is evident that many alternatives, modifications and variations will be apparent to those skilled in the art.

따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 등록청구범위의 기술적 사상에 의해 정해져야 할 것이다.Accordingly, the true scope of the present invention should be determined by the technical idea of the appended claims.

Claims (17)

사격 시뮬레이션 영상을 출력하는 디스플레이 장치, 실제 총기와 유사한 형태를 갖고 격발 시 격발 신호를 생성하고 레이저를 출력하는 모의 총기와, 사용자의 머리의 움직임 방향을 감지하는 센싱 신호를 생성하는 감지 헬멧 및 실시간으로 상기 모의 총기에서 출력된 상기 레이저에 대한 영상을 획득하기 위한 레이저 검출 카메라를 구비하는 복수개의 체감 제공부;
상기 센싱 신호를 수신하고, 상기 사용자 머리의 움직임 방향에 따라 상기 사격 시뮬레이션 영상이 상기 디스플레이 장치에서 출력되도록 영상 신호를 송신하고, 상기 레이저 검출 카메라에서 획득된 영상을 분석하여 레이저의 좌표를 판별하고, 판별된 레이저의 좌표를 상기 사격 시뮬레이션 상의 가상 공간의 좌표로 변환하는 복수개의 사용자 컨트롤러; 및
상기 복수개의 사용자 컨트롤러 중 상호 연동하여 사격 시뮬레이션을 진행하고자 하는 사용자 컨트롤러를 판별하고, 상호 연동된 상기 사용자 컨트롤러들로부터 상태 신호를 수신하여 상기 사용자 컨트롤러들 각각의 사격 시뮬레이션 진행 상태를 판별하여, 연동 신호를 상기 상호 연동된 사용자 컨트롤러로 전송하는 메인 서버; 를 구비하고,
상기 감지 헬멧은,
사용자의 머리의 움직임 방향을 감지하는 센싱 신호를 생성하기 위한 적어도 하나의 감지 센서;
상기 사용자 컨트롤러로부터 음향 신호를 수신하여 음향을 출력하는 적어도 하나의 스피커;
상기 디스플레이 장치에서 출력되는 사격 시뮬레이션 영상이 3차원 입체 영상인 경우에, 상기 3차원 입체 영상에 대응하는 셔터 글래스 방식의 입체 안경; 및
상기 사용자 컨트롤러로부터 제1 진동 신호를 수신하면, 진동을 발생하는 적어도 하나의 제1 진동 수단을 구비하는 것을 특징으로 하는 가상 사격 시스템.
Display device that outputs fire simulation image, simulated firearm which is similar to the real firearm and generates trigger signal when triggered, laser output, sensing helmet which generates sensing signal to detect the direction of movement of user's head and in real time A plurality of bodily sensation providing units including a laser detection camera for acquiring an image of the laser output from the simulated firearm;
Receiving the sensing signal, transmitting an image signal such that the shooting simulation image is output from the display device according to the direction of movement of the user's head, and analyzing the image acquired by the laser detection camera to determine coordinates of the laser; A plurality of user controllers for converting the determined coordinates of the laser into coordinates of the virtual space on the shooting simulation; And
Determining a user controller to perform shooting simulation by interlocking with the plurality of user controllers, receiving a status signal from the interlocked user controllers to determine the shooting simulation progress status of each of the user controllers, interlocking signal A main server for transmitting the to the interoperable user controllers; And,
The detection helmet,
At least one sensing sensor for generating a sensing signal sensing a movement direction of a user's head;
At least one speaker for receiving a sound signal from the user controller and outputting a sound;
3D glasses of a shutter glass type corresponding to the 3D stereoscopic image when the shooting simulation image output from the display apparatus is a 3D stereoscopic image; And
And at least one first vibration means for generating vibration upon receiving a first vibration signal from the user controller.
삭제delete 제1 항에 있어서,
상기 적어도 하나의 감지 센서는
자이로 센서, 가속도 센서, 중력 센서 및 지자기 센서 중 적어도 하나의 센서인 것을 특징으로 하는 가상 사격 시스템.
The method according to claim 1,
The at least one detection sensor
And a gyro sensor, an acceleration sensor, a gravity sensor, and a geomagnetic sensor.
삭제delete 삭제delete 삭제delete 제1 항에 있어서,
상기 모의 총기는
상기 격발 신호를 발생하기 위한 방아쇠;
상기 격발 신호가 발생하면, 상기 레이저를 출력하기 위한 레이저 포인터;
상기 격발 신호가 발생하면, 실제 총기와 유사한 반발력을 생성하기 위한 반발력 생성 수단; 을 구비하는 것을 특징으로 하는 가상 사격 시스템.
The method according to claim 1,
The simulated firearm
A trigger for generating the trigger signal;
A laser pointer for outputting the laser when the trigger signal is generated;
A repulsive force generating means for generating a repulsive force similar to an actual firearm when the trigger signal is generated; Virtual shooting system comprising a.
제7 항에 있어서,
상기 반발력 생성 수단은
압축된 공기를 생성하는 에어 컴프레셔;
상기 격발 신호를 수신하여 상기 압축된 공기를 전달하는 솔레노이드 밸브; 및
상기 솔레노이드 밸브를 통해 전달된 상기 압축된 공기를 상기 모의 총기의 사용자 방향을 전달하여 상기 반발력을 생성하는 공기 전달 파이프; 를 구비하는 것을 특징으로 하는 가상 사격 시스템.
The method of claim 7, wherein
The repulsive force generating means
An air compressor for producing compressed air;
A solenoid valve receiving the trigger signal and delivering the compressed air; And
An air delivery pipe for transmitting the compressed air delivered through the solenoid valve to the user direction of the simulated firearm to generate the repulsive force; Virtual shooting system comprising a.
제8 항에 있어서,
상기 모의 총기는
상기 사격 시뮬레이션을 진행 시에 필요한 부가 기능을 수행하기 위한 적어도 하나의 부가기능 버튼을 더 구비하는 것을 특징으로 하는 가상 사격 시스템.
The method of claim 8,
The simulated firearm
And at least one additional function button for performing an additional function required when the shooting simulation is performed.
제8 항에 있어서,
상기 모의 총기는
복수개의 상기 모의 총기가 하나의 상기 에어 컴프레셔를 공통으로 사용하는 것을 특징으로 하는 가상 사격 시스템.
The method of claim 8,
The simulated firearm
And a plurality of said simulated firearms share one of said air compressors in common.
제8 항에 있어서,
상기 레이저 검출 카메라는
상기 레이저를 용이하게 검출하기 위한 적외선 카메라인 것을 특징으로 하는 가상 사격 시스템.
The method of claim 8,
The laser detection camera
And an infrared camera for easily detecting the laser.
제11 항에 있어서,
상기 복수개의 체감 제공부는
상기 사용자 컨트롤러로부터 제2 진동 신호를 수신하는 신호 수신부; 및
상기 신호 수신부의 제어에 따라 진동을 발생하는 복수개의 제2 진동 수단; 을 구비하는 진동 조끼를 더 구비하는 것을 특징으로 하는 가상 사격 시스템.
12. The method of claim 11,
The plurality of haptic providing unit
A signal receiver configured to receive a second vibration signal from the user controller; And
A plurality of second vibration means for generating vibrations under the control of the signal receiver; Virtual shooting system, characterized in that further comprising a vibration vest having a.
제12 항에 있어서,
상기 복수개의 제2 진동 수단은
상기 진동 조끼의 전면부와 후면부 각각에 분산 배치되는 것을 특징으로 하는 가상 사격 시스템.
13. The method of claim 12,
The plurality of second vibration means
Virtual shooting system, characterized in that distributedly disposed on each of the front and rear portions of the vibration vest.
제12 항에 있어서,
상기 복수개의 체감 제공부는
상기 사용자를 식별하기 위한 사용자 식별 정보가 저장된 사용자 식별 카드를 더 구비하는 것을 특징으로 하는 가상 사격 시스템.
13. The method of claim 12,
The plurality of haptic providing unit
And a user identification card storing user identification information for identifying the user.
제14 항에 있어서,
상기 사용자 컨트롤러는
사격 시뮬레이션을 진행하기 위한 시뮬레이션 영상 정보를 포함한 시뮬레이션 정보를 저장하는 정보 저장부;
상기 감지 헬멧에서 전송되는 상기 센싱 신호를 분석하여 상기 사용자 머리의 움직임을 판별하고, 상기 감지 헬멧으로 음향 신호를 전송하는 움직임 감지부;
상기 움직임 감지부에서 감지된 상기 사용자 머리의 움직임에 따라 상기 시뮬레이션 영상 정보를 획득하여 상기 디스플레이 장치에서 영상으로 출력 가능한 영상 신호로 변환하는 그래픽 처리부;
상기 격발 신호를 수신하여 상기 반발력 생성 수단으로 전달하는 총기 제어부;
상기 레이저 검출 카메라에서 획득한 영상을 수신 및 분석하여 상기 모의 총기에서 출력된 레이저의 좌표를 판별하는 레이저 인식부; 및
상기 상태 신호를 상기 메인 서버로 전송하고, 상기 연동 신호를 상기 메인서버로부터 수신하기 위한 통신부; 를 구비하는 것을 특징으로 하는 가상 사격 시스템.
15. The method of claim 14,
The user controller
An information storage unit for storing simulation information including simulation image information for executing a shooting simulation;
A motion detector configured to analyze the sensing signal transmitted from the sensing helmet to determine a movement of the user's head, and to transmit an acoustic signal to the sensing helmet;
A graphic processor for acquiring the simulation image information according to the movement of the user's head detected by the motion detector and converting the image into an image signal output from the display apparatus as an image;
A firearm control unit for receiving the triggered signal and transmitting the triggered signal to the repulsive force generating means;
A laser recognizer configured to receive and analyze an image acquired by the laser detection camera to determine coordinates of a laser output from the simulated firearm; And
A communication unit for transmitting the status signal to the main server and receiving the interworking signal from the main server; Virtual shooting system comprising a.
제15 항에 있어서,
상기 사용자 컨트롤러는
상기 사용자 식별 카드로부터 상기 사용자 식별 정보를 회득하고, 획득된 사용자 식별 정보에 대응하는 사용자 정보를 상기 메인 서버로부터 수신하여 상기 정보 저장부에 저장하는 사용자 인식부를 더 구비하는 것을 특징으로 하는 가상 사격 시스템.
16. The method of claim 15,
The user controller
And a user recognizing unit for acquiring the user identification information from the user identification card and receiving user information corresponding to the obtained user identification information from the main server and storing the user information in the information storage unit. .
제15 항에 있어서,
상기 레이저 인식부는
상기 레이저 검출 카메라로부터 전송된 영상에서 레이저의 위치 좌표를 판별하고, 판별된 레이저의 위치 좌표를 미리 작성된 룩업 테이블에 대입하여 상기 사격 시뮬레이션 상의 가상 공간에서의 위치 좌표로 변환하는 것을 특징으로 하는 가상 사격 시스템.
16. The method of claim 15,
The laser recognition unit
The positional coordinates of the laser are determined from the image transmitted from the laser detection camera, and the positional coordinates of the laser are converted into positional coordinates in the virtual space on the shooting simulation by substituting the determined lookup table. system.
KR1020120013571A 2012-02-10 2012-02-10 Virtual reality shooting system for real time interaction KR101366444B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120013571A KR101366444B1 (en) 2012-02-10 2012-02-10 Virtual reality shooting system for real time interaction

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120013571A KR101366444B1 (en) 2012-02-10 2012-02-10 Virtual reality shooting system for real time interaction

Publications (2)

Publication Number Publication Date
KR20130092077A KR20130092077A (en) 2013-08-20
KR101366444B1 true KR101366444B1 (en) 2014-02-25

Family

ID=49216998

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120013571A KR101366444B1 (en) 2012-02-10 2012-02-10 Virtual reality shooting system for real time interaction

Country Status (1)

Country Link
KR (1) KR101366444B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160122924A (en) 2015-04-14 2016-10-25 공주대학교 산학협력단 An airsoftgun game management system
KR20170022070A (en) 2015-08-19 2017-03-02 주식회사 도담시스템스 Simulation system for virtual shooting and method for recognizing firing lane
KR101759037B1 (en) * 2016-12-09 2017-07-17 주식회사 누믹스미디어웍스 Airsoft gun for virtual reality

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101498610B1 (en) * 2013-12-03 2015-03-09 대한민국 The Tactical Simulation Training Tool by linking Trainee's movement with Virtual Character's movement, Interoperability Method and Trainee Monitoring Method
KR101713223B1 (en) * 2015-10-20 2017-03-22 (주)라스 Apparatus for realizing virtual reality
KR101689330B1 (en) * 2016-02-22 2016-12-26 조세희 Virtual reality simulation system
CN107583277A (en) * 2017-09-06 2018-01-16 合肥庆响网络科技有限公司 Wearable game interaction device and interactive system
KR102288562B1 (en) * 2019-01-03 2021-08-11 주식회사 웨이브컴퍼니 System and Method for recognizing senses in vertual reality space
KR20200084586A (en) * 2019-01-03 2020-07-13 주식회사 웨이브컴퍼니 System and Method for recognizing senses in vertual reality space
CN110108159A (en) * 2019-06-03 2019-08-09 武汉灏存科技有限公司 The analogue simulation system and method for the more people's interactions of large space
CN110631411A (en) * 2019-09-02 2019-12-31 北京易智时代数字科技有限公司 Virtual shooting training control method and system
KR102469485B1 (en) * 2022-10-05 2022-11-21 최준석 Virtual combat system and recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060074668A (en) * 2004-12-28 2006-07-03 주식회사 에스엔아이티 System and method for training a image fire using laser beam
KR101007947B1 (en) * 2010-08-24 2011-01-14 윤상범 System and method for cyber training of martial art on network

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060074668A (en) * 2004-12-28 2006-07-03 주식회사 에스엔아이티 System and method for training a image fire using laser beam
KR101007947B1 (en) * 2010-08-24 2011-01-14 윤상범 System and method for cyber training of martial art on network

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160122924A (en) 2015-04-14 2016-10-25 공주대학교 산학협력단 An airsoftgun game management system
KR20170022070A (en) 2015-08-19 2017-03-02 주식회사 도담시스템스 Simulation system for virtual shooting and method for recognizing firing lane
KR101759037B1 (en) * 2016-12-09 2017-07-17 주식회사 누믹스미디어웍스 Airsoft gun for virtual reality

Also Published As

Publication number Publication date
KR20130092077A (en) 2013-08-20

Similar Documents

Publication Publication Date Title
KR101366444B1 (en) Virtual reality shooting system for real time interaction
KR101926178B1 (en) Virtual reality system enabling compatibility of sense of immersion in virtual space and movement in real space, and battle training system using same
US7722465B2 (en) Image generation device, image display method and program product
US10341162B2 (en) Augmented reality gaming system
US7140962B2 (en) Video game apparatus, image processing method and program
JP4179162B2 (en) Information processing device, game device, image generation method, and game image generation method
US9504907B2 (en) Simulated shooting system and method
KR101414147B1 (en) Virtual Reality Shooting Simulation System
US20190219364A1 (en) Method And Apparatus For Providing Live-Fire Simulation Game
KR101247213B1 (en) Robot for fighting game, system and method for fighting game using the same
KR20150118281A (en) Simulation system including combat training using a practicing-grenade, a practicing-claymore and control keypad for events
CN111330278A (en) Animation playing method, device, equipment and medium based on virtual environment
KR101128259B1 (en) Virtual shooting system
CN112316430B (en) Prop using method, device, equipment and medium based on virtual environment
JP2018171320A (en) Simulation system and program
WO2013111119A1 (en) Simulating interaction with a three-dimensional environment
KR101617357B1 (en) Simulation training system for curved trajectory firearms marksmanship in interior and control method thereof
CN103002962B (en) Games system and control method thereof
KR101706170B1 (en) Survival smart archery game system
CN109806594B (en) Trajectory display method, device and equipment in virtual environment
KR101117404B1 (en) The Shooting Training System of Moving for Real Direction
KR20140112117A (en) Wireless indoor shooting simulation system
CN114130031A (en) Using method, device, equipment, medium and program product of virtual prop
JP4563267B2 (en) Network game system, network game control method, game device, game control method, and program
KR101552403B1 (en) Point of an image according to the user's changing attitude imager

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180119

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee