WO2018074709A1 - 실탄사격 시뮬레이션 게임 제공 방법 및 장치 - Google Patents

실탄사격 시뮬레이션 게임 제공 방법 및 장치 Download PDF

Info

Publication number
WO2018074709A1
WO2018074709A1 PCT/KR2017/008026 KR2017008026W WO2018074709A1 WO 2018074709 A1 WO2018074709 A1 WO 2018074709A1 KR 2017008026 W KR2017008026 W KR 2017008026W WO 2018074709 A1 WO2018074709 A1 WO 2018074709A1
Authority
WO
WIPO (PCT)
Prior art keywords
shooting
simulation
information
bullet
sensing
Prior art date
Application number
PCT/KR2017/008026
Other languages
English (en)
French (fr)
Inventor
함윤록
김정호
김의석
Original Assignee
함윤록
김정호
김의석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 함윤록, 김정호, 김의석 filed Critical 함윤록
Publication of WO2018074709A1 publication Critical patent/WO2018074709A1/ko
Priority to US16/359,170 priority Critical patent/US20190219364A1/en

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/02Shooting or hurling games
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2622Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile
    • F41G3/2627Cooperating with a motion picture projector
    • F41G3/2633Cooperating with a motion picture projector using a TV type screen, e.g. a CRT, displaying a simulated target
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/24Constructional details thereof, e.g. game controllers with detachable joystick handles
    • A63F13/245Constructional details thereof, e.g. game controllers with detachable joystick handles specially adapted to a particular type of game, e.g. steering wheels
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/57Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game
    • A63F13/573Simulating properties, behaviour or motion of objects in the game world, e.g. computing tyre load in a car race game using trajectories of game objects, e.g. of a golf ball according to the point of impact
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/837Shooting of targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/02Shooting or hurling games
    • A63F9/0291Shooting or hurling games with a simulated projectile, e.g. an image on a screen
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41AFUNCTIONAL FEATURES OR DETAILS COMMON TO BOTH SMALLARMS AND ORDNANCE, e.g. CANNONS; MOUNTINGS FOR SMALLARMS OR ORDNANCE
    • F41A33/00Adaptations for training; Gun simulators
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2622Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile
    • F41G3/2627Cooperating with a motion picture projector
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2622Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating the firing of a gun or the trajectory of a projectile
    • F41G3/2644Displaying the trajectory or the impact point of a simulated projectile in the gunner's sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/26Teaching or practice apparatus for gun-aiming or gun-laying
    • F41G3/2616Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device
    • F41G3/2694Teaching or practice apparatus for gun-aiming or gun-laying using a light emitting device for simulating a target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J3/00Targets for arrows or darts, e.g. for sporting or amusement purposes
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J5/00Target indicating systems; Target-hit or score detecting systems
    • F41J5/02Photo-electric hit-detector systems
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41JTARGETS; TARGET RANGES; BULLET CATCHERS
    • F41J9/00Moving targets, i.e. moving when fired at
    • F41J9/14Cinematographic targets, e.g. moving-picture targets
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F9/00Games not otherwise provided for
    • A63F9/24Electric games; Games using electronic circuits not otherwise provided for
    • A63F2009/2401Detail of input, input devices
    • A63F2009/2436Characteristics of the input
    • A63F2009/2442Sensors or detectors

Definitions

  • the present embodiment relates to a method and apparatus for providing a live shooting simulation.
  • a target shooting is used to target a target located at a predetermined distance within a shooting lane.
  • Such a live shooting system is often implemented outdoors, which requires a large area and is difficult to install due to the noise caused by the shooting.
  • a virtual shooting simulation system using a laser gun (game gun) that does not use real bullets has been developed, but such a virtual shooting simulation system is similar to a game that can be experienced in a game room, a game room and the like. It differs in many ways from the system in which it works.
  • This embodiment outputs a simulated image to each of the image screens installed in the shooting target practice room, and senses the impact point of the bullet shot and the target included in the simulation image calculated by sensing a shot position triggered by a shooter according to the output simulation image.
  • the main object of the present invention is to provide a method and apparatus for providing a live shooting simulation game, which generates shooting result information by comparing the positions of the two.
  • a simulated image is transmitted to a projector installed in a shooting practice room so that the simulated image is output to a specific region.
  • Output process A sensing process of acquiring sensing information of sensing a bullet position according to a bullet attack of a shooter from a sensor previously installed in the specific region; An impact point calculation process of calculating an impact point of the live bullet based on the sensing information; A target position calculating step of calculating target position information on a target included in the simulation image; And a result calculation process of measuring shooting accuracy using the impact point and the target location information and generating shooting result information based on the shooting accuracy.
  • the simulation image control unit for transmitting the simulation image data to the projector pre-installed in the live shooting practice room to output the simulation image to a specific region;
  • a sensing processor configured to obtain sensing information of sensing a bullet position according to a bullet attack of a shooter from a sensor previously installed in the specific area;
  • An impact point calculator configured to calculate an impact point of the bullet based on the sensing information;
  • a target position calculator for calculating target position information of a target included in the simulation image;
  • a result calculation unit for measuring shooting accuracy using the impact point and the target position information and generating shooting result information based on the shooting accuracy.
  • a system for shooting practice using a live shot comprising: a projector for irradiating a simulation image to a specific area of the live shooting practice room; An image screen each installed in parallel with a predetermined distance from at least three inner wall surfaces of the shot shooting practice room and outputting the simulation image; A headset including a sensor for detecting a gaze position or direction viewed by a shooter and providing sound to the simulated image to the shooter; A bullet sensor attached to each of the video screens, and configured to generate sensing information by sensing a bullet position according to the bullet attack of the gunner; And
  • the simulation image data is transmitted to the projector to output the simulation image, and the shooting accuracy is measured by using the impact point of the ammunition calculated based on the sensing information and target position information of the target included in the simulation image. It provides a shooting simulation system comprising a shooting simulation providing apparatus for generating shooting result information based on the shooting accuracy.
  • All the simulations can be performed in the real shooting practice room, and there is an effect of generating a simulation result for the real shooting and the overall shooting simulation.
  • FIG. 1 is a block diagram schematically showing a bullet shooting simulation system according to the present embodiment.
  • FIG. 2 is a block diagram schematically illustrating an apparatus for providing live shot simulation according to the present embodiment.
  • FIG. 3 is a flowchart illustrating a method of providing a live shooting simulation game according to the present embodiment.
  • 4A and 4B are exemplary views for explaining the structure of the bullet shooting simulation system according to the present embodiment.
  • FIG. 5 is an exemplary diagram for describing an installation structure of a sensor for sensing a bullet position according to a bullet attack in a shooting simulation system according to the present embodiment.
  • FIG. 6 is an exemplary diagram for a method for calculating shooting accuracy in the shooting simulation system according to the present embodiment.
  • FIG. 7 is an exemplary view showing a moving path of a shooting machine for calculating a simulation result in the shooting simulation system according to the present embodiment.
  • FIG. 8 is an exemplary view showing a shooting simulation system interlocked with a plurality of bullet shooting practice rooms according to the present embodiment.
  • the real shooting simulation system according to the present embodiment is described as being applicable to sports or games using real bullets, such as shooting practice using a real shot, shooting game, etc., but is not limited thereto.
  • military operations, terrorism training, hostage rescue, etc. It can be applied to military / training system such as
  • the bullet shooting simulation system provides a simulation game capable of shooting a bullet at various types of targets.
  • the target target may be a target that exists in reality such as a person, an animal, or an object of shooting, but is not necessarily limited thereto, and may be a virtual target that does not exist in the reality of a zombie or an alien.
  • the bullet shooting simulation system is preferably implemented in a form in which the shooter (game participant) looks at the game screen output on the screen and shoots the shot. It may be implemented in the form of shooting on the game screen outputting a three-dimensional screen by wearing a back.
  • live bullets used in the bullet shooting simulation system according to the present embodiment may be generally used for military use or for price, but are adjusted for reducing penetration, or for games produced for shooting bullet simulation by reducing the ammunition of the bullet. It may be a live bullet.
  • FIG. 1 is a block diagram schematically showing a bullet shooting simulation system according to the present embodiment.
  • the live round shooting simulation system includes a projector 110, a projector, an image screen 120, a sensor 130, a sensor 140, an acoustic device 140, and a fire simulation providing device. And 150.
  • the image screen 120, the sensor 130, and the sound device 140 is provided in the shooting range practice room
  • the shooting simulation providing device 150 is preferably provided outside the shooting range practice room, but is not necessarily limited thereto. It may be provided in a form including a cover of the bulletproof material on one side of the inside of the shooting practice room.
  • the projector 110 is a device that is provided in a live shooting practice room and outputs a simulation image.
  • the projector 110 outputs a simulation image using the simulation image data received from the shooting simulation providing apparatus 150.
  • the simulation image may be projected onto the image screen 120 installed in the live shooting practice room.
  • the simulation image may be output on at least three inner walls of the shooting practice room.
  • the projector 110 may include, but is not limited to, at least three lenses for projecting a simulated image on each of the image screens 120 installed on at least three inner wall surfaces of the shooting target practice room. It may be implemented as a connected image projection apparatus.
  • the simulation video is a first-person view that allows a shooter to practice shooting, shooting training, and shooting games while looking at targets and backgrounds in the video, and is a shooting game and a first person.
  • Shooter may be an image of a similar method.
  • the simulated image may be an image produced for a specific target training program.
  • the image screen 120 displays the simulation image output by the projector 110.
  • the imaging screen 120 includes a plurality of screens installed in parallel with a predetermined distance from each of the at least three inner wall surfaces of the shooting target practice room.
  • the image screen 120 may be implemented in the form of a screen or a screen connected to each of at least three walls.
  • the image screen 120 when looking down at the shooting practice room, is described as being installed parallel to each wall of the shooting practice room (square shape), but is not necessarily limited to this, based on the center of the shooting practice room It may be installed in a circular form.
  • the imaging screen 120 may be installed with a bullet sensor 136 for detecting the bullet position triggered by the gun of the gunner.
  • the bullet sensor 136 may be disposed in a grid shape having a predetermined interval in each image screen 120, or the bullet sensor 136 may be disposed at a portion of an edge of each image screen 120.
  • the sensor 130 refers to a device for sensing the line of sight and movement of the gunner, the state of the gunner of the gunner, and the location of the bullet that was triggered by the gunner of the gunner.
  • the sensor 130 includes a line of sight sensor 132 for detecting a line of sight of a shooter, a motion sensor 134 for detecting a movement of a shooter, a bullet sensor 136 for detecting a fired bullet.
  • the line of sight sensor 132 is a sensor for detecting the line of sight of the shooter according to the simulation image, and is preferably mounted on one side of the body of the shooter.
  • the gaze sensor 132 may be mounted on a hat of a shooter, an acoustic device 140 worn by the shooter, for example, a headset, and the like, if the gaze position or the moving direction of the shooter can be detected, the vest, the hat, It can also be equipped in various locations, such as a sole warlord or a combat vest.
  • the gaze sensor 132 may include a radar sensor for detecting a position of a gaze viewed by a firefighter, but is not necessarily limited thereto.
  • the gaze sensor 132 may be implemented as a complex sensor in which a plurality of sensors such as an infrared sensor and a gyro sensor are combined. .
  • the gaze sensor 132 transmits gaze sensing information about the gaze of the firefighter to the fire simulation providing apparatus 150.
  • the gaze sensing information may include a change value of the gaze changed up, down, left, and right based on the preset reference gaze, but is not necessarily limited thereto.
  • the coordinate value preset for the wall surface or the image screen 120 of the live shooting practice room If this is set, it may include a coordinate value corresponding to the line of sight.
  • the preset reference line of sight is a critical line of sight set initially in the simulation image by an operation of a shooter or a manager to detect a change in the line of sight of the shooter, and may be, for example, a center coordinate of the image screen 120.
  • the motion sensor 134 refers to a sensor that detects the motion of the shooting person according to the simulation image.
  • the motion sensor 134 detects the movement of the shooter for movement and transmits movement sensing information about the movement of the shooter to the fire simulation providing apparatus 150.
  • the movement sensing information includes information on the number of steps, movement distance, leg movement, etc. of the shooter.
  • the motion sensor 134 may be in the form of a sensor mounted on one side (eg, knee, ankle, etc.) of the leg of the shooter, but is not necessarily limited thereto.
  • the movement pedal when there is a movement pedal for the movement of the shooter's legs, the movement pedal may be mounted on the movement pedal to detect the number of steps, the movement distance, etc. of the firearm according to the number of movements of the pedal.
  • the moving pedal may be a pedal of a similar or identical type to a footrest of an elliptical machine, a footrest of a tread mill, or the like.
  • the bullet sensor 136 refers to a sensor that detects a bullet position triggered by a firearm.
  • the bullet position refers to information that senses the screen passing point, the trajectory of the bullet, and the like according to the position where the bullet sensor 136 is installed.
  • the bullet sensor 136 includes a plurality of sensors for detecting the bullet position, and may be installed in various forms in the bullet shooting practice room.
  • the bullet sensor 136 may be a plurality of sensors installed on the image screen 120.
  • the bullet sensor 136 may be disposed in a grid shape having a predetermined interval in each image screen 120. In this case, the bullet sensor 136 generates bullet sensing information that senses a bullet passing point passing through the image screen 120.
  • the bullet sensor 136 may be disposed at a portion of the edge of each image screen 120. In this case, the bullet sensor 136 generates bullet sensing information that senses the trajectory of the bullet passing through the image screen 120.
  • the bullet sensor 136 is described as being installed on the image screen 120, but is not necessarily limited thereto, and is arranged in a position of a grid-shaped or wall border having a predetermined interval on the wall of the bullet shooting practice room. Can be implemented. When the bullet sensor 136 is installed on the wall surface, the bullet sensor 136 generates the bullet sensing information that senses the trajectory of the bullet or the position of the wall where the bullet is embedded.
  • the bullet sensor 136 may transmit the generated bullet sensing information to the fire simulation providing apparatus 150.
  • the sensor 130 may include a device such as a laser aiming sensor that may additionally sense a target point, aiming point, etc. of the firearm, and may include a trigger sensor for sensing a triggering time of the gun. In the case of using such a laser aiming sensor and a trigger sensor, the shooter may proceed with the shooting simulation by using the dread bullet instead of the bullet.
  • a device such as a laser aiming sensor that may additionally sense a target point, aiming point, etc. of the firearm, and may include a trigger sensor for sensing a triggering time of the gun.
  • the shooter As the shooter participates in the shooting practice using the actual gun, the shooter must replace the bullet of the actual gun, not the virtual one. Accordingly, the fire simulation system does not need to have a separate sensor for recognizing the magazine change. In other words, the shooting simulation system can perform shooting practice in the same environment as the real environment.
  • the acoustic device 140 refers to a device that provides a sound of a simulated image to a shooting person.
  • the sound device 140 may be a headset (headset) that can be worn by a shooter, but is not necessarily limited thereto.
  • the sound device 140 may be a sound output device (not shown) provided in a shooting fire practice room to output sound.
  • the acoustic device 140 may include a speaker, and in the case of a headset, may further include a microphone for receiving the voice of the firefighter and a gaze sensor for sensing the sight of the firefighter.
  • the firing simulation providing device 150 refers to a device for providing and controlling the bullet shooting simulation in connection with various devices included in the shooting shot practice room.
  • the shooting simulation providing apparatus 150 transmits the simulation image data to the projector 110 to control the simulation image to be displayed on a specific area, for example, the image screen 120, in the shot shooting practice room.
  • Shooting simulation providing device 150 determines the line of sight (point of view of the target) by using the gaze sensing information obtained from the line of sight sensor 132 attached to the hat of the target, the headset worn by the target, etc.
  • the simulation image is controlled based on the gaze position information determined based on the sensing information.
  • the firing simulation providing device 150 obtains the real bullet sensing information of sensing the bullet position according to the bullet shot of the gunner from the bullet sensor 136 installed on the image screen 120 on which the simulation image is output, and based on the bullet sensing information.
  • the impact point of the live bullet can be calculated.
  • the impact point may be calculated by matching the sensing information included in the live sensing information with a coordinate map preset on the image screen 120.
  • the fire simulation providing apparatus 150 calculates target position information of a target for shooting practice included in a simulation image, measures shooting accuracy using the impact point and target position information, and generates shooting result information based on the shooting accuracy.
  • the shooting result information refers to the result information including a score corresponding to the shooting accuracy, and may be generated for each target for shooting practice, but the score of the plurality of targets for training practice included in the corresponding section for each section according to the simulation image It may be generated by summing them up.
  • the shooting simulation providing apparatus 150 generates simulation result information on the shooting practice theme based on the evaluation reference information when the evaluation reference information corresponding to the shooting practice theme exists.
  • the fire simulation providing apparatus 150 calculates moving path information on the moving path from the start (simulation start) point to the arrival (simulation end) point according to the contents of the shooting exercise based on the simulation image, and the movement path.
  • the simulation result information refers to information generated based on a score calculated by comparing the preset shortest path with respect to the simulation image and moving path information moved by the shooter and the score of the shooting result information.
  • FIG. 2 is a block diagram schematically illustrating an apparatus for providing live shot simulation according to the present embodiment.
  • the real bullet shooting simulation apparatus 150 includes a simulation image controller 210, a gaze determiner 212, a sensing processor 220, an impact point calculator 230, a target position calculator 240, and a movement.
  • the firing simulation providing apparatus 150 according to the present embodiment is described as being implemented as a hardware module that provides a firing simulation to enable firing practice using a real bullet, but is not necessarily limited thereto, and is mounted on a predetermined firing control device. It may be implemented as a software module using the hardware.
  • the simulation image control unit 210 transmits the simulation image data to the projector 110 pre-installed in the bullet shooting practice room and controls the simulation image to be output to a specific region inside the shooting target practice room.
  • the simulated video is a first-person view that allows the shooter to conduct shooting practice, shooting training, and shooting game while looking at a target, a background, and the like in the video, and a shooting game and a first person shooter.
  • the simulation image may be output by the projector 110 to the image screen 120 installed in parallel with a predetermined distance from at least three inner walls or at least three inner walls of the shot shooting practice room.
  • the simulation image controller 210 may transmit the simulation image data pre-stored in the shooting simulation providing apparatus 150 to the projector 110, but is not necessarily limited thereto.
  • the shooting simulation providing apparatus 150 may further include a data obtaining unit (not shown) for obtaining simulation image data corresponding to the shooting training theme from an external server.
  • the external server may be a server that provides simulation image data corresponding to a shooting practice theme such as shooting game, basic shooting practice, shooting sports practice, military operation, terrorism training, hostage rescue, and the like.
  • the simulation image controller 210 transmits the simulation image data corresponding to the shooting practice theme to the projector 110 so that the simulation image for the shooting practice theme is output.
  • the simulation image controller 210 may change the simulation image data transmitted to the projector 110 in cooperation with the gaze determiner 212, the sensing processor 220, and the like. In other words, the simulation image controller 210 may control the simulation image data to reflect in real time the shooting practice situation occurring in the live shooting practice room based on the sensing information received from the sensor 130 in the simulation image.
  • the gaze determination unit 212 performs an operation of determining the gaze position of the fire based on the gaze sensing information obtained from the sensor 130.
  • the gaze determination unit 212 may determine the gaze position of the fireman by using the gaze sensing information obtained from the gaze sensor 132 mounted on the hat, the sounder 140 worn by the fireman, for example, the headset. That is, the gaze determination unit 212 may determine the gaze position such as the gaze direction of the shooter, the gaze corresponding screen, the gaze height, and the gaze movement based on the gaze sensing information.
  • the gaze sensing information includes a coordinate value in which the gaze of the target eye is detected among the change value of the gaze changed up, down, left, and right based on the preset reference gaze, or the preset coordinate value for the wall or image screen 120 of the live shooting practice room. May be information.
  • the gaze determination unit 212 may transmit the gaze position information determined based on the gaze sensing information to the simulation image controller 210 to control the simulation image.
  • the gaze determination unit 212 may determine the gaze position of the firefighter and change the simulation image corresponding to the gaze position.
  • the change of the simulation image is described as being changed using only the position information of the eye of the shot determined based on the gaze sensing information, the simulation image may be changed by additionally applying the movement sensing information.
  • the movement sensing information includes information on the number of steps, movement distance, leg movement, etc. of the shooter.
  • the gaze determination unit 212 determines the movement of the shooter's forward, retreat, etc. during the shooting practice by the movement of the movement pedal or the legs of the shooter, and moves in the gaze direction when there is a movement while turning the gaze.
  • the screen of the simulation image is controlled so that the screen of the simulation image is controlled to move only in the direction of the gaze in the stationary state if there is a gaze turn without movement.
  • the sensing processor 220 performs an operation of obtaining and processing bullet sensing information from the sensor 130 provided in the bullet shooting practice room.
  • the sensing processor 220 may obtain the real bullet sensing information of sensing the bullet position according to the bullet attack of the gunner from the bullet sensor 136 installed in the specific region in which the simulation image is output, and the real bullet sensing information is an image of the bullet shooting practice room. It may be sensing information obtained from the bullet sensor 136 installed on the screen 120 or the bullet sensor 136 installed on the wall surface of the bullet shooting practice room.
  • the sensing processor 220 may acquire various types of bullet sensing information according to the type and position of the bullet sensor 136.
  • the live bullet sensing information includes sensing information about a point of the image screen 120 where the live bullet passes, a wall point where the live bullet is embedded, and a track point of the trajectory of the live bullet.
  • the sensing processor 220 selects the most accurate sensing information according to a preset priority when the obtained bullet sensing information includes a plurality of sensing information, and calculates the impact sensing information including the selected sensing information. And transmit to 230.
  • the live bullet sensing information may include identification information of each of the plurality of image screens, sensor identification information of detecting the live bullet, a sensing coordinate value of the live bullet, and the like.
  • the impact point calculation unit 230 calculates the impact point of the live bullet based on the bullet detection information received from the sensing processor 220. In other words, the impact point calculating unit 230 calculates an impact point for the live bullet by matching the sensing information included in the live bullet sensing information with a coordinate map preset on the image screen 120.
  • the preset coordinate map on the image screen 120 refers to a map or a table including preset coordinate values in order to distinguish the positions of the image screen 120.
  • the impact point calculation unit 230 preferably calculates the impact point of the bullet in the form of (x, y) coordinates based on the image screen 120 displaying the simulation image, but is not limited thereto.
  • the scene may be applied and calculated in the form of three-dimensional coordinates such as (x, y, z).
  • the target position calculator 240 calculates target position information of the target for shooting practice included in the simulation image.
  • the target position calculator 240 calculates target position information by matching target information included in the simulation image data with a coordinate map preset on the image screen 120 of the shot shooting practice room.
  • the target information included in the simulated image data may include range information, a center of gravity information, a preset target coordinate, etc., for a region where the target is output based on the entire screen of the simulated image, and the target position information may include an image screen. It may include the actual coordinates of the target for training practice applied to (120).
  • the movement route calculation unit 250 calculates movement route information on the movement route from the start (simulation start) point to the arrival (simulation end) point based on the shooting practice content.
  • the movement path calculation unit 250 calculates movement path information by considering the moving direction, the movement speed, the movement time, etc. of the target using the eye's gaze sensing information and the movement sensing information from the time when the shooting practice is started by the simulation image. .
  • the operation of calculating the movement route information is preferably performed only when the result calculation unit 260 generates the simulation result information, but is not necessarily limited thereto.
  • An operation of calculating movement route information may be performed to combine and display positions.
  • the result calculator 260 generates shooting result information regarding the shooting of the shooting gun.
  • the result calculator 260 measures the shooting accuracy using the impact point calculated by the impact point calculator 230 and the target position information calculated by the target position calculator 240, and generates shooting result information based on the shooting accuracy. do.
  • the result calculator 260 may measure the shooting accuracy according to the difference value calculated by comparing the impact point and the target position information. For example, when the coordinate of the impact point is (4, 4) and the target coordinate included in the target position information is (3, 3), the result calculation unit 260 compares the impact point and the target position information and sets the difference value to the square root of 2. Calculate and measure the shooting accuracy (eg level 3) corresponding to the difference.
  • the shooting accuracy may be a value measured by applying the difference value to the preset reference table, and the reference table is shown in [Table 1].
  • the target is assumed to be a size included in the 6 cm range based on the target location information
  • the reference table may be changed according to the size of the target.
  • [Table 1] is described as three levels of shooting accuracy is divided into three levels, but is not necessarily limited to this, the variables for the size, shooting accuracy, score, etc. of the difference value of [Table 1] can be changed. have.
  • the result calculator 260 generates shooting result information including a score corresponding to the measured shooting accuracy.
  • the shooting result information may be generated for each target for shooting practice, but may be generated by summing scores of a plurality of targets for shooting practice included in the corresponding section for each section according to the simulation image.
  • the result calculator 260 may generate simulation result information on the shooting practice theme based on the evaluation reference information when the evaluation reference information corresponding to the shooting exercise theme exists.
  • the result calculator 260 may generate simulation result information on the shooting practice theme by using the movement path information and the shooting result information calculated by the movement path calculator 250.
  • the result calculator 260 generates the simulation result information by using the score calculated by comparing the preset shortest path and the moving path information of the shooter with respect to the simulation image and the score of the shooting result information.
  • the score for the moving path means a score calculated based on a difference value obtained by subtracting a predetermined shortest path from the path length included in the moving path information, and may be calculated based on [Table 2].
  • the movement route information is described as having a maximum path of 40 km and a shortest path of 10 km, but the present invention is not limited thereto and may be changed by a fireman or an administrator.
  • the result calculator 260 preferably generates the simulation result information by adding the scores for the moving path and the scores for the shooting result information, but is not necessarily limited thereto.
  • the result calculator 260 may generate simulation result information of the entire route based on the movement route information, but is not limited thereto. For example, the result calculator 260 divides the entire path into a plurality of sections based on the movement route information, and displays shooting result information for the targets included in each of the plurality of sections and the movement path information for each of the plurality of sections. Simulation result information can be generated.
  • the result calculator 260 sets a difficulty level for each of the plurality of sections, and applies different weights to the plurality of sections based on the set difficulty level to simulate the results. Information can be generated.
  • FIG. 3 is a flowchart illustrating a method of providing a live shooting simulation game according to the present embodiment.
  • the shooting simulation providing apparatus 150 transmits the simulation image data corresponding to the shooting practice theme to the projector 110 provided in the shot shooting practice room to be output (S310).
  • the fire simulation providing apparatus 150 may transmit previously stored simulation image data to the projector 110, but may obtain and transmit simulation image data corresponding to the shooting practice theme from an external command post or an external server.
  • the shooting practice theme may include shooting games, basic shooting exercises, shooting sports exercises, military operations, terrorism training, hostage rescue, and the like.
  • Shooting simulation providing apparatus 150 outputs the simulation image through the projector 110 to the inside of the shooting fire practice room to start the shooting practice (S312).
  • the shooting simulation providing apparatus 150 controls the simulation image based on the information on detecting the direction change and the movement position of the shooting according to the simulation image (S320). For example, the firing simulation providing device 150 determines the gaze position, direction, etc. of the shooting person by using the gaze sensing information obtained from the gaze sensor 132 mounted on the hat of the shooting person, the acoustic device 140 worn by the shooting person, and the like. The simulation image is controlled based on the gaze sensing information and the gaze position information determined based on the movement of the shooter.
  • a shooter performs firing according to the simulation image, and the firing simulation providing apparatus 150 recognizes a shot of a firing target for a target output on the simulation image (S322).
  • the firing simulation providing apparatus 150 may recognize the bullet shot through a sensor provided in the gun of the shooter, but is not necessarily limited thereto, and may sense the shot bullet by sensing the trigger sound.
  • Step S322 is incidental sensing information for calculating the position of the live bullet, and may be omitted according to the manager's setting.
  • the shooting simulation providing apparatus 150 obtains the real bullet sensing information that senses the real bullet position from the sensor 130 provided in the real bullet shooting practice room (S330), and calculates the impact point of the real bullet based on the real bullet sensing information (S340).
  • the firing simulation providing device 150 obtains the real bullet sensing information of sensing the bullet position according to the bullet attack of the gunner from the bullet sensor 136 installed in the specific region in which the simulation image is output, and the impact point of the bullet based on the bullet sensing information. Can be calculated.
  • the impact point may be calculated by matching the sensing information included in the live sensing information with a coordinate map preset on the image screen 120.
  • Shooting simulation providing apparatus 150 calculates the target position information for the target included in the simulation image (S350).
  • the shooting simulation providing apparatus 150 measures shooting accuracy using the impact point and the target position information (S360), and generates shooting result information based on the shooting accuracy (S370).
  • the shooting result information refers to the result information including a score corresponding to the shooting accuracy, and may be generated for each target for shooting practice, but the score of the plurality of targets for training practice included in the corresponding section for each section according to the simulation image It may be generated by summing them up.
  • the shooting simulation providing apparatus 150 additionally obtains moving path information of the shooting person and generates simulation result information on the shooting practice theme using the moving path information and the shooting result information (S380).
  • the fire simulation providing device 150 calculates moving path information on a moving path from a start (simulation start) point to a arrival (simulation end) point according to the shooting practice content based on the simulation image, and moves the path information and the shooting result.
  • the information can be used to generate simulation result information for the shooting practice theme.
  • the simulation result information refers to information generated based on a score calculated by comparing the preset shortest path with respect to the simulation image and moving path information moved by the shooter and the score of the shooting result information.
  • the method for providing a live shooting simulation game according to the present embodiment described in FIG. 3 may be implemented in a program and recorded on a computer-readable recording medium.
  • the computer-readable recording medium having recorded thereon a program for implementing the method of providing a live shooting simulation game according to the present embodiment includes all kinds of recording devices that store data that can be read by a computer system. Examples of such computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage, and the like, and are implemented in the form of a carrier wave (for example, transmission over the Internet). It includes being.
  • the computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion. Also, functional programs, codes, and code segments for implementing the present embodiment may be easily inferred by programmers in the art to which the present embodiment belongs.
  • 4A and 4B are exemplary views for explaining the structure of the bullet shooting simulation system according to the present embodiment.
  • the shooting simulation system using the live bullet includes a live shooting practice room and a fire simulation providing apparatus 150.
  • the preset moving area 410 may be a square or circular area based on the center of the floor of the shooting fire practice room, but is not necessarily limited thereto, and may be the entire floor of the shooting fire practice room.
  • the movement pedal 412 may be a pedal of a similar or identical type to a footrest of an elliptical machine, a foothold of a tread mill, or the like.
  • FIG. 5 is an exemplary diagram for describing an installation structure of a sensor for sensing a bullet position according to a bullet attack in a shooting simulation system according to the present embodiment.
  • FIG. 5 (a) is an exemplary view showing the wall surface 510 and the image screen 120 in a state viewed from the top (ceiling) to the bottom (bottom) of the live shooting practice room.
  • the image screen 120 may be installed in parallel with the wall surface 510 of the shooting target practice room.
  • the image screen 120 or the wall 510 may be provided with a sensor for detecting a live bullet triggered by a shooting target.
  • FIG. 5A illustrates that the image screen 120 is installed in parallel with the inside of the square wall 510
  • the present invention is not limited thereto.
  • the inside of the square wall 510 is not limited thereto.
  • the circular image screen 120 may be installed, or the circular image screen 120 may be installed inside the circular wall 510.
  • 5 (b) and 5 (c) show exemplary diagrams for explaining the bullet detection sensors 510 and 520 installed on the image screen 120.
  • 5 (b) and 5 (c) illustrate a form in which a shooter looks at each image screen 120 inside the live shooting practice room.
  • the first bullet detection sensor 510 may be disposed in a grid shape having a predetermined interval in the image screen 120.
  • the first bullet detection sensor 510 may be installed in the image screen 120 in the form of a grid having a size of 5 * 4, and a bullet shot generated by a bullet shooting of a shotgun among the first bullet detection sensors 510.
  • the bullet passing point 512 may be sensed using some sensors adjacent to the passing point 512.
  • the bullet passing point 512 may be detected by four first bullet detection sensors 510 adjacent to the bullet passing point 512, and the sensing information about the bullet passing point 512 is four first bullets. Identification information of each of the detection sensors 510, the distance between each of the four first bullet detection sensors 510 and the bullet passing point 512, the number of bullets, and the like.
  • the second bullet detection sensor 520 may be disposed at a part of an edge of the image screen 120.
  • the second bullet detection sensor 520 may be installed at each of four corners of the image screen 120 to sense the trajectory of the bullet by using the radar method and sense the bullet passing point 512.
  • the sensing information on the bullet passing point 512 includes identification information of each of the four second bullet detection sensors 520, bullet trajectory information detected by each of the four second bullet detection sensors 520, and four second bullet detection. The distance between each sensor 520 and the bullet trajectory, the number of bullets, and the like may be included.
  • the first bullet detection sensor 510 and the second bullet detection sensor 520 are installed on the image screen 120, but the same location and the same manner as in the practice shot shooting room. It may be installed on the wall surface 510.
  • FIG. 6 is an exemplary diagram for a method for calculating shooting accuracy in the shooting simulation system according to the present embodiment.
  • the shooter fires a real bullet to generate a first impact point 620 and a second impact point 622.
  • Shooting simulation providing apparatus 150 measures the shooting accuracy by comparing the target position information 610, including the predetermined predetermined coordinates or the center of gravity coordinates of the target and the target training target 600 with the impact point (620, 622) I can calculate it. For example, if the coordinates of the target simulation information providing apparatus 610 are (15, 12) and the coordinates of the first impact point 620 are (16, 15), the target simulation information providing apparatus 150 and Shooting accuracy is measured using the difference value calculated by comparing the first impact point 620.
  • the shooting accuracy may be classified into a predetermined number of levels, but is not necessarily limited thereto.
  • the shooting simulation providing apparatus 150 may generate shooting result information regarding shooting of the shooting by calculating a score corresponding to the measured shooting accuracy.
  • FIG. 7 is an exemplary view showing a moving path of a shooting machine for calculating a simulation result in the shooting simulation system according to the present embodiment.
  • FIG. 7A is a diagram illustrating a first moving path 720 in which a first shooter for a simulation image moves from a starting point 710 to an arrival point 730.
  • FIG. 7B is a diagram illustrating a second moving path 722 in which the second shooter for the simulation image moves from the starting point 710 to the arrival point 730.
  • the shooting simulation providing apparatus 150 may calculate moving path information for each of the first and second shooters based on (a) and (b) of FIG. 7.
  • the fire simulation providing apparatus 150 calculates the movement path information by considering the moving direction, the moving speed, the moving time, etc. of the target using the eye gaze sensing information and the movement sensing information of the firing target from the time when the firing practice starts by the simulation image. Can be.
  • the second shot is made by comparing the preset shortest path with the movement path information moved by the shooter. You can get better score than 1 shooter. Here, the obtained score is reflected in generating simulation result information in combination with shooting result information.
  • FIG. 8 is an exemplary view showing a shooting simulation system interlocked with a plurality of bullet shooting practice rooms according to the present embodiment.
  • the shooting simulation providing apparatus 150 may be linked with a plurality of shot shooting practice rooms so that a plurality of shooting shots may practice shooting using a real shot at the same time.
  • the firing simulation providing apparatus 150 may output the same simulation image to the plurality of shot shooting practice rooms, and generate firing result information or simulation result information for each of the plurality of firing targets.
  • each shooter entering each of the multiple shooting practice rooms may perform shooting practice in the form of belonging to one team (the same side in the game or training), but different teams (the other team in the game or training) You can also practice shooting in the form of.
  • simulation image control unit 212 gaze determination unit
  • sensing processing unit 230 impact point calculating unit

Abstract

실탄사격 시뮬레이션 게임 제공 방법 및 장치를 개시한다. 실탄사격 연습실에 설치된 영상 스크린 각각에 시뮬레이션 영상을 출력하고, 출력된 시뮬레이션 영상에 따라 사격자가 격발한 실탄위치를 센싱하여 산출된 실탄의 탄착점 및 시뮬레이션 영상에 포함된 타겟의 위치를 비교하여 사격 결과정보를 생성하는 실탄을 이용한 사격 시뮬레이션 제공방법 및 그를 위한 장치에 관한 것이다.

Description

실탄사격 시뮬레이션 게임 제공 방법 및 장치
본 실시예는 실탄사격 시뮬레이션 제공 게임 방법 및 장치에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
일반적인 실탄 사격 시스템의 경우, 사격 사로 내에서 소정의 거리에 위치한 과녁을 목표로 사격하는 방식을 사용한다. 이러한 실탄 사격 시스템은 야외에 구현되는 경우가 대부분이며, 이로 인해 넓은 면적을 필요로 하고, 사격에 의한 소음으로 인해 설치를 위한 위치조건이 까다롭다.
따라서, 사격자(Shooter)가 실제 이동하는 중에 움직이는 타겟, 다양한 거리에 있는 타겟 및 복수의 타겟에 대한 사격 연습을 위한 시스템은 구현하기가 매우 어렵다.
이러한 한계를 극복하기 위해, 실탄을 사용하지 않는 레이저 총기(게임용 총기)를 이용한 가상 사격 시뮬레이션 시스템이 개발되고 있으나, 이러한 가상 사격 시뮬레이션 시스템은 오락실, 게임방 등에서 체험할 수 있는 게임과 유사하며 실제 사격을 하는 시스템과는 여러모로 상이하다.
한편, 대형 구조물(예: 건물, 시가지, 세트장 등)을 이용하여 실탄 사격 연습 구조물을 만들어 실탄 사격 시스템을 적용할 수 있으나, 광대한 면적을 필요로 하고, 정해진 실탄 사격 연습 구조에서만 사격 연습이 가능하므로 다양한 상황에서 사격 연습 또는 게임을 진행할 수 없다. 또한, 실탄을 사용하기 때문에 복수의 사격자가 동시에 사격 연습을 참여할 수 없고, 고정되거나 단순하게 움직이는 타겟만을 이용할 수 있다는 문제점이 있다.
본 실시예는 실탄사격 연습실에 설치된 영상 스크린 각각에 시뮬레이션 영상을 출력하고, 출력된 시뮬레이션 영상에 따라 사격자(Shooter)가 격발한 실탄위치를 센싱하여 산출된 실탄의 탄착점과 시뮬레이션 영상에 포함된 타겟의 위치를 비교하여 사격 결과정보를 생성하는 실탄사격 시뮬레이션 게임 제공 방법 및 장치를 제공하는 데 주된 목적이 있다.
본 실시예의 일 측면에 의하면, 사격 시뮬레이션 제공장치가 실탄을 이용한 사격 연습을 제공하는 방법에 있어서, 실탄사격 연습실 내에 기 설치된 프로젝터로 시뮬레이션 영상 데이터를 전송하여 시뮬레이션 영상이 특정영역에 출력되도록 하는 시뮬레이션 영상 출력과정; 상기 특정영역에 기 설치된 센서로부터 사격자의 실탄 격발에 따른 실탄위치를 센싱한 센싱정보를 획득하는 센싱 처리과정; 상기 센싱정보에 근거하여 상기 실탄의 탄착점을 산출하는 탄착점 산출과정; 상기 시뮬레이션 영상에 포함된 타겟에 대한 타겟 위치정보를 산출하는 타겟 위치 산출과정; 및 상기 탄착점 및 상기 타겟 위치정보를 이용하여 사격 정확도를 측정하고, 상기 사격 정확도를 기초로 사격 결과정보를 생성하는 결과 산출과정을 포함하는 것을 특징으로 하는 실탄을 이용한 사격 시뮬레이션 제공방법을 제공한다.
또한, 본 실시예의 다른 측면에 의하면, 실탄사격 연습실 내에 기 설치된 프로젝터로 시뮬레이션 영상 데이터를 전송하여 시뮬레이션 영상이 특정영역에 출력되도록 하는 시뮬레이션 영상 제어부; 상기 특정영역에 기 설치된 센서로부터 사격자의 실탄 격발에 따른 실탄위치를 센싱한 센싱정보를 획득하는 센싱 처리부; 상기 센싱정보에 근거하여 상기 실탄의 탄착점을 산출하는 탄착점 산출부; 상기 시뮬레이션 영상에 포함된 타겟에 대한 타겟 위치정보를 산출하는 타겟 위치 산출부; 및 상기 탄착점 및 상기 타겟 위치정보를 이용하여 사격 정확도를 측정하고, 상기 사격 정확도를 기초로 사격 결과정보를 생성하는 결과 산출부를 포함하는 것을 특징으로 하는 실탄을 이용한 사격 시뮬레이션 제공장치를 제공한다.
또한, 본 실시예의 다른 측면에 의하면, 실탄을 이용한 사격 연습을 위한 시스템에 있어서, 실탄사격 연습실의 특정 영역으로 시뮬레이션 영상을 조사하는 프로젝터; 상기 실탄사격 연습실의 적어도 3 개의 내측 벽면과 일정거리를 갖도록 평행하게 각각 설치되어 상기 시뮬레이션 영상을 출력하는 영상 스크린; 사격자가 바라보는 시선위치 또는 방향을 감지하는 센서를 포함하고, 상기 사격자에게 상기 시뮬레이션 영상에 대한 음향을 제공하는 헤드셋; 상기 영상 스크린의 각각에 부착되며, 상기 사격자의 실탄 격발에 따른 실탄위치를 센싱하여 센싱정보를 생성하는 실탄센서; 및
상기 프로젝터로 시뮬레이션 영상 데이터를 전송하여 상기 시뮬레이션 영상이 출력되도록 하며, 상기 센싱정보에 근거하여 산출된 상기 실탄의 탄착점 및 상기 시뮬레이션 영상에 포함된 타겟에 대한 타겟 위치정보를 이용하여 사격 정확도를 측정하고, 상기 사격 정확도를 기초로 사격 결과정보를 생성하는 사격 시뮬레이션 제공장치를 포함하는 것을 특징으로 하는 사격 시뮬레이션 시스템을 제공한다.
이상에서 설명한 바와 같이 본 실시예에 의하면, 실탄을 이용하여 실제 상황과 동일한 조건에서 게임, 훈련, 작전 등의 실탄 사격연습을 수행할 수 있는 효과가 있다. 또한, 탄창 교체와 같은 사격자(Shooter)의 동작, 이동 간 움직임 등에 대해 실제 상황과 동일한 조건에서 실탄 사격연습을 수행할 수 있는 효과가 있다.
실탄사격 연습실 내에서 모든 시뮬레이션을 수행할 수 있으며, 실탄을 이용한 사격결과 및 전체 사격 시뮬레이션에 대한 시뮬레이션 결과를 생성할 수 있는 효과가 있다. 또한, 기존의 실탄 사격장보다 적은 면적을 사용하면서, 이동하는 타겟, 복수의 타겟, 사격연습 테마에 대응하는 타겟 등에 대해 실탄으로 사격 연습 또는 게임을 실시할 수 있는 효과가 있다.
도 1은 본 실시예에 따른 실탄 사격 시뮬레이션 시스템을 개략적으로 나타낸 블록 구성도이다.
도 2는 본 실시예에 따른 실탄 사격 시뮬레이션 제공장치를 개략적으로 나타낸 블록 구성도이다.
도 3은 본 실시예에 따른 실탄 사격 시뮬레이션 게임 제공방법을 설명하기 위한 순서도이다.
도 4a 및 도 4b는 본 실시예에 따른 실탄 사격 시뮬레이션 시스템의 구조를 설명하기 위한 예시도이다.
도 5는 본 실시예에 따른 사격 시뮬레이션 시스템에서 실탄 격발에 따른 실탄위치를 센싱하기 위한 센서의 설치구조를 설명하기 위한 예시도이다.
도 6은 본 실시예에 따른 사격 시뮬레이션 시스템에서 사격 정확도를 산출하기 위한 방법의 예시도이다.
도 7은 본 실시예에 따른 사격 시뮬레이션 시스템에서 시뮬레이션 결과를 산출하기 위한 사격자의 이동경로를 나타낸 예시도이다.
도 8은 본 실시예에 따른 복수의 실탄사격 연습실과 연동하는 사격 시뮬레이션 시스템을 나타낸 예시도이다.
이하, 본 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.
본 실시예에 따른 실탄 사격 시뮬레이션 시스템은 실탄을 이용한 사격 연습, 사격 게임 등과 같이 실탄을 이용한 스포츠 또는 게임에 적용 가능한 시스템인 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 군사작전, 테러훈련, 인질구조 등과 같은 군사용/훈련용 시스템에도 적용 가능하다.
본 실시예에 따른 실탄 사격 시뮬레이션 시스템은 다양한 형태의 타켓을 대상으로 실탄 사격이 가능한 시뮬레이션 게임을 제공한다. 대상 타겟은 사격의 목표물로써, 사람, 동물, 물건 등의 현실에 존재하는 타겟일 수 있으나 반드시 이에 한정되는 것은 아니며, 좀비, 외계인 등의 현실에 존재하지 않는 가상의 타겟일 수 있다.
또한, 본 실시예에 따른 실탄 사격 시뮬레이션 시스템은 사격자(게임 참여자)가 스크린에 출력되는 게임화면을 바라보며 사격을 하는 형태로 구현되는 것이 바람직하나, 사격자(게임 참여자)에게 3D 안경, 스마트 안경 등을 착용시켜 입체화면이 출력되는 게임화면에 사격을 하는 형태로 구현될 수도 있다.
또한, 본 실시예에 따른 실탄 사격 시뮬레이션 시스템에서 사용되는 실탄은 일반적으로 군사용 또는 가격용으로 사용되는 실탄일 수 있으나, 관통력이 감소되도록 조절되거나 실탄의 장약을 감소시켜 실탄 사격 시뮬레이션용으로 제작된 게임용 실탄일 수 있다.
도 1은 본 실시예에 따른 실탄 사격 시뮬레이션 시스템을 개략적으로 나타낸 블록 구성도이다.
본 실시예에 따른 실탄 사격 시뮬레이션 시스템(Live Round Shooting Simulation System)은 프로젝터(110, Projector), 영상 스크린(120, Image Screen), 센서(130, Sensor), 음향기기(140) 및 사격 시뮬레이션 제공장치(150)를 포함한다. 여기서, 영상 스크린(120), 센서(130) 및 음향기기(140)는 실탄사격 연습실 내에 구비되고, 사격 시뮬레이션 제공장치(150)는 실탄사격 연습실 외부에 구비되는 것이 바람직하나 반드시 이에 한정되는 것은 아니며, 실탄사격 연습실의 내부의 일측에 방탄소재의 커버를 포함하는 형태로 구비될 수 있다.
프로젝터(110)는 실탄사격 연습실 내에 구비되어 시뮬레이션 영상을 출력하는 장치이다. 프로젝터(110)는 사격 시뮬레이션 제공장치(150)로부터 수신된 시뮬레이션 영상 데이터를 이용하여 시뮬레이션 영상을 출력한다. 시뮬레이션 영상은 실탄사격 연습실에 설치된 영상 스크린(120)에 투영될 수 있다. 여기서, 실탄사격 연습실 내에 영상 스크린(120)이 구비되지 않은 경우 시뮬레이션 영상은 실탄사격 연습실의 적어도 3 개의 내측 벽면에 출력될 수도 있다.
프로젝터(110)는 실탄사격 연습실의 적어도 3 개의 내측 벽면에 설치된 영상 스크린(120) 각각에 시뮬레이션 영상을 투사하기 위한 적어도 3 개의 렌즈를 포함할 수 있으나 반드시 이에 한정되는 것은 아니며, 적어도 3 개의 프로젝터가 연결된 영상 투사장치로 구현될 수 있다.
시뮬레이션 영상은 사격자(Shooter)가 영상 내에서 타겟, 배경 등을 바라보면서 사격 연습, 사격 훈련, 사격 게임을 진행할 수 있도록 하는 일인칭 시점의 영상이며, 슈팅게임(Shooting Game), FPS(First-Person Shooter) 등과 유사한 방식의 영상일 수 있다. 시뮬레이션 영상은 특정 사격연습 프로그램에 맞게 제작된 영상일 수 있다.
영상 스크린(120)은 프로젝터(110)가 출력한 시뮬레이션 영상을 디스플레이한다. 영상 스크린(120)은 실탄사격 연습실의 적어도 3 개의 내측 벽면 각각과 일정거리를 갖도록 평행하게 설치된 복수의 스크린을 포함한다. 여기서, 영상 스크린(120)은 적어도 3 개의 벽면 각각에 분리된 스크린 형태 또는 연결된 하나의 스크린 형태로 구현될 수 있다.
한편, 실탄사격 연습실을 위에서 내려다 보았을 때, 영상 스크린(120)은 실탄사격 연습실의 각 벽면과 평행하게 설치(사각형 형태)되는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 실탄사격 연습실의 중심을 기준으로 원형 형태로 설치될 수도 있다.
영상 스크린(120)의 일측에는 복수의 센서(130) 중 일부가 설치될 수 있다. 영상 스크린(120)에는 사격자의 총기를 통해 격발된 실탄위치를 감지하는 실탄센서(136)가 설치될 수 있다. 예컨대, 각각의 영상 스크린(120) 내에 소정의 간격을 갖는 격자형으로 실탄센서(136)가 배치되거나 각각의 영상 스크린(120)의 테두리 중 일부 위치에 실탄센서(136)가 배치될 수 있다.
센서(130)는 사격자의 시선 및 움직임, 사격자의 총기상태, 사격자의 총기에서 격발된 실탄위치 등을 센싱하는 장치를 말한다. 센서(130)는 사격자의 시선을 감지하기 위한 시선센서(132), 사격자의 이동을 감지하기 위한 움직임센서(134), 격발된 실탄을 감지하기 위한 실탄센서(136) 등을 포함한다.
시선센서(132)는 시뮬레이션 영상에 따라 사격자의 시선을 감지하는 센서로써, 사격자 신체의 일측에 장착되는 것이 바람직하다. 예컨대, 시선센서(132)는 사격자의 모자, 사격자가 착용하는 음향기기(140) 예컨대, 헤드셋 등에 장착될 수 있으며, 사격자가 바라보는 시선위치 또는 이동 방향을 감지할 수 있다면 사격자의 조끼, 모자, 단독 군장, 전투조끼 등 다양한 위치에 장착될 수도 있다.
시선센서(132)는 사격자가 바라보는 시선의 위치를 감지하기 위한 레이더 센서를 포함할 수 있으나 반드시 이에 한정되는 것은 아니며, 적외선 센서, 자이로센서 등 복수의 센서가 결합된 복합 센서로 구현될 수도 있다.
시선센서(132)는 사격자의 시선에 대한 시선 센싱정보를 사격 시뮬레이션 제공장치(150)로 전송한다. 여기서, 시선 센싱정보는 기 설정된 기준 시선을 기준으로 상하좌우로 변경된 시선의 변화값을 포함할 수 있으나 반드시 이에 한정되는 것은 아니며, 실탄사격 연습실의 벽면 또는 영상 스크린(120)에 대해 기 설정된 좌표값이 설정된 경우 시선에 해당하는 좌표값을 포함할 수 있다. 여기서, 기 설정된 기준 시선은 사격자의 시선 변화를 감지하기 위해 사격자 또는 관리자의 조작에 의해 시뮬레이션 영상의 초기에 설정된 임계 시선좌표로서, 예컨대, 영상 스크린(120)의 중앙 좌표일 수 있다.
움직임센서(134)는 시뮬레이션 영상에 따라 사격자의 움직임을 감지하는 센서를 의미한다. 움직임센서(134)는 이동을 위한 사격자의 움직임을 감지하며, 사격자의 움직임에 대한 이동 센싱정보를 사격 시뮬레이션 제공장치(150)로 전송한다. 여기서, 이동 센싱정보는 사격자의 걸음 수, 이동거리, 다리 움직임 등에 대한 정보를 포함한다.
움직임센서(134)는 사격자의 다리의 일측(예: 무릎, 발목 등)에 장착된 센서의 형태일 수 있으나 반드시 이에 한정되는 것은 아니다. 예를 들어, 사격자의 다리 움직임을 위한 이동 페달이 존재하는 경우 이동 페달에 장착되어 페달의 움직임 횟수에 따른 사격자의 걸음 수, 이동거리 등을 감지하는 센서일 수 있다. 여기서, 이동 페달은 엘립티컬 머신(Elliptical Machine)의 발판, 런닝 머신(Tread Mill)의 발판 등과 유사 또는 동일한 형태의 페달일 수 있다.
실탄센서(136)는 사격자의 총기를 통해 격발된 실탄위치를 감지하는 센서를 의미한다. 실탄위치는 실탄센서(136)가 설치된 위치에 따라 스크린 통과점, 실탄의 궤적 등을 센싱한 정보를 의미한다. 실탄센서(136)는 실탄위치를 감지하기 위한 복수의 센서를 포함하며, 실탄사격 연습실 내에 다양한 형태로 설치될 수 있다.
실탄센서(136)는 영상 스크린(120)에 설치된 복수의 센서일 수 있다. 예컨대, 실탄센서(136)는 각각의 영상 스크린(120) 내에 소정의 간격을 갖는 격자형으로 배치될 수 있다. 이러한 경우, 실탄센서(136)는 영상 스크린(120)을 통과한 실탄 통과점을 센싱한 실탄 센싱정보를 생성한다.
한편, 실탄센서(136)는 각각의 영상 스크린(120)의 테두리 중 일부 위치에 배치될 수 있다. 이러한 경우, 실탄센서(136)는 영상 스크린(120)을 통과하는 실탄의 궤적을 센싱한 실탄 센싱정보를 생성한다.
실탄센서(136)는 영상 스크린(120)에 설치되는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 실탄사격 연습실의 벽면에 소정의 간격을 갖는 격자형 또는 벽면의 테두리 중 일부 위치에 배치되는 형태로 구현될 수 있다. 실탄센서(136)가 벽면에 설치된 경우, 실탄의 궤적 또는 실탄이 박힌 벽면의 위치 등을 센싱한 실탄 센싱정보를 생성한다.
실탄센서(136)는 생성된 실탄 센싱정보를 사격 시뮬레이션 제공장치(150)로 전송할 수 있다.
센서(130)는 사격자의 총기의 지향점, 조준점 등을 추가로 센싱할 수 있는 레이저 조준센서와 같은 장치를 포함할 수 있으며, 총기의 격발 시점을 센싱하기 위한 방아쇠 센서를 포함할 수 있다. 이러한 레이저 조준센서 및 방아쇠 센서를 이용하는 경우, 사격자는 실탄 대신에 공포탄을 사용하여 사격 시뮬레이션을 진행할 수도 있다.
본 실시예에 따른 사격 시뮬레이션 시스템은 사격자가 실제 총기를 이용하여 사격 연습에 참여함에 따라 사격자가 가상이 아닌 실제로 총기의 탄창을 교체하여야 한다. 이에 따라, 사격 시뮬레이션 시스템에는 탄창 교환을 인식하기 위한 별도의 센서를 구비할 필요가 없다. 즉, 사격 시뮬레이션 시스템은 실제 환경과 동일한 환견에서 사격 연습을 수행할 수 있다.
음향기기(140)는 시뮬레이션 영상의 음향을 사격자에게 제공하는 장치를 말한다. 음향기기(140)는 사격자가 착용 가능한 헤드셋(Headset) 형태인 것이 바람직하나 반드시 이에 한정되는 것은 아니며, 실탄사격 연습실 내에 구비되어 음향을 출력하는 음향 출력장치(미도시)일 수 있다.
음향기기(140)는 스피커를 포함하며, 헤드셋의 형태인 경우 사격자의 음성을 수신하는 마이크와 사격자의 시선을 센싱하기 위한 시선 센서를 추가로 포함할 수 있다.
사격 시뮬레이션 제공장치(150)는 실탄사격 연습실에 포함된 각종 장치들과 연동하여 실탄사격 시뮬레이션을 제공 및 제어하는 장치를 의미한다.
사격 시뮬레이션 제공장치(150)는 프로젝터(110)로 시뮬레이션 영상 데이터를 전송하여 시뮬레이션 영상이 실탄사격 연습실 내부의 특정영역 예컨대 영상 스크린(120)에 디스플레이되도록 제어한다.
사격 시뮬레이션 제공장치(150)는 사격자의 모자, 사격자가 착용하는 헤드셋 등에 장착된 시선센서(132)로부터 획득한 시선 센싱정보를 이용하여 사격자의 시선 위치(사격자가 바라보는 지점)를 판단하고, 시선 센싱정보를 기초로 판단된 시선 위치정보를 기초로 시뮬레이션 영상을 제어한다.
사격 시뮬레이션 제공장치(150)는 시뮬레이션 영상이 출력되는 영상 스크린(120)에 설치된 실탄센서(136)로부터 사격자의 실탄 격발에 따른 실탄위치를 센싱한 실탄 센싱정보를 획득하며, 실탄 센싱정보를 기초로 실탄의 탄착점을 산출할 수 있다. 여기서, 탄착점은 실탄 센싱정보에 포함된 센싱정보를 영상 스크린(120)에 기 설정된 좌표 맵에 매칭시켜 산출될 수 있다.
사격 시뮬레이션 제공장치(150)는 시뮬레이션 영상에 포함된 사격 연습용 타겟에 대한 타겟 위치정보를 산출하며, 탄착점 및 타겟 위치정보를 이용하여 사격 정확도를 측정하고, 사격 정확도를 기초로 사격 결과정보를 생성한다. 여기서, 사격 결과정보는 사격 정확도에 대응하는 점수를 포함하는 결과정보를 의미하며, 사격 연습용 타겟 각각에 대하여 생성될 수 있으나, 시뮬레이션 영상에 따른 구간별로 해당 구간에 포함된 복수의 사격 연습용 타겟의 점수들을 합산하여 생성될 수도 있다.
또한, 사격 시뮬레이션 제공장치(150)는 사격연습 테마에 대응하는 평가 기준정보가 존재하는 경우, 평가 기준정보를 기준으로 사격연습 테마에 대한 시뮬레이션 결과정보를 생성한다. 다시 말해, 사격 시뮬레이션 제공장치(150)는 시뮬레이션 영상을 기반으로 사격 연습의 내용에 따라 출발(시뮬레이션 시작) 지점에서 도착(시뮬레이션 종료) 지점까지의 이동 경로에 대한 이동 경로정보를 산출하며, 이동 경로정보 및 사격 결과정보를 이용하여 사격연습 테마에 대한 시뮬레이션 결과정보를 생성할 수 있다. 여기서, 시뮬레이션 결과정보는 시뮬레이션 영상에 대해 기 설정된 최단 경로와 사격자가 이동한 이동 경로정보를 비교하여 산출된 점수와 사격 결과정보의 점수를 기반으로 생성된 정보를 의미한다.
도 2는 본 실시예에 따른 실탄 사격 시뮬레이션 제공장치를 개략적으로 나타낸 블록 구성도이다.
본 실시예에 따른 실탄 사격 시뮬레이션 제공장치(150)는 시뮬레이션 영상 제어부(210), 시선 판단부(212), 센싱 처리부(220), 탄착점 산출부(230), 타겟위치 산출부(240), 이동경로 산출부(250) 및 결과 산출부(260)를 포함한다. 본 실시예에 따른 사격 시뮬레이션 제공장치(150)는 실탄을 이용하여 사격 연습이 가능하도록 사격 시뮬레이션을 제공하는 하드웨어 모듈로 구현되는 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 소정의 사격 제어장치에 탑재되어 하드웨어를 이용하는 소프트웨어 모듈로 구현될 수도 있다.
시뮬레이션 영상 제어부(210)는 실탄사격 연습실 내에 기 설치된 프로젝터(110)로 시뮬레이션 영상 데이터를 전송하여 시뮬레이션 영상이 실탄사격 연습실 내부의 특정영역에 출력되도록 제어한다. 여기서, 시뮬레이션 영상은 1 인칭 시점으로 사격자가 영상 내에서 타겟, 배경 등을 바라보면서 사격 연습, 사격 훈련, 사격 게임을 진행할 수 있도록 하는 영상이며, 슈팅게임(Shooting Game), FPS(First-Person Shooter) 등과 유사한 방식의 영상일 수 있다. 시뮬레이션 영상은 프로젝터(110)에 의해 실탄사격 연습실의 적어도 3 개의 내측 벽면 또는 적어도 3 개의 내측 벽면과 일정거리를 갖도록 평행하게 설치된 영상 스크린(120)에 출력될 수 있다.
시뮬레이션 영상 제어부(210)는 사격 시뮬레이션 제공장치(150)에 기 저장된 시뮬레이션 영상 데이터를 프로젝터(110)로 전송할 수 있으나 반드시 이에 한정되는 것은 아니다. 예컨대, 사격 시뮬레이션 제공장치(150)는 외부 서버로부터 사격연습 테마에 대응하는 시뮬레이션 영상 데이터를 획득하는 데이터 획득부(미도시)를 추가로 구비할 수 있다. 여기서, 외부 서버는 사격게임, 기초 사격연습, 사격 스포츠 연습, 군사작전, 테러훈련, 인질구조 등의 사격연습 테마에 대응하는 시뮬레이션 영상 데이터를 제공하는 서버일 수 있다. 이러한 경우, 시뮬레이션 영상 제어부(210)는 사격연습 테마에 대응하는 시뮬레이션 영상 데이터를 프로젝터(110)로 전송하여 사격연습 테마에 대한 시뮬레이션 영상이 출력되도록 한다.
시뮬레이션 영상 제어부(210)는 시선 판단부(212), 센싱 처리부(220) 등과 연동하여 프로젝터(110)로 전송하는 시뮬레이션 영상 데이터를 변경할 수 있다. 다시 말해, 시뮬레이션 영상 제어부(210)는 센서(130)로부터 수신된 센싱정보에 근거하여 실탄사격 연습실 내에서 발생하는 사격 연습 상황을 시뮬레이션 영상에 실시간으로 반영하도록 시뮬레이션 영상 데이터를 제어할 수 있다.
시선 판단부(212)는 센서(130)로부터 획득한 시선 센싱정보를 기초로 사격자의 시선 위치를 판단하는 동작을 수행한다. 시선 판단부(212)는 사격자의 모자, 사격자가 착용하는 음향기기(140) 예컨대, 헤드셋 등에 장착된 시선센서(132)로부터 획득한 시선 센싱정보를 이용하여 사격자의 시선 위치를 판단할 수 있다. 즉, 시선 판단부(212)는 시선 센싱정보를 기초로 사격자의 시선 방향, 시선 해당 스크린, 시선 높낮이, 시선 이동 등의 시선 위치를 판단할 수 있다. 여기서, 시선 센싱정보는 기 설정된 기준 시선을 기준으로 상하좌우로 변경된 시선의 변화값 또는 실탄사격 연습실의 벽면 또는 영상 스크린(120)에 대해 기 설정된 좌표값 중 사격자의 시선이 감지된 좌표값을 포함하는 정보일 수 있다.
시선 판단부(212)는 시선 센싱정보를 기초로 판단된 시선 위치정보를 시뮬레이션 영상 제어부(210)로 전송하여 시뮬레이션 영상이 제어되도록 할 수 있다. 예컨대, 시선 판단부(212)는 사격자의 시선위치를 판단하고, 시선위치에 대응하여 시뮬레이션 영상이 변경되도록 할 수 있다. 시뮬레이션 영상의 변경은 시선 센싱정보를 기초로 판단된 사격자의 시선 위치정보만을 이용하여 변경되는 것으로 기재하고 있으나, 이동 센싱정보를 추가로 적용하여 시뮬레이션 영상이 변경되도록 할 수 있다. 여기서, 이동 센싱정보는 사격자의 걸음 수, 이동거리, 다리 움직임 등에 대한 정보를 포함한다.
예를 들어, 시선 판단부(212)는 사격 연습 중 사격자의 전진, 후퇴 등의 움직임은 이동 페달의 움직임 또는 사격자의 다리 움직임에 의해 판단하며, 시선을 돌림과 동시에 움직임이 존재하면 시선 방향으로 이동하도록 시뮬레이션 영상의 화면을 제어하고, 움직임은 없으면서 시선 돌림이 존재하면 정지상태에서 시선 방향만 움직이도록 시뮬레이션 영상의 화면을 제어한다.
센싱 처리부(220)는 실탄사격 연습실 내에 구비된 센서(130)로부터 실탄 센싱정보를 획득하여 처리하는 동작을 수행한다. 센싱 처리부(220)는 시뮬레이션 영상이 출력되는 특정영역에 설치된 실탄센서(136)로부터 사격자의 실탄 격발에 따른 실탄위치를 센싱한 실탄 센싱정보를 획득할 수 있으며, 실탄 센싱정보는 실탄사격 연습실의 영상 스크린(120)에 설치된 실탄센서(136) 또는 실탄사격 연습실의 벽면에 설치된 실탄센서(136)로부터 획득한 센싱정보일 수 있다. 센싱 처리부(220)는 실탄센서(136)의 종류 및 위치에 따라 다양한 형태의 실탄 센싱정보를 획득할 수 있다. 실탄 센싱정보는 실탄이 통과한 영상 스크린(120)의 지점, 실탄이 박힌 벽면 지점, 실탄의 궤적을 추적한 지점 등에 대한 센싱정보를 포함한다.
센싱 처리부(220)는 획득한 실탄 센싱정보에 복수의 센싱정보가 포함된 경우, 기 설정된 우선순위에 따라 정확도가 가장 높은 센싱정보를 선택하고, 선택된 센싱정보가 포함된 실탄 센싱정보를 탄착점 산출부(230)로 전송할 수 있다. 여기서, 실탄 센싱정보는 복수의 영상 스크린 각각의 식별정보, 실탄을 감지한 센서 식별정보, 실탄의 센싱 좌표값 등을 포함할 수 있다.
탄착점 산출부(230)는 센싱 처리부(220)로부터 수신된 실탄 센싱정보에 근거하여 실탄의 탄착점을 산출한다. 다시 말해, 탄착점 산출부(230)는 실탄 센싱정보에 포함된 센싱정보를 영상 스크린(120)에 기 설정된 좌표 맵에 매칭시켜 실탄에 대한 탄착점을 산출한다. 여기서, 영상 스크린(120)에 기 설정된 좌표 맵이란, 영상 스크린(120)의 위치를 구분하기 위해 기 설정된 좌표값을 포함하는 맵 또는 테이블을 의미한다.
탄착점 산출부(230)는 실탄의 탄착점을 시뮬레이션 영상을 표시하는 영상 스크린(120)을 기준으로 (x, y) 좌표 형태로 산출하는 것이 바람직하나 반드시 이에 한정되는 것은 아니며, 3 차원의 시뮬레이션 영상의 장면을 적용하여 (x, y, z)와 같이 3 차원 좌표 형태로 산출될 수도 있다.
타겟위치 산출부(240)는 시뮬레이션 영상에 포함된 사격 연습용 타겟에 대한 타겟 위치정보를 산출한다. 타겟위치 산출부(240)는 시뮬레이션 영상 데이터에 포함된 타겟정보를 실탄사격 연습실의 영상 스크린(120)에 기 설정된 좌표 맵에 매칭시켜 타겟 위치정보를 산출한다. 여기서, 시뮬레이션 영상 데이터에 포함된 타겟정보는 시뮬레이션 영상의 전체 화면을 기준으로 타겟이 출력되는 영역에 대한 범위정보, 무게중심 정보, 기 설정된 타겟좌표 등을 포함할 수 있으며, 타겟 위치정보는 영상 스크린(120)에 적용된 사격 연습용 타겟의 실제 좌표를 포함할 수 있다.
이동경로 산출부(250)는 시뮬레이션 영상을 기반으로 사격 연습 내용에 따라 출발(시뮬레이션 시작) 지점에서 도착(시뮬레이션 종료) 지점까지의 이동 경로에 대한 이동 경로정보를 산출한다.
이동경로 산출부(250)는 시뮬레이션 영상에 의해 사격 연습이 시작된 시점부터 사격자의 시선 센싱정보 및 이동 센싱정보를 이용하여 사격자의 이동 방향, 이동 속도, 이동 시간 등을 고려하여 이동 경로정보를 산출한다. 여기서, 이동 경로정보를 산출하는 동작은 결과 산출부(260)에서 시뮬레이션 결과정보를 생성하는 경우에만 수행하는 것이 바람직하나 반드시 이에 한정되는 것은 아니며, 사격 결과정보만을 생성하는 경우에도 이동 경로와 타겟의 위치를 결합하여 표시하기 위해 이동 경로정보를 산출하는 동작을 수행할 수 있다.
결과 산출부(260)는 사격자의 실탄 사격에 대한 사격 결과정보를 생성한다. 결과 산출부(260)는 탄착점 산출부(230)에서 산출된 탄착점 및 타겟위치 산출부(240)에서 산출된 타겟 위치정보를 이용하여 사격 정확도를 측정하고, 사격 정확도를 기초로 사격 결과정보를 생성한다.
결과 산출부(260)는 탄착점과 타겟 위치정보를 비교하여 산출된 차이값 크기에 따라 사격 정확도를 측정할 수 있다. 예컨대, 탄착점의 좌표가 (4, 4)이고 타겟 위치정보에 포함된 타겟 좌표가 (3, 3)인 경우, 결과 산출부(260)는 탄착점 및 타겟 위치정보를 비교하여 차이값을 제곱근 2로 산출하고, 차이값에 해당하는 사격 정확도(예: 레벨 3)를 측정한다. 여기서, 사격 정확도는 차이값을 기 설정된 기준 테이블에 적용시켜 측정된 값일 수 있으며, 기준 테이블은 [표 1]과 같다.
차이값 크기(cm) 사격 정확도(레벨) 점수
1 ~ 2 레벨 3 10
3 ~ 4 레벨 2 5
5 ~ 6 레벨 1 1
[표 1]에서 타겟은 타겟 위치정보를 기준으로 6 cm 범위 내에 포함되는 크기인 것으로 가정된 것으로 타겟의 크기에 따라 기준 테이블은 변경될 수 있다. [표 1]은 3 개의 레벨로 사격 정확도가 3 개의 레벨로 구분된 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, [표 1]의 차이값의 크기, 사격 정확도, 점수 등에 대한 변수는 변경될 수 있다.
결과 산출부(260)는 측정된 사격 정확도에 대응하는 점수를 포함하는 사격 결과정보를 생성한다. 여기서, 사격 결과정보는 사격 연습용 타겟 각각에 대하여 생성될 수 있으나, 시뮬레이션 영상에 따른 구간별로 해당 구간에 포함된 복수의 사격 연습용 타겟의 점수들을 합산하여 생성될 수도 있다.
결과 산출부(260)는 사격연습 테마에 대응하는 평가 기준정보가 존재하는 경우, 평가 기준정보를 기준으로 사격연습 테마에 대한 시뮬레이션 결과정보를 생성할 수 있다. 결과 산출부(260)는 이동경로 산출부(250)에서 산출된 이동 경로정보 및 사격 결과정보를 이용하여 사격연습 테마에 대한 시뮬레이션 결과정보를 생성할 수 있다.
결과 산출부(260)는 시뮬레이션 영상에 대해 기 설정된 최단 경로와 사격자가 이동한 이동 경로정보를 비교하여 산출된 점수와 사격 결과정보의 점수를 이용하여 시뮬레이션 결과정보를 생성한다. 여기서, 이동 경로에 대한 점수는 이동 경로정보에 포함된 경로 길이에서 기 설정된 최단 경로를 뺀 차이값에 근거하여 산출된 점수를 의미하며, [표 2]을 기반으로 산출될 수 있다.
이동 경로정보(km) 최단 경로(km) 점수
10 ~ 20 10 10
21 ~ 30 5
31 ~ 40 1
[표 2]에서 이동 경로정보는 최대 경로가 40 km이고, 최단 경로가 10 km인 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니며, 사격자 또는 관리자의 조작에 의해 변경될 수 있다.
결과 산출부(260)는 이동 경로에 대한 점수와 사격 결과정보에 대한 점수를 합산하여 시뮬레이션 결과정보를 생성하는 것이 바람직하나 반드시 이에 한정되는 것은 아니다.
결과 산출부(260)는 이동 경로정보를 기초로 전체 경로에 대한 시뮬레이션 결과정보를 생성할 수 있으나 반드시 이에 한정되는 것은 아니다. 예컨대, 결과 산출부(260)는 이동 경로정보를 기초로 전체 경로를 복수의 구간으로 구분하고, 복수의 구간 각각에 포함된 타겟들에 대한 사격 결과정보 및 복수의 구간 각각에 대한 이동 경로정보를 이용하여 시뮬레이션 결과정보를 생성할 수 있다.
한편, 복수의 구간으로 구분하여 시뮬레이션 결과정보를 생성하는 경우, 결과 산출부(260)는 복수의 구간 각각마다 난이도를 설정하고, 설정된 난이도를 기초로 복수의 구간마다 서로 다른 가중치를 적용하여 시뮬레이션 결과정보를 생성할 수 있다.
도 3은 본 실시예에 따른 실탄 사격 시뮬레이션 게임 제공방법을 설명하기 위한 순서도이다.
사격 시뮬레이션 제공장치(150)는 사격연습 테마에 대응하는 시뮬레이션 영상 데이터를 실탄사격 연습실 내에 구비된 프로젝터(110)로 전송하여 출력되도록 한다(S310). 사격 시뮬레이션 제공장치(150)는 기 저장된 시뮬레이션 영상 데이터를 프로젝터(110)로 전송할 수 있으나 외부 지휘소 또는 외부 서버로부터 사격연습 테마에 대응하는 시뮬레이션 영상 데이터를 획득하여 전송할 수 있다. 여기서, 사격연습 테마는 사격게임, 기초 사격연습, 사격 스포츠 연습, 군사작전, 테러훈련, 인질구조 등을 포함할 수 있다.
사격 시뮬레이션 제공장치(150)는 프로젝터(110)를 통해 시뮬레이션 영상을 실탄사격 연습실 내부에 출력하여 사격 연습을 시작한다(S312).
사격 시뮬레이션 제공장치(150)는 시뮬레이션 영상에 따라 사격자의 방향전환 및 이동위치를 감지한 정보를 기초로 시뮬레이션 영상을 제어한다(S320). 예컨대, 사격 시뮬레이션 제공장치(150)는 사격자의 모자, 사격자가 착용하는 음향기기(140) 등에 장착된 시선센서(132)로부터 획득한 시선 센싱정보를 이용하여 사격자의 시선 위치, 방향 등을 판단하고, 시선 센싱정보 및 사격자의 움직임을 기초로 판단된 시선 위치정보를 기초로 시뮬레이션 영상을 제어한다.
시뮬레이션 영상에 따라 사격자가 사격을 수행하고, 사격 시뮬레이션 제공장치(150)는 시뮬레이션 영상에 출력되는 타겟에 대한 사격자의 실탄 격발을 인지한다(S322). 사격 시뮬레이션 제공장치(150)는 사격자의 총기에 구비된 센서를 통해 실탄 격발을 인지할 수 있으나 반드시 이에 한정되는 것은 아니며, 격발 사운드를 센싱하여 실탄 격발을 인지할 수도 있다. 단계 S322는 실탄의 위치를 산출하기 위한 부수적인 센싱 정보로서 관리자의 설정에 따라 생략될 수 있다.
사격 시뮬레이션 제공장치(150)는 실탄사격 연습실 내에 구비된 센서(130)로부터 실탄 위치를 센싱한 실탄 센싱정보를 획득하고(S330), 실탄 센싱정보에 근거하여 실탄의 탄착점을 산출한다(S340). 사격 시뮬레이션 제공장치(150)는 시뮬레이션 영상이 출력되는 특정영역에 설치된 실탄센서(136)로부터 사격자의 실탄 격발에 따른 실탄위치를 센싱한 실탄 센싱정보를 획득하며, 실탄 센싱정보를 기초로 실탄의 탄착점을 산출할 수 있다. 여기서, 탄착점은 실탄 센싱정보에 포함된 센싱정보를 영상 스크린(120)에 기 설정된 좌표 맵에 매칭시켜 산출될 수 있다.
사격 시뮬레이션 제공장치(150)는 시뮬레이션 영상에 포함된 타겟에 대한 타겟 위치정보 산출한다(S350).
사격 시뮬레이션 제공장치(150)는 탄착점 및 타겟 위치정보를 이용하여 사격 정확도 측정하고(S360), 사격 정확도를 기초로 사격 결과정보를 생성한다(S370). 여기서, 사격 결과정보는 사격 정확도에 대응하는 점수를 포함하는 결과정보를 의미하며, 사격 연습용 타겟 각각에 대하여 생성될 수 있으나, 시뮬레이션 영상에 따른 구간별로 해당 구간에 포함된 복수의 사격 연습용 타겟의 점수들을 합산하여 생성될 수도 있다.
사격 시뮬레이션 제공장치(150)는 사격자의 이동 경로정보를 추가로 획득하고, 이동 경로정보 및 사격 결과정보를 이용하여 사격연습 테마에 대한 시뮬레이션 결과정보를 생성한다(S380). 사격 시뮬레이션 제공장치(150)는 시뮬레이션 영상을 기반으로 사격 연습 내용에 따라 출발(시뮬레이션 시작) 지점에서 도착(시뮬레이션 종료) 지점까지의 이동 경로에 대한 이동 경로정보를 산출하며, 이동 경로정보 및 사격 결과정보를 이용하여 사격연습 테마에 대한 시뮬레이션 결과정보를 생성할 수 있다. 여기서, 시뮬레이션 결과정보는 시뮬레이션 영상에 대해 기 설정된 최단 경로와 사격자가 이동한 이동 경로정보를 비교하여 산출된 점수와 사격 결과정보의 점수를 기반으로 생성된 정보를 의미한다.
전술한 바와 같이 도 3에 기재된 본 실시예에 따른 실탄 사격 시뮬레이션 게임 제공방법은 프로그램으로 구현되고 컴퓨터로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 실탄 사격 시뮬레이션 게임 제공방법을 구현하기 위한 프로그램이 기록되고 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 이러한 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수도 있다. 또한, 본 실시예를 구현하기 위한 기능적인(Functional) 프로그램, 코드 및 코드 세그먼트들은 본 실시예가 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있을 것이다.
도 4a 및 도 4b는 본 실시예에 따른 실탄 사격 시뮬레이션 시스템의 구조를 설명하기 위한 예시도이다.
도 4a 및 도 4b에 도시된 바와 같이, 실탄을 이용한 사격 시뮬레이션 시스템은 실탄사격 연습실 및 사격 시뮬레이션 제공장치(150)를 포함한다.
도 4a는 사격자가 실탄사격 연습실의 기 설정된 이동 영역(410) 내에서 시뮬레이션 영상에 따라 이동하며 사격 연습을 수행하는 예시도이다. 여기서, 기 설정된 이동 영역(410)은 실탄사격 연습실의 바닥 중앙을 기준으로 사각 또는 원형의 영역일 수 있으나 반드시 이에 한정되는 것은 아니며, 실탄사격 연습실의 바닥 전체일 수 있다.
도 4b는 사격자가 실탄사격 연습실의 바닥에 설치된 이동 페달(412)을 이용하여 시뮬레이션 영상에 따라 이동하며 사격 연습을 수행하는 예시도이다. 여기서, 이동 페달(412)은 일립티컬 머신(Elliptical Machine)의 발판, 런닝 머신(Tread Mill)의 발판 등과 유사 또는 동일한 형태의 페달일 수 있다.
도 5는 본 실시예에 따른 사격 시뮬레이션 시스템에서 실탄 격발에 따른 실탄위치를 센싱하기 위한 센서의 설치구조를 설명하기 위한 예시도이다.
도 5의 (a)는 실탄사격 연습실의 위(천장)에서 아래(바닥)로 바라본 상태의 벽면(510) 및 영상 스크린(120)을 도시한 예시도이다. 도 5의 (a)에 도시된 바와 같이, 영상 스크린(120)은 실탄사격 연습실의 벽면(510)과 일정거리를 갖도록 평행하게 설치될 수 있다. 또한, 영상 스크린(120) 또는 벽면(510)에는 사격자에 의해 격발된 실탄을 감지하기 위한 센서가 구비될 수 있다.
한편, 도 5의 (a)에서는 사각 형태의 벽면(510)의 내측에 평행하게 영상 스크린(120)이 설치된 것으로 도시하고 있으나 반드시 이에 한정되는 것은 아니며, 예컨대 사각 형태의 벽면(510)의 내측에 원 형태의 영상 스크린(120)이 설치되거나 원 형태의 벽면(510)의 내측에 원 형태의 영상 스크린(120)이 설치될 수도 있다.
도 5의 (b) 및 (c)는 영상 스크린(120)에 설치된 실탄 감지센서(510, 520)를 설명하기 위한 예시도를 나타낸다. 도 5의 (b) 및 (c)는 사격자가 실탄사격 연습실 내부에서 각각의 영상 스크린(120)을 바라본 형태를 도시한다.
도 5의 (b)에 도시된 바와 같이, 제1 실탄 감지센서(510)는 영상 스크린(120) 내에 소정의 간격을 갖는 격자형으로 배치될 수 있다. 예를 들어, 제1 실탄 감지센서(510)는 5 * 4 크기의 격자 형태로 영상 스크린(120) 내에 설치될 수 있으며, 제1 실탄 감지센서(510) 중 사격자의 실탄 격발에 의해 생성된 실탄 통과점(512)과 인접한 일부 센서를 이용하여 실탄 통과점(512)을 센싱할 수 있다. 여기서, 실탄 통과점(512)은 실탄 통과점(512)과 인접한 4 개의 제1 실탄 감지센서(510)에 의해 감지될 수 있으며, 실탄 통과점(512)에 대한 센싱정보는 4 개의 제1 실탄 감지센서(510) 각각의 식별정보, 4 개의 제1 실탄 감지센서(510) 각각과 실탄 통과점(512) 간의 거리, 실탄 개수 등을 포함할 수 있다.
도 5의 (c)에 도시된 바와 같이, 제2 실탄 감지센서(520)는 영상 스크린(120)의 테두리 중 일부 위치에 배치될 수 있다. 예를 들어, 제2 실탄 감지센서(520)는 영상 스크린(120)의 4 개의 모서리 각각에 설치되어 레이더 방식을 이용하여 실탄의 궤적을 감지하여 실탄 통과점(512)을 센싱할 수 있다. 실탄 통과점(512)에 대한 센싱정보는 4 개의 제2 실탄 감지센서(520) 각각의 식별정보, 4 개의 제2 실탄 감지센서(520) 각각에서 감지된 실탄 궤적정보, 4 개의 제2 실탄 감지센서(520) 각각과 실탄 궤적과의 거리, 실탄 개수 등을 포함할 수 있다.
도 5의 (b) 및 (c)에서는 제1 실탄 감지센서(510) 및 제2 실탄 감지센서(520)가 영상 스크린(120)에 설치되는 것으로 도시하고 있으나 동일한 위치 동일한 방식으로 실탄사격 연습실의 벽면(510)에 설치될 수도 있다.
도 6은 본 실시예에 따른 사격 시뮬레이션 시스템에서 사격 정확도를 산출하기 위한 방법의 예시도이다.
도 6에 도시된 바와 같이, 영상 스크린(120) 내에 사격 연습용 타겟(600)이 존재하는 경우, 사격자는 실탄을 사격하여 제1 탄착점(620), 제2 탄착점(622)을 생성한다.
사격 시뮬레이션 제공장치(150)는 사격 연습용 타겟(600)의 기 설정된 소정의 좌표 또는 타겟의 무게중심좌표 등을 포함하는 타겟 위치정보(610)를 탄착점(620, 622)과 비교하여 사격 정확도를 측정(산출)할 수 있다. 예컨대, 사격 시뮬레이션 제공장치(150)는 타겟 위치정보(610)의 좌표가 (15, 12)이고, 제1 탄착점(620)의 좌표가 (16, 15)인 경우, 타겟 위치정보(610) 및 제1 탄착점(620)을 비교하여 산출된 차이값을 이용하여 사격 정확도를 측정한다. 여기서, 사격 정확도는 기 설정된 개수의 레벨로 구분될 수 있으나 반드시 이에 한정되는 것은 아니다.
사격 시뮬레이션 제공장치(150)는 측정된 사격 정확도에 대응하는 점수를 계산하여 사격자의 사격에 대한 사격 결과정보를 생성할 수 있다.
도 7은 본 실시예에 따른 사격 시뮬레이션 시스템에서 시뮬레이션 결과를 산출하기 위한 사격자의 이동경로를 나타낸 예시도이다.
도 7의 (a)는 시뮬레이션 영상에 대한 제1 사격자가 출발 지점(710)에서 도착 지점(730)까지 이동한 제1 이동 경로(720)를 나타낸 도면이다. 도 7의 (b)는 시뮬레이션 영상에 대한 제2 사격자가 출발 지점(710)에서 도착 지점(730)까지 이동한 제2 이동 경로(722)를 나타낸 도면이다.
사격 시뮬레이션 제공장치(150)는 도 7의 (a) 및 (b)에 근거하여 제1 사격자 및 제2 사격자 각각에 대한 이동 경로정보를 산출할 수 있다. 사격 시뮬레이션 제공장치(150)는 시뮬레이션 영상에 의해 사격 연습이 시작된 시점부터 사격자의 시선 센싱정보 및 이동 센싱정보를 이용하여 사격자의 이동 방향, 이동 속도, 이동 시간 등을 고려하여 이동 경로정보를 산출할 수 있다.
도 7에 도시된 바와 같이, 제1 이동 경로(720)는 제2 이동 경로(722)보다 짧은 경로를 갖으므로, 기 설정된 최단 경로와 사격자가 이동한 이동 경로정보를 비교하여 제2 사격자가 제1 사격자보다 좋은 점수를 획득할 수 있다. 여기서, 획득한 점수는 사격 결과정보와 결합하여 시뮬레이션 결과정보를 생성하는데 반영된다.
도 8은 본 실시예에 따른 복수의 실탄사격 연습실과 연동하는 사격 시뮬레이션 시스템을 나타낸 예시도이다.
도 8에 도시된 바와 같이, 사격 시뮬레이션 제공장치(150)는 복수의 사격자가 동시에 실탄을 이용하여 사격 연습을 할 수 있도록 복수의 실탄사격 연습실과 연동할 수 있다. 다시 말해, 사격 시뮬레이션 제공장치(150)는 복수의 실탄사격 연습실에 동일한 시뮬레이션 영상을 출력하고, 이에 따른 복수의 사격자 각각에 대한 사격 결과정보 또는 시뮬레이션 결과정보를 생성할 수 있다. 여기서, 복수의 실탄사격 연습실 각각에 진입해 있는 각각의 사격자는 하나의 팀(게임 또는 훈련 상의 같은 편)에 소속된 형태로 사격 연습을 수행할 수 있으나, 서로 다른 팀(게임 또는 훈련 상의 상대방 팀)에 소속된 형태로 사격 연습을 수행할 수도 있다.
이상의 설명은 본 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 실시예들은 본 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
<부호의 설명>
110: 프로젝터 120: 영상 스크린
130: 센서 132: 시선센서
134: 움직임센서 136: 실탄센서
140: 음향기기 150: 사격 시뮬레이션 제공장치
210: 시뮬레이션 영상 제어부 212: 시선 판단부
220: 센싱 처리부 230: 탄착점 산출부
240: 타겟위치 산출부 250: 이동경로 산출부
260: 결과 산출부
CROSS-REFERENCE TO RELATED APPLICATION
본 특허출원은 2016년 10월 18일 한국에 출원한 특허출원번호 제10-2016-0134788호에 대해 미국 특허법 119(a)조(35 U.S.C § 119(a))에 따라 우선권을 주장하며, 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다. 아울러, 본 특허출원은 미국 이외에 국가에 대해서도 위와 동일한 이유로 우선권을 주장하며 그 모든 내용은 참고문헌으로 본 특허출원에 병합된다.

Claims (18)

  1. 사격 시뮬레이션 제공장치를 이용하여 실탄 사격 시뮬레이션을 제공하는 방법에 있어서,
    실탄사격 연습실 내에 기 설치된 프로젝터로 시뮬레이션 영상 데이터를 전송하여 시뮬레이션 영상이 특정영역에 출력되도록 하는 시뮬레이션 영상 출력과정;
    상기 특정영역에 설치된 센서로부터 사격자의 실탄 격발에 따른 실탄위치를 센싱한 센싱정보를 획득하는 센싱 처리과정;
    상기 센싱정보에 근거하여 상기 실탄의 탄착점을 산출하는 탄착점 산출과정;
    상기 시뮬레이션 영상에 포함된 타겟에 대한 타겟 위치정보를 산출하는 타겟 위치 산출과정; 및
    상기 탄착점 및 상기 타겟 위치정보를 이용하여 사격 정확도를 측정하고, 상기 사격 정확도를 기초로 사격 결과정보를 생성하는 결과 산출과정
    을 포함하는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  2. 제1항에 있어서,
    상기 사격 시뮬레이션 제공장치는 외부 지휘소 또는 외부 서버로부터 사격게임, 기초 사격연습, 사격 스포츠 연습, 군사작전, 테러훈련, 인질구조 중 하나의 사격연습 테마에 대응하는 상기 시뮬레이션 영상 데이터를 획득하는 과정을 추가로 포함하고,
    상기 시뮬레이션 영상 출력과정은, 상기 사격연습 테마에 대응하는 상기 시뮬레이션 영상 데이터를 상기 프로젝터로 전송하여 상기 사격연습 테마에 대한 상기 시뮬레이션 영상이 출력되도록 하는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  3. 제2항에 있어서,
    상기 결과 산출과정은,
    상기 사격연습 테마에 대응하는 평가 기준정보가 존재하는 경우, 상기 평가 기준정보를 기준으로 상기 사격자의 이동 경로정보 및 상기 사격 결과정보를 이용하여 상기 사격연습 테마에 대한 시뮬레이션 결과정보를 생성하는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  4. 제3항에 있어서,
    상기 결과 산출과정은,
    상기 이동 경로정보를 기초로 전체 경로를 복수의 구간으로 구분하고, 상기 복수의 구간마다 포함된 타겟 각각에 대한 상기 사격 결과정보를 적용하여 상기 시뮬레이션 결과정보를 생성하되,
    상기 복수의 구간 각각에 대한 난이도를 설정하고, 상기 난이도를 기초로 상기 복수의 구간마다 서로 다른 가중치를 적용하여 상기 시뮬레이션 결과정보를 생성하는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  5. 제1항에 있어서,
    상기 시뮬레이션 영상은,
    상기 실탄사격 연습실의 적어도 3 개의 내측 벽면에 출력되는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  6. 제5항에 있어서,
    상기 센싱과정은,
    상기 실탄사격 연습실의 상기 내측 벽면 각각에 부착된 상기 센서로부터 상기 센싱정보를 획득하는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  7. 제6항에 있어서,
    상기 센싱정보는,
    상기 실탄이 상기 내측 벽면에 박힌 지점을 센싱한 정보인 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  8. 제1항에 있어서,
    상기 시뮬레이션 영상은,
    상기 실탄사격 연습실의 적어도 3 개의 내측 벽면과 일정거리를 갖도록 평행하게 설치된 영상 스크린에 출력되는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  9. 제8항에 있어서,
    상기 센싱과정은,
    상기 실탄사격 연습실의 상기 영상 스크린 각각에 부착된 상기 센서로부터 상기 센싱정보를 획득하는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  10. 제9항에 있어서,
    상기 센싱정보는,
    상기 실탄이 상기 영상 스크린을 관통한 지점을 센싱한 정보인 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  11. 제1항에 있어서,
    상기 탄착점 산출과정은,
    상기 실탄사격 연습실의 내측 벽면 또는 상기 내측 벽면에 평행하게 설치된 영상 스크린에 대해 기 설정된 좌표 맵에 상기 센싱정보를 매칭시켜 상기 탄착점을 산출하는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  12. 제1항에 있어서,
    상기 타겟 위치 산출과정은,
    상기 실탄사격 연습실의 내측 벽면 또는 상기 내측 벽면에 평행하게 설치된 영상 스크린에 대해 기 설정된 좌표 맵에 상기 시뮬레이션 영상 데이터에 포함된 타겟정보를 매칭시켜 상기 타겟 위치정보를 산출하는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  13. 제1항에 있어서,
    상기 결과 산출과정은,
    상기 탄착점과 상기 타겟 위치정보를 비교하여 차이값을 산출하고, 상기 차이값의 크기에 따라 측정된 상기 사격 정확도를 이용하여 상기 사격 결과정보를 생성하는 것을 특징으로 하는 실탄 사격 시뮬레이션 게임 제공방법.
  14. 실탄사격 연습실 내에 기 설치된 프로젝터로 시뮬레이션 영상 데이터를 전송하여 시뮬레이션 영상이 특정영역에 출력되도록 하는 시뮬레이션 영상 제어부;
    상기 특정영역에 기 설치된 센서로부터 사격자의 실탄 격발에 따른 실탄위치를 센싱한 센싱정보를 획득하는 센싱 처리부;
    상기 센싱정보에 근거하여 상기 실탄의 탄착점을 산출하는 탄착점 산출부;
    상기 시뮬레이션 영상에 포함된 타겟에 대한 타겟 위치정보를 산출하는 타겟 위치 산출부; 및
    상기 탄착점 및 상기 타겟 위치정보를 이용하여 사격 정확도를 측정하고, 상기 사격 정확도를 기초로 사격 결과정보를 생성하는 결과 산출부
    를 포함하는 것을 특징으로 하는 실탄을 이용한 사격 시뮬레이션 제공장치.
  15. 제14항에 있어서,
    상기 결과 산출부는,
    사격게임, 기초 사격연습, 사격 스포츠 연습, 군사작전, 테러훈련, 인질구조 중 하나의 사격연습 테마에 대응하는 평가 기준정보가 존재하는 경우, 상기 평가 기준정보를 기준으로 상기 사격자의 이동 경로정보 및 상기 사격 결과정보를 이용하여 상기 사격연습 테마에 대한 시뮬레이션 결과정보를 생성하는 것을 특징으로 하는 실탄을 이용한 사격 시뮬레이션 제공장치.
  16. 제15항에 있어서,
    상기 결과 산출부는,
    상기 이동 경로정보를 기초로 전체 경로를 복수의 구간으로 구분하고, 상기 복수의 구간마다 포함된 타겟 각각에 대한 상기 사격 결과정보를 적용하여 상기 시뮬레이션 결과정보를 생성하되,
    상기 복수의 구간 각각에 대한 난이도를 설정하고, 상기 난이도를 기초로 상기 복수의 구간마다 서로 다른 가중치를 적용하여 상기 시뮬레이션 결과정보를 생성하는 것을 특징으로 하는 실탄을 이용한 사격 시뮬레이션 제공장치.
  17. 실탄을 이용한 사격 연습을 위한 시스템에 있어서,
    실탄사격 연습실의 특정 영역으로 시뮬레이션 영상을 조사하는 프로젝터;
    상기 실탄사격 연습실의 적어도 3 개의 내측 벽면과 일정거리를 갖도록 평행하게 각각 설치되어 상기 시뮬레이션 영상을 출력하는 영상 스크린;
    사격자가 바라보는 시선위치 또는 방향을 감지하는 센서를 포함하고, 상기 사격자에게 상기 시뮬레이션 영상에 대한 음향을 제공하는 헤드셋;
    상기 영상 스크린의 각각에 부착되며, 상기 사격자의 실탄 격발에 따른 실탄위치를 센싱하여 센싱정보를 생성하는 실탄센서; 및
    상기 프로젝터로 시뮬레이션 영상 데이터를 전송하여 상기 시뮬레이션 영상이 출력되도록 하며, 상기 센싱정보에 근거하여 산출된 상기 실탄의 탄착점 및 상기 시뮬레이션 영상에 포함된 타겟에 대한 타겟 위치정보를 이용하여 사격 정확도를 측정하고, 상기 사격 정확도를 기초로 사격 결과정보를 생성하는 사격 시뮬레이션 제공장치
    를 포함하는 것을 특징으로 하는 사격 시뮬레이션 시스템.
  18. 제17항에 있어서,
    상기 사격 시뮬레이션 제공장치는,
    사격연습 테마에 대응하는 평가 기준정보가 존재하는 경우, 상기 평가 기준정보를 기준으로 상기 사격자의 이동 경로정보 및 상기 사격 결과정보를 이용하여 상기 사격연습 테마에 대한 시뮬레이션 결과정보를 생성하되,
    상기 시뮬레이션 결과정보는 상기 이동 경로정보를 기초로 전체 경로를 복수의 구간으로 구분한 구간 각각에 대해 설정된 난이도를 기초로 상기 복수의 구간마다 서로 다른 가중치를 적용하여 생성되는 것을 특징으로 하는 실탄을 이용한 사격 시뮬레이션 제공장치.
PCT/KR2017/008026 2016-10-18 2017-07-26 실탄사격 시뮬레이션 게임 제공 방법 및 장치 WO2018074709A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US16/359,170 US20190219364A1 (en) 2016-10-18 2019-03-20 Method And Apparatus For Providing Live-Fire Simulation Game

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2016-0134788 2016-10-18
KR1020160134788A KR101921249B1 (ko) 2016-10-18 2016-10-18 실탄사격 시뮬레이션 게임 제공 방법 및 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/359,170 Continuation US20190219364A1 (en) 2016-10-18 2019-03-20 Method And Apparatus For Providing Live-Fire Simulation Game

Publications (1)

Publication Number Publication Date
WO2018074709A1 true WO2018074709A1 (ko) 2018-04-26

Family

ID=62018903

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/008026 WO2018074709A1 (ko) 2016-10-18 2017-07-26 실탄사격 시뮬레이션 게임 제공 방법 및 장치

Country Status (3)

Country Link
US (1) US20190219364A1 (ko)
KR (1) KR101921249B1 (ko)
WO (1) WO2018074709A1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108398049B (zh) * 2018-04-28 2023-12-26 上海亿湾特训练设备科技有限公司 一种联网互战式投影对抗射击训练系统
KR102195083B1 (ko) * 2019-03-26 2020-12-24 오용 레이저 사격과 시선 추적을 이용한 주의력 향상 시스템 및 방법
CN110280011A (zh) * 2019-07-02 2019-09-27 武汉热火体育运动有限公司 一种基于场地游戏的平台系统
KR102469485B1 (ko) * 2022-10-05 2022-11-21 최준석 가상전투시스템 및 기록매체
CN116531765B (zh) * 2023-05-16 2023-12-08 成都航天凯特机电科技有限公司 靶场射击训练射击结果生成方法、装置及可读存储介质
KR102596258B1 (ko) * 2023-06-08 2023-11-01 옵티머스시스템 주식회사 포탄 모의사격 시뮬레이션 시스템

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0979800A (ja) * 1995-09-08 1997-03-28 Babcock Hitachi Kk 実弾射撃訓練装置
KR20110027929A (ko) * 2009-09-11 2011-03-17 박주현 스크린 상의 타격 위치 감지 장치
KR101421113B1 (ko) * 2012-06-26 2014-07-24 대한민국 자동 감지 사격 시스템
KR20150137261A (ko) * 2014-05-29 2015-12-09 (주)이인텍 이미지 트래킹을 이용한 표적생성 방법 및 그 장치.
KR101642956B1 (ko) * 2015-10-16 2016-07-26 주식회사 인퍼니 사격 시뮬레이션 게임 시스템

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0979800A (ja) * 1995-09-08 1997-03-28 Babcock Hitachi Kk 実弾射撃訓練装置
KR20110027929A (ko) * 2009-09-11 2011-03-17 박주현 스크린 상의 타격 위치 감지 장치
KR101421113B1 (ko) * 2012-06-26 2014-07-24 대한민국 자동 감지 사격 시스템
KR20150137261A (ko) * 2014-05-29 2015-12-09 (주)이인텍 이미지 트래킹을 이용한 표적생성 방법 및 그 장치.
KR101642956B1 (ko) * 2015-10-16 2016-07-26 주식회사 인퍼니 사격 시뮬레이션 게임 시스템

Also Published As

Publication number Publication date
US20190219364A1 (en) 2019-07-18
KR101921249B1 (ko) 2018-11-22
KR20180042540A (ko) 2018-04-26

Similar Documents

Publication Publication Date Title
WO2018074709A1 (ko) 실탄사격 시뮬레이션 게임 제공 방법 및 장치
CN106225556B (zh) 一种基于精确位置跟踪的多人射击仿真训练系统
WO2018190484A1 (ko) 영상 사격 훈련 시스템
JPH11510245A (ja) 通常射撃もしくは模擬射撃のための着弾位置マーカー
WO2019156523A1 (ko) 구기스포츠를 위한 3차원 타겟 시스템
KR20110056019A (ko) 스크린 사격 시뮬레이션 시스템 및 그 방법
JP3803589B2 (ja) 射撃訓練システムおよび方法
WO2017135690A1 (ko) 야구 연습 장치에 이용되는 센싱장치 및 센싱방법과, 이를 이용한 야구 연습 장치 및 이의 제어방법
JP4785503B2 (ja) 映像射撃シミュレータ
CN113834373A (zh) 真人演绎虚拟现实室内室外攻防对抗作战训练系统及方法
WO2016088951A1 (ko) 서바이벌 게임 오프라인 시스템 및 이의 전사자 리스폰 방법
KR20140061940A (ko) 실내 훈련용 곡사화기 사격술 모의 훈련 시스템 및 이의 제어방법
KR20130006113A (ko) 영상 사격 훈련 장치
RU88790U1 (ru) Мультимедийный интерактивный стрелковый тир
JP2019027661A (ja) 射撃訓練システム
KR101542926B1 (ko) 비비탄용 모의사격 시스템
KR20030095310A (ko) 전자 경기 시스템, 전자 경기 방법, 서버 및 컴퓨터프로그램
WO2017135689A2 (ko) 체험형 가상 야구 게임 장치 및 이에 의한 가상 야구 게임 제어방법
RU114772U1 (ru) Интерактивный тир с контролем положения стрелка
JP3564213B2 (ja) 集団射撃訓練装置
JP5342854B2 (ja) 射撃訓練用模擬対抗装置
JPH11142098A (ja) 投下爆弾の着弾位置検出方法及び装置
JP2003075097A (ja) 反撃式映像射撃訓練装置
KR102640632B1 (ko) Xr컨트롤러가 부착된 실총기를 이용한 확장현실(xr) 기반의 초실감 전투 훈련 방법 및 시스템
KR102493325B1 (ko) 직사화기의 탄착점 추정 시스템 및 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17862853

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17862853

Country of ref document: EP

Kind code of ref document: A1