JP2020041743A - Firing training system - Google Patents

Firing training system Download PDF

Info

Publication number
JP2020041743A
JP2020041743A JP2018169454A JP2018169454A JP2020041743A JP 2020041743 A JP2020041743 A JP 2020041743A JP 2018169454 A JP2018169454 A JP 2018169454A JP 2018169454 A JP2018169454 A JP 2018169454A JP 2020041743 A JP2020041743 A JP 2020041743A
Authority
JP
Japan
Prior art keywords
target
score
image data
training system
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018169454A
Other languages
Japanese (ja)
Other versions
JP7160607B2 (en
JP2020041743A5 (en
Inventor
幸子 小峰
Sachiko Komine
幸子 小峰
遠藤 直樹
Naoki Endo
直樹 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Kokusai Electric Inc
Original Assignee
Hitachi Kokusai Electric Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Kokusai Electric Inc filed Critical Hitachi Kokusai Electric Inc
Priority to JP2018169454A priority Critical patent/JP7160607B2/en
Publication of JP2020041743A publication Critical patent/JP2020041743A/en
Publication of JP2020041743A5 publication Critical patent/JP2020041743A5/ja
Application granted granted Critical
Publication of JP7160607B2 publication Critical patent/JP7160607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)

Abstract

To provide a firing training system that can conduct a training while adjusting a target position or a firing attitude in shooting of a next bullet by knowing an impact position in real time.SOLUTION: A target is projected to a rubber-type sensor 39 of a target device 3 with a projector 40 by sending image data of the target from a terminal 7 to the projector 40. A shooter conducts firing training relative to the target projected on the sensor. The terminal receives a firing training result conducted by the shooter as detection signals of the sensor, calculates an impact position, generates image data of the impact position and scores, and sends the generated image data of the impact position and scores to the projector. The projector superimposes the image of the impact position and scores to the target image and projects to the rubber-type sensor. The shooter can thus conducts the firing training while viewing the firing target and the firing result.SELECTED DRAWING: Figure 4A

Description

本発明は、射撃訓練システムに係り、特に射撃訓練における標的への着弾結果表示技術に関する。   The present invention relates to a shooting training system, and more particularly to a technique for displaying a landing result on a target in shooting training.

従来、射撃訓練のためのシステムが提案されている。これらの射撃訓練システムでは、訓練者が標的を射撃し、標的に着弾があった時に、着弾位置を検出するセンサからの座標(X、Y)を取得し、指揮官や射手の近傍に設置された端末のモニタに結果表示を行っていた。例えば、特許文献1に開示される射撃訓練システムは、レーザー銃を用いた射撃訓練システムであり、レーザー銃から発射される光弾が標的板に着弾した位置に応じた採点を行う。特許文献2に開示される標的装置では、標的面に命中した命中弾の弾痕位置の座標データをビデオカメラにより検出する。特許文献3に開示される実弾を用いた射撃訓練システムでは、エリア検出センサにより、標的よりも広い範囲の弾着を検知している。   Conventionally, systems for shooting training have been proposed. In these shooting training systems, when a trainee fires at a target and the target lands, the coordinates (X, Y) from a sensor that detects the landing position are acquired and installed near the commander or shooter. Display the result on the monitor of the terminal. For example, the shooting training system disclosed in Patent Literature 1 is a shooting training system using a laser gun, and performs scoring according to the position at which a light bullet emitted from the laser gun lands on a target plate. In the target device disclosed in Patent Literature 2, coordinate data of a bullet hole position of a hit bullet hitting a target surface is detected by a video camera. In the shooting training system using live ammunition disclosed in Patent Literature 3, the area detection sensor detects an impact in a wider range than the target.

特開2006−184002号公報JP 2006-184002 A 特開平8−226794号公報JP-A-8-226794 特開2014−126257号公報JP 2014-126257 A

特許文献1等の従来のシステムでは、射手や指揮官の近傍に設置された端末のモニタに射撃結果表示を行っていたため、射手は端末のモニタを見て間接的にしか標的の着弾点を確認することができず、標的上の着弾位置を直接的に知ることができない。そのため、次弾の発射時に目標位置や射撃姿勢を逐次修正しながら訓練を実施して、訓練効率を上げることが難しい。   In the conventional system such as Patent Document 1, since the shooting result is displayed on the monitor of the terminal installed near the shooter and the commander, the shooter indirectly checks the impact point of the target by looking at the monitor of the terminal. And cannot directly know the impact position on the target. Therefore, it is difficult to improve the training efficiency by performing the training while sequentially correcting the target position and the shooting attitude when the next bullet is fired.

本発明の目的は、上記の課題を解決し、射撃訓練時における着弾位置を射手が直接的に知ることにより、次弾の発射時に目標位置や射撃姿勢を修正しながら訓練を行うことを可能とする射撃訓練システムを提供することにある。   An object of the present invention is to solve the above-described problems, and enable the shooter to directly know the impact position at the time of shooting training, thereby performing training while correcting the target position and shooting attitude at the time of firing the next shot. To provide a shooting training system.

上記の目的を達成するため、本発明においては、射撃訓練システムであって、標的への弾着を検知する検出器を含む標的装置と、標的装置に標的を投影するプロジェクタと、標的装置とプロジェクタと通信可能な端末と、を備え、端末は、標的に対応する得点テーブルを記憶する記憶部と、プロジェクタに標的を投影するための画像データを生成して送信し、検出器の検出信号を受信し、着弾位置と得点を算出する制御部とを有し、制御部は、算出した着弾位置と得点に基づき、標的装置に着弾位置と得点を投影するための画像データを生成してプロジェクタに送信し、プロジェクタは標的に重畳して着弾位置と得点を投影する構成の射撃訓練システムを提供する。   In order to achieve the above object, the present invention provides a shooting training system, which includes a target device including a detector for detecting impact on a target, a projector for projecting the target onto the target device, and a target device and a projector. And a terminal capable of communicating with the terminal, the terminal generates and transmits image data for projecting the target to the projector, and stores a score table corresponding to the target, and receives a detection signal of the detector. And a control unit for calculating a landing position and a score. The control unit generates image data for projecting the landing position and the score on the target device based on the calculated landing position and the score, and transmits the image data to the projector. In addition, the projector provides a shooting training system configured to project the impact position and the score by superimposing it on the target.

標的上に射撃結果を投影することにより、射手は標的と射撃結果を見ながら射撃を行うことができる。標的に表示された射撃結果を確認しながら次弾の射撃が行えるため、視線を標的に固定したまま目標位置や射撃姿勢を修正できる。   By projecting the shooting result on the target, the shooter can shoot while looking at the target and the shooting result. Since the next shot can be fired while checking the shooting result displayed on the target, the target position and the shooting attitude can be corrected while keeping the line of sight fixed to the target.

従来の射撃評価システムの装置構成を示す図である。It is a figure showing the device composition of the conventional shooting evaluation system. 標的装置の一構成を示す図である。It is a figure showing one composition of a target device. ラバータイプのセンサの一構成を示す図である。It is a figure showing one composition of a rubber type sensor. 実施例1に係る、射撃訓練システムの構成を示す図である。1 is a diagram illustrating a configuration of a shooting training system according to a first embodiment. 実施例1に係る、射撃訓練システムの端末構成のブロック図である。FIG. 2 is a block diagram of a terminal configuration of the shooting training system according to the first embodiment. 実施例1に係る、着弾位置、得点投影表示の一例を示す図である。FIG. 4 is a diagram illustrating an example of a landing position and a score projection display according to the first embodiment. 実施例1に係る、着弾点を描画するフローの一例を示す図である。FIG. 4 is a diagram illustrating an example of a flow for drawing a landing point according to the first embodiment. 実施例1に係る、複数の投影画像の切り替えを説明する図である。FIG. 4 is a diagram illustrating switching of a plurality of projection images according to the first embodiment. 実施例1に係る、標的画像と点数テーブルの一例を示す図である。FIG. 4 is a diagram illustrating an example of a target image and a score table according to the first embodiment. 実施例2に係る、投影画像のカラー表示の変更例を示す図である。FIG. 14 is a diagram illustrating an example of changing a color display of a projection image according to the second embodiment.

以下、本発明の実施の形態を説明するに先立ち、従来の射撃評価システムの構成について説明する。   Hereinafter, prior to describing an embodiment of the present invention, a configuration of a conventional shooting evaluation system will be described.

図1は従来の射撃評価システムの装置構成を示す図である。射手1は銃などの火器2を使用し、実弾を標的装置3に設けられた標的4に向かって発射し、訓練を実施する。着弾位置は、標的装置3の検出器5により検知され、射手の近傍に設置された端末7に通知することで、そのモニタ上に着弾位置を表示する。また、端末7から訓練時の情報(使用標的、使用火器等)の訓練条件の設定が行えるようになっている。端末7は射手1の近くに設置され、射手1と標的4との間に距離があっても射手1は着弾位置や得点等を確認することが可能である。端末7と標的装置3の制御装置6とは無線等によりデータの入出力を行う。   FIG. 1 is a diagram showing an apparatus configuration of a conventional shooting evaluation system. The shooter 1 uses a firearm 2 such as a gun to fire a live ammunition toward a target 4 provided on a target device 3 to perform training. The impact position is detected by the detector 5 of the target device 3, and is notified to the terminal 7 installed near the shooter, so that the impact position is displayed on the monitor. In addition, the terminal 7 can set the training conditions of the information at the time of training (target used, used firearm, etc.). The terminal 7 is installed near the shooter 1, and the shooter 1 can check the landing position, the score, and the like even if there is a distance between the shooter 1 and the target 4. The terminal 7 and the control device 6 of the target device 3 input and output data wirelessly or the like.

図2を用いて標的装置3の一構成例について説明する。なお、図2は図1において側面図を示した標的装置3の正面図である。標的装置3は、標的4、検出器5、制御装置6を含んで構成される。標的4は、例えばヒトのシルエット等の板状形状をしており、制御装置6により起立/倒れといった動作制御がなされる。検出器5は標的4の前に設置され、射撃の弾着を検知する。検出器5は標的4よりも広い検出エリア21への弾着が検知でき、また標的4への着弾如何に関わらず、検出エリア21への弾着を検知する。検出エリア21は標的4と同一面上のエリアであって、標的4よりも広い領域が設定される。検出器5は、検出エリア21の通過位置の位置座標を検出して着弾座標とする。実弾の位置座標の検出には、衝撃波を検出する複数のセンサや複数の超音波センサ等を用い、検出器5は複数のセンサが衝撃波を検知した時間、複数のセンサ間の位置関係から検出エリア21におけるXY座標に変換された着弾座標を算出する。   A configuration example of the target device 3 will be described with reference to FIG. FIG. 2 is a front view of the target device 3 shown in a side view in FIG. The target device 3 includes a target 4, a detector 5, and a control device 6. The target 4 has a plate-like shape such as a silhouette of a human, and the control device 6 controls the operation such as standing up / falling down. The detector 5 is installed in front of the target 4 and detects the impact of the shooting. The detector 5 can detect the impact on the detection area 21 wider than the target 4 and detect the impact on the detection area 21 irrespective of the impact on the target 4. The detection area 21 is an area on the same plane as the target 4, and an area wider than the target 4 is set. The detector 5 detects the position coordinates of the passing position of the detection area 21 and sets them as landing coordinates. For detecting the position coordinates of the live ammunition, a plurality of sensors for detecting a shock wave, a plurality of ultrasonic sensors, and the like are used. The impact coordinates converted into the XY coordinates in 21 are calculated.

ただし、けん銃等の初速の遅い火器の場合は、衝撃波を検知するタイプのセンサでは着弾位置を検知できない。そのような場合には、図3に示すようなラバータイプのセンサを使用することができる。木枠31の裏表をラバー32,33ではさみ、木枠下部に設けた複数のセンサ34で弾の通過位置を検出するものである。弾がラバーを通過したときに、弾の衝撃波が音響センサ、超音波センサ等の複数のセンサで検知され、複数のセンサが衝撃波を検知した時間、センサ間の位置関係から、検出エリア35におけるXY座標に変換された着弾座標を算出する。ラバー32,33は伸縮能力を有し、弾丸貫通時の貫通穴が収縮可能な自己修復材料であることが望ましい。この場合の標的としては、標的4のような形状をした的紙をラバー上に貼りつける。   However, in the case of a firearm with a slow initial velocity, such as a beating gun, the impact position cannot be detected by a sensor that detects a shock wave. In such a case, a rubber type sensor as shown in FIG. 3 can be used. The front and back of the wooden frame 31 are sandwiched between rubbers 32 and 33, and a plurality of sensors 34 provided below the wooden frame detect the passage position of bullets. When the bullet passes through the rubber, the shock wave of the bullet is detected by a plurality of sensors such as an acoustic sensor and an ultrasonic sensor. Based on the time when the plurality of sensors detect the shock wave and the positional relationship between the sensors, the XY in the detection area 35 is determined. The impact coordinates converted into the coordinates are calculated. It is desirable that the rubbers 32 and 33 be made of a self-healing material capable of contracting and contracting a through hole when penetrating a bullet. As a target in this case, a target paper shaped like the target 4 is stuck on the rubber.

弾着時には、端末7に弾着位置、時間、得点等を表示し、射手は端末7のモニタを見て射撃結果を得ることが出来る。モニタへの表示に関しては特許文献3に開示のものが知られている。得点は自動計算され、総得点も表示が可能である。特許文献3では、着弾位置算出部が算出した座標からその座標に応じた得点を算出する。このような射撃評価システムでは、検出器5の検出結果より算出される着弾座標及び火器の口径サイズから、着弾位置を中心とする弾の外径に応じた採点を可能としている。   At the time of impact, the impact position, time, score, and the like are displayed on the terminal 7, and the shooter can obtain a shooting result by looking at the monitor of the terminal 7. With respect to display on a monitor, one disclosed in Patent Document 3 is known. Scores are automatically calculated and the total score can be displayed. In Patent Literature 3, a score corresponding to the coordinates calculated by the landing position calculation unit is calculated. In such a shooting evaluation system, scoring according to the outer diameter of the bullet centering on the impact position can be performed based on the impact coordinates calculated from the detection result of the detector 5 and the caliber size of the firearm.

しかしながら、このような従来の射撃評価システムにおいて、図3のラバータイプのセンサを使用する場合は、的紙をラバーに貼り付けるものであったため、射撃目標である標的の位置の変更が難しかった。また、射手や指揮官の近傍に設置された端末のモニタに弾着結果の表示を行っているため、標的上の着弾位置を直接的に知ることができず、次弾の発射時に目標位置や射撃姿勢を逐次修正しながら訓練を実施することが困難だった。   However, in such a conventional shooting evaluation system, when the rubber type sensor of FIG. 3 is used, a target sheet is attached to the rubber, so that it is difficult to change the position of the target which is the shooting target. Also, since the result of the impact is displayed on the monitor of the terminal installed near the shooter or commander, the impact position on the target cannot be known directly, and the target position and It was difficult to carry out training while constantly correcting the shooting position.

実施例1は、投影装置であるプロジェクタを使用して標的を投影する射撃訓練システムの実施例である。すなわち、本実施例は、射撃訓練システムであって、標的への弾着を検知する検出器を含む標的装置と、標的装置に標的を投影するプロジェクタと、プロジェクタ及び標的装置と通信可能な端末とを備え、端末は、標的に対応する得点テーブルを記憶する記憶部と、標的装置に標的を投影するための画像データを生成してプロジェクタに送信し、検出器の検出信号を受信し、着弾位置と得点を算出する制御部とを有し、制御部は、算出した着弾位置と得点に基づき、標的装置に投影するための着弾位置と得点の画像データを生成してプロジェクタに送信し、プロジェクタは標的に重畳して着弾位置と得点を投影する射撃訓練システムの実施例である。   First Embodiment A first embodiment is an example of a shooting training system that projects a target using a projector that is a projection device. That is, the present embodiment is a shooting training system, a target device including a detector that detects impact on a target, a projector that projects the target on the target device, and a terminal that can communicate with the projector and the target device. The terminal has a storage unit that stores a score table corresponding to the target, and generates and transmits image data for projecting the target to the target device to the projector, receives a detection signal of the detector, and receives a landing position. And a control unit for calculating the score, based on the calculated landing position and the score, the control unit generates image data of the landing position and the score for projecting on the target device, and transmits the image data to the projector. 1 is an embodiment of a shooting training system that projects a landing position and a score by superimposing on a target.

実施例1の射撃訓練システムの装置構成を図4A、端末7の一構成例を図4Bに示す。本実施例の射撃訓練システムでは、プロジェクタ40を使用し、標的装置3のラバータイプのセンサ39の表面に標的画像を投影する。ここでラバータイプのセンサ39は、図3に示したようなラバータイプのセンサに、端末7と無線等によりデータの送受信を行う制御装置が付設されたものである。ラバータイプのセンサ39に投影する標的画像については、端末7よりプロジェクタ40に標的の画像データ等を送信し、プロジェクタ40は受信した画像データや映像データを使って投影を行う。更に、端末7は、作成した着弾位置と得点の画像データをプロジェクタ40に送信する。   FIG. 4A shows an apparatus configuration of the shooting training system according to the first embodiment, and FIG. In the shooting training system of the present embodiment, the projector 40 is used to project a target image on the surface of the rubber type sensor 39 of the target device 3. Here, the rubber-type sensor 39 is obtained by adding a control device for transmitting and receiving data to and from the terminal 7 by radio or the like, in addition to the rubber-type sensor shown in FIG. As for the target image to be projected on the rubber type sensor 39, the terminal 7 transmits target image data and the like to the projector 40, and the projector 40 performs projection using the received image data and video data. Further, the terminal 7 transmits the created landing position and score image data to the projector 40.

図4Bは本実施例の端末7の一構成を示すブロック図である。端末7はPC(Personal Computer)や専用機等を用いることができ、表示部41、電源部42、入力部43、送受信部44、記憶部45、制御部46を有する。表示部41は、液晶などのFPD(Flat Panel Display)であり、射撃システムの制御画面を表示したり、弾着に関する情報を表示したりすることができる。電源部42は端末7に電源を供給する。入力部43はキーボード、マウス、タッチパネル等であり、端末7の操作者からの入力を受ける。印字部46−1はプリンタ等である。   FIG. 4B is a block diagram illustrating one configuration of the terminal 7 of the present embodiment. The terminal 7 can be a PC (Personal Computer), a dedicated machine, or the like, and includes a display unit 41, a power supply unit 42, an input unit 43, a transmission / reception unit 44, a storage unit 45, and a control unit 46. The display unit 41 is an FPD (Flat Panel Display) such as a liquid crystal, and can display a control screen of the shooting system and information on impact. The power supply unit 42 supplies power to the terminal 7. The input unit 43 is a keyboard, a mouse, a touch panel, or the like, and receives an input from an operator of the terminal 7. The printing unit 46-1 is a printer or the like.

送受信部44は制御部46と、標的装置3及びプロジェクタ40との間でデータの送受信を行うためのインタフェースである。記憶部45は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disc Drive)、フラッシュメモリ等の不揮発メモリなどで構成される。制御部46で実行するプログラムの他、標的装置3、プロジェクタ40の制御や、標的装置3への着弾の分析等のために必要なデータを記憶している。ここでは、着弾の採点に使用する複数の得点テーブル451、口径テーブル452、及び標的損耗テーブル453を示している。口径テーブル452には、訓練で使用する火器の口径を事前に登録しておく。更に、記憶部45には、射手毎の過去の射撃訓練の結果である着弾位置や得点などを記憶蓄積しておく。   The transmission / reception unit 44 is an interface for transmitting / receiving data between the control unit 46, the target device 3, and the projector 40. The storage unit 45 includes a random access memory (RAM), a read only memory (ROM), a hard disk drive (HDD), and a nonvolatile memory such as a flash memory. In addition to the program executed by the control unit 46, data necessary for controlling the target device 3 and the projector 40, analyzing landing on the target device 3, and the like are stored. Here, a plurality of score tables 451, a caliber table 452, and a target wear table 453 used for scoring a landing are shown. In the caliber table 452, the caliber of the firearm used in the training is registered in advance. Further, the storage unit 45 stores a landing position, a score, and the like as a result of the past shooting training for each shooter.

制御部46はCPU(Central Processing Unit)等のプロセッサで構成され、記憶部45に格納されている各種の処理プログラムを実行する。ここでは、制御部46に実行される機能の一部として、標的を設定し、標的装置3に投影する標的画像を生成する目標設定部461、標的装置3から受信する検出信号に基づき着弾位置を算出し、着弾位置の画像データを作成する着弾位置算出部462、算出した着弾位置に基づき、得点を計算する採点処理部463とを示している。これらは対応する処理プログラムを実行することで実現される。記憶部45に格納される得点テーブル451は、標的装置3のラバータイプのセンサ39に投影される標的画像に対応し、標的画像上の着弾点に応じた得点を記録している。得点テーブル451は、標的装置3に投影される標的画像の種類分作成しておき、採点処理部463は、着弾位置算出部463が算出した着弾位置に基づき、対応する得点テーブルを使って得点を計算する。   The control unit 46 is configured by a processor such as a CPU (Central Processing Unit), and executes various processing programs stored in the storage unit 45. Here, as a part of the function executed by the control unit 46, a target setting unit 461 that sets a target and generates a target image to be projected on the target device 3, and determines a landing position based on a detection signal received from the target device 3. A landing position calculation unit 462 that calculates and creates image data of a landing position is shown, and a scoring processing unit 463 that calculates a score based on the calculated landing position is shown. These are realized by executing the corresponding processing program. The score table 451 stored in the storage unit 45 corresponds to a target image projected on the rubber-type sensor 39 of the target device 3 and records a score corresponding to an impact point on the target image. The score table 451 is created for each type of target image projected on the target device 3, and the scoring processing unit 463 uses the corresponding score table based on the landing position calculated by the landing position calculation unit 463 to calculate the score. calculate.

図1に示した従来構成にあっては、訓練時に標的に着弾があった際には、着弾位置を端末7のモニタに表示していたが、本実施例では、プロジェクタ40により、投影標的の標的画像、並びに着弾位置と得点を、標的装置3のラバータイプのセンサ39の表面に投影する。すなわち、端末7の制御部46が、標的の画像データに加え、着弾位置と得点の画像データを送受信部44からプロジェクタ40に転送し、プロジェクタ40は、着弾位置と得点とを、標的画像に重ね合わせてラバータイプのセンサ39上に投影する。この際、制御部46の着弾位置算出部462は、ラバータイプのセンサ39に投影された標的上で、算出した着弾位置座標を中心とした、着弾位置を射手が認識可能な大きさの円に変換した画像データを作成し、プロジェクタ40がその変換された画像データを使ってラバータイプのセンサ39上に着弾位置を投影する。すなわち、制御部46の着弾位置算出部462は、算出した着弾位置に基づき、その画像データを生成する際に、射手が標的装置3で着弾位置を認識可能な大きさの画像データに変換する機能を備える。   In the conventional configuration shown in FIG. 1, the landing position is displayed on the monitor of the terminal 7 when the target lands during training, but in the present embodiment, the projector 40 The target image, the impact position and the score are projected on the surface of the rubber type sensor 39 of the target device 3. That is, the control unit 46 of the terminal 7 transfers the image data of the landing position and the score in addition to the image data of the target from the transmitting / receiving unit 44 to the projector 40, and the projector 40 superimposes the landing position and the score on the target image. At the same time, it is projected on a rubber type sensor 39. At this time, the landing position calculation unit 462 of the control unit 46 converts the landing position into a circle centered on the calculated landing position coordinates on the target projected on the rubber type sensor 39 and having a size recognizable by the shooter. The converted image data is created, and the projector 40 projects the impact position on the rubber-type sensor 39 using the converted image data. That is, the landing position calculation unit 462 of the control unit 46 converts the landing position into image data of a size that allows the shooter to recognize the landing position on the target device 3 when generating the image data based on the calculated landing position. Is provided.

図5に、この弾着を示す変換画像の投影標的上の表示例を、図6に着弾から投影標的上へ表示するまでの処理フロー(S1〜S6)を示す。図5の(a)は比較のための端末7のモニタへの表示例、同図の(b)は本実施例の標的を投影するラバータイプのセンサ39への変換画像の表示例を示している。同図の(b)の投影標的であるラバータイプのセンサ39側の着弾位置の表示では、着弾順の番号の表示や、最後の着弾点の表示色を変更、着弾位置に応じた得点により色を変更する等してもよい。又、同図の(c)に示すように、着弾点の変換画像とそれぞれの得点点数を表示したり、同図の(d)に示すように、着弾点の変換画像と合計点を表示したり、(e)のように着弾順序を表示してもよい。又、(b)、(c)、(d)を任意に組合せて表示してもよい。すなわち、制御部46は、算出した得点の画像データを生成する際に、複数の得点の合計点の画像データを生成して、表示することができる。なお、着弾点の変換画像の表示は(b)、(c)、(d)、(e)に示したような円形形状の表示でなくてもよく、矢印や△、十字等の記号を使用して表示してもよい。又、射撃終了時にはプレビュー機能を持ち、同図の(f)のように時間の経過と共に着弾順に着弾位置を表示させてもよく、その場合の合計得点を合わせて表示することもできる。プレビューについては、倍速での表示も可能とする。   FIG. 5 shows a display example of the converted image showing the landing on the projection target, and FIG. 6 shows a processing flow (S1 to S6) from the landing to the display on the projection target. FIG. 5A shows a display example on a monitor of the terminal 7 for comparison, and FIG. 5B shows a display example of a converted image to a rubber-type sensor 39 for projecting a target according to the present embodiment. I have. In the display of the landing position on the side of the rubber type sensor 39 which is the projection target in FIG. 3B, the number of the landing order is displayed, the display color of the last landing point is changed, and the color is determined by the score according to the landing position. May be changed. Also, as shown in (c) of the figure, the converted image of the landing point and the respective score points are displayed, and as shown in (d) of the figure, the converted image of the landing point and the total point are displayed. Alternatively, the landing order may be displayed as shown in FIG. Also, (b), (c), and (d) may be displayed in any combination. That is, when generating the image data of the calculated score, the control unit 46 can generate and display the image data of the total score of the plurality of scores. The display of the converted image of the impact point does not have to be a circular display as shown in (b), (c), (d), and (e), but uses symbols such as arrows, triangles, and crosses. May be displayed. At the end of shooting, a preview function is provided, and the landing positions may be displayed in the order of landing over time as shown in FIG. 7F, and the total score in that case may also be displayed. The preview can be displayed at double speed.

本実施例の射撃訓練システム構成により、射手は射手近傍の端末7のモニタを見て間接的に着弾点を確認するのではなく、実際の標的装置3のラバータイプのセンサ39の表面に投影された投影標的上で着弾点と得点やその合計点を直接的に知ることが出来、射撃の結果が実標的上で視認できる。そのため、射手の癖や射撃時の注意点について、標的を見ながら確認することができる。更に、訓練開始前に、記憶部45に記憶蓄積した射手の過去の射撃結果である着弾位置や得点や合計点をラバータイプのセンサ39上の投影標的に重畳して投影することで、過去の射撃結果を参照し、前回の射撃で得点が低い要因、癖を分析した上で射撃訓練を実施することが出来る。   With the configuration of the shooting training system of the present embodiment, the shooter does not check the impact point indirectly by looking at the monitor of the terminal 7 near the shooter, but is projected on the surface of the rubber type sensor 39 of the actual target device 3. The impact point, the score, and the total point can be directly known on the projected target, and the result of the shooting can be visually recognized on the actual target. Therefore, it is possible to check the habit of the shooter and the points to be noted when shooting while looking at the target. Further, before the start of the training, the impact position, the score, and the total point, which are the shooting results of the shooter in the past stored in the storage unit 45, are superimposed and projected on the projection target on the rubber-type sensor 39. By referring to the shooting results, it is possible to carry out shooting training after analyzing factors and habits of low scores in the previous shooting.

射撃結果の表示は射撃後でも行うことができるが、本実施例の構成によれば、射撃中に並行して着弾結果を表示させることができる。また、人型標的や的紙等の固定標的ではなくプロジェクタ40を使った投影標的を使用することにより、1回の射撃訓練の中で、射撃標的の形や位置などを逐次変更しての訓練が実施可能となる。   The display of the shooting result can be performed even after the shooting, but according to the configuration of the present embodiment, the landing result can be displayed in parallel during the shooting. In addition, by using a projection target using the projector 40 instead of a fixed target such as a humanoid target or a target sheet, in one shooting training, training in which the shape and position of the shooting target are sequentially changed is performed. Can be implemented.

図7に示すように、訓練開始からの経過時間20秒、21〜40秒、41〜60秒、61〜80秒各々で、制御部46の目標設定部461が、あらかじめ登録してある射撃標的の投影画像の映像フレームを順に投影していき、着弾ありなしを確認し(S1)、着弾あり時にはセンサ52より着弾点の座標を取得する(S2)。そして、訓練中の標的画像に着弾点を描画する。また、得点表示時は、射撃標的に対応する得点テーブルから着弾位置に応じた得点を取得し、着弾位置の近くに得点を描画表示する(S3)。すなわち、制御部46は、算出した得点の画像データを生成する際に、着弾位置の近くに得点を表示する画像データを生成することにより、射手がラバータイプのセンサ39の表面上の投影画像で得点を認識し易くする。   As shown in FIG. 7, at each of 20 seconds, 21 to 40 seconds, 41 to 60 seconds, and 61 to 80 seconds elapsed from the start of the training, the target setting unit 461 of the control unit 46 sets the shooting targets registered in advance. The image frames of the projected image are sequentially projected to confirm the presence or absence of impact (S1). When there is an impact, the coordinates of the impact point are acquired from the sensor 52 (S2). Then, a point of impact is drawn on the target image during training. At the time of displaying the score, a score corresponding to the impact position is acquired from the score table corresponding to the shooting target, and the score is drawn and displayed near the impact position (S3). In other words, when generating the image data of the calculated score, the control unit 46 generates the image data for displaying the score near the impact position, so that the shooter can obtain the projected image on the surface of the rubber type sensor 39. Make it easier to recognize scores.

図7に示すように、得点テーブルは、訓練開始からの各経過時間に表示される投影画像各々に対し、テーブルA〜Dとして記憶しておき、これらを順次取得する。すなわち、記憶部45は、複数の標的各々に対応する得点テーブルを記憶し、制御部46は、訓練開始からの経過時間に応じて、標的装置3に投影する標的を逐次変更し、採点処理部463は逐次変更される標的に対応する得点テーブルを使って得点を算出する。   As shown in FIG. 7, the score table stores tables A to D for each of the projection images displayed at each elapsed time from the start of the training, and sequentially acquires them. That is, the storage unit 45 stores a score table corresponding to each of the plurality of targets, and the control unit 46 sequentially changes targets to be projected on the target device 3 according to the elapsed time from the start of training, and the scoring processing unit. 463 calculates a score using a score table corresponding to the target that is changed sequentially.

また、標的を映像で隠顕動作させるときも同様に、現出時と隠滅時で対応する得点テーブルをそれぞれ持たせることが出来る。可動標的の使用時においては、図7に例示したような投影画像を使用、或いは同じ画像を使用し、その表示の中心点をラバータイプのセンサ39上で移動させて表示してもよい。その際は、得点テーブルの得点を投影位置の移動分ずらして利用するものとする。また、人や車両、船舶等の移動体を標的とした場合は、標的である移動体の移動に合わせて得点テーブルを持たせることも出来る。   Similarly, when the target is made to perform the concealing operation with the video, a score table corresponding to the appearance and the extinction can be respectively provided. When a movable target is used, a projection image as illustrated in FIG. 7 may be used, or the same image may be used, and the center point of the display may be moved on the rubber-type sensor 39 and displayed. In this case, it is assumed that the scores in the score table are used by being shifted by the movement of the projection position. When a moving object such as a person, a vehicle, and a ship is targeted, a score table can be provided in accordance with the movement of the moving object that is the target.

図8に投影画像と対応する得点テーブルの一例を示す。同図の左側に、図7の訓練開始から20秒迄に表示される投影画像47を、同図の右側に、対応する得点テーブル48を示した。例えば、表示する標的画像の1mm単位での得点テーブル48を生成する。投影画像47は、30mm×30mmであり、その中心を中心とする3つの同心円において異なった得点配分とされ、中心より5点、3点、1点とされている。また、そこから外れた着弾については0点とされる。対応する得点テーブル48は、検出エリア(30mm×30mm)を1mm四方の枠で区切り、X座標が0〜29、Y座標が0〜29のテーブルである。標的である投影画像47の形と得点から、得点テーブル48の各座標に対して該当する位置の得点が設定される。   FIG. 8 shows an example of the score table corresponding to the projection image. The left side of FIG. 7 shows a projected image 47 displayed from the start of training in FIG. 7 until 20 seconds, and the corresponding score table 48 is shown on the right side of FIG. For example, a score table 48 of the target image to be displayed in units of 1 mm is generated. The projected image 47 is 30 mm × 30 mm, and has different score distributions in three concentric circles centered on the center, and five points, three points, and one point from the center. In addition, a landing that deviates from that point is scored as zero. The corresponding score table 48 is a table in which the detection area (30 mm × 30 mm) is divided by a 1 mm square frame, and the X coordinate is 0 to 29 and the Y coordinate is 0 to 29. Based on the shape and score of the projection image 47 as a target, a score at a position corresponding to each coordinate of the score table 48 is set.

このとき、1mm四方のマスに標的の形を表す線(ここでは3つの同心円)が少しでもかぶっていれば、隣接する得点のうち、高い方の得点を設定するものとする。このため、標的の形を描く線(この例では同心円)の太さも得点テーブル48の値に影響する。標的の線の太さも考慮するため、着弾検出座標の1mmに線がかぶっていれば、高い方の点数として得点テーブル48を生成する。得点テーブル48は、標的である投影画像に表示される得点5点、3点、1点に応じて作成されるものであり、着弾点に応じた得点を記録するものである。   At this time, if a line representing the shape of the target (here, three concentric circles) slightly covers the 1 mm square, the higher score among the adjacent scores is set. For this reason, the thickness of the line (the concentric circle in this example) describing the shape of the target also affects the value of the score table 48. In order to consider the thickness of the target line, the score table 48 is generated as a higher score if the line is over 1 mm of the impact detection coordinates. The score table 48 is created in accordance with five points, three points, and one point displayed on the projection image as a target, and records the score corresponding to the landing point.

実施例2は、射撃結果である着弾位置や得点に応じて投影標的の画像自身を更新して投影する射撃訓練システムの実施例である。すなわち、本実施例の構成においては、実施例1で説明したようにプロジェクタ40を利用して投影画像、着弾位置、得点やその合計点を表示するだけでなく、制御部46が、着弾位置や得点や、合計点などの着弾条件に応じてプロジェクタ40が標的装置3に投影する標的の画像データを変更する。制御部46の目標設定部461が、着弾位置や得点や、着弾条件に応じた投影標的の画像に更新することで、訓練中に射手が視覚的に訓練状況を知ることができる。   Embodiment 2 Embodiment 2 is an embodiment of a shooting training system that updates and projects an image of a projection target itself according to a landing position and a score that are shooting results. That is, in the configuration of the present embodiment, as described in the first embodiment, in addition to displaying the projection image, the landing position, the score, and the total point thereof using the projector 40, the control unit 46 also controls the landing position, The image data of the target projected by the projector 40 on the target device 3 is changed according to the landing conditions such as the score and the total point. The target setting unit 461 of the control unit 46 updates the image of the projection target according to the landing position, the score, and the landing condition, so that the shooter can visually know the training status during the training.

例えば、図9に示すように、射手の得点の合計点0〜5点、6〜10点、11〜15点、16〜20点に対応して、投影画像の色を画像A、B、C、Dのように変更し、同時に画像A、B、C、Dに対応する得点テーブルを使って得点を算出する。すなわち、制御部46は、算出された得点に応じて、プロジェクタ40が標的装置3に投影するための画像データを変更する。好適には、制御部46は、算出された得点の合計点に応じて、標的装置3に投影する画像データの色を変更することにより、射手が自分の訓練結果の認識を容易に行えるようにできる。   For example, as shown in FIG. 9, the colors of the projected images are represented by the images A, B, and C corresponding to the total points 0 to 5, 6 to 10, 11 to 15, and 16 to 20 of the shooter's scores. , D, and at the same time, the scores are calculated using the score tables corresponding to the images A, B, C, and D. That is, the control unit 46 changes the image data for the projector 40 to project on the target device 3 according to the calculated score. Preferably, the control unit 46 changes the color of the image data to be projected on the target device 3 according to the total score calculated so that the shooter can easily recognize his or her own training result. it can.

また、図7の訓練開始から41秒〜60秒、61秒〜80秒の投影画像ように、標的とする投影画像が人物である場合には、着弾位置により標的損耗テーブル453の記憶データなどを利用して負傷した画像を表示し、標的画像が車両の場合は損耗状況を反映させた故障した画像とすることで、よりリアルな訓練が実施可能となる。更にまた、プロジェクタ40による投影画像により、弾の着弾による煙や爆発硬化を投影画像の着弾点に表示させても良い。   When the target projected image is a person, such as the projected images of 41 seconds to 60 seconds and 61 seconds to 80 seconds from the start of training in FIG. 7, the data stored in the target wear table 453 is changed according to the landing position. By displaying the injured image using the image and, when the target image is a vehicle, a failed image reflecting the state of wear, a more realistic training can be performed. Furthermore, smoke and explosion hardening caused by impact of a bullet may be displayed at the impact point of the projected image by the projected image of the projector 40.

以上説明した各種実施例の射撃訓練システムによれば、射手が射撃目標とする標的画像に着弾点や得点などの射撃結果を直接的に投影することにより、常に射撃目標を見ながら射撃を行うことができる。その結果、標的画像上に表示された着弾位置を確認しながら次弾の射撃が行えるため、連続して射撃する場合でも、都度視線は標的に固定したまま目標修正が可能となる。更に、射手個人の過去の射撃結果を射撃目標に重ねて表示することで、射撃開始前に自分の着弾傾向を知ることができ、着弾傾向を念頭にしながら射撃訓練を行うことができる。また更に、投影標的を使用することにより、可動する標的映像を使用しての訓練も可能となり、投影標的の映像フレーム毎の得点テーブルを使用することで、投影標的の映像に応じた採点ができる。更にまた、射手用の表示器を使用しなくても射撃訓練を行うことが出来る。   According to the shooting training systems of the various embodiments described above, the shooter directly projects the shooting result such as the impact point and the score on the target image as the shooting target, so that the shooting is performed while always looking at the shooting target. Can be. As a result, the next shot can be fired while checking the impact position displayed on the target image. Therefore, even when shooting continuously, it is possible to correct the target while keeping the line of sight fixed to the target each time. Furthermore, by displaying the past shooting result of the shooter individually on the shooting target, it is possible to know his own landing tendency before the start of shooting, and it is possible to perform shooting training with the landing tendency in mind. Furthermore, by using a projection target, training using a movable target image is also possible, and by using a score table for each video frame of the projection target, scoring according to the image of the projection target can be performed. . Still further, shooting training can be performed without using an indicator for a shooter.

なお、本発明は上述した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明のより良い理解のために詳細に説明したのであり、必ずしも説明の全ての構成を備えるものに限定されるものではない。例えば、標的装置のラバータイプのセンサは、ラバータイプに限定されず、標的や射撃結果の投影が可能であり、着弾位置が検出可能なセンサであれば、他の構成のものであっても良い。   Note that the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail for better understanding of the present invention, and are not necessarily limited to those having all the configurations described. For example, the rubber type sensor of the target device is not limited to the rubber type, and may have another configuration as long as it is a sensor capable of projecting a target or a shooting result and capable of detecting a landing position. .

更に、上述した各構成、機能、制御部等は、それらの一部又は全部を実現するプログラムを作成する例を中心に説明したが、それらの一部又は全部を例えば集積回路で設計する等によりハードウェアで実現しても良いことは言うまでもない。すなわち、処理部の全部または一部の機能は、プログラムに代え、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などの集積回路などにより実現してもよい。   Furthermore, each of the above-described configurations, functions, control units, and the like has been described mainly with respect to an example of creating a program that realizes some or all of them. However, some or all of them are designed by, for example, an integrated circuit. Needless to say, it may be realized by hardware. That is, all or some of the functions of the processing unit may be realized by an integrated circuit such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array) instead of a program.

1 射手
2 火器
3 標的装置
4 標的
5 検出器
6 制御装置
7 端末
21、35 検出エリア
31 木枠
32、33 ラバー
34 センサ
39 ラバータイプのセンサ
40 プロジェクタ
41 表示部
42 電源部
43 入力部
44 送受信部
45 記憶部
46 制御部
46−1 印字部
47 投影画像
48 得点テーブル
DESCRIPTION OF SYMBOLS 1 Shooter 2 Firearm 3 Target device 4 Target 5 Detector 6 Control device 7 Terminal 21, 35 Detection area 31 Wooden frame 32, 33 Rubber 34 Sensor 39 Rubber type sensor 40 Projector 41 Display unit 42 Power supply unit 43 Input unit 44 Transmission / reception unit 45 storage unit 46 control unit 46-1 printing unit 47 projected image 48 score table

Claims (7)

射撃訓練システムであって、
標的への弾着を検知する検出器を含む標的装置と、
前記標的装置に前記標的を投影するプロジェクタと、
前記標的装置と前記プロジェクタと通信可能な端末と、を備え、
前記端末は、前記標的に対応する得点テーブルを記憶する記憶部と、前記プロジェクタに前記標的を投影するための画像データを生成して送信し、前記検出器の検出信号を受信し、着弾位置と得点を算出する制御部とを有し、
前記制御部は、
算出した前記着弾位置と前記得点に基づき、前記標的装置に投影するための前記着弾位置と前記得点の画像データを生成して前記プロジェクタに送信し、
前記プロジェクタは前記標的に重畳して前記着弾位置と前記得点を投影する、
ことを特徴とする射撃訓練システム。
A shooting training system,
A target device including a detector for detecting impact on a target,
A projector that projects the target onto the target device;
Comprising a terminal capable of communicating with the target device and the projector,
The terminal, a storage unit that stores a score table corresponding to the target, generates and transmits image data for projecting the target to the projector, receives the detection signal of the detector, and the landing position A control unit for calculating a score,
The control unit includes:
Based on the calculated landing position and the score, generate the image data of the landing position and the score for projecting on the target device and transmit the image data to the projector,
The projector projects the landing position and the score by superimposing the target on the target,
A shooting training system, characterized in that:
請求項1に記載の射撃訓練システムであって、
前記制御部は、
算出した前記着弾位置の前記画像データを生成する際に、射手が前記標的装置で前記着弾位置を認識可能な大きさの画像データとする、
ことを特徴とする射撃訓練システム。
The shooting training system according to claim 1,
The control unit includes:
When generating the image data of the calculated landing position, the shooter uses image data of a size that allows the target device to recognize the landing position,
A shooting training system, characterized in that:
請求項1に記載の射撃訓練システムであって、
前記制御部は、
前記得点の前記画像データを生成する際に、前記着弾位置の近くに前記得点を表示する画像データを生成する、
ことを特徴とする射撃訓練システム。
The shooting training system according to claim 1,
The control unit includes:
When generating the image data of the score, generate image data to display the score near the impact position,
A shooting training system, characterized in that:
請求項1に記載の射撃訓練システムであって、
前記制御部は、
前記得点の前記画像データを生成する際に、複数の前記得点の合計点の画像データを生成する、
ことを特徴とする射撃訓練システム。
The shooting training system according to claim 1,
The control unit includes:
When generating the image data of the score, to generate image data of a total point of the plurality of scores,
A shooting training system, characterized in that:
請求項1に記載の射撃訓練システムであって、
前記記憶部は、
複数の前記標的各々に対応する複数の得点テーブルを記憶し、
前記制御部は、
訓練開始からの経過時間に応じて、前記標的装置に投影する前記標的を逐次変更し、逐次変更される前記標的に対応する得点テーブルを使って前記得点を算出する、
ことを特徴とする射撃訓練システム。
The shooting training system according to claim 1,
The storage unit,
Storing a plurality of score tables corresponding to each of the plurality of targets,
The control unit includes:
According to the elapsed time from the start of training, the target to be projected on the target device is sequentially changed, the score is calculated using a score table corresponding to the sequentially changed target,
A shooting training system, characterized in that:
請求項1に記載の射撃訓練システムであって、
前記制御部は、
算出された前記得点に応じて、前記プロジェクタが前記標的装置に投影する前記画像データを変更する、
ことを特徴とする射撃訓練システム。
The shooting training system according to claim 1,
The control unit includes:
According to the calculated score, the projector changes the image data projected on the target device,
A shooting training system, characterized in that:
請求項6に記載の射撃訓練システムであって、
前記制御部は、
前記得点の合計点に応じて、前記標的装置に投影する前記画像データの色を変更する、
ことを特徴とする射撃訓練システム。
The shooting training system according to claim 6,
The control unit includes:
Changing the color of the image data to be projected on the target device according to the total point of the scores,
A shooting training system, characterized in that:
JP2018169454A 2018-09-11 2018-09-11 shooting training system Active JP7160607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018169454A JP7160607B2 (en) 2018-09-11 2018-09-11 shooting training system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018169454A JP7160607B2 (en) 2018-09-11 2018-09-11 shooting training system

Publications (3)

Publication Number Publication Date
JP2020041743A true JP2020041743A (en) 2020-03-19
JP2020041743A5 JP2020041743A5 (en) 2021-09-02
JP7160607B2 JP7160607B2 (en) 2022-10-25

Family

ID=69799236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018169454A Active JP7160607B2 (en) 2018-09-11 2018-09-11 shooting training system

Country Status (1)

Country Link
JP (1) JP7160607B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113819795A (en) * 2020-06-20 2021-12-21 深圳安锐科技有限公司 Ball firing auxiliary training system based on machine vision and gunshot positioning

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004108632A (en) * 2002-09-17 2004-04-08 Babcock Hitachi Kk Shooting training device and hit determining method in the shooting training device
US20070190495A1 (en) * 2005-12-22 2007-08-16 Kendir O T Sensing device for firearm laser training system and method of simulating firearm operation with various training scenarios
JP2010071594A (en) * 2008-09-19 2010-04-02 Hitachi Kokusai Electric Inc Shooting training system
JP2014126257A (en) * 2012-12-26 2014-07-07 Hitachi Kokusai Electric Inc Shooting practice system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004108632A (en) * 2002-09-17 2004-04-08 Babcock Hitachi Kk Shooting training device and hit determining method in the shooting training device
US20070190495A1 (en) * 2005-12-22 2007-08-16 Kendir O T Sensing device for firearm laser training system and method of simulating firearm operation with various training scenarios
JP2010071594A (en) * 2008-09-19 2010-04-02 Hitachi Kokusai Electric Inc Shooting training system
JP2014126257A (en) * 2012-12-26 2014-07-07 Hitachi Kokusai Electric Inc Shooting practice system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113819795A (en) * 2020-06-20 2021-12-21 深圳安锐科技有限公司 Ball firing auxiliary training system based on machine vision and gunshot positioning

Also Published As

Publication number Publication date
JP7160607B2 (en) 2022-10-25

Similar Documents

Publication Publication Date Title
US11506468B2 (en) Universal firearm marksmanship system
US10234247B2 (en) Projectile weapon training apparatus using visual display to determine targeting, accuracy, and/or reaction timing
US5823779A (en) Electronically controlled weapons range with return fire
US20070190495A1 (en) Sensing device for firearm laser training system and method of simulating firearm operation with various training scenarios
KR101938257B1 (en) Image shooting simulation system
JP2019060519A (en) Shooting evaluation system
US11002512B2 (en) Firearm marksmanship system with chamber insert
US20160180532A1 (en) System for identifying a position of impact of a weapon shot on a target
KR101996499B1 (en) System for live fire exercise
JP2015187537A5 (en)
US10634454B2 (en) Dynamic sight
JP2020041743A (en) Firing training system
JP2017009188A (en) Shooting training system
RU88790U1 (en) MULTIMEDIA INTERACTIVE RUNNING DASH
KR101263767B1 (en) A real shoot training system using a moving image
JP3854385B2 (en) Shooting training equipment
KR20140112117A (en) Wireless indoor shooting simulation system
KR20180043132A (en) The shooting game system
JP2004324974A (en) Image shooting training device
JP2018031508A (en) Gun shot training system
JP2021032425A (en) Shooting training system
RU99145U1 (en) ARROW TRAINING COMPLEX WITH RESPONSE FIRE SYSTEM
JP2022045943A (en) Shooting training system
JP2019158287A (en) Landing detecting and indicating system for muzzle-loading shells
US20210372729A1 (en) Apparatus and Method for Measuring and Training Movement for Combat Firearms Performance

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210720

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210720

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220915

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221011

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221013

R150 Certificate of patent or registration of utility model

Ref document number: 7160607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150