JP2017509858A - Optical device utilizing ballistic zoom and method for aiming a target - Google Patents

Optical device utilizing ballistic zoom and method for aiming a target Download PDF

Info

Publication number
JP2017509858A
JP2017509858A JP2016568464A JP2016568464A JP2017509858A JP 2017509858 A JP2017509858 A JP 2017509858A JP 2016568464 A JP2016568464 A JP 2016568464A JP 2016568464 A JP2016568464 A JP 2016568464A JP 2017509858 A JP2017509858 A JP 2017509858A
Authority
JP
Japan
Prior art keywords
target
zoom
image
input
receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016568464A
Other languages
Japanese (ja)
Other versions
JP2017509858A5 (en
JP6643254B2 (en
Inventor
ファーカ ジョージ
ファーカ ジョージ
エー.ベネッツ スティーブン
エー.ベネッツ スティーブン
エー.ミレット ジェイムズ
エー.ミレット ジェイムズ
Original Assignee
バリス カンパニー,インコーポレイティド
バリス カンパニー,インコーポレイティド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US14/175,803 external-priority patent/US9250036B2/en
Application filed by バリス カンパニー,インコーポレイティド, バリス カンパニー,インコーポレイティド filed Critical バリス カンパニー,インコーポレイティド
Publication of JP2017509858A publication Critical patent/JP2017509858A/en
Publication of JP2017509858A5 publication Critical patent/JP2017509858A5/ja
Application granted granted Critical
Publication of JP6643254B2 publication Critical patent/JP6643254B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G1/00Sighting devices
    • F41G1/38Telescopic sights specially adapted for smallarms or ordnance; Supports or mountings therefor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/06Aiming or laying means with rangefinder
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G1/00Sighting devices
    • F41G1/46Sighting devices for particular applications
    • F41G1/473Sighting devices for particular applications for lead-indicating or range-finding, e.g. for use with rifles or shotguns
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/08Aiming or laying means with means for compensating for speed, direction, temperature, pressure, or humidity of the atmosphere
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Telescopes (AREA)

Abstract

標的に照準を定める方法は、光学デバイスの初期条件を受信するステップを含む。初期条件は、測距要素のサイズ及び測距要素のサイズに関連付けられた射程を含む。この方法はさらに、弾道情報を受信するステップと、画像センサから画像を受信するステップと、を含む。画像の少なくとも一部分が表示部上に表示される。測距要素は、画像の表示された部分上に重ね合わされる。光学デバイスからの第1の距離に対応する第1のズーム値を設定するために、第1のズーム入力が受信される。この方法はさらに、第1の距離及び弾道情報に基づいて第1の発射体位置を決定するステップも含む。【選択図】図11The method of aiming at a target includes receiving an initial condition of the optical device. The initial conditions include a ranging element size and a range associated with the ranging element size. The method further includes receiving ballistic information and receiving an image from the image sensor. At least a part of the image is displayed on the display unit. The ranging element is superimposed on the displayed part of the image. A first zoom input is received to set a first zoom value corresponding to a first distance from the optical device. The method further includes determining a first projectile position based on the first distance and ballistic information. [Selection] Figure 11

Description

関連出願の相互参照
本出願は、PCT国際特許出願として2015年2月4日に提出されていて、その開示全体が参照により本明細書に援用される、2012年3月5日提出の米国非仮出願第13/412,506号明細書の一部継続出願である2013年3月5日提出の米国特許出願第13/786,383号の一部継続出願である2014年2月7日提出の米国特許出願第14/175,803号に対する優先権を主張する。
CROSS REFERENCE TO RELATED APPLICATIONS This application is filed on February 4, 2015 as a PCT international patent application, the entire disclosure of which is hereby incorporated by reference. Filed on Feb. 7, 2014, a continuation-in-part of US patent application No. 13 / 786,383, filed March 5, 2013, a continuation-in-part of provisional application 13 / 412,506 Claims priority to US patent application Ser. No. 14 / 175,803.

銃器により長距離射撃を行う場合、射手は最初に、標的までの距離(「射程」)と、弾丸の飛行特性及び重力に起因する弾丸落下(「落下」)と、発砲時に吹いている風の横風成分(「偏流」)と、に基づいて発砲ソリューションを決定しなければならない。   When shooting long-range fire with a firearm, the shooter first begins with the distance to the target (the “range”), the bullet flight characteristics and gravity-induced bullet fall (“fall”), and the wind blowing at the time of firing. The firing solution must be determined based on the crosswind component ("drift").

典型的には、射手は、自らの武器の側面にテープでチャートを貼りつけるか、又は種々の「射程」及び風速における「落下」及び「偏流」という各々の補正についての値を記憶している。次に射手は、これら成分値の各々に対して補正を行わなければならない。この目的のために、一般的には2つの方法が使用される。第1の方法は、レチクルが射手を補正済み標的位置に誘導するような形で、光学照準デバイス上でタレットを手動で調整することである。第2の代替案は、当業者が一般に「ホールドオーバー(holdover)」と呼ぶものを使用することである。この目的のための目盛付きレチクルを有する数多くのタイプの光学照準デバイスが存在する。射手は、目盛に基づいてレチクル上の異なる位置に標的を置く。   Typically, archers tape charts on the sides of their weapons, or store values for each correction of “fall” and “drift” at various “ranges” and wind speeds. . The shooter must then correct for each of these component values. Two methods are generally used for this purpose. The first is to manually adjust the turret on the optical aiming device such that the reticle guides the shooter to the corrected target position. A second alternative is to use what is commonly referred to by those skilled in the art as "holdover". There are many types of optical aiming devices with calibrated reticles for this purpose. The shooter places targets at different positions on the reticle based on the scale.

先行特許の中で引用された「自動発砲ソリューション」の問題に対する多くの「光学的ソリューション」が存在する。しかしながら、自動的に移動する光学的構成要素のコストが高いこと並びに武器からの反復的衝撃を受けながら精度を維持するのが困難であることを理由として、市場に生き残るものは殆どない。   There are many “optical solutions” to the “automatic firing solution” problem cited in the prior patents. However, few exist on the market because of the high cost of automatically moving optical components and the difficulty of maintaining accuracy while receiving repeated impacts from weapons.

本開示に従うターゲットデバイス又は装置の第1の実施形態は、画像センサ及び照準デバイスが照準される物体のビデオ画像を取得するためのレンズと;画像プロセッサと;照準デバイスとの関係において重力を検知するための傾斜センサと;画像センサにより捕捉され画像プロセッサにより処理されたビデオ画像を表示するための表示構成要素と;表示構成要素をユーザが観察できるようにする接眼レンズと;大気条件を検知する圧力及び温度センサと;構成要素を収納するに適した手段とを含む。   A first embodiment of a target device or apparatus according to the present disclosure senses gravity in relation to an image sensor and a lens for acquiring a video image of an object to which the aiming device is aimed; an image processor; A tilt sensor for; a display component for displaying a video image captured by the image sensor and processed by an image processor; an eyepiece that allows a user to observe the display component; and a pressure for detecting atmospheric conditions And a temperature sensor; and means suitable for housing the component.

装置は、長い射程で武器を正確に発砲するというタスクに対して完全に「ソリッドステートデジタル」で且つ「ハンズフリー」のソリューションを提供する。射手は、武器を左右に傾斜させるだけで、武器から手を外すことなく発砲の時点で長距離射撃を行うのに必要な情報の全てを入力できる。   The device provides a completely “solid-state digital” and “hands-free” solution for the task of accurately firing weapons at long ranges. The shooter can input all the information necessary for long-range shooting at the time of firing without removing the hand from the weapon, simply by tilting the weapon left and right.

既定の閾値角度が傾斜機能を規定する。説明を目的として、この角度が10度であるとしよう。武器の傾斜角が、左又は右のいずれかの方向において10度未満である場合、横風偏流調整のための計算が行われる。調整される横風偏流量の1つの表現が、射手に提示されるビデオ画像上に、照準点を規定するのに適した照準線と共に、重ねられる。傾斜角がいずれかの方向において10度超である場合には、ビデオ画像上に重ねられた射程数が、10度より大きい傾斜角の方向及び大きさに応じて漸進的に増大又は減少される。射手に提示されるビデオ画像の視野、すなわち(拡大倍率)は、視野が前方レンズ及び画像センサにより画定される視野内にある場合、「射程」数との関係において、同時に増大又は減少される。   A predetermined threshold angle defines the tilt function. For illustration purposes, let's assume that this angle is 10 degrees. If the weapon tilt angle is less than 10 degrees in either the left or right direction, a calculation for crosswind drift adjustment is performed. One representation of the adjusted crosswind drift is superimposed on the video image presented to the shooter, with a line of sight suitable for defining the aiming point. If the tilt angle is greater than 10 degrees in either direction, the number of ranges overlaid on the video image is gradually increased or decreased depending on the direction and magnitude of the tilt angle greater than 10 degrees. . The field of view of the video image presented to the shooter, (magnification), is simultaneously increased or decreased in relation to the “range” number when the field of view is within the field of view defined by the front lens and the image sensor.

「射程」発見円もまた、ビデオ画像上に重ねられる。この円は、既定の標的サイズを表わす。円は、視野がその最小よりも大きい場合、表示構成要素上で固定サイズにとどまる。視野が最小である場合には、「射程」発見円のサイズは、「射程」設定値との関係においてより小さいサイズに漸進的に調整される。標的までの距離を発見するために、射手は、標的が射程発見円に適合するまで武器を左又は右に10度超傾斜させることによって射程設定値を調整する。   A “range” discovery circle is also superimposed on the video image. This circle represents the default target size. A circle remains a fixed size on the display component when the field of view is larger than its minimum. If the field of view is minimal, the size of the “range” discovery circle is progressively adjusted to a smaller size in relation to the “range” setting. To find the distance to the target, the shooter adjusts the range setting by tilting the weapon more than 10 degrees left or right until the target fits the range finding circle.

前述の通り、装置は、可視的な外部制御を伴わない耐久性のある照準デバイスを提供する。長距離射撃に必要な全ての弾道計算は、内部センサとの関係において自動的に実行され、設定は武器を傾斜させることにより実行され、これにより、照準デバイスの使用は単純で容易なものとなる。   As described above, the apparatus provides a durable aiming device without visible external control. All ballistic calculations required for long-range shooting are performed automatically in relation to internal sensors, and settings are performed by tilting the weapon, which makes the use of the aiming device simple and easy .

本開示に従う別の実施形態は、中央軸と第1の端部及び第2の端部とを有する管状ハウジングと、ハウジングの第1の端部により担持される互換性のあるデジタルカメラモジュールと、を含む、デジタルターゲットスコープ装置である。カメラモジュールは、カメラモジュール内部のセンサ回路基板上でレンズ軸に対して垂直に組付けられた画像センサから軸方向に離隔された少なくとも1つの集束レンズを含む。レンズにより投影された画像は、センサ上の既定の場所で焦点を結ぶ。長手方向軸を有する制御/表示モジュールが、ハウジングの第2の端部に取外し可能に締結される。制御/表示モジュールは、カメラモジュールのセンサ回路基板上でコネクタを通してカメラモジュールに電気的に接続される。制御/表示モジュールがハウジングの第2の端部内に設置された時点で、接続が行われる。制御/表示モジュールは、回路基板及びその上に組付けられた表示構成要素を含む制御部分を有し、表示構成要素と整列した接眼レンズアセンブリを収納する表示部分を含む。   Another embodiment according to the present disclosure includes a tubular housing having a central axis and a first end and a second end, a compatible digital camera module carried by the first end of the housing, Is a digital target scope device. The camera module includes at least one focusing lens spaced axially from an image sensor assembled perpendicular to the lens axis on a sensor circuit board inside the camera module. The image projected by the lens is focused at a predetermined location on the sensor. A control / display module having a longitudinal axis is removably fastened to the second end of the housing. The control / display module is electrically connected to the camera module through a connector on the sensor circuit board of the camera module. The connection is made when the control / display module is installed in the second end of the housing. The control / display module has a control portion that includes a circuit board and display components assembled thereon, and includes a display portion that houses an eyepiece assembly aligned with the display components.

制御/表示モジュールの制御部分は、好ましくは、電源、傾斜センサ、外部コンピュータコネクタ、画像プロセッサ、メモリ及びスイッチ対を含み、全ては制御/表示モジュール内で軸方向に配向されたプリント回路基板上のプリント回路に接続されている。カメラモジュール及び制御/表示モジュールは、管状ハウジング内で同軸的に整列されている。制御/表示モジュールは、制御/表示モジュールがカメラモジュールから離隔されその長手方向軸を中心にして回転させられた場合に、設定可能な予めプログラミングされたパラメータの間からユーザが選択できるように構成されている。予めプログラミングされたパラメータのうちの1つ以上の選択は、スイッチ対の1つ以上を起動させることによって行われる。   The control portion of the control / display module preferably includes a power supply, a tilt sensor, an external computer connector, an image processor, a memory and a switch pair, all on an axially oriented printed circuit board within the control / display module. Connected to the printed circuit. The camera module and the control / display module are coaxially aligned within the tubular housing. The control / display module is configured to allow the user to select between configurable pre-programmed parameters when the control / display module is spaced from the camera module and rotated about its longitudinal axis. ing. Selection of one or more of the preprogrammed parameters is made by activating one or more of the switch pairs.

制御/表示モジュール内の傾斜センサは、ハウジング軸を中心とした傾斜角を測定し、測定された傾斜角に応答して調整された標的画像を画像プロセッサに生成させるように構成されている。画像プロセッサは、閾値角度よりも大きい測定傾斜角を傾斜センサから受信した時点で、表示画像の視野に変化を発生させるように構成されている。ゼロより大きく閾値角度より小さい傾斜角は、表示画像の視野内の偏流調整インジケータに位置を変更させる。   A tilt sensor within the control / display module is configured to measure a tilt angle about the housing axis and cause the image processor to generate an adjusted target image in response to the measured tilt angle. The image processor is configured to cause a change in the field of view of the displayed image upon receiving from the tilt sensor a measured tilt angle that is greater than the threshold angle. An inclination angle greater than zero and less than the threshold angle causes the drift adjustment indicator in the field of view of the display image to change position.

制御/表示モジュールは、制御/表示モジュールがカメラモジュールから離隔され水平に保持されその長手方向軸を中心として回転させられた場合に、設定可能な予めプログラミングされたパラメータの間でユーザが選択できるように構成されている。   The control / display module allows the user to select between configurable pre-programmed parameters when the control / display module is spaced apart from the camera module and held horizontally and rotated about its longitudinal axis. It is configured.

一態様において、本技術は、標的に照準を定める方法において:光学デバイスの初期条件を受信するステップであって、初期条件が、測距要素のサイズ及び測距要素のサイズに関連付けられた射程を含むステップと;弾道情報を受信するステップと;画像センサから画像を受信するステップと;表示部上に画像の少なくとも一部分を表示するステップと;画像の表示された部分上に測距要素を重ね合わせるステップと;第1のズーム値を設定するために第1のズーム入力を受信するステップであって、第1のズーム値が光学デバイスからの第1の距離に対応するステップと;第1の距離及び弾道情報に基づいて第1の発射体位置を決定するステップと、を含む、方法に関する。一実施形態において、方法がさらに、少なくとも部分的に第1の発射体位置及び第1のズーム値に基づいて第1の関心領域を表示するステップを含む。別の実施形態において、方法がさらに、第1の発射体位置に対応する第1のシンボルを表示するステップを含む。さらに別の実施形態において、方法がさらに:最大ズーム値を設定するために最大ズーム入力を受信するステップであって、最大ズーム値が関心画像センサ領域と関心表示領域とによって規定されるステップと;最大ズーム値に関連付けられた最大拡大画像を表示するステップと;第2のズーム値を設定するために第2のズーム入力を受信するステップであって、第2のズーム値が光学デバイスからの第2の距離に対応するステップと;調整された測距要素のサイズを計算するステップと;表示された最大拡大画像上に調整された測距要素を重ねるステップと;第2の距離及び弾道情報に基づいて第2の発射体位置を決定するステップと;少なくとも部分的に第2の発射体位置及び第2のズーム値に基づいて、第2の関心領域を表示するステップと;を含む。さらに別の実施形態において、方法がさらに、第2の発射体位置に対応する第2のシンボルを表示するステップを含む。   In one aspect, the present technology provides a method for aiming a target: receiving an initial condition of an optical device, wherein the initial condition includes a ranging element size and a range associated with the ranging element size. Including: receiving ballistic information; receiving an image from an image sensor; displaying at least a portion of the image on a display; and overlaying a ranging element on the displayed portion of the image Receiving a first zoom input to set a first zoom value, wherein the first zoom value corresponds to a first distance from the optical device; And determining a first projectile position based on ballistic information. In one embodiment, the method further includes displaying a first region of interest based at least in part on the first projectile position and the first zoom value. In another embodiment, the method further includes displaying a first symbol corresponding to the first projectile position. In yet another embodiment, the method further includes: receiving a maximum zoom input to set a maximum zoom value, wherein the maximum zoom value is defined by the image sensor region of interest and the display region of interest; Displaying a maximum magnified image associated with the maximum zoom value; receiving a second zoom input to set a second zoom value, wherein the second zoom value is from the optical device. A step corresponding to a distance of two; calculating a size of the adjusted ranging element; overlaying the adjusted ranging element on the displayed maximum magnified image; and a second distance and ballistic information Determining a second projectile position based on; and displaying a second region of interest based at least in part on the second projectile position and the second zoom value. Including; flops and. In yet another embodiment, the method further includes displaying a second symbol corresponding to the second projectile position.

前述の態様の別の実施形態において、第1のシンボルは、標的における衝撃点及びガイドシンボルのうちの少なくとも一方を含む。一実施形態において、第1の発射体位置の決定作業は少なくとも部分的に横風入力に基づいている。別の実施形態において、第1の発射体位置の決定作業は、少なくとも部分的に発射体情報入力、周囲温度入力、勾配入力、傾斜入力、銃口出口速度入力、及び気圧入力に基づいている。さらに別の実施形態において、画像センサはカメラを有する。   In another embodiment of the foregoing aspect, the first symbol includes at least one of an impact point at the target and a guide symbol. In one embodiment, the determination of the first projectile position is based at least in part on crosswind input. In another embodiment, the first projectile position determination task is based at least in part on projectile information input, ambient temperature input, gradient input, tilt input, muzzle outlet velocity input, and barometric pressure input. In yet another embodiment, the image sensor has a camera.

別の態様では、本技術は、標的に照準を定める方法において:弾道情報を受信するステップと;画像センサから画像を受信するステップと;ズーム値を受信するステップと;少なくとも部分的に弾道情報に基づいて発射体軌道を計算するステップと;ズーム値に基づいて関心領域を表示するステップであって、関心領域が少なくとも部分的に発射体軌道に対応するステップと、を含む、方法に関する。一実施形態において、方法がさらに、標的までの射程を決定するステップを含む。別の実施形態において、決定作業は、表示部上に画像の少なくとも一部分を表示するステップと;画像の一部分上に測距要素を重ねるステップと、を含む。さらに別の実施形態において、方法がさらに、ズーム入力を受信するステップであって、ズーム入力が更新済みズーム値を有するステップと;更新済みズーム値に基づいて更新済みの関心領域を表示するステップと、を含む。   In another aspect, the present technology provides a method for aiming a target: receiving ballistic information; receiving an image from an image sensor; receiving a zoom value; and at least partially in ballistic information. Calculating a projectile trajectory based on; displaying a region of interest based on a zoom value, wherein the region of interest at least partially corresponds to a projectile trajectory. In one embodiment, the method further includes determining a range to the target. In another embodiment, the determining operation includes displaying at least a portion of the image on the display; and overlaying the ranging element on the portion of the image. In yet another embodiment, the method further comprises receiving a zoom input, the zoom input having an updated zoom value; displaying an updated region of interest based on the updated zoom value; ,including.

さらに別の態様では、本技術は、標的に照準を定める方法において:画像センサから画像を受信するステップと;受信した画像の少なくとも一部分を表示するステップであって、表示された部分が表示された視野を有する、ステップと;表示された視野との関係において固定サイズを伴う測距要素を表示するステップと;標的サイズ入力を受信するステップと;ズーム値を設定するためにズーム入力を受信するステップと;少なくとも部分的に標的サイズ入力及びズーム値に基づいて標的までの射程を計算するステップと、を含む、方法に関する。一実施形態において、標的サイズ入力は、デフォルト標的サイズ入力を有する。別の実施形態において、標的サイズ入力を受信するステップは、記憶デバイスから標的サイズ入力を受信するステップを含む。さらに別の実施形態において、標的サイズ入力は、複数の既定の標的サイズから選択される。   In yet another aspect, the technology provides a method for aiming a target: receiving an image from an image sensor; displaying at least a portion of the received image, wherein the displayed portion is displayed. Having a field of view; displaying a ranging element with a fixed size in relation to the displayed field of view; receiving a target size input; receiving a zoom input to set a zoom value And calculating a range to the target based at least in part on the target size input and the zoom value. In one embodiment, the target size input has a default target size input. In another embodiment, receiving the target size input includes receiving the target size input from the storage device. In yet another embodiment, the target size input is selected from a plurality of predefined target sizes.

さらに別の実施形態において、本技術は、標的に照準を定めるための装置において、ハウジングと;表示部と;画像センサと;装置をデフォルトズームモード及び弾道ズームモードで選択的に作動させるように構成されたコントローラと、を含む、装置であって、デフォルトズームモードにある場合、ズームレベルの増大が、装置から標的までの光学経路に沿った視野を変化させ、弾道ズームモードにある場合、ズームレベルの増大が、装置からの弾道経路に沿った視野を変化させる、装置に関する。一実施形態において、デフォルトズームモードでは、発射体の衝撃点が表示部上に表示され、表示部上のシンボルの位置がズームレベルに基づいて変化する。   In yet another embodiment, the technology is configured to selectively operate a device in a device for aiming a target; a housing; a display; an image sensor; a default zoom mode and a ballistic zoom mode. An increase in zoom level changes the field of view along the optical path from the device to the target and when in ballistic zoom mode, the zoom level Of the device changes the field of view along the ballistic path from the device. In one embodiment, in the default zoom mode, the impact point of the projectile is displayed on the display and the position of the symbol on the display changes based on the zoom level.

本技術の他の特徴及び利点、並びに本技術自体は、添付図面と合わせて読んだ場合に種々の実施形態の次の説明からより完全に理解できる。   Other features and advantages of the present technology, as well as the technology itself, can be more fully understood from the following description of various embodiments when read in conjunction with the accompanying drawings.

本開示によるデジタルターゲットスコープの一実施形態の部分断面概略図である。2 is a partial cross-sectional schematic view of one embodiment of a digital target scope according to the present disclosure. FIG. 図1のデジタルターゲットスコープの標的画像オーバーレイの一実施形態を例示する。2 illustrates one embodiment of a target image overlay of the digital target scope of FIG. 本開示によるデジタルターゲットスコープの別の実施形態の側面図である。FIG. 6 is a side view of another embodiment of a digital target scope according to the present disclosure. 図3のデジタルターゲットスコープの部分断面概略図である。FIG. 4 is a partial sectional schematic view of the digital target scope of FIG. 3. 図3のデジタルターゲットスコープの制御/表示モジュールの別個の斜視図である。FIG. 4 is a separate perspective view of the control / display module of the digital target scope of FIG. 3. 図5に示された制御/表示モジュールの別の斜視図である。FIG. 6 is another perspective view of the control / display module shown in FIG. 5. 図6の制御/表示モジュールの制御部分の別個の斜視図である。FIG. 7 is a separate perspective view of the control portion of the control / display module of FIG. 6. 制御部分に接続されたセンサ回路基板を示す、図6の制御/表示モジュールの制御部分の斜視図である。FIG. 7 is a perspective view of the control portion of the control / display module of FIG. 6 showing the sensor circuit board connected to the control portion. 図3に示されたデジタルターゲットスコープの実施形態の互換性あるカメラモジュールの別個の断面概略図である。FIG. 4 is a separate cross-sectional schematic view of a compatible camera module of the digital target scope embodiment shown in FIG. 3. 図3のデジタルターゲットスコープの制御/表示モジュールにより提供される4つの代表的な表示部を例示する。FIG. 4 illustrates four representative displays provided by the control / display module of the digital target scope of FIG. 弾丸の飛行に対する重力の効果の簡略化された表現である。A simplified representation of the effect of gravity on the flight of bullets. 弾道ズーム技術を用いた照準デバイスについての、捕捉された視野対表示されたビューの間の比較を描写する。FIG. 6 depicts a comparison between a captured field of view versus a displayed view for an aiming device using a ballistic zoom technique. 弾道ズーム技術を用いた照準デバイスについての、捕捉された視野対表示されたビューの間の比較を描写する。FIG. 6 depicts a comparison between a captured field of view versus a displayed view for an aiming device using a ballistic zoom technique. 弾道ズーム技術を用いた照準デバイスについての、捕捉された視野対表示されたビューの間の比較を描写する。FIG. 6 depicts a comparison between a captured field of view versus a displayed view for an aiming device using a ballistic zoom technique. 従来の光学ズームシステムの種々の拡大倍率についての関心領域を描写する。3 depicts regions of interest for various magnifications of a conventional optical zoom system. 本開示の一実施形態による弾道ズームシステムの種々の拡大倍率についての関心領域を描写する。FIG. 6 depicts regions of interest for various magnifications of a ballistic zoom system according to one embodiment of the present disclosure. 視野と固定サイズの測距要素の間の関係を描写する。Describes the relationship between the field of view and fixed size ranging elements. 標的に照準を定める方法を描写する。Describes how to aim at the target. 標的に照準を定める方法を描写する。Describes how to aim at the target. 標的に照準を定める方法を描写する。Describes how to aim at the target. 標的に照準を定める方法を描写する。Describes how to aim at the target. ライフル銃などの武器上の図1及び図3に示された装置内で最初に整列又は照準調整を行うプロセスを例示する。FIG. 4 illustrates the process of first aligning or aiming in the apparatus shown in FIGS. 1 and 3 on a weapon such as a rifle. 種々の距離について、ライフル銃などの武器における図1及び図3に示された装置についての銃口速度(MV)及び弾道特性(BC)の値を決定するプロセスを例示する。FIG. 4 illustrates the process of determining muzzle velocity (MV) and ballistic characteristics (BC) values for the apparatus shown in FIGS. 1 and 3 for weapons such as rifles for various distances.

ここで、本開示によって提供される新規技術の関連する実施形態を例示する上で少なくとも役立つ添付図面を詳細に参照する。   Reference will now be made in detail to the accompanying drawings, which are at least helpful in illustrating related embodiments of the novel technology provided by the present disclosure.

ここで図1を参照すると、デジタルターゲットスコープシステム100の一実施形態が例示されている。例示された実施形態において、システム100は、前方端部と後方端部とを有する細長く中空の管状ハウジング101を含む。ハウジングは、陽極酸化アルミなどで製造されてよい。前方レンズ102と画像センサ103とがハウジング101の前方端部の近位に組付けられる。前方レンズ102は、標的由来の光を画像センサ103上に集束させるように組付けられる。管状ハウジング101の内部には、画像プロセッサ104、傾斜センサ105及びバッテリ106が組付けられる。画像センサ103及び傾斜センサ105は、画像プロセッサ104と電気通信状態にある。制御/表示モジュール108と画像表示構成要素109とが、ハウジング101の後方端部の近位に組付けられる。画像表示構成要素109は、画像プロセッサ104と電気通信状態にある。ハウジング101はさらに、武器(例えばライフル銃)に対して照準デバイス100を組付ける目的で一体型組付けシステム(図示せず)を含んでもよい。   Referring now to FIG. 1, one embodiment of a digital target scope system 100 is illustrated. In the illustrated embodiment, the system 100 includes an elongated hollow tubular housing 101 having a front end and a rear end. The housing may be made of anodized aluminum or the like. The front lens 102 and the image sensor 103 are assembled proximal to the front end of the housing 101. The front lens 102 is assembled to focus light from the target onto the image sensor 103. An image processor 104, a tilt sensor 105, and a battery 106 are assembled inside the tubular housing 101. Image sensor 103 and tilt sensor 105 are in electrical communication with image processor 104. A control / display module 108 and an image display component 109 are assembled proximal to the rear end of the housing 101. Image display component 109 is in electrical communication with image processor 104. The housing 101 may further include an integrated assembly system (not shown) for the purpose of assembling the aiming device 100 to a weapon (eg, a rifle).

この例示的な実施形態において、画像センサ103は、標的の生画像データを得るように作動可能である。画像プロセッサ104は、画像センサ103から生画像データを受信し、生画像データに基づいて標的画像を生成するように作動可能である。画像表示構成要素109は、画像プロセッサ104から標的画像を受信し、標的画像をユーザに表示するように作動可能であり、このことが武器の照準を容易にし得る。   In this exemplary embodiment, the image sensor 103 is operable to obtain raw target image data. The image processor 104 is operable to receive raw image data from the image sensor 103 and generate a target image based on the raw image data. The image display component 109 is operable to receive a target image from the image processor 104 and display the target image to a user, which may facilitate weapon aiming.

傾斜センサ105は、照準デバイス100の傾斜角を測定し、傾斜角に基づいて角度位置データを生成するように作動可能である。本明細書中で使用する「傾斜角」なる用語は、管状ハウジング101の中心軸を中心とした照準デバイス100の回転配向を意味する。傾斜角は、基準配向(例えば垂直方向)からデバイスを通る水平軸に位置決めされる間におけるデバイス回転変位(すなわち角度変位)の、度数での、量として表現される。一実施形態において、傾斜センサは加速度計である。接眼レンズ110の近位に、プロセッサ104と操作通信状態で配置されたアイセンサ110aが、本明細書に記載の通りに利用されてもよい。   The tilt sensor 105 is operable to measure the tilt angle of the aiming device 100 and generate angular position data based on the tilt angle. As used herein, the term “tilt angle” refers to the rotational orientation of the aiming device 100 about the central axis of the tubular housing 101. Tilt angle is expressed as a quantity, in degrees, of device rotational displacement (ie angular displacement) while positioned on a horizontal axis through the device from a reference orientation (eg vertical). In one embodiment, the tilt sensor is an accelerometer. An eye sensor 110a disposed in operational communication with the processor 104 proximal to the eyepiece 110 may be utilized as described herein.

画像プロセッサ104は、好ましくは、マイクロプロセッサと、静的情報及び動的情報を記憶するメモリとを、傾斜センサ105から角度位置データを受信して角度位置データに基づいて標的画像表示部を調整するソフトウェアと共に、含む。こうして、例えば、武器が武器の銃身を通る軸に沿って向けられるか又は照準されている間に、照準デバイス100に取付けられた武器を時計回り/反時計回りに回転させることによって、傾斜角を変更することで、デバイスに関連付けられた1つ以上の照準機能の制御が容易になるだろう。代替的な実施形態では、傾斜センサのこの制御及び調整の機能は、ボタン105a、スイッチ、ノブ又は他の器具で置換又は補完されてよい。   The image processor 104 preferably receives a microprocessor and a memory for storing static information and dynamic information, receives the angular position data from the tilt sensor 105, and adjusts the target image display unit based on the angular position data. Includes with software. Thus, for example, by turning the weapon attached to the aiming device 100 clockwise / counterclockwise while the weapon is directed or aimed along the axis through the barrel of the weapon, the tilt angle is increased. The modification will facilitate control of one or more aiming functions associated with the device. In alternative embodiments, this control and adjustment function of the tilt sensor may be replaced or supplemented with buttons 105a, switches, knobs or other instruments.

画像プロセッサ104のメモリ内に記憶された静的情報は、画像センサ103上の光学焦点位置の座標を含む。画像センサ103は、画素として公知のフォトサイト(photosites)の二次元アレイであることから、アレイ上のレンズの焦点のx−y座標は、表示用画像の中心の基準位置を規定する。これら座標は、画像センサの不揮発性メモリ内に焼付けられる。   The static information stored in the memory of the image processor 104 includes the coordinates of the optical focus position on the image sensor 103. Since the image sensor 103 is a two-dimensional array of known photosites as pixels, the xy coordinates of the focal point of the lens on the array define the reference position of the center of the display image. These coordinates are burned into the non-volatile memory of the image sensor.

図1及び図2の例示された実施形態においては、傾斜角の変更によって、視野調整、落下補正及び又は偏流補正などの照準機能を制御し得る。閾値傾斜角は、照準デバイス100の別個の機能を規定し得る。一実施形態において、ユーザは、照準デバイス100に対し閾値角度よりも大きい傾斜角を適用することにより表示された標的画像の視野(すなわち有効倍率)を制御し得る。傾斜角がいずれかの方向で閾値角度よりも大きいことを傾斜センサ105が検知した場合、画像プロセッサ104は、視野を調整することによって応答し得る。視野が増大させられるか減少させられるか、そしてその場合の速度は、傾斜角の方向及び大きさによって左右されるだろう。   In the illustrated embodiment of FIGS. 1 and 2, aiming functions such as field adjustment, drop correction, and / or drift correction may be controlled by changing the tilt angle. The threshold tilt angle may define a separate function of the aiming device 100. In one embodiment, the user may control the field of view (ie, effective magnification) of the displayed target image by applying a tilt angle greater than the threshold angle to the aiming device 100. If the tilt sensor 105 detects that the tilt angle is greater than the threshold angle in either direction, the image processor 104 may respond by adjusting the field of view. Whether the field of view is increased or decreased and the speed in that case will depend on the direction and magnitude of the tilt angle.

一実施形態において、閾値傾斜角は10度である。したがって、右へ(すなわち時計回りに)30度の傾斜角を適用すると、視野は急速に減少し(すなわち拡大倍率を増大させ)、これにより急速に、標的画像内の物体がユーザにはより大きく見えることになるだろう。逆に、左に(すなわち反時計回りに)15度の傾斜角を適用すると、視野はゆっくりと増大し(すなわち拡大倍率を減少させ)、これによりゆっくりと、標的画像内の物体がユーザにはより小さく見えることになるだろう。   In one embodiment, the threshold tilt angle is 10 degrees. Thus, applying a 30 degree tilt angle to the right (ie, clockwise) will rapidly reduce the field of view (ie, increase the magnification factor), which will quickly cause the object in the target image to become larger for the user. You will see it. Conversely, applying a 15 degree tilt angle to the left (i.e. counterclockwise) will slowly increase the field of view (i.e. decrease the magnification factor), which will slowly cause the object in the target image to appear to the user. It will look smaller.

標的画像の視野は、画像センサ103の解像度及び画像表示構成要素109の解像度により決定される限界を有し得る。例えば画像センサ103は2560×1920画素の解像度を有し、画像表示構成要素109は、320×240画素の解像度を有し得る。したがって、標的画像の最小視野(すなわち最大倍率)は、画像センサ103上の1画素由来のデータが、画像表示構成要素109上の1画素の出力を制御する場合に達成され得る。したがって、本実施例における最大倍率において、画像表示構成要素109は、画像センサ103により収集されたデータの8分の1を表示し得る。標的画像の最大視野(すなわち最小倍率)は、320×240画素を有する画像表示構成要素109が2560×1920画素を有する画像センサ103により収集された全てのデータを表示する場合に達成され得る。したがって、本実施例における最小倍率において、画像センサ103により収集された画素ブロック由来のデータは、「ビニング」と呼ばれるプロセス中で組合わされ、その後、画像表示構成要素109上の1画素を制御するために送られる。高い解像度で射程測定機能を実施するためには、標的画像の視野は、最大から最小の間を小幅で漸進的に改変されなければならない。こうして、画像センサ103の視野は、2560×1920画素から320×240画素まで小幅で変動し、画像表示構成要素109により表示される画像の解像度は、320×240画素で固定された状態にとどまる。したがって、1つの例示的な実施形態において、照準デバイスは、8対1の可変倍率比を有する。ここでもまた、1つ以上のボタン105a、ノブ、又はスイッチが、傾斜センサ105と協力して前述の調整を実施してもよい。   The target image field of view may have a limit determined by the resolution of the image sensor 103 and the resolution of the image display component 109. For example, the image sensor 103 may have a resolution of 2560 × 1920 pixels and the image display component 109 may have a resolution of 320 × 240 pixels. Accordingly, a minimum field of view (ie, maximum magnification) of the target image can be achieved when data from one pixel on the image sensor 103 controls the output of one pixel on the image display component 109. Accordingly, at the maximum magnification in this embodiment, the image display component 109 can display one-eighth of the data collected by the image sensor 103. The maximum field of view (ie, minimum magnification) of the target image can be achieved when the image display component 109 having 320 × 240 pixels displays all data collected by the image sensor 103 having 2560 × 1920 pixels. Therefore, at the minimum magnification in this embodiment, the data derived from the pixel block collected by the image sensor 103 is combined in a process called “binning” and then to control one pixel on the image display component 109. Sent to. In order to perform range measurement functions with high resolution, the field of view of the target image must be progressively modified with a small width between the maximum and minimum. Thus, the field of view of the image sensor 103 varies in a small range from 2560 × 1920 pixels to 320 × 240 pixels, and the resolution of the image displayed by the image display component 109 remains fixed at 320 × 240 pixels. Thus, in one exemplary embodiment, the aiming device has a variable magnification ratio of 8 to 1. Again, one or more buttons 105a, knobs, or switches may cooperate with the tilt sensor 105 to perform the adjustments described above.

ここで図2を参照すると、標的画像オーバーレイ200の一実施形態が例示されている。マイクロプロセッサ104は、表示された標的画像上に標的画像オーバーレイ200を重ねてもよい。標的画像オーバーレイ200は、ユーザに対して情報を表示し、これにより武器の照準が容易になり得る。図2の例示された実施形態において、標的画像オーバーレイ200は、照準線201、射程円202、横風補正シンボル203、射程数204、及び目盛205を含む。照準線201は、標的画像内の照準位置を規定するために使用される。射程数204は、射程を表示する。射程の尺度単位はヤード又はメートルであり得、ユーザが選択できる。目盛205と併用した横風補正シンボル203は、毎時マイル数又は毎時キロメートル数で補正された横風の量を表わす。任意の選択された英国単位により、図示されたオーバーレイ200は、右から来る毎時3マイルの横風が補正されていること、及び525ヤードの標的までの距離について計算された弾丸落下が補正されていることを指示する。   Referring now to FIG. 2, one embodiment of a target image overlay 200 is illustrated. The microprocessor 104 may overlay the target image overlay 200 on the displayed target image. The target image overlay 200 displays information to the user, which may facilitate weapon aiming. In the illustrated embodiment of FIG. 2, the target image overlay 200 includes a line of sight 201, a range circle 202, a crosswind correction symbol 203, a range number 204, and a scale 205. The aiming line 201 is used to define the aiming position in the target image. The range number 204 displays the range. The range unit of measure can be yards or meters and can be selected by the user. A crosswind correction symbol 203 used in combination with the scale 205 represents the amount of crosswind corrected by the number of miles per hour or the number of kilometers per hour. With any selected UK unit, the illustrated overlay 200 is corrected for crosswinds of 3 miles per hour coming from the right and bullet fall calculated for a distance to a target of 525 yards. I will tell you.

例示された標的画像オーバーレイ200は、測距要素202を含む。描写された実施形態において、測距要素202は射程円であるが、他の要素形状を利用してもよい。照準デバイス100は、射程円202を用いて「スタジアメトリック法」を介して標的までの距離(すなわち射程)を測定し得る。射程円202は、既定の標的サイズを表わす。標的までの射程を決定するために、標的の画像が射程円を完全に満たすように見えるまで、射程円202のサイズを一定に保ちながら、(例えば10度超の傾斜角を適用することにより)視野を調整してもよい。代替的に、照準デバイス100上に存在する場合、ボタン105aを押して、タレットを回転させてもよい。画像プロセッサ104は次いで、三角法を用いて標的までの距離を計算し得る。例えば、標的の可視的頂部、標的の可視的底部及び前方レンズ120からなる3点が直角三角形を画定する。標的の頂部から底部までの距離が、三角形の第1辺を画定する。射程円は、第1辺の反対側の角度の測定を提供する。こうして、画像プロセッサ104は、三角形の隣接辺の長さ、すなわち標的までの距離について計算し得る。   The illustrated target image overlay 200 includes a ranging element 202. In the depicted embodiment, ranging element 202 is a range circle, but other element shapes may be utilized. The aiming device 100 may measure the distance (ie, range) to the target via the “stadiametric method” using the range circle 202. Range circle 202 represents a predetermined target size. To determine the range to the target, keep the size of the range circle 202 constant until the target image appears to completely fill the range circle (eg by applying a tilt angle greater than 10 degrees). The field of view may be adjusted. Alternatively, if present on the aiming device 100, the button 105a may be pressed to rotate the turret. Image processor 104 may then calculate the distance to the target using trigonometry. For example, the three points consisting of the target's visible top, the target's visible bottom, and the front lens 120 define a right triangle. The distance from the top to the bottom of the target defines the first side of the triangle. The range circle provides a measure of the angle opposite the first side. Thus, the image processor 104 can calculate the length of the adjacent sides of the triangle, ie the distance to the target.

標的までの非常に長い距離において、標的の画像は、最大倍率(すなわち最大視野)でさえ射程円202を満たすのに充分大きくない場合がある。したがって、一実施形態においては、最大倍率に達した時に、画像プロセッサ104が、(例えば閾値角度を超える角度に照準デバイス100を維持して)視野を縮小する継続的入力に応答して、射程円202のサイズを縮小し始めてよい。こうして、射程測定は、最大倍率を超える距離においても、容易になるだろう。このプロセスはさらに後述する。   At very long distances to the target, the target image may not be large enough to fill the range circle 202 even at maximum magnification (ie, maximum field of view). Thus, in one embodiment, when the maximum magnification is reached, the image processor 104 is responsive to a continuous input that reduces the field of view (eg, maintaining the aiming device 100 at an angle that exceeds a threshold angle). You may start to reduce the size of 202. Thus, range measurement will be facilitated even at distances exceeding the maximum magnification. This process is further described below.

弾丸に対する重力の効果(すなわち弾丸落下)は、射程及び弾丸に関する弾道データなどの変数に基づいて、画像マイクロプロセッサ104により計算され補正されてよい。弾道データは、照準デバイス100に入力され記憶されてよい。かかる入力の例は、追加の例示的な実施形態を参照して後述する。弾丸落下補正を容易にするため、画像プロセッサ104は、計算された弾丸落下に基づいて、標的画像を照準線201に対して上方にシフトしてよく、これにより、画像が照準線を中心にしてセンタリングされているように観察者には見えるが、射手は標的より上方の1点に事実上照準することになる。後述する他の実施形態においては、画像プロセッサ104が、射手から一定の距離のところで発射体を中心にした関心領域を表示し得る。射手はこのとき、標的上に照準線を整列させるように武器を持ち上げることを必要とされるだろう。この行為が、発射体経路に沿った任意の点における弾丸落下を補正する。   The effect of gravity on the bullet (ie, bullet drop) may be calculated and corrected by the image microprocessor 104 based on variables such as range and ballistic data about the bullet. Ballistic data may be input and stored in the aiming device 100. Examples of such input are described below with reference to additional exemplary embodiments. To facilitate bullet drop correction, the image processor 104 may shift the target image upward relative to the line of sight 201 based on the calculated bullet drop, so that the image is centered on the line of sight. Although visible to the viewer as being centered, the shooter will effectively aim at a point above the target. In other embodiments described below, the image processor 104 may display a region of interest centered on the projectile at a certain distance from the shooter. The shooter will then be required to lift the weapon to align the line of sight on the target. This action corrects bullet drops at any point along the projectile path.

弾丸に対する風の効果(すなわち横風偏流)は、射程、弾道データ及び発砲時の周囲の風条件などの変数に基づいて、画像プロセッサ104により計算され補正されてよい。周囲の風条件は、当該技術分野において公知の技術を用いて測定又は推定されてよい。横風偏流は、照準デバイス100に適切な傾斜角を適用することによって、画像プロセッサ104内に入力されてよい。横風偏流補正を容易にするために、画像プロセッサ104は、計算上の又は公知の横風偏流に基づいて、標的画像を照準線201に対して水平方向にシフトしてよく、これにより、射手は標的の風上の一点に照準することになる。後述する他の実施形態において、画像プロセッサ104は、横風偏流に基づいて、一定の距離のところで発射体を中心にした関心領域を表示してよい。射手はこのとき、標的上に照準線を整列させるために武器を移動することを必要とされるだろう。この行為が、発射体経路に沿った任意の点における横風偏流を補正する。   Wind effects on the bullet (ie, crosswind drift) may be calculated and corrected by the image processor 104 based on variables such as range, ballistic data and ambient wind conditions at the time of firing. Ambient wind conditions may be measured or estimated using techniques known in the art. Crosswind drift may be input into the image processor 104 by applying an appropriate tilt angle to the aiming device 100. To facilitate crosswind correction, the image processor 104 may shift the target image horizontally relative to the line of sight 201 based on a calculated or known crosswind drift, which allows the shooter to target Aim at one point on the windward side. In other embodiments described below, the image processor 104 may display a region of interest centered at the projectile at a certain distance based on crosswind drift. The shooter will then be required to move the weapon to align the line of sight on the target. This action corrects for crosswind drift at any point along the projectile path.

ユーザは、照準デバイス100に対して閾値角度よりも小さい傾斜角を適用することにより、横風偏流補正機能を制御してよい。照準デバイス100に適用される傾斜の大きさ及び方向は、横風偏流入力の大きさ及び方向を制御し、こうして横風偏流補正を制御し得る。例えば、閾値傾斜角が10度である場合、右への(すなわち時計回りの)5度の傾斜角が、ユーザの右側から来る10mphの風を補償するのに適した横風偏流補正に対応し得る。それに対して、左への(すなわち反時計回りの)3度の傾斜角は、左から来る7mphの風を補償するのに適した横風偏流調整に対応し得る。   The user may control the crosswind drift correction function by applying an inclination angle smaller than the threshold angle to the aiming device 100. The magnitude and direction of the tilt applied to the aiming device 100 may control the magnitude and direction of the crosswind input, thus controlling the crosswind correction. For example, if the threshold tilt angle is 10 degrees, a 5 degree tilt angle to the right (ie, clockwise) may correspond to a crosswind drift correction suitable for compensating for 10 mph wind coming from the user's right side. . In contrast, a tilt angle of 3 degrees to the left (ie counterclockwise) may correspond to a crosswind drift adjustment suitable to compensate for 7 mph wind coming from the left.

横風補正シンボル203は、ユーザがより正確に横風偏流を入力できるようにすることによって、横風偏流補正を容易にし得る。画像プロセッサ104は、傾斜角の大きさ及び方向に応じて、横風補正シンボル203を照準線201に対して左右にスライドさせ、これにより、ユーザに対して画像プロセッサ104に伝達されている横風偏流入力の大きさ及び方向を指示する。   The crosswind correction symbol 203 can facilitate the crosswind drift correction by allowing the user to input the crosswind drift more accurately. The image processor 104 slides the side wind correction symbol 203 to the left and right with respect to the line of sight 201 in accordance with the magnitude and direction of the tilt angle, and thereby the side wind drift input transmitted to the image processor 104 to the user Instruct the size and direction.

さらに、画像プロセッサ104は、表示された標的画像の位置を左から右へ調整して、武器の視線が補正シンボル203により指示された横風について補正されても、標的が照準線内にセンタリングされた状態にとどまるようにする。例えば、図2の例示的な図においては、横風補正シンボル203は、右から左へ向かう3単位(例えばmph)の横風偏流入力を指示する一方、武器の銃身アライメント(すなわち実際の照準点)は、射手が見る表示画像が適切にシフトされているために、この3MPHの横風について自動的に右調整される。したがって、射手は、横風を自動的に補正するために、武器を発砲する間、この3単位傾斜を維持しなければならない。代替実施形態においては、射手は発砲に先立ち銃器を直立位置に戻してよいことから、傾斜は必ずしも維持される必要はない。   Furthermore, the image processor 104 adjusts the position of the displayed target image from left to right so that the target is centered within the line of sight even though the line of sight of the weapon is corrected for the crosswind indicated by the correction symbol 203. Try to stay in a state. For example, in the exemplary illustration of FIG. 2, the crosswind correction symbol 203 indicates a 3 unit (eg, mph) crosswind input from right to left, while the barrel alignment (ie, actual aiming point) of the weapon is Since the display image seen by the shooter is appropriately shifted, the right wind is automatically adjusted for the 3MPH crosswind. Therefore, the shooter must maintain this 3-unit tilt while firing the weapon to automatically correct for crosswind. In an alternative embodiment, the tilt need not be maintained because the shooter may return the firearm to an upright position prior to firing.

ライフル銃などの武器上でデバイス100を最初に整列させるためには、第1に、デバイスを武器に組付け、既知の距離のところに「照準を定め(sighted in)」なければならない。作業シーケンスは、図19に概略的に示されている。この手順は、武器銃身に対する機械的アライメントの変動についてデバイスを補償するのに用いられる。第1の垂直方向調整は、基準距離における機械的「高度」補正と呼ばれる。典型的には、ライフル銃について、これは、100ヤードの標的距離で行なわれる。組立て時の水平方向変動を補償するための第2の調整は、機械的「偏流(windage)」と呼ばれる。デバイス100については、これら調整が、デバイス100内のマイクロプロセッサ104に接続されるラップトップコンピュータ、iPad(登録商標)、スマートホン又はPCなどの外部デバイス上に常駐するソフトウェア内で行なわれる。   In order to initially align the device 100 on a weapon such as a rifle, the device must first be assembled to the weapon and "sighted in" at a known distance. The working sequence is schematically shown in FIG. This procedure is used to compensate the device for variations in mechanical alignment relative to the weapon barrel. The first vertical adjustment is referred to as mechanical “altitude” correction at the reference distance. Typically for rifles, this is done at a target distance of 100 yards. A second adjustment to compensate for horizontal variations during assembly is called mechanical “windage”. For the device 100, these adjustments are made in software resident on an external device such as a laptop computer, iPad®, smart phone or PC connected to the microprocessor 104 in the device 100.

最初に、完全な銃身アライメントを仮定したデフォルト値、及び期待銃口速度(MV)値及び期待弾道係数(BC)が、図19で作業ステップ1101として示されているデバイス100内にデフォルト値としてロードされる。次に、武器は、標的が例えば100ヤードなどの既知の距離のところに設置される標的射程まで運ばれ、作業1102において、デバイス100はその標的に照準される。好ましくは、これは、実施中の補正に影響を及ぼす横風が全く存在しない時に行なわれる。次に作業ステップ1103において、デバイス100が垂直で(傾斜無し)、照準線が標的画像上にセンタリングされるような形で照準されている状態で、最初のテスト射撃が発砲される。作業1104においては、標的中心からの弾丸衝撃偏差が測定され記録される。作業1105では、第2のテスト射撃が行なわれ、作業1106では、標的中心からの弾丸衝撃偏差が記録される。これらテスト射撃は、作業1107において数回反復される。作業1108では、これら記憶された偏差値の全てがソフトウェア内に入力されて、特定の武器上の装置100についての機械的高度及び偏流の補正値を生成する。最後に、作業1109において、装置100についてソフトウェアが決定した高度及び偏流の補正値が、スコープデバイス100に、そのUSBポートを介してダウンロードされる。   Initially, default values assuming perfect barrel alignment, and expected muzzle velocity (MV) values and expected ballistic coefficients (BC) are loaded as default values into device 100 shown as working step 1101 in FIG. The The weapon is then brought to a target range where the target is placed at a known distance, such as 100 yards, and in operation 1102, the device 100 is aimed at the target. This is preferably done when there are no crosswinds affecting the correction being performed. Next, in work step 1103, an initial test shot is fired with the device 100 vertical (no tilt) and aimed in such a way that the line of sight is centered on the target image. In operation 1104, the bullet impact deviation from the target center is measured and recorded. In operation 1105, a second test shooting is performed, and in operation 1106, the bullet impact deviation from the target center is recorded. These test shots are repeated several times in operation 1107. In operation 1108, all of these stored deviation values are entered into the software to generate mechanical altitude and drift correction values for the device 100 on a particular weapon. Finally, in operation 1109, the altitude and drift correction values determined by the software for the device 100 are downloaded to the scope device 100 via its USB port.

適正な銃口速度(MV)及び武器に合わせた弾道係数(BC)を提供するためには、種々の距離における追加のテスト発砲が必要とされる。これら作業は、図20を参照して説明される。これらステップは、ステップ1208までは図19の場合と同じである。作業1209においては、複数の異なる標的距離について、先行ステップが反復される。その後、作業1210で、ソフトウェア内に偏差が入力されて、データの最良適合を作り出し、武器内で発砲されている特定のカートリッジについての正確な銃口速度及び弾道係数データを生成する。これら値はその後、作業1211で、デバイス100内にダウンロードされる。   In order to provide the proper muzzle velocity (MV) and the ballistic coefficient (BC) tailored to the weapon, additional test firing at various distances is required. These operations will be described with reference to FIG. These steps are the same as those in FIG. 19 up to step 1208. In operation 1209, the preceding step is repeated for a plurality of different target distances. Thereafter, at operation 1210, deviations are entered into the software to produce the best fit of the data and to generate accurate muzzle velocity and ballistic coefficient data for the particular cartridge being fired within the weapon. These values are then downloaded into device 100 at operation 1211.

MV及びBCを作り出すのに利用されるソフトウェアコードは、周知である発射体のニュートン物理学方程式に基づいている。この目的での例示的な方程式は、Arthur J.Pejsa著、Modern Practical Ballistics、Kenwood Publishing、第2版中に見出されるだろう。特定の武器/ターゲットデバイスの組合せについてひとたびこれらMV及びBC値が公知となり、画像プロセッサ104内にダウンロードされたならば、デバイス100の作動は複雑ではない。   The software code used to create MVs and BCs is based on the well-known projectile Newtonian physics equations. Exemplary equations for this purpose will be found in Arthur J. Pejsa, Modern Practical Ballistics, Kenwood Publishing, 2nd edition. Once these MV and BC values are known for a particular weapon / target device combination and downloaded into the image processor 104, the operation of the device 100 is not complicated.

作動中、デバイス100のユーザは、単に武器を標的に照準し、武器を反時計回りに10度超傾斜させて標的上に視覚的にズームインし、次に、表示部内で適切なサイズになった時に、武器を垂直に戻し、かつ知覚した横風に応じて武器をわずかに左又は右のいずれかに傾斜させ、試射する。射程は、表示画像を上又は下にシフトさせるマイクロプロセッサを介して自動的に補正される。照準線はセンタリングした状態にとどまり、射程補正は自動的に提供され表示される。横風偏流補正は、射手が、図2に示された画像表示内の横風補正シンボル203によって提供される所望の標的オフセットの自らの推定値まで武器を傾斜させることによって、自動的に行なわれる。標的画像は、表示部内で右又は左に自動的にシフトされて照準線がセンタリングされた状態にとどまるようにしており、射手は、照準線がセンタリングされている状態で、表示された画像に照準し、所望の傾斜を維持して横風を補正しながら試射する。   In operation, the user of device 100 simply aimed the weapon at the target, tilted the weapon more than 10 degrees counterclockwise to visually zoom in on the target, and then was sized appropriately within the display. Occasionally, the weapon is returned vertically and tilted slightly to the left or right depending on the perceived crosswind and fired. Range is automatically corrected via a microprocessor that shifts the displayed image up or down. The line of sight remains centered and range correction is automatically provided and displayed. Crosswind drift correction is performed automatically by the shooter tilting the weapon to its own estimate of the desired target offset provided by the crosswind correction symbol 203 in the image display shown in FIG. The target image is automatically shifted to the right or left in the display so that the line of sight remains centered, and the shooter is aiming at the displayed image with the line of sight centered. Then, test firing while correcting the crosswind while maintaining the desired slope.

ここで図3〜4を参照すると、照準デバイス300の第2の実施形態が例示されている。例示された実施形態において、装置300は、前方端部及び後方端部を有する細長く中空の管状ハウジング301を含む。ハウジングは、陽極酸化アルミなどで製造され得る。前方レンズ302と画像センサ303がハウジング301の前方端部の近位で、封止されたユニットの形で一緒に組付けられる。前方レンズ302は、標的由来の光を画像センサ303上に集束するように組付けられる。前方レンズ302及びセンサ303は、封止された互換性あるカメラモジュール319の一部を成す。この画像センサ303は、回路基板上に組付けられ、好ましくは、センサ、画像プロセッサ及び不揮発性メモリを含む。   Referring now to FIGS. 3-4, a second embodiment of the aiming device 300 is illustrated. In the illustrated embodiment, the apparatus 300 includes an elongated hollow tubular housing 301 having a front end and a rear end. The housing can be made of anodized aluminum or the like. The front lens 302 and the image sensor 303 are assembled together in the form of a sealed unit, proximal to the front end of the housing 301. The front lens 302 is assembled to focus light from the target onto the image sensor 303. Front lens 302 and sensor 303 form part of a sealed compatible camera module 319. The image sensor 303 is assembled on a circuit board, and preferably includes a sensor, an image processor, and a nonvolatile memory.

マイクロプロセッサ304、圧力及び温度センサ(図示せず)、傾斜センサ305、及びバッテリ306は、制御/表示モジュール308内の回路基板326に組付けられる。画像センサ303、温度、圧力及び傾斜センサ305は、後述する通り、マイクロプロセッサ304と電気通信状態にある。   Microprocessor 304, pressure and temperature sensors (not shown), tilt sensor 305, and battery 306 are assembled to circuit board 326 in control / display module 308. Image sensor 303, temperature, pressure and tilt sensor 305 are in electrical communication with microprocessor 304, as described below.

制御/表示モジュール308及び画像表示構成要素309は、ハウジング301の後方端部の近位に、取外し可能な形で組付けられる。画像表示構成要素309は、マイクロプロセッサ304と電気通信状態にある。ハウジング301はさらに、武器(例えばライフル銃)に対して照準デバイス300を組付ける目的で、一体型組付けシステム311を含む。   Control / display module 308 and image display component 309 are removably assembled proximal to the rear end of housing 301. Image display component 309 is in electrical communication with microprocessor 304. The housing 301 further includes an integrated assembly system 311 for the purpose of assembling the aiming device 300 to a weapon (eg, a rifle).

照準デバイス300は、例えば、視野調整、弾丸落下(射程)補正及び/又は横風偏流補正などの特徴を含め、照準デバイス100の第1の実施形態の特徴の一部又は全てを含んでよい。さらに、照準デバイス300は好ましくは、レンズ鏡胴320内の前方レンズ302及び画像センサ303で構成される互換性あるカメラモジュール319を含む。画像センサ303は、鏡胴320の後方端部に締結された回路基板上のレンズ軸に対し垂直に組付けられ、好ましくはそれに対して封止される。画像センサ回路基板は、後述される制御/表示モジュール308の前方端部から延在するブレードピンコネクタを受容するための、同軸的に後方に延在する雌コネクタ324を含む。   The aiming device 300 may include some or all of the features of the first embodiment of the aiming device 100, including features such as, for example, field of view adjustment, bullet fall (range) correction, and / or crosswind drift correction. In addition, the aiming device 300 preferably includes a compatible camera module 319 configured with a front lens 302 and an image sensor 303 within the lens barrel 320. The image sensor 303 is assembled perpendicular to the lens axis on the circuit board fastened to the rear end of the lens barrel 320, and is preferably sealed thereto. The image sensor circuit board includes a coaxially extending rear female connector 324 for receiving a blade pin connector extending from the front end of the control / display module 308 described below.

カメラモジュール319は、位置決め表面321(図9に図示)を介してハウジング301の内部に正確に位置決めされた状態でレンズ鏡胴320を案内し着座させる外部ネジ付きカラー318を介してハウジング301に固定される。この互換性あるカメラモジュールの特徴により、1つのターゲット装置又はデバイス300を、異なるカメラモジュール319内で再度照準を定める必要なく長射程又は短射程の状況などの種々の異なる状況の中で利用することが可能になる。このことは、ユーザにとって非常に有利であり得る。   The camera module 319 is secured to the housing 301 via an externally threaded collar 318 that guides and seats the lens barrel 320 with the lens barrel 320 positioned accurately within the housing 301 via a positioning surface 321 (shown in FIG. 9). Is done. This interchangeable camera module feature allows one target device or device 300 to be used in a variety of different situations, such as long range or short range situations, without having to re-sight within different camera modules 319. Is possible. This can be very advantageous for the user.

ここで図5〜図8を参照すると、取外し可能な制御/表示モジュール308の一実施形態が例示されている。制御/表示モジュール308は、カラー307により、細長い管状ハウジング301の後方端部に取外し可能な形で組付けられる。管状ハウジング301から制御/表示モジュール308を取外することによって、後述する通り、バッテリの交換が容易になり及び/又はデバイス設定の構成が容易になる。カラー307は、武器の発砲中の制御/表示モジュール308と管状ハウジング301との間の機械的接続を維持できるバヨネット式、ネジ込み式、又は他の任意の好適な組付けシステムを利用してよい。   Referring now to FIGS. 5-8, one embodiment of a removable control / display module 308 is illustrated. The control / display module 308 is removably assembled to the rear end of the elongated tubular housing 301 by a collar 307. Removing the control / display module 308 from the tubular housing 301 facilitates battery replacement and / or configuration of device settings, as described below. The collar 307 may utilize a bayonet-type, screw-type, or any other suitable assembly system that can maintain a mechanical connection between the control / display module 308 and the tubular housing 301 during weapon firing. .

カラー307の前方開口部は、管状ハウジング301の後方端部の外側表面全体に適合する。この例示的な実施形態における管状ハウジング301の後方端部の外側表面は、環状溝を含む。カラー307の内側表面は、カラー307が管状ハウジング301に対して回転可能に組付けられるように溝の内部に嵌合するように構成された環状リブを含む。カラー307の後方開口部の内側表面には、ネジ山が付いている。制御/表示モジュール308の前方端部の外側表面にも類似の形でネジ山が付いており、このため、制御/表示モジュール308がカラー307の回転を介して管状ハウジング301に対し螺合され得るようになっている。こうして、カラー307は、管状ハウジング301との関係において制御/表示モジュール308を回転させること無く、制御/表示モジュール308を管状ハウジング301に接続及び接続解除できるようにする。このことで今度は、制御/表示モジュール308とカメラモジュール319との間のプラグ又はバヨネット式の電気的接続の使用が可能になる。   The front opening of the collar 307 fits over the entire outer surface of the rear end of the tubular housing 301. The outer surface of the rear end of the tubular housing 301 in this exemplary embodiment includes an annular groove. The inner surface of the collar 307 includes an annular rib configured to fit within the groove so that the collar 307 is rotatably assembled to the tubular housing 301. The inner surface of the rear opening of the collar 307 is threaded. The outer surface of the front end of the control / display module 308 is also threaded in a similar manner so that the control / display module 308 can be threaded onto the tubular housing 301 via rotation of the collar 307. It is like that. Thus, the collar 307 allows the control / display module 308 to be connected to and disconnected from the tubular housing 301 without rotating the control / display module 308 in relation to the tubular housing 301. This in turn allows the use of a plug or bayonet type electrical connection between the control / display module 308 and the camera module 319.

制御/表示モジュール308は、接眼レンズアセンブリ310を含む。接眼レンズアセンブリ310は、画像表示構成要素309の観察を容易にする。一実施形態において、接眼レンズアセンブリ310内の接眼レンズから画像表示構成要素309までの距離は手動で調整可能であってジオプター調整を容易にしてよい。例えば、接眼レンズアセンブリ310は、接眼レンズアセンブリ310の時計回りの回転が接眼レンズから画像表示構成要素309までの距離を減少させ、その逆も成立するように制御/表示モジュール308内に螺合される。   The control / display module 308 includes an eyepiece assembly 310. The eyepiece assembly 310 facilitates viewing of the image display component 309. In one embodiment, the distance from the eyepiece in the eyepiece assembly 310 to the image display component 309 may be manually adjustable to facilitate diopter adjustment. For example, the eyepiece assembly 310 is threaded into the control / display module 308 such that clockwise rotation of the eyepiece assembly 310 reduces the distance from the eyepiece to the image display component 309 and vice versa. The

図8において良く示されるように、制御/表示モジュールは、回路基板326を収納する制御部分313を含み、制御部分に対してバッテリ306、傾斜センサ、圧力センサ、及び温度センサが取付けられ、かつ制御部分は、制御/表示モジュール308の表示部分315内の表示要素309に接続するマイクロプロセッサ304と接続する。回路基板326の前方端部は、雄ブレードコネクタ322を含み、雄ブレードコネクタは、雌コネクタ324と結合して、前述の通りハウジング301の内部に制御/表示モジュール308が設置される時に回路基板326上に組付けられるマイクロプロセッサ304と画像センサ303とを堅固に接続する。   As well shown in FIG. 8, the control / display module includes a control portion 313 that houses a circuit board 326, to which the battery 306, tilt sensor, pressure sensor, and temperature sensor are attached and controlled. The portion connects to a microprocessor 304 that connects to a display element 309 in the display portion 315 of the control / display module 308. The front end of the circuit board 326 includes a male blade connector 322 that is coupled to the female connector 324 so that the circuit board 326 is installed when the control / display module 308 is installed inside the housing 301 as described above. The microprocessor 304 and the image sensor 303 assembled on the top are firmly connected.

管状ハウジング301から制御/表示モジュール308を分離することにより、ユーザは、マイクロプロセッサ304の電子メモリ内に記憶すべき情報を入力できるようになる。かかる情報は、1つ以上の弾丸タイプに関連する周囲温度、圧力、銃口速度、抗力及び/又は弾道係数などの弾道データを含んでよい。例示的な実施形態300においては、管状ハウジング301から制御/表示モジュール308を取外すことによって、回路基板326を介してプロセッサ304と電子的接続状態にあるコンピュータ接続ポート312が曝される。一実施形態において、コンピュータ接続ポート312はUSBポートである。制御/表示モジュール308は、こうして、コンピュータ接続ポート312を介してプロセッサ304と通信可能な適切なアプリケーションソフトウェアを有するコンピュータに接続されてよい。このとき、前述の通り武器の照準を容易にするためにプロセッサ304による現場での弾丸軌道計算に関する用途用に、1つ以上の弾丸カートリッジタイプ用の弾道データが照準デバイス300内に入力され記憶されてもよい。   Separating the control / display module 308 from the tubular housing 301 allows the user to enter information to be stored in the electronic memory of the microprocessor 304. Such information may include ballistic data such as ambient temperature, pressure, muzzle velocity, drag and / or ballistic coefficient associated with one or more bullet types. In the exemplary embodiment 300, removing the control / display module 308 from the tubular housing 301 exposes the computer connection port 312 that is in electronic connection with the processor 304 via the circuit board 326. In one embodiment, the computer connection port 312 is a USB port. The control / display module 308 may thus be connected to a computer having appropriate application software that can communicate with the processor 304 via the computer connection port 312. At this time, as described above, the ballistic data for one or more bullet cartridge types is input and stored in the aiming device 300 for use in connection with the on-site bullet trajectory calculation by the processor 304 to facilitate aiming of the weapon. May be.

ここで図9を参照すると、互換性レンズモジュール319の一実施形態が示されている。例示された実施形態において、レンズモジュールは、位置決め表面321を有するレンズ鏡胴320を含む。位置決め表面321は、ハウジング301内での互換性レンズモジュール319の適正なアライメントを容易にする。前述した通り、画像センサ303は好ましくは、不揮発性メモリを含む。不揮発性メモリは、カメラモジュール319の視線に沿って存在する画像センサ303の画素アレイの内部の画素(本明細書において「基準画素」と呼ばれる)の座標(x、y)を記憶する。互換性レンズモジュール319が装置300内に設置される場合、マイクロプロセッサ304は、基準画素の座標を読み取って標的画像上の基準点を確立するように作動可能であってよい。こうして、装置300内に設置され得る互換性レンズモジュール319の各々が、内蔵され封止される。さらに、本明細書中に記載の可変的な特徴は、カメラモジュール319の変更によって影響されない。   Referring now to FIG. 9, one embodiment of a compatible lens module 319 is shown. In the illustrated embodiment, the lens module includes a lens barrel 320 having a positioning surface 321. The positioning surface 321 facilitates proper alignment of the compatible lens module 319 within the housing 301. As described above, the image sensor 303 preferably includes a non-volatile memory. The nonvolatile memory stores the coordinates (x, y) of the pixels (referred to as “reference pixels” in this specification) inside the pixel array of the image sensor 303 that exists along the line of sight of the camera module 319. If a compatible lens module 319 is installed in the apparatus 300, the microprocessor 304 may be operable to read the coordinates of the reference pixel to establish a reference point on the target image. Thus, each of the compatible lens modules 319 that can be installed in the apparatus 300 is built and sealed. Further, the variable features described herein are not affected by changes in the camera module 319.

わずかな製造上の欠陥(例えばレンズの欠陥)に起因して、カメラモジュール319のこの視線は、カメラモジュール319の長手方向の中心軸と正確に一致しないだろう。好ましくは、基準画素は、レンズモジュール319の製造プロセスにおける最終ステップとして決定される。基準画素を決定するためには、互換性レンズモジュール319が、位置決め表面321と結合する表面を含む較正装置(図示せず)に接続されてよい。較正装置はさらに、互換性レンズモジュール319が較正装置内に組付けられた場合にレンズモジュール319の中心軸が較正標的に向けられるような形で位置づけされた較正標的を含む。このとき、較正標的の画像は、センサ303を介して取得されてよい。このとき、基準画素は、画像を分析してセンサ303のどの画素が較正標的の中心から生じる光を捕捉したかを決定することによって、位置付けられてよい。このとき基準画素の座標は、較正装置を介して画像センサ303の不揮発性メモリ内に記憶(例えば「焼き付け」)られてよい。   Due to slight manufacturing defects (eg, lens defects), this line of sight of the camera module 319 will not exactly coincide with the longitudinal central axis of the camera module 319. Preferably, the reference pixel is determined as the final step in the manufacturing process of the lens module 319. To determine the reference pixel, a compatible lens module 319 may be connected to a calibration device (not shown) that includes a surface that mates with the positioning surface 321. The calibration device further includes a calibration target positioned such that when the compatible lens module 319 is assembled into the calibration device, the central axis of the lens module 319 is directed toward the calibration target. At this time, an image of the calibration target may be acquired via the sensor 303. At this time, the reference pixels may be located by analyzing the image to determine which pixels of the sensor 303 have captured light originating from the center of the calibration target. At this time, the coordinates of the reference pixel may be stored (for example, “burned”) in the nonvolatile memory of the image sensor 303 via the calibration device.

ここで図10を参照すると、デジタルターゲットスコープの制御/表示モジュールにより提供される4つの例示的なメニュー表示が示されている。制御/表示モジュール308の一実施形態においては、管状ハウジング301から制御/表示モジュール308を分離することにより、ユーザは、射程円202のサイズ、最大ズーム射程及び弾丸タイプなどの機能の現場における選択を行うことができるようになる。   Referring now to FIG. 10, four exemplary menu displays provided by the digital target scope control / display module are shown. In one embodiment of the control / display module 308, separating the control / display module 308 from the tubular housing 301 allows the user to make field choices for functions such as the size of the range circle 202, maximum zoom range, and bullet type. Will be able to do.

これら機能は、好ましくは、メニューの形で編成される。例えば、カートリッジメニューが複数のカートリッジタイプを表示してよい。メニュー上のカートリッジタイプを変更することにより、プロセッサ304による軌道計算で使用される弾道データ、MV及びBC値が対応して変更させられる。   These functions are preferably organized in the form of menus. For example, the cartridge menu may display multiple cartridge types. By changing the cartridge type on the menu, the trajectory data, MV and BC values used in the trajectory calculation by the processor 304 are changed correspondingly.

一実施形態において、ユーザは、分離された制御/表示モジュール308の傾斜角を変更することにより、種々のメニューをステップスルーできる。例えば、第1のメニューが0度の傾斜角で現われ、第2のメニューが90度の傾斜角で現われ、第3のメニューが180度の傾斜角で現われ、第4のメニューが270度の傾斜角で提示される。ユーザは、押しボタン314、316の使用を介して、各メニューの内部で種々のオプションをステップスルーしてよい。こうして、ユーザは、射程円202のサイズ、最大ズーム射程及び1つ以上の弾丸カートリッジタイプに関連付けられた弾道データなどの機能に対して現場での変更を行うことができる。他の実施形態においては、メニューをステップスルーするために前述のアイセンサが使用されてもよい。アイセンサは、特定の意図的な眼の動きを登録し、相応してメニュー上の選択肢を調整し得る。例えば、アイセンサは、眼の下向きの動きを登録し、信号をプロセッサに誘導して前のメニュー選択肢の下に1つのメニュー選択肢を強調表示し得る。左又は右への眼の動きは、選択肢を選択するか又は非選択にし得る。例えば既定の時間よりも長い持続時間を有する意図的な瞬目を用いて、1つのオプションを選択又は非選択にすることもできる。他の眼の動きにより引き起こされる行動も予期される。   In one embodiment, the user can step through various menus by changing the tilt angle of the separate control / display module 308. For example, the first menu appears at a tilt angle of 0 degrees, the second menu appears at a tilt angle of 90 degrees, the third menu appears at a tilt angle of 180 degrees, and the fourth menu tilts at 270 degrees Presented in the corner. The user may step through various options within each menu through the use of push buttons 314, 316. Thus, the user can make field changes to functions such as the size of the range circle 202, the maximum zoom range, and the ballistic data associated with one or more bullet cartridge types. In other embodiments, the eye sensor described above may be used to step through the menu. The eye sensor may register certain intentional eye movements and adjust the menu choices accordingly. For example, the eye sensor may register a downward eye movement and direct a signal to the processor to highlight one menu option below the previous menu option. Left or right eye movement may select or deselect an option. For example, an option may be selected or deselected using a deliberate blink that has a longer duration than a predetermined time. Behaviors caused by other eye movements are also expected.

照準デバイス100又は300のオン切換えは、好ましくは、照準デバイスから前方レンズカバー(記述せず)を取外すことによって達成される。照準デバイスを低電力スタンバイ状態に置くことは、照準デバイス上に前方レンズカバーを再度設置することによって達成される。当然のことながら、バッテリの取外しにより、記憶用デバイスは無効となるが、不揮発性メモリ内に記憶された静的情報が消去されることはない。   Switching on the aiming device 100 or 300 is preferably accomplished by removing the front lens cover (not described) from the aiming device. Placing the aiming device in a low power standby state is accomplished by re-installing the front lens cover on the aiming device. Naturally, the removal of the battery invalidates the storage device, but the static information stored in the non-volatile memory is not erased.

本明細書中に記載された技術は、ズームレベルが増大又は減少するにつれて、その弾道曲線に沿った発射体の位置を表示する照準デバイス又は光学デバイス内で使用されてもよい。1つの例示的な条件が、図11に提示されている。前述の通り、ライフル銃から意図された標的まで弾丸が飛行する場合、複数の力が弾丸の飛行に影響を及ぼす。重力は、銃器から標的まで弾丸が飛行するにつれて弾丸の高度を落下させる。ハンター500がその標的502に近い場合、弾丸は非常にわずかしか落下しない。この軌道は、短距離では光学経路504に近い。しかしながら、銃器及び銃弾の改良により、ハンターは長距離から獲物を狙うことできるようになった。これらより長い距離では、重力は、図11の弾道経路506により表わされている通り、弾丸の高度をより有意に落下させる。他の要因も弾丸の飛行に影響を及ぼす。例えば、横風は、弾丸の飛行経路に沿って弾丸を水平に移動させる。弾丸の飛行に対して風が有する効果に対する光学デバイス内の補償は、偏流と呼ばれることが多い。湿気、高度、温度及び他の環境因子も、弾丸の飛行に影響を及ぼすだろう。   The techniques described herein may be used in an aiming or optical device that displays the position of a projectile along its trajectory curve as the zoom level increases or decreases. One exemplary condition is presented in FIG. As described above, when a bullet flies from a rifle to the intended target, multiple forces affect the flight of the bullet. Gravity causes the bullet's altitude to drop as the bullet flies from the firearm to the target. When the hunter 500 is close to its target 502, the bullet falls very little. This trajectory is close to the optical path 504 at short distances. However, improvements to firearms and ammunition have made it possible for hunters to target prey from long distances. At longer distances, gravity causes the bullet altitude to fall more significantly, as represented by the ballistic path 506 in FIG. Other factors also affect bullet flight. For example, crosswind moves the bullet horizontally along the flight path of the bullet. Compensation in the optical device for the effect of wind on the flight of bullets is often referred to as drift. Humidity, altitude, temperature and other environmental factors will also affect the flight of the bullet.

有為な距離から標的に適正に照準を定めるために、典型的な光学デバイス(すなわち、画像センサ無しに光学経路に沿って複数のレンズを使用する光学デバイス)は、デバイスの光学経路に沿った倍率を増大させるように調整されるだろう。すなわち、倍率の増大は、照準デバイスと標的との間の直線に沿った標的の観察サイズを増大させる。しかしながら、弾丸落下を補償するためには、ユーザは、銃口をわずかに持ち上げて、標的までの射程に基づいて標的上に異なる照準要素を整列させることによって、ビューファインダ内部の標的の位置を調整しなければならない。この余分なステップは、急いでいるか又は注意散漫である初心者の(さらには上級の)射手によって忘れられることが多く、不正確な照準を結果的にもたらす。これが射撃の失敗、又は悪い場合には、非致命的な射撃を導く。後述するいわゆる「弾道ズーム」技術においては、照準デバイスは、射手から任意の所定距離において発射体の位置を中心にした領域を表示し、こうして、強制的に射手に銃器の位置を上昇、下降又は他の形で調整させて弾丸の落下又は横風を補償する。   In order to properly aim the target from a significant distance, a typical optical device (ie, an optical device that uses multiple lenses along the optical path without an image sensor) is aligned along the optical path of the device. Will be adjusted to increase magnification. That is, increasing the magnification increases the observation size of the target along a straight line between the aiming device and the target. However, to compensate for bullet fall, the user adjusts the position of the target inside the viewfinder by slightly lifting the muzzle and aligning different aiming elements on the target based on the range to the target. There must be. This extra step is often forgotten by novice (and advanced) archers who are rushed or distracted, resulting in inaccurate aiming. This leads to non-fatal shooting if the shooting fails or is bad. In the so-called “ballistic zoom” technique described below, the aiming device displays an area centered on the position of the projectile at any given distance from the shooter, thus forcing the shooter to raise, lower or Adjust in other ways to compensate for bullet fall or crosswind.

本明細書に記載の弾道ズーム技術は、倍率(又はズーム)の増大が弾丸の弾道経路506に沿って起こるという点で、先行技術と異なっている。任意の既知の弾道情報(例えば発射体の口径、銃口速度、横風速度など)について、発射体の位置は、銃器から任意の距離において既知である。本明細書中に記載の技術は、図11に描かれているこの弾道経路506に沿ってズームする。照準デバイス508は、(ライン510により表わされている)視野(FOV)を捕捉する。しかしながら、照準デバイス508は、ユーザに対して視野510の一部分のみを表示する。この表示された部分(関心領域(ROI)とも呼ばれる)は、発射体の位置の周りの視野の一領域である。多数の関心領域512が図11に描かれている。例えば、照準デバイス512aからゼロヤードのところにあるのは、空間内のその点における発射体の周りの領域である。関心領域は、200ヤード(512b)、400ヤード(512b)、600ヤード(512c)及び800ヤード(512d)において描かれている。(さらに後述する)ズーム値は、弾道曲線に関連し、こうして、照準デバイス508が所定射程についての倍率を決定できるようになり、その逆も同じである。表示される関心領域512は、特定の用途に必要とされるか又は所望される任意の領域であってよい。弾丸が弾道経路506に沿って降下することから、ハンター500は、表示された照準要素を標的502上に適正に位置づけた状態に保つために強制的に銃口を上げることを求められる。   The ballistic zoom technique described herein differs from the prior art in that an increase in magnification (or zoom) occurs along the ballistic trajectory path 506 of the bullet. For any known ballistic information (eg, projectile caliber, muzzle velocity, crosswind velocity, etc.), the location of the projectile is known at any distance from the firearm. The technique described herein zooms along this trajectory path 506 depicted in FIG. Aiming device 508 captures the field of view (FOV) (represented by line 510). However, the aiming device 508 displays only a portion of the field of view 510 to the user. This displayed portion (also called region of interest (ROI)) is a region of the field of view around the location of the projectile. A number of regions of interest 512 are depicted in FIG. For example, zero yard from the aiming device 512a is the area around the projectile at that point in space. The regions of interest are depicted at 200 yards (512b), 400 yards (512b), 600 yards (512c), and 800 yards (512d). The zoom value (described further below) is related to the trajectory curve, thus allowing the aiming device 508 to determine the magnification for a given range, and vice versa. The displayed region of interest 512 may be any region required or desired for a particular application. As the bullet descends along the trajectory path 506, the hunter 500 is required to force the muzzle up to keep the displayed aiming element properly positioned on the target 502.

図12A〜図12Cは、種々のズームレベルにおける弾道ズーム技術を用いた照準デバイスについての、捕捉された視野と表示されたビューとの間の比較を描いている。照準デバイスの内部でレンズを使用することにより発生する画像の反転は描かれていない。図12Aは、カメラなどの画像センサによって捕捉される画像600を描いている。典型的には、この画像600は、センサの全FOVである。ROI602は、表示部上で表示された画像604として射手に提示される。この図において、ROI602は、捕捉された画像600全体である。照準線などの1つの照準要素606が、表示された画像604上に重ねられる。照準線606は、照準デバイスから特定の距離に弾丸が位置付けられる場所を指示しており、ここでこの特定の距離は、照準デバイスのズームレベルに関連付けられる。この場合、射程円の形をしている測距要素608も、表示された画像604上に重ねられる。   12A-12C depict a comparison between the captured field of view and the displayed view for an aiming device using ballistic zoom techniques at various zoom levels. The inversion of the image caused by using the lens inside the aiming device is not drawn. FIG. 12A depicts an image 600 captured by an image sensor such as a camera. Typically, this image 600 is the full FOV of the sensor. The ROI 602 is presented to the shooter as an image 604 displayed on the display unit. In this figure, ROI 602 is the entire captured image 600. One aiming element 606, such as a line of sight, is overlaid on the displayed image 604. Aiming line 606 indicates where the bullet is positioned at a specific distance from the aiming device, where this specific distance is related to the zoom level of the aiming device. In this case, a ranging element 608 in the form of a range circle is also superimposed on the displayed image 604.

最大ズームレベルを含む最大ズームレベルまでの全ズームレベルにおいて、表示される測距要素608のサイズはFOV600に対して同じサイズであり、既知の標的サイズに較正される。こうして、6フィートの標的に較正された測距要素を使用する場合、ひとたび標的が(倍率の増大により)測距要素の内部で「適合」したならば、照準デバイスは、前述の通り、スタジアメトリック法に基づいて、標的までの射程を計算できる。光学経路に沿って倍率を増大させる先行技術のデバイスとは異なり、弾道ズーム技術は、弾道経路に沿って倍率を増大させる。したがって、銃器から離れる距離が増大するにつれて弾道経路が落下することから、表示される画像604は、ズームレベルが増大するにつれてFOV600の下部部分にROI602から導出される。例えば、図12Bは、4倍ズームレベルでの関係を描いている。ここでは、捕捉された画像又はFOV600は、図12Aの場合と変わらない。ROI602は、全FOV600より小さく、FOV600の底部領域の近位に配置されている。ROI602は、表示された画像604として表示されている。照準要素606及び測距要素608のサイズ及び位置は、表示部上で不変のままである。図12Cは、8倍ズームレベルでの関係を描いている。ここでもまた、捕捉された画像又はFOV600は、図12Aの場合と変わらない。ROI602は、合計FOV600よりも小さく、FOV600の底部に配置されている。センサ解像度は、当該技術分野において公知の画素ビニング又は他の技術によって、表示部の解像度までスケーリングされてよい。ズームの倍率が増大するにつれて、増々小さいROI602が表示される。さらに、倍率は弾道経路をたどることから、ROI602はつねに、その特定のズームレベル及び付随する射程についての弾丸の位置にセンタリングされる。このことは、遠隔での正確な射撃を保証する。   At all zoom levels up to the maximum zoom level including the maximum zoom level, the size of the displayed ranging element 608 is the same size for the FOV 600 and is calibrated to a known target size. Thus, when using a calibrated ranging element for a 6 foot target, once the target has “fit” within the ranging element (by increasing magnification), the aiming device, as described above, The range to the target can be calculated based on the law. Unlike prior art devices that increase magnification along the optical path, ballistic zoom technology increases magnification along the ballistic path. Thus, since the ballistic path falls as the distance away from the firearm increases, the displayed image 604 is derived from the ROI 602 to the lower portion of the FOV 600 as the zoom level increases. For example, FIG. 12B depicts the relationship at 4 × zoom level. Here, the captured image or FOV 600 is not different from the case of FIG. 12A. The ROI 602 is smaller than the entire FOV 600 and is located proximal to the bottom region of the FOV 600. The ROI 602 is displayed as a displayed image 604. The size and position of the aiming element 606 and the ranging element 608 remain unchanged on the display. FIG. 12C depicts the relationship at 8x zoom level. Again, the captured image or FOV 600 is the same as in FIG. 12A. The ROI 602 is smaller than the total FOV 600 and is arranged at the bottom of the FOV 600. The sensor resolution may be scaled to the display resolution by pixel binning or other techniques known in the art. As the zoom magnification increases, a smaller ROI 602 is displayed. Furthermore, since the magnification follows the ballistic path, the ROI 602 is always centered at the bullet position for that particular zoom level and associated range. This ensures accurate shooting remotely.

図13Aは、従来の光学ズームシステムの種々の倍率についての関心領域を描いている。従来のズームシステムにおいて、倍率は、FOV上でセンタリングされており、ROIはFOVの中心に位置付けされた部分に対応する。したがって、距離が大きくなるにつれて、ユーザは、正確な射撃を保証するために、異なる照準要素を標的と整列させなければならない。さらに、描かれている横風を考慮すると、ユーザはさらに、横風を補償するために偏流照準要素を利用しなければならない。この場合、ユーザは、右の方に流れる横風を補償するために、銃器を左へ照準しなければならない。   FIG. 13A depicts regions of interest for various magnifications of a conventional optical zoom system. In a conventional zoom system, the magnification is centered on the FOV, and the ROI corresponds to the portion located at the center of the FOV. Thus, as the distance increases, the user must align different aiming elements with the target to ensure accurate shooting. In addition, given the crosswind being drawn, the user must further utilize a drift aiming element to compensate for the crosswind. In this case, the user must aim the firearm to the left to compensate for the crosswind that flows to the right.

対照的に、図13Bは、弾道ズームシステムの種々の倍率についての関心領域を描いている。ここでは、ROIの中心は、弾丸の弾道曲線をたどり、こうして全てのズームレベルにおいて、弾丸の位置がROI内にセンタリングされるようになっている。ズームレベルが増大するにつれて、ROIの中心は、計算された弾丸落下に従って下方に移動し、横風に起因する計算された弾丸のドリフトに従って水平方向に移動する。こうして、ユーザは、正確な射撃を容易に得るため、利用可能な唯一の照準点を標的上にセンタリングすることが求められる。   In contrast, FIG. 13B depicts regions of interest for various magnifications of the ballistic zoom system. Here, the center of the ROI follows the trajectory curve of the bullet so that the position of the bullet is centered within the ROI at all zoom levels. As the zoom level increases, the center of the ROI moves down according to the calculated bullet drop and moves horizontally according to the calculated bullet drift due to crosswind. Thus, the user is required to center the only aiming point available on the target in order to easily obtain accurate shooting.

図14は、視野と固定サイズの測距要素との関係を描いている。(最も外側のライン702によって画定される)FOVを有する照準デバイス700が描かれている。内側ライン704は、FOV702との関係における測距要素の広がりを描いている。FOV角度αは、任意のズームレベルで既知である。その結果、測距要素704は、任意のズームレベルで既知の測距要素角度βに内在する。ユーザは、特定の標的706のサイズにサイズ調整された測距要素の中から選択してよい。例えば、ユーザは、既知の距離にある特定のサイズの標的(例えばエルク又は他の獲物については6フィートの標的、あるいはイノシシ又はそれより小さい獲物については3フィートの標的)に対応する円を選択してよい。測距要素704が標的706を内部に正確に取囲む射程Rは1つしか存在しないことから、照準デバイス700は、ズームレベルに基づいて射程Rを決定できる。照準デバイスは、標的706までの射程Rを決定する計算を実行する。この射程は弾道を計算しROIを位置付けるために使用される。射程Rは、ズームレベル、横風速度又は他の情報と共に表示されてもよい。   FIG. 14 depicts the relationship between the field of view and a fixed size ranging element. Aiming device 700 having an FOV (defined by outermost line 702) is depicted. Inner line 704 depicts the extent of the ranging element in relation to FOV 702. The FOV angle α is known at any zoom level. As a result, the ranging element 704 is inherent in the known ranging element angle β at any zoom level. The user may select from ranging elements sized to a particular target 706 size. For example, the user selects a circle corresponding to a specific size target at a known distance (eg, a 6 foot target for an elk or other prey, or a 3 foot target for a boar or smaller prey). It's okay. Since there is only one range R in which the ranging element 704 accurately surrounds the target 706, the aiming device 700 can determine the range R based on the zoom level. The aiming device performs a calculation to determine the range R to the target 706. This range is used to calculate the trajectory and position the ROI. Range R may be displayed along with zoom level, crosswind speed, or other information.

図15〜図18は、複数の実施形態に従った標的に照準を定める方法を示している。図15は、照準デバイス又は光学デバイスにより標的に照準を定める第1の方法800を描いている。方法800は、光学デバイスの初期条件を受信する作業802から始まる。初期条件は、測距要素のサイズ及び測距要素に関連する射程を含んでよい。例えば、測距要素は、例えば6フィートの標的に基づいていてよく、予期される標的のサイズに応じてユーザにより選択されてよい。照準デバイスのプロセッサは、既知の測距要素を既知の射程に関連付け、こうして測距要素内部に合致する標的の射程が既知となるようにする。弾道情報、例えば銃口出口速度、発射体の重量又はタイプ、横風の速度及び方向、気圧、勾配、傾斜、周囲温度及び他の情報は、作業804において受信される。典型的には、この情報の多くが、使用に先立ち照準デバイスの記憶要素内にプログラミングされるが、横風速度は使用中に概ね設定される。画像、一般的にはFOVが、作業806において画像センサにより受信される。この画像の少なくとも一部分、すなわちROIは、作業810においてユーザに対し表示部上に表示される。その後、第1のズーム入力が、作業812において受信されてよく、第1のズームレベルが設定される。このズームレベルは、照準デバイスからの既知の距離に対応する。ズーム入力は、ユーザがとる行動、例えばボタン又はノブの起動、銃器の傾斜などに基づいてよい。照準デバイスがズームレベルを増大させるにつれて、この既知の距離における発射体位置(又はズームレベル)は、関連する弾道情報と共に、作業814において決定される。ズーム値及び発射体位置に基づいて、概ね発射体位置の周りのROIが、作業816にあるように、表示されてよい。表示された照準線は照準のために使用されてよいが、照準デバイスは、照準要素などのシンボルを照準線の交差点に表示して、発射体位置をさらに強調してよい。   15-18 illustrate a method for aiming a target according to embodiments. FIG. 15 depicts a first method 800 for aiming a target with an aiming device or optical device. Method 800 begins at operation 802 with receiving initial conditions for an optical device. The initial conditions may include a ranging element size and a range associated with the ranging element. For example, the ranging element may be based on a 6 foot target, for example, and may be selected by the user depending on the expected target size. The processor of the aiming device associates the known ranging element with the known range so that the range of the target that fits within the ranging element is known. Ballistic information, such as muzzle exit speed, projectile weight or type, crosswind speed and direction, barometric pressure, slope, tilt, ambient temperature, and other information is received at operation 804. Typically, much of this information is programmed into the storage element of the aiming device prior to use, but the crosswind speed is generally set during use. An image, typically an FOV, is received by the image sensor at operation 806. At least a portion of this image, i.e., ROI, is displayed on the display to the user at operation 810. Thereafter, a first zoom input may be received at operation 812, and a first zoom level is set. This zoom level corresponds to a known distance from the aiming device. Zoom input may be based on actions taken by the user, such as button or knob activation, firearm tilt, and the like. As the aiming device increases the zoom level, the projectile position (or zoom level) at this known distance is determined at operation 814 along with the associated ballistic information. Based on the zoom value and projectile position, the ROI around the projectile position may be displayed as at operation 816. Although the displayed aiming line may be used for aiming, the aiming device may display symbols such as aiming elements at the intersection of the aiming line to further enhance the projectile position.

図16は、ひとたび画像センサの最大ズームレベルに達した時点で、標的に照準を定める方法850を描いている。かかる条件は、標的が照準デバイスのユーザから極端に遠く、照準デバイスが、例えば図15に描かれた方法800を実行した後にその最大ズームレベルに達した場合に発生し得る。方法850は、最大ズームレベルを設定する最大ズーム入力を受信することによって、作業852で開始する。最大ズームレベルは、例えばひとたび画像センサのROIの解像度が表示された画像の解像度に合致した時点で、画像センサのROI及び表示された画像によって規定されてよい。最大限拡大された画像は、作業854で表示される。その後、第2のズーム入力が、作業856において第2のズーム値を設定する。前述の方法800とは異なり、最大ズーム値に達した後のさらなるズーム入力は、測距要素の表示されたサイズを縮小する。ズーム入力又はズームレベルに基づいて、測距要素のサイズが作業858において計算される。この調整された測距要素は次に、作業860において、最大に拡大された画像上に重ねられる。照準デバイスのズーム入力が増大するにつれて、この既知の距離における発射体位置(又はズームレベル)は、関連する弾道情報と共に、作業862において決定される。ズーム値及び発射体位置に基づいて、概ね発射体位置の周りの関心領域が、作業864にあるように、表示されてよい。図15の方法800にあるように、照準デバイスは、照準要素などのシンボルを表示して、発射体位置をさらに強調してよい。   FIG. 16 depicts a method 850 for aiming a target once the maximum zoom level of the image sensor has been reached. Such a condition may occur if the target is too far from the user of the aiming device and the aiming device reaches its maximum zoom level after performing the method 800 depicted in FIG. 15, for example. Method 850 begins at operation 852 by receiving a maximum zoom input that sets a maximum zoom level. The maximum zoom level may be defined by the ROI of the image sensor and the displayed image once the resolution of the ROI of the image sensor matches the resolution of the displayed image, for example. The maximum enlarged image is displayed at operation 854. Thereafter, a second zoom input sets a second zoom value in operation 856. Unlike the method 800 described above, further zoom input after the maximum zoom value is reached reduces the displayed size of the ranging element. Based on the zoom input or zoom level, the size of the ranging element is calculated in operation 858. This adjusted ranging element is then overlaid on the maximum magnified image at operation 860. As the aiming device zoom input increases, the projectile position (or zoom level) at this known distance is determined in operation 862 along with the associated ballistic information. Based on the zoom value and the projectile position, a region of interest generally around the projectile position may be displayed as at operation 864. As in method 800 of FIG. 15, the aiming device may display symbols such as aiming elements to further emphasize the projectile position.

図17は、標的に照準を定める方法900を示している。方法500は、弾道情報を受信するステップを含み、この情報の全て又は一部分は、メモリ内に記憶されてよい。作業904において、画像センサから1つの画像が受信される。作業906でズーム値が受信され、作業908で発射体の軌道が計算される。前述の方法の場合と同様に、ズーム値に基づくROIが、作業910において表示される。概して、ROIは少なくとも部分的に発射体位置に対応する。表示された照準線は照準のために使用されてよいが、照準デバイスは、照準線の交差点において照準要素などのシンボルを表示して、発射体位置をさらに強調してよい。作業912においては、表示された画像の一部分の上に測距要素を重ねることによって、標的までの射程が決定されてよい。射程を決定する他の方法も利用されてよい。作業914において、例えばユーザによるボタンの起動、照準デバイスの傾斜などによってひとたびズーム入力が受信された時点で、作業916において、更新済みROIが表示されてよい。   FIG. 17 illustrates a method 900 for aiming a target. Method 500 includes receiving ballistic information, all or a portion of which may be stored in memory. In operation 904, an image is received from the image sensor. In operation 906, the zoom value is received, and in operation 908, the trajectory of the projectile is calculated. Similar to the method described above, an ROI based on the zoom value is displayed at operation 910. Generally, the ROI corresponds at least in part to the projectile position. Although the displayed aiming line may be used for aiming, the aiming device may display symbols such as aiming elements at the crossing of the aiming line to further emphasize the projectile position. In operation 912, the range to the target may be determined by overlaying a ranging element on a portion of the displayed image. Other methods for determining range may also be utilized. In operation 914, the updated ROI may be displayed in operation 916 once a zoom input is received, for example, by activation of a button by the user, tilting of the aiming device, or the like.

標的に照準を定める別の方法1000が図18に描かれている。ここでは、カメラなどの画像センサが受信した画像が、作業1002において受信される。受信した画像の一部分である視野が、作業1004において表示される。表示された視野との関係における固定サイズを有する測距要素が、作業1006において、視野上に表示されるか又は重ねられる。作業1008では、標的サイズ入力が受信される。この標的サイズ入力は、デフォルトの標的サイズ入力(例えば高さ6フィートの標的についてのもの)であってもよいし、あるいは、入力は記憶デバイスから受信されてもよい。他の実施形態において、標的サイズ入力は、複数の既定の標的サイズから選択される。ズーム値を設定するズーム入力が作業1010において受信され、その後作業1012で、標的までの射程が計算される。   Another method 1000 for aiming at a target is depicted in FIG. Here, an image received by an image sensor such as a camera is received in operation 1002. A field of view that is a portion of the received image is displayed in operation 1004. A ranging element having a fixed size in relation to the displayed field of view is displayed or overlaid on the field of view in operation 1006. In operation 1008, a target size input is received. This target size input may be a default target size input (eg, for a 6 foot high target) or the input may be received from a storage device. In other embodiments, the target size input is selected from a plurality of predefined target sizes. A zoom input to set the zoom value is received at operation 1010, and then at operation 1012, the range to the target is calculated.

本明細書中に記載されている弾道ズーム技術は、カメラなどの画像センサを利用する照準デバイスのために利用されてよい。特定の実施形態においては、前述の従来の又はデフォルトのズーム(すなわち光学経路に沿ってズームレベル又は倍率が増大するズームシステム)に代って、1つのオプションとして、弾道ズームの使用を選択してもよい。こうして、射手は、特定のシナリオ、ユーザの選好性などのために所望される通りに、ズームシステム(弾道システム又は従来のシステム)を変更できる。さらに他の実施形態において、例えば図12A〜図12Cで描かれている照準線が発射体位置に関連付けされていない光学デバイスの設定が選択されてもよい。かかる実施形態においては、表示部が、所定距離における発射体位置に関連付けられる、照準線とは別個の1つ以上の照準要素を提示してよい。かかる実施形態においては、ROIが照準要素上にセンタリングされてよい。   The ballistic zoom technique described herein may be utilized for an aiming device that utilizes an image sensor, such as a camera. In certain embodiments, one may choose to use ballistic zoom as one option instead of the conventional or default zoom described above (ie, a zoom system that increases the zoom level or magnification along the optical path). Also good. In this way, the shooter can change the zoom system (ballistic system or conventional system) as desired for a particular scenario, user preferences, and the like. In still other embodiments, an optical device setting may be selected in which the line of sight depicted in FIGS. 12A-12C, for example, is not associated with a projectile position. In such embodiments, the display may present one or more aiming elements that are separate from the line of sight associated with the projectile position at a predetermined distance. In such embodiments, the ROI may be centered on the aiming element.

ここで図19及び20を参照すると、照準デバイス300は、武器内で使用すべき最高4つのタイプのカートリッジ/弾丸の組合せの各々について照準調整されてよい。前述の第1の実施形態の場合と同様に、ライフル銃などの武器上にターゲット装置300を当初整列させるためには、第一に、装置が武器上に組付けられ、既知の距離で「照準を定め」なければならない。作業シーケンスは、図19に概説されている。この手順は、武器の銃身に対する機械的アライメント変動についてデバイスを補償するために使用される。第1の垂直方向調整は、基準距離における機械的な「弾丸落下」についての補正と呼ばれる。典型的には、ライフル銃については、これは100ヤードの標的距離で行われる。組付け時の水平方向変動を補償するための第2の調整は、機械的「偏流」と呼ばれる。デバイス300について、これら調整は、ラップトップコンピュータ、iPad(登録商標)、スマートホン又はPCなどの外部デバイス上に常駐するソフトウェア内で行われ、ソフトウェアは、そのときハウジング301から取外された状態の制御/表示モジュール308上のUSBポート312を介して、デバイス300内のマイクロプロセッサ304にダウンロードされる。   Referring now to FIGS. 19 and 20, the aiming device 300 may be aimed for each of up to four types of cartridge / bullet combinations to be used in a weapon. As in the first embodiment described above, in order to initially align the target device 300 on a weapon such as a rifle, the device is first assembled on the weapon and is “sighted” at a known distance. Must be defined. The work sequence is outlined in FIG. This procedure is used to compensate the device for mechanical alignment variations relative to the barrel of the weapon. The first vertical adjustment is called correction for mechanical “bullet drop” at the reference distance. Typically for rifles this is done with a target distance of 100 yards. The second adjustment to compensate for horizontal variations during assembly is called mechanical “drift”. For device 300, these adjustments are made in software that resides on an external device such as a laptop computer, iPad®, smart phone or PC, and the software is then removed from housing 301. It is downloaded to the microprocessor 304 in the device 300 via the USB port 312 on the control / display module 308.

最初に、完全な銃身アライメントを仮定するデフォルト値と、期待される銃口速度(MV)値及び期待される弾道係数(BC)とが、図19に作業ステップ1101として示されている、デバイス300内にデフォルトとしてロードされる。次に、武器を標的射程まで持っていき、ここで例えば100ヤードなどの既知の距離に標的を設置し、作業1102においてデバイス300をその標的に照準する。好ましくは、これは、実行中の補正に影響を及ぼす横風が全く存在しない状態で行なわれる。その後、作業ステップ1103では、照準線が標的画像上にセンタリングされるような形でデバイス300が垂直(傾斜無し)に保たれ基本的に水平に照準されている状態で、第1のテスト射撃が発砲される。作業1104では、標的中心と弾丸衝撃間の偏差が測定され記録される。作業1105では、第2のテスト射撃が行なわれ、作業1106では、標的中心と弾丸衝撃間の偏差が記録される。これらテスト射撃は、作業1107において数回反復される。作業1108において、これら記録された偏差値の全てがソフトウェア内に入力されて、武器上の装置300についての機械的「高度」及び「偏流」補正値が生成される。最後に、作業1109において、装置のためにソフトウェアが決定した「高度」及び「偏流」補正値が、そのUSBポートを介してスコープデバイス300にダウンロードされる。   Initially, a default value assuming perfect barrel alignment, an expected muzzle velocity (MV) value, and an expected ballistic coefficient (BC) are shown in FIG. Loaded as default. The weapon is then brought to the target range, where the target is placed at a known distance, such as 100 yards, and the device 300 is aimed at the target in operation 1102. This is preferably done in the absence of any crosswinds that affect the correction being performed. Thereafter, in a work step 1103, the first test shooting is performed with the device 300 held vertically (no tilt) and basically aimed horizontally such that the line of sight is centered on the target image. Fired. In operation 1104, the deviation between the target center and the bullet impact is measured and recorded. In operation 1105, a second test shot is performed, and in operation 1106, the deviation between the target center and the bullet impact is recorded. These test shots are repeated several times in operation 1107. In operation 1108, all of these recorded deviation values are entered into the software to generate mechanical “altitude” and “drift” correction values for the device 300 on the weapon. Finally, in operation 1109, the “altitude” and “drift” correction values determined by the software for the device are downloaded to the scope device 300 via its USB port.

武器に合わせて正確に調整された適正な銃口速度(MV)及び弾道係数(BC)データを提供するために、種々の距離における追加のテスト発砲が必要とされる。これら作業については、図20を参照して説明される。これらステップは、ステップ1208に至るまで、図19にあるものと同じである。作業1209において、先行ステップが、複数の異なる距離について反復される。次に、作業1210において、ソフトウェア内に偏差が入力されて、データの最良適合を作り出し、武器内で発砲されている特定のカートリッジについての正確な銃口速度及び弾道係数データを生成する。これら値は、次に、作業1211においてデバイス300内にダウンロードされる。   Additional test firing at various distances is required to provide proper muzzle velocity (MV) and ballistic coefficient (BC) data that is precisely adjusted for the weapon. These operations will be described with reference to FIG. These steps are the same as in FIG. 19 up to step 1208. In operation 1209, the preceding step is repeated for a plurality of different distances. Next, at operation 1210, deviations are entered into the software to produce the best fit of the data and to generate accurate muzzle velocity and ballistic coefficient data for the particular cartridge being fired within the weapon. These values are then downloaded into the device 300 at operation 1211.

図20を参照して説明された通りのこのプロセスは、MV及びBC値が各組合せについて異なるものとなることから、最高4つの異なるカートリッジ装填/弾丸の組合せについて反復されなければならない。このプロセスがひとたび完了した時点で、デバイス300は、ターゲット装置300の正確な作動に必要とされる精密な銃口速度及び弾道係数をすでに「学習していることになる」。正確な横風偏流補正計算を実行するためには、射程、傾斜、MV、BC及び空気密度の値を得る必要がある。射程は、標的の画像が適正に表示部内の画像円を満たすまで、例えば10度超だけ、装置300及び武器を傾斜させることを介して手動で設定される。銃は次に、発砲の時点で全く横風が存在しない場合、10度未満、おそらくは垂直まで戻される。横風が存在する場合には、射手は単に適切に傾斜させ、表示された画像内の照準線201及び横風補正シンボル203に従って再度照準して試射する。空気密度の正確な決定のためには、温度及び周囲圧力の双方が極めて重要である。   This process as described with reference to FIG. 20 must be repeated for up to four different cartridge loading / bullet combinations since the MV and BC values will be different for each combination. Once this process is complete, the device 300 has already “learned” the precise muzzle velocity and ballistic coefficients required for the correct operation of the target device 300. In order to perform accurate crosswind drift correction calculations, it is necessary to obtain range, slope, MV, BC and air density values. The range is set manually via tilting the device 300 and the weapon, eg, more than 10 degrees, until the target image properly fills the image circle in the display. The gun is then returned to less than 10 degrees, perhaps vertical if there is no crosswind at the time of firing. If there is a crosswind, the shooter simply tilts appropriately and aims again according to the aiming line 201 and the crosswind correction symbol 203 in the displayed image. Both temperature and ambient pressure are critical for accurate determination of air density.

ハウジング301の内部に制御/表示モジュール308が設置された時点で、温度と圧力の値はもはや環境条件を正確に反映しないだろうという点に留意することが重要である。したがって、制御/表示モジュールは、適正な温度及び圧力が反映され得るように、射撃サイトに到着するまで設置するべきではなく、あるいは、少なくとも射撃サイトに到着した時に一時的に取外すべきである。射撃サイトに到着した時点で、ユーザは、制御/表示モジュール308をリセットするためにバッテリ36を取外し、リセットし、これにより制御/表示モジュール308がハウジング301の内部に再設置される前に圧力及び温度の値を測定させ記憶させることができる。制御/表示モジュールが完全に設置された場合、センサ303とセンサのマイクロプロセッサ及びマイクロプロセッサ304は双方共、接点322によって、カメラモジュール319が接続されていることを検出し、したがって、レンズカバーが取外された時点でビデオを提示すべきであることが分かっている。   It is important to note that when the control / display module 308 is installed inside the housing 301, the temperature and pressure values will no longer accurately reflect the environmental conditions. Therefore, the control / display module should not be installed until it reaches the shooting site, or at least temporarily removed when it reaches the shooting site, so that the proper temperature and pressure can be reflected. Upon arrival at the shooting site, the user removes and resets the battery 36 to reset the control / display module 308, so that the pressure and pressure before the control / display module 308 is reinstalled inside the housing 301. Temperature values can be measured and stored. When the control / display module is fully installed, both sensor 303 and the sensor's microprocessor and microprocessor 304 detect that camera module 319 is connected by contact 322, and therefore the lens cover is removed. We know that videos should be presented when removed.

作業中、デバイス100又は300のいずれかのユーザは、単に武器を標的に照準し、武器を10度超だけ反時計回りに傾斜させて標的上で視覚的にズームインし、その後、表示部内で適切にサイズ調整された場合、武器を垂直まで戻し、かつ知覚された横風に応じて武器をわずかに左又は右に傾斜させ試射する。射程は、弾丸落下のため適切に表示画像を上又は下にシフトさせるマイクロプロセッサを介して自動的に補正される。照準線は、センタリングされた状態にとどまり、射程補正は、自動的に提供される。横風偏流補正は、射手が横風の推定値に対応する10度未満の角度で装置を傾斜させ、照準線内の標的に直接照準することによって、自動的に行なわれる。この傾斜により、照準線がセンタリングされた状態で正しい照準が残されるように、表示画像が右又は左にシフトさせられる。横風偏流補正は、図2に示された画像表示内でインジケータ203により示されている。   While working, the user of either device 100 or 300 simply aims the weapon at the target and tilts the weapon counterclockwise by more than 10 degrees to visually zoom in on the target, then in the display When sizing, the weapon is brought back to vertical and the weapon is tilted slightly to the left or right depending on the perceived crosswind. Range is automatically corrected through a microprocessor that shifts the displayed image up or down appropriately for bullet fall. The line of sight remains centered and range correction is automatically provided. Crosswind drift correction is performed automatically by the shooter tilting the device at an angle of less than 10 degrees corresponding to the estimated crosswind and aiming directly at the target in the line of sight. This tilt shifts the display image to the right or left so that the correct aim remains with the aiming line centered. Crosswind drift correction is indicated by an indicator 203 in the image display shown in FIG.

こうして、デジタル照準デバイスの独特の設計及び概念が図示され説明されている。本明細書は、特定の実施形態に向けられているものの、当業者であれば、本明細書に示され記載されている具体的な実施形態に対する変更及び/又は変形を思い付くことを理解されたい。かかる変更又は変形は全て、本明細書にも含まれるように意図されている。本明細書中の説明は、単に例示的となるように意図されており、限定的となるようには意図されていないことを理解されたい。むしろ、本明細書に記載された本発明の範囲は、本明細書に添付した請求の範囲によってのみ限定される。   Thus, the unique design and concept of the digital aiming device is shown and described. While this specification is directed to particular embodiments, it should be understood that those skilled in the art will envision changes and / or modifications to the specific embodiments shown and described herein. . All such modifications or variations are intended to be included herein. It should be understood that the description herein is intended to be illustrative only and is not intended to be limiting. Rather, the scope of the invention described herein is limited only by the claims appended hereto.

本明細書には、本技術の例示的かつ好適な実施形態とみなされるべきものが記載されているが、本技術の他の変更が本明細書中の教示から当業者に明らかになるであろう。本明細書に開示された詳細な作動及び製造方法並びに構成は、本来例示的であり、限定的とみなされるべきではない。したがって、本技術の精神及び範囲内に入る全ての変更が添付した請求の範囲内で保証されることが所望される。したがって、特許証による保証が所望されるのは、次の請求の範囲内で規定され識別される通りの技術、及び全ての均等物である。   While the specification describes what is considered to be exemplary and preferred embodiments of the technology, other modifications of the technology will become apparent to those skilled in the art from the teachings herein. Let's go. The detailed operation and manufacturing methods and configurations disclosed herein are exemplary in nature and should not be considered limiting. Accordingly, it is desired that all modifications that come within the spirit and scope of the technology are guaranteed within the scope of the appended claims. Accordingly, what is desired by a patent is the technology as defined and identified within the following claims, and all equivalents.

Claims (19)

標的に照準を定める方法において、
− 光学デバイスの初期条件を受信するステップであって、前記初期条件が測距要素のサイズ及び前記測距要素のサイズに関連付けられた射程を含む、ステップと;
− 弾道情報を受信するステップと;
− 画像センサから画像を受信するステップと;
− 表示部上に前記画像の少なくとも一部分を表示するステップと;
− 前記画像の表示された部分上に前記測距要素を重ね合わせるステップと;
− 第1のズーム値を設定するために第1のズーム入力を受信するステップであって、前記第1のズーム値が前記光学デバイスからの第1の距離に対応する、ステップと;
− 前記第1の距離及び前記弾道情報に基づいて第1の発射体位置を決定するステップと;
を含む方法。
In a method of aiming at a target,
Receiving an initial condition of the optical device, the initial condition comprising a ranging element size and a range associated with the ranging element size;
-Receiving ballistic information;
-Receiving an image from the image sensor;
-Displaying at least a portion of the image on a display;
Superimposing the ranging element on the displayed part of the image;
-Receiving a first zoom input to set a first zoom value, wherein the first zoom value corresponds to a first distance from the optical device;
-Determining a first projectile position based on the first distance and the ballistic information;
Including methods.
少なくとも部分的に前記第1の発射体位置及び前記第1のズーム値に基づいて第1の関心領域を表示するステップをさらに含む、請求項1に記載の方法。   The method of claim 1, further comprising displaying a first region of interest based at least in part on the first projectile position and the first zoom value. 前記第1の発射体位置に対応する第1のシンボルを表示するステップをさらに含む、請求項2に記載の方法。   The method of claim 2, further comprising displaying a first symbol corresponding to the first projectile position. − 最大ズーム値を設定するために最大ズーム入力を受信するステップであって、前記最大ズーム値が関心画像センサ領域と関心表示領域とによって規定される、ステップと;
− 前記最大ズーム値に関連付けられた最大拡大画像を表示するステップと;
− 第2のズーム値を設定するために第2のズーム入力を受信するステップであって、前記第2のズーム値が光学デバイスからの第2の距離に対応する、ステップと;
− 調整された測距要素のサイズを計算するステップと;
− 表示された最大拡大画像上に前記調整された測距要素を重ねるステップと;
− 前記第2の距離及び前記弾道情報に基づいて第2の発射体位置を決定するステップと;
− 少なくとも部分的に前記第2の発射体位置及び前記第2のズーム値に基づいて、第2の関心領域を表示するステップと;
をさらに含む、請求項1に記載の方法。
Receiving a maximum zoom input to set a maximum zoom value, wherein the maximum zoom value is defined by an image of interest sensor area and an area of interest display;
Displaying a maximum magnified image associated with the maximum zoom value;
-Receiving a second zoom input to set a second zoom value, wherein the second zoom value corresponds to a second distance from the optical device;
-Calculating the size of the adjusted ranging element;
-Overlaying the adjusted ranging element on the displayed maximum magnified image;
-Determining a second projectile position based on the second distance and the ballistic information;
-Displaying a second region of interest based at least in part on the second projectile position and the second zoom value;
The method of claim 1, further comprising:
前記第2の発射体位置に対応する第2のシンボルを表示するステップをさらに含む、請求項4に記載の方法。   The method of claim 4, further comprising displaying a second symbol corresponding to the second projectile position. 前記第1のシンボルが、標的における衝撃点及びガイドシンボルのうちの少なくとも一方を含む、請求項3に記載の方法。   The method of claim 3, wherein the first symbol comprises at least one of an impact point at a target and a guide symbol. 前記第1の発射体位置の決定作業が少なくとも部分的に横風入力に基づいている、請求項1に記載の方法。   The method of claim 1, wherein the first projectile position determination operation is based at least in part on crosswind input. 前記第1の発射体位置の決定作業が、少なくとも部分的に発射体情報入力、周囲温度入力、勾配入力、傾斜入力、銃口出口速度入力、及び気圧入力に基づいている、請求項1に記載の方法。   2. The first projectile position determination operation is based at least in part on projectile information input, ambient temperature input, gradient input, tilt input, muzzle outlet velocity input, and air pressure input. Method. 画像センサがカメラを含む、請求項1に記載の方法。   The method of claim 1, wherein the image sensor comprises a camera. 標的に照準を定める方法において、
− 弾道情報を受信するステップと;
− 画像センサから画像を受信するステップと;
− ズーム値を受信するステップと;
− 少なくとも部分的に弾道情報に基づいて発射体軌道を計算するステップと;
− ズーム値に基づいて関心領域を表示するステップであって、関心領域が少なくとも部分的に発射体軌道に対応する、ステップと;
を含む方法。
In a method of aiming at a target,
-Receiving ballistic information;
-Receiving an image from the image sensor;
-Receiving a zoom value;
-Calculating a projectile trajectory based at least in part on the ballistic information;
-Displaying the region of interest based on the zoom value, the region of interest at least partially corresponding to the projectile trajectory;
Including methods.
前記標的までの射程を決定するステップをさらに含む、請求項10に記載の方法。   The method of claim 10, further comprising determining a range to the target. 決定作業が、
− 表示部上に前記画像の少なくとも一部分を表示するステップと;
− 前記画像の一部分上に測距要素を重ねるステップと;
を含む、請求項11に記載の方法。
The decision work
-Displaying at least a portion of the image on a display;
-Overlaying a ranging element on a portion of the image;
12. The method of claim 11 comprising:
− ズーム入力を受信するステップであって、前記ズーム入力が更新済みズーム値を含む、ステップと;
− 前記更新済みズーム値に基づいて更新済みの関心領域を表示するステップと;
をさらに含む、請求項10に記載の方法。
-Receiving a zoom input, the zoom input including an updated zoom value;
-Displaying an updated region of interest based on the updated zoom value;
The method of claim 10, further comprising:
標的に照準を定める方法において、
− 画像センサから画像を受信するステップと;
− 前記受信した画像の少なくとも一部分を表示するステップであって、前記表示された一部分が表示された視野を含む、ステップと;
− 前記表示された視野との関係において固定サイズを伴う測距要素を表示するステップと;
− 標的サイズ入力を受信するステップと;
− ズーム値を設定するためにズーム入力を受信するステップと;
− 少なくとも部分的に前記標的サイズ入力及び前記ズーム値に基づいて標的までの射程を計算するステップと;
を含む方法。
In a method of aiming at a target,
-Receiving an image from the image sensor;
-Displaying at least a portion of the received image, comprising the field of view in which the displayed portion is displayed;
-Displaying a ranging element with a fixed size in relation to said displayed field of view;
-Receiving a target size input;
-Receiving a zoom input to set a zoom value;
-Calculating a range to the target based at least in part on the target size input and the zoom value;
Including methods.
前記標的サイズ入力が、デフォルト標的サイズ入力を含む、請求項14に記載の方法。   The method of claim 14, wherein the target size input comprises a default target size input. 前記標的サイズ入力を受信するステップが、記憶デバイスから前記標的サイズ入力を受信するステップを含む、請求項14に記載の方法。   The method of claim 14, wherein receiving the target size input comprises receiving the target size input from a storage device. 前記標的サイズ入力が、複数の既定の標的サイズから選択される、請求項14に記載の方法。   The method of claim 14, wherein the target size input is selected from a plurality of predefined target sizes. 標的に照準を定めるための装置であって、
− ハウジングと;
− 表示部と;
− 画像センサと;
− 前記装置をデフォルトズームモード及び弾道ズームモードで選択的に作動させるように構成されたコントローラと、
を含む装置において、
− 前記デフォルトズームモードにある場合、ズームレベルの増大が、前記装置から前記標的までの光学経路に沿った視野を変化させ、
− 前記弾道ズームモードにある場合、前記ズームレベルの増大が、前記装置からの弾道経路に沿った前記視野を変化させる、
装置。
A device for aiming at a target,
-With a housing;
-A display;
-With an image sensor;
A controller configured to selectively operate the device in a default zoom mode and a ballistic zoom mode;
In an apparatus including:
When in the default zoom mode, an increase in zoom level changes the field of view along the optical path from the device to the target;
-When in the ballistic zoom mode, increasing the zoom level changes the field of view along the ballistic path from the device;
apparatus.
前記デフォルトズームモードでは、発射体の衝撃点が表示部上に表示され、前記表示部上のシンボルの位置がズームレベルに基づいて変化する、請求項18に記載の装置。   19. The apparatus according to claim 18, wherein in the default zoom mode, a projectile impact point is displayed on a display unit, and a position of a symbol on the display unit is changed based on a zoom level.
JP2016568464A 2014-02-07 2015-02-04 Optical device utilizing ballistic zoom and method of aiming at target Active JP6643254B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/175,803 2014-02-07
US14/175,803 US9250036B2 (en) 2012-03-05 2014-02-07 Optical device utilizing ballistic zoom and methods for sighting a target
PCT/US2015/014424 WO2015156899A2 (en) 2014-02-07 2015-02-04 Optical device utilizing ballistic zoom and methods for sighting a target

Publications (3)

Publication Number Publication Date
JP2017509858A true JP2017509858A (en) 2017-04-06
JP2017509858A5 JP2017509858A5 (en) 2018-03-15
JP6643254B2 JP6643254B2 (en) 2020-02-12

Family

ID=53724433

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016568464A Active JP6643254B2 (en) 2014-02-07 2015-02-04 Optical device utilizing ballistic zoom and method of aiming at target

Country Status (8)

Country Link
EP (1) EP3102905A2 (en)
JP (1) JP6643254B2 (en)
KR (1) KR20160127350A (en)
CN (1) CN106062501B (en)
PH (2) PH12016501424B1 (en)
RU (1) RU2674720C2 (en)
TW (1) TWI649533B (en)
WO (1) WO2015156899A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449953B1 (en) * 2021-09-16 2022-09-30 김구한 Apparatus and method for correcting detection error of GIS-based artillery detection radar

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI679395B (en) * 2016-02-23 2019-12-11 大陸商信泰光學(深圳)有限公司 Bi-reticle sight
KR20180062781A (en) * 2016-12-01 2018-06-11 (주)에프티에스 Video shooting training system and medthod for sniper
US10907934B2 (en) 2017-10-11 2021-02-02 Sig Sauer, Inc. Ballistic aiming system with digital reticle
CN107830764B (en) * 2017-11-10 2019-10-25 合肥英睿系统技术有限公司 A kind of method of sight, device, a kind of electronic aiming mirror and a kind of firearms
WO2021146730A1 (en) 2020-01-17 2021-07-22 Sig Sauer, Inc. Telescopic sight having ballistic group storage
CN111692916B (en) * 2020-06-01 2023-07-18 中光智控(北京)科技有限公司 Aiming device and aiming method
CN113091512B (en) * 2021-04-07 2023-06-02 合肥英睿系统技术有限公司 Shooting device aiming method and device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003090698A (en) * 2001-09-20 2003-03-28 Mitsubishi Electric Corp Small arm sighting device
EP1748273A1 (en) * 2005-07-25 2007-01-31 Bushnell Performance Optics Telescopic sight and method for automatically compensating for bullet trajectory deviations
JP2008501932A (en) * 2004-06-07 2008-01-24 レイセオン カンパニー Electronic sight for small firearms and operation method thereof
JP2008061224A (en) * 2006-07-07 2008-03-13 Honeywell Internatl Inc Passive optical locator
US7656579B1 (en) * 2007-05-21 2010-02-02 Bushnell Inc. Auto zoom aiming device
JP2010117125A (en) * 2003-07-21 2010-05-27 Raytheon Co Electronic firearm sighting device, and method for operating same
US20110168777A1 (en) * 2009-09-11 2011-07-14 Laurence Andrew Bay System and Method for Ballistic Solutions
DE102011018947A1 (en) * 2011-04-29 2012-10-31 Lfk-Lenkflugkörpersysteme Gmbh Firearm aiming device and firearm, and method for aligning a firearm
US20130228618A1 (en) * 2012-03-05 2013-09-05 James Allen Millett Dscope aiming device

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4665622A (en) * 1985-11-18 1987-05-19 Elbit Computers, Ltd. Optical sighting device
CN101101192B (en) * 2007-07-19 2010-08-04 上海远超微纳技术有限公司 Double viewing field gun electronic range measurement and aiming device
US8336776B2 (en) * 2010-06-30 2012-12-25 Trijicon, Inc. Aiming system for weapon
IL211966A (en) * 2011-03-28 2016-12-29 Smart Shooter Ltd Firearm, aiming system therefor, method of operating the firearm and method of reducing the probability of missing a target
US8705173B2 (en) * 2012-01-04 2014-04-22 Leupold & Stevens, Inc. Optical rangefinder and reticle system for variable optical power sighting devices
CN103245254B (en) * 2012-02-04 2017-08-15 贝尔雷斯公司 Optical devices with projection alignment point

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003090698A (en) * 2001-09-20 2003-03-28 Mitsubishi Electric Corp Small arm sighting device
JP2010117125A (en) * 2003-07-21 2010-05-27 Raytheon Co Electronic firearm sighting device, and method for operating same
JP2008501932A (en) * 2004-06-07 2008-01-24 レイセオン カンパニー Electronic sight for small firearms and operation method thereof
EP1748273A1 (en) * 2005-07-25 2007-01-31 Bushnell Performance Optics Telescopic sight and method for automatically compensating for bullet trajectory deviations
JP2008061224A (en) * 2006-07-07 2008-03-13 Honeywell Internatl Inc Passive optical locator
US7656579B1 (en) * 2007-05-21 2010-02-02 Bushnell Inc. Auto zoom aiming device
US20110168777A1 (en) * 2009-09-11 2011-07-14 Laurence Andrew Bay System and Method for Ballistic Solutions
DE102011018947A1 (en) * 2011-04-29 2012-10-31 Lfk-Lenkflugkörpersysteme Gmbh Firearm aiming device and firearm, and method for aligning a firearm
US20130228618A1 (en) * 2012-03-05 2013-09-05 James Allen Millett Dscope aiming device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102449953B1 (en) * 2021-09-16 2022-09-30 김구한 Apparatus and method for correcting detection error of GIS-based artillery detection radar

Also Published As

Publication number Publication date
PH12016501424A1 (en) 2016-08-15
WO2015156899A2 (en) 2015-10-15
TWI649533B (en) 2019-02-01
TW201541054A (en) 2015-11-01
CN106062501B (en) 2018-09-25
RU2016130091A (en) 2018-03-15
RU2674720C2 (en) 2018-12-12
WO2015156899A3 (en) 2015-12-03
RU2016130091A3 (en) 2018-06-26
EP3102905A2 (en) 2016-12-14
PH12018500991A1 (en) 2019-01-28
PH12016501424B1 (en) 2016-08-15
CN106062501A (en) 2016-10-26
KR20160127350A (en) 2016-11-03
JP6643254B2 (en) 2020-02-12

Similar Documents

Publication Publication Date Title
US9689643B2 (en) Optical device utilizing ballistic zoom and methods for sighting a target
JP6643254B2 (en) Optical device utilizing ballistic zoom and method of aiming at target
US8807430B2 (en) Dscope aiming device
US8881981B2 (en) Digital targeting scope apparatus
CA2569721C (en) Electronic sight for firearm, and method of operating same
US9482516B2 (en) Magnification compensating sighting systems and methods
US20150247702A1 (en) Feedback display for riflescope
US8074394B2 (en) Riflescope with image stabilization
US9285189B1 (en) Integrated electronic sight and method for calibrating the reticle thereof
US20170284771A1 (en) True Calibration by Matching Relative Target Icon and Indicators to Relative Target
TW201432215A (en) Digital targeting scope apparatus
EP2950034A1 (en) A method and an apparatus for target aiming
US11327175B2 (en) Method for determining a substitute distance between a location and a substitute impact point of a projectile
WO2022251896A1 (en) Method and system for sight target alignment
JP2006003020A (en) Rifle scope

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180202

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180202

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190108

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190702

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R150 Certificate of patent or registration of utility model

Ref document number: 6643254

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250