JP7150851B2 - ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス - Google Patents

ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス Download PDF

Info

Publication number
JP7150851B2
JP7150851B2 JP2020530439A JP2020530439A JP7150851B2 JP 7150851 B2 JP7150851 B2 JP 7150851B2 JP 2020530439 A JP2020530439 A JP 2020530439A JP 2020530439 A JP2020530439 A JP 2020530439A JP 7150851 B2 JP7150851 B2 JP 7150851B2
Authority
JP
Japan
Prior art keywords
scope
target
target position
position data
estimated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020530439A
Other languages
English (en)
Other versions
JP2020533606A (ja
Inventor
ダグラス・フォグニース
ラリー・エル・デイ
ロバート・エー・プレスマン
テイラー・ジェイ・カーペンター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Publication of JP2020533606A publication Critical patent/JP2020533606A/ja
Application granted granted Critical
Publication of JP7150851B2 publication Critical patent/JP7150851B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G1/00Sighting devices
    • F41G1/38Telescopic sights specially adapted for smallarms or ordnance; Supports or mountings therefor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/02Aiming or laying means using an independent line of sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/04Aiming or laying means for dispersing fire from a battery ; for controlling spread of shots; for coordinating fire from spaced weapons
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/06Aiming or laying means with rangefinder
    • F41G3/065Structural association of sighting-devices with laser telemeters
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/14Indirect aiming means
    • F41G3/16Sighting devices adapted for indirect laying of fire
    • F41G3/165Sighting devices adapted for indirect laying of fire using a TV-monitor
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G9/00Systems for controlling missiles or projectiles, not provided for elsewhere
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C17/00Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/45Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
    • G01S19/47Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W84/00Network topologies
    • H04W84/18Self-organising networks, e.g. ad-hoc networks or sensor networks

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Telescopes (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Radar Systems Or Details Thereof (AREA)

Description

関連出願の相互参照
本出願は、2017年8月11日に出願した米国特許出願第62/544,124号および2018年8月7日に出願した米国特許出願第16/057,247号の利益を主張するものであり、これらの特許出願の開示全体が参照により本明細書に組み込まれる。
「スコープ」とも呼ばれる、画像を拡大するか、または拡大することなく単に光を通すレンズを組み込む照準または光学式ビューワは、光学式屈折望遠鏡またはその他の光学式観察器具に基づく照準器(sighting device)である。照準または光学式ビューワは、正確な照準点(aiming point)を与えるためにその光学系内の光学的に適切な位置に取り付けられた何らかの形態のグラフィック画像パターン(レティクルまたは十字線(cross-hair))を含む。照準眼鏡(telescopic sight)が、正確な狙いを必要とするすべての種類のシステムによって使用され、小火器、特にライフルに最もよく見られる。照準眼鏡は、観察者の照準器からターゲットまでの距離を測定する組み込まれた距離計(典型的には、レーザー距離計)を含む可能性がある。
コンパスは、地理的な「方位」または「地点(point)」に対する方向を示すナビゲーションおよび方向付けのために使用される機器である。「羅針図」の図は、北、南、東、および西の方向をコンパス上に記された短縮されたイニシャルとして示す。コンパスが使用されるとき、羅針図は、たとえば、羅針図の「N」の印が本当に北を指すように対応する地理的方向に揃えられ得る。羅針図に加えてまたはときには羅針図の代わりに、度数による角度の印が、コンパス上に示される可能性がある。北は、ゼロ度に対応し、角度は、東が90度、南が180度、西が270度であるように時計回りに増加する。これらの数は、この表記法においてよく言われるアジマス(azimuth)またはベアリング(bearing)をコンパスが示すことを可能にする。
GPSデータは、典型的には、3次元位置(緯度、経度、および高度(高さ(elevation)))を提供する。たとえば、フィラデルフィア内の位置のサンプルのGPSは、以下のとおりである。
緯度: 39.90130859
経度: -75.15197754
海水面に対する高度(高さ): 5m
GPS位置データを提供するためのGPS受信機および姿勢データを提供するための方位センサーを含む小型化されたGPSデバイスが、知られている。方位センサーは、加速度計および地球磁場センサーまたはセンサーの別の組合せからそのデータを導出する可能性がある。本発明における使用に好適である1つのそのような小型化されたGPSデバイスは、ユタ州SalemにあるInertial Sense, LLCから市販されているデバイスである。このデバイスは、「μINS」および「μINS-2」として市販されている(「INS」は、「慣性ナビゲーションシステム(Inertial Navigation System)」の産業界の略語である)。μINSおよびμINS-2は、GPS支援型慣性ナビゲーションシステム(GPS/INS: GPS-aided Inertial Navigation System)である。GPS/INSは、慣性ナビゲーションシステム(INS)からのソリューションを訂正または較正するためにGPS衛星信号を使用する。
本発明における使用に好適である別の知られている小型GPS/INSは、テキサス州DallasにあるVectorNav Technologies, LLCから市販されているデバイスである。このデバイスは、「VN-300」として市販され、デュアルアンテナGPS/INSである。VN-300のデュアルアンテナの特徴は、正確なコンパスデータを提供することを可能にする。
ネットワークテクノロジーは、当技術分野においてよく知られている。ネットワーク内の各デバイスは、ノードと呼ばれることが多く、ノードは、ハブアンドスポークおよびメッシュを含む様々なネットワークトポロジーを使用してネットワークへと形成され得る。セルラに基づく通信システムにおいて、ノードは、1つまたは複数の基地局を通じて通信し、さらに、それらの基地局は、移動通信交換局(MSC)に直接的にまたは間接的に接続される。MSCは、セルラネットワーク内のノードが異なる基地局に接続されるその他のノードと通信することを可能にする業界標準に基づいて相互に接続される。GSM(登録商標)、LTE、およびCDMAなどの多くのセルラ規格が存在し、セルラネットワークの一般的な特徴はノードがインターネットに接続することを可能にする能力である。
ブロードバンド衛星通信システムは、コンステレーションへと編成された1つまたは複数の通信衛星を使用する。Globalstar、Iridium、およびInmarsatによって運用されるシステムを含む多くの商用衛星システムが、存在する。セルラと同様に、ブロードバンド衛星通信システムは、ノードがインターネットに接続することを可能にする。セルラに置き換えてみると、コンステレーションの各衛星が、基地局として動作し、システム内のノードは、範囲内の衛星に接続する。衛星システムの1つの利点は、僻地におけるカバレッジがより優れていることがあることである。
ワイヤレスローカルエリアネットワーク(WLAN)テクノロジーは、ノードがネットワークを確立することを可能にする。一般的なWLAN規格は、802.11a、b、g、およびnを含む。802.11sは、WiFiに基づくメッシュネットワーキング規格である。Bluetooth(登録商標)はネットワーク内のノードを接続するための別の規格であり、BluetoothスペシャルインタレストグループによってBluetooth LE規格にメッシュネットワーキング能力が最近追加された。したがって、様々な規格によって、ポイントツーポイント、ポイントツーマルチポイント、およびメッシュWLANを実装することが可能であり、これらのすべてが、本発明による使用に好適である。
メッシュネットワークトポロジーは、各ノードが複数のその他のノードに接続されることが可能であり、ネットワーク内のいかなるノードからいかなるその他のノードへも必要とされる経路がないので、特に、限られたセルラサービスが存在する僻地においてモバイルデバイスのための大きな利点を有する。メッシュネットワークのさらなる利点は、メッシュネットワーク内の任意の1つのノードがセルラまたは衛星接続を介するなどしてインターネットにアクセスすることができる限りメッシュネットワーク内のノードのすべてがアクセスすることができるということである。
本発明による使用に好適である代表的なワイヤレスメッシュネットワーキングチップセットは、両方ともノルウェイにあるRadiocrafts ASおよびTinymeshから市販されているRC17xx(HP)(商標)(Tinymesh(商標) RF Transceiver Module)である。チップセットは、メッシュネットワークを作るためのTinymeshアプリケーションを組み込む。本発明のための理想的なメッシュネットワークチップセットは、小さく、ハイパワーで、範囲が広く、免許不要のスペクトル内で動作するべきである。
米国特許第5,568,152号 米国特許第4,949,089号
1つまたは複数のリードスコープ(lead scope)および1つまたは複数のフォロワスコープ(follower scope)を含むスコープのネットワークが、それぞれのスコープのスコープの操作者が同じ推定されたターゲットを追跡することを可能にするために提供される。リードスコープが、ターゲットの位置を特定し、推定されたターゲットのターゲットの位置データをフォロワスコープに伝達する。フォロワスコープは、ターゲットの位置データおよびそのフォロワスコープ自体の位置データを使用して、リードスコープから受信されたターゲットの位置データによって定義されたターゲットの位置に向かって移動させるためにフォロワスコープをそのフォロワスコープの現在のターゲットの位置から位置修正するために位置の移動を行うようにフォロワスコープの操作者に促すために使用されるためのインジケータを電子的に生成する。
上述の概要、および本発明の好ましい実施形態の下の詳細な説明は、添付の図面に関連して読まれたときにより深く理解されるであろう。本発明を説明する目的で、図面は、現在の好ましい実施形態を示す。しかし、本発明は、示される厳密な構成および手段に限定されない。
本発明の好ましい実施形態によるシステムの構成要素の概略図である。 本発明の好ましい実施形態によるシステムの構成要素の概略図である。 本発明の好ましい実施形態によるシステムの構成要素の概略図である。 本発明の好ましい実施形態によるシステムの構成要素の概略図である。 本発明の好ましい実施形態による光学式照準の図である。 本発明の好ましい実施形態による光学式照準の図である。 本発明の好ましい実施形態による光学式照準の図である。 本発明の1つの好ましい実施形態によるスコープのディスプレイ上に表示される可能性があるサンプルの予め設定されたリストを示す図である。 本発明の好ましい実施形態による流れ図である。 本発明の好ましい実施形態による流れ図である。 本発明の好ましい実施形態による流れ図である。
特定の用語が、本明細書において単に便宜的に使用され、本発明に対する限定として受け取られるべきでない。
本発明の好ましい実施形態は、静止したまたは移動するターゲットである可能性がある同じターゲットに狙いを定めるように設計されるネットワークに接続されたスコープを有するデバイスを提供する。2つのスコープを含む第1の実施形態において、「リードスコープ」は、ターゲットを特定し、ターゲットに関する位置データを「フォロワスコープ」に伝達し、フォロワスコープは、リードスコープからの位置データならびにフォロワスコープ自体の位置および向きデータを使用してターゲットに狙いを定める。2スコープ構成において、リードスコープおよびフォロワスコープは、セルラ、衛星、または1つもしくは複数のWLANテクノロジーを含む任意の利用可能なワイヤレスデータ通信テクノロジーによって通信する。
複数のスコープを含む第2の実施形態においては、第1のスコープが、ターゲットを特定し、ターゲットに関する位置データを複数のその他のスコープに伝達し、複数のその他のスコープは、第1のスコープからの位置データならびに複数のその他のスコープのそれぞれの位置および向きデータを使用してターゲットに狙いを定める。この実施形態において、追加的なスコープがターゲットの位置を特定するとき、それらの追加的なスコープは、ターゲットに関するそれらの追加的なスコープの位置データをネットワークサーバに伝達し、ネットワークサーバは、ターゲットを特定した各スコープから蓄積される位置データを合併して次第にターゲットのより精密な位置データを定義し(つまり、より多くのデータ点が位置の精度を高める)、そして、その位置データが、まだターゲットの位置を特定していないスコープに伝達される。ターゲットの位置を既に報告したスコープも、ターゲットを追跡するのを支援するためにターゲットの最新の位置データを受信する可能性がある。この実施形態のスコープは任意の利用可能なWLANテクノロジーを使用して接続され得るが、好ましい実施形態においては、複数のスコープが互いに通信することを可能にするためにメッシュネットワーキングテクノロジーが使用される。スコープのいずれか1つがネットワークサーバの機能を実行することが可能であるか、またはスコープのうちの1つがWLANへの接続性を失う場合に備えて冗長化のためにネットワークサーバの機能が複数のスコープに分散されることが可能であることは、理解される。理想的には、スコープのうちの少なくとも1つが、インターネットに接続され、したがって、ネットワーク内のその他のスコープは、メッシュネットワークを介して接続されたスコープを通じてインターネットにアクセスすることができる。
ターゲットが移動する物体である可能性があるので、ターゲットを特定したスコープに関するターゲットの位置データは、まだターゲットの位置を特定していないスコープに連続的にストリーミングされる。代替的に、ターゲットの位置は、リードスコープがターゲットを指定するスイッチを作動させるときにのみ送信される。システムのより進んだバージョンにおいては、ターゲットが移動しているとき、スコープおよび/またはネットワークサーバは、知られている技術を使用して、同じ方向への継続した移動を想定してターゲットの将来の位置を予測する。
I. 定義
以下の定義は、本発明の理解を促進するために与えられる。
デバイス - デバイスは、スコープが組み込まれる物体である。そのようなデバイスの例は、ライフル、銃砲、双眼鏡、スマートメガネまたはゴーグル、ヘルメットバイザー、ならびにドローンを含む。特定の種類のデバイスは、それら自体が双眼鏡、望遠鏡、およびスポッティングスコープ(spotting scope)などの「スコープ」である。デバイスは、手持ち型である可能性であるか、または地上の、空中の、または水上水中の乗り物に取り付けられる可能性がある。
ターゲット - ターゲットは、関心のある物体である。ターゲットは、人、動物、または物である可能性があり、静止しているかまたは移動しているかのどちらかである可能性がある。
リードスコープ - リードスコープは、ターゲットを特定する第1のスコープである。第1の実施形態においては、1つのリードスコープのみ存在する。第2の実施形態においては、リードスコープは、ターゲットの位置を特定した第1のスコープのみである。ターゲットを特定するそれ以後のスコープは、本明細書においては単に「スコープ」と呼ばれる。1つの好ましい実施形態においては、ネットワーク内の任意のスコープが、リードスコープとして機能し得る。
フォロワスコープ - フォロワスコープは、リードスコープが特定した同じターゲットに狙いを定めようと試みるスコープである。第1の実施形態においては、1つまたは複数のフォロワスコープが存在する可能性がある。第2の実施形態において、フォロワスコープは、(リードスコープを含む)スコープの以前の組が特定したターゲットにまだ狙いを定めていないスコープのすべてを含む。1つの好ましい実施形態においては、ネットワーク内の任意のスコープが、フォロワスコープとして機能し得る。
II. 詳細な説明
以下の説明は、デバイスのスコープの各々が同様の機能を有し、リードスコープかまたはフォロワスコープかのどちらかとして機能し得ると仮定する。しかし、代替的な実施形態においては、特定のスコープが、リードの役割またはフォロワの役割に専用である可能性があり、特定のスコープが、その他のスコープよりも多いまたは少ない機能を有する可能性がある。
スコープを有するデバイスは、以下の測定デバイス(またはそれらの均等物)の各々を含む。
1. GPS/INSデバイス(デバイスの位置データを提供する)(GPS受信機、ジャイロスコープ、および加速度計などの2つ以上の異なるデバイスとして実装される可能性がある)
2. 距離計(デバイスのスコープからターゲットまでの距離を提供する)。好ましい実施形態においては、レーザーテクノロジーが距離を検出するために距離計によって使用されるが、光学式の距離測定などのその他のテクノロジーも使用される可能性がある。光学式の距離測定システムの1つの例は、一連のレンズおよび鏡を使用して二重像を生成し、距離のしるしを有するダイアルまたはその他のコントローラが、2つの像の位置を揃えるために調整される。
3. コンパス(スコープの位置に対するターゲットの方向(北、南、東、および西)を提供する)。コンパスは、独立したデバイスである可能性があり、またはGPS/INSに組み込まれ、GPSコンパスを使用して方向を決定する可能性がある。GPSコンパスは、2つのアンテナを有することが多く、デバイスが双眼鏡である場合、1つの選択肢は、それぞれの鏡胴にアンテナを配置することである。離間するために1つもしくは複数の折りたたみ式のアーム、ブーム(boom)、空気よりも軽いバルーン(lighter than air balloon)、もしくはその他の機械的手段を使用すること、またはRFもしくは光接続を通じて第2のアンテナを接続することによるなどして、GPSコンパスによって使用されるアンテナの離間を大きくすることによって、正確性が高められ得る。
4. 方位センサー(姿勢データ、すなわち、決まった水平面に対するデバイスの指す角度を提供する(たとえば、真っ直ぐ前を指す場合、0度、空の鳥もしくは飛行機を指す場合、上に30度、または谷に向かって下に向けられる場合、-10度))
5. 高さセンサー(任意)(海水面またはその他の基準点からの絶対的な高さを提供する)。これは、典型的には、場合によっては特に正確ではないGPS/INSによって決定された高さの正確性を補う気圧センサーである。代替的に、GPS/INSが地形図を組み込むかまたはネットワークに接続されたスコープを通じて地形図にアクセスすることができるかのどちらかである場合、地面までの距離を決定するために超音波またはその他の近接センサーが使用される可能性がある。たとえば、GPSの位置が海水面から500フィートである地形図上の位置に対応し、近接センサーがスコープから地面までの距離が5フィートであると決定する場合、正確な高さ505フィートが、スコープによって知られる。
これらの測定デバイスからのデータは、GPS座標などで表される可能性があるターゲットの位置を計算するために使用される。
以下で詳細に検討されるように、それぞれの上で特定された測定デバイスに関して、様々な度合いの正確性および期待される誤差範囲が存在する。測定デバイスに関連するテクノロジーが向上するにつれて、より正確な測定デバイスを使用することによってスコープの動作を改善し、ターゲットの位置のより正確な予測を提供することが可能になる。
A. 第1の実施形態に関する例示的なステップ
1. リードスコープを含むデバイスの操作者が、推定されたターゲットを特定する。
2. デバイスの操作者が、十字線もしくはその他のターゲットのしるしの中心をターゲットの中心に合わせるか、またはタッチパッドもしくは視線追跡センサーなどのポインティングデバイスを使用して十字線をターゲットの中心に移動させるかのどちらかを行う。
3. 操作者が、任意で、ターゲットを指定させるためのボタンを押す。
4. 十字線の位置に基づいて連続的に動作しない場合、距離計が作動させられ、測定デバイスからのデータがメモリに記憶される。
5. リードスコープが、記憶された方向および距離測定データに基づいてターゲットの局所的なAER(アジマス、高さ、距離)位置を計算する。局所的なAER位置を大域的な位置に変換するために、記憶された位置測定データを使用して計算が行われる。好ましい実施形態において、大域的な位置は、GPS座標として示される。場合によっては、ターゲットの位置に関連する正確性または推定される誤差も、リードスコープによって決定される。同じ結果を得る代替的な実装は、フォロワスコープまたはネットワークサーバなどのネットワークに接続されたその他のデバイスに、位置データとは対照的に、記憶された測定データをワイヤレス送信することを含む。この代替的な実施形態においては、フォロワスコープまたはネットワークサーバが、測定データからターゲットの位置および場合によっては推定される誤差または正確性を計算する。決定された位置データおよび誤差もしくは正確性データ(収集もしくは決定された場合)かまたは測定データかのどちらかが、フォロワスコープに送信される。上の動作によって、1つまたは複数のフォロワスコープは、ワイヤレスで位置データを受信するか、またはリードスコープによって送信された受信された測定データから位置データを計算するかのどちらかである。
6. システムがネットワークサーバを含み、ネットワークサーバがリードスコープによって送信された測定デバイスからの生データを受信する場合、ネットワークサーバが、ターゲットの位置を計算し、データを記憶する。ネットワークサーバが計算されたターゲットの位置を受信する場合、ネットワークサーバは、このデータを記憶し、その他のスコープに転送する。システムが、ネットワークサーバなしに運用されることが可能であり、ネットワークサーバによって実行されるものとして説明される特徴が、ネットワーク内の任意のスコープもしくはデバイスによって、またはインターネットを介してスコープが接続されるリモートネットワークサーバによって実行される可能性があることは理解される。
7. 別のデバイス上のフォロワスコープが、リードスコープによって計算されたターゲットの位置をリードスコープかまたはネットワークサーバかのどちらかからワイヤレスで受信する。
8. フォロワスコープを含むデバイスが、同じ1組の測定デバイス(またはそれらの均等物)も含む。フォロワスコープは、そのフォロワスコープ自体の位置データおよびターゲットの位置を使用してベアリングおよび姿勢を計算し、フォロワスコープは、リードスコープと同じターゲットの位置を指すように狙いをつけるべきである。代替として、フォロワスコープは、測定デバイスの縮小された組を含み、削減された機能で動作する可能性がある。たとえば、距離計がフォロワスコープに含まれていないとするならば、そのことは、リードスコープとしての機能を制限していたはずである。
9. ターゲットの位置に狙いを定めるためにスコープをどこに動かすべきかに関してフォロワスコープの操作者に指示する(案内をする)ために、フォロワスコープのデバイス上に視覚的な(案内をする)インジケータが表示される。たとえば、フォロワスコープの接眼部(eyepiece)が、視覚的なインジケータを含む可能性がある。代替的に、デバイスまたはスコープに取り付けられたディスプレイが、視覚的なインジケータを提供する可能性がある。視覚的なインジケータは、方向矢印、LEDライト、テキストメッセージ(たとえば、左へ移動、上へ移動)などである可能性がある。音声インジケータも、使用される可能性がある。
10. リードスコープがその物理的な位置またはその照準位置(aiming position)を動かし、ターゲットが位置を変えられたことを示す場合、計算が自動的に再実行され、フォロワスコープに送信され、その結果、フォロワスコープはターゲットの探索を続けることができる。同様に、フォロワスコープがその初期位置から移動する場合、フォロワスコープ内の案内インジケータの表示を更新するために、たとえリードスコープの物理的な位置または照準位置に変更が行われないとしてもターゲットへのベクトルのフォロワスコープにおける計算が再び行われなければならない。
代替的な実施形態においては、リードスコープからの生測定データのみが、ネットワークサーバまたはその他のスコープに受け渡され、各フォロワスコープが、リードスコープからの生測定データを使用してリードスコープのターゲットの位置を計算する。つまり、フォロワスコープが生測定データを受信する場合、フォロワスコープは、ターゲットに対するそのフォロワスコープ自体のデバイスの相対的位置を決定することができる前にリードスコープのターゲットの位置の計算を実行しなければならない。
さらなる選択肢は、スコープに組み込まれたまたは取り付けられたデジタルイメージセンサーを使用してターゲットのデジタル画像を取り込み、フォロワスコープの操作者がそれが何を探しているか分かるようにフォロワスコープにデジタル画像を送信する能力を含む。さらなる選択肢は、フォロワスコープがそれがターゲットを見ていることをリードスコープに信号で送り返し、ターゲットのフォロワスコープの眺めのデジタル画像を送信することである。ターゲットのデジタル画像を取り込むことは、軍および法律執行機関に特有の応用を有する可能性がある。たとえば、スコープのうちの少なくとも1つがインターネットに接続され、デジタル画像が人の顔である場合、デジタル画像が、顔認識を使用して顔をマッチングしようと試みるデータベースにインターネットを通じて送信する可能性がある。一致が特定されると、ターゲットについてのさらなる情報がスコープの各々に提供される可能性がある。通常の顔認識の代替として、歩き方(gait)、および熱撮像装置とともに使用されるときに人の顔のデジタルフィンガープリントを形成し得る顔の血管のパターンなどのその他の生体測定値が、取り込まれ得る。
上の説明においては、通常の光学システムが画像を取り込むために使用されると仮定される。しかし、暗視装置および赤外線前方監視装置(forward looking infrared)などの代替物も、使用される可能性がある。
B. 第2の実施形態に関する例示的なステップ
第2の実施形態のステップは、(上述のようにネットワーク内のスコープのうちの1つまたは複数である可能性がある)ネットワークサーバがターゲットを特定した各スコープから蓄積される推定された位置データを合併して次第にターゲットのより精密な位置データを定義する(つまり、より多くのデータ点が位置の精度を高める)ために上述の追加的な計算を実行し、そして、その位置データが、まだターゲットの位置を特定していないスコープに伝達されることを除いて第1の実施形態と同様である。さらに、ネットワークサーバは、(複数のリードスコープからなどの)複数のターゲットを記憶し、それらをネットワーク内の各フォロワスコープに伝達することができる。
C. ネットワークに接続されたスコープに関する使用の例
接続されたライフルのスコープ: 2人のハンターが、狩りをしている。1人のハンターが、獲物を見つけ、2人のハンターのスコープの狙いを同じ獲物に定めるためにもう1人のハンターに信号を送る。スコープが画像取り込みおよび表示デバイスを備えている場合、獲物の画像が、第1のハンターから第2のハンターに送信される可能性があり、第2のハンターは、第2のハンターがターゲットを見たことを接続されたスコープを使用して第1のハンターに信号で伝え、場合によって、第2のハンターが見た画像を第1のハンターに送り返す可能性がある。第1のハンターがターゲットを見失った場合、第2のハンターが、リードスコープになり、ターゲットを再び獲得しようと試みる第1のハンターにターゲットの位置(または生測定データ)を送り返す。
接続された双眼鏡: 2人のバードウォッチャーが、野鳥観察をしている。1人のバードウォッチャーが、鳥を見つけ、2人のバードウォッチャーの双眼鏡の狙いを鳥に定めるためにもう1人のバードウォッチャーに信号を送る。
接続されたドローンおよびライフルのスコープ: 法律執行機関によって運用されるドローンが、現場で銃撃容疑者の位置を特定する。接続されたライフルスコープで武装した警察官が、ドローンによって最初に決定され、警察官の接続されたライフルスコープ内で銃撃犯をその後特定する警察官から収集されたその後の位置データによってさらに改善される銃撃容疑者の位置データに導かれる。
D. システムアーキテクチャ
図1Aは、複数のデバイス10(デバイス1~デバイスn)および非デバイス/非スコープノード12(node1~noden)がワイヤレス通信および電子ネットワーク18を介してネットワークサーバ16と通信するシステム図を示す。電子ネットワーク18は、デバイス10をネットワークサーバ16に接続する実線によって表される。電子ネットワーク18は、任意の好適な種類のワイヤレス電子ネットワーク(たとえば、ローカルエリアネットワーク、広域ネットワーク(インターネット))によって実装される可能性がある。1つまたは複数の非デバイス/非スコープノード12(node1~noden)の機能は、下で説明される。図1Aにおいては、少なくともネットワークサーバ16が、インターネット20に接続される。
図1Bは、本発明の好ましい実施形態における使用に好適であるメッシュネットワーク22のトポロジーを示す。好ましくは、複数のデバイス10およびネットワークサーバ16は、メッシュネットワーク22内のノード24であり、したがって、これらの要素は、図1Aにおいてノード24としてラベル付けされる。このようにして、ノード24の各々は、メッシュネットワーク22を介して互いに通信することができる。この構成においては、ネットワークサーバ16が、メッシュネットワーク22内の別のノード24になるか、またはネットワークサーバ16が、存在しないか、デバイスのスコープのうちの1つもしくは複数が、ネットワークサーバ16によって実行されるものとして本明細書において説明される機能を実行するかのいずれかである。図1Bにおいては、ノード24の少なくとも1つが、インターネット20に接続される。さらに、メッシュネットワーク22の外にあるが、インターネット20を介してメッシュネットワーク22内のノード24と通信することができる1つまたは複数のノード26が、存在する可能性がある。
本発明の範囲は、その他の種類のネットワークトポロジーを含み、サーバがハブにあるハブアンドスポークネットワークアーキテクチャに限定されない。デバイス/ノードは、(たとえば、アドホックネットワークである可能性もあるポイントツーポイント接続を介して)ワイヤレスで互いに直接接続される可能性がある。各デバイス/ノードは、セルラまたは衛星接続を有し、クラウド(すなわち、インターネット)を通じて互いに接続する可能性がある。各デバイス/ノードは、地上にあるか、または係留された熱気球もしくは決まった空通の位置に留まるようにプログラミングされたドローンのように空中にある可能性があるワイヤレスルータを通じて互いに接続する可能性がある。
さらに、第2の実施形態において、デバイス/ノードは、異なる方法でネットワークに接続する可能性がある。たとえば、6ノードのネットワークにおいて、ノードのうちの5つがメッシュネットワーク22の範囲内にある可能性がある。しかし、第6のノードは、範囲外にあり、インターネット20を介してセルラまたはネットワーク信号によってネットワークに接続される可能性がある。
図2は、リードスコープかまたはフォロワスコープかのどちらかを含む可能性がある(またはどちらかである可能性がある)サンプルのデバイス10の要素を示す。デバイス10は、少なくとも以下の要素に接続されたプロセッサ30を含む。
1. GPS/INS 32
2. (独立しているかまたはGPS/INSに組み込まれるかのどちらかであることが可能である)コンパス34
3. 距離計36
4. 方位センサー38(姿勢)
5. 改善された正確性のための高さセンサー40(任意)
6. スコープ42(スコープの構造はデバイスの種類に応じて決まる)
7. (独立しているかまたはスコープに統合されるかのどちらかである可能性がある)視聴覚ディスプレイデバイス44
8. 有線またはワイヤレス通信トランシーバ48と通信するネットワークインターフェース46
9. メモリ50
視聴覚ディスプレイデバイス44は、プロンプト/メッセージおよびインジケータをユーザに提供する要素である。フォロワスコープにおいては、視聴覚ディスプレイデバイス44によって提供される情報が、ユーザがターゲットに狙いを定めるのを支援する。デバイス10の種類およびデバイス10が使用される環境に応じて、視聴覚ディスプレイデバイス44によって提供される映像のみ、音声のみ、または音声と映像との両方が存在する可能性がある。
図3は、プロセッサ52、メモリ54、人工知能ソフトウェアを使用して実装され得る画像分析および操作ソフトウェア(IAMS: image analysis and manipulation software)56、ならびに有線またはワイヤレス通信トランシーバ60と通信するネットワークインターフェース58を含むネットワークサーバ16の要素を示す。
個々のデバイス10およびネットワークサーバ16のプロセッサの機能は、システムアーキテクチャおよびコンピューティング機能の分散に応じて決まる。本明細書において説明されるように、これらの機能の一部が、プロセッサ30かまたはプロセッサ52かのどちらかにおいて実行されることが可能であり、一方、その他の機能は、ネットワークサーバのプロセッサ52によって実行される可能性がある。
図4A~図4Cは、それぞれ、統合された視聴覚ディスプレイデバイスを有するライフルのための光学的照準(スコープ)を示す。図4Aにおいて、ディスプレイデバイスは、ゼロ度の位置に置かれ、現在は「左へ移動」と書かれている。図4Bにおいて、ディスプレイデバイスは、ゼロ度、90度、180度、および270度の4つの別々のエリアを有する。図4Bのディスプレイデバイスは、左へ移動するために現在指示している(270度の左矢印が実線によって示されるようにオンである一方、上、右、および下のその他の3つの矢印は破線によって示されるようにオフである)。図4Cは、ユーザが位置を特定しようと試みているべき画像を示す追加的なディスプレイ要素を含むことを除いて図4Aと同様である。これらの図の方向プロンプトは、このライフルが現在フォロワスコープとして機能していることを示す。
III. さらなる考慮事項
A. ターゲットの位置の重み付け
GPSデータおよびその他の測定デバイスから推定されたターゲットの位置を計算するとき、リードスコープおよびフォロワスコープによってもたらされる知られている定量化可能な誤差が存在する可能性があり、それらの誤差は、離散的な値(たとえば、+/-20cm)によって表され得る。特定の種類の誤差は、測定デバイスの固有の制限に基づいてスコープ毎に一貫している。その他の種類の誤差は、GPS信号の強度などの信号強度またはリードスコープの位置を計算するために使用される衛生の数に応じて決まる可能性がある。それぞれの計算されたターゲットの位置に関して、リードスコープ、フォロワスコープ、および/またはネットワークサーバが、誤差値を特定する。更新されたターゲットの位置を計算するために複数のスコープからのターゲットの位置を合併し、累積するとき、誤差値が、各ターゲットの位置に与えられる強度を重み付けするために使用される可能性がある。
様々なアルゴリズムが、ターゲットの位置を処理するために使用される可能性がある。たとえば、最も小さな誤差値を有するターゲットの位置は、より重く重み付けされる可能性がある。代替的に、その他のターゲットの位置の誤差値と比較して非常に大きな誤差値を有するターゲットの位置は、計算から除外される可能性がある。ターゲットの位置をより正確に予測するために追加的なデータを使用する1つの方法は、3次元グリッド上にそれぞれの推定されたターゲットの位置を表す点を置き、推定されるターゲットを表すデータの中心点または平均の位置を推定することである。中心点は、上で検討されたように重み付けに基づいて調整され得る。
ターゲットの位置の重み付けのために誤差値を使用することに加えて、時間的要因が使用される可能性がある。たとえば、最も最近観測されたターゲットの位置は、より大きな重み付けを与えられる可能性がある。特定のターゲットの位置は、観測時間から時間の所定の期間が過ぎた後、重み付けから完全に削除される可能性がある。
時間的要因は、ターゲットの種類がIAMSによっておよび/またはスコープによって決定される(たとえば、車、人、鹿)実施形態に関して、ターゲットの性質によって影響を受ける可能性もある。時間的要因は、ゆっくり移動するターゲットと比較して速く移動するターゲットに関してより重要である可能性が高い。したがって、速く移動するターゲット(たとえば、車)に関して、最も最近観測されたターゲットの位置は、極めて大きな重み付けを与えられる可能性があり、より古いターゲットの位置は、よりゆっくり移動するターゲットと比較して重み付けからより早く削除される可能性が高い。
通常速く移動するターゲットが実際は移動していない可能性があり(たとえば、止まっている車)、通常ゆっくり移動するターゲットが実際は速く移動している可能性がある(たとえば、走っている人または鹿)ので、IAMSは、ターゲットが実際に移動しているかどうかおよび移動している場合にはどの速度で移動しているかを判定するために様々なアルゴリズムを使用する可能性もある。そして、この計算は、時間的要因に関して使用される可能性がある。たとえば、ターゲットが静止しているように見える場合、時間的要因は重み付けに適用されない。アルゴリズムは、複数の観測されたターゲットの位置を見る可能性があり、それらのターゲットの位置がそれらのそれぞれの誤差値を織り込んだ後に比較的同じであり、大きく異なる(つまり、時間的にあまり近くない)時間間隔で観測された場合、ターゲットは静止していると結論づけられ得る。逆に、複数の観測されたターゲットの位置がそれらのそれぞれの誤差値を織り込んだ後に大きく異なり、時間的に非常に近くで観測された場合、ターゲットは移動していると結論づけられることが可能であり、時間的要因が重み付けにおいて使用されるべきである。
B. 誤差インジケータ
1つの好ましい実施形態においては、視覚的なインジケータが、デバイスの操作者にとって有用である形態で誤差情報を視覚的に伝達する。たとえば、推定されたターゲットの位置がデバイスのディスプレイスクリーン上のドットによって表される場合、ターゲットが誤差のボックス(error box)内のエリアのいずれかの中にある可能性があり、厳密にドットが示している場所にあるとは限らないことをデバイスの操作者が知るように、誤差のボックスがドットの周りに重ね合わされる可能性がある。第2の実施形態において、誤差のボックスは、おそらく、より多くのターゲットの位置が一連のフォロワスコープによって特定されるにつれて小さくなっていく。
誤差情報が伝達される厳密な方法は、推定されたターゲットの位置がフォロワデバイス(follower device)上にどのようにして表示されるかに応じて決まる。
測定センサー、特にGPSテクノロジーの進歩は、正確性を高め、誤差を小さくする。ある時点で、誤差は、誤差インジケータがユーザエクスペリエンスを高めないほど十分に小さい可能性がある。
C. 画像表示およびシミュレーション
一実施形態において、ターゲットは、ドットなどのディスプレイスクリーン上の1次元オブジェクトによって表される。代替的な実施形態において、ターゲットは、ディスプレイスクリーン上のシミュレーションされた2次元または3次元画像によって表される。デジタル画像が取り込まれ、送信される場合、ターゲットの実際の画像が、スクリーン上に表示される可能性がある。ニューラルネットワークなどの人工知能(AI)技術を使用して実装される可能性がある画像分析および操作ソフトウェア(IAMS)を使用して、シミュレーションプロセスは、ターゲットがフォロワスコープに対して適切に位置付けられて見えるようにターゲットが回転させられることを可能にする。以下の例を考えられたい。
1. リードスコープが、1/4マイル離れており、デバイスの正面を向いている鹿(ターゲット)を特定する。
2. 鹿のターゲットの位置および鹿の物理的な画像が、スコープによって取り込まれ、ネットワークサーバに伝達される。
3. ネットワークサーバ内のまたはインターネットを介して遠隔でアクセスされるIAMSが、画像内の重要な視覚的特徴を特定し、これらの特徴を知られている物体と比較してターゲットを鹿の正面の図としてカテゴリー分けし、そのデータベースから鹿のシミュレーションされた画像を取り出す。
4. フォロワスコープが鹿に関するターゲットの位置データを受信し、フォロワスコープがやはり鹿からおよそ1/4マイルにあるが、リードスコープと比較して90度外れていると判定される。そのとき、IAMSは、フォロワスコープが鹿がどのように見える可能性が高いかを知るように、シミュレーションされた鹿を90度回転させ、フォロワスコープに表示するために鹿の側面の図を伝達することができる。
5. 物理的な画像データが複数のスコープから取り込まれた後、IAMSは、ターゲットの3-D画像を構築し、それによって、ターゲットのより本物らしい図がターゲットをまだ探しているフォロワスコープに表示されることを可能にすることができる。IAMSは、ターゲットの3-D画像をどのようにして回転させるべきかを知るために両方の位置が必要であるので、レンダリングを実行するためにリードスコープとフォロワスコープとの両方の位置を知らなければならない。実際の画像が取り込まれる場合、1つの選択肢は、IAMSが画像をシミュレーションするのではなく実際の画像を組み合わせることである。
6. 法律執行機関の応用においては、IAMSが、顔認識またはその他の生体測定技術を使用してターゲットの画像を人とマッチングしようと試みる可能性がある。一致がある場合、ターゲットについての情報が、スコープに返される可能性がある。
7. スコープに組み込まれた画像表示システムのさらなる応用は、高解像度の航空画像または地形図を取り出し、ターゲットのおおよその位置の何らかのしるしと一緒にフォロワスコープのディスプレイ上に航空画像または地図を表示するフォロワスコープの能力である。誤差情報が知られている場合、ボックスが航空画像または地形図上に表示され、ターゲットがある可能性があるエリアを示すことができる。スコープをターゲットに向ける、リードスコープによって見られるターゲットの画像を提供する、および誤差のボックスと一緒にターゲットのおおよその位置を含む航空図または地形図を提供する特徴を組み合わせることによって、ターゲットを見つけるプロセスが、著しく促進される。
第3の実施形態において、ターゲットは、スコープの視野内にあるとき、ディスプレイ上のバウンディングボックスまたは強調された画像セグメントによって表される。ターゲットのデジタル画像が取り込まれる場合、IAMSが、将来の収集された画像内のターゲットの物体の認識を可能にする画像内の重要な視覚的特徴を特定するために使用される可能性がある。フォロワスコープの視野がターゲットに近付くとき、前に特定されたターゲットの重要な視覚的特徴と現在の視野内の特徴との間にパターンの一致があるかどうかを判定するために、フォロワスコープの視野のデジタル画像バッファがIAMSによって処理される。ターゲットの画像の特徴を見つけると、ターゲットが視覚的に示される。フォロワスコープが光学式ディスプレイ(optical display)を有する場合、1つの実施形態は、特定の色でターゲットを強調するかまたはターゲットの周りにボックスを描くために作動される透過的なディスプレイオーバーレイを含む。フォロワスコープが視覚的ディスプレイ(visual display)を有する場合、マッチングされたターゲットが、上述のように指定される。以下の例を考えられたい。
1. リードスコープが、1/4マイル離れており、デバイスの正面を向いている鹿(ターゲット)を特定する。
2. 鹿のターゲットの位置および鹿の物理的な画像が、スコープによって取り込まれ、ネットワークサーバに伝達される。
3. ネットワークサーバ内のまたはインターネットを介して遠隔でアクセスされるIAMSが、コンピュータビジョン技術を使用して画像をセグメント分けし、バックグラウンド画像からターゲットを分離する。
4. IAMSが、鹿の枝角および鹿の体側の白い斑点上の点などの画像セグメント内の1組の重要な特定可能な特徴を生成する。
5. フォロワスコープが鹿に関するターゲットの位置データを受信し、フォロワスコープがやはり鹿からおよそ1/4マイルにあるが、リードスコープと比較して45度外れていると判定される。そのとき、IAMSは、特徴がフォロワスコープの視野内で何に見えるはずであるかを知るように、ターゲットに対応する視覚的特徴の組を45度回転させることができる。
6. フォロワスコープが、ターゲットの位置に関する指示によって案内されて、大まかにターゲットの方向を狙う。フォロワスコープの現在の視野の画像が、処理のためにフォロワスコープが移動するときにIAMSに送信される。
7. IAMSが、到着するフォロワスコープの画像に対してパターンマッチングを実行し、画像内の重要な特徴を、ターゲットスコープ(target scope)から生成され、フォロワスコープの見ている角度に関して調整されたターゲットの特徴の組と比較する。パターンの一致が発生する場合、フォロワスコープの視野内のターゲットの位置が、フォロワスコープに送信される。
8. フォロワスコープが、ディスプレイ内でターゲットの位置を強調するバウンディングボックスのオーバーレイを提示する。
9. 物理的な画像データが複数のスコープから取り込まれた後、IAMSが、複数の角度からの重要な特定する特徴のより大きな組を構築することができる。
D. ターゲットの位置の計算
測定データからのターゲットの位置の計算は、GPSデータに依拠する知られている技術のいずれか1つによって実行される可能性がある。参照により本明細書に組み込まれる米国特許第5,568,152号(Jankyら)は、ターゲットから間を空けられ、ビューワ/距離計を通じてターゲットを見ている観察者によってターゲットの位置を決定するための方法を開示する。やはり参照により本明細書に組み込まれる米国特許第4,949,089号(Ruszkowski, Jr.)は、同様の方法を開示する。任意のそのような方法が、ターゲットの位置を計算するために使用される可能性がある。
ターゲットに対するフォロワスコープの位置を計算するために、実質的にリードスコープの計算の逆を実行しなければならない。フォロワスコープは、そのフォロワスコープのGPS座標を知っており、リードスコープまたはネットワークサーバからターゲットのおおよそのGPS座標を受信済みである(またはリードスコープから生測定データをワイヤレスで直接的にもしくは間接的に受信することに基づいてターゲットの位置を計算済みである)。この情報を用いて、フォロワスコープ(またはネットワークサーバもしくはネットワーク内の別のノード)は、2つのGPS座標の間の経路を計算する。実質的に点Aから点Bへの2次元の方向を決定しているだけである乗り物の経路とは異なり、フォロワスコープは、そのフォロワスコープの位置からターゲットの位置までの精密なベクトルおよび距離も決定する。フォロワスコープがGPS/INSデバイスも有するので、フォロワスコープは、ターゲットへの計算されたベクトルに関する情報を使用してフォロワスコープをターゲットへのベクトルと一直線になるように向けるようにユーザに指示する。
以下の例を考えられたい。フォロワスコープが、デバイスのユーザが水平面内で真西(270度)を現在見ており、ターゲットへのベクトルが真北(0度)であると判定すると仮定する。フォロワスコープは、右矢印を表示するか、または時計回りの回転が必要とされることをその他の方法で示し、ユーザが0度に向けられるときの点で(表示されるまたは口頭の合図によって)ユーザを止める。その点で、フォロワスコープは、垂直面内のベクトルを決定する。たとえば、フォロワスコープが水平であるが、ターゲットへのベクトルがそれよりも10度低い場合、フォロワスコープは、フォロワスコープの角度が垂直面内でターゲットへのベクトルに一致するまでフォロワスコープの角度を下げるようにユーザに指示する。上の例は、ユーザが始めに水平面内で、次に垂直面内でターゲットに向けられると仮定する。しかし、右矢印と下矢印との両方を同時に表示することによってフォロワスコープを水平面と垂直面との両方の中でフォロワスコープを同時に方向付けることが、可能である。また、GPS/INSデバイスのおかげで、フォロワスコープは、GPSコンパスを使用してそのフォロワスコープの向きおよび方向を常に知っている。
E. 赤外線センサー/熱シグネチャ(heat signature)
上述の通常の光学的な方式の実施形態に加えて、スコープの代替的な実施形態は、ターゲットの熱シグネチャを検出するための赤外線前方監視センサーを組み込む。距離計を使用して、システムは、選択された熱シグネチャに対応するターゲットの位置を検出し、それから、関心のあるターゲットの画像を送信することに加えてまたはその代わりに、システムは、熱シグネチャを送信する。
F. 非視覚的ディスプレイ
好ましい実施形態はシステム内のその他のデバイスに画像および/または熱シグネチャを送信するが、デバイスの少なくとも一部は、視覚的ディスプレイを持たない可能性がある。その場合、フォロワスコープは、フォロワスコープのユーザをターゲットに向けるために単に方向矢印またはその他のしるしに依拠する可能性がある。
G. 音声プロンプト
フォロワスコープを向けるための方向矢印またはその他のしるしの代わりに、デバイスを(たとえば、上、下、左、右に)移動させるようにユーザに指示する、有線でまたはBluetoothによるなどしてワイヤレスで接続されたフォロワスコープとヘッドフォンとの間の接続が、使用される可能性がある。
H. 距離情報の直接的な使用
上述の実施形態において、距離計からの距離情報は、フォロワスコープにおいてターゲットを特定するために使用されない。光学式のスコープおよび双眼鏡は可変の距離に焦点を合わせるので、ターゲット情報への案内は、ユーザが見るまたは焦点を合わせる正しい距離を知ることを可能にするためのしるしも含む可能性がある。音声の実施形態においては、より近くにまたはより遠くに焦点を合わせる、より近くを見るなどのためのコマンドが与えられる可能性がある。言い換えると、ユーザは、知られているターゲットの位置およびフォロワスコープの知られている位置に基づいて計算されたベクトルに沿って既に見ている。ターゲットから遠すぎるのかまたは近すぎるのかを知るために、距離計が使用され得る。たとえば、ターゲットは、1マイル離れている可能性があるが、ユーザは、現在1.5マイル離れたところを見ている。
I. ターゲットの印付け
リードスコープは、ターゲットに印を付けるために十字線またはレティクルなどのその他のターゲット選択のしるしを組み込む可能性がある。印を付けられると、距離計は、ターゲットまでの距離を検出し、システムは、ターゲットの座標を決定し、上述のようにフォロワスコープにターゲットの位置を通知するか、またはターゲットの座標を記憶するために利用可能なネットワークサーバと通信する。
J. トリガスイッチ
ライフルまたは銃砲の応用において、リードスコープは、フォロワスコープに情報を送信するためのスイッチをトリガの上のまたはトリガの近くのセンサーに組み込む可能性がある。
K. ディスプレイのためのオーバーレイ
より複雑なフォロワスコープは、より高解像度のディスプレイを含み、リードスコープから受信された視覚的情報およびフォロワスコープをターゲットに向けるしるしをフォロワスコープの光学的な視野に重ねるために拡張現実技術を利用する可能性がある。オーバーレイは、ヘッドアップディスプレイもしくは均等物によってまたは完全なデジタルディスプレイに切り替えることによって実装される可能性がある。
L. ターゲットの画像の取り込み
ターゲットの画像は、デジタルカメラにおいて使用される様々な技術と実質的に同一の方法で取り込まれる可能性がある。リードスコープのユーザがターゲットを指定する時点で、鏡が、デジタルSLRの動作と同様に折りたたまれ、像をイメージセンサーに導く可能性がある。リードスコープは、鏡を使用しないミラーレスまたはコンパクトカメラと同様に動作する可能性もある。
M. 手の動きに関する調整
ユーザによるデバイス(たとえば、ライフル/銃砲、双眼鏡)の手の動きが原因であるリードスコープの位置の移動は、システムに不安定さをもたらす可能性がある。この問題に対処するために、タッチパッドまたはその他のポインティングデバイスが、デバイスに取り付けられ、ターゲット上で十字線またはその他のターゲットのしるしを動かすために使用される可能性がある。ターゲットがタグ付けされると、距離が、距離計を使用して十字線の中心までの距離に基づいて決定される。場合によっては、使用される距離測定テクノロジーに応じて、最小限の音を立てるリニアまたはその他の静音モーターを使用してターゲットを指すように機械的に距離計の向きを直すことが、必要である可能性がある。距離が決定されると、ターゲットの位置の計算が、実行され、リードスコープの向きと、十字線が中心から外された量に基づいて決定された向きまでのオフセットとの間のオフセットに関して調整される。
N. 地上の障害物
場合によっては、地上の特徴(たとえば、丘、山)が、フォロワスコープとターゲットとの間のベクトルの経路上にある可能性がある。たとえば、リードスコープがターゲットの真北1マイルにあり、フォロワスコープが真南2マイルにある場合、フォロワスコープとターゲットとの間に丘がある可能性がある。詳細な地形図およびナビゲーションツールが、容易に利用され得る。たとえば、モンタナ州BillingsのTrimble(登録商標)の子会社MyTopo(商標)から市販されているTerrain Navigator Proなどのソフトウェア製品が、米国およびカナダ全体の詳細な地形図を提供し、様々な縮尺のアメリカ地質調査所の地図を組み込む。当業者に知られている通常のGPS経路決定技術を使用して、リードスコープのコンピュータかまたは接続されたスコープのネットワーク内のインテリジェントなノードのコンピュータかのどちらかが、フォロワスコープとターゲットの間のベクトルをエリアの地形図上に重ね合わせ、フォロワスコープがターゲットを見ることを不可能にする地上の特徴をベクトルが通るかどうかを判定することができる。障害物がある場合、ターゲットが視界を塞がれることのしるしが、フォロワスコープのユーザに対して提示される可能性がある。一部の実施形態においては、地形図からのデータならびにターゲットおよびフォロワスコープを使用して、フォロワスコープは、それがターゲットへの視界を塞がれない別の位置、好ましくは最も近い位置に移動するようにユーザに指示する可能性がある。
第2のスコープが推定されたターゲットを見ることを妨げる地上の特徴をベクトルが通るという判定がなされるとき、リードスコープのコンピュータかまたは接続されたスコープのネットワーク内のインテリジェントなノードのコンピュータかのどちらかが、これらの情報(すなわち、第2のスコープによって表示されるための、推定されたターゲットが視界から隠されることのしるし、および推定されたターゲットの視野が塞がれないことを可能にする別の位置に移動するように第2のスコープの操作者に促すために第2のスコープによって使用されるための電子的に生成されたインジケータ)のうちの少なくとも1つを出力する。
O. リードスコープとして働く複数のスコープ
第2の実施形態において、複数のスコープがターゲットを同時に送信する状況がある可能性がある。第2の実施形態において、各スコープは、任意の所与の時間にリードスコープまたはフォロワスコープになる能力を有し、したがって、複数のスコープが異なるターゲットに関連する位置情報を同時に送信している可能性がある恐れを生じる。スコープがリードスコープによって送信されたターゲットの画像を受信することができる実施形態においては、複数のターゲットの画像が、リスト内に表示される可能性があり、セレクタボタン、ポインティングデバイスを使用して、または視線を追跡し、焦点を決定することによって、関心のあるターゲットが、フォロワスコープによって選択される可能性があり、その後、フォロワスコープが、上述のようにターゲットに向けられる。フォロワスコープが複数のリードスコープから受信されたターゲットの画像を表示する能力を持たない場合、フォロワスコープのユーザは、利用可能なターゲットのリストと、ターゲットまでの距離、作成時間、または作成元のスコープなどの関連する注釈情報とを提示され、セレクタボタン、ポインティングデバイス、または視線追跡の使用によって関心のあるターゲットを選択する能力を有する。フォロワスコープがユーザにターゲットのリストを提示する能力を持たないならば、プロセッサが、所定の基準、または最良のターゲットを選択するために様々な要因を使用するアルゴリズムに基づいてターゲットを選択する。これらの要因は、最も近いターゲット、最も低い誤り率のターゲット、IAMSによって特定の動物または顔認識によって特定された人などの好ましいターゲットの種類とマッチングされたターゲットを含む可能性がある。
スコープがデジタルオーバーレイを提示することができる実施形態において、フォロワスコープは、関心のある複数のターゲットの同時追跡をサポートする可能性がある。利用可能なターゲットのリストから関心のある単一のターゲットを選択する代わりに、フォロワスコープのユーザが、それぞれの利用可能なターゲットを表示または非表示の間で切り替える能力を有する。利用可能なターゲットが表示するように設定される場合、しるしが、フォロワスコープのオーバーレイに追加され、関心のあるどのターゲットに向かってそのしるしが案内しているかを示すラベルを注釈として付けられる。
一部の実施形態においては、スコープがそのスコープがリードスコープによって前に選択されたターゲットを特定し、そのターゲットを指していたという確認を送信しているのか、またはリードスコープとして働き、新しいターゲットを送信しているのかは、明らかでない可能性がある。この問題をなくすために、そのスコープが新しいターゲットに関連する位置情報を送信しているのか、またはそのスコープが異なるターゲットによって前に指定されたターゲットを見たという確認を送信しているのかをスコープのユーザが示すことを可能にするためのユーザインターフェースが、含まれる可能性がある。代替的に、画像が位置データとともに送信され、システムがIAMSを含む場合、IAMSは、ターゲットの画像を比較し、受信された位置データを前に指定されたターゲットに関連するものとして扱うべきかまたは新しいターゲットに関連するものとして扱うべきかを判定する可能性がある。
スコープのユーザは、誤って、本当はスコープが異なるターゲットを実際に指定しているときに、リードスコープによって前に指定されたターゲットをそのスコープが選択したことを間違って示す可能性がある。これは様々な理由で起こる可能性があり、一例は、同じ種類の動物が誤差のボックス内にいることである。理想的には、別のターゲットがリードスコープによって前に指定されたときにターゲットがスコープによって指定されるとき、IAMSは、2つの画像を比較し、ターゲットの画像が同じターゲットである確率が低く、スコープがリードスコープとして働いており、新しいターゲットに関連するデータを送信していると判定する能力を有する。
P. ゲームモード
ネットワークに接続されたスコープは、スコアがスコープのうちの任意の1つまたはネットワークサーバによって保有されるゲームをプレイするために使用される可能性がある。ゲームは、決まった時間間隔で動作する可能性がある。一実施形態においては、リードスコープが、ターゲットを設定し、各フォロワスコープが、ターゲットを探索する。フォロワスコープがターゲットを特定した順番および/またはフォロワスコープがターゲットを見つけるためにかかる時間の量に基づいて、ポイントが与えられる。時間の最大の量が、フォロワスコープがターゲットを見つけるために与えられ、その時点でラウンドが終了する。順番にかまたはランダムにかのどちらかで、それから、新しいリードスコープが、ターゲットを見つけるために指定され、次のラウンドが、プレイされる。ゲームの勝者は、ゲームに関する予め設定された時間の終わりに最大のポイントを有するスコープである。代替的に、ゲームは、目標スコアが達成されるときに終わり、プレイヤーは、それらのプレイヤーのポイントに基づいてランク付けされる。
Q. 自動的なターゲットの検出
IAMSが、物体の分類によって現在の視野内の潜在的なターゲットを特定することによってリードスコープの操作者をサポートするために使用され得る。画像フレームを分析し、画像フレーム内の物体を特定するための従来技術のプロセスが存在する。たとえば、GOOGLE(登録商標) Cloud Vision APIが、アプリケーションが画像内の内容を見て、理解することを可能にする画像分析能力を提供する。サービスは、顧客が一般的な物体(たとえば、「ヨット」、「ライオン」、「エッフェル塔」)から顔および商品ロゴまで画像内のエンティティの幅広い組を検出することを可能にする。この種のソフトウェアアプリケーションが、物体の分類によって現在の視野内の潜在的なターゲットを特定するために使用される可能性がある。
物体の分類機能を有するIAMSに対応してリードスコープを使用して、操作者は、操作者が探しているターゲットの種類を予め設定されたリストから選択することができ(たとえば、車、人、鹿)、その時点で、画像が、リードスコープから取り込まれ、IAMSが、バウンディングボックスまたは強調された画像セグメントによるなどして、指定された物体の種類に一致する視野内の任意の物体を強調する。それから、リードスコープが、強調された潜在的なターゲットのうちの1つに向けられ、ターゲットを指定するために作動させられ得る。
代替的な実施形態においては、リードスコープがあちこち移動されるときに、指定された物体の種類に一致すると分かるすべての物体が強調されるように、画像処理が継続的であることが可能である。
別の実施形態においては、自動的なターゲットの検出が、上のC節の画像のシミュレーションおよび表示において説明された特徴を使用して1つまたは複数のフォロワスコープに拡張される。以下の例を考えられたい。
1. 自動的なターゲットの検出が、上述のようにリードスコープを使用して実行される。
2. 上のC節において説明されたプロセスを使用して、IAMSが、リードスコープに対する特定のフォロワスコープの位置に基づいてターゲットの画像がどのように見えるはずであるかを計算する。見た目は、角度(たとえば、同じ角度(正面)、+/-90度回転(左または右側面の図)、180度回転(お尻の図))および距離(たとえば、ターゲットまでの距離に応じてサイズが同じか、より大きいか、またはより小さい)を織り込む。
3. 画像がフォロワスコープの視野から取り込まれ、フォロワスコープによって見えるように計算された計算されたリードスコープからの予測されたターゲットの画像がフォロワスコープの視野内に実際にあるかどうかを判定するために、自動化されたパターンの特定が実行される。たとえば、鹿が+90度回転されたように見えるはずである場合、自動化されたパターン認識から決定されるときにフォロワスコープの正面を向いている鹿は、正しいターゲットではない可能性が高い。しかし、鹿が+90度回転されたように見えるはずであり、自動化されたパターン認識から決定されるときに、鹿がフォロワスコープの視野内にあると判定され、+90度回転されているとさらに判定される場合、鹿は、正しいターゲットである可能性が高い。
4. 予測されたターゲットの画像がフォロワスコープの視野内にある場合、同様の種類のバウンディングボックスまたは強調された画像セグメントがフォロワスコープ内に現れ、フォロワスコープをそのフォロワスコープの現在のターゲットの位置から境界ボックスまたは強調された画像セグメント内のターゲットの画像に向かって位置修正するために、フォロワスコープの操作者に適切なプロンプトが提供される。
図5は、スコープのディスプレイ上に表示される可能性があるサンプルの予め設定されたリストを示す。この例において、リストに挙げられた物体は、人、鹿、および乗り物を含む。スコープの操作者は、「鹿」を選択した。スコープの視野が物体検出のために分析され、視野内に現れる唯一の物体がおよび1:00時の位置の1頭の鹿であると仮定する。これは、スコープをそのスコープの現在のターゲットの位置から鹿のターゲットの位置に移動させるようにスコープの操作者に促すための対応する命令をともなう、図4Cに示された視野と同様の視野をもたらす。
R. スコープの焦点距離
上述の実施形態においては、スコープがすべて同様の焦点距離を有すると仮定される。しかし、スコープが異なる焦点距離を有する場合、IAMSは、視野内の分析されている物体のサイズおよびフォロワスコープに画像として表示される物体のサイズを決定するとき、適切な調整を行わなければならない。好ましくは、IAMSは、任意のそのような調整が行われ得るようにそれぞれのスコープの焦点距離に関するデータを受信する。
本発明の好ましい実施形態は、方法として実装される可能性があり、それらの方法の例が、与えられた。方法の一部として実行される行為は、任意の好適な方法で順序付けられる可能性がある。したがって、行為が示されたのと異なる順序で実行される実施形態が、想定される可能性があり、これは、たとえいくつかの行為が例示的な実施形態において順番に実行されるものとして示されるとしてもそのような行為を同時に実行することを含む可能性がある。
S. 流れ図
図6は、互いに離れて置かれ、別々のスコープの操作者によって移動させられる第1のスコープおよび第2のスコープによって単一の推定されたターゲットを追跡するためのプロセスの流れ図であり、スコープの各々は、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含む。1つの好ましい実施形態において、プロセスは、少なくとも以下のステップによって実施される。
600: 第1のスコープの複数の測定デバイスを使用して第1のスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定する。
602: 第1のスコープが、第1のスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データを第2のスコープに電子的に伝達する。
604: 第2のスコープが、その第2のスコープの複数の測定デバイスを使用して第2のスコープの現在のターゲットの位置のその第2のスコープの現在のターゲットの位置データを特定する。
606: 第2のスコープのプロセッサにおいて、その第2のスコープの現在のターゲットの位置データおよび第1のスコープから受信された現在のターゲットの位置データを使用して、第2のスコープをその第2のスコープの現在のターゲットの位置から第1のスコープによって特定された推定されたターゲットのターゲットの位置に移動させるために必要とされる位置の移動を計算する。
608: 第2のスコープのプロセッサが、位置の移動を行うように第2のスコープの操作者に促すために第2のスコープによって使用されるための電子的に生成されたインジケータを出力する。第2のスコープの操作者は、第1のスコープから受信された現在のターゲットの位置データによって定義されたターゲットの位置に向かって移動させるためにスコープをその第2のスコープの現在のターゲットの位置から位置修正するためにインジケータを使用する。
図7は、互いに離れて置かれ、別々のスコープの操作者によって移動させられる複数のスコープによって単一の推定されたターゲットを追跡するためのプロセスの流れ図であり、スコープの各々は、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含み、スコープの各々は、ネットワークサーバと電子的に通信しており、現在のターゲットの位置データは、誤差値を有する。1つの好ましい実施形態において、プロセスは、少なくとも以下のステップによって実施される。
700: 第1のスコープの複数の測定デバイスを使用して第1のスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定する。
702: 第1のスコープが、第1のスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データをネットワークサーバに電子的に伝達する。
704: ネットワークサーバが、第1のスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データを残りのスコープに伝達する。
706: 残りのスコープの各々が、第1のスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データを使用して推定されたターゲットの位置を特定する。
708: 推定されたターゲットの位置を特定すると、残りのスコープの各々が、推定されたターゲットに関する現在のターゲットの位置データをネットワークサーバに電子的に伝達し、現在のターゲットの位置データは、それぞれの残りのスコープの複数の測定デバイスを使用してそれぞれの残りのスコープによって特定される。
710: ネットワークサーバが、推定されたターゲットの位置を特定した各スコープからの現在のターゲットの位置データを合併することによって、残りのスコープのいずれか1つから現在のターゲットの位置データを受信すると、更新された現在のターゲットの位置データを計算し、更新された現在のターゲットの位置データは、第1のスコープのみによって特定された現在のターゲットの位置データの誤差値と比較して小さくされた誤差値を有する。
712: ネットワークサーバが、推定されたターゲットに関する更新された現在のターゲットの位置データを推定されたターゲットの位置をまだ特定していない残りのスコープに電子的に伝達する。
714: 推定されたターゲットの位置をまだ特定していない残りのスコープが、推定されたターゲットの位置を特定するために、任意の前に受信された現在のターゲットの位置データの代わりに更新された現在のターゲットの位置データを使用する。
図8は、互いに離れて置かれ、別々のスコープの操作者によって移動させられる複数のリードスコープおよび1つまたは複数のフォロワスコープによって複数の推定されたターゲットを追跡するためのプロセスの流れ図であり、スコープの各々は、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含み、スコープの各々は、ネットワークサーバと電子的に通信している。1つの好ましい実施形態において、プロセスは、少なくとも以下のステップによって実施される。
800: 複数のリードスコープが、それぞれのリードスコープの複数の測定デバイスを使用してそれぞれのリードスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定する。
802: 複数のリードスコープが、(i)それぞれのリードスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データと、(ii)推定されたターゲットの各々に関する情報とをネットワークサーバに電子的に伝達する。
804: ネットワークサーバが、(i)リードスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データと、(ii)推定されたターゲットの各々に関する情報とを1つまたは複数のフォロワスコープに伝達する。
806: 1つまたは複数のフォロワスコープの各々が、推定されたターゲットの各々に関する情報を使用してリードスコープの推定されたターゲットのうちの1つを電子的に選択する。
808: 1つまたは複数のフォロワスコープの各々が、(i)そのフォロワスコープの複数の測定デバイスを使用してそのフォロワスコープの現在のターゲットの位置のそのフォロワスコープの現在のターゲットの位置データを特定すること、(ii)そのフォロワスコープの現在のターゲットの位置データおよび選択された推定されたターゲットの位置の現在のターゲットの位置データを使用して、フォロワスコープをそのフォロワスコープの現在のターゲットの位置から選択された推定されたターゲットのターゲットの位置に移動させるために必要とされる移動を計算すること、ならびに(iii)位置の移動を行うようにフォロワスコープの操作者に促すためにフォロワスコープによって使用されるための電子的に生成されたインジケータを出力することによって選択された推定されたターゲットの位置を特定する。フォロワスコープの操作者は、選択された推定されたターゲットの現在のターゲットの位置データによって定義されたターゲットの位置に向かって移動させるためにフォロワスコープをそのフォロワスコープの現在のターゲットの位置から位置修正するためにインジケータを使用する。
上述の実施形態の広い発明の概念を逸脱することなくそれらの実施形態に変更がなされ得ることは、当業者に理解されるであろう。したがって、本発明は開示された特定の実施形態に限定されず、本発明の精神および範囲内の修正を包含することが意図されることが、理解される。
10 デバイス
12 非デバイス/非スコープノード
16 ネットワークサーバ
18 電子ネットワーク
20 インターネット
22 メッシュネットワーク
24 ノード
26 ノード
30 プロセッサ
32 GPS/INS
34 コンパス
36 距離計
38 方位センサー
40 高さセンサー
42 スコープ
44 視聴覚ディスプレイデバイス
46 ネットワークインターフェース
48 有線またはワイヤレス通信トランシーバ
50 メモリ
52 プロセッサ
54 メモリ
56 画像分析および操作ソフトウェア(IAMS)
58 ネットワークインターフェース
60 有線またはワイヤレス通信トランシーバ

Claims (21)

  1. 互いに離れて置かれ、別々のスコープの操作者によって移動させられる第1のスコープおよび第2のスコープによって単一の推定されたターゲットを追跡するための方法であって、前記スコープの各々が、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含み、前記方法が、
    (a)前記第1のスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定するステップであって、前記現在のターゲットの位置データが、前記第1のスコープの前記複数の測定デバイスを使用して特定される、ステップと、
    (b)前記第1のスコープが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを電子ネットワークを介して前記第2のスコープに電子的に伝達するステップと、
    (c)前記第2のスコープが、前記第2のスコープの複数の測定デバイスを使用して前記第2のスコープの現在のターゲットの位置の前記第2のスコープの現在のターゲットの位置データを特定するステップと、
    (d)前記第2のスコープのプロセッサにおいて、前記第2のスコープの現在のターゲットの位置データおよび前記第1のスコープから受信された前記現在のターゲットの位置データを使用して、前記第2のスコープを前記第2のスコープの現在のターゲットの位置から前記第1のスコープによって特定された前記推定されたターゲットの前記ターゲットの位置に移動させるために必要とされる位置の移動を計算するステップと、
    (e)前記第2のスコープの前記プロセッサが、前記位置の移動を行うように前記第2のスコープの前記操作者に促すために前記第2のスコープによって使用されるための電子的に生成されたインジケータを出力するステップであって
    前記第2のスコープの前記操作者が、前記第1のスコープから受信された前記現在のターゲットの位置データによって定義された前記ターゲットの位置に向かって移動させるために前記第2のスコープを前記第2のスコープの現在のターゲットの位置から位置修正するために前記インジケータを使用するステップと、
    (f)デジタルイメージセンサーを使用して前記第1のスコープの前記操作者によって特定された前記推定されたターゲットのデジタル画像を取り込むステップと、
    (g)前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記デジタル画像内の視覚的特徴を、既知の物体の視覚的特徴と電子的に比較し、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記デジタル画像の前記視覚的特徴に対応する既知の物体のデータベースから、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットのシミュレーションされた画像を取り出すステップと、
    (h)前記第1のスコープが、前記電子ネットワークを介して前記第2のスコープに前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記シミュレーションされた画像を電子的に伝達するステップと、
    (i)前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記シミュレーションされた画像を前記第2のスコープのディスプレイ上に表示するステップとを含み、
    前記表示された推定されたターゲットが、前記第1のスコープから受信された前記現在のターゲットの位置データによって定義された前記ターゲットの位置に向かって移動するのを支援するために前記第2のスコープの前記操作者によって使用される
    方法。
  2. ステップ(g)において、前記第1のスコープが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記シミュレーションされた画像を前記電子ネットワークを介して前記第2のスコープに電子的に伝達し、ステップ(h)において、前記第2のスコープの前記ディスプレイが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記シミュレーションされた画像を表示し、前記方法が、
    (j)画像分析およびシミュレーションソフトウェアを使用して、前記第2のスコープの前記現在のターゲットの位置データから、前記第2のスコープに対する前記推定されたターゲットの眺めの可能性が高い角度を計算するステップと、
    (k)眺めの前記可能性が高い角度に一致するように前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記シミュレーションされた画像を電子的に回転するステップであって、前記推定されたターゲットの前記シミュレーションされた画像の表示が、電子的な回転を反映する、ステップとをさらに含む請求項1に記載の方法。
  3. 前記ターゲットの位置データが、(i)前記ターゲットの3次元位置データか、または(ii)前記ターゲットの前記3次元位置データを計算するのに十分な生測定データかのどちらかである請求項1に記載の方法。
  4. 前記第1のスコープの前記操作者によって位置を特定される前記推定されたターゲットに関する現在のターゲットの位置データが、前記推定されたターゲットの中心を特定する請求項1に記載の方法。
  5. 前記第1のスコープが、
    (i)前記第1のスコープが前記電子ネットワークを介して前記現在のターゲットの位置データをネットワークサーバに電子的に伝達することと、
    (ii)前記ネットワークサーバが前記現在のターゲットの位置データを記憶し、前記電子ネットワークを介して前記第2のスコープに転送することと
    によって前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを前記第2のスコープに電子的に伝達する請求項1に記載の方法。
  6. 前記第1のスコープおよび前記第2のスコープ、ならびにネットワークサーバが、メッシュネットワークのノードであり、前記電子ネットワークが、前記メッシュネットワークである請求項1に記載の方法。
  7. (j)前記第1のスコープの操作者によって位置を特定される推定されたターゲットに関するその後の新しい現在のターゲットの位置データを特定するステップと、
    (k)前記その後の新しい現在のターゲットの位置データを使用してステップ(b)~(e)を実行するステップとをさらに含み、
    前記第2のスコープの前記操作者が、前記第1のスコープから受信された前記その後の新しい現在のターゲットの位置データによって定義された前記ターゲットの位置に向かって移動させるために前記第2のスコープを前記第2のスコープの現在のターゲットの位置から位置修正するために前記インジケータを使用する請求項1に記載の方法。
  8. (j)前記第1のスコープの操作者によって位置を特定される推定されたターゲットに関する前記現在のターゲットの位置データの変化を前記第1のスコープのプロセッサにおいて検出するステップと、
    (k)変更された現在のターゲットの位置データを使用してステップ(b)~(e)を実行するステップとをさらに含み、
    前記第2のスコープの前記操作者が、前記第1のスコープから受信された前記変更された現在のターゲットの位置データによって定義された前記ターゲットの位置に向かって移動させるために前記第2のスコープを前記第2のスコープの現在のターゲットの位置から位置修正するために前記インジケータを使用する請求項1に記載の方法。
  9. 前記複数の測定デバイスが、少なくとも以下のデバイス、すなわち、
    (i)前記第1のスコープまたは前記第2のスコープの緯度、経度、および高度を提供するように構成された全地球測位システム(GPS)デバイスまたはGPS支援型慣性ナビゲーションシステム(GPS/INS)、
    (ii)前記第1のスコープまたは前記第2のスコープの位置に対する前記推定されたターゲットの方向を提供するように構成されたコンパス、ならびに
    (iii)姿勢データを提供するように構成された方位センサーを含む請求項1に記載の方法。
  10. (j)コンピュータにおいて、前記第2のスコープの現在の位置と前記第1のスコープから受信された前記現在のターゲットの位置データによって定義された前記ターゲットの位置との間のベクトルを前記第2のスコープおよび前記ターゲットの位置を含むエリアの地形図に電子的に重ね合わせるステップと、
    (k)前記第2のスコープが前記推定されたターゲットを見ることを妨げる地上の特徴を前記ベクトルが通るかどうかを、前記コンピュータにおいて前記ベクトルおよび前記地形図から電子的に判定するステップと、
    (l)前記第2のスコープが前記推定されたターゲットを見ることを妨げる地上の特徴を前記ベクトルが通るという判定がなされるとき、前記コンピュータが、以下の情報、すなわち、
    (i)前記第2のスコープによって表示されるための、前記推定されたターゲットが視界から隠されることのしるし、および
    (ii)前記推定されたターゲットの視野が塞がれないことを可能にする別の位置に移動するように前記第2のスコープの前記操作者に促すために前記第2のスコープによって使用されるための電子的に生成されたインジケータのうちの少なくとも1つを出力するステップとをさらに含む請求項1に記載の方法。
  11. 互いに離れて置かれ、別々のスコープの操作者によって移動させられる第1のスコープおよび第2のスコープによって単一の推定されたターゲットを追跡するための方法であって、前記スコープの各々が、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含み、前記方法が、
    (a)前記第1のスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定するステップであって、前記現在のターゲットの位置データが、前記第1のスコープの前記複数の測定デバイスを使用して特定される、ステップと、
    (b)前記第1のスコープが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを電子ネットワークを介して前記第2のスコープに電子的に伝達するステップと、
    (c)前記第2のスコープが、前記第2のスコープの複数の測定デバイスを使用して前記第2のスコープの現在のターゲットの位置の前記第2のスコープの現在のターゲットの位置データを特定するステップと、
    (d)前記第2のスコープのプロセッサにおいて、前記第2のスコープの現在のターゲットの位置データおよび前記第1のスコープから受信された前記現在のターゲットの位置データを使用して、前記第2のスコープを前記第2のスコープの現在のターゲットの位置から前記第1のスコープによって特定された前記推定されたターゲットの前記ターゲットの位置に移動させるために必要とされる位置の移動を計算するステップと、
    (e)前記第2のスコープの前記プロセッサが、前記位置の移動を行うように前記第2のスコープの前記操作者に促すために前記第2のスコープによって使用されるための電子的に生成されたインジケータを出力するステップであって、
    前記第2のスコープの前記操作者が、前記第1のスコープから受信された前記現在のターゲットの位置データによって定義された前記ターゲットの位置に向かって移動させるために前記第2のスコープを前記第2のスコープの現在のターゲットの位置から位置修正するために前記インジケータを使用するステップとを含み、
    ステップ(a)の前に、
    (f)前記第1のスコープの前記操作者が、前記第1のスコープのディスプレイ上の予め設定されたリストから、位置を特定されることが望まれるターゲットの種類を選択するステップと、
    (g)前記第1のスコープの視野の画像を取り込むステップと、
    (h)画像分析および物体分類ソフトウェアを使用して、前記第1のスコープの前記操作者によって選択されたターゲットの前記種類を前記第1のスコープの前記視野内に現れる物体と自動的に比較し、ターゲットの選択された前記種類に一致する前記視野内のすべての物体を検出するステップと、
    (i)前記検出された物体を前記第1のスコープの前記ディスプレイ上で強調するステップであって、前記検出された物体のうちの1つが、ステップ(a)において特定される前記推定されたターゲットになる、ステップとをさらに含む方法。
  12. 互いに離れて置かれ、別々のスコープの操作者によって移動させられる複数のスコープによって単一の推定されたターゲットを追跡するための方法であって、前記スコープの各々が、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含み、前記スコープの各々が、ネットワークサーバと電子ネットワークを介して電子的に通信しており、前記現在のターゲットの位置データが誤差値を有し、前記方法が、
    (a)第1のスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定するステップであって、前記現在のターゲットの位置データが、前記第1のスコープの前記複数の測定デバイスを使用して特定される、ステップと、
    (b)前記第1のスコープが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを前記電子ネットワークを介して前記ネットワークサーバに電子的に伝達するステップと、
    (c)前記ネットワークサーバが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを前記電子ネットワークを介して残りのスコープに伝達するステップと、
    (d)前記残りのスコープの各々が、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを使用して前記推定されたターゲットの位置を特定するステップと、
    (e)前記推定されたターゲットの位置を特定すると、前記残りのスコープの各々が、前記推定されたターゲットに関する前記現在のターゲットの位置データを前記電子ネットワークを介して前記ネットワークサーバに電子的に伝達するステップであって、前記現在のターゲットの位置データが、それぞれの前記残りのスコープの前記複数の測定デバイスを使用してそれぞれの前記残りのスコープによって特定される、ステップと、
    (f)前記ネットワークサーバが、前記推定されたターゲットの位置を特定した各スコープからの前記現在のターゲットの位置データを合併することによって、前記残りのスコープのいずれか1つから現在のターゲットの位置データを受信すると、更新された現在のターゲットの位置データを計算するステップであって、前記更新された現在のターゲットの位置データが、前記第1のスコープのみによって特定された前記現在のターゲットの位置データの前記誤差値と比較して小さくされた誤差値を有する、ステップと、
    (g)前記ネットワークサーバが、前記推定されたターゲットに関する前記更新された現在のターゲットの位置データを前記推定されたターゲットの位置を、まだ特定していない前記残りのスコープに前記電子ネットワークを介して電子的に伝達するステップと、
    (h)前記推定されたターゲットの位置をまだ特定していない前記残りのスコープが、前記推定されたターゲットの位置を特定するために、任意の前に受信された現在のターゲットの位置データの代わりに前記更新された現在のターゲットの位置データを使用するステップとを含む、方法。
  13. 前記スコープのうちの1つが、前記ネットワークサーバをさらに含み、前記残りのスコープが、前記ネットワークサーバを含む前記スコープと前記電子ネットワークを介して電子的に通信している請求項12に記載の方法。
  14. 前記ネットワークサーバが、前記スコープの各々から離れて置かれる請求項12に記載の方法。
  15. ステップ(g)が、前記ネットワークサーバが、前記推定されたターゲットに関する前記更新された現在のターゲットの位置データを前記推定されたターゲットの位置を既に特定したスコープおよび前記第1のスコープに前記電子ネットワークを介して電子的に伝達することをさらに含む請求項12に記載の方法。
  16. ステップ(f)~(h)が、ステップ(e)において前記ネットワークサーバが前記残りのスコープのうちの1つから推定されたターゲットを受信するたびに繰り返され、前記現在のターゲットの位置データが、それによって繰り返し更新され、前回の更新された現在のターゲットの位置データの誤差値と比較して継続して小さくされた誤差値を有する請求項12に記載の方法。
  17. 前記複数のスコープおよび前記ネットワークサーバが、メッシュネットワークのノードであり、前記電子ネットワークが、前記メッシュネットワークである請求項12に記載の方法。
  18. 互いに離れて置かれ、別々のスコープの操作者によって移動させられる複数のリードスコープおよび1つまたは複数のフォロワスコープによって複数の推定されたターゲットを追跡するための方法であって、前記スコープの各々が、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含み、前記スコープの各々が、ネットワークサーバと電子ネットワークを介して電子的に通信している、方法において、
    (a)前記複数のリードスコープが、それぞれのリードスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定するステップであって、前記現在のターゲットの位置データが、前記それぞれのリードスコープの前記複数の測定デバイスを使用して特定される、ステップと、
    (b)前記複数のリードスコープが、
    (i)前記それぞれのリードスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データ、および
    (ii)前記推定されたターゲットの各々に関する情報を前記電子ネットワークを介して前記ネットワークサーバに電子的に伝達するステップと、
    (c)前記ネットワークサーバが、
    (i)前記リードスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データ、および
    (ii)前記推定されたターゲットの各々に関する情報を前記電子ネットワークを介して前記1つまたは複数のフォロワスコープに伝達するステップと、
    (d)前記1つまたは複数のフォロワスコープの各々が、前記推定されたターゲットの各々に関する前記情報を使用して前記リードスコープの前記推定されたターゲットのうちの1つを電子的に選択するステップと、
    (e)前記1つまたは複数のフォロワスコープの各々が、
    (i)前記フォロワスコープの複数の測定デバイスを使用して前記フォロワスコープの現在のターゲットの位置の前記フォロワスコープの現在のターゲットの位置データを特定すること、
    (ii)前記フォロワスコープのスコープのプロセッサにおいて、前記フォロワスコープの現在のターゲットの位置データおよび選択された推定されたターゲットの位置の前記現在のターゲットの位置データを使用して、前記フォロワスコープを前記フォロワスコープの現在のターゲットの位置から選択された推定されたターゲットの前記ターゲットの位置に移動させるために必要とされる移動を計算すること、ならびに
    (iii)前記フォロワスコープの前記プロセッサが、位置の移動を行うように前記フォロワスコープの操作者に促すために前記フォロワスコープによって使用されるための電子的に生成されたインジケータを出力することによって前記選択された推定されたターゲットの位置を特定するステップとを含み、
    前記フォロワスコープの前記操作者が、前記選択された推定されたターゲットの前記現在のターゲットの位置データによって定義されたターゲットの位置に向かって移動させるために前記フォロワスコープを前記フォロワスコープの現在のターゲットの位置から位置修正するために前記インジケータを使用する、方法。
  19. 前記情報が、前記それぞれのリードスコープの前記操作者によって特定された前記推定されたターゲットの、前記それぞれのリードスコープのデジタルイメージセンサーによって取り込まれたデジタル画像であり、ステップ(d)が、前記フォロワスコープの各々に関して、
    (i)前記フォロワスコープのディスプレイに前記リードスコープの前記推定されたターゲットの前記デジタル画像を表示することと、
    (ii)前記リードスコープの前記推定されたターゲットの前記デジタル画像のうちの1つを電子的に選択することとをさらに含む請求項18に記載の方法。
  20. ステップ(d)が、前記フォロワスコープの各々に関して、
    (i)一揃いの表示可能な推定されたターゲットを、前記リードスコープの前記推定されたターゲットの各々に関する前記情報を使用して、前記フォロワスコープのディスプレイ上で生成することと、
    (ii)前記リードスコープの前記推定されたターゲットのうちの1つを電子的に選択することとをさらに含む請求項18に記載の方法。
  21. 前記情報が、推定されたターゲットまでの距離、推定されたターゲットの生成の時間、および前記推定されたターゲットを特定したリードスコープのうちの1つである請求項18に記載の方法。
JP2020530439A 2017-08-11 2018-08-10 ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス Active JP7150851B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762544124P 2017-08-11 2017-08-11
US62/544,124 2017-08-11
US16/057,247 US10267598B2 (en) 2017-08-11 2018-08-07 Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices
US16/057,247 2018-08-07
PCT/US2018/046157 WO2019032931A1 (en) 2017-08-11 2018-08-10 DEVICES WITH NETWORK CONNECTED ARRANGEMENTS FOR SIMULTANEOUS MONITORING OF A TARGET BY MULTIPLE DEVICES

Publications (2)

Publication Number Publication Date
JP2020533606A JP2020533606A (ja) 2020-11-19
JP7150851B2 true JP7150851B2 (ja) 2022-10-11

Family

ID=65271279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020530439A Active JP7150851B2 (ja) 2017-08-11 2018-08-10 ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス

Country Status (9)

Country Link
US (5) US10267598B2 (ja)
EP (1) EP3665618A4 (ja)
JP (1) JP7150851B2 (ja)
KR (1) KR102587844B1 (ja)
CN (1) CN111417952B (ja)
CA (1) CA3072084A1 (ja)
IL (1) IL272558A (ja)
MX (1) MX2020001620A (ja)
WO (1) WO2019032931A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017101118A1 (de) * 2017-01-20 2018-07-26 Steiner-Optik Gmbh Kommunikationssystem zur Übertragung von erfassten Objektinformationen zwischen wenigstens zwei Kommunikationspartnern
USD850567S1 (en) * 2017-05-11 2019-06-04 Dimitri Mikroulis Reticle
USD850564S1 (en) * 2017-05-11 2019-06-04 Dimitri Mikroulis Reticle
USD850565S1 (en) * 2017-05-11 2019-06-04 Dimitri Mikroulis Reticle
US10267598B2 (en) 2017-08-11 2019-04-23 Douglas FOUGNIES Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices
US10408573B1 (en) 2017-08-11 2019-09-10 Douglas FOUGNIES Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
USD850569S1 (en) * 2018-02-18 2019-06-04 Dimitri Mikroulis Reticle
US10919459B2 (en) * 2018-08-20 2021-02-16 Freedom Surveillance, LLC Vehicle having vehicle-mounted dual retractable telescoping structures housing surveillance equipment with one structure being mounted to flatbed of the vehicle and another structure being fully retractable within vehicle
WO2020167530A1 (en) * 2019-02-11 2020-08-20 Fougnies Douglas Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
DE102019105093A1 (de) * 2019-02-28 2020-09-03 Carl Zeiss Ag Verfahren zum Unterstützen eines Benutzers beim Anvisieren eines Objekts mittels eines Fernrohrs
JP7282964B2 (ja) * 2019-08-06 2023-05-29 直之 村上 コンピユーターの目(pceye)
JP7282966B2 (ja) * 2019-08-06 2023-05-29 直之 村上 コンピユーターの目(pceye)
CN111006651B (zh) * 2019-11-22 2022-06-10 西安翔迅科技有限责任公司 目标跟踪数据录取便携装置和观瞄跟踪设备
KR102180878B1 (ko) * 2020-07-08 2020-11-19 한화시스템(주) 개인 화기에서의 표적 거리 계산 장치 및 그 방법
CN114442305A (zh) * 2020-11-02 2022-05-06 上海迈利船舶科技有限公司 一种视觉增强ais船舶望远镜
KR102530236B1 (ko) * 2020-11-05 2023-05-09 엘아이지넥스원 주식회사 광축보정이 가능한 광학 시스템
KR102339783B1 (ko) * 2021-02-02 2021-12-16 한화시스템 주식회사 정보 제공 장치 및 정보 제공 방법
KR102339782B1 (ko) * 2021-02-02 2021-12-16 한화시스템 주식회사 정보 제공 장치 및 정보 공유 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211417A (ja) 2007-02-26 2008-09-11 Fujitsu Ltd 多視点動画像伝送システム
JP2011123152A (ja) 2009-12-09 2011-06-23 Nikon Corp 望遠鏡及び望遠鏡システム
US20140188385A1 (en) 2012-12-31 2014-07-03 Trackingpoint, Inc. System and Method of Locating Prey

Family Cites Families (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4255013A (en) 1979-05-17 1981-03-10 John E. McNair Rifle scope having compensation for elevation and drift
US4418487A (en) 1982-02-02 1983-12-06 Strahan Travis R Mounting bracket for gunsight
DE3244255A1 (de) 1982-11-30 1984-06-14 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Bahnvermessungs- und ueberwachungssystem
US4531321A (en) 1983-01-12 1985-07-30 Bechtel Daniel L Scope-mounting devices for firearms
US5052790A (en) 1987-12-18 1991-10-01 Edwards Optical Corporation Telemicroscopic apparatus for sighting and bi-level viewing
US4905396A (en) 1989-01-11 1990-03-06 Bechtel Daniel L Method and apparatus for mounting an auxiliary sighting aid on a firearm
US4949089A (en) 1989-08-24 1990-08-14 General Dynamics Corporation Portable target locator system
US5822713A (en) * 1993-04-05 1998-10-13 Contraves Usa Guided fire control system
US5568152A (en) 1994-02-04 1996-10-22 Trimble Navigation Limited Integrated image transfer for remote target location
JPH0961725A (ja) * 1995-08-22 1997-03-07 Nikon Corp 観察装置
JP3569409B2 (ja) 1997-01-17 2004-09-22 ペンタックス株式会社 Gpsを利用した望遠鏡
US6269581B1 (en) 1999-04-12 2001-08-07 John Groh Range compensating rifle scope
US6891960B2 (en) * 2000-08-12 2005-05-10 Facet Technology System for road sign sheeting classification
US6643970B2 (en) * 2002-01-31 2003-11-11 Jeffrey Huber Zero stop adjustable rifle scope
US20040134113A1 (en) 2002-08-02 2004-07-15 Deros Mark A. Adjustable gun rest apparatus
US6862833B1 (en) 2003-05-21 2005-03-08 Frederick Wilhelm Gurtner Scope-to-firearm alignment assembly
WO2004107012A1 (ja) 2003-05-30 2004-12-09 Vixen Co., Ltd. 天体の自動導入装置
US20050233284A1 (en) * 2003-10-27 2005-10-20 Pando Traykov Optical sight system for use with weapon simulation system
FR2862748B1 (fr) * 2003-11-25 2006-01-21 Thales Sa Procede de conduite de tir pour aeronefs
US7225548B2 (en) 2004-05-17 2007-06-05 Sr2 Group, Llc System and method for aligning multiple sighting devices
US7642741B2 (en) 2005-04-27 2010-01-05 Sidman Adam D Handheld platform stabilization system employing distributed rotation sensors
DE102006022302A1 (de) 2006-05-11 2007-11-15 Carl Zeiss Sports Optics Gmbh Verfahren zur Unterstützung wenigstens eines ersten Beobachters beim Anvisieren eines Zielobjekts
US10161717B2 (en) * 2006-08-14 2018-12-25 Huskemaw Optics, Llc Long range archery scope
US8001714B2 (en) 2006-08-14 2011-08-23 Aaron Davidson Ballistics systems and methods
US20170010073A1 (en) * 2010-01-15 2017-01-12 Colt Canada Ip Holding Partnership Networked battle system with heads up display
US9366862B2 (en) 2010-02-28 2016-06-14 Microsoft Technology Licensing, Llc System and method for delivering content to a group of see-through near eye display eyepieces
KR101237129B1 (ko) * 2010-05-19 2013-02-25 정인 원격조정 사격시스템용 조준장치 및 이를 이용한 조준 정렬방법
WO2012061154A1 (en) * 2010-10-25 2012-05-10 Banc3, Inc. Weapon sight
EP2461132A1 (de) * 2010-12-02 2012-06-06 Leica Geosystems AG Teleskop zur Verwendung in einem Vermessungsinstrument und Verfahren zur automatisierten Autokollimation eines Teleskops eines Vermessungsinstruments mit einem Autokollimationsziel
US8885882B1 (en) * 2011-07-14 2014-11-11 The Research Foundation For The State University Of New York Real time eye tracking for human computer interaction
US9625720B2 (en) 2012-01-24 2017-04-18 Accipiter Radar Technologies Inc. Personal electronic target vision system, device and method
US9833638B2 (en) * 2012-02-12 2017-12-05 Christopher V. Beckman Location-based encryption and shielding
WO2014071291A2 (en) 2012-11-02 2014-05-08 Strongwatch Corporation, Nevada C Corp Wide area imaging system and method
US9435612B2 (en) * 2012-11-02 2016-09-06 Umarex Usa, Inc. Method and system for aligning a point of aim with a point of impact for a projectile device
US9459076B2 (en) 2012-12-12 2016-10-04 Trackingpoint, Inc. Rifle scope, apparatus, and method including proximity detection and warning system
US10337830B2 (en) 2012-12-31 2019-07-02 Talon Precision Optics, LLC Portable optical device with interactive wireless remote capability
US9127909B2 (en) * 2013-02-17 2015-09-08 Smart Shooter Ltd. Firearm aiming system with range finder, and method of acquiring a target
US20140281851A1 (en) * 2013-03-15 2014-09-18 John Francis McHale Computer-Readable Storage Device, System and Method of Automatically Generating a Hunt Story
WO2015199780A2 (en) 2014-04-01 2015-12-30 Baker Joe D Mobile ballistics processing and targeting display system
US10260840B2 (en) * 2014-04-01 2019-04-16 Geoballistics, Llc Mobile ballistics processing and display system
US9612088B2 (en) 2014-05-06 2017-04-04 Raytheon Company Shooting system with aim assist
US20160033268A1 (en) * 2014-07-31 2016-02-04 Michael Franklin Abernathy Apparatus for augmented reality for optical systems
US9727786B2 (en) * 2014-11-14 2017-08-08 Intel Corporation Visual object tracking system with model validation and management
US9857144B2 (en) * 2014-12-10 2018-01-02 Flir Systems, Inc. Electronic adaptive reticle systems and methods
US9285189B1 (en) * 2015-04-01 2016-03-15 Huntercraft Limited Integrated electronic sight and method for calibrating the reticle thereof
AU2016268788A1 (en) * 2015-05-26 2017-12-07 Colt Canada Ip Holding Partnership A networked battle system with heads up display
US9816783B1 (en) * 2016-01-07 2017-11-14 DuckDrone, LLC Drone-target hunting/shooting system
US20170302852A1 (en) 2016-04-13 2017-10-19 Jason Tze Wah Lam Three Axis Gimbals Stabilized Action Camera Lens Unit
BE1024403B1 (fr) * 2016-07-15 2018-02-14 Fn Herstal S.A. Système de visée
US10408573B1 (en) 2017-08-11 2019-09-10 Douglas FOUGNIES Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
US10267598B2 (en) 2017-08-11 2019-04-23 Douglas FOUGNIES Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices
US20190226805A1 (en) * 2018-01-22 2019-07-25 Japan Optics USA LLC System for Scope Leveling
AU2019222746A1 (en) * 2018-02-14 2020-08-13 Wilcox Industries Corp. Weapon system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008211417A (ja) 2007-02-26 2008-09-11 Fujitsu Ltd 多視点動画像伝送システム
JP2011123152A (ja) 2009-12-09 2011-06-23 Nikon Corp 望遠鏡及び望遠鏡システム
US20140188385A1 (en) 2012-12-31 2014-07-03 Trackingpoint, Inc. System and Method of Locating Prey

Also Published As

Publication number Publication date
US11226175B2 (en) 2022-01-18
US20220244019A1 (en) 2022-08-04
US10495414B2 (en) 2019-12-03
CA3072084A1 (en) 2019-02-14
JP2020533606A (ja) 2020-11-19
EP3665618A1 (en) 2020-06-17
EP3665618A4 (en) 2021-04-21
US20210025674A1 (en) 2021-01-28
US10704863B1 (en) 2020-07-07
CN111417952A (zh) 2020-07-14
KR102587844B1 (ko) 2023-10-11
US20200208944A1 (en) 2020-07-02
US20190316879A1 (en) 2019-10-17
CN111417952B (zh) 2023-12-15
IL272558A (en) 2020-03-31
KR20200049783A (ko) 2020-05-08
US20190049219A1 (en) 2019-02-14
US10267598B2 (en) 2019-04-23
MX2020001620A (es) 2020-08-13
WO2019032931A1 (en) 2019-02-14

Similar Documents

Publication Publication Date Title
JP7150851B2 (ja) ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス
US11423586B2 (en) Augmented reality vision system for tracking and geolocating objects of interest
US11555671B2 (en) Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
CN113424012B (zh) 具有网络连接瞄准镜以允许多个其他装置同时跟踪目标的车载装置
US9335121B2 (en) System and method of locating prey
US8868342B2 (en) Orientation device and method
EP1876413A2 (en) Passive-optical locator
ES2806391T3 (es) Procedimiento para la determinación de los datos de posición de un objeto objetivo en un sistema de referencia y procedimiento para el guiado de una aeronave configurada preferentemente como misil
Neuhöfer et al. Adaptive information design for outdoor augmented reality

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20200313

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210524

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220928

R150 Certificate of patent or registration of utility model

Ref document number: 7150851

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150