JP7150851B2 - ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス - Google Patents
ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス Download PDFInfo
- Publication number
- JP7150851B2 JP7150851B2 JP2020530439A JP2020530439A JP7150851B2 JP 7150851 B2 JP7150851 B2 JP 7150851B2 JP 2020530439 A JP2020530439 A JP 2020530439A JP 2020530439 A JP2020530439 A JP 2020530439A JP 7150851 B2 JP7150851 B2 JP 7150851B2
- Authority
- JP
- Japan
- Prior art keywords
- scope
- target
- target position
- position data
- estimated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 47
- 238000005259 measurement Methods 0.000 claims description 33
- 238000004891 communication Methods 0.000 claims description 15
- 230000000007 visual effect Effects 0.000 claims description 15
- 238000010191 image analysis Methods 0.000 claims description 6
- 235000014676 Phragmites communis Nutrition 0.000 claims description 3
- 241000282994 Cervidae Species 0.000 description 29
- 230000003287 optical effect Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 16
- 238000005516 engineering process Methods 0.000 description 13
- 230000001413 cellular effect Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000001815 facial effect Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000001514 detection method Methods 0.000 description 4
- 230000006855 networking Effects 0.000 description 4
- 241001465754 Metazoa Species 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 238000003909 pattern recognition Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 206010016275 Fear Diseases 0.000 description 1
- 241000282320 Panthera leo Species 0.000 description 1
- 241000519995 Stachys sylvatica Species 0.000 description 1
- 210000003056 antler Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 210000004271 bone marrow stromal cell Anatomy 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000004438 eyesight Effects 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 229910052741 iridium Inorganic materials 0.000 description 1
- GKOZUEZYRPOHIO-UHFFFAOYSA-N iridium atom Chemical compound [Ir] GKOZUEZYRPOHIO-UHFFFAOYSA-N 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G1/00—Sighting devices
- F41G1/38—Telescopic sights specially adapted for smallarms or ordnance; Supports or mountings therefor
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/02—Aiming or laying means using an independent line of sight
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/04—Aiming or laying means for dispersing fire from a battery ; for controlling spread of shots; for coordinating fire from spaced weapons
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/06—Aiming or laying means with rangefinder
- F41G3/065—Structural association of sighting-devices with laser telemeters
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G3/00—Aiming or laying means
- F41G3/14—Indirect aiming means
- F41G3/16—Sighting devices adapted for indirect laying of fire
- F41G3/165—Sighting devices adapted for indirect laying of fire using a TV-monitor
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G9/00—Systems for controlling missiles or projectiles, not provided for elsewhere
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C17/00—Compasses; Devices for ascertaining true or magnetic north for navigation or surveying purposes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/01—Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/13—Receivers
- G01S19/14—Receivers specially adapted for specific applications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S19/00—Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
- G01S19/38—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
- G01S19/39—Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
- G01S19/42—Determining position
- G01S19/45—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement
- G01S19/47—Determining position by combining measurements of signals from the satellite radio beacon positioning system with a supplementary measurement the supplementary measurement being an inertial measurement, e.g. tightly coupled inertial
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W84/00—Network topologies
- H04W84/18—Self-organising networks, e.g. ad-hoc networks or sensor networks
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Optics & Photonics (AREA)
- Signal Processing (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Telescopes (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Radar Systems Or Details Thereof (AREA)
Description
本出願は、2017年8月11日に出願した米国特許出願第62/544,124号および2018年8月7日に出願した米国特許出願第16/057,247号の利益を主張するものであり、これらの特許出願の開示全体が参照により本明細書に組み込まれる。
緯度: 39.90130859
経度: -75.15197754
海水面に対する高度(高さ): 5m
以下の定義は、本発明の理解を促進するために与えられる。
以下の説明は、デバイスのスコープの各々が同様の機能を有し、リードスコープかまたはフォロワスコープかのどちらかとして機能し得ると仮定する。しかし、代替的な実施形態においては、特定のスコープが、リードの役割またはフォロワの役割に専用である可能性があり、特定のスコープが、その他のスコープよりも多いまたは少ない機能を有する可能性がある。
1. GPS/INSデバイス(デバイスの位置データを提供する)(GPS受信機、ジャイロスコープ、および加速度計などの2つ以上の異なるデバイスとして実装される可能性がある)
2. 距離計(デバイスのスコープからターゲットまでの距離を提供する)。好ましい実施形態においては、レーザーテクノロジーが距離を検出するために距離計によって使用されるが、光学式の距離測定などのその他のテクノロジーも使用される可能性がある。光学式の距離測定システムの1つの例は、一連のレンズおよび鏡を使用して二重像を生成し、距離のしるしを有するダイアルまたはその他のコントローラが、2つの像の位置を揃えるために調整される。
3. コンパス(スコープの位置に対するターゲットの方向(北、南、東、および西)を提供する)。コンパスは、独立したデバイスである可能性があり、またはGPS/INSに組み込まれ、GPSコンパスを使用して方向を決定する可能性がある。GPSコンパスは、2つのアンテナを有することが多く、デバイスが双眼鏡である場合、1つの選択肢は、それぞれの鏡胴にアンテナを配置することである。離間するために1つもしくは複数の折りたたみ式のアーム、ブーム(boom)、空気よりも軽いバルーン(lighter than air balloon)、もしくはその他の機械的手段を使用すること、またはRFもしくは光接続を通じて第2のアンテナを接続することによるなどして、GPSコンパスによって使用されるアンテナの離間を大きくすることによって、正確性が高められ得る。
4. 方位センサー(姿勢データ、すなわち、決まった水平面に対するデバイスの指す角度を提供する(たとえば、真っ直ぐ前を指す場合、0度、空の鳥もしくは飛行機を指す場合、上に30度、または谷に向かって下に向けられる場合、-10度))
5. 高さセンサー(任意)(海水面またはその他の基準点からの絶対的な高さを提供する)。これは、典型的には、場合によっては特に正確ではないGPS/INSによって決定された高さの正確性を補う気圧センサーである。代替的に、GPS/INSが地形図を組み込むかまたはネットワークに接続されたスコープを通じて地形図にアクセスすることができるかのどちらかである場合、地面までの距離を決定するために超音波またはその他の近接センサーが使用される可能性がある。たとえば、GPSの位置が海水面から500フィートである地形図上の位置に対応し、近接センサーがスコープから地面までの距離が5フィートであると決定する場合、正確な高さ505フィートが、スコープによって知られる。
1. リードスコープを含むデバイスの操作者が、推定されたターゲットを特定する。
第2の実施形態のステップは、(上述のようにネットワーク内のスコープのうちの1つまたは複数である可能性がある)ネットワークサーバがターゲットを特定した各スコープから蓄積される推定された位置データを合併して次第にターゲットのより精密な位置データを定義する(つまり、より多くのデータ点が位置の精度を高める)ために上述の追加的な計算を実行し、そして、その位置データが、まだターゲットの位置を特定していないスコープに伝達されることを除いて第1の実施形態と同様である。さらに、ネットワークサーバは、(複数のリードスコープからなどの)複数のターゲットを記憶し、それらをネットワーク内の各フォロワスコープに伝達することができる。
接続されたライフルのスコープ: 2人のハンターが、狩りをしている。1人のハンターが、獲物を見つけ、2人のハンターのスコープの狙いを同じ獲物に定めるためにもう1人のハンターに信号を送る。スコープが画像取り込みおよび表示デバイスを備えている場合、獲物の画像が、第1のハンターから第2のハンターに送信される可能性があり、第2のハンターは、第2のハンターがターゲットを見たことを接続されたスコープを使用して第1のハンターに信号で伝え、場合によって、第2のハンターが見た画像を第1のハンターに送り返す可能性がある。第1のハンターがターゲットを見失った場合、第2のハンターが、リードスコープになり、ターゲットを再び獲得しようと試みる第1のハンターにターゲットの位置(または生測定データ)を送り返す。
図1Aは、複数のデバイス10(デバイス1~デバイスn)および非デバイス/非スコープノード12(node1~noden)がワイヤレス通信および電子ネットワーク18を介してネットワークサーバ16と通信するシステム図を示す。電子ネットワーク18は、デバイス10をネットワークサーバ16に接続する実線によって表される。電子ネットワーク18は、任意の好適な種類のワイヤレス電子ネットワーク(たとえば、ローカルエリアネットワーク、広域ネットワーク(インターネット))によって実装される可能性がある。1つまたは複数の非デバイス/非スコープノード12(node1~noden)の機能は、下で説明される。図1Aにおいては、少なくともネットワークサーバ16が、インターネット20に接続される。
1. GPS/INS 32
2. (独立しているかまたはGPS/INSに組み込まれるかのどちらかであることが可能である)コンパス34
3. 距離計36
4. 方位センサー38(姿勢)
5. 改善された正確性のための高さセンサー40(任意)
6. スコープ42(スコープの構造はデバイスの種類に応じて決まる)
7. (独立しているかまたはスコープに統合されるかのどちらかである可能性がある)視聴覚ディスプレイデバイス44
8. 有線またはワイヤレス通信トランシーバ48と通信するネットワークインターフェース46
9. メモリ50
A. ターゲットの位置の重み付け
GPSデータおよびその他の測定デバイスから推定されたターゲットの位置を計算するとき、リードスコープおよびフォロワスコープによってもたらされる知られている定量化可能な誤差が存在する可能性があり、それらの誤差は、離散的な値(たとえば、+/-20cm)によって表され得る。特定の種類の誤差は、測定デバイスの固有の制限に基づいてスコープ毎に一貫している。その他の種類の誤差は、GPS信号の強度などの信号強度またはリードスコープの位置を計算するために使用される衛生の数に応じて決まる可能性がある。それぞれの計算されたターゲットの位置に関して、リードスコープ、フォロワスコープ、および/またはネットワークサーバが、誤差値を特定する。更新されたターゲットの位置を計算するために複数のスコープからのターゲットの位置を合併し、累積するとき、誤差値が、各ターゲットの位置に与えられる強度を重み付けするために使用される可能性がある。
1つの好ましい実施形態においては、視覚的なインジケータが、デバイスの操作者にとって有用である形態で誤差情報を視覚的に伝達する。たとえば、推定されたターゲットの位置がデバイスのディスプレイスクリーン上のドットによって表される場合、ターゲットが誤差のボックス(error box)内のエリアのいずれかの中にある可能性があり、厳密にドットが示している場所にあるとは限らないことをデバイスの操作者が知るように、誤差のボックスがドットの周りに重ね合わされる可能性がある。第2の実施形態において、誤差のボックスは、おそらく、より多くのターゲットの位置が一連のフォロワスコープによって特定されるにつれて小さくなっていく。
一実施形態において、ターゲットは、ドットなどのディスプレイスクリーン上の1次元オブジェクトによって表される。代替的な実施形態において、ターゲットは、ディスプレイスクリーン上のシミュレーションされた2次元または3次元画像によって表される。デジタル画像が取り込まれ、送信される場合、ターゲットの実際の画像が、スクリーン上に表示される可能性がある。ニューラルネットワークなどの人工知能(AI)技術を使用して実装される可能性がある画像分析および操作ソフトウェア(IAMS)を使用して、シミュレーションプロセスは、ターゲットがフォロワスコープに対して適切に位置付けられて見えるようにターゲットが回転させられることを可能にする。以下の例を考えられたい。
1. リードスコープが、1/4マイル離れており、デバイスの正面を向いている鹿(ターゲット)を特定する。
2. 鹿のターゲットの位置および鹿の物理的な画像が、スコープによって取り込まれ、ネットワークサーバに伝達される。
3. ネットワークサーバ内のまたはインターネットを介して遠隔でアクセスされるIAMSが、画像内の重要な視覚的特徴を特定し、これらの特徴を知られている物体と比較してターゲットを鹿の正面の図としてカテゴリー分けし、そのデータベースから鹿のシミュレーションされた画像を取り出す。
4. フォロワスコープが鹿に関するターゲットの位置データを受信し、フォロワスコープがやはり鹿からおよそ1/4マイルにあるが、リードスコープと比較して90度外れていると判定される。そのとき、IAMSは、フォロワスコープが鹿がどのように見える可能性が高いかを知るように、シミュレーションされた鹿を90度回転させ、フォロワスコープに表示するために鹿の側面の図を伝達することができる。
5. 物理的な画像データが複数のスコープから取り込まれた後、IAMSは、ターゲットの3-D画像を構築し、それによって、ターゲットのより本物らしい図がターゲットをまだ探しているフォロワスコープに表示されることを可能にすることができる。IAMSは、ターゲットの3-D画像をどのようにして回転させるべきかを知るために両方の位置が必要であるので、レンダリングを実行するためにリードスコープとフォロワスコープとの両方の位置を知らなければならない。実際の画像が取り込まれる場合、1つの選択肢は、IAMSが画像をシミュレーションするのではなく実際の画像を組み合わせることである。
6. 法律執行機関の応用においては、IAMSが、顔認識またはその他の生体測定技術を使用してターゲットの画像を人とマッチングしようと試みる可能性がある。一致がある場合、ターゲットについての情報が、スコープに返される可能性がある。
7. スコープに組み込まれた画像表示システムのさらなる応用は、高解像度の航空画像または地形図を取り出し、ターゲットのおおよその位置の何らかのしるしと一緒にフォロワスコープのディスプレイ上に航空画像または地図を表示するフォロワスコープの能力である。誤差情報が知られている場合、ボックスが航空画像または地形図上に表示され、ターゲットがある可能性があるエリアを示すことができる。スコープをターゲットに向ける、リードスコープによって見られるターゲットの画像を提供する、および誤差のボックスと一緒にターゲットのおおよその位置を含む航空図または地形図を提供する特徴を組み合わせることによって、ターゲットを見つけるプロセスが、著しく促進される。
1. リードスコープが、1/4マイル離れており、デバイスの正面を向いている鹿(ターゲット)を特定する。
2. 鹿のターゲットの位置および鹿の物理的な画像が、スコープによって取り込まれ、ネットワークサーバに伝達される。
3. ネットワークサーバ内のまたはインターネットを介して遠隔でアクセスされるIAMSが、コンピュータビジョン技術を使用して画像をセグメント分けし、バックグラウンド画像からターゲットを分離する。
4. IAMSが、鹿の枝角および鹿の体側の白い斑点上の点などの画像セグメント内の1組の重要な特定可能な特徴を生成する。
5. フォロワスコープが鹿に関するターゲットの位置データを受信し、フォロワスコープがやはり鹿からおよそ1/4マイルにあるが、リードスコープと比較して45度外れていると判定される。そのとき、IAMSは、特徴がフォロワスコープの視野内で何に見えるはずであるかを知るように、ターゲットに対応する視覚的特徴の組を45度回転させることができる。
6. フォロワスコープが、ターゲットの位置に関する指示によって案内されて、大まかにターゲットの方向を狙う。フォロワスコープの現在の視野の画像が、処理のためにフォロワスコープが移動するときにIAMSに送信される。
7. IAMSが、到着するフォロワスコープの画像に対してパターンマッチングを実行し、画像内の重要な特徴を、ターゲットスコープ(target scope)から生成され、フォロワスコープの見ている角度に関して調整されたターゲットの特徴の組と比較する。パターンの一致が発生する場合、フォロワスコープの視野内のターゲットの位置が、フォロワスコープに送信される。
8. フォロワスコープが、ディスプレイ内でターゲットの位置を強調するバウンディングボックスのオーバーレイを提示する。
9. 物理的な画像データが複数のスコープから取り込まれた後、IAMSが、複数の角度からの重要な特定する特徴のより大きな組を構築することができる。
測定データからのターゲットの位置の計算は、GPSデータに依拠する知られている技術のいずれか1つによって実行される可能性がある。参照により本明細書に組み込まれる米国特許第5,568,152号(Jankyら)は、ターゲットから間を空けられ、ビューワ/距離計を通じてターゲットを見ている観察者によってターゲットの位置を決定するための方法を開示する。やはり参照により本明細書に組み込まれる米国特許第4,949,089号(Ruszkowski, Jr.)は、同様の方法を開示する。任意のそのような方法が、ターゲットの位置を計算するために使用される可能性がある。
上述の通常の光学的な方式の実施形態に加えて、スコープの代替的な実施形態は、ターゲットの熱シグネチャを検出するための赤外線前方監視センサーを組み込む。距離計を使用して、システムは、選択された熱シグネチャに対応するターゲットの位置を検出し、それから、関心のあるターゲットの画像を送信することに加えてまたはその代わりに、システムは、熱シグネチャを送信する。
好ましい実施形態はシステム内のその他のデバイスに画像および/または熱シグネチャを送信するが、デバイスの少なくとも一部は、視覚的ディスプレイを持たない可能性がある。その場合、フォロワスコープは、フォロワスコープのユーザをターゲットに向けるために単に方向矢印またはその他のしるしに依拠する可能性がある。
フォロワスコープを向けるための方向矢印またはその他のしるしの代わりに、デバイスを(たとえば、上、下、左、右に)移動させるようにユーザに指示する、有線でまたはBluetoothによるなどしてワイヤレスで接続されたフォロワスコープとヘッドフォンとの間の接続が、使用される可能性がある。
上述の実施形態において、距離計からの距離情報は、フォロワスコープにおいてターゲットを特定するために使用されない。光学式のスコープおよび双眼鏡は可変の距離に焦点を合わせるので、ターゲット情報への案内は、ユーザが見るまたは焦点を合わせる正しい距離を知ることを可能にするためのしるしも含む可能性がある。音声の実施形態においては、より近くにまたはより遠くに焦点を合わせる、より近くを見るなどのためのコマンドが与えられる可能性がある。言い換えると、ユーザは、知られているターゲットの位置およびフォロワスコープの知られている位置に基づいて計算されたベクトルに沿って既に見ている。ターゲットから遠すぎるのかまたは近すぎるのかを知るために、距離計が使用され得る。たとえば、ターゲットは、1マイル離れている可能性があるが、ユーザは、現在1.5マイル離れたところを見ている。
リードスコープは、ターゲットに印を付けるために十字線またはレティクルなどのその他のターゲット選択のしるしを組み込む可能性がある。印を付けられると、距離計は、ターゲットまでの距離を検出し、システムは、ターゲットの座標を決定し、上述のようにフォロワスコープにターゲットの位置を通知するか、またはターゲットの座標を記憶するために利用可能なネットワークサーバと通信する。
ライフルまたは銃砲の応用において、リードスコープは、フォロワスコープに情報を送信するためのスイッチをトリガの上のまたはトリガの近くのセンサーに組み込む可能性がある。
より複雑なフォロワスコープは、より高解像度のディスプレイを含み、リードスコープから受信された視覚的情報およびフォロワスコープをターゲットに向けるしるしをフォロワスコープの光学的な視野に重ねるために拡張現実技術を利用する可能性がある。オーバーレイは、ヘッドアップディスプレイもしくは均等物によってまたは完全なデジタルディスプレイに切り替えることによって実装される可能性がある。
ターゲットの画像は、デジタルカメラにおいて使用される様々な技術と実質的に同一の方法で取り込まれる可能性がある。リードスコープのユーザがターゲットを指定する時点で、鏡が、デジタルSLRの動作と同様に折りたたまれ、像をイメージセンサーに導く可能性がある。リードスコープは、鏡を使用しないミラーレスまたはコンパクトカメラと同様に動作する可能性もある。
ユーザによるデバイス(たとえば、ライフル/銃砲、双眼鏡)の手の動きが原因であるリードスコープの位置の移動は、システムに不安定さをもたらす可能性がある。この問題に対処するために、タッチパッドまたはその他のポインティングデバイスが、デバイスに取り付けられ、ターゲット上で十字線またはその他のターゲットのしるしを動かすために使用される可能性がある。ターゲットがタグ付けされると、距離が、距離計を使用して十字線の中心までの距離に基づいて決定される。場合によっては、使用される距離測定テクノロジーに応じて、最小限の音を立てるリニアまたはその他の静音モーターを使用してターゲットを指すように機械的に距離計の向きを直すことが、必要である可能性がある。距離が決定されると、ターゲットの位置の計算が、実行され、リードスコープの向きと、十字線が中心から外された量に基づいて決定された向きまでのオフセットとの間のオフセットに関して調整される。
場合によっては、地上の特徴(たとえば、丘、山)が、フォロワスコープとターゲットとの間のベクトルの経路上にある可能性がある。たとえば、リードスコープがターゲットの真北1マイルにあり、フォロワスコープが真南2マイルにある場合、フォロワスコープとターゲットとの間に丘がある可能性がある。詳細な地形図およびナビゲーションツールが、容易に利用され得る。たとえば、モンタナ州BillingsのTrimble(登録商標)の子会社MyTopo(商標)から市販されているTerrain Navigator Proなどのソフトウェア製品が、米国およびカナダ全体の詳細な地形図を提供し、様々な縮尺のアメリカ地質調査所の地図を組み込む。当業者に知られている通常のGPS経路決定技術を使用して、リードスコープのコンピュータかまたは接続されたスコープのネットワーク内のインテリジェントなノードのコンピュータかのどちらかが、フォロワスコープとターゲットの間のベクトルをエリアの地形図上に重ね合わせ、フォロワスコープがターゲットを見ることを不可能にする地上の特徴をベクトルが通るかどうかを判定することができる。障害物がある場合、ターゲットが視界を塞がれることのしるしが、フォロワスコープのユーザに対して提示される可能性がある。一部の実施形態においては、地形図からのデータならびにターゲットおよびフォロワスコープを使用して、フォロワスコープは、それがターゲットへの視界を塞がれない別の位置、好ましくは最も近い位置に移動するようにユーザに指示する可能性がある。
第2の実施形態において、複数のスコープがターゲットを同時に送信する状況がある可能性がある。第2の実施形態において、各スコープは、任意の所与の時間にリードスコープまたはフォロワスコープになる能力を有し、したがって、複数のスコープが異なるターゲットに関連する位置情報を同時に送信している可能性がある恐れを生じる。スコープがリードスコープによって送信されたターゲットの画像を受信することができる実施形態においては、複数のターゲットの画像が、リスト内に表示される可能性があり、セレクタボタン、ポインティングデバイスを使用して、または視線を追跡し、焦点を決定することによって、関心のあるターゲットが、フォロワスコープによって選択される可能性があり、その後、フォロワスコープが、上述のようにターゲットに向けられる。フォロワスコープが複数のリードスコープから受信されたターゲットの画像を表示する能力を持たない場合、フォロワスコープのユーザは、利用可能なターゲットのリストと、ターゲットまでの距離、作成時間、または作成元のスコープなどの関連する注釈情報とを提示され、セレクタボタン、ポインティングデバイス、または視線追跡の使用によって関心のあるターゲットを選択する能力を有する。フォロワスコープがユーザにターゲットのリストを提示する能力を持たないならば、プロセッサが、所定の基準、または最良のターゲットを選択するために様々な要因を使用するアルゴリズムに基づいてターゲットを選択する。これらの要因は、最も近いターゲット、最も低い誤り率のターゲット、IAMSによって特定の動物または顔認識によって特定された人などの好ましいターゲットの種類とマッチングされたターゲットを含む可能性がある。
ネットワークに接続されたスコープは、スコアがスコープのうちの任意の1つまたはネットワークサーバによって保有されるゲームをプレイするために使用される可能性がある。ゲームは、決まった時間間隔で動作する可能性がある。一実施形態においては、リードスコープが、ターゲットを設定し、各フォロワスコープが、ターゲットを探索する。フォロワスコープがターゲットを特定した順番および/またはフォロワスコープがターゲットを見つけるためにかかる時間の量に基づいて、ポイントが与えられる。時間の最大の量が、フォロワスコープがターゲットを見つけるために与えられ、その時点でラウンドが終了する。順番にかまたはランダムにかのどちらかで、それから、新しいリードスコープが、ターゲットを見つけるために指定され、次のラウンドが、プレイされる。ゲームの勝者は、ゲームに関する予め設定された時間の終わりに最大のポイントを有するスコープである。代替的に、ゲームは、目標スコアが達成されるときに終わり、プレイヤーは、それらのプレイヤーのポイントに基づいてランク付けされる。
IAMSが、物体の分類によって現在の視野内の潜在的なターゲットを特定することによってリードスコープの操作者をサポートするために使用され得る。画像フレームを分析し、画像フレーム内の物体を特定するための従来技術のプロセスが存在する。たとえば、GOOGLE(登録商標) Cloud Vision APIが、アプリケーションが画像内の内容を見て、理解することを可能にする画像分析能力を提供する。サービスは、顧客が一般的な物体(たとえば、「ヨット」、「ライオン」、「エッフェル塔」)から顔および商品ロゴまで画像内のエンティティの幅広い組を検出することを可能にする。この種のソフトウェアアプリケーションが、物体の分類によって現在の視野内の潜在的なターゲットを特定するために使用される可能性がある。
1. 自動的なターゲットの検出が、上述のようにリードスコープを使用して実行される。
2. 上のC節において説明されたプロセスを使用して、IAMSが、リードスコープに対する特定のフォロワスコープの位置に基づいてターゲットの画像がどのように見えるはずであるかを計算する。見た目は、角度(たとえば、同じ角度(正面)、+/-90度回転(左または右側面の図)、180度回転(お尻の図))および距離(たとえば、ターゲットまでの距離に応じてサイズが同じか、より大きいか、またはより小さい)を織り込む。
3. 画像がフォロワスコープの視野から取り込まれ、フォロワスコープによって見えるように計算された計算されたリードスコープからの予測されたターゲットの画像がフォロワスコープの視野内に実際にあるかどうかを判定するために、自動化されたパターンの特定が実行される。たとえば、鹿が+90度回転されたように見えるはずである場合、自動化されたパターン認識から決定されるときにフォロワスコープの正面を向いている鹿は、正しいターゲットではない可能性が高い。しかし、鹿が+90度回転されたように見えるはずであり、自動化されたパターン認識から決定されるときに、鹿がフォロワスコープの視野内にあると判定され、+90度回転されているとさらに判定される場合、鹿は、正しいターゲットである可能性が高い。
4. 予測されたターゲットの画像がフォロワスコープの視野内にある場合、同様の種類のバウンディングボックスまたは強調された画像セグメントがフォロワスコープ内に現れ、フォロワスコープをそのフォロワスコープの現在のターゲットの位置から境界ボックスまたは強調された画像セグメント内のターゲットの画像に向かって位置修正するために、フォロワスコープの操作者に適切なプロンプトが提供される。
上述の実施形態においては、スコープがすべて同様の焦点距離を有すると仮定される。しかし、スコープが異なる焦点距離を有する場合、IAMSは、視野内の分析されている物体のサイズおよびフォロワスコープに画像として表示される物体のサイズを決定するとき、適切な調整を行わなければならない。好ましくは、IAMSは、任意のそのような調整が行われ得るようにそれぞれのスコープの焦点距離に関するデータを受信する。
図6は、互いに離れて置かれ、別々のスコープの操作者によって移動させられる第1のスコープおよび第2のスコープによって単一の推定されたターゲットを追跡するためのプロセスの流れ図であり、スコープの各々は、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含む。1つの好ましい実施形態において、プロセスは、少なくとも以下のステップによって実施される。
600: 第1のスコープの複数の測定デバイスを使用して第1のスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定する。
602: 第1のスコープが、第1のスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データを第2のスコープに電子的に伝達する。
604: 第2のスコープが、その第2のスコープの複数の測定デバイスを使用して第2のスコープの現在のターゲットの位置のその第2のスコープの現在のターゲットの位置データを特定する。
606: 第2のスコープのプロセッサにおいて、その第2のスコープの現在のターゲットの位置データおよび第1のスコープから受信された現在のターゲットの位置データを使用して、第2のスコープをその第2のスコープの現在のターゲットの位置から第1のスコープによって特定された推定されたターゲットのターゲットの位置に移動させるために必要とされる位置の移動を計算する。
608: 第2のスコープのプロセッサが、位置の移動を行うように第2のスコープの操作者に促すために第2のスコープによって使用されるための電子的に生成されたインジケータを出力する。第2のスコープの操作者は、第1のスコープから受信された現在のターゲットの位置データによって定義されたターゲットの位置に向かって移動させるためにスコープをその第2のスコープの現在のターゲットの位置から位置修正するためにインジケータを使用する。
700: 第1のスコープの複数の測定デバイスを使用して第1のスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定する。
702: 第1のスコープが、第1のスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データをネットワークサーバに電子的に伝達する。
704: ネットワークサーバが、第1のスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データを残りのスコープに伝達する。
706: 残りのスコープの各々が、第1のスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データを使用して推定されたターゲットの位置を特定する。
708: 推定されたターゲットの位置を特定すると、残りのスコープの各々が、推定されたターゲットに関する現在のターゲットの位置データをネットワークサーバに電子的に伝達し、現在のターゲットの位置データは、それぞれの残りのスコープの複数の測定デバイスを使用してそれぞれの残りのスコープによって特定される。
710: ネットワークサーバが、推定されたターゲットの位置を特定した各スコープからの現在のターゲットの位置データを合併することによって、残りのスコープのいずれか1つから現在のターゲットの位置データを受信すると、更新された現在のターゲットの位置データを計算し、更新された現在のターゲットの位置データは、第1のスコープのみによって特定された現在のターゲットの位置データの誤差値と比較して小さくされた誤差値を有する。
712: ネットワークサーバが、推定されたターゲットに関する更新された現在のターゲットの位置データを推定されたターゲットの位置をまだ特定していない残りのスコープに電子的に伝達する。
714: 推定されたターゲットの位置をまだ特定していない残りのスコープが、推定されたターゲットの位置を特定するために、任意の前に受信された現在のターゲットの位置データの代わりに更新された現在のターゲットの位置データを使用する。
800: 複数のリードスコープが、それぞれのリードスコープの複数の測定デバイスを使用してそれぞれのリードスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定する。
802: 複数のリードスコープが、(i)それぞれのリードスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データと、(ii)推定されたターゲットの各々に関する情報とをネットワークサーバに電子的に伝達する。
804: ネットワークサーバが、(i)リードスコープの操作者によって特定された推定されたターゲットに関する現在のターゲットの位置データと、(ii)推定されたターゲットの各々に関する情報とを1つまたは複数のフォロワスコープに伝達する。
806: 1つまたは複数のフォロワスコープの各々が、推定されたターゲットの各々に関する情報を使用してリードスコープの推定されたターゲットのうちの1つを電子的に選択する。
808: 1つまたは複数のフォロワスコープの各々が、(i)そのフォロワスコープの複数の測定デバイスを使用してそのフォロワスコープの現在のターゲットの位置のそのフォロワスコープの現在のターゲットの位置データを特定すること、(ii)そのフォロワスコープの現在のターゲットの位置データおよび選択された推定されたターゲットの位置の現在のターゲットの位置データを使用して、フォロワスコープをそのフォロワスコープの現在のターゲットの位置から選択された推定されたターゲットのターゲットの位置に移動させるために必要とされる移動を計算すること、ならびに(iii)位置の移動を行うようにフォロワスコープの操作者に促すためにフォロワスコープによって使用されるための電子的に生成されたインジケータを出力することによって選択された推定されたターゲットの位置を特定する。フォロワスコープの操作者は、選択された推定されたターゲットの現在のターゲットの位置データによって定義されたターゲットの位置に向かって移動させるためにフォロワスコープをそのフォロワスコープの現在のターゲットの位置から位置修正するためにインジケータを使用する。
12 非デバイス/非スコープノード
16 ネットワークサーバ
18 電子ネットワーク
20 インターネット
22 メッシュネットワーク
24 ノード
26 ノード
30 プロセッサ
32 GPS/INS
34 コンパス
36 距離計
38 方位センサー
40 高さセンサー
42 スコープ
44 視聴覚ディスプレイデバイス
46 ネットワークインターフェース
48 有線またはワイヤレス通信トランシーバ
50 メモリ
52 プロセッサ
54 メモリ
56 画像分析および操作ソフトウェア(IAMS)
58 ネットワークインターフェース
60 有線またはワイヤレス通信トランシーバ
Claims (21)
- 互いに離れて置かれ、別々のスコープの操作者によって移動させられる第1のスコープおよび第2のスコープによって単一の推定されたターゲットを追跡するための方法であって、前記スコープの各々が、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含み、前記方法が、
(a)前記第1のスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定するステップであって、前記現在のターゲットの位置データが、前記第1のスコープの前記複数の測定デバイスを使用して特定される、ステップと、
(b)前記第1のスコープが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを電子ネットワークを介して前記第2のスコープに電子的に伝達するステップと、
(c)前記第2のスコープが、前記第2のスコープの複数の測定デバイスを使用して前記第2のスコープの現在のターゲットの位置の前記第2のスコープの現在のターゲットの位置データを特定するステップと、
(d)前記第2のスコープのプロセッサにおいて、前記第2のスコープの現在のターゲットの位置データおよび前記第1のスコープから受信された前記現在のターゲットの位置データを使用して、前記第2のスコープを前記第2のスコープの現在のターゲットの位置から前記第1のスコープによって特定された前記推定されたターゲットの前記ターゲットの位置に移動させるために必要とされる位置の移動を計算するステップと、
(e)前記第2のスコープの前記プロセッサが、前記位置の移動を行うように前記第2のスコープの前記操作者に促すために前記第2のスコープによって使用されるための電子的に生成されたインジケータを出力するステップであって、
前記第2のスコープの前記操作者が、前記第1のスコープから受信された前記現在のターゲットの位置データによって定義された前記ターゲットの位置に向かって移動させるために前記第2のスコープを前記第2のスコープの現在のターゲットの位置から位置修正するために前記インジケータを使用するステップと、
(f)デジタルイメージセンサーを使用して前記第1のスコープの前記操作者によって特定された前記推定されたターゲットのデジタル画像を取り込むステップと、
(g)前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記デジタル画像内の視覚的特徴を、既知の物体の視覚的特徴と電子的に比較し、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記デジタル画像の前記視覚的特徴に対応する既知の物体のデータベースから、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットのシミュレーションされた画像を取り出すステップと、
(h)前記第1のスコープが、前記電子ネットワークを介して前記第2のスコープに前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記シミュレーションされた画像を電子的に伝達するステップと、
(i)前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記シミュレーションされた画像を前記第2のスコープのディスプレイ上に表示するステップとを含み、
前記表示された推定されたターゲットが、前記第1のスコープから受信された前記現在のターゲットの位置データによって定義された前記ターゲットの位置に向かって移動するのを支援するために前記第2のスコープの前記操作者によって使用される
方法。 - ステップ(g)において、前記第1のスコープが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記シミュレーションされた画像を前記電子ネットワークを介して前記第2のスコープに電子的に伝達し、ステップ(h)において、前記第2のスコープの前記ディスプレイが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記シミュレーションされた画像を表示し、前記方法が、
(j)画像分析およびシミュレーションソフトウェアを使用して、前記第2のスコープの前記現在のターゲットの位置データから、前記第2のスコープに対する前記推定されたターゲットの眺めの可能性が高い角度を計算するステップと、
(k)眺めの前記可能性が高い角度に一致するように前記第1のスコープの前記操作者によって特定された前記推定されたターゲットの前記シミュレーションされた画像を電子的に回転するステップであって、前記推定されたターゲットの前記シミュレーションされた画像の表示が、電子的な回転を反映する、ステップとをさらに含む請求項1に記載の方法。 - 前記ターゲットの位置データが、(i)前記ターゲットの3次元位置データか、または(ii)前記ターゲットの前記3次元位置データを計算するのに十分な生測定データかのどちらかである請求項1に記載の方法。
- 前記第1のスコープの前記操作者によって位置を特定される前記推定されたターゲットに関する現在のターゲットの位置データが、前記推定されたターゲットの中心を特定する請求項1に記載の方法。
- 前記第1のスコープが、
(i)前記第1のスコープが前記電子ネットワークを介して前記現在のターゲットの位置データをネットワークサーバに電子的に伝達することと、
(ii)前記ネットワークサーバが前記現在のターゲットの位置データを記憶し、前記電子ネットワークを介して前記第2のスコープに転送することと
によって前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを前記第2のスコープに電子的に伝達する請求項1に記載の方法。 - 前記第1のスコープおよび前記第2のスコープ、ならびにネットワークサーバが、メッシュネットワークのノードであり、前記電子ネットワークが、前記メッシュネットワークである請求項1に記載の方法。
- (j)前記第1のスコープの操作者によって位置を特定される推定されたターゲットに関するその後の新しい現在のターゲットの位置データを特定するステップと、
(k)前記その後の新しい現在のターゲットの位置データを使用してステップ(b)~(e)を実行するステップとをさらに含み、
前記第2のスコープの前記操作者が、前記第1のスコープから受信された前記その後の新しい現在のターゲットの位置データによって定義された前記ターゲットの位置に向かって移動させるために前記第2のスコープを前記第2のスコープの現在のターゲットの位置から位置修正するために前記インジケータを使用する請求項1に記載の方法。 - (j)前記第1のスコープの操作者によって位置を特定される推定されたターゲットに関する前記現在のターゲットの位置データの変化を前記第1のスコープのプロセッサにおいて検出するステップと、
(k)変更された現在のターゲットの位置データを使用してステップ(b)~(e)を実行するステップとをさらに含み、
前記第2のスコープの前記操作者が、前記第1のスコープから受信された前記変更された現在のターゲットの位置データによって定義された前記ターゲットの位置に向かって移動させるために前記第2のスコープを前記第2のスコープの現在のターゲットの位置から位置修正するために前記インジケータを使用する請求項1に記載の方法。 - 前記複数の測定デバイスが、少なくとも以下のデバイス、すなわち、
(i)前記第1のスコープまたは前記第2のスコープの緯度、経度、および高度を提供するように構成された全地球測位システム(GPS)デバイスまたはGPS支援型慣性ナビゲーションシステム(GPS/INS)、
(ii)前記第1のスコープまたは前記第2のスコープの位置に対する前記推定されたターゲットの方向を提供するように構成されたコンパス、ならびに
(iii)姿勢データを提供するように構成された方位センサーを含む請求項1に記載の方法。 - (j)コンピュータにおいて、前記第2のスコープの現在の位置と前記第1のスコープから受信された前記現在のターゲットの位置データによって定義された前記ターゲットの位置との間のベクトルを前記第2のスコープおよび前記ターゲットの位置を含むエリアの地形図に電子的に重ね合わせるステップと、
(k)前記第2のスコープが前記推定されたターゲットを見ることを妨げる地上の特徴を前記ベクトルが通るかどうかを、前記コンピュータにおいて前記ベクトルおよび前記地形図から電子的に判定するステップと、
(l)前記第2のスコープが前記推定されたターゲットを見ることを妨げる地上の特徴を前記ベクトルが通るという判定がなされるとき、前記コンピュータが、以下の情報、すなわち、
(i)前記第2のスコープによって表示されるための、前記推定されたターゲットが視界から隠されることのしるし、および
(ii)前記推定されたターゲットの視野が塞がれないことを可能にする別の位置に移動するように前記第2のスコープの前記操作者に促すために前記第2のスコープによって使用されるための電子的に生成されたインジケータのうちの少なくとも1つを出力するステップとをさらに含む請求項1に記載の方法。 - 互いに離れて置かれ、別々のスコープの操作者によって移動させられる第1のスコープおよび第2のスコープによって単一の推定されたターゲットを追跡するための方法であって、前記スコープの各々が、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含み、前記方法が、
(a)前記第1のスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定するステップであって、前記現在のターゲットの位置データが、前記第1のスコープの前記複数の測定デバイスを使用して特定される、ステップと、
(b)前記第1のスコープが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを電子ネットワークを介して前記第2のスコープに電子的に伝達するステップと、
(c)前記第2のスコープが、前記第2のスコープの複数の測定デバイスを使用して前記第2のスコープの現在のターゲットの位置の前記第2のスコープの現在のターゲットの位置データを特定するステップと、
(d)前記第2のスコープのプロセッサにおいて、前記第2のスコープの現在のターゲットの位置データおよび前記第1のスコープから受信された前記現在のターゲットの位置データを使用して、前記第2のスコープを前記第2のスコープの現在のターゲットの位置から前記第1のスコープによって特定された前記推定されたターゲットの前記ターゲットの位置に移動させるために必要とされる位置の移動を計算するステップと、
(e)前記第2のスコープの前記プロセッサが、前記位置の移動を行うように前記第2のスコープの前記操作者に促すために前記第2のスコープによって使用されるための電子的に生成されたインジケータを出力するステップであって、
前記第2のスコープの前記操作者が、前記第1のスコープから受信された前記現在のターゲットの位置データによって定義された前記ターゲットの位置に向かって移動させるために前記第2のスコープを前記第2のスコープの現在のターゲットの位置から位置修正するために前記インジケータを使用するステップとを含み、
ステップ(a)の前に、
(f)前記第1のスコープの前記操作者が、前記第1のスコープのディスプレイ上の予め設定されたリストから、位置を特定されることが望まれるターゲットの種類を選択するステップと、
(g)前記第1のスコープの視野の画像を取り込むステップと、
(h)画像分析および物体分類ソフトウェアを使用して、前記第1のスコープの前記操作者によって選択されたターゲットの前記種類を前記第1のスコープの前記視野内に現れる物体と自動的に比較し、ターゲットの選択された前記種類に一致する前記視野内のすべての物体を検出するステップと、
(i)前記検出された物体を前記第1のスコープの前記ディスプレイ上で強調するステップであって、前記検出された物体のうちの1つが、ステップ(a)において特定される前記推定されたターゲットになる、ステップとをさらに含む方法。 - 互いに離れて置かれ、別々のスコープの操作者によって移動させられる複数のスコープによって単一の推定されたターゲットを追跡するための方法であって、前記スコープの各々が、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含み、前記スコープの各々が、ネットワークサーバと電子ネットワークを介して電子的に通信しており、前記現在のターゲットの位置データが誤差値を有し、前記方法が、
(a)第1のスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定するステップであって、前記現在のターゲットの位置データが、前記第1のスコープの前記複数の測定デバイスを使用して特定される、ステップと、
(b)前記第1のスコープが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを前記電子ネットワークを介して前記ネットワークサーバに電子的に伝達するステップと、
(c)前記ネットワークサーバが、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを前記電子ネットワークを介して残りのスコープに伝達するステップと、
(d)前記残りのスコープの各々が、前記第1のスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データを使用して前記推定されたターゲットの位置を特定するステップと、
(e)前記推定されたターゲットの位置を特定すると、前記残りのスコープの各々が、前記推定されたターゲットに関する前記現在のターゲットの位置データを前記電子ネットワークを介して前記ネットワークサーバに電子的に伝達するステップであって、前記現在のターゲットの位置データが、それぞれの前記残りのスコープの前記複数の測定デバイスを使用してそれぞれの前記残りのスコープによって特定される、ステップと、
(f)前記ネットワークサーバが、前記推定されたターゲットの位置を特定した各スコープからの前記現在のターゲットの位置データを合併することによって、前記残りのスコープのいずれか1つから現在のターゲットの位置データを受信すると、更新された現在のターゲットの位置データを計算するステップであって、前記更新された現在のターゲットの位置データが、前記第1のスコープのみによって特定された前記現在のターゲットの位置データの前記誤差値と比較して小さくされた誤差値を有する、ステップと、
(g)前記ネットワークサーバが、前記推定されたターゲットに関する前記更新された現在のターゲットの位置データを前記推定されたターゲットの位置を、まだ特定していない前記残りのスコープに前記電子ネットワークを介して電子的に伝達するステップと、
(h)前記推定されたターゲットの位置をまだ特定していない前記残りのスコープが、前記推定されたターゲットの位置を特定するために、任意の前に受信された現在のターゲットの位置データの代わりに前記更新された現在のターゲットの位置データを使用するステップとを含む、方法。 - 前記スコープのうちの1つが、前記ネットワークサーバをさらに含み、前記残りのスコープが、前記ネットワークサーバを含む前記スコープと前記電子ネットワークを介して電子的に通信している請求項12に記載の方法。
- 前記ネットワークサーバが、前記スコープの各々から離れて置かれる請求項12に記載の方法。
- ステップ(g)が、前記ネットワークサーバが、前記推定されたターゲットに関する前記更新された現在のターゲットの位置データを前記推定されたターゲットの位置を既に特定したスコープおよび前記第1のスコープに前記電子ネットワークを介して電子的に伝達することをさらに含む請求項12に記載の方法。
- ステップ(f)~(h)が、ステップ(e)において前記ネットワークサーバが前記残りのスコープのうちの1つから推定されたターゲットを受信するたびに繰り返され、前記現在のターゲットの位置データが、それによって繰り返し更新され、前回の更新された現在のターゲットの位置データの誤差値と比較して継続して小さくされた誤差値を有する請求項12に記載の方法。
- 前記複数のスコープおよび前記ネットワークサーバが、メッシュネットワークのノードであり、前記電子ネットワークが、前記メッシュネットワークである請求項12に記載の方法。
- 互いに離れて置かれ、別々のスコープの操作者によって移動させられる複数のリードスコープおよび1つまたは複数のフォロワスコープによって複数の推定されたターゲットを追跡するための方法であって、前記スコープの各々が、現在のターゲットの位置データを提供するように構成された複数の測定デバイスを含み、前記スコープの各々が、ネットワークサーバと電子ネットワークを介して電子的に通信している、方法において、
(a)前記複数のリードスコープが、それぞれのリードスコープの操作者によって位置を特定される推定されたターゲットに関する現在のターゲットの位置データを特定するステップであって、前記現在のターゲットの位置データが、前記それぞれのリードスコープの前記複数の測定デバイスを使用して特定される、ステップと、
(b)前記複数のリードスコープが、
(i)前記それぞれのリードスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データ、および
(ii)前記推定されたターゲットの各々に関する情報を前記電子ネットワークを介して前記ネットワークサーバに電子的に伝達するステップと、
(c)前記ネットワークサーバが、
(i)前記リードスコープの前記操作者によって特定された前記推定されたターゲットに関する前記現在のターゲットの位置データ、および
(ii)前記推定されたターゲットの各々に関する情報を前記電子ネットワークを介して前記1つまたは複数のフォロワスコープに伝達するステップと、
(d)前記1つまたは複数のフォロワスコープの各々が、前記推定されたターゲットの各々に関する前記情報を使用して前記リードスコープの前記推定されたターゲットのうちの1つを電子的に選択するステップと、
(e)前記1つまたは複数のフォロワスコープの各々が、
(i)前記フォロワスコープの複数の測定デバイスを使用して前記フォロワスコープの現在のターゲットの位置の前記フォロワスコープの現在のターゲットの位置データを特定すること、
(ii)前記フォロワスコープのスコープのプロセッサにおいて、前記フォロワスコープの現在のターゲットの位置データおよび選択された推定されたターゲットの位置の前記現在のターゲットの位置データを使用して、前記フォロワスコープを前記フォロワスコープの現在のターゲットの位置から選択された推定されたターゲットの前記ターゲットの位置に移動させるために必要とされる移動を計算すること、ならびに
(iii)前記フォロワスコープの前記プロセッサが、位置の移動を行うように前記フォロワスコープの操作者に促すために前記フォロワスコープによって使用されるための電子的に生成されたインジケータを出力することによって前記選択された推定されたターゲットの位置を特定するステップとを含み、
前記フォロワスコープの前記操作者が、前記選択された推定されたターゲットの前記現在のターゲットの位置データによって定義されたターゲットの位置に向かって移動させるために前記フォロワスコープを前記フォロワスコープの現在のターゲットの位置から位置修正するために前記インジケータを使用する、方法。 - 前記情報が、前記それぞれのリードスコープの前記操作者によって特定された前記推定されたターゲットの、前記それぞれのリードスコープのデジタルイメージセンサーによって取り込まれたデジタル画像であり、ステップ(d)が、前記フォロワスコープの各々に関して、
(i)前記フォロワスコープのディスプレイに前記リードスコープの前記推定されたターゲットの前記デジタル画像を表示することと、
(ii)前記リードスコープの前記推定されたターゲットの前記デジタル画像のうちの1つを電子的に選択することとをさらに含む請求項18に記載の方法。 - ステップ(d)が、前記フォロワスコープの各々に関して、
(i)一揃いの表示可能な推定されたターゲットを、前記リードスコープの前記推定されたターゲットの各々に関する前記情報を使用して、前記フォロワスコープのディスプレイ上で生成することと、
(ii)前記リードスコープの前記推定されたターゲットのうちの1つを電子的に選択することとをさらに含む請求項18に記載の方法。 - 前記情報が、推定されたターゲットまでの距離、推定されたターゲットの生成の時間、および前記推定されたターゲットを特定したリードスコープのうちの1つである請求項18に記載の方法。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762544124P | 2017-08-11 | 2017-08-11 | |
US62/544,124 | 2017-08-11 | ||
US16/057,247 US10267598B2 (en) | 2017-08-11 | 2018-08-07 | Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices |
US16/057,247 | 2018-08-07 | ||
PCT/US2018/046157 WO2019032931A1 (en) | 2017-08-11 | 2018-08-10 | DEVICES WITH NETWORK CONNECTED ARRANGEMENTS FOR SIMULTANEOUS MONITORING OF A TARGET BY MULTIPLE DEVICES |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020533606A JP2020533606A (ja) | 2020-11-19 |
JP7150851B2 true JP7150851B2 (ja) | 2022-10-11 |
Family
ID=65271279
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020530439A Active JP7150851B2 (ja) | 2017-08-11 | 2018-08-10 | ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス |
Country Status (9)
Country | Link |
---|---|
US (5) | US10267598B2 (ja) |
EP (1) | EP3665618A4 (ja) |
JP (1) | JP7150851B2 (ja) |
KR (1) | KR102587844B1 (ja) |
CN (1) | CN111417952B (ja) |
CA (1) | CA3072084A1 (ja) |
IL (1) | IL272558A (ja) |
MX (1) | MX2020001620A (ja) |
WO (1) | WO2019032931A1 (ja) |
Families Citing this family (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017101118A1 (de) * | 2017-01-20 | 2018-07-26 | Steiner-Optik Gmbh | Kommunikationssystem zur Übertragung von erfassten Objektinformationen zwischen wenigstens zwei Kommunikationspartnern |
USD850567S1 (en) * | 2017-05-11 | 2019-06-04 | Dimitri Mikroulis | Reticle |
USD850564S1 (en) * | 2017-05-11 | 2019-06-04 | Dimitri Mikroulis | Reticle |
USD850565S1 (en) * | 2017-05-11 | 2019-06-04 | Dimitri Mikroulis | Reticle |
US10267598B2 (en) | 2017-08-11 | 2019-04-23 | Douglas FOUGNIES | Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices |
US10408573B1 (en) | 2017-08-11 | 2019-09-10 | Douglas FOUGNIES | Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices |
USD850569S1 (en) * | 2018-02-18 | 2019-06-04 | Dimitri Mikroulis | Reticle |
US10919459B2 (en) * | 2018-08-20 | 2021-02-16 | Freedom Surveillance, LLC | Vehicle having vehicle-mounted dual retractable telescoping structures housing surveillance equipment with one structure being mounted to flatbed of the vehicle and another structure being fully retractable within vehicle |
WO2020167530A1 (en) * | 2019-02-11 | 2020-08-20 | Fougnies Douglas | Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices |
DE102019105093A1 (de) * | 2019-02-28 | 2020-09-03 | Carl Zeiss Ag | Verfahren zum Unterstützen eines Benutzers beim Anvisieren eines Objekts mittels eines Fernrohrs |
JP7282964B2 (ja) * | 2019-08-06 | 2023-05-29 | 直之 村上 | コンピユーターの目(pceye) |
JP7282966B2 (ja) * | 2019-08-06 | 2023-05-29 | 直之 村上 | コンピユーターの目(pceye) |
CN111006651B (zh) * | 2019-11-22 | 2022-06-10 | 西安翔迅科技有限责任公司 | 目标跟踪数据录取便携装置和观瞄跟踪设备 |
KR102180878B1 (ko) * | 2020-07-08 | 2020-11-19 | 한화시스템(주) | 개인 화기에서의 표적 거리 계산 장치 및 그 방법 |
CN114442305A (zh) * | 2020-11-02 | 2022-05-06 | 上海迈利船舶科技有限公司 | 一种视觉增强ais船舶望远镜 |
KR102530236B1 (ko) * | 2020-11-05 | 2023-05-09 | 엘아이지넥스원 주식회사 | 광축보정이 가능한 광학 시스템 |
KR102339783B1 (ko) * | 2021-02-02 | 2021-12-16 | 한화시스템 주식회사 | 정보 제공 장치 및 정보 제공 방법 |
KR102339782B1 (ko) * | 2021-02-02 | 2021-12-16 | 한화시스템 주식회사 | 정보 제공 장치 및 정보 공유 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008211417A (ja) | 2007-02-26 | 2008-09-11 | Fujitsu Ltd | 多視点動画像伝送システム |
JP2011123152A (ja) | 2009-12-09 | 2011-06-23 | Nikon Corp | 望遠鏡及び望遠鏡システム |
US20140188385A1 (en) | 2012-12-31 | 2014-07-03 | Trackingpoint, Inc. | System and Method of Locating Prey |
Family Cites Families (53)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4255013A (en) | 1979-05-17 | 1981-03-10 | John E. McNair | Rifle scope having compensation for elevation and drift |
US4418487A (en) | 1982-02-02 | 1983-12-06 | Strahan Travis R | Mounting bracket for gunsight |
DE3244255A1 (de) | 1982-11-30 | 1984-06-14 | Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn | Bahnvermessungs- und ueberwachungssystem |
US4531321A (en) | 1983-01-12 | 1985-07-30 | Bechtel Daniel L | Scope-mounting devices for firearms |
US5052790A (en) | 1987-12-18 | 1991-10-01 | Edwards Optical Corporation | Telemicroscopic apparatus for sighting and bi-level viewing |
US4905396A (en) | 1989-01-11 | 1990-03-06 | Bechtel Daniel L | Method and apparatus for mounting an auxiliary sighting aid on a firearm |
US4949089A (en) | 1989-08-24 | 1990-08-14 | General Dynamics Corporation | Portable target locator system |
US5822713A (en) * | 1993-04-05 | 1998-10-13 | Contraves Usa | Guided fire control system |
US5568152A (en) | 1994-02-04 | 1996-10-22 | Trimble Navigation Limited | Integrated image transfer for remote target location |
JPH0961725A (ja) * | 1995-08-22 | 1997-03-07 | Nikon Corp | 観察装置 |
JP3569409B2 (ja) | 1997-01-17 | 2004-09-22 | ペンタックス株式会社 | Gpsを利用した望遠鏡 |
US6269581B1 (en) | 1999-04-12 | 2001-08-07 | John Groh | Range compensating rifle scope |
US6891960B2 (en) * | 2000-08-12 | 2005-05-10 | Facet Technology | System for road sign sheeting classification |
US6643970B2 (en) * | 2002-01-31 | 2003-11-11 | Jeffrey Huber | Zero stop adjustable rifle scope |
US20040134113A1 (en) | 2002-08-02 | 2004-07-15 | Deros Mark A. | Adjustable gun rest apparatus |
US6862833B1 (en) | 2003-05-21 | 2005-03-08 | Frederick Wilhelm Gurtner | Scope-to-firearm alignment assembly |
WO2004107012A1 (ja) | 2003-05-30 | 2004-12-09 | Vixen Co., Ltd. | 天体の自動導入装置 |
US20050233284A1 (en) * | 2003-10-27 | 2005-10-20 | Pando Traykov | Optical sight system for use with weapon simulation system |
FR2862748B1 (fr) * | 2003-11-25 | 2006-01-21 | Thales Sa | Procede de conduite de tir pour aeronefs |
US7225548B2 (en) | 2004-05-17 | 2007-06-05 | Sr2 Group, Llc | System and method for aligning multiple sighting devices |
US7642741B2 (en) | 2005-04-27 | 2010-01-05 | Sidman Adam D | Handheld platform stabilization system employing distributed rotation sensors |
DE102006022302A1 (de) | 2006-05-11 | 2007-11-15 | Carl Zeiss Sports Optics Gmbh | Verfahren zur Unterstützung wenigstens eines ersten Beobachters beim Anvisieren eines Zielobjekts |
US10161717B2 (en) * | 2006-08-14 | 2018-12-25 | Huskemaw Optics, Llc | Long range archery scope |
US8001714B2 (en) | 2006-08-14 | 2011-08-23 | Aaron Davidson | Ballistics systems and methods |
US20170010073A1 (en) * | 2010-01-15 | 2017-01-12 | Colt Canada Ip Holding Partnership | Networked battle system with heads up display |
US9366862B2 (en) | 2010-02-28 | 2016-06-14 | Microsoft Technology Licensing, Llc | System and method for delivering content to a group of see-through near eye display eyepieces |
KR101237129B1 (ko) * | 2010-05-19 | 2013-02-25 | 정인 | 원격조정 사격시스템용 조준장치 및 이를 이용한 조준 정렬방법 |
WO2012061154A1 (en) * | 2010-10-25 | 2012-05-10 | Banc3, Inc. | Weapon sight |
EP2461132A1 (de) * | 2010-12-02 | 2012-06-06 | Leica Geosystems AG | Teleskop zur Verwendung in einem Vermessungsinstrument und Verfahren zur automatisierten Autokollimation eines Teleskops eines Vermessungsinstruments mit einem Autokollimationsziel |
US8885882B1 (en) * | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US9625720B2 (en) | 2012-01-24 | 2017-04-18 | Accipiter Radar Technologies Inc. | Personal electronic target vision system, device and method |
US9833638B2 (en) * | 2012-02-12 | 2017-12-05 | Christopher V. Beckman | Location-based encryption and shielding |
WO2014071291A2 (en) | 2012-11-02 | 2014-05-08 | Strongwatch Corporation, Nevada C Corp | Wide area imaging system and method |
US9435612B2 (en) * | 2012-11-02 | 2016-09-06 | Umarex Usa, Inc. | Method and system for aligning a point of aim with a point of impact for a projectile device |
US9459076B2 (en) | 2012-12-12 | 2016-10-04 | Trackingpoint, Inc. | Rifle scope, apparatus, and method including proximity detection and warning system |
US10337830B2 (en) | 2012-12-31 | 2019-07-02 | Talon Precision Optics, LLC | Portable optical device with interactive wireless remote capability |
US9127909B2 (en) * | 2013-02-17 | 2015-09-08 | Smart Shooter Ltd. | Firearm aiming system with range finder, and method of acquiring a target |
US20140281851A1 (en) * | 2013-03-15 | 2014-09-18 | John Francis McHale | Computer-Readable Storage Device, System and Method of Automatically Generating a Hunt Story |
WO2015199780A2 (en) | 2014-04-01 | 2015-12-30 | Baker Joe D | Mobile ballistics processing and targeting display system |
US10260840B2 (en) * | 2014-04-01 | 2019-04-16 | Geoballistics, Llc | Mobile ballistics processing and display system |
US9612088B2 (en) | 2014-05-06 | 2017-04-04 | Raytheon Company | Shooting system with aim assist |
US20160033268A1 (en) * | 2014-07-31 | 2016-02-04 | Michael Franklin Abernathy | Apparatus for augmented reality for optical systems |
US9727786B2 (en) * | 2014-11-14 | 2017-08-08 | Intel Corporation | Visual object tracking system with model validation and management |
US9857144B2 (en) * | 2014-12-10 | 2018-01-02 | Flir Systems, Inc. | Electronic adaptive reticle systems and methods |
US9285189B1 (en) * | 2015-04-01 | 2016-03-15 | Huntercraft Limited | Integrated electronic sight and method for calibrating the reticle thereof |
AU2016268788A1 (en) * | 2015-05-26 | 2017-12-07 | Colt Canada Ip Holding Partnership | A networked battle system with heads up display |
US9816783B1 (en) * | 2016-01-07 | 2017-11-14 | DuckDrone, LLC | Drone-target hunting/shooting system |
US20170302852A1 (en) | 2016-04-13 | 2017-10-19 | Jason Tze Wah Lam | Three Axis Gimbals Stabilized Action Camera Lens Unit |
BE1024403B1 (fr) * | 2016-07-15 | 2018-02-14 | Fn Herstal S.A. | Système de visée |
US10408573B1 (en) | 2017-08-11 | 2019-09-10 | Douglas FOUGNIES | Vehicle-mounted device with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices |
US10267598B2 (en) | 2017-08-11 | 2019-04-23 | Douglas FOUGNIES | Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices |
US20190226805A1 (en) * | 2018-01-22 | 2019-07-25 | Japan Optics USA LLC | System for Scope Leveling |
AU2019222746A1 (en) * | 2018-02-14 | 2020-08-13 | Wilcox Industries Corp. | Weapon system |
-
2018
- 2018-08-07 US US16/057,247 patent/US10267598B2/en active Active
- 2018-08-10 KR KR1020207006975A patent/KR102587844B1/ko active IP Right Grant
- 2018-08-10 WO PCT/US2018/046157 patent/WO2019032931A1/en unknown
- 2018-08-10 EP EP18843949.1A patent/EP3665618A4/en active Pending
- 2018-08-10 MX MX2020001620A patent/MX2020001620A/es unknown
- 2018-08-10 CA CA3072084A patent/CA3072084A1/en active Pending
- 2018-08-10 CN CN201880064911.7A patent/CN111417952B/zh active Active
- 2018-08-10 JP JP2020530439A patent/JP7150851B2/ja active Active
-
2019
- 2019-04-22 US US16/390,330 patent/US10495414B2/en active Active
- 2019-12-02 US US16/700,576 patent/US10704863B1/en active Active
-
2020
- 2020-02-09 IL IL272558A patent/IL272558A/en unknown
- 2020-07-01 US US16/918,768 patent/US11226175B2/en active Active
-
2022
- 2022-01-13 US US17/575,169 patent/US20220244019A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008211417A (ja) | 2007-02-26 | 2008-09-11 | Fujitsu Ltd | 多視点動画像伝送システム |
JP2011123152A (ja) | 2009-12-09 | 2011-06-23 | Nikon Corp | 望遠鏡及び望遠鏡システム |
US20140188385A1 (en) | 2012-12-31 | 2014-07-03 | Trackingpoint, Inc. | System and Method of Locating Prey |
Also Published As
Publication number | Publication date |
---|---|
US11226175B2 (en) | 2022-01-18 |
US20220244019A1 (en) | 2022-08-04 |
US10495414B2 (en) | 2019-12-03 |
CA3072084A1 (en) | 2019-02-14 |
JP2020533606A (ja) | 2020-11-19 |
EP3665618A1 (en) | 2020-06-17 |
EP3665618A4 (en) | 2021-04-21 |
US20210025674A1 (en) | 2021-01-28 |
US10704863B1 (en) | 2020-07-07 |
CN111417952A (zh) | 2020-07-14 |
KR102587844B1 (ko) | 2023-10-11 |
US20200208944A1 (en) | 2020-07-02 |
US20190316879A1 (en) | 2019-10-17 |
CN111417952B (zh) | 2023-12-15 |
IL272558A (en) | 2020-03-31 |
KR20200049783A (ko) | 2020-05-08 |
US20190049219A1 (en) | 2019-02-14 |
US10267598B2 (en) | 2019-04-23 |
MX2020001620A (es) | 2020-08-13 |
WO2019032931A1 (en) | 2019-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7150851B2 (ja) | ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス | |
US11423586B2 (en) | Augmented reality vision system for tracking and geolocating objects of interest | |
US11555671B2 (en) | Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices | |
CN113424012B (zh) | 具有网络连接瞄准镜以允许多个其他装置同时跟踪目标的车载装置 | |
US9335121B2 (en) | System and method of locating prey | |
US8868342B2 (en) | Orientation device and method | |
EP1876413A2 (en) | Passive-optical locator | |
ES2806391T3 (es) | Procedimiento para la determinación de los datos de posición de un objeto objetivo en un sistema de referencia y procedimiento para el guiado de una aeronave configurada preferentemente como misil | |
Neuhöfer et al. | Adaptive information design for outdoor augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20200313 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210524 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220228 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220526 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220829 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220928 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7150851 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |