JP2008061224A - 受動光ロケータ - Google Patents

受動光ロケータ Download PDF

Info

Publication number
JP2008061224A
JP2008061224A JP2007177347A JP2007177347A JP2008061224A JP 2008061224 A JP2008061224 A JP 2008061224A JP 2007177347 A JP2007177347 A JP 2007177347A JP 2007177347 A JP2007177347 A JP 2007177347A JP 2008061224 A JP2008061224 A JP 2008061224A
Authority
JP
Japan
Prior art keywords
target
information
image
passive optical
information indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007177347A
Other languages
English (en)
Inventor
William M Ash
ウィリアム・エム・アシュ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honeywell International Inc
Original Assignee
Honeywell International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honeywell International Inc filed Critical Honeywell International Inc
Publication of JP2008061224A publication Critical patent/JP2008061224A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/32Measuring distances in line of sight; Optical rangefinders by focusing the object, e.g. on a ground glass screen
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/02Aiming or laying means using an independent line of sight
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G3/00Aiming or laying means
    • F41G3/06Aiming or laying means with rangefinder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/38Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system
    • G01S19/39Determining a navigation solution using signals transmitted by a satellite radio beacon positioning system the satellite radio beacon positioning system transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/42Determining position
    • G01S19/51Relative positioning
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】撮像装置と受動光レンジファインダとを備えることにより、受動光レンジファインダの焦点面に配置された撮像装置にターゲットの拡大像を集束させる。
【解決手段】ターゲットタイプを示す情報を受け取り、少なくともターゲットタイプ及び撮像装置によって出力される情報に基づいてターゲットに対する絶対的な地理的位置を示す情報を生成する。
【選択図】図5

Description

本発明は、受動光レンジファインダ(a passive-optical range-finder)を用いて、ターゲットに対する絶対的な地理的位置を示す情報を生成する方法に関する。
[関連出願の相互参照]
本出願は、2005年11月8日に出願された「PASSIVE-OPTICAL LOCATOR」という名称の米国特許出願第11/268,938号(代理人整理番号第H0008552−5805号)(本明細書では「H0008552出願」とも呼ぶ)の一部継続出願である。H0008552出願を参照により本明細書に援用する。本出願はまた、本出願と同日に出願された「PASSIVE-OPTICAL LOCATOR」という名称の米国特許出願第11/482,468号(代理人整理番号第H0011689.54712号)(本明細書では「H0011689出願」とも呼ぶ)にも関連する。H0011689出願を参照により本明細書に援用する。
[背景]
軍事活動によっては、その間に、1人又は複数の兵士が、たとえば間接射撃システム(indirect fire system)又は上空支援(air support)により発砲されるターゲットの位置を特定し、そのターゲットの地理的位置を射撃管制センタ(fire control center)に又は集中戦術ネットワーク(integrated tactical network)に送信する。そして、射撃管制センタ又は集中戦術ネットワークは、ターゲットの地理的位置を使用してターゲットに対する攻撃を展開する。軍関係者が目標指示器(target designator)を使用してターゲットの地理的座標を確定する。1つのタイプの目標指示器は、オペレータがターゲットの地理的座標を確定するために、ターゲットに対してレーザを当て、ターゲットから散乱する且つ/又は反射する光を受け取ることができるように設計される。
しかしながら、こうしたレーザは、通常、レーザ光を検出し警報を始動させる敵のセンサによって検出可能である。場合によっては、敵が、ターゲットの地理的位置が確定されていることに気付くと、ターゲットが移動され、隠され、且つ/又は堅固にされる。さらに、敵は、時に、光ビームから目標指示器のオペレータを追跡することができる場合がある。この場合、オペレータは敵のターゲットとなる可能性がある。
さらに、こうした目標指示器で使用されるレーザ光の発散により、こうした目標指示器の測定範囲が限られる。範囲が広すぎる場合、レーザのスポットサイズが範囲確定に対して広すぎることになる。このため、こうした目標指示器によっては、オペレータが測距のためには10000メートル以内、ターゲットの適当な指定のためには5000メートル以内にいなければならず、それによってオペレータが戦術的に危険に晒される可能性がある。連合軍作戦、特に非有機的な射撃支援/上空作戦には、タイミング、協調(連携)及び致死性(率)が重要である。戦闘部隊が可能な限り広い(farthest)実際的な範囲でターゲットに関与することが非常に望ましい。
さらに、このようにレーザを使用する目標指示器に関連する安全性の問題がある。目標指示器の近くにいるオペレータ又は他の兵士がレーザを直接見ると、その人の網膜は焼ける可能性があり、且つ/又は視覚が、そうではないとしても傷付く可能性がある。
[概要]
撮像装置と受動光レンジファインダとを備えることにより、受動光レンジファインダの焦点面に配置された撮像装置にターゲットの拡大像を集束させるシステム。本システムは、ターゲットタイプを示す情報を受け取り、少なくともターゲットタイプ及び撮像装置によって出力される情報に基づいてターゲットに対する絶対的な地理的位置を示す情報を生成する。
以下においてさまざまな説明されている特徴は、比例尺では描かれておらず、説明されている主題に関する特徴に重きを置くように描かれており、また、図面及び文を通して、参照符号は同様の要素を示す点に留意されたい。
[詳細な説明]
以下の詳細な説明では、その一部を形成する添付図面を参照し、図面では、特許請求の範囲に記載されている発明を実施し得る特定の例示的な実施形態が例として示されている。これらの実施形態は、当業者が特許請求の範囲に記載されている発明を実施することができるように十分詳細に説明されており、他の実施形態を利用してもよく、特許請求の範囲に記載されている発明の範囲から逸脱することなく論理的変更、機械的変更、電気的変更を行ってもよい、ということが理解されるべきである。したがって、以下の詳細な説明は、限定する意味でとられるべきではない。
図1は、受動光ロケータ132及び撮像装置110を使用してターゲット50までの距離Rを確定するシステム100の一実施形態のブロック図である。受動光ロケータ132は、受動光レンジファインダ85、センサ60、ディスプレイ75、オペレータ入力インタフェース(I/F)111、通信インタフェース(CI)33、プログラマブルプロセッサ90、メモリ91、及び記憶媒体130に格納されるか又は他の方法で記憶媒体130において具現化されるソフトウェア120を有する。
図1に示す実施形態では、受動光ロケータ132は、軍事用途で配備され、そこでは、受動光ロケータ132は、レーザを使用しない受動光ロケータとして撮像装置110と協働して動作することにより、ターゲット50の地理的位置を確定する。受動光レンジファインダ85は、受動光レンジファインダ85の、本明細書において焦点面とも呼ぶ像平面(i)(図1には示さず)に配置される撮像装置110にターゲット50の拡大像を集束させる(図2に関連して後により詳細に説明するように)。受動光レンジファインダ85の焦点面は、受動光レンジファインダ85の光軸35に対して垂直であり且つその焦点を通過する平面である。ターゲット50は、受動光レンジファインダ85の対物面(o)(図1には示さず)に位置する。対象が受動光レンジファインダ85から実質的に無限遠距離にある場合、焦点距離は、レンズ系のフロントエレメント面と像平面との間の距離である像距離に等しい。ターゲット50から反射又は放出される光線が、受動光レンジファインダ85において互いにほぼ平行である時、対象は、受動光レンジファインダ85から実質上無限遠距離にある。
図1に示すように、センサ60は、全地球測位システム/ジャイロスコープ(GPS/GYRO)装置又はサブシステム62及び他のセンサ61を含む。GPS/GYRO装置62は、全地球測位システム(GPS)65に統合される1つ又は複数のジャイロスコープ装置(GYRO)73を備える。他のセンサ61には、受動光レンジファインダ85の撮像系におけるレンズの相対位置を検知するセンサが含まれる。一実施形態では、他のセンサ61は、直接結合システム構成、疎結合システム構成又は非結合システム構成でGPS/GYRO装置62の機能を実行する、磁気コンパス、レベル検出器、加速度計、位置決めフィードバックループ、走行距離計等を含む、位置センサ、姿勢センサ及び位置決めセンサ一式を実装する。
プログラマブルプロセッサ90は、ソフトウェア120及び/又はファームウェアを実行し、それにより、本明細書において受動光ロケータ132によって遂行されるものとして説明される処理の少なくとも一部を実行する。プログラマブルプロセッサ90によって実行されるこうしたソフトウェア120及び/又はファームウェアの少なくとも一部及び任意の関連データ構造は、実行期間中メモリ91に格納される。メモリ91は、たとえばランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)及び/又はプログラマブルプロセッサ90内のレジスタ等、現在既知であるか又は後に開発される任意の適当なメモリを含む。1つの態様では、プログラマブルプロセッサ90は、マイクロプロセッサ又はマイクロコントローラを含む。さらに、図1では、プログラマブルプロセッサ90及びメモリ91を別個の要素として示すが、1つの態様では、プログラマブルプロセッサ90及びメモリ91は、単一デバイス(たとえば、単一集積回路デバイス)に実装される。プログラマブルプロセッサ90によって実行されるソフトウェア及び/又はファームウェアは、記憶媒体130に格納されるか又は他の方法で具現化される複数のプログラム命令を含み、記憶媒体130からは、こうしたプログラム命令の少なくとも一部が、プログラマブルプロセッサ90によって実行されるために読み出される。1つの態様では、プログラマブルプロセッサ90は、ASIC等のプロセッササポートチップ及び/又はシステムサポートチップを含む。
受動光ロケータ132のさまざまな構成要素は、適当なインタフェースを使用して(たとえば、バス、トレース、ケーブル、ワイヤ、ポート、無線送受信機等を使用して)必要に応じて互いに通信可能に結合される。撮像装置110は、適当なインタフェースを使用して(たとえば、バス、トレース、ケーブル、ワイヤ、ポート、無線送受信機等を使用して)受動光ロケータ132のプログラマブルプロセッサ90に通信可能に結合される。
受動光ロケータ132の1つの態様では、撮像装置110は電子撮像装置であり、電荷結合素子(CCD)又はアクティブ撮像素子センサ(active imaging element sensor)(APS)を備える。APS技術及びCCD技術はともに、処理電子回路にフレーム画像全体を入力するため、処理が非常に高速である。CCD及びAPSにおける利用可能な検出器アレイは、可視光、近赤外線(NIR)及び近紫外線を含む広帯域スペクトルを検出することができる。本実施形態の1つの態様では、撮像装置110は、組み合わせることにより上記スペクトル範囲のすべてをカバーする複数の検出器アレイを備える。CCD検出器は、強化型CCD(ICCD)、電子倍増型CCD(EMCCD)、及び光量増幅及び赤外線像等、他の関連技術を含む。光量増幅及び赤外線像により、暗視が可能になる。
市販の撮像装置110の例は、Sony社のICX428AKL CCDイメージセンサ、MT9D112 SOC COMSイメージセンサ及びCIDTEC社のSpectra CAMである。
撮像装置110は、受動光ロケータ132からターゲット50までの距離Rを示す情報を生成するために、受動光レンジファインダ85の焦点面に位置する(たとえば、図2に関連して後述するように)。この情報を、本明細書では「距離情報」とも呼ぶ。
距離情報は、部分的には、受動光レンジファインダ85からの対物距離に位置するターゲット50の像が撮像装置110に集束される時の受動光レンジファインダ85の焦点距離を示す情報から生成される。この情報を本明細書では「焦点距離情報」とも呼ぶ。本明細書で使用するように、受動光レンジファインダ85は、ターゲット50の拡大像を撮像装置110上に集束されるように調整される場合、「焦点が合わされる」又は「焦点が合っている」と言う。プログラマブルプロセッサ90は、焦点距離情報を決定するために受動光レンジファインダ85の配置(configuration)を示す情報を分析するソフトウェア120を実行する。
撮像装置110は、受動光レンジファインダ85の焦点が合わされる時にターゲットに関する画像情報を生成するか、さもなければ出力する。距離情報は、部分的には、撮像されるターゲット50に関連するターゲットタイプを示す情報から生成される。この追加の情報を、本明細書では「ターゲットタイプ情報」とも呼ぶ。
プログラマブルプロセッサ90は、ターゲットタイプに基づいてターゲット寸法を確定するソフトウェア120を実行する。この実施形態の1つの態様では、プログラマブルプロセッサ90によって実行されるパターンマッチングソフトウェアがターゲットタイプ情報を生成する。この実施形態の別の態様では、プログラマブルプロセッサ90は、受動光ロケータ132のユーザがターゲット画像を見るために、ディスプレイ75に画像信号を出力する。この場合、受動光ロケータ132のオペレータは、ディスプレイ75に表示されるターゲット50の画像を観察(view)し、その観察画像に基づいてオペレータ入力インタフェース111を介してターゲットタイプ情報を入力する。
さらに、撮像装置110は、受動光レンジファインダ85の焦点が合わされる時にターゲット50が撮像される撮像素子又は撮像素子のサブセットを示す情報を生成するか、さもなければ出力する。こうした追加情報を、本明細書では「撮像素子情報」とも呼ぶ。距離情報は、部分的には、ターゲット50の集束された拡大像の少なくとも1つの像寸法を示す情報から生成される。この追加情報を、本明細書では「像寸法情報」とも呼ぶ。
プログラマブルプロセッサ90は、撮像素子情報から像寸法情報を生成するソフトウェア120を実行する。この実施形態の1つの態様では、プログラマブルプロセッサ90は、像寸法情報を生成するために、撮像素子情報を分析してターゲットの像の輪郭を確定する。
距離情報は、部分的には、焦点が合わされたターゲット50の像の倍率を示す情報から生成される。この追加情報を、本明細書では「倍率情報」とも呼ぶ。プログラマブルプロセッサ90は、倍率情報を確定するために受動光レンジファインダ85の構成を示す情報を分析するソフトウェア120を実行する。
焦点距離情報、倍率情報、ターゲットタイプ情報、像寸法情報は、距離情報の決定に必要な入力を構成する。
GPS/GYRO装置62の1つ又は複数のジャイロスコープ装置73は、受動光レンジファインダ85の光軸35の方位角θ及び仰角φを示す情報を生成する。こうした情報を、本明細書では「方位角及び仰角情報」とも呼ぶ。図1では、こうしたジャイロスコープ装置73を1つしか示さないが、こうした実施形態のさまざまな態様では1つ又は複数のジャイロスコープ装置73が使用されることが理解されるべきである。こうした実施形態の1つの態様では、ジャイロスコープ装置73は、方位角及び仰角情報を生成する慣性航法システムを備える。こうした実施形態の別の態様では、ジャイロスコープ装置73は加速度計を備える。
GPS/GYRO装置62のGPS65は、受動光ロケータ132に関連する絶対位置を示す情報を生成するか、さもなければ出力する。こうした情報を、本明細書では「GPS情報」とも呼ぶ。こうした実施形態の1つの態様では、受動光ロケータ132に関連するGPS情報は、受動光ロケータ132の緯度Lat、経度Long及び高度Altを含む。GPS65は、差動GPS(DGPS)等のさまざまなGPSの態様を含む。図1にはジャイロスコープ装置73及び全地球測位システム65を単一の統合装置のGPS/Gyro装置62として示すが、他の態様では、全地球測位システム65及びジャイロスコープ装置73は、2つ以上の別個の装置を使用して実装される。プログラマブルプロセッサ90上で実行されているソフトウェア120及び/又はファームウェアは、ターゲット50に関連する絶対位置を示す情報(本明細書では「ターゲット位置情報」とも呼ぶ)を確定するために、GPS情報、距離情報並びに方位角及び仰角情報を処理する。ターゲット位置情報は、ターゲット50の緯度Lat、経度Long及び高度Altによって定義される。ターゲット位置情報は、受動光レンジファインダ85とターゲット50との間の距離Rと、受動光レンジファインダ85の光軸35の方位角θ及び仰角φと、受動光ロケータ132の絶対位置との1つ又は複数の三角関数関係を使用して生成される。1つの態様では、こうした三角関数関係は、H0008552出願に記載されている較正技法を使用して確立され且つ/又は補正される。
撮像装置110は、集束された拡大ターゲットに関連する画像信号をプログラマブルプロセッサ90に出力する。本実施形態の1つの態様では、プログラマブルプロセッサ90は、受動光ロケータ132のオペレータがターゲット画像を見るために、ディスプレイ75に画像信号を出力する。本実施形態の別の態様では、ディスプレイ75は、さらに、受動光ロケータ132のオペレータに対しターゲット50の絶対位置の視覚的指示を提供する。こうした実施形態の1つの態様では、ディスプレイ75は、ターゲット緯度Lat、ターゲット経度Long及びターゲット高度Altの値を示す。別の態様では、ディスプレイ75は、受動光ロケータ132からの距離R、方位角θ及び仰角φの値を示す。他の態様では、ターゲット50の絶対位置を示す情報が他の方法で表示される。
受動光ロケータ132は、受動光ロケータ132からのターゲット50の絶対位置を示す情報の少なくとも一部を、通信リンク71によって遠隔装置20に通信する通信インタフェース(CI)33を備える。こうした実施形態の1つの態様では、ターゲット位置情報は、オペレータに対しこうしたターゲット位置情報をディスプレイ75から読み取らせ、かつ、ターゲットについて記述させる(たとえば、「このグリッド座標における野外の下車部隊(Dismounted troops in the open at this grid coordinate)」)ことにより、受動光ロケータ132から遠隔装置20に通信される。オペレータが、通信インタフェース33に結合されるマイクロフォンにターゲット位置情報及びターゲット記述を告げることにより、オペレータの音声が通信リンク71により遠隔装置20に通信される。別の態様では、ターゲット位置情報は、デジタル形式でプログラマブルプロセッサ90から通信リンク71により通信される。こうした態様では、遠隔装置20に含まれるプロセッサ21が、こうしたターゲット位置情報を処理するソフトウェアを実行する。
代替の一実施形態では、ターゲット位置情報は、受動光ロケータ132では生成されず、代りに、焦点距離情報、倍率情報、ターゲットタイプ情報、像寸法情報、方位角及び仰角情報、並びにGPS情報が、受動光ロケータ132から遠隔装置20に通信され、遠隔装置20は、こうした焦点距離情報、倍率情報、ターゲットタイプ情報、像寸法情報、方位角及び仰角情報並びにGPS情報を使用して(たとえば、遠隔装置20のプロセッサ21上で実行されているソフトウェアを使用して)、ターゲット50に関する絶対的な地理的位置を生成する。
別の実施形態では、距離情報は、受動光ロケータ312において、焦点距離情報、倍率情報、ターゲットタイプ情報、像寸法情報から生成され、その後、距離情報、方位角及び仰角情報、並びにGPS情報は、受動光ロケータ132から遠隔装置20に通信され、遠隔装置20は、こうした距離情報、方位角及び仰角情報、並びにGPS情報を使用して(たとえば、遠隔装置20のプロセッサ21上で実行されているソフトウェアを使用して)、ターゲット50に関連する絶対的な地理的位置を生成する。
図1に示す実施形態では、遠隔装置20は集中戦術ネットワークの一部である。集中戦術ネットワークは、軍事活動のための通信、指令、制御及び情報機能に対して使用される広域ネットワーク(WAN)を含む。集中戦術ネットワークは、射撃任務及び空爆を指示する間接射撃管制センタ(indirect fire control center)及び前線航空管制官(forward air controller)を統合する。図1に示すように、遠隔装置20は、集中戦術ネットワークの一部である。遠隔装置20は、ターゲット50に対するターゲット位置情報を、通信リンク72により射撃管制センタ25に通信する。ターゲット記述もまた通信される。射撃管制センタ25は、ターゲット50に向かう弾道26に兵器(図示せず)を配備するように動作可能である。1つの態様では、受動光ロケータ132は、兵士が携帯することができるバイポッド/肩ユニットに収められる。別の態様では、受動光ロケータ132は、兵士が携帯することができるトライポッドユニットに収められる。さらに別の態様では、受動光ロケータ132は乗物に搭載される。
通信リンク71及び72は、無線通信リンク(たとえば、無線周波数(RF)通信リンク)及び/又は有線通信リンク(たとえば、光ファイバ又は銅線通信リンク)のうちの1つ又は複数を含む。安全な通信が望まれるこうした実施形態の適用の場合、こうした情報を遠隔装置20から射撃管制センタ25に通信する際に、自動制御、暗号化、周波数ホッピング、及びスペクトラム拡散隠蔽に対する1つ又は複数の適当なプロトコルが使用される。
本明細書では、図1に関連して軍事用途について説明するが、受動光ロケータ132を、商用用途を含む他の用途に使用することができる、ということが理解されるべきである。一般に、ターゲット50は、絶対的な地理的位置に位置する対象である。1つの例示的な使用シナリオでは、位置が特定される対象は、山腹に取り残された人である。この使用シナリオでは、捜索救難部隊の人が、受動光ロケータ132の受動光レンジファインダ85を使用して取り残された人の像に焦点を合わせ、取り残された人のターゲット位置情報が救援ヘリコプターに通信される。他の用途には、地理測量、土木工学及びナビゲーションがある。
本実施形態の1つの態様では、受動光ロケータ132及び撮像装置110は、ターゲット50の地理的位置を遠隔に確定する遠隔制御アクチュエータ(H0011689出願に記載されているような)を用いて実装される。
プログラマブルプロセッサが、距離情報を確定するために必要な焦点距離情報、倍率情報、ターゲットタイプ情報、像寸法情報を受け取る一実施形態を、図2及び図3を参照して説明する。図2は、受動光ロケータ132の一実施形態のブロック図を示す。図2に示すように、例示的な受動光レンジファインダ85は、光軸35の視線に沿って配置されるターゲット50(図1)等の対象に焦点を合わせ且つそれを拡大する、共有光軸35に沿って位置合せされる数字86によって概括的に表される複数のレンズを備える。受動光レンジファインダ85の焦点距離が、遠いターゲット50に焦点合せするように且つ/又はターゲット50を拡大若しくは縮小するように調整されるに従い、レンズ86の相対位置がシフトする。プログラマブルプロセッサ90は、レンズ86の相対位置を検知しその相対位置を示す情報をプログラマブルプロセッサ90に送信する他のセンサ61に通信可能に結合される。プログラマブルプロセッサ90は、レンズ86の相対位置から焦点距離情報を生成するソフトウェア120を実行する。
この実施形態の1つの態様では、プログラマブルプロセッサ90は、レンズ86の相対位置から倍率情報及び焦点距離情報を生成するソフトウェア120を実行する。たとえば、オペレータは、受動光ロケータ132の鏡筒133にある1つ又は複数のノブ(図示せず)を回転させて、受動光レンジファインダ85の焦点合せ及び拡大を変更することができる。本実施形態の別の態様では、オペレータは、受動光ロケータ132の鏡筒133にある1つ又は複数のノブ(図示せず)を回転させて、受動光レンジファインダ85の視野を変更することができる。
撮像装置110は、受動光レンジファインダ85の、「像平面」116としても引用される焦点面116に配置される。本実施形態の1つの態様では、レンズ86の相対位置がシフトするに従い、撮像装置110の位置もレンズ86に対してシフトする。
オペレータは、ビューファインダ115を通して、ディスプレイ75に表示されるターゲット50(図1)の像を見る。図3は、ターゲット50の拡大像が複数のレンズ86の視野のサブセット内に集束される撮像装置110の一実施形態を示す。視野は、数字235によって概括的に表される。
撮像装置110は、撮像素子、たとえば、数字210によって概括的に表されるピクセルのアレイを含む。ターゲット50の集束された拡大像は、撮像装置110によって出力される情報の少なくとも一部を生成するために、視野235内にある撮像素子210のセット230に入射する。撮像素子210のセット230は、受動光ロケータ132の視野235内にある撮像素子210の全体よりは少ない数の撮像素子210を含む。システム10(図1に示す)の受動光ロケータ132は、撮像装置110によって出力される情報に基づいて、集束された拡大像の像高さ、像幅及び像奥行のうちの少なくとも1つを確定する。
ディスプレイ75は、撮像装置110に通信可能に結合されることにより、ターゲット50の拡大像を表示する。ユーザ入力インタフェース111は、ターゲットタイプを示す情報を受け取る。システムは、ターゲットタイプを示す情報を、ルックアップテーブルの複数のターゲットタイプのうちの1つに相関させ、相関するターゲットタイプに関連する高さ、幅、及び奥行のうちの少なくとも1つを使用する。システムは、受動光レンジファインダ85の焦点距離と、相関するターゲットタイプに関連する高さの像高さに対する比、相関するターゲットタイプに関連する幅の像幅に対する比、及び相関するターゲットタイプに関連する奥行の像奥行に対する比のうちの少なくとも1つとに基づいて、ターゲット50までの距離を確定する。ターゲットに対する絶対的な地理的位置を示す情報は、少なくとも部分的にはこの距離に基づいて生成される。
各撮像素子の高さは、X方向に沿って測定され文字「H」によって概括的に表される。各撮像素子の幅は、Y方向に沿って測定され、文字「W」によって概括的に表される。撮像素子は、行及び列の矩形アレイで配置される。行はX方向に延在し、列はY方向に延在する。図3の例示的な撮像装置110は、6×7矩形行列を形成するように6行及び7列を含む。共有行における撮像素子210の右縁間は、「W」よりわずかに大きい「S」として表される間隔を有している。同様に、共有列における撮像素子210の底縁間は、「H」よりわずかに大きい「S」として表される間隔を有している。
撮像装置110の処理ユニット190は、撮像素子の各々に通信可能に結合される。処理ユニット190は、撮像装置110からプログラマブルプロセッサ90に画像信号を送信する。本実施形態の1つの態様では、画像信号は、撮像素子210から受動光ロケータ132のプログラマブルプロセッサ90に直接送信される。
この例示的な場合では、ターゲット50は重装甲戦車(ここでは「戦車」とも呼ぶ)である。戦車の拡大像は、受動光ロケータ132の視野235内にある撮像素子210全体のサブセット230をなす撮像素子の集合に集束される。図3に示すように、ターゲット像は、ここではサブセット230と呼ぶ2×3矩形行列を形成する6つの隣接する撮像素子210に形成される。戦車の像の高さである像高さは、数字220によって概括的に表され、長さ寸法が約2Sである。長さ寸法2Sは、撮像素子情報の第1の部分である。図3では、戦車の像は、側方から見ている。戦車の像の長さである像長さは、数字225によって概括的に表され、長さ寸法が約3Sである。長さ寸法3Sは、撮像素子情報の第2の部分である。本実施形態の1つの態様では、撮像素子210のサブセット230は、オペレータ入力インタフェース111を介して受動光ロケータ132のオペレータから受け取られる入力によって輪郭がとられる。
処理ユニット190は、撮像素子情報の両部分をプログラマブルプロセッサ90に送信する。プログラマブルプロセッサ90は、メモリ91に格納されている寸法S及びSを使用して撮像素子情報2S及び3Sに対する値(長さの寸法)を計算する。計算された値は、像寸法情報即ち像高さを示す情報及び像奥行を示す情報である。本実施形態の1つの態様では、処理ユニット190は、撮像素子情報2S及び3Sに対する値(長さの寸法)を計算して像寸法情報をプログラマブルプロセッサ90に送信する。
戦車の像を正面から又は背面から見る場合、像幅が可視である。その場合、像幅は、像奥行に代わり撮像素子情報の第2の部分となる。その場合、処理ユニット190は、像高さを示す情報及び像幅を示す情報を像寸法情報としてプログラマブルプロセッサ90に送信する。
プログラマブルプロセッサ90は、受動光ロケータ132のオペレータからターゲットタイプ情報を受け取る。オペレータは、ディスプレイ75に表示される、図2に示す戦車画像等のターゲット画像を見る。本実施形態の1つの態様では、オペレータは、オペレータ入力インタフェース111を介してターゲットタイプ情報コードをプログラマブルプロセッサ90に入力する。
本実施形態の別の態様では、オペレータは、ターゲット画像を見た後、後に示す表1等、メモリ91に格納されているルックアップテーブルから関連するターゲットタイプ情報を選択する。プログラマブルプロセッサ90は、メモリ91から、例示的なターゲットタイプに対する寸法を示す表1等のターゲットタイプテーブルを検索することにより、ターゲットに対するターゲット寸法を取得する。ルックアップテーブルは、複数のターゲットタイプのうちのそれぞれの高さ、幅及び奥行のうちの少なくとも1つを示す情報を含む。この場合、オペレータがターゲットタイプ情報を選択した後、ターゲットタイプ情報はプログラマブルプロセッサ90に送信される。
図3に見られる例示的な重装甲戦車の場合、プログラマブルプロセッサ90は、オペレータから「HEAVY ARMOK TANK(重装甲戦車)」というターゲットタイプを受け取っている。
Figure 2008061224
本実施形態の1つの態様では、オペレータは、オペレータ入力インタフェース110を介してターゲット50の図(view)を示す情報を入力する。図3の例示的な場合では、オペレータは「SIDE VIEW(側面図)」を入力し、プログラマブルプロセッサは、表1から戦車に対して奥行寸法(たとえば7m)が必要であることを認識する。本実施形態の別の態様では、オペレータは図及び観察角度(viewing angle)を入力する。この場合、プログラマブルプロセッサ90は、観察角度のコサインを取ることにより、幅又は奥行の観察像寸法を正面図及び側面図にそれぞれ変換する。本実施形態のさらに別の態様では、プログラマブルプロセッサは、ターゲット50が受動光ロケータ132の仰角とは異なる仰角にある場合、仰角情報を使用して撮像された高さに対して必要なコサイン係数を提供する。プログラマブルプロセッサ90は、ターゲット50の観察角度に基づいて、表1から重装甲戦車の戦車高さ、戦車幅及び戦車奥行の寸法を検索する。
レンズ系の倍率がターゲット像/ターゲット比であるため、プログラマブルプロセッサ90は、戦車像高さ/戦車高さ比と戦車像奥行/戦車奥行比とを計算することにより、受動光レンジファインダ85の倍率を計算する。倍率はまた、受動光レンジファインダ85の撮像系の焦点距離の、ターゲット50までの距離R(図1に示す)に対する比でもある。プログラマブルプロセッサ90は、R=焦点距離/倍率を計算することによりターゲット50までの距離Rの値を生成する。そして、受動光ロケータ132は、H0008552出願に記載されているようなターゲット50に関連する絶対位置を確定する。
本実施形態の1つの態様では、プログラマブルプロセッサ90は、倍率情報とレンズ86の相対位置からの焦点距離情報との両方を生成するソフトウェア120を実行する。この態様では、プログラマブルプロセッサ90は、ターゲットタイプ情報は使用しないが、式M=i/oから距離情報を確定する(ここで、Mは倍率であり、oは焦点距離に等しい対物距離であり、iはターゲット50までの距離Rに等しい像距離である)。本実施形態の1つの態様では、生成された倍率情報により、計算された像高さ/戦車高さ比と像奥行/戦車奥行比とが確認できる。
図2に示すような受動光ロケータ132を、オペレータが遠隔地まで携帯し、使用する時に三脚の上に設置することができる。本実施形態の別の態様では、図2に示す受動光ロケータ132は、陸上車両で遠隔地まで運搬される。このため、システム10は、撮像装置110及び受動光レンジファインダ85を有することにより、受動光レンジファインダの対物面に配置される撮像装置110に、ターゲット50の拡大像を集束させる。システム10は、ターゲットタイプを示す情報を受け取り、ターゲットタイプ及び少なくとも撮像装置110によって出力される情報に基づき、ターゲット50に対する絶対的な地理的位置を示す情報を生成する。
さらに、少なくとも1つのセンサ60は、受動光レンジファインダ85の光軸35の方位角及び仰角を示す情報を生成し、その方位角及び仰角を示す情報はさらに、ターゲット50に対する絶対的な地理的位置を示す情報を生成するために使用される。ターゲットに対する絶対的な地理的位置を示す情報は、少なくとも部分的には、拡大像の倍率を示す情報と、受動光レンジファインダの焦点距離を示す情報と、受動光ロケータに関連する地理的位置を示す情報とのうちの少なくとも1つに基づいて生成される。本実施形態の1つの態様では、ターゲットに対する絶対的な地理的位置を示す情報が、少なくとも部分的には、ルックアップテーブルに含まれる情報の少なくとも一部を使用して生成される。本実施形態の別の態様では、パターン認識ソフトウェア120がターゲット50に対するターゲットタイプを確定する。
図4は、ターゲット50の拡大像が受動光ロケータ132の完全な視野235内に集束される撮像装置の一実施形態を示す。図4に示すように、ターゲット像は、「サブセット240」と呼ばれ且つ「撮像素子の集合240」とも呼ばれる4×5矩形行列を形成する20個の隣接する撮像素子210上に形成される。戦車の像の高さである像高さは、数字250によって概括的に表され、長さ寸法は約4Sである。長さ寸法4Sは、撮像素子情報の第1の部分である。図4では、戦車の像を側面から見ている。戦車の像の長さである像長さは、数字255によって概括的に表され、長さ寸法は約5Sである。長さ寸法5Sは、撮像素子情報の第2の部分である。
撮像素子の集合240は、受動光ロケータ132の視野235内にある撮像素子210のすべてを含む。撮像素子210は、図3を参照して上述したように2つの次元X及びYに沿った形状及び間隔を有する。ターゲット50の集束された拡大像が入射する撮像素子の集合240は、ターゲットの輪郭を画定する。ターゲットの集束された拡大像は、ターゲットの輪郭の少なくとも1つの行256の撮像素子すべてと、ターゲットの輪郭の少なくとも1つの列257の撮像素子210のすべてとに入射する。行256は、戦車の長さとして示される像長さを示す情報を提供し、列257は、像高さを示す情報を提供する。戦車が正面から又は背面から撮像される場合、行256は、像幅を示す情報を提供する。
図5は、ターゲットに対する絶対的な地理的位置を示す情報を生成する方法500の一実施形態のフローチャートである。方法500の実施形態を、図1の受動光ロケータ132を使用して実装することができる。こうした実施形態では、方法500の処理の少なくとも一部は、受動光ロケータ132のプログラマブルプロセッサ90上で実行されているソフトウェア120によって実行される。他の実施形態は他の様式で実装される。
ブロック502において、受動光レンジファインダは、受動光レンジファインダの焦点面に配置される撮像装置にターゲットの拡大像を形成するように焦点が合わせられる(たとえば、図1及び図2に関連して上述したように)。ブロック504において、ターゲットタイプを示す情報が、受動光レンジファインダを備える受動光ロケータにおいて受け取られる(たとえば、ユーザに対してこうした情報を入力させることにより且つ/又はパターン認識ソフトウェアの実行を介して)。ブロック506において、ルックアップテーブルがメモリに格納される。ルックアップテーブルは、複数のターゲットタイプに関する情報を含む。1つの態様では、ルックアップテーブルは「オフラインで」作成され、受動光ロケータに含まれるメモリに(又は記憶媒体に)格納される。ターゲットに対する絶対的な地理的位置を示す情報は、少なくとも部分的に、ルックアップテーブルに含まれる情報の一部を使用して生成される。1つの態様では、ルックアップテーブルは、複数のターゲットタイプのそれぞれの高さ、幅、及び奥行のうちの少なくとも1つを示す情報を含み、ターゲットに対する絶対的な地理的位置を示す情報は、少なくとも部分的には、表1及び図3に関連して上述した方法で生成される。
撮像装置は、撮像素子のアレイを備える。ターゲットの集束された拡大像は、撮像装置によって出力される情報の少なくとも一部を生成するために撮像素子の集合に入射する。集束された拡大像の像高さ、像幅、及び像奥行のうちの少なくとも1つは、撮像装置によって出力される情報に基づいて確定される。本実施形態の1つの態様では、撮像素子の集合は、受動光ロケータの視野内にある撮像素子のすべてを含む(たとえば、図4に示すように)。本実施形態の別の態様では、撮像素子の集合は、受動光ロケータの視野内にある撮像素子の全体よりは小さい(たとえば図3に示すように)。ブロック508において、ターゲットタイプを示す情報は、ルックアップテーブルにおける複数のターゲットタイプのうちの1つに相関される(たとえば、表1に関連して上述したように)。
ブロック510において、受動光レンジファインダの焦点距離と、相関するターゲットタイプに関連する高さの像高さに対する比、相関するターゲットタイプに関連する幅の像幅に対する比、及び相関するターゲットタイプに関連する奥行の像奥行に対する比のうちの少なくとも1つとに基づいて、ターゲットまでの距離が確定される(たとえば、図2及び表1に関連して上述したように)。ターゲットに対する絶対的な地理的位置を示す情報は、少なくとも部分的には、この距離に基づいて生成される。
ブロック512において、受動光ロケータにおいて受動光レンジファインダの光軸の方位角及び仰角を示す情報が受け取られる。方位角及び仰角を示す情報を使用して、H0008552出願において述べられているように、ターゲットに対する絶対的な地理的位置を示す情報が生成される。
ブロック514において、少なくともターゲットタイプ及び撮像装置によって出力される情報に基づいて、ターゲットに対する絶対的な地理的位置を示す情報が生成される。ターゲットに対する絶対的な地理的位置を示す情報は、少なくとも部分的には、拡大像の倍率を示す情報、受動光レンジファインダの焦点距離を示す情報、及び受動光ロケータに関連する地理的位置を示す情報のうちの少なくとも1つに基づいて生成される。絶対的な地理的位置を示す情報は、H0008552出願に関連して上述したように、受動光ロケータに関連する地理的位置を示す情報とともに、拡大像の倍率を示す情報及び/又は受動光レンジファインダの焦点距離を示す情報を使用して生成される。拡大像の倍率を示す情報及び/又は受動光レンジファインダの焦点距離を示す情報は、図2に関連して上述したように取得され、受動光ロケータに関連する地理的位置を示す情報は、図1のセンサ60に示すGPS65から取得される。
図6は、ターゲットに対する絶対的な地理的位置を生成する方法600の一実施形態のフローチャートである。方法600の実施形態を、図1の受動光ロケータ132を使用して実装することができる。こうした実施形態では、方法500の処理の少なくとも一部は、受動光ロケータ132のプログラマブルプロセッサ90上で実行されているソフトウェア及び/又はGPS/GYRO装置62又は受動光レンジファインダ85によって実行される。他の実施形態は他の方法で実装される。
ブロック602において、プログラマブルプロセッサにおいて、ターゲットタイプを示す情報が受け取られる(たとえば、ユーザに対し、選択メニューを見た後にこうした情報を入力させることにより且つ/又はパターン認識ソフトウェアの実行を介して)。ブロック604において、プログラマブルプロセッサは、ターゲットタイプに基づいてターゲットと受動光ロケータとの間の距離を示す情報を生成する。たとえば、プログラマブルプロセッサ90は、受動光レンジファインダ85の焦点距離と、相関するターゲットタイプに関連する高さの像高さに対する比及び相関するターゲットタイプに関連する幅の像幅に対する比とに基づいて、ターゲット50までの距離Rを確定する。別の態様では、プログラマブルプロセッサ90は、受動光レンジファインダ85の焦点距離と、相関するターゲットタイプに関連する高さの像高さに対する比及び相関するターゲットタイプに関連する奥行の像奥行に対する比とに基づいて、ターゲット50までの距離Rを確定する。
ブロック606において、プログラマブルプロセッサは、H0008552出願において記載されているようにターゲットの方向の方位角及び仰角を示す情報を受け取る。ブロック608において、プログラマブルプロセッサは、図1のセンサ60に示すGPS65から受動光ロケータの地理的位置を示す情報を受け取る。ブロック610において、プログラマブルプロセッサは、少なくとも、ターゲットと受動光ロケータとの間の距離を示す情報と、ターゲットの方向の方位角及び仰角を示す情報と、受動光ロケータの地理的位置を示す情報とに基づき、ターゲットの絶対的な地理的位置を生成する。図1を参照し且つH0008552出願に記載されているように、受動光ロケータ132の地理的位置が既知である場合、ターゲット50の絶対的な地理的位置を、受動光レンジファインダ85がターゲット50に焦点が合わせられた時のターゲット50と受動光レンジファインダ85の光軸35からの角度との間の距離Rを使用して生成することができる。プログラマブルプロセッサ90は、三角関数計算を実行することによってターゲット50の絶対的な地理的位置を生成する。
図7は、ターゲットまでの距離を示す情報を生成する方法700の一実施形態のフローチャートである。方法700の当該実施形態を、図1の受動光ロケータ132を使用して実装することができる。こうした実施形態では、方法700の処理の少なくとも一部は、受動光ロケータ132のプログラマブルプロセッサ90上で実行されているソフトウェア120によって実行される。他の実施形態は他の方法で実装される。
ブロック702において、受動光レンジファインダの光軸が、ターゲット方向への視線に沿って位置合せされる。図1を参照すると、受動光ロケータ132のオペレータは、ターゲット50に受動光レンジファインダ85を向け、受動光レンジファインダ85において、たとえばディスプレイ75にターゲット50の像が見えると、受動光レンジファインダ85の光軸35が、ターゲット50までの視線に沿って位置合せされる。ブロック704において、ターゲットの拡大像は、受動光レンジファインダの像平面に位置する撮像装置に集束される。受動光ロケータ132のオペレータは、受動光レンジファインダ85の焦点合せ要素を調整して、ターゲット50の拡大像を撮像装置110に集束させる。ブロック706において、受動光レンジファインダの焦点距離を示す情報が取得される。レンズ86の相対位置は、受動光レンジファインダ85の焦点距離が遠隔ターゲット50に焦点合せするように且つ/又はターゲット50を拡大又は縮小するように調整される際にシフトする。本実施形態の1つの態様では、プログラマブルプロセッサ90は、レンズ86の相対位置を検知しその相対位置を示す情報をプログラマブルプロセッサ90に送出する他のセンサ61に通信可能に結合される。プログラマブルプロセッサ90は、レンズ86の相対位置からの焦点距離情報を生成するソフトウェア120を実行する。ブロック708において、ターゲットタイプに関連するターゲット高さ、ターゲット幅及びターゲット奥行が確定される。本実施形態の1つの態様では、ターゲット高さ、ターゲット幅、及びターゲット奥行はルックアップテーブルから確定される。ブロック710において、倍率を示す情報が生成される。倍率を示す情報は、ターゲット高さの像高さに対する比、ターゲット幅の像幅に対する比及びターゲット奥行の像奥行に対する比のうちの少なくとも1つの比に基づいて生成される。ブロック712において、倍率を示す情報と焦点距離を示す情報とに基づいて、距離を示す情報が生成される。焦点距離の距離に対する比(FL/Rとして書く)は、像(i)/対象(o)の比に等しく、それは受動光レンジファインダ85の倍率(M)に等しい。このため、距離は、焦点距離を倍率で割った値に等しい(R=FL/M)。
図8は、受動光ロケータにおいてターゲットタイプを示す情報を受け取る方法800の一実施形態のフローチャートである。本実施形態の1つの態様では、方法800は、図1の受動光ロケータ132を使用して実装される。他の実施形態は他の様式で実装される。
ブロック802において、プログラマブルプロセッサは、ターゲットの像を複数のターゲット像と比較する。この場合、受動光ロケータのメモリは、複数のターゲット像を含み、受動光ロケータのプログラマブルプロセッサは、メモリの像を、パターン認識ソフトウェア等のソフトウェアを実行する撮像装置からのターゲットの拡大像と比較する。ターゲットの像が複数のターゲット像のうちの1つと一致すると、プログラマブルプロセッサは、一致したターゲット像にリンクされるターゲットタイプに基づいてターゲットタイプを確定する。本実施形態の1つの態様では、プログラマブルプロセッサ90によって実行されるパターンマッチングソフトウェアは、ターゲットタイプ情報を生成する。
ブロック804において、プログラマブルプロセッサは、ターゲットタイプを示す情報を含むユーザ入力を受け取る。本実施形態の1つの態様では、ターゲットタイプを示す情報は、オペレータ入力インタフェースを介して入力される。たとえば図1を参照すると、プログラマブルプロセッサ90は、受動光ロケータ132のユーザがターゲット像を見るために画像信号をディスプレイ75に出力する。この場合、受動光ロケータ132のオペレータは、ディスプレイ75に表示されるターゲット50の像を観察し、その観察画像に基づいてオペレータ入力インタフェース111を介してターゲットタイプ情報を入力する。本実施形態の1つの態様では、受動光ロケータはブロック802及びブロック804の両方を実装することができる。本実施形態の別の態様では、受動光ロケータは、ブロック802又はブロック804を実装することができる。
本明細書で説明したシステム、装置、方法及び技法を、デジタル電子回路で実装してもよく、コンピュータ、ファームウェア、ソフトウェア若しくはそれらの組合せ等の専用プロセッサ又は汎用プロセッサを用いて実装してもよい。たとえば、電子的に処理された像を、ピクセル分布を数値的に評価することにより、又はピクセルデータ、すなわち強度、スペクトルレンジ等をアルゴリズムによって処理して、処理システムが焦点が合っている範囲として提案する「最良適合」分布を見つけることにより、集束させることができる。システムがこの像を「認識する」時、光学系は焦点が合っており、したがってシステムはターゲットまでの距離範囲を提供することができる。
これらの技法を具現化する装置は、適当な入出力デバイス、プログラマブルプロセッサ、及びプログラマブルプロセッサによって実行されるプログラム命令を確実に具現化する記憶媒体を含んでもよい。これらの技法を具現化するプロセスを、入力データに対して作用し適当な出力を生成することにより所望の機能を遂行するように命令のプログラムを実行するプログラマブルプロセッサによって実行してもよい。それら技法を、少なくとも1つの入力デバイスにおいてデータ記憶システムからデータ及び命令を受け取り且つ少なくとも1つの出力デバイスにおいてデータ記憶システムにデータ及び命令を送信するように結合される少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムで実行可能な1つ又は複数のプログラムで有利に実装してもよい。一般に、プロセッサは、リードオンリメモリ及び/又はランダムアクセスメモリから命令及びデータを受け取る。コンピュータプログラム命令及びデータを確実に具現化するために適当な記憶デバイスには、例としてEPROM、EEPROM及びフラッシュメモリデバイス等の半導体メモリデバイス、内部ハードディスク及びリムーバブルディスク等の磁気ディスク、光磁気ディスク並びにDVDディスクを含むすべての形態の不揮発性メモリが含まれる。上述したもののうちの任意のものを、特別に設計された特定用途向け集積回路(ASIC)によって補足してもよく、又はそれに組み込んでもよい。本明細書で使用した、プログラム、ソフトウェア、アルゴリズム又はその変形及びそれらに関連するものを実装しているコンピュータ、コントローラプロセッサ、ASIC及びメモリ等のデバイスを使用して、ニューラルネット(複数可)、人工知能、アナログ及び/又は(スーパー)ステートマシン等の機能を示してもよい。
添付の特許請求の範囲によって定義される本発明の数多くの実施形態について説明した。しかしながら、説明した実施形態に対するさまざまな変更を、特許請求の範囲に記載されている発明の精神及び範囲から逸脱することなく行ってもよい、ということが理解されよう。したがって、他の実施形態は添付の特許請求の範囲内にある。
ターゲットまでの距離を確定するために受動光ロケータ及び撮像装置を使用するシステムの一実施形態のブロック図である。 受動光ロケータの一実施形態のブロック図である。 受動光ロケータの視野のサブセット内にターゲットの拡大像が集束される撮像装置の一実施形態を示す図である。 受動光ロケータの完全な視野内にターゲットの拡大像が集束される撮像装置の一実施形態を示す図である。 ターゲットに対する絶対的な地理的位置を示す情報を生成する方法の一実施形態のフローチャートである。 ターゲットに対する絶対的な地理的位置を生成する方法の一実施形態のフローチャートである。 ターゲットまでの距離を示す情報を生成する方法の一実施形態のフローチャートである。 受動光ロケータにおいてターゲットタイプを示す情報を受け取る方法の一実施形態のフローチャートである。
符号の説明
20 遠隔装置
21 プロセッサ
25 射撃管制センタ
50 ターゲット
60 センサ
61 他のセンサ
75 ディスプレイ
85 受動光レンジファインダ
90 プログラマブルプロセッサ
91 メモリ
110 撮像装置
111 オペレータ入力インタフェース
120 ソフトウェア
130 記憶媒体
132 受動光ロケータ

Claims (4)

  1. 受動光レンジファインダの焦点面(116)に配置された撮像装置(110)上にターゲット(50)の拡大像を集束させて、受動光レンジファインダ(85)の焦点合わせを行うこと、
    ターゲットタイプを示す情報を受け取ること、及び
    少なくとも前記ターゲットタイプ及び前記撮像装置によって出力される情報に基づいて前記ターゲットに対する絶対的な地理的位置を示す情報を生成すること
    を含む、方法。
  2. 受動光レンジファインダ(85)の光軸(35)の方位角(θ)及び仰角(φ)を示す情報を受け取ることをさらに含み、前記方位角及び前記仰角を示す前記情報は、ターゲット(50)に対する絶対的な地理的位置を示す情報を生成するために使用される、請求項1に記載の方法。
  3. ターゲット(50)に対する絶対的な地理的位置を示す情報は、少なくとも部分的には、拡大像の倍率を示す情報と、受動光レンジファインダ(85)の焦点距離を示す情報と、受動光ロケータに関連する地理的位置を示す情報とのうちの少なくとも1つに基づいて生成される、請求項1に記載の方法。
  4. メモリ(91)にルックアップテーブルを格納することをさらに含み、該ルックアップテーブルは複数のターゲットタイプに関する情報を含み、ターゲット(50)に対する絶対的な地理的位置を示す情報は、少なくとも部分的には、前記ルックアップテーブルに含まれる前記情報のうちの少なくとも一部を使用して生成される、請求項1に記載の方法。
JP2007177347A 2006-07-07 2007-07-05 受動光ロケータ Withdrawn JP2008061224A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/482,354 US7518713B2 (en) 2005-11-08 2006-07-07 Passive-optical locator

Publications (1)

Publication Number Publication Date
JP2008061224A true JP2008061224A (ja) 2008-03-13

Family

ID=38578528

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007177347A Withdrawn JP2008061224A (ja) 2006-07-07 2007-07-05 受動光ロケータ

Country Status (3)

Country Link
US (1) US7518713B2 (ja)
EP (1) EP1876414A1 (ja)
JP (1) JP2008061224A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017509858A (ja) * 2014-02-07 2017-04-06 バリス カンパニー,インコーポレイティド 弾道ズームを利用する光学デバイス及び標的に照準を定める方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090002677A1 (en) * 2007-06-26 2009-01-01 Honeywell International Inc. Target locator system
US8281995B2 (en) 2009-09-11 2012-10-09 Laurence Andrew Bay System and method for ballistic solutions
US8599066B1 (en) * 2009-09-29 2013-12-03 Mark A. Wessels System, method, and apparatus for obtaining information of a visually acquired aircraft in flight
US20120242971A1 (en) * 2011-03-25 2012-09-27 Southwest Research Institute Omnidirectional Image Detection System With Range Information
IL211966A (en) * 2011-03-28 2016-12-29 Smart Shooter Ltd Weapons, a direction system for him, his method of operation, and a method of reducing the chance of a sin's purpose
US9310163B2 (en) 2011-04-01 2016-04-12 Laurence Andrew Bay System and method for automatically targeting a weapon
US9459076B2 (en) * 2012-12-12 2016-10-04 Trackingpoint, Inc. Rifle scope, apparatus, and method including proximity detection and warning system
IL229078A (en) * 2013-10-24 2015-06-30 Alfa Yuta Prompting Dev And Advanced Technology Ltd Friendly fire prevention system, device and method
FR3022337B1 (fr) * 2014-06-13 2018-08-03 Gael Guillerm Procedes et systemes d'assistance a la visee d'une cible pour arme, en particulier pour lanceur de defense
US11199631B2 (en) 2017-04-07 2021-12-14 Criterionix, L.L.C. Apparatus and methods for geo-locating one or more objects
FR3089283B1 (fr) * 2018-11-29 2021-03-12 Ixblue Module autonome optronique de pointage de cible géolocalisé pour système portable et système correspondant
DE102020127430A1 (de) * 2020-10-19 2022-04-21 Krauss-Maffei Wegmann Gmbh & Co. Kg Ermittlung einer Feuerleitlösung einer artilleristischen Waffe

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3836259A (en) 1971-04-08 1974-09-17 Department Of Civil Aviat Apparatus for tracking a luminous object
US5020902A (en) 1989-06-22 1991-06-04 Kvh Industries, Inc. Rangefinder with heads-up display
US4949089A (en) 1989-08-24 1990-08-14 General Dynamics Corporation Portable target locator system
US5408541A (en) 1993-01-05 1995-04-18 Lockheed Corporation Method and system for recognizing targets at long ranges
JP3268608B2 (ja) 1993-02-12 2002-03-25 株式会社トプコン 測量装置
US5528518A (en) 1994-10-25 1996-06-18 Laser Technology, Inc. System and method for collecting data used to form a geographic information system database
GB2300082B (en) 1995-04-21 1999-09-22 British Aerospace Altitude measuring methods
DE69730278T2 (de) 1996-07-17 2005-08-11 Raytheon Company, Waltham Passive Entfernungsabschätzung unter Verwendung von Bildgrösseabmessungen
US6064942A (en) 1997-05-30 2000-05-16 Rockwell Collins, Inc. Enhanced precision forward observation system and method
US7856750B2 (en) 1997-12-08 2010-12-28 Horus Vision Llc Apparatus and method for calculating aiming point information
DE19813631A1 (de) 1998-03-27 1999-10-07 Honeywell Ag Radar-Entfernungsmesser
US5912642A (en) 1998-04-28 1999-06-15 Ball Aerospace & Technologies Corp. Method and system for aligning a sensor on a platform
EP1067361A1 (en) 1999-07-06 2001-01-10 Datalogic S.P.A. Method and a device for measuring the distance of an object
JP2001134769A (ja) * 1999-11-04 2001-05-18 Honda Motor Co Ltd 対象物認識装置
US6489922B1 (en) 2000-04-22 2002-12-03 American Gnc Corporation Passive/ranging/tracking processing method for collision avoidance guidance and control
US6930715B1 (en) 2000-07-21 2005-08-16 The Research Foundation Of The State University Of New York Method, system and program product for augmenting an image of a scene with information about the scene
JP2003004441A (ja) * 2001-06-18 2003-01-08 Hitachi Ltd 距離計測方法および距離計測機能を有する画像入力装置
US6658354B2 (en) 2002-03-15 2003-12-02 American Gnc Corporation Interruption free navigator
US7098997B2 (en) 2002-06-26 2006-08-29 Pentax Corporation Surveying system
GB2394376A (en) 2002-10-14 2004-04-21 Bertho Boman Measuring distance between two objects
US7187823B2 (en) 2004-03-16 2007-03-06 Leica Geosystems Hds Llc Contact-free slip ring for survey instrumentation
US20060023204A1 (en) 2004-07-28 2006-02-02 Zoltan Filep Laser-GPS marking and targeting system
US20060197867A1 (en) 2005-03-02 2006-09-07 Peter Johnson Imaging head and imaging system
US7239975B2 (en) 2005-04-02 2007-07-03 American Gnc Corporation Method and system for automatic stabilization and pointing control of a device
US7266477B2 (en) 2005-06-22 2007-09-04 Deere & Company Method and system for sensor signal fusion
US7576766B2 (en) 2005-06-30 2009-08-18 Microsoft Corporation Normalized images for cameras
JP4977339B2 (ja) 2005-07-11 2012-07-18 株式会社トプコン 地理データ収集装置
US20070103671A1 (en) 2005-11-08 2007-05-10 Honeywell International Inc. Passive-optical locator

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017509858A (ja) * 2014-02-07 2017-04-06 バリス カンパニー,インコーポレイティド 弾道ズームを利用する光学デバイス及び標的に照準を定める方法

Also Published As

Publication number Publication date
US20070103673A1 (en) 2007-05-10
US7518713B2 (en) 2009-04-14
EP1876414A1 (en) 2008-01-09

Similar Documents

Publication Publication Date Title
JP2008061224A (ja) 受動光ロケータ
US11965714B2 (en) System and method for video image registration and/or providing supplemental data in a heads up display
US10495414B2 (en) Devices with network-connected scopes for Allowing a target to be simultaneously tracked by multiple devices
US9488442B2 (en) Anti-sniper targeting and detection system
US20070103671A1 (en) Passive-optical locator
US20230194207A1 (en) Direct enhanced view optic
US20160252325A1 (en) Compositions, methods and systems for external and internal environmental sensing
US11555671B2 (en) Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
US20070127008A1 (en) Passive-optical locator
KR20210133972A (ko) 타겟을 여러 다른 디바이스에서 동시에 추적할 수 있도록 네트워크로 연결된 스코프가 있는 차량 탑재 장치

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20100907