JP2011123152A - 望遠鏡及び望遠鏡システム - Google Patents

望遠鏡及び望遠鏡システム Download PDF

Info

Publication number
JP2011123152A
JP2011123152A JP2009279216A JP2009279216A JP2011123152A JP 2011123152 A JP2011123152 A JP 2011123152A JP 2009279216 A JP2009279216 A JP 2009279216A JP 2009279216 A JP2009279216 A JP 2009279216A JP 2011123152 A JP2011123152 A JP 2011123152A
Authority
JP
Japan
Prior art keywords
telescope
elevation angle
azimuth
observation object
viewed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009279216A
Other languages
English (en)
Inventor
Yasushi Ogino
泰 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009279216A priority Critical patent/JP2011123152A/ja
Publication of JP2011123152A publication Critical patent/JP2011123152A/ja
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Telescopes (AREA)

Abstract

【課題】観察物体を観察している他人の望遠鏡の向きを知ることができる望遠鏡及び望遠鏡システムを提供する。
【解決手段】電子双眼鏡1で得られた観察物体TOの位置と電子双眼鏡2で得られた観察物体TOの位置とに基づいて電子双眼鏡2と電子双眼鏡1との距離d2、電子双眼鏡1で見ている観察物体TOと電子双眼鏡2との間の方位、仰角、距離d3を演算し、演算結果を表示素子上に表示する。
【選択図】図2

Description

この発明は望遠鏡及び望遠鏡システムに関する。
従来の望遠鏡システムとして、GPS衛星からの測位信号を受信して自分の双眼鏡の現在位置を演算するGPS受信ユニットと、現在位置に関する情報を他人の双眼鏡に送信したり、他人の双眼鏡の現在位置に関する情報を受信したりする通信ユニットと、自分と他人との双眼鏡の相対位置に関する情報を表示する表示ユニットとを備えているものが知られている(下記特許文献参照)。
特開平10−206750号公報
例えば複数の観察者が双眼鏡で同じ鳥(観察物体)を観察する場合、鳥を観察している他人の双眼鏡の向きが分かれば自分も同じ鳥を容易に自分の双眼鏡の視野に入れることができる。しかし、上記の双眼鏡では他人の現在位置を知ることはできるが、鳥を観察中の他人の双眼鏡の向きを知ることはできなかった。
この発明はこのような事情に鑑みてなされたもので、その課題は観察物体を観察している他人の望遠鏡の向きを知ることができる望遠鏡及び望遠鏡システムを提供することである。
上記課題を解決するため請求項1記載の発明は、観察光学系と、前記観察光学系の位置と前記観察光学系の光軸の方位及び仰角を検出する検出手段と、基準位置情報と前記基準位置から見た観察物体の方位、仰角及び距離の情報を受信する受信手段と、前記検出手段により検出した前記観察光学系の光軸の方位及び仰角と前記受信手段により受信した前記基準位置情報と前記基準位置から見た前記観察物体の方位、仰角及び距離の情報とに基づいて、前記観察物体の方位及び仰角を演算する演算手段と、前記演算手段により演算された前記観察物体の方位及び仰角を表示する表示手段と、を有することを特徴とする。
請求項2記載の発明は、請求項1記載の望遠鏡において、前記望遠鏡は、前記観察光学系の実視界角度情報を記憶する記憶手段を有し、前記演算手段は、前記記憶手段から取得した前記実視界角度情報を前記表示手段に表示することを特徴とする。
請求項3記載の発明は、請求項2記載の望遠鏡において、前記記憶手段は、望遠鏡の個体識別情報を記憶し、前記演算手段は、前記記憶手段から取得した前記個体識別情報を前記表示手段に表示することを特徴とする。
請求項4記載の発明は、請求項1〜3のいずれか1項記載の望遠鏡において、前記望遠鏡は、前記基準位置から見た視野の同調を指示する同調設定用操作部材を有することを特徴とする。
請求項5記載の発明は、請求項4記載の望遠鏡において、前記望遠鏡は、前記視野の同調の対象を選択する対象選択部材を有することを特徴とする。
請求項6記載の発明は、請求項1〜5記載のいずれか1項記載の望遠鏡において、前記演算手段は、前記基準位置から見た視野中心と合致する水平・垂直方向を示すマーカーラインを前記表示手段に表示することを特徴とする。
請求項7記載の発明は、第1の望遠鏡と第2の望遠鏡からなる望遠鏡システムであって、前記第1の望遠鏡は、前記第1の望遠鏡の位置と前記第1の望遠鏡の位置から見た観察物体の方位、仰角及び距離を検出する第1の検出手段と、前記第1の検出手段により検出された前記第1の望遠鏡の位置と前記第1の望遠鏡の位置から見た前記観察物体の方位、仰角及び距離を送信する送信手段と、を有し、前記第2の望遠鏡は、前記第2の望遠鏡の位置と前記第2の望遠鏡の見ている方位及び仰角を検出する第2の検出手段と、前記送信手段により送信された前記第1の望遠鏡の位置と前記第1の望遠鏡の位置から見た前記観察物体の方位、仰角及び距離を受信する受信手段と、前記受信手段により受信した前記第1の望遠鏡の位置と前記第1の望遠鏡の位置から見た前記観察物体の方位、仰角及び距離と前記第2の検出手段により検出した前記第2の望遠鏡の位置と前記第2の望遠鏡の見ている方位及び仰角とに基づいて、前記観察物体の方位及び仰角を演算する演算手段と、前記演算手段により演算された前記観察物体の方位及び仰角を表示する表示手段と、を有することを特徴とする。
この発明によれば観察物体を観察している他人の望遠鏡の向きを知ることができる。
図1はこの発明の一実施形態に係る望遠鏡システムの構成を示すブロック図である。 図2は注視点の検出方法を説明する概念図である。 図3は観察物体を視野に入れる手順を示す図である。 図4は複数の双眼鏡で視野範囲を一致させるための位置情報の表示方法を示す図である。
以下、この発明の実施の形態を図面に基づいて説明する。
図1はこの発明の一実施形態に係る望遠鏡システムの構成を示すブロック図である。なお、図中、電子双眼鏡1と電子双眼鏡2とを区別するため、電子双眼鏡1の参照符号として2桁の数字を用い、電子双眼鏡2の参照符号として電子双眼鏡1の参照符号の数字に100を足して3桁の数字を用いた。但し、電子双眼鏡1と電子双眼鏡2とは同じ構成であるので、電子双眼鏡1について説明する。
電子双眼鏡(望遠鏡)1は、観察物体TO(図2参照)の光学像を拡大して撮像素子12に投影する観察光学系である対物レンズ11を有し、観察物体TOの光学像を画像データに変換する撮像部10と、画像データが表わす画像を表示する表示素子(表示手段)20と、後述する筐体60(対物レンズ11)の位置、対物レンズ11の光軸の方位及び仰角、筐体60から観察物体TOまでの距離を検出する位置検出センサ(検出手段)40と、位置検出センサ40の出力に基づいて観察物体TOの位置を演算する中央制御部(演算手段)30と、図示しない同調設定用操作部材や視野の同調の対象となる他人の双眼鏡(望遠鏡)のうちの1つを選択する対象選択部材(図示せず)を有する操作部材31と、中央制御部30の指示に基づいて撮像素子12で撮像された画像の画像処理を行う画像処理部32と、観察物体TOに対する視野範囲を表示する実視界情報や筐体60の個体識別情報を記憶するメモリ(記憶手段)33と、観察物体TOの位置情報等を電子双眼鏡2との間で送受信する無線通信部50とを備えている。撮像部10、表示素子20、中央制御部30、操作部材31、画像処理部32、位置検出センサ40及び無線通信部50は筐体60に設けられている。
対物レンズ11は1枚のレンズであっても複数のレンズの組み合わせであってもよい。
撮像部10は対物レンズ11の他に撮像素子12とAF・Zoom駆動部(オートフォーカス・ズーム駆動部)13とを有する。
撮像素子12は対物レンズ11で拡大した観察物体TOの拡大像を画像データに光電変換する素子である。撮像素子12はCCD、CMOSセンサ、撮像管等である。
AF・Zoom駆動部13は対物レンズ11の合焦位置を調節するとともに、画像の大きさを連続して拡大・縮小する装置である。
表示素子20はファインダとして用いられ、フィールドエミッションディスプレイ、エレクトロルミネッセンス素子等で構成される。
位置検出センサ40は、筐体60と観察物体TOとの距離を検出する距離センサ41と、筐体60の位置を検出する位置センサ42と、対物レンズ11の光軸の方位を検出する方位センサ43と、光軸の仰角を検出する仰角センサ44とで構成される。なお、距離センサ41は筐体60と一体のものでも筐体60に外付けするもの(例えばレーザー測距装置)でもよい。距離センサ41を筐体60に一体化させて対物レンズの焦点が合った状態から筐体60と観察物体TOとの距離を検出する方式の方が機構として簡単であるが、別体のものに比べて測距精度が低くなる。一方、別体のものは電子双眼鏡1が大型かつ複雑となる。
中央制御部30に接続された無線通信部50は図示しない送受信回路(送信手段、受信手段)を有し、携帯電話回線、無線LAN、Bluetooth等の通信手段を介して他人の電子双眼鏡2に接続されている。
中央制御部30は撮像部10と表示素子20とを制御する。また、中央制御部30は位置情報を無線通信部50を介して電子双眼鏡2に送信したり、電子双眼鏡2から位置情報を受信したりして、互いの電子双眼鏡1,2の位置、注視方向、位置(観察物体TOまでの距離)を知ることができるようにする。この位置情報は表示素子20に表示される。更に、中央制御部30は撮像素子12から出力される信号に基づいて焦点位置を検出し、AF・Zoom駆動部13を駆動して焦点合わせを行う。
以下、図1、2を参照して注視点の検出方法を説明する。
図2は注視点の検出方法を説明する概念図である。
電子双眼鏡1では位置センサ42によって筐体60の位置を検出し、方位センサ43によって光軸の方位を検出し、仰角センサ44によって光軸の仰角を検出する。同時にAF・Zoom駆動部13を駆動して焦点位置合わせを行い、筐体60から観察物体TOまでの距離d1を求める。筐体60の位置、方位、仰角、距離d1によって観察物体TOの三次元空間での位置を特定することができる。
この位置に関する情報は無線通信部50を介して電子双眼鏡2へ送信される。前述したように電子双眼鏡2と電子双眼鏡1とは同じ構成であるので、電子双眼鏡2においても筐体160の位置は特定される。
電子双眼鏡2では、電子双眼鏡1で得られた観察物体TOの位置と電子双眼鏡2で得られた観察物体TOの位置とに基づいて電子双眼鏡2と電子双眼鏡1との距離d2、電子双眼鏡1で見ている観察物体TOと電子双眼鏡2との間の方位、仰角、距離d3を求めることができる。
求められた結果は表示素子120上に表示され(図3参照)、電子双眼鏡2の使用者は電子双眼鏡1の使用者が見ている観察物体TOを見ることができる方向を表示素子120の画面を見て知ることができる。
図3は観察物体TOを視野(表示素子の画面)に入れる手順を示す図である。
図3(a)は電子双眼鏡1の視野を示し、図3(b)〜(d)は電子双眼鏡2の視野を示す。
例えば電子双眼鏡1で図3(a)に示すように観察物体TO(図3では鳥)を見ているものとする。このとき、電子双眼鏡2では電子双眼鏡1で見ている観察物体TOを見つけることができていない(図3(b)参照)。
まず、電子双眼鏡1と電子双眼鏡2との間で通信を行い、電子双眼鏡1の注視点方向を電子双眼鏡2の表示素子120に表示する。具体的には、電子双眼鏡2の移動方向及び移動量を指示する矢印(図3(b)参照)が表示される。図3(b)において、矢印が電子双眼鏡2の移動方向を示し、15.6°及び+15°の数字が電子双眼鏡2の移動量を示す。なお、15.6°は水平方向の移動量を示し、+15°は垂直方向上方への移動量を示す。
次に、表示素子120の画面上の表示にしたがって電子双眼鏡2を水平方向へ15.6°移動させるとマーカーラインML1(視野中心を通る垂直方向のマーカーライン)が表示素子120の画面に表示される(図3(c)参照)。このときも、電子双眼鏡2から見た観察物体TOの方向が電子双眼鏡2の表示素子120の画面に表示される。
その後、表示にしたがって電子双眼鏡2を垂直方向へ+15°移動させるとマーカーラインML1、ML2(視野中心を通る水平方向のライン)が表示素子120の画面に表示される(図3(d)参照)。
その結果、電子双眼鏡2の表示素子120画面の中心に電子双眼鏡1で見ている観察物体TOが表示される。
図4は複数の双眼鏡で視野範囲を一致させるための位置情報の表示方法を示す図である。
図4(a)では自分の電子双眼鏡1の視野に2つの電子双眼鏡(1号機、2号機)の向きが表示されている。電子双眼鏡1と電子双眼鏡(1号機、2号機)との間で各筐体(図示せず)の個体識別情報(各筐体の通信上のアドレス等)を位置の情報に加えて通信することによって、2つの電子双眼鏡(1号機、2号機)の向きを知ることができる。
図4(b)は自分の電子双眼鏡1の表示素子20に電子双眼鏡(1号機、2号機)の視野範囲(複数の円弧で囲まれた1及び2で示された部分)が表示されている状態を示す。
それぞれの電子双眼鏡の位置情報の通信時に実視界角度情報(対物レンズに入射する光の光軸中心に対する角度)を通信すると、光軸中心に対してどの範囲まで見ているかを知ることができる。
このとき、同調設定用操作部材(操作部材31)を操作して視野の同調(1号機、2号機の視野範囲を同じにする)を設定すると、1号機又は2号機の実視界(視野)に等しくなるようにズーム位置、フォーカス位置とを自動設定することができる。例えば、バードウオッチング時に広角にしてインストラクタの視野範囲を探し、その視野範囲の中心に大まかに視野中心を合わせて視野を同調させれば、ズームとフォーカスが自動的に設定される。上記機能によって観察物体TOを確実に捉えた後、各電子双眼鏡のフォーカス機能によって厳密に焦点位置を設定すればよい。視野同調の対象の選択は図示しない対象選択部材(操作部材31)で選択される。
なお、被写界深度の浅いレンズを使う双眼鏡では、焦点位置が異なるとボケが大きすぎて、観察物体TOを見つけられない場合があるので、観察物体TOの位置に応じて焦点位置が設定されることは重要である。
この実施形態によれば、他人の観察している方向を知ることができる。したがって、例えば複数の観察者が双眼鏡で同じ鳥を観察する場合、鳥を観察している他人の双眼鏡の向きが分かるので、自分も同じ鳥を容易に自分の双眼鏡の視野に入れることができる。
なお、上記実施形態では望遠鏡として双眼鏡を用いた場合を説明したが、双眼鏡に限るものではなくいわゆる単眼鏡であってもよい。
また、上記実施形態では、観察物体TOの位置情報を他の双眼鏡を送受信する通信手段を有する双眼鏡について説明したが、これに限らず観察物体TOの位置情報を送信する送信手段を有する双眼鏡又は観察物体TOの位置情報を受信する受信手段を有する双眼鏡であってもよい。
更に、上記実施形態は筐体60、160にファインダ等の表示部20等の電子機器を内蔵した双眼鏡で説明したが、これに限らず筐体に電子機器を外付けした双眼鏡であってもよい。
1,2:電子双眼鏡、11:対物レンズ、12:撮像素子、20:表示素子(表示手段)、30:中央制御部(演算手段)、31:操作部材、33:メモリ(記憶手段)、40:位置検出センサ(検出手段)、50:無線通信部、ML:マーカーライン、TO:観察物体。

Claims (7)

  1. 観察光学系と、
    前記観察光学系の位置と前記観察光学系の光軸の方位及び仰角を検出する検出手段と、
    基準位置情報と前記基準位置から見た観察物体の方位、仰角及び距離の情報を受信する受信手段と、
    前記検出手段により検出した前記観察光学系の光軸の方位及び仰角と前記受信手段により受信した前記基準位置情報と前記基準位置から見た前記観察物体の方位、仰角及び距離の情報とに基づいて、前記観察物体の方位及び仰角を演算する演算手段と、
    前記演算手段により演算された前記観察物体の方位及び仰角を表示する表示手段と、を有することを特徴とする望遠鏡。
  2. 前記望遠鏡は、前記観察光学系の実視界角度情報を記憶する記憶手段を有し、
    前記演算手段は、前記記憶手段から取得した前記実視界角度情報を前記表示手段に表示することを特徴とする請求項1記載の望遠鏡。
  3. 前記記憶手段は、望遠鏡の個体識別情報を記憶し、
    前記演算手段は、前記記憶手段から取得した前記個体識別情報を前記表示手段に表示することを特徴とする請求項2記載の望遠鏡。
  4. 前記望遠鏡は、前記基準位置から見た視野の同調を指示する同調設定用操作部材を有することを特徴とする請求項1〜3のいずれか1項記載の望遠鏡。
  5. 前記望遠鏡は、前記視野の同調の対象を選択する対象選択部材を有することを特徴とする請求項4記載の望遠鏡。
  6. 前記演算手段は、前記基準位置から見た視野中心と合致する水平・垂直方向を示すマーカーラインを前記表示手段に表示することを特徴とする請求項1〜5記載のいずれか1項記載の望遠鏡。
  7. 第1の望遠鏡と第2の望遠鏡からなる望遠鏡システムであって、
    前記第1の望遠鏡は、前記第1の望遠鏡の位置と前記第1の望遠鏡の位置から見た観察物体の方位、仰角及び距離を検出する第1の検出手段と、
    前記第1の検出手段により検出された前記第1の望遠鏡の位置と前記第1の望遠鏡の位置から見た前記観察物体の方位、仰角及び距離を送信する送信手段と、を有し、
    前記第2の望遠鏡は、前記第2の望遠鏡の位置と前記第2の望遠鏡の見ている方位及び仰角を検出する第2の検出手段と、
    前記送信手段により送信された前記第1の望遠鏡の位置と前記第1の望遠鏡の位置から見た前記観察物体の方位、仰角及び距離を受信する受信手段と、
    前記受信手段により受信した前記第1の望遠鏡の位置と前記第1の望遠鏡の位置から見た前記観察物体の方位、仰角及び距離と前記第2の検出手段により検出した前記第2の望遠鏡の位置と前記第2の望遠鏡の見ている方位及び仰角とに基づいて、前記観察物体の方位及び仰角を演算する演算手段と、
    前記演算手段により演算された前記観察物体の方位及び仰角を表示する表示手段と、を有することを特徴とする望遠鏡システム。
JP2009279216A 2009-12-09 2009-12-09 望遠鏡及び望遠鏡システム Withdrawn JP2011123152A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009279216A JP2011123152A (ja) 2009-12-09 2009-12-09 望遠鏡及び望遠鏡システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009279216A JP2011123152A (ja) 2009-12-09 2009-12-09 望遠鏡及び望遠鏡システム

Publications (1)

Publication Number Publication Date
JP2011123152A true JP2011123152A (ja) 2011-06-23

Family

ID=44287116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009279216A Withdrawn JP2011123152A (ja) 2009-12-09 2009-12-09 望遠鏡及び望遠鏡システム

Country Status (1)

Country Link
JP (1) JP2011123152A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111417952A (zh) * 2017-08-11 2020-07-14 D·富尼 具有网络连接瞄准镜以允许多个装置同时跟踪目标的装置
US11555671B2 (en) 2017-08-11 2023-01-17 Douglas FOUGNIES Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111417952A (zh) * 2017-08-11 2020-07-14 D·富尼 具有网络连接瞄准镜以允许多个装置同时跟踪目标的装置
JP2020533606A (ja) * 2017-08-11 2020-11-19 ダグラス・フォグニース ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス
JP7150851B2 (ja) 2017-08-11 2022-10-11 ダグラス・フォグニース ターゲットが複数のデバイスによって同時に追跡されることを可能にするためのネットワーク接続されたスコープを有するデバイス
US11555671B2 (en) 2017-08-11 2023-01-17 Douglas FOUGNIES Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple other devices
CN111417952B (zh) * 2017-08-11 2023-12-15 D·富尼 具有网络连接瞄准镜以允许多个装置同时跟踪目标的装置

Similar Documents

Publication Publication Date Title
EP3021078B1 (en) Geodetic surveying system with virtual camera
AU2006340610B2 (en) Optical distance viewing device having positioning and/or map display facilities
US8336777B1 (en) Covert aiming and imaging devices
JP6103526B2 (ja) 撮影機器,画像表示機器,及び画像表示機器の表示制御方法
US20190316879A1 (en) Devices with network-connected scopes for allowing a target to be simultaneously tracked by multiple devices
JP5178553B2 (ja) 撮像装置
US9279975B2 (en) Electronically adjustable long-range optical device
US20140063261A1 (en) Portable distance measuring device with a laser range finder, image sensor(s) and microdisplay(s)
JP5532026B2 (ja) 表示装置、表示方法及びプログラム
US9939263B2 (en) Geodetic surveying system
US10104241B2 (en) Method for integrated optical systems
CN103916659A (zh) 用于场深可视化的系统和方法
JP5640175B2 (ja) 画像表示装置及びこの画像表示装置をファインダ装置として搭載した撮影装置並びに画像表示方法
JP2006242871A (ja) ビーコン受信機及びビュアーシステム
CN109738961A (zh) 探测系统和探测方法
EP3226542B1 (en) Camera module and folded optical system for laser-based speed gun
JP2011123152A (ja) 望遠鏡及び望遠鏡システム
US8520115B2 (en) Image processing apparatus and method for displaying an image to an observer
US20190025585A1 (en) Wearable device and control method for wearable device
JPH0961725A (ja) 観察装置
JP2017099031A (ja) 画像表示機器及び画像表示機器の表示制御方法
JP2009224890A (ja) 撮影装置及び携帯情報端末
JP2012227717A (ja) 表示装置、表示プログラムおよび表示方法
JP7479829B2 (ja) 制御装置、撮像装置、撮像システム、制御方法、および、プログラム
JP2009267480A (ja) 雲台システムとそれを用いた撮影システム

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305