JP4175020B2 - Finder device - Google Patents

Finder device Download PDF

Info

Publication number
JP4175020B2
JP4175020B2 JP2002122209A JP2002122209A JP4175020B2 JP 4175020 B2 JP4175020 B2 JP 4175020B2 JP 2002122209 A JP2002122209 A JP 2002122209A JP 2002122209 A JP2002122209 A JP 2002122209A JP 4175020 B2 JP4175020 B2 JP 4175020B2
Authority
JP
Japan
Prior art keywords
image
optical system
unit
imaging
light beam
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002122209A
Other languages
Japanese (ja)
Other versions
JP2003315873A (en
Inventor
勝 牛田
博文 左
正一 田中
淳 勝沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2002122209A priority Critical patent/JP4175020B2/en
Publication of JP2003315873A publication Critical patent/JP2003315873A/en
Application granted granted Critical
Publication of JP4175020B2 publication Critical patent/JP4175020B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、変倍機能を有した光学系及び撮像部を備えたファインダ装置に関する。
【0002】
【従来の技術】
一般の照準器は、外界目標からの光束を使用者の眼に導くレンズを有すると共に、そのレンズの光軸位置を示す十字線や、物体の見込み角を示す分角目盛付きの十字線などの基準マークを、使用者の眼からは遠方にあるようにして外界目標からの光束に重ね合わせる。
【0003】
外界目標の距離が様々であるとき、照準器のレンズとしては、変倍機能が付加されたレンズ、例えば、一部のレンズ群の位置が可変のズームレンズや、一部のレンズ群が挿脱可能の変倍レンズなどが使用される。
ところで、近年の撮像素子の急速な性能向上に伴い、この照準器に代わり、外界目標を電子画像として表示するファインダ装置が開発されるようになった。
【0004】
ファインダ装置によれば、使用者は、照準器を覗く代わりに、モニタなどに表示された映像を目視すればよいので、比較的楽な姿勢をとることができる。
このファインダ装置において十字線を表示する場合、十字線の画像を外界目標の画像上の中央(光軸に相当する位置)に描画すればよい(所謂CGである。)。
但し、同じ見込み角の物体も、レンズの倍率が変更されると画像上の大きさは変化するので、分角目盛付きの十字線を使用者が読み取る際には、使用者は、分角目盛の1目盛が如何なる見込み角に相当するのかを、レンズ倍率に応じて適宜読み替える。
【0005】
【発明が解決しようとする課題】
しかしながら、レンズ倍率が変更されると、分角目盛の単位が変わるだけでなく、レンズ駆動時に生じるガタによりレンズの光軸がずれることがあるので、十字線の中心が正確に光軸を示さなくなる可能性がある。
また、分角目盛の単位は、レンズ倍率により一義的に決まるが、実際の倍率は使用者の意図した倍率に正確に一致しているとは限らないので、たとえ使用者が分角目盛の読み替えを適切に行ったとしても、正確な見込み角度を得ることができない可能性がある。
【0006】
しかも、以上の問題は、レンズ駆動時だけでなく、温度、振動などの環境変化によるレンズの収差変化によっても発生し得る。
特に、ファインダ装置が移動体に搭載される場合には、環境変化が大きいので、問題が深刻化することが予想される。
そこで、本発明は、十字線や分角目盛付き十字線などの基準マークを、光学系の状態変動に依らず正確に表示することのできるファインダ装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
請求項1に記載のファインダ装置は、撮像対象の像を結像すると共に変倍の機能を有した光学系と、前記光学系により結像される撮像対象の画像を取得する撮像部と、前記光学系に対し位置が不変の所定の基準物と、その基準物から射出する基準光束を無限遠から射出される光束と等価な光束に変換する変換光学系と、変換された基準光束を前記撮像対象から前記光学系へと入射する撮像光束に統合する統合光学系とを有した投光部と、前記撮像部により検出された前記基準物の像に応じて、その撮像部が取得する前記画像上に基準マークを重畳する基準マーク重畳部とを備えたことを特徴とする。
【0008】
請求項2に記載のファインダ装置は、請求項1に記載のファインダ装置において、前記基準物は、少なくとも前記光学系の視野内の1点を示す前記基準光束を射出し、前記基準マーク重畳部は、前記基準マークとして前記光学系の光軸の位置を示す光軸マークを重畳することを特徴とする。
請求項3に記載のファインダ装置は、請求項1又は請求項2の何れか一項に記載のファインダ装置において、前記基準物は、少なくとも前記光学系の視野内の所定方向の線分を示す前記基準光束を射出し、前記基準マーク重畳部は、前記基準マークとして物体の見込み角を示す分角目盛を重畳することを特徴とする。
【0009】
請求項4に記載のファインダ装置は、請求項1〜請求項3の何れか一項に記載のファインダ装置において、前記基準物は、所定のパターンが形成されたマスクであり、前記投光部は、そのマスクの照明用の光源を有することを特徴とする。請求項5に記載のファインダ装置は、撮像対象の像を結像すると共に変倍の機能を有した光学系と、前記光学系により結像される撮像対象の画像を取得する撮像部と、前記光学系に対し位置が不変の所定の基準物と、その基準物から射出する基準光束を無限遠から射出される光束と等価な光束に変換する変換光学系と、変換された基準光束を前記撮像対象から前記光学系へと入射する撮像光束に統合する統合光学系とを有した投光部と、前記光学系が結像する前記基準物の像を検出する検出部と、前記検出部により検出された前記基準物の像に応じて、前記撮像部が取得する前記画像上に基準マークを重畳する基準マーク重畳部とを備えたことを特徴とする。
【0010】
請求項6に記載のファインダ装置は、請求項5に記載のファインダ装置において、前記基準物は、少なくとも前記光学系の視野内の1点を示す前記基準光束を射出し、前記基準マーク重畳部は、前記基準マークとして前記光学系の光軸の位置を示す光軸マークを重畳することを特徴とする。
請求項7に記載のファインダ装置は、請求項5又は請求項6の何れか一項に記載のファインダ装置において、前記基準物は、少なくとも前記光学系の視野内の所定方向の線分を示す前記基準光束を射出し、前記基準マーク重畳部は、前記基準マークとして物体の見込み角を示す分角目盛を重畳することを特徴とする。
【0011】
請求項8に記載のファインダ装置は、請求項5〜請求項7の何れか一項に記載のファインダ装置において、前記基準物は、所定のパターンが形成されたマスクであり、前記投光部は、そのマスクの照明用の光源を有することを特徴とする。請求項9に記載のファインダ装置は、請求項5〜請求項8の何れか一項に記載のファインダ装置において、前記投光部の光源は、所定の波長域に設定され、前記検出部は、前記光学系と前記撮像部との間に挿入され、かつ前記基準光束を前記撮像光束から分離するダイクロイックミラーと、その分離された基準光束が成す基準物の像を検出する光センサとからなることを特徴とする。
【0012】
請求項10に記載のファインダ装置は、請求項5〜請求項8の何れか一項に記載のファインダ装置において、前記投光部は、前記基準光束の偏光方向を調整する偏光手段を有し、前記検出部は、前記光学系と前記撮像部との間に挿入され、かつ前記基準光束を前記撮像光束から分離する偏光ビームスプリッタと、その分離された基準光束が成す基準物の像を検出する光センサとからなることを特徴とする。
【0013】
【発明の実施の形態】
以下、図面を参照して本発明の実施形態について説明する。
[第1実施形態]
図1、図2、図3を参照して本発明の第1実施形態について説明する。
図1は、本実施形態のファインダ装置の構成図である。
【0014】
ファインダ装置は、変倍機能を有したレンズ(以下、ズームレンズとする。)10、撮像カメラ11、演算制御回路12、モニタなどの表示部17、及び投光部1を備える。
なお、投光部1は、ズームレンズ10の鏡筒に対して固定される。また、図1中符号18は、外界光をズームレンズ10の方向へ導くミラーである(これは、必要に応じて備えられるものであり、必須ではない。)。
【0015】
ズームレンズ10は、外界目標からの光束を、撮像カメラ11の撮像素子11a上に結像する。
また、ズームレンズ10には、その内部の一部のレンズ群を光軸方向に移動させる不図示のカム機構などが設けられており、使用者が直接、又は使用者が演算制御回路12と不図示のモータとを介して、適宜その機構を駆動すると、その倍率が例えば1倍〜20倍の間で変更される。
【0016】
撮像カメラ11は、ズームレンズ10による外界目標の像を撮像し、取得した信号を演算制御回路12に順次出力する。
演算制御回路12には、CPU12a、メモリ12b(CPU12aの処理に使用される)、信号処理部12c、フレームメモリ12dなどが備えられる。
撮像カメラ11から演算制御回路12に入力された信号は、CPU12aの指示の下、信号処理部12cにおいて所定の信号処理が施された後、順次フレームメモリ12dを介して表示部17に出力される。よって、表示部17には、図1下部に示すように、ズームレンズ10が捉えた外界目標のライブ画像が表示される。
【0017】
ここで、上記した投光部1は、本実施形態のファインダ装置において、ズームレンズ10の状態(本実施形態では特に、光軸の位置)を演算制御回路12に認識させるために備えられたものである。
投光部1には、基準物としてのマスク13、そのマスク13を照明する光源部14、マスク13から射出する基準光束を無限遠から射出する光束と等価な光束に変換するコリメートレンズ15、変換された基準光束を外界目標からズームレンズ10へ入射する撮像光束に統合する統合光学系としてのハーフミラー16が備えられる。
【0018】
マスク13の開口パターンは、光軸の位置を示すべく、例えば、図1上部に拡大して示すように、光軸位置(マスク13上の座標(0,0))に配置された円形の微小孔(ピンホール)からなる(以下、開口パターンがこの微小孔からなるとして説明する。)。
なお、マスク13の配置位置は、微小孔の中心が確実にズームレンズ10の光軸に一致するよう、予め調整(アライメント)される。
【0019】
また、光源部14は、マスク13のうち少なくとも開口パターンの形成された部分を均一に照明する。
ここで、外界目標からズームレンズ10に入射する撮像光束は、十分に遠方(無限遠とみなせる位置)から射出したものであり平行光束である。
また、マスク13からズームレンズ10に入射する基準光束も、コリメートレンズ15の作用により、平行光束である。
【0020】
よって、マスク13の見かけ上の位置(撮像素子11aを基準とした見かけ上の位置)は、外界目標とほぼ同じとなる。
以上の投光部1によれば、外界目標の像上の光軸に相当する位置に、マスク13の微小孔の像(以下、「点像」という。)が形成される。
【0021】
図2は、演算制御回路12内のCPU12aによる十字線の表示処理を説明する図である。
演算制御回路12内のCPU12aは、上述したようにライブ画像を表示する処理に加え、ズームレンズ10の状態変化に対応するために以下のとおり十字線(請求項の「光軸マーク」に対応する。)の表示処理をする。
【0022】
なお、この十字線の表示処理は、使用者の指示に応じて、定期的に、又は、ファインダ装置内の特定の動作(例えば、ズームレンズ10の駆動)が行われる毎に、又は、電源が投入される毎に実行される。因みに、ズームレンズ10の駆動時には、ズームレンズ10の状態変化が大きくなることが予想されるので、ズームレンズ10の駆動直後には少なくとも1回実行されることが好ましい。
【0023】
先ず、撮像カメラ11から順次入力される信号のうち、少なくとも1フレーム分の信号(すなわち、1枚の画像)(図2(a))が参照され、その画像から点像の画像(図2(b))のみが抽出される。
ここで、上記した光源部14のパワーが十分に大きく設定されていれば、点像の輝度を外界目標の像の輝度よりも十分に高くすることができるので、所定の閾値以上の信号を画像データから抽出するだけで、点像の画像は容易に抽出される。
【0024】
なお、外界目標が明るく、点像との輝度差が小さくなり得る場合には、図3に示すように、短期間のうちに光源部14を撮像素子11aと同期させた間欠駆動(少なくとも1回の点灯/消灯)をすると共に、点灯時の画像(図3(a))と消灯時の画像(図3(a’))との双方を参照し、両画像の差分を採ることで点像の画像(図3(b))を取得してもよい。
【0025】
次に、点像の画像(図3(b))から、その画像内での点像の中心座標(X,Y)を求める。
なお、点像の中心座標は、例えば、点像の画像データの各画素の輝度重心(各位置の各画素に輝度で重み付けした平均位置)を求めることで得られる。或いは、点像の最高輝度に近い高めの閾値を設けることで点像の比較的高輝度な領域のみを検出し、その領域の中心の座標を、点像の中心座標とみなしてもよい。なお、点像の中心座標の求め方については、エッジ検出など周知の様々な手法が適用できる。
【0026】
次に、点像の中心座標(X,Y)に応じて、ライブ画像上に重畳すべき画像(以下、「重畳用画像」という。図2(c))のデータを作成する。
重畳用画像は、ズームレンズ10の光軸の位置を示す十字線や円枠などの基準マークの画像である(以下、分角目盛付きの十字線とする)。
本実施形態では、十字線の中心の座標を、点像の中心座標(X,Y)に一致させる。
【0027】
例えば、点像の中心座標(X,Y)が(0,0)にあるときには、図1下部に示すように十字線の中心座標も(0,0)となるが、点像の中心座標(X,Y)が図2(b)に示すように(0,0)からずれていれば、図2(c)に示すように十字線の中心座標もそれと同じだけ(0,0)からずらされる。
なお、本実施形態では、十字線の分角目盛は所定の間隔とされ、分角目盛の1目盛が如何なる見込み角に相当するのかについては、レンズ倍率に応じて使用者が判断する。
【0028】
レンズ倍率は、CPU12aが、図1のズームレンズ10内のレンズの配置状態等から認識していることが好ましく、その場合、レンズ倍率を示す画像(倍率表示、例えば「×20」など)が、この重畳用画像に加えられる。
このようにして、重畳用画像(図2(c))が作成されると、CPU12aは、フレームメモリ12d上で、外界目標のライブ画像にその重畳用画像を重畳する。
【0029】
なお、重畳用画像については、CPU12aがフレームメモリ12d上に生成すれば良いが、重畳する画像が、単なる十字線や分角メモリなど、単純である場合は、重畳すべき十字線等を演算回路12内でカウンタやデコーダなどを用いて生成することも可能である。この場合はフレームメモリ12dを省略することも可能になる。
【0030】
以上の結果、表示部17上の外界目標のライブ画像上には十字線(好ましくは、倍率表示も)が付加される(図2(d))。以上がCPU12aによる十字線の表示処理である。
ここで、上記したように、この十字線の中心は投光部1の生成した点像の中心に一致するが、その点像をなす基準光束は、実際にズームレンズ10を透過したものであるので、ガタや環境変化により実際の光軸の位置がずれた場合は、点像の位置も同様にずれる。
【0031】
したがって、十字線は、ズームレンズ10に状態変動が生じたとしても、正確にそのズームレンズ10の光軸を示す。
なお、本実施形態のファインダ装置においては、表示部17上に点像が表示されていると若干ではあるものの外界目標の一部が見えにくくなるので、上記十字線の表示処理における光源部14の点灯時間は、なるべく短く(好ましくは、図2(a)に示す画像を取得する期間のみに)抑えられることが好ましい。
【0032】
また、本実施形態では、ズームレンズ10の倍率(「×10」「×20」など)が十字線と共に表示されるとしたが、十字線の分角目盛の間隔をズームレンズ10から取得された倍率に応じて伸縮させてもよい。その場合、使用者が分角目盛の単位を読み替える必要がなくなる。
[第2実施形態]
図4、図5を参照して本発明の第2実施形態について説明する。なお、ここでは第1実施形態との相違点についてのみ説明する。
【0033】
図4は、本実施形態のファインダ装置の構成図である。
第1実施形態のファインダ装置との相違点は、ズームレンズ10の光軸だけでなく、物体の見込み角をも正確に表示できる点にある。
これに伴い、投光部1に代えて投光部2、演算制御回路12に代えて演算制御回路22が備えられる。
【0034】
投光部2は、投光部1において、マスク13に代えてマスク23が備えられたものである。
マスク23の開口パターンは、ズームレンズ10の光軸の位置及び見込み角の基準(すなわち倍率の基準)を示すべく、例えば、図4上部に拡大して示すように、光軸位置(マスク23上の座標(0,0))に配置された第1の微小孔、及び光軸とは別の位置(マスク23上の座標(0,y1))に配置された第2の微小孔からなる。以下、第1の微小孔と第2の微小孔とからなるとして説明する。
【0035】
第1の微小孔と第2の微小孔との間隔が、見込み角の基準(倍率の基準)となる。
なお、マスク23の配置位置は、第1の微小孔の中心が確実にズームレンズ10の光軸に一致するよう、予め調整(アライメント)される。
また、光源部14は、マスク23のうち少なくとも開口パターンの形成された部分を均一に照明する。本実施形態では、複数(ここでは2つ)の微小孔を照明する必要があるので、複数(例えば2つ)の光源を用意してもよい。
【0036】
以上の投光部2によれば、撮像素子11a上に形成されるマスク23の像は、第1の微小孔の像及び第2の微小孔の像(以下、それぞれ「第1の点像」「第2の点像」という。)となる。
また、演算制御回路22は、その構成は演算制御回路12と同じであるが、その内部に設けられたCPU22a及びメモリ22bが行う十字線の表示処理の一部は、演算制御回路12内部に設けられたCPU12a及びメモリ12bが行うものとは異なる。以下、その異なる点について説明する。
【0037】
図5は、演算制御回路22内のCPU22aによる十字線の表示処理を説明する図である。
本実施形態のCPU22aが1枚の画像(図5(a))から抽出するのは、第1の点像及び第2の点像の画像(図5(b))である。抽出の仕方については、第1実施形態と同じでよい。
【0038】
そして、その画像(図5(b))からは、その画像内での第1の点像の中心座標(X1,Y1),第2の点像の中心座標(X2,Y2)とがそれぞれ求められる。抽出の仕方については、第1実施形態と同じでよい。
本実施形態でも、重畳画像に描画すべき十字線(図5(c))の中心の座標は、第1の点像の中心座標(X1,Y1)に合致される。
【0039】
また、本実施形態では、十字線に付与される分角目盛の間隔(1目盛)が、常に同じ見込み角を示しているようにする。つまり、分角目盛の間隔を、ズームレンズ10に実際に設定されている倍率に応じて設定する。
先ず、ズームレンズ10に実際に設定されている倍率は、第1の点像と第2の点像との間隔により特定できる。
【0040】
よって、本実施形態の十字線の表示処理では、第1の点像と第2の点像との間隔b=|Y2−Y1|が求められる。
仮に、ズームレンズが等倍に設定されているときの第1の点像と第2の点像との間隔がaであったとすると、現在のズームレンズ10の実際の倍率は(b/a)である。
【0041】
よって、ズームレンズ10が等倍に設定されているときに表示されるべき分角目盛の間隔がdであったならば、現在表示されるべき分角目盛の間隔は、d×(b/a)となる。
そこで、本実施形態では、予め、ズームレンズ10が所定倍率(以下、簡単のため等倍とする。)に設定されているときの実際の第1の点像と第2点像との間隔a、及び、そのときに表示されるべき分角目盛の間隔dを示す情報が、メモリ22bに格納される(正確には、メモリ22bに格納されるのは、少なくともaとbとの関係(d/a)を示す情報であればよい。)。
【0042】
そして、十字線の表示処理におけるCPU22aは、求めた間隔b、及びメモリ22bに格納された内容に応じて、重畳用画像として描画すべき十字線の分角目盛の間隔を、b×(d/a)に設定する(図5(c))。
その結果、表示部17上の外界目標のライブ画像上に付加される十字線(図2(d))は、その中心がズームレンズ10の実際の光軸に一致すると共に、それに付与される分角目盛が実際の見込み角を正確に示す。
【0043】
なお、本実施形態では、分角目盛の間隔がズームレンズ10の倍率に応じて自動的に伸縮するので、使用者が分角目盛の単位を読み替える必要がないという利点もある。
また、本実施形態では、ズームレンズ10の実際の倍率が(b/a)により求まるので、その倍率を、「×20」「×16」などのように十字線と共に表示してもよい。
【0044】
また、本実施形態では、十字線の配置位置、及び十字線の分角目盛の間隔を変化させるのみで、十字線の配置角度については何ら変化させなかったが、ズームレンズ10の駆動時のガタなどによりズームレンズ10及び投光部2が撮像素子11aに対し光軸の回りに回動する可能性のある場合には、前記した2つの点像を結ぶ線分の配置角度に応じて十字線の配置角度を設定してもよい。
【0045】
[第1実施形態、第2実施形態の補足]
上記第1実施形態、第2実施形態においては、上記説明したマスクに限らず、開口パターンの異なる他のマスクを適用することも可能である。
図6は、第1実施形態、第2実施形態(及び後述する第3実施形態、第4実施形態)のファインダ装置に適用されるマスクのバリエーションを示す図である。
【0046】
第1実施形態のマスクの開口パターンは、少なくともズームレンズ10の光軸を示すことができればよいので、少なくとも1つの座標を示していればよい。
また、開口パターンは、円形の微小孔でなく十字状の孔などでもよいが、最も好ましいのは、微小孔である。微小孔とすれば、同じパワーの光源を使用しても像の輝度を比較的高くすることができるからである。
【0047】
また、微小孔が配置されるのは、光軸の座標(0,0)に配置されることが、演算を簡略化する上で最も好ましい。しかし、光軸の座標(0,0)との関係が既知であれば、他の座標に配置されてもよい。
図6(a)(b)(c)に示すマスクは、少なくとも一つの微小孔が光軸の座標(0,0)に配置されているので、第1実施形態に適用可能である。
【0048】
また、図6(d)(e)(f)に示すマスクは、何れも光軸の座標(0,0)とは異なる位置に微小孔が形成されているが、図6(d)では上下2つの微小孔が互いの中心位置によって光軸の座標(0,0)を表しており、図6(e)では、左右2つの微小孔が互いの中心位置によって光軸の座標(0,0)を表しており、図6(d)では上下2つの微小孔又は左右2つの微小孔が互いの中心位置によって光軸の座標(0,0)を表しているので、これらのマスクも第1実施形態に適用可能である。
【0049】
一方、第2実施形態の開口パターンは、光軸の座標に加え、見込み角の基準を示す必要があるので、或る線分(すなわち2座標)を示している必要がある。
図6(a)(d)に示すマスクは、上下2つの微小孔が線分を示しているので、第2実施形態に適用可能である(なお、図6(a)に示すマスクは、図4に示したマスクと同じである。)。図6(b)(e)に示すマスクは、左右2つの微小孔が線分を示しているので、第2実施形態に適用可能である。
【0050】
また、図6(c)(f)に示すマスクは、上下及び左右2つの線分をそれぞれ示すので第2実施形態に適用可能である。
なお、第2実施形態に図6(c)又は図6(f)に示すマスクを使用すれば、ズームレンズ10の横方向の倍率と縦方向の倍率とが独立に求まるので、十字線の縦の分角目盛の間隔と横の分角目盛の間隔とをそれぞれ個別に設定してもよい。
【0051】
また、マスクの種類は、上記説明したように、開口部の面積が小さいもの(微小孔が形成されたマスクなど)の方が、像の輝度を高くすることが容易なため好ましいが、透明基板上にパターンが描画されたもののように開口部の多いマスクも、本発明には適用可能である。
また、第2実施形態において、マスクの開口又は遮光パターンを物体高の異なる各位置に配置された複数のマークからなるものにすれば、ズームレンズ10の像高方向の倍率ムラが求まるので、十字線の分角目盛の間隔を画像の位置によりそれぞれ個別に設定してもよい。
【0052】
[第3実施形態]
図7を参照して本発明の第3実施形態について説明する。なお、ここでは第1実施形態との相違点についてのみ説明する。
図7は、本実施形態のファインダ装置の構成図である。
第1実施形態のファインダ装置では、点像の検出器として外界目標の像を検出する撮像素子11aが兼用されていたが、本実施形態のファインダ装置では、点像の検出器30が撮像カメラ11とは別に設けられる。
【0053】
この検出器30は、波長による光の特性の相違を利用するので、投光部3の光源部34として、所定の波長域のものが使用される。この波長域は、外界目標の像として検出すべき波長域(以下、可視光域とする。)とは、異なるもの(以下、近赤外域とする。)に選択される。
検出器30は、ズームレンズ10と撮像カメラ11との間に挿入され、かつマスク13からの基準光束(ここでは、近赤外光からなる。)を、外界目標から射出した撮像光束(ここでは、可視光からなる。)と分離するダイクロイックミラー37と、その分離された基準光束が成すマスク13の像を検出する光センサ39とからなる。
【0054】
光センサ39としては、マスク13の開口パターンの像を十分な精度で検出できる撮像素子が使用される。因みに、マスク13の微小孔が1つしか設けられておらず、1つの点像のみを検出すればよい場合、光センサ39としてPSDなどの半導体位置検出器も使用してもよい。
このように、検出器30を撮像カメラ11とは別に設ければ、本実施形態の演算制御回路32(演算制御回路32内のCPU32a及びメモリ32b)は、検出器30の出力から即座に点像の中心座標を認識することができるので、図2(a)(b)に示したような抽出の処理(点像の画像の抽出処理)を、省略できる。
【0055】
また、撮像カメラ11とは別に検出器30を設けたので、表示部17に表示される外界目標の画像が点像に重なり合うことが無く、視界が良好となる。
本実施形態によれば、十字線の表示処理(図2参照)の実行中も常に良好な視界が保たれるので、ファインダ装置が移動体に搭載される場合など、ズームレンズ10の状態変化が頻繁に生じる場合などには、本実施形態を適用し、かつ十字線の表示処理の実行頻度を増やすとよい。
【0056】
[第4実施形態]
図8を参照して本発明の第4実施形態について説明する。なお、ここでは第1実施形態及び第3実施形態との相違点についてのみ説明する。
図8は、本実施形態のファインダ装置の構成図である。
本実施形態のファインダ装置でも、第3実施形態のファインダ装置と同様、撮像カメラ11とは別に検出器40が設けられる。
【0057】
但し、この検出器40は、偏光方向による光の特性の相違を利用するので、投光部4の光源14の後段に、マスク13から射出する基準光束の偏光方向を調整するための偏光板48が挿入される。
【0058】
検出器40は、ズームレンズ10と撮像カメラ11との間に挿入され、かつマスク13からの基準光束(所定の偏光方向に調整されている。)を、外界目標から射出した撮像光束と分離する偏光ビームスプリッタ47と、その分離された基準光束が成すマスク13の像を検出する光センサ49とからなる。
光センサ49としては、マスク13の開口パターンの像を十分な精度で検出できる撮像素子が使用される。因みに、マスク13の微小孔が1つしか設けられておらず、1つの点像のみを検出すればよい場合、光センサ49としてPSDなどの半導体位置検出器を使用してもよい。
【0059】
このように、検出器40を撮像カメラ11とは別に設ければ、第3実施形態と同様に、検出器40の出力から即座に点像の中心座標が認識されるので、図2(a)(b)に示したような抽出の処理(点像の画像の抽出処理)を省略できると共に、表示部17に表示される外界目標の画像が点像に重なり合うことが無いので視界が良好となる。
【0060】
本実施形態によれば、十字線の表示処理(図2参照)の実行中も常に良好な視界が保たれるので、ファインダ装置が移動体に搭載される場合など、ズームレンズ10の状態変化が頻繁に生じる場合などには、本実施形態を適用し、かつ十字線の表示処理の実行頻度を増やすとよい。
[その他]
なお、上記各実施形態のファインダ装置は、様々な機器に搭載される照準器として使用することができる。上述したように振動や温度変化に強いことから、特に、移動体に搭載される照準器として好適である。
【0061】
また、上記各実施形態において、ライブ画像上に重畳される基準マークは、光軸(又は見込み角)を示すのであれば、上記した十字線(又は十字線に分角目盛が付与されたもの)に限らず如何なる形状をしていてもよい。その形状は、ファインダ装置が搭載される機器の種類などに応じて適宜選択されることが好ましい。
【0062】
【発明の効果】
以上説明したように本発明によれば、十字線や分角目盛付き十字線などの基準マークを、光学系の状態変動に依らず正確に表示することのできるファインダ装置が実現する。
【図面の簡単な説明】
【図1】第1実施形態のファインダ装置の構成図である。
【図2】演算制御回路12内のCPU12aによる十字線の表示処理を説明する図である。
【図3】点像の画像を抽出する別の方法を説明する図である。
【図4】第2実施形態のファインダ装置の構成図である。
【図5】演算制御回路22内のCPU22aによる十字線の表示処理を説明する図である。
【図6】第1実施形態、第2実施形態、第3実施形態、第4実施形態のファインダ装置に適用されるマスクのバリエーションを示す図である。
【図7】第3実施形態のファインダ装置の構成図である。
【図8】第4実施形態のファインダ装置の構成図である。
【符号の説明】
1 投光部
10 ズームレンズ
11 撮像カメラ
11a 撮像素子
12,22,32 演算制御回路
12a,22a,32a CPU
12b,22b,32b メモリ
12d フレームメモリ
12c 信号処理部
13,23 マスク
14,34 光源部
15 コリメートレンズ
16 ハーフミラー
18 ミラー
17 表示部
30,40 検出器
37 ダイクロイックミラー
39,49 光センサ
47 偏光ビームスプリッタ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an optical system having a zooming function and a finder device including an imaging unit.
[0002]
[Prior art]
A general sight has a lens that guides the light beam from the external target to the user's eye, and includes a crosshair that indicates the optical axis position of the lens and a crosshair with a division scale that indicates the prospective angle of the object. The reference mark is superimposed on the light flux from the external target so that it is far from the user's eyes.
[0003]
When the distance of the external target is varied, the sighting lens can be a lens with a variable magnification function, for example, a zoom lens with a variable position of some lens groups or a lens group with some lens groups. Possible variable magnification lenses are used.
By the way, with the rapid performance improvement of recent image sensors, a finder device for displaying an external target as an electronic image has been developed instead of this sighting device.
[0004]
According to the finder device, the user can take a relatively easy posture because he / she only has to look at the video displayed on the monitor or the like instead of looking through the sight.
When a crosshair is displayed in this finder device, the crosshair image may be drawn at the center (position corresponding to the optical axis) on the external target image (so-called CG).
However, since the size of an object with the same prospective angle also changes when the lens magnification is changed, when the user reads a crosshair with a divisional scale, the user must Is read as appropriate according to the lens magnification.
[0005]
[Problems to be solved by the invention]
However, when the lens magnification is changed, not only the unit of the division scale is changed, but also the optical axis of the lens may be shifted due to the play generated when the lens is driven, so that the center of the crosshair does not accurately indicate the optical axis. there is a possibility.
The unit of the division angle scale is uniquely determined by the lens magnification, but the actual magnification does not always exactly match the magnification intended by the user. Even if it is appropriately performed, there is a possibility that an accurate prospective angle cannot be obtained.
[0006]
In addition, the above problem can occur not only when the lens is driven, but also due to a change in lens aberration due to environmental changes such as temperature and vibration.
In particular, when the finder device is mounted on a moving body, the environmental change is large, so that the problem is expected to become serious.
Therefore, an object of the present invention is to provide a finder device that can accurately display a reference mark such as a crosshair or a crosshair with a divisional scale, regardless of a change in the state of an optical system.
[0007]
[Means for Solving the Problems]
The finder device according to claim 1, an optical system that forms an image of an imaging target and has a function of changing magnification, an imaging unit that acquires an image of the imaging target formed by the optical system, A predetermined reference object whose position is unchanged with respect to the optical system, a conversion optical system that converts a reference light beam emitted from the reference object into a light beam equivalent to a light beam emitted from infinity, and the converted reference light beam for the imaging target A light projecting unit having an integrated optical system that integrates an imaging light beam incident on the optical system from the optical system, and the image acquired by the imaging unit according to the image of the reference object detected by the imaging unit. And a reference mark superimposing unit for superimposing a reference mark.
[0008]
The finder device according to claim 2 is the finder device according to claim 1, wherein the reference object emits the reference light beam indicating at least one point in the field of view of the optical system, and the reference mark superimposing unit is The optical axis mark indicating the position of the optical axis of the optical system is superimposed as the reference mark.
The finder device according to claim 3 is the finder device according to claim 1 or 2, wherein the reference object indicates at least a line segment in a predetermined direction within the field of view of the optical system. A reference light beam is emitted, and the reference mark superimposing unit superimposes a division angle scale indicating an expected angle of an object as the reference mark.
[0009]
The finder device according to claim 4 is the finder device according to any one of claims 1 to 3, wherein the reference object is a mask on which a predetermined pattern is formed, and the light projecting unit is And a light source for illuminating the mask. The finder apparatus according to claim 5, an optical system that forms an image of an imaging target and has a function of changing magnification, an imaging unit that acquires an image of the imaging target formed by the optical system, A predetermined reference object whose position is unchanged with respect to the optical system, a conversion optical system that converts a reference light beam emitted from the reference object into a light beam equivalent to a light beam emitted from infinity, and the converted reference light beam for the imaging target A light projecting unit having an integrated optical system that integrates an imaging light beam incident on the optical system from the optical system, a detection unit that detects an image of the reference object formed by the optical system, and a detection unit And a reference mark superimposing unit that superimposes a reference mark on the image acquired by the imaging unit in accordance with the image of the reference object.
[0010]
The finder device according to claim 6 is the finder device according to claim 5, wherein the reference object emits the reference light beam indicating at least one point in the field of view of the optical system, and the reference mark overlapping portion is The optical axis mark indicating the position of the optical axis of the optical system is superimposed as the reference mark.
The finder device according to claim 7 is the finder device according to any one of claim 5 or claim 6, wherein the reference object indicates at least a line segment in a predetermined direction within the field of view of the optical system. A reference light beam is emitted, and the reference mark superimposing unit superimposes a division angle scale indicating an expected angle of an object as the reference mark.
[0011]
The finder device according to claim 8 is the finder device according to any one of claims 5 to 7, wherein the reference object is a mask on which a predetermined pattern is formed, and the light projecting unit is And a light source for illuminating the mask. The finder device according to claim 9 is the finder device according to any one of claims 5 to 8, wherein a light source of the light projecting unit is set to a predetermined wavelength range, and the detection unit is A dichroic mirror that is inserted between the optical system and the imaging unit and separates the reference beam from the imaging beam, and an optical sensor that detects an image of a reference object formed by the separated reference beam. It is characterized by.
[0012]
The finder device according to claim 10 is the finder device according to any one of claims 5 to 8, wherein the light projecting unit includes a polarization unit that adjusts a polarization direction of the reference light beam, The detection unit is inserted between the optical system and the imaging unit and detects a polarization beam splitter that separates the reference light beam from the imaging light beam, and an image of a reference object formed by the separated reference light beam. And an optical sensor.
[0013]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[First Embodiment]
A first embodiment of the present invention will be described with reference to FIG. 1, FIG. 2, and FIG.
FIG. 1 is a configuration diagram of a finder apparatus according to the present embodiment.
[0014]
The viewfinder device includes a lens (hereinafter referred to as a zoom lens) 10 having a zooming function, an imaging camera 11, an arithmetic control circuit 12, a display unit 17 such as a monitor, and a light projecting unit 1.
The light projecting unit 1 is fixed to the lens barrel of the zoom lens 10. Reference numeral 18 in FIG. 1 denotes a mirror that guides external light in the direction of the zoom lens 10 (this is provided if necessary and is not essential).
[0015]
The zoom lens 10 forms an image of the light flux from the external target on the image sensor 11 a of the image camera 11.
Further, the zoom lens 10 is provided with a cam mechanism (not shown) that moves a part of the lens group in the optical axis direction, and the user directly or the user is not connected to the arithmetic control circuit 12. When the mechanism is appropriately driven via the illustrated motor, the magnification is changed between 1 and 20 times, for example.
[0016]
The imaging camera 11 captures an external target image by the zoom lens 10 and sequentially outputs the acquired signals to the arithmetic control circuit 12.
The arithmetic control circuit 12 includes a CPU 12a, a memory 12b (used for processing of the CPU 12a), a signal processing unit 12c, a frame memory 12d, and the like.
A signal input from the imaging camera 11 to the arithmetic control circuit 12 is subjected to predetermined signal processing in the signal processing unit 12c under the instruction of the CPU 12a, and then sequentially output to the display unit 17 via the frame memory 12d. . Therefore, as shown in the lower part of FIG. 1, a live image of an external target captured by the zoom lens 10 is displayed on the display unit 17.
[0017]
Here, the light projecting unit 1 described above is provided in the finder device of the present embodiment so that the arithmetic control circuit 12 can recognize the state of the zoom lens 10 (in particular, the position of the optical axis in the present embodiment). It is.
The light projecting unit 1 is converted into a mask 13 as a reference object, a light source unit 14 that illuminates the mask 13, a collimating lens 15 that converts a reference light beam emitted from the mask 13 into a light beam equivalent to a light beam emitted from infinity. A half mirror 16 is provided as an integrated optical system that integrates the reference light flux into the imaging light flux incident on the zoom lens 10 from the external target.
[0018]
In order to indicate the position of the optical axis, the opening pattern of the mask 13 is, for example, a circular minute arranged at the optical axis position (coordinates (0, 0) on the mask 13) as shown in the enlarged upper part of FIG. It consists of holes (pinholes) (hereinafter described as an opening pattern consisting of these microholes).
The arrangement position of the mask 13 is adjusted (aligned) in advance so that the center of the minute hole is surely aligned with the optical axis of the zoom lens 10.
[0019]
The light source unit 14 uniformly illuminates at least a portion of the mask 13 where the opening pattern is formed.
Here, the imaging light flux incident on the zoom lens 10 from the external target is a parallel light flux that is emitted from a sufficiently far distance (a position that can be regarded as infinity).
Further, the reference light beam incident on the zoom lens 10 from the mask 13 is also a parallel light beam due to the action of the collimating lens 15.
[0020]
Therefore, the apparent position of the mask 13 (apparent position with reference to the image sensor 11a) is substantially the same as the external target.
According to the light projecting unit 1 described above, an image of a minute hole (hereinafter referred to as a “point image”) of the mask 13 is formed at a position corresponding to the optical axis on the external target image.
[0021]
FIG. 2 is a diagram for explaining the display processing of the crosshairs by the CPU 12a in the arithmetic control circuit 12.
In addition to the process of displaying a live image as described above, the CPU 12a in the arithmetic control circuit 12 corresponds to a crosshair (corresponding to the “optical axis mark” in the claims) in order to cope with a change in the state of the zoom lens 10. .) Display processing.
[0022]
The crosshair display processing is performed periodically according to a user instruction, every time a specific operation (for example, driving of the zoom lens 10) in the finder apparatus is performed, or when the power source is turned on. It is executed every time it is input. Incidentally, when the zoom lens 10 is driven, it is expected that a change in the state of the zoom lens 10 will be large. Therefore, it is preferable that the zoom lens 10 is executed at least once immediately after the zoom lens 10 is driven.
[0023]
First, among signals sequentially input from the imaging camera 11, a signal for at least one frame (that is, one image) (FIG. 2A) is referenced, and a point image (FIG. 2 (FIG. 2)) is referred to. Only b)) is extracted.
Here, if the power of the light source unit 14 is set to be sufficiently large, the brightness of the point image can be made sufficiently higher than the brightness of the image of the external target. A point image is easily extracted simply by extracting from the data.
[0024]
When the external target is bright and the luminance difference from the point image can be small, as shown in FIG. 3, intermittent driving (at least once) in which the light source unit 14 is synchronized with the image sensor 11a within a short period of time. Is turned on / off), and a point image is obtained by referring to both the lighted image (FIG. 3A) and the lighted image (FIG. 3A ′), and taking the difference between the two images. The image (FIG. 3B) may be acquired.
[0025]
Next, the center coordinates (X, Y) of the point image in the image are obtained from the image of the point image (FIG. 3B).
The center coordinates of the point image can be obtained, for example, by obtaining the luminance centroid of each pixel of the point image data (the average position weighted by the luminance of each pixel at each position). Alternatively, by providing a higher threshold value close to the maximum brightness of the point image, only the relatively bright area of the point image may be detected, and the coordinates of the center of the area may be regarded as the center coordinates of the point image. Note that various known methods such as edge detection can be applied to obtain the center coordinates of the point image.
[0026]
Next, in accordance with the center coordinates (X, Y) of the point image, data of an image to be superimposed on the live image (hereinafter referred to as “superimposition image”, FIG. 2C) is created.
The superimposing image is an image of a reference mark such as a crosshair or a circle indicating the position of the optical axis of the zoom lens 10 (hereinafter referred to as a crosshair with a division scale).
In the present embodiment, the coordinates of the center of the crosshair are made to coincide with the center coordinates (X, Y) of the point image.
[0027]
For example, when the center coordinate (X, Y) of the point image is (0, 0), the center coordinate of the crosshair is also (0, 0) as shown in the lower part of FIG. If (X, Y) is deviated from (0, 0) as shown in FIG. 2 (b), the center coordinates of the crosshair are also deviated from (0, 0) by the same amount as shown in FIG. 2 (c). It is.
In the present embodiment, the dividing line scale of the crosshairs is set at a predetermined interval, and the user determines what expected angle corresponds to one scale of the dividing line scale according to the lens magnification.
[0028]
The lens magnification is preferably recognized by the CPU 12a from the arrangement state of the lens in the zoom lens 10 of FIG. 1, in which case an image showing the lens magnification (magnification display, for example, “× 20” or the like) It is added to this superimposing image.
When the superimposition image (FIG. 2C) is created in this way, the CPU 12a superimposes the superimposition image on the live image of the external target on the frame memory 12d.
[0029]
The superimposition image may be generated by the CPU 12a on the frame memory 12d. However, if the superimposition image is simple, such as a simple crosshair or a dividing angle memory, the crosshair to be superimposed is calculated as an arithmetic circuit. 12 can also be generated using a counter or a decoder. In this case, the frame memory 12d can be omitted.
[0030]
As a result, a crosshair (preferably, a magnification display) is added to the live image of the external target on the display unit 17 (FIG. 2 (d)). The cross line display processing by the CPU 12a is as described above.
Here, as described above, the center of the cross line coincides with the center of the point image generated by the light projecting unit 1, but the reference light beam forming the point image is actually transmitted through the zoom lens 10. Therefore, when the actual position of the optical axis is shifted due to backlash or environmental change, the position of the point image is similarly shifted.
[0031]
Therefore, the crosshairs accurately indicate the optical axis of the zoom lens 10 even if the zoom lens 10 changes its state.
In the finder device of the present embodiment, if a point image is displayed on the display unit 17, it is difficult to see a part of the external target, but the light source unit 14 in the cross-line display processing is difficult to see. It is preferable that the lighting time be as short as possible (preferably only during the period in which the image shown in FIG. 2A is acquired).
[0032]
In the present embodiment, the magnification (such as “× 10” and “× 20”) of the zoom lens 10 is displayed together with the crosshairs. However, the interval between the divisional scales of the crosshairs is acquired from the zoom lens 10. You may expand / contract according to magnification. In that case, it is not necessary for the user to replace the unit of the division scale.
[Second Embodiment]
A second embodiment of the present invention will be described with reference to FIGS. Here, only differences from the first embodiment will be described.
[0033]
FIG. 4 is a configuration diagram of the finder device of the present embodiment.
The difference from the viewfinder device of the first embodiment is that not only the optical axis of the zoom lens 10 but also the expected angle of the object can be displayed accurately.
Accordingly, a light projecting unit 2 is provided instead of the light projecting unit 1, and an arithmetic control circuit 22 is provided instead of the arithmetic control circuit 12.
[0034]
The light projecting unit 2 is provided with a mask 23 instead of the mask 13 in the light projecting unit 1.
The opening pattern of the mask 23 indicates the position of the optical axis (on the mask 23), for example, as shown enlarged in the upper part of FIG. 4 in order to show the position of the optical axis of the zoom lens 10 and the reference of the prospective angle (that is, the reference of magnification). The first microholes arranged at the coordinates (0,0)) and the second microholes arranged at a position different from the optical axis (coordinates (0, y1) on the mask 23). Hereinafter, the description will be made assuming that the first microhole and the second microhole are included.
[0035]
The distance between the first minute hole and the second minute hole is the reference for the prospective angle (reference for magnification).
The arrangement position of the mask 23 is adjusted (aligned) in advance so that the center of the first minute hole is surely aligned with the optical axis of the zoom lens 10.
The light source unit 14 uniformly illuminates at least a portion of the mask 23 where the opening pattern is formed. In this embodiment, since it is necessary to illuminate a plurality of (here, two) micro holes, a plurality of (for example, two) light sources may be prepared.
[0036]
According to the light projecting unit 2 described above, the image of the mask 23 formed on the image sensor 11a is the first microhole image and the second microhole image (hereinafter, “first point images”, respectively). "Second point image").
The arithmetic control circuit 22 has the same configuration as the arithmetic control circuit 12, but a part of the cross-line display processing performed by the CPU 22 a and the memory 22 b provided therein is provided in the arithmetic control circuit 12. This is different from what is performed by the CPU 12a and the memory 12b. Hereinafter, the different points will be described.
[0037]
FIG. 5 is a diagram for explaining cross-hair display processing by the CPU 22a in the arithmetic control circuit 22.
The CPU 22a of the present embodiment extracts the first point image and the second point image (FIG. 5B) from one image (FIG. 5A). The extraction method may be the same as in the first embodiment.
[0038]
From the image (FIG. 5B), the center coordinates (X1, Y1) of the first point image and the center coordinates (X2, Y2) of the second point image in the image are obtained. It is done. The extraction method may be the same as in the first embodiment.
Also in the present embodiment, the coordinates of the center of the cross line (FIG. 5C) to be drawn on the superimposed image match the center coordinates (X1, Y1) of the first point image.
[0039]
Further, in the present embodiment, the interval between the divisional scales (one scale) given to the crosshairs always indicates the same prospective angle. That is, the interval of the division scale is set according to the magnification actually set in the zoom lens 10.
First, the magnification actually set in the zoom lens 10 can be specified by the interval between the first point image and the second point image.
[0040]
Therefore, in the cross-hair display process of the present embodiment, the distance b = | Y2-Y1 | between the first point image and the second point image is obtained.
If the distance between the first point image and the second point image when the zoom lens is set to the same magnification is a, the actual magnification of the current zoom lens 10 is (b / a). It is.
[0041]
Therefore, if the interval between the divisional scales to be displayed when the zoom lens 10 is set to the same magnification is d, the interval between the divisional scales to be displayed is d × (b / a )
Therefore, in the present embodiment, the distance a between the actual first point image and the second point image when the zoom lens 10 is previously set to a predetermined magnification (hereinafter referred to as equal magnification for simplicity). , And information indicating the interval d of the fractional scale to be displayed at that time is stored in the memory 22b (more precisely, the memory 22b stores at least the relationship between a and b (d / A).
[0042]
Then, the CPU 22a in the cross-hair display processing determines the interval of the dividing line scale of the cross-hair to be drawn as the superimposition image according to the obtained interval b and the content stored in the memory 22b by b × (d / Set to a) (FIG. 5C).
As a result, the cross line (FIG. 2D) added to the live image of the external target on the display unit 17 coincides with the actual optical axis of the zoom lens 10 and is added to the center. The angle scale accurately indicates the actual prospective angle.
[0043]
In addition, in this embodiment, since the division | segmentation scale interval expands / contracts automatically according to the magnification of the zoom lens 10, there also exists an advantage that a user does not need to read the unit of a division | segmentation division scale.
In this embodiment, since the actual magnification of the zoom lens 10 is obtained by (b / a), the magnification may be displayed together with a cross line such as “× 20” and “× 16”.
[0044]
In this embodiment, only the arrangement position of the crosshairs and the interval between the divisional scales of the crosshairs are changed, and the arrangement angle of the crosshairs is not changed at all. When there is a possibility that the zoom lens 10 and the light projecting unit 2 may rotate around the optical axis with respect to the image sensor 11a due to the above, etc., the crosshairs according to the arrangement angle of the line segment connecting the two point images described above May be set.
[0045]
[Supplement to the first embodiment and the second embodiment]
In the first embodiment and the second embodiment, not only the above-described mask but also other masks having different opening patterns can be applied.
FIG. 6 is a view showing variations of the mask applied to the finder apparatus of the first embodiment and the second embodiment (and third and fourth embodiments described later).
[0046]
The opening pattern of the mask according to the first embodiment only needs to indicate at least one coordinate because it only needs to indicate at least the optical axis of the zoom lens 10.
The opening pattern may be a cross-shaped hole instead of a circular minute hole, but the most preferred is a minute hole. This is because if the hole is a minute hole, the luminance of the image can be made relatively high even if a light source having the same power is used.
[0047]
In order to simplify the calculation, it is most preferable to arrange the micropores at the coordinates (0, 0) of the optical axis. However, as long as the relationship with the coordinate (0, 0) of the optical axis is known, it may be arranged at another coordinate.
The masks shown in FIGS. 6A, 6B, and 6C are applicable to the first embodiment because at least one minute hole is arranged at the coordinate (0, 0) of the optical axis.
[0048]
Further, in each of the masks shown in FIGS. 6D, 6E, and 6F, micropores are formed at positions different from the coordinates (0, 0) of the optical axis. In FIG. The two micro holes represent the coordinates (0, 0) of the optical axis depending on the center position of each other. In FIG. 6E, the two micro holes on the left and right represent the coordinates (0, 0) of the optical axis depending on the center positions of each other. In FIG. 6D, the upper and lower two microholes or the left and right two microholes represent the coordinates (0, 0) of the optical axis according to the center positions of each other. It is applicable to the embodiment.
[0049]
On the other hand, the opening pattern of the second embodiment needs to indicate a certain line segment (that is, two coordinates) because it is necessary to indicate the reference of the prospective angle in addition to the coordinates of the optical axis.
The masks shown in FIGS. 6 (a) and 6 (d) are applicable to the second embodiment because the two upper and lower microholes indicate line segments (note that the mask shown in FIG. 6 (a) is not shown in the figure). This is the same as the mask shown in FIG. The masks shown in FIGS. 6B and 6E are applicable to the second embodiment because the two micro holes on the left and right indicate line segments.
[0050]
Also, the masks shown in FIGS. 6C and 6F are applicable to the second embodiment because they show two vertical and left and right line segments, respectively.
If the mask shown in FIG. 6C or FIG. 6F is used in the second embodiment, the horizontal magnification and the vertical magnification of the zoom lens 10 can be obtained independently. The interval between the divisional scales and the interval between the horizontal divisional scales may be set individually.
[0051]
In addition, as described above, a mask having a small opening area (such as a mask in which microholes are formed) is preferable because it is easy to increase the luminance of the image, but a transparent substrate is preferable. A mask having many openings such as a pattern drawn thereon is also applicable to the present invention.
In the second embodiment, if the mask opening or the light-shielding pattern is made up of a plurality of marks arranged at different positions of the object height, the magnification unevenness in the image height direction of the zoom lens 10 can be obtained. The interval between the line division scales may be individually set according to the position of the image.
[0052]
[Third Embodiment]
A third embodiment of the present invention will be described with reference to FIG. Here, only differences from the first embodiment will be described.
FIG. 7 is a configuration diagram of the finder device of the present embodiment.
In the finder apparatus of the first embodiment, the image sensor 11a that detects an image of an external target is also used as a point image detector. However, in the finder apparatus of this embodiment, the point image detector 30 is the imaging camera 11. It is provided separately.
[0053]
Since this detector 30 utilizes the difference in light characteristics depending on the wavelength, the light source unit 34 of the light projecting unit 3 has a predetermined wavelength range. This wavelength range is selected to be different from the wavelength range (hereinafter referred to as the visible light range) to be detected as the external target image (hereinafter referred to as the near infrared range).
The detector 30 is inserted between the zoom lens 10 and the imaging camera 11, and the imaging light beam (here, the reference light beam (made of near-infrared light here) from the mask 13 is emitted from the external target. And the dichroic mirror 37 that separates the light beam and the optical sensor 39 that detects the image of the mask 13 formed by the separated reference light beam.
[0054]
As the optical sensor 39, an image sensor that can detect an image of the opening pattern of the mask 13 with sufficient accuracy is used. Incidentally, when only one minute hole of the mask 13 is provided and only one point image needs to be detected, a semiconductor position detector such as PSD may be used as the optical sensor 39.
As described above, if the detector 30 is provided separately from the imaging camera 11, the arithmetic control circuit 32 (the CPU 32 a and the memory 32 b in the arithmetic control circuit 32) of the present embodiment instantly displays a point image from the output of the detector 30. 2 can be recognized, the extraction process (point image image extraction process) as shown in FIGS. 2A and 2B can be omitted.
[0055]
In addition, since the detector 30 is provided separately from the imaging camera 11, the external target image displayed on the display unit 17 does not overlap the point image, and the visual field is improved.
According to the present embodiment, a good field of view is always maintained even during the execution of the cross-hair display process (see FIG. 2), so that the state of the zoom lens 10 changes when the finder device is mounted on a moving body. In the case of frequent occurrence, it is preferable to apply the present embodiment and increase the execution frequency of the crosshair display processing.
[0056]
[Fourth Embodiment]
A fourth embodiment of the present invention will be described with reference to FIG. Here, only differences from the first embodiment and the third embodiment will be described.
FIG. 8 is a configuration diagram of the finder device of the present embodiment.
In the finder apparatus of the present embodiment as well, the detector 40 is provided separately from the imaging camera 11 as in the finder apparatus of the third embodiment.
[0057]
However, since this detector 40 uses the difference in the light characteristics depending on the polarization direction, a polarizing plate 48 for adjusting the polarization direction of the reference light beam emitted from the mask 13 at the subsequent stage of the light source 14 of the light projecting unit 4. Is inserted.
[0058]
The detector 40 is inserted between the zoom lens 10 and the imaging camera 11 and separates the reference light beam (adjusted in a predetermined polarization direction) from the mask 13 from the imaging light beam emitted from the external target. It comprises a polarization beam splitter 47 and an optical sensor 49 that detects an image of the mask 13 formed by the separated reference light beam.
As the optical sensor 49, an image sensor that can detect an image of the opening pattern of the mask 13 with sufficient accuracy is used. Incidentally, when only one minute hole of the mask 13 is provided and only one point image needs to be detected, a semiconductor position detector such as PSD may be used as the optical sensor 49.
[0059]
As described above, if the detector 40 is provided separately from the imaging camera 11, the center coordinates of the point image are immediately recognized from the output of the detector 40 as in the third embodiment. The extraction process (point image image extraction process) as shown in (b) can be omitted, and the external field target image displayed on the display unit 17 does not overlap the point image, so the field of view is improved. .
[0060]
According to the present embodiment, a good field of view is always maintained even during the execution of the cross-hair display process (see FIG. 2), so that the state of the zoom lens 10 changes when the finder device is mounted on a moving body. In the case of frequent occurrence, it is preferable to apply the present embodiment and increase the execution frequency of the crosshair display processing.
[Others]
In addition, the finder apparatus of each said embodiment can be used as a sighting device mounted in various apparatuses. Since it is strong against vibration and temperature change as described above, it is particularly suitable as a sighting device mounted on a moving body.
[0061]
Further, in each of the above embodiments, if the reference mark superimposed on the live image indicates the optical axis (or the prospective angle), the above-described cross line (or the cross line provided with a division angle scale) It may have any shape without being limited to. The shape is preferably selected as appropriate according to the type of equipment on which the finder device is mounted.
[0062]
【The invention's effect】
As described above, according to the present invention, it is possible to realize a finder device that can accurately display a reference mark such as a crosshair or a crosshair with a division scale, regardless of a change in the state of the optical system.
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a viewfinder device according to a first embodiment.
FIG. 2 is a diagram for explaining cross-hair display processing by a CPU 12a in an arithmetic control circuit 12. FIG.
FIG. 3 is a diagram for explaining another method of extracting a point image.
FIG. 4 is a configuration diagram of a finder device according to a second embodiment.
FIG. 5 is a diagram illustrating a crosshair display process performed by a CPU 22a in the arithmetic control circuit 22.
FIG. 6 is a diagram showing variations of a mask applied to the finder apparatus of the first embodiment, the second embodiment, the third embodiment, and the fourth embodiment.
FIG. 7 is a configuration diagram of a viewfinder device according to a third embodiment.
FIG. 8 is a configuration diagram of a viewfinder device according to a fourth embodiment.
[Explanation of symbols]
1 Light emitter
10 Zoom lens
11 Imaging camera
11a Image sensor
12, 22, 32 arithmetic control circuit
12a, 22a, 32a CPU
12b, 22b, 32b memory
12d frame memory
12c Signal processor
13,23 mask
14, 34 Light source
15 Collimating lens
16 half mirror
18 Mirror
17 Display
30, 40 detector
37 dichroic mirror
39, 49 Light sensor
47 Polarizing Beam Splitter

Claims (10)

撮像対象の像を結像すると共に変倍の機能を有した光学系と、
前記光学系により結像される撮像対象の画像を取得する撮像部と、
前記光学系に対し位置が不変の所定の基準物と、その基準物から射出する基準光束を無限遠から射出される光束と等価な光束に変換する変換光学系と、変換された基準光束を前記撮像対象から前記光学系へと入射する撮像光束に統合する統合光学系とを有した投光部と、
前記撮像部により検出された前記基準物の像に応じて、その撮像部が取得する前記画像上に基準マークを重畳する基準マーク重畳部と
を備えたことを特徴とするファインダ装置。
An optical system that forms an image of the object to be imaged and has a zooming function;
An imaging unit that acquires an image of an imaging target imaged by the optical system;
A predetermined reference object whose position is unchanged with respect to the optical system, a conversion optical system that converts a reference light beam emitted from the reference object into a light beam equivalent to a light beam emitted from infinity, and the image of the converted reference light beam A light projecting unit having an integrated optical system integrated with an imaging light beam incident on the optical system from a target;
A finder apparatus comprising: a reference mark superimposing unit that superimposes a reference mark on the image acquired by the imaging unit in accordance with an image of the reference object detected by the imaging unit.
請求項1に記載のファインダ装置において、
前記基準物は、
少なくとも前記光学系の視野内の1点を示す前記基準光束を射出し、
前記基準マーク重畳部は、
前記基準マークとして前記光学系の光軸の位置を示す光軸マークを重畳する
ことを特徴とするファインダ装置。
The finder device according to claim 1,
The reference material is
Emitting the reference luminous flux indicating at least one point in the field of view of the optical system;
The reference mark superimposing unit is
A viewfinder device, wherein an optical axis mark indicating the position of the optical axis of the optical system is superimposed as the reference mark.
請求項1又は請求項2の何れか一項に記載のファインダ装置において、
前記基準物は、
少なくとも前記光学系の視野内の所定方向の線分を示す前記基準光束を射出し、
前記基準マーク重畳部は、
前記基準マークとして物体の見込み角を示す分角目盛を重畳する
ことを特徴とするファインダ装置。
In the finder apparatus as described in any one of Claim 1 or Claim 2,
The reference material is
Emitting at least the reference luminous flux indicating a line segment in a predetermined direction within the field of view of the optical system;
The reference mark superimposing unit is
A finder apparatus that superimposes a division scale indicating an expected angle of an object as the reference mark.
請求項1〜請求項3の何れか一項に記載のファインダ装置において、
前記基準物は、所定のパターンが形成されたマスクであり、前記投光部は、そのマスクの照明用の光源を有する
ことを特徴とするファインダ装置。
In the finder apparatus as described in any one of Claims 1-3,
The reference object is a mask on which a predetermined pattern is formed, and the light projecting unit has a light source for illuminating the mask.
撮像対象の像を結像すると共に変倍の機能を有した光学系と、
前記光学系により結像される撮像対象の画像を取得する撮像部と、
前記光学系に対し位置が不変の所定の基準物と、その基準物から射出する基準光束を無限遠から射出される光束と等価な光束に変換する変換光学系と、変換された基準光束を前記撮像対象から前記光学系へと入射する撮像光束に統合する統合光学系とを有した投光部と、
前記光学系が結像する前記基準物の像を検出する検出部と、
前記検出部により検出された前記基準物の像に応じて、前記撮像部が取得する前記画像上に基準マークを重畳する基準マーク重畳部と
を備えたことを特徴とするファインダ装置。
An optical system that forms an image of the object to be imaged and has a zooming function;
An imaging unit that acquires an image of an imaging target imaged by the optical system;
A predetermined reference object whose position is unchanged with respect to the optical system, a conversion optical system that converts a reference light beam emitted from the reference object into a light beam equivalent to a light beam emitted from infinity, and the image of the converted reference light beam A light projecting unit having an integrated optical system integrated with an imaging light beam incident on the optical system from a target;
A detection unit for detecting an image of the reference object formed by the optical system;
A finder apparatus comprising: a reference mark superimposing unit that superimposes a reference mark on the image acquired by the imaging unit according to an image of the reference object detected by the detection unit.
請求項5に記載のファインダ装置において、
前記基準物は、
少なくとも前記光学系の視野内の1点を示す前記基準光束を射出し、
前記基準マーク重畳部は、
前記基準マークとして前記光学系の光軸の位置を示す光軸マークを重畳する
ことを特徴とするファインダ装置。
The finder apparatus according to claim 5,
The reference material is
Emitting the reference luminous flux indicating at least one point in the field of view of the optical system;
The reference mark superimposing unit is
A viewfinder device, wherein an optical axis mark indicating the position of the optical axis of the optical system is superimposed as the reference mark.
請求項5又は請求項6の何れか一項に記載のファインダ装置において、
前記基準物は、
少なくとも前記光学系の視野内の所定方向の線分を示す前記基準光束を射出し、
前記基準マーク重畳部は、
前記基準マークとして物体の見込み角を示す分角目盛を重畳する
ことを特徴とするファインダ装置。
In the finder apparatus as described in any one of Claim 5 or Claim 6,
The reference material is
Emitting at least the reference luminous flux indicating a line segment in a predetermined direction within the field of view of the optical system;
The reference mark superimposing unit is
A finder apparatus that superimposes a division scale indicating an expected angle of an object as the reference mark.
請求項5〜請求項7の何れか一項に記載のファインダ装置において、
前記基準物は、所定のパターンが形成されたマスクであり、前記投光部は、そのマスクの照明用の光源を有する
ことを特徴とするファインダ装置。
In the finder apparatus as described in any one of Claims 5-7,
The reference object is a mask on which a predetermined pattern is formed, and the light projecting unit has a light source for illuminating the mask.
請求項5〜請求項8の何れか一項に記載のファインダ装置において、
前記投光部の光源は、
所定の波長域に設定され、
前記検出部は、
前記光学系と前記撮像部との間に挿入され、かつ前記基準光束を前記撮像光束から分離するダイクロイックミラーと、その分離された基準光束が成す基準物の像を検出する光センサとからなる
ことを特徴とするファインダ装置。
In the finder apparatus as described in any one of Claims 5-8,
The light source of the light projecting unit is
Set to a predetermined wavelength range,
The detector is
A dichroic mirror that is inserted between the optical system and the imaging unit and separates the reference beam from the imaging beam, and an optical sensor that detects an image of a reference object formed by the separated reference beam. Finder device characterized by.
請求項5〜請求項8の何れか一項に記載のファインダ装置において、
前記投光部は、
前記基準光束の偏光方向を調整する偏光手段を有し、
前記検出部は、
前記光学系と前記撮像部との間に挿入され、かつ前記基準光束を前記撮像光束から分離する偏光ビームスプリッタと、その分離された基準光束が成す基準物の像を検出する光センサとからなる
ことを特徴とするファインダ装置。
In the finder apparatus as described in any one of Claims 5-8,
The light projecting unit is
Polarization means for adjusting the polarization direction of the reference beam;
The detector is
A polarization beam splitter that is inserted between the optical system and the imaging unit and separates the reference beam from the imaging beam, and an optical sensor that detects an image of a reference object formed by the separated reference beam. A finder device characterized by that.
JP2002122209A 2002-04-24 2002-04-24 Finder device Expired - Fee Related JP4175020B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002122209A JP4175020B2 (en) 2002-04-24 2002-04-24 Finder device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002122209A JP4175020B2 (en) 2002-04-24 2002-04-24 Finder device

Publications (2)

Publication Number Publication Date
JP2003315873A JP2003315873A (en) 2003-11-06
JP4175020B2 true JP4175020B2 (en) 2008-11-05

Family

ID=29537888

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002122209A Expired - Fee Related JP4175020B2 (en) 2002-04-24 2002-04-24 Finder device

Country Status (1)

Country Link
JP (1) JP4175020B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
BE1016981A3 (en) * 2006-02-08 2007-11-06 Fn Herstal Sa IMPROVED VISOR WITH RED MOBILE BRIDGE.
WO2021246211A1 (en) * 2020-06-01 2021-12-09 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2003315873A (en) 2003-11-06

Similar Documents

Publication Publication Date Title
JP4181037B2 (en) Target tracking system
US10698482B2 (en) Gaze tracking using non-circular lights
JP5915981B2 (en) Gaze point detection method and gaze point detection device
CN108351523A (en) Stereocamera and the depth map of structure light are used using head-mounted display
US10481403B2 (en) Contact lens with retinal camera
WO2012077713A1 (en) Method for detecting point of gaze and device for detecting point of gaze
JP2014520314A (en) System and method for identifying eye tracking scene reference position
US9648223B2 (en) Laser beam scanning assisted autofocus
JP2002232917A (en) Viewpoint position detector, viewpoint position detection method and stereoscopic image display system
CN103782131A (en) Measuring device that can be operated without contact and control method for such a measuring device
JP3450801B2 (en) Pupil position detecting device and method, viewpoint position detecting device and method, and stereoscopic image display system
US20200077059A1 (en) Display apparatus, display system, and method for controlling display apparatus
JP4175020B2 (en) Finder device
US10685448B2 (en) Optical module and a method for objects' tracking under poor light conditions
JP2006136450A (en) Iris certification device
JP3192483B2 (en) Optical equipment
JP2018011681A (en) Visual line detection device, visual line detection program, and visual line detection method
JP2006050280A (en) Image pickup unit and image pickup method
JPH0588074A (en) Video camera
US20040239877A1 (en) Ophthalmologic image-taking apparatus
JPH0564061A (en) Video camera
JPH1097376A (en) Operation device for line of sight
JPH0567281B2 (en)
WO2023284946A1 (en) Ophthalmic or surgical microscope with display device and camera
JP2008124762A (en) Observing apparatus and photographing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080729

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080811

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110829

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140829

Year of fee payment: 6

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140829

Year of fee payment: 6

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140829

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees