JP4226235B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP4226235B2
JP4226235B2 JP2001267311A JP2001267311A JP4226235B2 JP 4226235 B2 JP4226235 B2 JP 4226235B2 JP 2001267311 A JP2001267311 A JP 2001267311A JP 2001267311 A JP2001267311 A JP 2001267311A JP 4226235 B2 JP4226235 B2 JP 4226235B2
Authority
JP
Japan
Prior art keywords
image
imaging
image sensor
distance
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2001267311A
Other languages
Japanese (ja)
Other versions
JP2003078802A (en
Inventor
洋 島本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2001267311A priority Critical patent/JP4226235B2/en
Publication of JP2003078802A publication Critical patent/JP2003078802A/en
Application granted granted Critical
Publication of JP4226235B2 publication Critical patent/JP4226235B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Focusing (AREA)

Description

【0001】
【産業上の利用分野】
本発明は、一層深い被写界深度が得られる撮像装置に関するものである。
【0002】
【従来の技術】
従来、広い対物距離にある被写体に対して合焦して撮像するものとしてピンホールカメラが既知である。しかし、ピンホールカメラは撮像装置へのに入射光量が少ないため明るい被写体しか撮像できない欠点がある。また、広角レンズを用い、被写界深度をできるだけ深くしたカメラも提案されていた。しかし、このようなカメラの場合周辺の幾何学歪みが大きくなり過ぎてしまう。
【0003】
深い被写界深度が得られる別の撮像装置として、特開平9−116807号公報に記載されている撮像装置が既知である。この撮像装置では、撮像レンズの光路を2つの光路に分割し、各光路にそれぞれ撮像素子を配置し、これら撮像素子の撮像レンズの主点からの配置距離を互いに僅かに相違させている。そして、一方の撮像素子から出力される映像信号に対して高周波フィルタリング処理を行い、他方の撮像装置から出力されフィルタリング処理されていない映像信号と高周波フィルタリング処理された映像信号とが加算処理されている。この既知の撮像装置では、フィルタリング処理されていない映像信号と高周波フィルタリング処理された映像信号とが加算処理されていので、撮像装置としての被写界深度は実質的増大し、一層深い被写界深度の撮像装置が実現されている。
【0004】
【発明が解決しようとする課題】
上述した既知の撮像装置では、撮像装置間の距離が少な過ぎると両方の撮像装置の被写界深度の重なる範囲が多くなり最終的に得られる映像信号が持つ被写界深度の拡大範囲が小さくなってしまい、逆にそのずらし距離が大き過ぎると両方の撮像素子の被写界深度の領域が連続しなくなり連続した広範囲の被写界深度が得られなくなる欠点があった。さらに、一方の撮像素子から得られる映像信号に高域通過フィルタ処理を行い他方の撮像素子から得られる映像信号と加算処理を行うため、一方の撮像素子から得られる映像に不鮮明な像の部分があった場合、鮮明な画像を加算しただけでは最終的に出力される映像はその先鋭感が低下する欠点があった。
【0005】
従って、本発明の目的は、任意の焦点距離を有する撮像レンズを用いて任意の絞り値で撮像した場合においても、広範囲の被写体に合焦して撮像できる撮像装置を実現することにある。
【0006】
【課題を解決する手段】
本発明による撮像装置は、被写体の像を撮像する撮像レンズと、撮像レンズを通過した光の光路を複数の光路に分割する光路分割手段と、分割された各光路にそれぞれ配置され、被写体の像を撮像して映像信号を発生する撮像素子と、各撮像素子をその光軸方向に沿って移動させる撮像素子駆動装置と、入力された撮像レンズのレンズパラメータに応じて各撮像素子の光軸上の位置を決定する演算処理装置と、各撮像素子から出力された映像信号を合成する画像合成装置とを具え、
bを撮像レンズの主点から撮像素子の配置位置までの光軸に沿う距離とし、fを撮像レンズの焦点距離とし、Fをレンズ絞りのFナンバーとし、δを許容錯乱円径とした場合に、前記演算処理装置が、
撮像レンズの主点から1つの撮像素子の光軸方向の距離を、式
b=f2 /(f−δF)を満たすように設定し、
他の1つの撮像素子の撮像レンズの主点からの光軸方向の距離を、式
b=f2 /(f−3δF)を満たすように設定することを特徴とする。
【0007】
少なくとも2つの撮像素子の撮像レンズの主点からの距離を上記式を満たすように設定すれば、撮像装置の合焦する対物距離の範囲は、後述する過焦点距離Hについて無限遠からH/4までの範囲となり撮像装置の合焦範囲を大幅に拡大することができる。しかも2つの被写界深度領域が重なることなく連続させることができる。この結果、被写界深度が大幅に向上した撮像装置を実現することができる。さらに、各撮像素子は、その光軸方向に自在に移動することができるので、任意の焦点距離の撮像レンズを用いても或いは任意の絞り値で撮像しても一層広い範囲の合焦範囲を得ることができる。
【0008】
【発明の実施の形態】
図1は本発明による撮像装置の第1実施例の構成を示す線図である。遠視野の被写体1及び近視野の被写体2からの光は撮像レンズ3を経て光路分割手段であるプリズム4に入射する。撮像レンズ3は単レンズとして図示したが複数のレンズ組から成る撮像レンズ系とすることができる。プリズム4はハーフミラー構造を有し、入射光を2つの光路の光に分割する。一方の光路上に第1の撮像素子5を配置し、他方の光路上に第2の撮像素子6を配置する。これら第1及び第2の撮像素子は、多数の受光素子すなわち画素が2次元マトリックス状に配列された2次元撮像素子とする。
【0009】
各撮像素子5,6は駆動装置7及び8に取り付けられ、その光軸方向に自在に移動することができる。従って、各撮像素子の撮像レンズ3の主点からの距離は、使用する撮像レンズの焦点距離や絞りの条件に応じて自在に設定することができる。各撮像素子5及び6は、コントローラの制御のもとで互いに同期して読み出され、画像合成装置12に供給され、画像合成された映像信号が出力される。
【0010】
撮像レンズ3のレンズパラメータ、例えばレンズの焦点距離や絞り値は演算処理装置10に入力され、この演算処理装置により、使用する撮像レンズの特性に応じて撮像素子5及び6の撮像レンズ3からの距離を計算する。これらの計算値は駆動回路10及び11にそれぞれ供給され、駆動装置7及び8の駆動信号が形成され、第1及び第2の撮像素子はレンズパラメータに対応した位置に配置されることになる。
【0011】
次に、演算処理装置における演算処理内容を図2を参照しながら説明する。図2は、撮像レンズ3の焦点距離f、撮像レンズの主点から被写体までの距離l、結像距離b、後方被写界深度d1、前方被写界深度d2、及び許容錯乱円δの関係を示す。奥行きのある被写体を撮像する場合、合焦点の前後も焦点深度内は合焦して見える。これは、像のぼけが許容錯乱円よりも小さい場合、そのぼけが検出できないからである。この合焦範囲を被写界深度と称する。また、撮像レンズの主点から被写体までの距離である対物距離lに合焦している場合、対物距離lよりも遠方の合焦範囲を後方被写界深度d1と称し、対物距離よりもレンズに近い側の合焦範囲を前方被写界深度d2と称する。
【0012】
撮像レンズの焦点距離をfとし、レンズ絞りのFナンバをFとし、許容錯乱円をδとし、対物距離をlとすると、被写界深度は以下の式により求められる。
後方被写界深度:d1=δ・F・l2 /(f2 −δ・F・l) 式(1)
前方被写界深度:d2=δ・F・l2 /(f2 +δ・F・l) 式(2)
過焦点距離: H=f2 /δ・F 式(3)
【0013】
ここで、過焦点距離Hとは、後方被写界深度の遠点を無限遠とした時の対物距離lの値であり、この距離に合焦すれば無限遠から過焦点距離の1/2の距離までが合焦する。
【0014】
また、レンズ主点から測った対物距離をlとし、結像距離をbとした場合、以下の結像式が成り立つ。
1/l+1/b=1/f 式(4)
ここで、対物距離lに対する結像距離bを求める。まず、l=無限遠のとき、式(4)より
b=f
となる。すなわち、結像距離は焦点距離と一致する。
次に、l=過焦点距離Hのとき、式(3)及び(4)より
δF/f2 +1/b=1/f
故に、b=f2 /(f−δF) 式(5)
従って、演算処理装置9において式(5)から算出される結像距離に従って第1の撮像素子5を配置すると、この第1の撮像素子により無限遠から1/2Hまで合焦した映像が得られる。従って、第1の撮像素子は、被写体が撮像レンズの過焦点距離Hに位置する場合の結像位置に配置する。
【0015】
次に、第2の撮像素子6の配置位置について説明する。第2の撮像素子6の後方合焦点が第1の撮像素子5の前方合焦点すなわち1/2Hに等しくなるような対物距離をLとする。図3に撮像素子1、2の被写界深度を示す。撮像素子1の後方被写界深度をd2L、前方被写界深度をd2H、第2の撮像素子6の後方被写界深度をd1L、前方被写界深度をd2L、とする。このとき、対物距離は、
L=H/2−d1L
と表せられる。
式(1)よりd1Lを求め、式(3)よりHを代入し、計算すると
L=f2 /(3δF) 式(6)
よって、l=Lのとき、式(4)により、
3δF/f2 +1/b=1/f
故に、b=f2 /(f+3δF) 式(7)
となる。
このとき、合焦している最短合焦距離L′は、
L′=L−d2L
式(2)よりd2Lを求め、式(6)よりLを代入し、計算すると、
L’=f2 /4δf=H/4 式(8)
【0016】
従って、演算処理装置において式(7)から算出される結像距離に従って第2の撮像素子6を配置すると、対物距離が1/2HからL′、すなわち1/2Hから1/4Hまで合焦した映像が得られる。
【0017】
以上、演算処理装置の動作をまとめると、レンズパラメータを式(5)に従って演算し第1の撮像素子5の配置位置を決定し制御し、また式(7)に従って演算し第2の撮像素子6の配置位置を決定し制御する。この制御により、対物距離が1/4Hから無限遠の間にある被写体は、第1又は第2の撮像素子5又は6のどちらかにおいて必ず合焦して撮像されることとなる。
【0018】
第1及び第2の撮像素子5、6から得られる映像の内、被写体毎に合焦した映像領域を検出または任意に指定するなどの手法により選択し、映像合成装置において2次元平面上に合成することにより、対物位置が1/4Hから無限遠まで合焦した合成映像が得られる。
【0019】
以上の説明により明らかなように、レンズパラメータが変化した場合においても、演算処理装置において式(5)及び(7)にしたがって第1及び第2の撮像素子のレンズ主点からの距離を算出し、駆動装置7及び8を駆動することにより撮像素子の配置を適切に移動させ、それぞれの撮像素子から得られる映像信号を合成することにより、常に最も広範囲の被写界深度を持つ合成映像が得られる。図3に、絞り値が変化したときの合成映像の被写界深度の変化の様子もあわせて模式的に示す。
【0020】
図4は本発明による撮像装置の画像合成装置の変形例を示す線図である。本例では、第1及び第2の撮像素子5及び6の後段に高域通過フィルタ21及び22をそれぞれ接続し、これら高域通過フィルタを通過した信号を加算器23に供給して画像合成する。2つの撮像素子5、6の合焦範囲にある全ての被写体は、必ずどちらかの撮像素子では合焦して撮像されその他の撮像素子ではぼけて撮像される。従って両映像に適当な高域通過フィルタ処理を行うことによりそれぞれの映像の合焦部分だけが抽出され、それらを加算器により加算処理することにより、全体として合焦した映像が得られる。尚、高域通過フィルタとして、例えば2次元ディジタルフィルタを用いることができる。
【0021】
図5は、複数の画素で構成されるブロック領域毎に合焦した映像を選択し選択された映像を合成する手法例を示したものである。2つの撮像素子5及び6から得られる映像信号はそれぞれ複数の画素を含むブロック領域に分けられ、ブロック領域毎に高域通過フィルタ31、32により高域成分を抽出し、比較器33によって高域成分の量が比較される。比較器33からの出力に従って映像の高域成分が多い方の映像ブロックからの映像信号が切替器34によって選択される。最終的に出力される映像は、ブロック毎により合焦に近い映像が選択され出力される。各ブロックを構成する画素数は少ない程細かく合焦映像を選択することができるが、逆に少なすぎると高域成分の比較精度が低下するので、適当な画素数にしておく。ブロック毎に合成した結果ブロックのつなぎ日の映像の微小な違いが気になる場合は、必要に応じて合成出力に対して適当な2次元低域通過フィルタ処理などを行い、ブロックのつなぎ目の影響を低減しても良い。
【0022】
図6は、一方の撮像素子から得られる映像を電気的にデフォーカスし、デフォーカス処理されていない他方の映像と比較することによって合焦領域を検出して合焦した映像を選択し合成する手法例を示したものである。第2の撮像素子6にデフォーカスフィルタ41を接続して第2の撮像素子6の映像信号について電気的にデフォーカス処理を行いレンズによるぼけと同様なぼけを与える。そして、デフォーカス処理された映像信号と第1の撮像素子5のデフォーカス処理されていない映像信号とを比較器42に供給して比較する。撮像素子6によって合焦した被写体は、電気的なデフォーカス処理によって撮像素子5による映像のぼけた映像と一致するので、両映像が一致した部分は撮像素子2の被写体の合焦した領域と判断できる。この比較器からの出力結果によって切替器を切り替え、合焦した画像を選択的に抽出して画像合成する。この結果、当該画像合成法により、画像全体が合焦した画像を形成することができる。
【0023】
尚、上述した実施例では、撮像レンズの光路を2つに分割し、2個の撮像素子から出力される映像信号を合成する例について説明したが、光路を2つ以上に分割する場合の原理は同様であることは言うまでもない。
【0024】
本発明を用いた第2の実施例について図7を用いて説明する。これは2つの撮像素子から得られる映像の合焦範囲が連続していなくとも、それぞれの撮像素子が撮像すべき各被写体に対して合焦して撮像すれば、1台の撮像装置から対物距離がそれぞれ相違する複数の被写体について合焦した画像が同時に得られ、テレビジョンスタジオ収録などにおいて演出効果を高めることが期待される例である。図7は、近接撮影の例として人形劇をスタジオで収録する場面を想定した図である。背景画像の前には人形が配置されており、背景画像と人形は、赤外線測距装置やポテンショメータなどの距離センサのような手段によりカメラレンズからの対物距離が測定され、各被写体についての対物距離がパラメータとして演算処理装置へ入力される。例えば赤外線測距装置のような距離センサ50を用い、撮像装置から被写体までの距離を各被写体毎に測定し、得られた各距離情報を演算処理装置9に供給する。演算処理装置9では、供給された距離情報に基づいて各撮像素子の合焦位置を算出し、駆動回路にそれぞれ供給する。そして、得られた距離情報に応じて各撮像素子を合焦範囲内に移動させ位置決めする。
【0025】
背景被写体の対物距離をl1 、人形被写体の対物距離をl2 、とするとそれぞれの被写体の結像距離b1 、b2、すなわち第1及び第2の撮像素子の撮像レンズからの合焦位置は式(4)より、
1 =l1 f/(l1 −f)
2 =l2 f/(l2 −f) 式(9)
と求められる。
【0026】
この式(9)の演算結果に基づき撮像素子の結像位置を制御することにより、近接撮影など合焦領域が狭い被写体においても個別の被写体に対して適応して合焦した映像を得ることができる。またこのような書き割り映像の撮影において、それぞれの対物距離の被写体が合焦して撮影できるため、ポスプロにおいて任意の被写体を映像処理によってぼかすなど、演出効果がより広がる可能性がある。
【0027】
尚、距離センサは各撮像素子毎に設けることができ、或いは1つの距離センサを複数の撮像素子で共用することもできる。
【0028】
【発明の効果】
以上説明したように、本発明によれば、テレビジョンカメラ等において、任意の焦点距離を有する撮像レンズを用いて任意の絞り値において撮像した場合においても、広範囲の対物距離の被写体に合焦したパンフォーカス画像が得られる。また、例えば人形劇の接写等の合焦領域が狭い被写体についても人形や背景画像等の個別の被写体に対して適応して合焦した映像を得ることができる。また人形と背景画像との同時撮影が可能になり、ポスプロにおいて任意の被写体を映像処理によってぼかす等の演出効果が効果が達成される。
【図面の簡単な説明】
【図1】 本発明の第1の実施例による撮像装置の構成を示す線図である。
【図2】 本発明による撮像装置の光学パラメータを説明するための線図である。
【図3】 合焦領域の絞り値に対応した変化を示す線図である。
【図4】 画像合成装置を示す線図である。
【図5】 画像合成装置を示す線図である。
【図6】 画像合成装置の別の実施例を示す線図である。
【図7】 本発明の第2実施例による撮像装置の構成を示す線図である。
【符号の説明】
1,2 被写体
3 撮像レンズ
4 プリズム
5 第1の撮像素子
6 第2の撮像素子
7 第1の空間装置
8 第2の空間装置
9 演算処理装置
10 第1の駆動回路
11 第2の駆動回路
12 画像合成装置
[0001]
[Industrial application fields]
The present invention relates to an imaging apparatus capable of obtaining a deeper depth of field.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a pinhole camera is known as a camera that focuses on a subject at a wide objective distance and captures an image. However, the pinhole camera has a drawback that only a bright subject can be imaged because the amount of incident light to the imaging device is small. In addition, a camera that uses a wide-angle lens and has a depth of field as deep as possible has been proposed. However, in the case of such a camera, the surrounding geometric distortion becomes too large.
[0003]
As another imaging apparatus that can obtain a deep depth of field, an imaging apparatus described in Japanese Patent Laid-Open No. 9-116807 is known. In this imaging apparatus, the optical path of the imaging lens is divided into two optical paths, and an imaging element is arranged in each optical path, and the arrangement distances of these imaging elements from the principal point of the imaging lens are slightly different from each other. Then, a high-frequency filtering process is performed on the video signal output from one imaging device, and an unfiltered video signal output from the other imaging apparatus and a high-frequency filtering video signal are added. . In this known imaging device, since the unfiltered video signal and the high-frequency filtered video signal are added, the depth of field as the imaging device is substantially increased, and a deeper depth of field. The imaging device is realized.
[0004]
[Problems to be solved by the invention]
In the above-described known imaging device, if the distance between the imaging devices is too small, the overlapping range of the depth of field of both imaging devices increases, and the expanded range of the depth of field of the finally obtained video signal is small. On the other hand, if the shift distance is too large, there is a drawback in that the depth-of-field regions of both image sensors are not continuous and a continuous wide range of depth of field cannot be obtained. Furthermore, since the video signal obtained from one image sensor is subjected to high-pass filter processing and addition processing is performed with the video signal obtained from the other image sensor, the image obtained from one image sensor has an unclear image portion. In such a case, there is a drawback that the sharpness of the video that is finally output is lowered only by adding a clear image.
[0005]
Accordingly, an object of the present invention is to realize an imaging apparatus that can focus on a wide range of subjects even when imaging is performed with an arbitrary aperture value using an imaging lens having an arbitrary focal length.
[0006]
[Means for solving the problems]
An imaging apparatus according to the present invention includes an imaging lens that captures an image of a subject, an optical path dividing unit that divides an optical path of light that has passed through the imaging lens into a plurality of optical paths, and is disposed on each of the divided optical paths. An image sensor that generates a video signal by imaging the image sensor, an image sensor driving device that moves each image sensor along the optical axis direction, and an optical axis of each image sensor according to the lens parameters of the input imaging lens. An arithmetic processing device for determining the position of the image processing device, and an image synthesis device for synthesizing the video signal output from each imaging device,
When b is the distance along the optical axis from the principal point of the imaging lens to the position where the imaging element is arranged, f is the focal length of the imaging lens, F is the F number of the lens diaphragm, and δ is the allowable confusion circle diameter The arithmetic processing unit is
The distance in the optical axis direction of one image sensor from the principal point of the imaging lens is set so as to satisfy the formula b = f 2 / (f−δF),
The distance in the optical axis direction from the principal point of the imaging lens of the other imaging element is set so as to satisfy the formula b = f 2 / (f−3δF).
[0007]
If the distance from the principal point of the imaging lens of at least two imaging elements is set so as to satisfy the above equation, the range of the objective distance focused by the imaging apparatus is from infinity to H / 4 with respect to the hyperfocal distance H described later. The focusing range of the imaging apparatus can be greatly expanded. Moreover, the two depth-of-field regions can be continued without overlapping. As a result, it is possible to realize an imaging apparatus having a greatly improved depth of field. Furthermore, since each image sensor can move freely in the direction of its optical axis, a wider range of focusing can be obtained by using an imaging lens having an arbitrary focal length or imaging with an arbitrary aperture value. Obtainable.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration of a first embodiment of an imaging apparatus according to the present invention. Light from the far-field subject 1 and the near-field subject 2 passes through the imaging lens 3 and enters the prism 4 which is an optical path dividing unit. Although the imaging lens 3 is illustrated as a single lens, it can be an imaging lens system including a plurality of lens sets. The prism 4 has a half mirror structure, and divides incident light into two light paths. The first image sensor 5 is disposed on one optical path, and the second image sensor 6 is disposed on the other optical path. The first and second imaging elements are two-dimensional imaging elements in which a large number of light receiving elements, that is, pixels are arranged in a two-dimensional matrix.
[0009]
Each of the image sensors 5 and 6 is attached to the driving devices 7 and 8 and can freely move in the optical axis direction. Therefore, the distance from the principal point of the imaging lens 3 of each imaging element can be freely set according to the focal length of the imaging lens to be used and the condition of the diaphragm. The image pickup devices 5 and 6 are read out in synchronization with each other under the control of the controller, supplied to the image composition device 12, and a video signal obtained by image composition is output.
[0010]
The lens parameters of the imaging lens 3, such as the focal length and aperture value of the lens, are input to the arithmetic processing device 10, and the arithmetic processing device allows the imaging elements 5 and 6 from the imaging lens 3 to respond to the characteristics of the imaging lens to be used. Calculate the distance. These calculated values are supplied to the drive circuits 10 and 11, respectively, and drive signals for the drive devices 7 and 8 are formed. The first and second image sensors are arranged at positions corresponding to the lens parameters.
[0011]
Next, the contents of the arithmetic processing in the arithmetic processing device will be described with reference to FIG. FIG. 2 shows the relationship between the focal length f of the imaging lens 3, the distance l from the principal point of the imaging lens to the subject, the imaging distance b, the rear depth of field d1, the forward depth of field d2, and the allowable circle of confusion δ. Indicates. When a subject with a depth is imaged, it appears in focus within the focal depth before and after the focal point. This is because when the image blur is smaller than the allowable circle of confusion, the blur cannot be detected. This in-focus range is referred to as the depth of field. Further, when focusing on an objective distance l that is a distance from the principal point of the imaging lens to the subject, a focusing range farther than the objective distance l is referred to as a rear depth of field d1, and the lens is positioned beyond the objective distance. The in-focus range closer to is referred to as the forward depth of field d2.
[0012]
When the focal length of the imaging lens is f, the F number of the lens aperture is F, the allowable circle of confusion is δ, and the objective distance is l, the depth of field can be obtained by the following equation.
Back depth of field: d1 = δ · F · l 2 / (f 2 −δ · F · l) Equation (1)
Forward depth of field: d2 = δ · F · l 2 / (f 2 + δ · F · l) Equation (2)
Hyperfocal distance: H = f 2 / δ · F Equation (3)
[0013]
Here, the hyperfocal distance H is the value of the objective distance l when the far point of the rear depth of field is set to infinity. When focusing on this distance, the hyperfocal distance H is ½ of the hyperfocal distance. Focus to the distance.
[0014]
Further, when the objective distance measured from the lens principal point is l and the imaging distance is b, the following imaging formula is established.
1 / l + 1 / b = 1 / f Equation (4)
Here, the imaging distance b with respect to the objective distance l is obtained. First, when l = infinity, b = f from equation (4)
It becomes. In other words, the imaging distance coincides with the focal distance.
Next, when l = hyperfocal distance H, from equations (3) and (4), δF / f 2 + 1 / b = 1 / f
Therefore, b = f 2 / (f−δF) Equation (5)
Therefore, when the first image sensor 5 is arranged in the arithmetic processing unit 9 according to the imaging distance calculated from the equation (5), an image focused from infinity to 1 / 2H can be obtained by the first image sensor. Therefore, the first image sensor is disposed at the image formation position when the subject is located at the hyperfocal distance H of the imaging lens.
[0015]
Next, the arrangement position of the second image sensor 6 will be described. Let L be an objective distance such that the rear focal point of the second image sensor 6 becomes equal to the front focal point of the first image sensor 5, that is, 1 / 2H. FIG. 3 shows the depth of field of the image sensors 1 and 2. The rear depth of field of the image sensor 1 is d 2L , the front depth of field is d 2H , the rear depth of field of the second image sensor 6 is d 1L , and the front depth of field is d 2L . At this time, the objective distance is
L = H / 2−d 1L
It can be expressed.
D 1L is obtained from the equation (1), H is substituted from the equation (3), and L = f 2 / (3δF) Equation (6)
Therefore, when l = L,
3δF / f 2 + 1 / b = 1 / f
Therefore, b = f 2 / (f + 3δF) Equation (7)
It becomes.
At this time, the shortest focusing distance L ′ in focus is
L ′ = L−d 2L
When d 2L is obtained from Equation (2), L is substituted from Equation (6), and calculated,
L ′ = f 2 / 4δf = H / 4 Formula (8)
[0016]
Therefore, when the second image sensor 6 is arranged according to the imaging distance calculated from the expression (7) in the arithmetic processing unit, the objective distance is focused from 1 / 2H to L ′, that is, from 1 / 2H to 1 / 4H. Video is obtained.
[0017]
The operation of the arithmetic processing unit is summarized as follows. The lens parameters are calculated according to the equation (5) to determine and control the arrangement position of the first image sensor 5, and are calculated according to the equation (7) to calculate the second image sensor 6. Determines and controls the placement position. By this control, a subject whose objective distance is between 1 / 4H and infinity is always focused and imaged by either the first or second image sensor 5 or 6.
[0018]
Of the images obtained from the first and second image sensors 5 and 6, a focused video region is selected for each subject by a method such as detection or arbitrary designation, and the video composition device synthesizes it on a two-dimensional plane. By doing so, a composite image in which the objective position is focused from 1 / 4H to infinity is obtained.
[0019]
As apparent from the above description, even when the lens parameter changes, the arithmetic processing unit calculates the distances from the lens principal points of the first and second imaging elements according to the equations (5) and (7). By driving the driving devices 7 and 8, the arrangement of the image pickup elements is appropriately moved, and by synthesizing the video signals obtained from the respective image pickup elements, a combined image having the widest depth of field is always obtained. It is done. FIG. 3 schematically shows how the depth of field of the composite image changes when the aperture value changes.
[0020]
FIG. 4 is a diagram showing a modification of the image synthesizing apparatus of the imaging apparatus according to the present invention. In this example, high-pass filters 21 and 22 are respectively connected to the subsequent stages of the first and second image sensors 5 and 6, and signals that have passed through these high-pass filters are supplied to an adder 23 to synthesize an image. . All subjects in the in-focus range of the two image sensors 5 and 6 are always focused and imaged by either image sensor and blurred by the other image sensors. Accordingly, by performing appropriate high-pass filter processing on both images, only the in-focus portions of the respective images are extracted, and by adding them with an adder, an overall focused image is obtained. For example, a two-dimensional digital filter can be used as the high-pass filter.
[0021]
FIG. 5 shows an example of a technique for selecting a focused video for each block area composed of a plurality of pixels and synthesizing the selected video. The video signals obtained from the two image pickup devices 5 and 6 are each divided into block regions including a plurality of pixels, high-frequency components are extracted by the high-pass filters 31 and 32 for each block region, and the high-frequency components are output by the comparator 33. The amounts of ingredients are compared. In accordance with the output from the comparator 33, the video signal from the video block having the higher video high frequency component is selected by the switch 34. As the video to be finally output, the video closer to the focus is selected and output for each block. The smaller the number of pixels constituting each block, the finer the focused image can be selected. On the other hand, if the number is too small, the comparison accuracy of the high-frequency component is lowered. If you are concerned about the minute difference in the connecting date of the blocks as a result of combining for each block, perform appropriate two-dimensional low-pass filter processing etc. on the combined output as necessary, and influence the block connection May be reduced.
[0022]
FIG. 6 shows an in-focus area detected by electrically defocusing an image obtained from one image sensor and comparing it with the other image that has not been defocused. An example of the technique is shown. A defocus filter 41 is connected to the second image sensor 6, and the video signal of the second image sensor 6 is electrically defocused to give the same blur as that caused by the lens. Then, the video signal that has been subjected to the defocus processing and the video signal that has not been subjected to the defocus processing of the first image sensor 5 are supplied to the comparator 42 for comparison. The subject in focus by the image sensor 6 matches the blurred image of the image by the image sensor 5 by the electrical defocusing process, so the portion where both images match is determined to be the focused area of the subject of the image sensor 2. it can. The switch is switched according to the output result from the comparator, and the focused image is selectively extracted to synthesize the image. As a result, an image in which the entire image is focused can be formed by the image composition method.
[0023]
In the above-described embodiments, the example in which the optical path of the imaging lens is divided into two and the video signals output from the two imaging elements are combined has been described. However, the principle when the optical path is divided into two or more is described. Needless to say that is the same.
[0024]
A second embodiment using the present invention will be described with reference to FIG. This is because even if the focus ranges of the images obtained from the two image sensors are not continuous, if each of the image sensors focuses on each subject to be imaged, the objective distance from one image sensor This is an example in which images focused on a plurality of different subjects are obtained at the same time, and it is expected that the production effect is enhanced in television studio recording or the like. FIG. 7 is a diagram assuming a scene in which a puppet theater is recorded in a studio as an example of close-up photography. A doll is placed in front of the background image, and the background image and the doll are measured for the objective distance from the camera lens by means such as a distance sensor such as an infrared distance measuring device or a potentiometer. Is input to the arithmetic processing unit as a parameter. For example, the distance sensor 50 such as an infrared distance measuring device is used to measure the distance from the imaging device to the subject for each subject, and the obtained distance information is supplied to the arithmetic processing device 9. The arithmetic processing unit 9 calculates the in-focus position of each image sensor based on the supplied distance information and supplies it to the drive circuit. Then, according to the obtained distance information, each image sensor is moved and positioned within the focusing range.
[0025]
If the objective distance of the background subject is l 1 and the objective distance of the doll subject is l 2 , the imaging distances b 1 and b 2 of the respective subjects, that is, the focus positions from the imaging lenses of the first and second imaging elements. From equation (4)
b 1 = l 1 f / (l 1 −f)
b 2 = l 2 f / (l 2 −f) Equation (9)
Is required.
[0026]
By controlling the imaging position of the image sensor based on the calculation result of Equation (9), it is possible to obtain an image that is adaptively focused on an individual subject even in a subject with a narrow focus area such as close-up photography. it can. In addition, since shooting with such a divided video can be performed by focusing on a subject at each objective distance, there is a possibility that the production effect will be further widened, such as blurring an arbitrary subject by video processing in post-production.
[0027]
A distance sensor can be provided for each image sensor, or one distance sensor can be shared by a plurality of image sensors.
[0028]
【The invention's effect】
As described above, according to the present invention, in a television camera or the like, an object with a wide range of objective distance is focused even when an imaging lens having an arbitrary focal length is used to capture an image at an arbitrary aperture value. A pan focus image is obtained. In addition, for a subject with a narrow focus area such as a close-up of a puppet show, for example, it is possible to obtain a focused video that is adapted to an individual subject such as a doll or a background image. In addition, the doll and the background image can be simultaneously photographed, and an effect such as blurring an arbitrary subject by video processing in post-production can be achieved.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an imaging apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining optical parameters of the imaging apparatus according to the present invention.
FIG. 3 is a diagram showing a change corresponding to an aperture value in an in-focus area.
FIG. 4 is a diagram showing an image composition apparatus.
FIG. 5 is a diagram showing an image composition apparatus.
FIG. 6 is a diagram showing another embodiment of the image composition device.
FIG. 7 is a diagram showing a configuration of an image pickup apparatus according to a second embodiment of the present invention.
[Explanation of symbols]
1, 2 Subject 3 Imaging lens 4 Prism 5 First imaging device 6 Second imaging device 7 First spatial device 8 Second spatial device 9 Arithmetic processing device 10 First drive circuit 11 Second drive circuit 12 Image synthesizer

Claims (4)

被写体の像を撮像する撮像レンズと、撮像レンズを通過した光の光路を複数の光路に分割する光路分割手段と、分割された各光路にそれぞれ配置され、被写体の像を撮像して映像信号を発生する撮像素子と、各撮像素子をその光軸方向に沿って移動させる撮像素子駆動装置と、入力された撮像レンズのレンズパラメータに応じて各撮像素子の光軸上の位置を決定する演算処理装置と、各撮像素子から出力された映像信号を合成する画像合成装置とを具え、
bを撮像レンズの主点から撮像素子の配置位置までの光軸に沿う距離とし、fを撮像レンズの焦点距離とし、Fをレンズ絞りのFナンバーとし、δを許容錯乱円径とした場合に、前記演算処理装置が、
撮像レンズの主点から1つの撮像素子の光軸方向の距離を、式
b=f2 /(f−δF)を満たすように設定し、
他の1つの撮像素子の撮像レンズの主点からの光軸方向の距離を、式
b=f2 /(f−3δF)を満たすように設定することを特徴とする撮像装置。
An imaging lens that captures an image of a subject, an optical path dividing unit that divides an optical path of light that has passed through the imaging lens into a plurality of optical paths, and is arranged in each of the divided optical paths. An image sensor to be generated, an image sensor driving device that moves each image sensor along the optical axis direction, and an arithmetic process that determines the position of each image sensor on the optical axis according to the lens parameters of the input imaging lens A device, and an image synthesis device that synthesizes video signals output from the respective image sensors,
When b is the distance along the optical axis from the principal point of the imaging lens to the position where the imaging element is arranged, f is the focal length of the imaging lens, F is the F number of the lens diaphragm, and δ is the allowable confusion circle diameter The arithmetic processing unit is
The distance in the optical axis direction of one image sensor from the principal point of the imaging lens is set so as to satisfy the formula b = f 2 / (f−δF),
An imaging apparatus, wherein a distance in the optical axis direction from a principal point of an imaging lens of another imaging element is set so as to satisfy a formula b = f 2 / (f−3δF).
請求項1に記載の撮像装置において、前記画像合成装置が、各撮像素子の出力部にそれぞれ接続した高域通過フィルタと、これら高域通過フィルタの出力を加算する加算器とを具え、各映像信号の高周波成分を画像合成装置により画像合成することを特徴とする撮像装置。  The imaging apparatus according to claim 1, wherein the image synthesizing apparatus includes a high-pass filter connected to an output unit of each imaging device, and an adder for adding outputs of the high-pass filters, An image pickup apparatus characterized in that a high frequency component of a signal is combined by an image combining apparatus. 前記撮像素子が、2次元マトリックス状に配列された複数の受光素子を有し、撮像素子の出力信号を複数の画素を含む画素ブロック単位で出力し、各画素ブロックの映像出力についてそれぞれ高域通過フィルタ処理を行い、各画素ブロック中に含まれる高域成分の量を比較し、高域成分の多い画素ブロックの映像出力を選択的に抽出して画像合成することを特徴とする請求項1に記載の撮像装置。  The image sensor has a plurality of light receiving elements arranged in a two-dimensional matrix, and outputs an output signal of the image sensor in a unit of a pixel block including a plurality of pixels, and the video output of each pixel block is a high-pass signal respectively. The filter processing is performed, the amount of high-frequency components included in each pixel block is compared, and the video output of the pixel block having many high-frequency components is selectively extracted to synthesize an image. The imaging device described. 1つの撮像素子からの映像信号について電気的なデフォーカス処理を行い、デフォーカス処理された映像信号とデフォーカス処理されていない他の撮像素子からの映像信号とを比較し、デフォーカス処理された映像信号とデフォーカス処理されていない他の撮像素子からの映像信号とが一致した領域についてはデフォーカス処理された映像信号を選択して画像合成することを特徴とする請求項1に記載の撮像装置。  The video signal from one image sensor is subjected to electrical defocus processing, and the defocused video signal is compared with the video signal from another image sensor that has not been defocused. 2. The imaging according to claim 1, wherein the video signal and a video signal from another imaging element that has not been defocused are selected, the image signal that has been defocused is selected, and the image is synthesized. apparatus.
JP2001267311A 2001-09-04 2001-09-04 Imaging device Expired - Lifetime JP4226235B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001267311A JP4226235B2 (en) 2001-09-04 2001-09-04 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001267311A JP4226235B2 (en) 2001-09-04 2001-09-04 Imaging device

Publications (2)

Publication Number Publication Date
JP2003078802A JP2003078802A (en) 2003-03-14
JP4226235B2 true JP4226235B2 (en) 2009-02-18

Family

ID=19093452

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001267311A Expired - Lifetime JP4226235B2 (en) 2001-09-04 2001-09-04 Imaging device

Country Status (1)

Country Link
JP (1) JP4226235B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9949622B2 (en) 2015-02-17 2018-04-24 Olympus Corporation Endoscope system for generating a composite image from optical images of different focus
US11307430B2 (en) 2016-06-07 2022-04-19 Karl Storz Se & Co. Kg Optical device and method for providing improved depth of field and resolution modes

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4541032B2 (en) * 2004-05-26 2010-09-08 パナソニック株式会社 Image processing device
JP4538611B2 (en) * 2006-08-30 2010-09-08 独立行政法人産業技術総合研究所 Multi-focus image capturing method and multi-focus image capturing apparatus
JP4565115B2 (en) * 2006-08-30 2010-10-20 独立行政法人産業技術総合研究所 Multifocal imaging device
JP5273220B2 (en) * 2011-07-15 2013-08-28 カシオ計算機株式会社 Imaging apparatus and program thereof
JP5393926B2 (en) 2011-08-24 2014-01-22 オリンパスメディカルシステムズ株式会社 Imaging apparatus and imaging apparatus system
EP2668891B1 (en) 2011-10-27 2019-02-06 Olympus Corporation Endoscope system
JP2013186293A (en) * 2012-03-08 2013-09-19 Seiko Epson Corp Image generation device and image display method
CN104219990B (en) * 2012-06-28 2016-12-14 奥林巴斯株式会社 Endoscopic system
CN103957770B (en) 2012-08-30 2016-05-18 奥林巴斯株式会社 Endoscope
CN104620075B (en) * 2012-09-24 2016-04-13 富士胶片株式会社 The distance-measuring device of many subjects and method
JP6051002B2 (en) * 2012-10-04 2016-12-21 三菱電機エンジニアリング株式会社 Imaging apparatus and focus position adjusting method
CN106303201A (en) * 2015-06-04 2017-01-04 光宝科技股份有限公司 Image capture unit and focusing method
JP2018180296A (en) 2017-04-13 2018-11-15 横河電機株式会社 Microscope system, microscope, processing device and camera for microscope
WO2021143640A1 (en) * 2020-01-13 2021-07-22 荆门市探梦科技有限公司 All-solid-state holographic photographing device and all-solid-state holographic projector
JPWO2022044897A1 (en) * 2020-08-31 2022-03-03
JP2022117068A (en) 2021-01-29 2022-08-10 i-PRO株式会社 Imaging apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9949622B2 (en) 2015-02-17 2018-04-24 Olympus Corporation Endoscope system for generating a composite image from optical images of different focus
US11307430B2 (en) 2016-06-07 2022-04-19 Karl Storz Se & Co. Kg Optical device and method for providing improved depth of field and resolution modes

Also Published As

Publication number Publication date
JP2003078802A (en) 2003-03-14

Similar Documents

Publication Publication Date Title
JP4226235B2 (en) Imaging device
JP2008015754A (en) Image pickup device, image processor and image processing method
KR20100002051A (en) Photographing apparatus and method
JP5348258B2 (en) Imaging device
JP5611469B2 (en) Stereoscopic imaging apparatus and method
JP2001174696A (en) Color image pickup unit
JP2010243843A (en) Autofocus system
JP2013160991A (en) Imaging apparatus
JP2002372661A (en) Photographic lens
JP2015043026A (en) Image capturing device and control method therefor
JP2012142729A (en) Camera
JP2006033242A (en) Image reproducing method and image pickup device
JP2009251523A (en) Correlation calculation method, correlation calculation device, focus detecting device and imaging apparatus
JPH06138362A (en) Autofocusing device
JP2008003144A (en) Lens adjustment system
JP2007248698A (en) Method and apparatus for imaging
JP5144469B2 (en) Imaging apparatus and control method thereof
JP7235068B2 (en) Imaging device
JP4968009B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP4968010B2 (en) Correlation calculation method, correlation calculation device, focus detection device, and imaging device
JP5355252B2 (en) Imaging apparatus and control method thereof
JP2014131188A (en) Imaging apparatus, control method of the same, and control program
JP6728421B2 (en) Image processing device, photographing device, image processing method, and program
JP2004151608A (en) Autofocus system
JP2003287673A (en) Focusing state detecting device for photographic lens

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080902

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081007

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20081007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081104

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081126

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111205

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4226235

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121205

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131205

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term