JP4226235B2 - Imaging device - Google Patents
Imaging device Download PDFInfo
- Publication number
- JP4226235B2 JP4226235B2 JP2001267311A JP2001267311A JP4226235B2 JP 4226235 B2 JP4226235 B2 JP 4226235B2 JP 2001267311 A JP2001267311 A JP 2001267311A JP 2001267311 A JP2001267311 A JP 2001267311A JP 4226235 B2 JP4226235 B2 JP 4226235B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- imaging
- image sensor
- distance
- lens
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Automatic Focus Adjustment (AREA)
- Studio Devices (AREA)
- Focusing (AREA)
Description
【0001】
【産業上の利用分野】
本発明は、一層深い被写界深度が得られる撮像装置に関するものである。
【0002】
【従来の技術】
従来、広い対物距離にある被写体に対して合焦して撮像するものとしてピンホールカメラが既知である。しかし、ピンホールカメラは撮像装置へのに入射光量が少ないため明るい被写体しか撮像できない欠点がある。また、広角レンズを用い、被写界深度をできるだけ深くしたカメラも提案されていた。しかし、このようなカメラの場合周辺の幾何学歪みが大きくなり過ぎてしまう。
【0003】
深い被写界深度が得られる別の撮像装置として、特開平9−116807号公報に記載されている撮像装置が既知である。この撮像装置では、撮像レンズの光路を2つの光路に分割し、各光路にそれぞれ撮像素子を配置し、これら撮像素子の撮像レンズの主点からの配置距離を互いに僅かに相違させている。そして、一方の撮像素子から出力される映像信号に対して高周波フィルタリング処理を行い、他方の撮像装置から出力されフィルタリング処理されていない映像信号と高周波フィルタリング処理された映像信号とが加算処理されている。この既知の撮像装置では、フィルタリング処理されていない映像信号と高周波フィルタリング処理された映像信号とが加算処理されていので、撮像装置としての被写界深度は実質的増大し、一層深い被写界深度の撮像装置が実現されている。
【0004】
【発明が解決しようとする課題】
上述した既知の撮像装置では、撮像装置間の距離が少な過ぎると両方の撮像装置の被写界深度の重なる範囲が多くなり最終的に得られる映像信号が持つ被写界深度の拡大範囲が小さくなってしまい、逆にそのずらし距離が大き過ぎると両方の撮像素子の被写界深度の領域が連続しなくなり連続した広範囲の被写界深度が得られなくなる欠点があった。さらに、一方の撮像素子から得られる映像信号に高域通過フィルタ処理を行い他方の撮像素子から得られる映像信号と加算処理を行うため、一方の撮像素子から得られる映像に不鮮明な像の部分があった場合、鮮明な画像を加算しただけでは最終的に出力される映像はその先鋭感が低下する欠点があった。
【0005】
従って、本発明の目的は、任意の焦点距離を有する撮像レンズを用いて任意の絞り値で撮像した場合においても、広範囲の被写体に合焦して撮像できる撮像装置を実現することにある。
【0006】
【課題を解決する手段】
本発明による撮像装置は、被写体の像を撮像する撮像レンズと、撮像レンズを通過した光の光路を複数の光路に分割する光路分割手段と、分割された各光路にそれぞれ配置され、被写体の像を撮像して映像信号を発生する撮像素子と、各撮像素子をその光軸方向に沿って移動させる撮像素子駆動装置と、入力された撮像レンズのレンズパラメータに応じて各撮像素子の光軸上の位置を決定する演算処理装置と、各撮像素子から出力された映像信号を合成する画像合成装置とを具え、
bを撮像レンズの主点から撮像素子の配置位置までの光軸に沿う距離とし、fを撮像レンズの焦点距離とし、Fをレンズ絞りのFナンバーとし、δを許容錯乱円径とした場合に、前記演算処理装置が、
撮像レンズの主点から1つの撮像素子の光軸方向の距離を、式
b=f2 /(f−δF)を満たすように設定し、
他の1つの撮像素子の撮像レンズの主点からの光軸方向の距離を、式
b=f2 /(f−3δF)を満たすように設定することを特徴とする。
【0007】
少なくとも2つの撮像素子の撮像レンズの主点からの距離を上記式を満たすように設定すれば、撮像装置の合焦する対物距離の範囲は、後述する過焦点距離Hについて無限遠からH/4までの範囲となり撮像装置の合焦範囲を大幅に拡大することができる。しかも2つの被写界深度領域が重なることなく連続させることができる。この結果、被写界深度が大幅に向上した撮像装置を実現することができる。さらに、各撮像素子は、その光軸方向に自在に移動することができるので、任意の焦点距離の撮像レンズを用いても或いは任意の絞り値で撮像しても一層広い範囲の合焦範囲を得ることができる。
【0008】
【発明の実施の形態】
図1は本発明による撮像装置の第1実施例の構成を示す線図である。遠視野の被写体1及び近視野の被写体2からの光は撮像レンズ3を経て光路分割手段であるプリズム4に入射する。撮像レンズ3は単レンズとして図示したが複数のレンズ組から成る撮像レンズ系とすることができる。プリズム4はハーフミラー構造を有し、入射光を2つの光路の光に分割する。一方の光路上に第1の撮像素子5を配置し、他方の光路上に第2の撮像素子6を配置する。これら第1及び第2の撮像素子は、多数の受光素子すなわち画素が2次元マトリックス状に配列された2次元撮像素子とする。
【0009】
各撮像素子5,6は駆動装置7及び8に取り付けられ、その光軸方向に自在に移動することができる。従って、各撮像素子の撮像レンズ3の主点からの距離は、使用する撮像レンズの焦点距離や絞りの条件に応じて自在に設定することができる。各撮像素子5及び6は、コントローラの制御のもとで互いに同期して読み出され、画像合成装置12に供給され、画像合成された映像信号が出力される。
【0010】
撮像レンズ3のレンズパラメータ、例えばレンズの焦点距離や絞り値は演算処理装置10に入力され、この演算処理装置により、使用する撮像レンズの特性に応じて撮像素子5及び6の撮像レンズ3からの距離を計算する。これらの計算値は駆動回路10及び11にそれぞれ供給され、駆動装置7及び8の駆動信号が形成され、第1及び第2の撮像素子はレンズパラメータに対応した位置に配置されることになる。
【0011】
次に、演算処理装置における演算処理内容を図2を参照しながら説明する。図2は、撮像レンズ3の焦点距離f、撮像レンズの主点から被写体までの距離l、結像距離b、後方被写界深度d1、前方被写界深度d2、及び許容錯乱円δの関係を示す。奥行きのある被写体を撮像する場合、合焦点の前後も焦点深度内は合焦して見える。これは、像のぼけが許容錯乱円よりも小さい場合、そのぼけが検出できないからである。この合焦範囲を被写界深度と称する。また、撮像レンズの主点から被写体までの距離である対物距離lに合焦している場合、対物距離lよりも遠方の合焦範囲を後方被写界深度d1と称し、対物距離よりもレンズに近い側の合焦範囲を前方被写界深度d2と称する。
【0012】
撮像レンズの焦点距離をfとし、レンズ絞りのFナンバをFとし、許容錯乱円をδとし、対物距離をlとすると、被写界深度は以下の式により求められる。
後方被写界深度:d1=δ・F・l2 /(f2 −δ・F・l) 式(1)
前方被写界深度:d2=δ・F・l2 /(f2 +δ・F・l) 式(2)
過焦点距離: H=f2 /δ・F 式(3)
【0013】
ここで、過焦点距離Hとは、後方被写界深度の遠点を無限遠とした時の対物距離lの値であり、この距離に合焦すれば無限遠から過焦点距離の1/2の距離までが合焦する。
【0014】
また、レンズ主点から測った対物距離をlとし、結像距離をbとした場合、以下の結像式が成り立つ。
1/l+1/b=1/f 式(4)
ここで、対物距離lに対する結像距離bを求める。まず、l=無限遠のとき、式(4)より
b=f
となる。すなわち、結像距離は焦点距離と一致する。
次に、l=過焦点距離Hのとき、式(3)及び(4)より
δF/f2 +1/b=1/f
故に、b=f2 /(f−δF) 式(5)
従って、演算処理装置9において式(5)から算出される結像距離に従って第1の撮像素子5を配置すると、この第1の撮像素子により無限遠から1/2Hまで合焦した映像が得られる。従って、第1の撮像素子は、被写体が撮像レンズの過焦点距離Hに位置する場合の結像位置に配置する。
【0015】
次に、第2の撮像素子6の配置位置について説明する。第2の撮像素子6の後方合焦点が第1の撮像素子5の前方合焦点すなわち1/2Hに等しくなるような対物距離をLとする。図3に撮像素子1、2の被写界深度を示す。撮像素子1の後方被写界深度をd2L、前方被写界深度をd2H、第2の撮像素子6の後方被写界深度をd1L、前方被写界深度をd2L、とする。このとき、対物距離は、
L=H/2−d1L
と表せられる。
式(1)よりd1Lを求め、式(3)よりHを代入し、計算すると
L=f2 /(3δF) 式(6)
よって、l=Lのとき、式(4)により、
3δF/f2 +1/b=1/f
故に、b=f2 /(f+3δF) 式(7)
となる。
このとき、合焦している最短合焦距離L′は、
L′=L−d2L
式(2)よりd2Lを求め、式(6)よりLを代入し、計算すると、
L’=f2 /4δf=H/4 式(8)
【0016】
従って、演算処理装置において式(7)から算出される結像距離に従って第2の撮像素子6を配置すると、対物距離が1/2HからL′、すなわち1/2Hから1/4Hまで合焦した映像が得られる。
【0017】
以上、演算処理装置の動作をまとめると、レンズパラメータを式(5)に従って演算し第1の撮像素子5の配置位置を決定し制御し、また式(7)に従って演算し第2の撮像素子6の配置位置を決定し制御する。この制御により、対物距離が1/4Hから無限遠の間にある被写体は、第1又は第2の撮像素子5又は6のどちらかにおいて必ず合焦して撮像されることとなる。
【0018】
第1及び第2の撮像素子5、6から得られる映像の内、被写体毎に合焦した映像領域を検出または任意に指定するなどの手法により選択し、映像合成装置において2次元平面上に合成することにより、対物位置が1/4Hから無限遠まで合焦した合成映像が得られる。
【0019】
以上の説明により明らかなように、レンズパラメータが変化した場合においても、演算処理装置において式(5)及び(7)にしたがって第1及び第2の撮像素子のレンズ主点からの距離を算出し、駆動装置7及び8を駆動することにより撮像素子の配置を適切に移動させ、それぞれの撮像素子から得られる映像信号を合成することにより、常に最も広範囲の被写界深度を持つ合成映像が得られる。図3に、絞り値が変化したときの合成映像の被写界深度の変化の様子もあわせて模式的に示す。
【0020】
図4は本発明による撮像装置の画像合成装置の変形例を示す線図である。本例では、第1及び第2の撮像素子5及び6の後段に高域通過フィルタ21及び22をそれぞれ接続し、これら高域通過フィルタを通過した信号を加算器23に供給して画像合成する。2つの撮像素子5、6の合焦範囲にある全ての被写体は、必ずどちらかの撮像素子では合焦して撮像されその他の撮像素子ではぼけて撮像される。従って両映像に適当な高域通過フィルタ処理を行うことによりそれぞれの映像の合焦部分だけが抽出され、それらを加算器により加算処理することにより、全体として合焦した映像が得られる。尚、高域通過フィルタとして、例えば2次元ディジタルフィルタを用いることができる。
【0021】
図5は、複数の画素で構成されるブロック領域毎に合焦した映像を選択し選択された映像を合成する手法例を示したものである。2つの撮像素子5及び6から得られる映像信号はそれぞれ複数の画素を含むブロック領域に分けられ、ブロック領域毎に高域通過フィルタ31、32により高域成分を抽出し、比較器33によって高域成分の量が比較される。比較器33からの出力に従って映像の高域成分が多い方の映像ブロックからの映像信号が切替器34によって選択される。最終的に出力される映像は、ブロック毎により合焦に近い映像が選択され出力される。各ブロックを構成する画素数は少ない程細かく合焦映像を選択することができるが、逆に少なすぎると高域成分の比較精度が低下するので、適当な画素数にしておく。ブロック毎に合成した結果ブロックのつなぎ日の映像の微小な違いが気になる場合は、必要に応じて合成出力に対して適当な2次元低域通過フィルタ処理などを行い、ブロックのつなぎ目の影響を低減しても良い。
【0022】
図6は、一方の撮像素子から得られる映像を電気的にデフォーカスし、デフォーカス処理されていない他方の映像と比較することによって合焦領域を検出して合焦した映像を選択し合成する手法例を示したものである。第2の撮像素子6にデフォーカスフィルタ41を接続して第2の撮像素子6の映像信号について電気的にデフォーカス処理を行いレンズによるぼけと同様なぼけを与える。そして、デフォーカス処理された映像信号と第1の撮像素子5のデフォーカス処理されていない映像信号とを比較器42に供給して比較する。撮像素子6によって合焦した被写体は、電気的なデフォーカス処理によって撮像素子5による映像のぼけた映像と一致するので、両映像が一致した部分は撮像素子2の被写体の合焦した領域と判断できる。この比較器からの出力結果によって切替器を切り替え、合焦した画像を選択的に抽出して画像合成する。この結果、当該画像合成法により、画像全体が合焦した画像を形成することができる。
【0023】
尚、上述した実施例では、撮像レンズの光路を2つに分割し、2個の撮像素子から出力される映像信号を合成する例について説明したが、光路を2つ以上に分割する場合の原理は同様であることは言うまでもない。
【0024】
本発明を用いた第2の実施例について図7を用いて説明する。これは2つの撮像素子から得られる映像の合焦範囲が連続していなくとも、それぞれの撮像素子が撮像すべき各被写体に対して合焦して撮像すれば、1台の撮像装置から対物距離がそれぞれ相違する複数の被写体について合焦した画像が同時に得られ、テレビジョンスタジオ収録などにおいて演出効果を高めることが期待される例である。図7は、近接撮影の例として人形劇をスタジオで収録する場面を想定した図である。背景画像の前には人形が配置されており、背景画像と人形は、赤外線測距装置やポテンショメータなどの距離センサのような手段によりカメラレンズからの対物距離が測定され、各被写体についての対物距離がパラメータとして演算処理装置へ入力される。例えば赤外線測距装置のような距離センサ50を用い、撮像装置から被写体までの距離を各被写体毎に測定し、得られた各距離情報を演算処理装置9に供給する。演算処理装置9では、供給された距離情報に基づいて各撮像素子の合焦位置を算出し、駆動回路にそれぞれ供給する。そして、得られた距離情報に応じて各撮像素子を合焦範囲内に移動させ位置決めする。
【0025】
背景被写体の対物距離をl1 、人形被写体の対物距離をl2 、とするとそれぞれの被写体の結像距離b1 、b2、すなわち第1及び第2の撮像素子の撮像レンズからの合焦位置は式(4)より、
b1 =l1 f/(l1 −f)
b2 =l2 f/(l2 −f) 式(9)
と求められる。
【0026】
この式(9)の演算結果に基づき撮像素子の結像位置を制御することにより、近接撮影など合焦領域が狭い被写体においても個別の被写体に対して適応して合焦した映像を得ることができる。またこのような書き割り映像の撮影において、それぞれの対物距離の被写体が合焦して撮影できるため、ポスプロにおいて任意の被写体を映像処理によってぼかすなど、演出効果がより広がる可能性がある。
【0027】
尚、距離センサは各撮像素子毎に設けることができ、或いは1つの距離センサを複数の撮像素子で共用することもできる。
【0028】
【発明の効果】
以上説明したように、本発明によれば、テレビジョンカメラ等において、任意の焦点距離を有する撮像レンズを用いて任意の絞り値において撮像した場合においても、広範囲の対物距離の被写体に合焦したパンフォーカス画像が得られる。また、例えば人形劇の接写等の合焦領域が狭い被写体についても人形や背景画像等の個別の被写体に対して適応して合焦した映像を得ることができる。また人形と背景画像との同時撮影が可能になり、ポスプロにおいて任意の被写体を映像処理によってぼかす等の演出効果が効果が達成される。
【図面の簡単な説明】
【図1】 本発明の第1の実施例による撮像装置の構成を示す線図である。
【図2】 本発明による撮像装置の光学パラメータを説明するための線図である。
【図3】 合焦領域の絞り値に対応した変化を示す線図である。
【図4】 画像合成装置を示す線図である。
【図5】 画像合成装置を示す線図である。
【図6】 画像合成装置の別の実施例を示す線図である。
【図7】 本発明の第2実施例による撮像装置の構成を示す線図である。
【符号の説明】
1,2 被写体
3 撮像レンズ
4 プリズム
5 第1の撮像素子
6 第2の撮像素子
7 第1の空間装置
8 第2の空間装置
9 演算処理装置
10 第1の駆動回路
11 第2の駆動回路
12 画像合成装置[0001]
[Industrial application fields]
The present invention relates to an imaging apparatus capable of obtaining a deeper depth of field.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a pinhole camera is known as a camera that focuses on a subject at a wide objective distance and captures an image. However, the pinhole camera has a drawback that only a bright subject can be imaged because the amount of incident light to the imaging device is small. In addition, a camera that uses a wide-angle lens and has a depth of field as deep as possible has been proposed. However, in the case of such a camera, the surrounding geometric distortion becomes too large.
[0003]
As another imaging apparatus that can obtain a deep depth of field, an imaging apparatus described in Japanese Patent Laid-Open No. 9-116807 is known. In this imaging apparatus, the optical path of the imaging lens is divided into two optical paths, and an imaging element is arranged in each optical path, and the arrangement distances of these imaging elements from the principal point of the imaging lens are slightly different from each other. Then, a high-frequency filtering process is performed on the video signal output from one imaging device, and an unfiltered video signal output from the other imaging apparatus and a high-frequency filtering video signal are added. . In this known imaging device, since the unfiltered video signal and the high-frequency filtered video signal are added, the depth of field as the imaging device is substantially increased, and a deeper depth of field. The imaging device is realized.
[0004]
[Problems to be solved by the invention]
In the above-described known imaging device, if the distance between the imaging devices is too small, the overlapping range of the depth of field of both imaging devices increases, and the expanded range of the depth of field of the finally obtained video signal is small. On the other hand, if the shift distance is too large, there is a drawback in that the depth-of-field regions of both image sensors are not continuous and a continuous wide range of depth of field cannot be obtained. Furthermore, since the video signal obtained from one image sensor is subjected to high-pass filter processing and addition processing is performed with the video signal obtained from the other image sensor, the image obtained from one image sensor has an unclear image portion. In such a case, there is a drawback that the sharpness of the video that is finally output is lowered only by adding a clear image.
[0005]
Accordingly, an object of the present invention is to realize an imaging apparatus that can focus on a wide range of subjects even when imaging is performed with an arbitrary aperture value using an imaging lens having an arbitrary focal length.
[0006]
[Means for solving the problems]
An imaging apparatus according to the present invention includes an imaging lens that captures an image of a subject, an optical path dividing unit that divides an optical path of light that has passed through the imaging lens into a plurality of optical paths, and is disposed on each of the divided optical paths. An image sensor that generates a video signal by imaging the image sensor, an image sensor driving device that moves each image sensor along the optical axis direction, and an optical axis of each image sensor according to the lens parameters of the input imaging lens. An arithmetic processing device for determining the position of the image processing device, and an image synthesis device for synthesizing the video signal output from each imaging device,
When b is the distance along the optical axis from the principal point of the imaging lens to the position where the imaging element is arranged, f is the focal length of the imaging lens, F is the F number of the lens diaphragm, and δ is the allowable confusion circle diameter The arithmetic processing unit is
The distance in the optical axis direction of one image sensor from the principal point of the imaging lens is set so as to satisfy the formula b = f 2 / (f−δF),
The distance in the optical axis direction from the principal point of the imaging lens of the other imaging element is set so as to satisfy the formula b = f 2 / (f−3δF).
[0007]
If the distance from the principal point of the imaging lens of at least two imaging elements is set so as to satisfy the above equation, the range of the objective distance focused by the imaging apparatus is from infinity to H / 4 with respect to the hyperfocal distance H described later. The focusing range of the imaging apparatus can be greatly expanded. Moreover, the two depth-of-field regions can be continued without overlapping. As a result, it is possible to realize an imaging apparatus having a greatly improved depth of field. Furthermore, since each image sensor can move freely in the direction of its optical axis, a wider range of focusing can be obtained by using an imaging lens having an arbitrary focal length or imaging with an arbitrary aperture value. Obtainable.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
FIG. 1 is a diagram showing a configuration of a first embodiment of an imaging apparatus according to the present invention. Light from the far-
[0009]
Each of the
[0010]
The lens parameters of the imaging lens 3, such as the focal length and aperture value of the lens, are input to the
[0011]
Next, the contents of the arithmetic processing in the arithmetic processing device will be described with reference to FIG. FIG. 2 shows the relationship between the focal length f of the imaging lens 3, the distance l from the principal point of the imaging lens to the subject, the imaging distance b, the rear depth of field d1, the forward depth of field d2, and the allowable circle of confusion δ. Indicates. When a subject with a depth is imaged, it appears in focus within the focal depth before and after the focal point. This is because when the image blur is smaller than the allowable circle of confusion, the blur cannot be detected. This in-focus range is referred to as the depth of field. Further, when focusing on an objective distance l that is a distance from the principal point of the imaging lens to the subject, a focusing range farther than the objective distance l is referred to as a rear depth of field d1, and the lens is positioned beyond the objective distance. The in-focus range closer to is referred to as the forward depth of field d2.
[0012]
When the focal length of the imaging lens is f, the F number of the lens aperture is F, the allowable circle of confusion is δ, and the objective distance is l, the depth of field can be obtained by the following equation.
Back depth of field: d1 = δ · F · l 2 / (f 2 −δ · F · l) Equation (1)
Forward depth of field: d2 = δ · F · l 2 / (f 2 + δ · F · l) Equation (2)
Hyperfocal distance: H = f 2 / δ · F Equation (3)
[0013]
Here, the hyperfocal distance H is the value of the objective distance l when the far point of the rear depth of field is set to infinity. When focusing on this distance, the hyperfocal distance H is ½ of the hyperfocal distance. Focus to the distance.
[0014]
Further, when the objective distance measured from the lens principal point is l and the imaging distance is b, the following imaging formula is established.
1 / l + 1 / b = 1 / f Equation (4)
Here, the imaging distance b with respect to the objective distance l is obtained. First, when l = infinity, b = f from equation (4)
It becomes. In other words, the imaging distance coincides with the focal distance.
Next, when l = hyperfocal distance H, from equations (3) and (4), δF / f 2 + 1 / b = 1 / f
Therefore, b = f 2 / (f−δF) Equation (5)
Therefore, when the
[0015]
Next, the arrangement position of the
L = H / 2−d 1L
It can be expressed.
D 1L is obtained from the equation (1), H is substituted from the equation (3), and L = f 2 / (3δF) Equation (6)
Therefore, when l = L,
3δF / f 2 + 1 / b = 1 / f
Therefore, b = f 2 / (f + 3δF) Equation (7)
It becomes.
At this time, the shortest focusing distance L ′ in focus is
L ′ = L−d 2L
When d 2L is obtained from Equation (2), L is substituted from Equation (6), and calculated,
L ′ = f 2 / 4δf = H / 4 Formula (8)
[0016]
Therefore, when the
[0017]
The operation of the arithmetic processing unit is summarized as follows. The lens parameters are calculated according to the equation (5) to determine and control the arrangement position of the
[0018]
Of the images obtained from the first and
[0019]
As apparent from the above description, even when the lens parameter changes, the arithmetic processing unit calculates the distances from the lens principal points of the first and second imaging elements according to the equations (5) and (7). By driving the
[0020]
FIG. 4 is a diagram showing a modification of the image synthesizing apparatus of the imaging apparatus according to the present invention. In this example, high-
[0021]
FIG. 5 shows an example of a technique for selecting a focused video for each block area composed of a plurality of pixels and synthesizing the selected video. The video signals obtained from the two
[0022]
FIG. 6 shows an in-focus area detected by electrically defocusing an image obtained from one image sensor and comparing it with the other image that has not been defocused. An example of the technique is shown. A
[0023]
In the above-described embodiments, the example in which the optical path of the imaging lens is divided into two and the video signals output from the two imaging elements are combined has been described. However, the principle when the optical path is divided into two or more is described. Needless to say that is the same.
[0024]
A second embodiment using the present invention will be described with reference to FIG. This is because even if the focus ranges of the images obtained from the two image sensors are not continuous, if each of the image sensors focuses on each subject to be imaged, the objective distance from one image sensor This is an example in which images focused on a plurality of different subjects are obtained at the same time, and it is expected that the production effect is enhanced in television studio recording or the like. FIG. 7 is a diagram assuming a scene in which a puppet theater is recorded in a studio as an example of close-up photography. A doll is placed in front of the background image, and the background image and the doll are measured for the objective distance from the camera lens by means such as a distance sensor such as an infrared distance measuring device or a potentiometer. Is input to the arithmetic processing unit as a parameter. For example, the distance sensor 50 such as an infrared distance measuring device is used to measure the distance from the imaging device to the subject for each subject, and the obtained distance information is supplied to the arithmetic processing device 9. The arithmetic processing unit 9 calculates the in-focus position of each image sensor based on the supplied distance information and supplies it to the drive circuit. Then, according to the obtained distance information, each image sensor is moved and positioned within the focusing range.
[0025]
If the objective distance of the background subject is l 1 and the objective distance of the doll subject is l 2 , the imaging distances b 1 and b 2 of the respective subjects, that is, the focus positions from the imaging lenses of the first and second imaging elements. From equation (4)
b 1 = l 1 f / (l 1 −f)
b 2 = l 2 f / (l 2 −f) Equation (9)
Is required.
[0026]
By controlling the imaging position of the image sensor based on the calculation result of Equation (9), it is possible to obtain an image that is adaptively focused on an individual subject even in a subject with a narrow focus area such as close-up photography. it can. In addition, since shooting with such a divided video can be performed by focusing on a subject at each objective distance, there is a possibility that the production effect will be further widened, such as blurring an arbitrary subject by video processing in post-production.
[0027]
A distance sensor can be provided for each image sensor, or one distance sensor can be shared by a plurality of image sensors.
[0028]
【The invention's effect】
As described above, according to the present invention, in a television camera or the like, an object with a wide range of objective distance is focused even when an imaging lens having an arbitrary focal length is used to capture an image at an arbitrary aperture value. A pan focus image is obtained. In addition, for a subject with a narrow focus area such as a close-up of a puppet show, for example, it is possible to obtain a focused video that is adapted to an individual subject such as a doll or a background image. In addition, the doll and the background image can be simultaneously photographed, and an effect such as blurring an arbitrary subject by video processing in post-production can be achieved.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an imaging apparatus according to a first embodiment of the present invention.
FIG. 2 is a diagram for explaining optical parameters of the imaging apparatus according to the present invention.
FIG. 3 is a diagram showing a change corresponding to an aperture value in an in-focus area.
FIG. 4 is a diagram showing an image composition apparatus.
FIG. 5 is a diagram showing an image composition apparatus.
FIG. 6 is a diagram showing another embodiment of the image composition device.
FIG. 7 is a diagram showing a configuration of an image pickup apparatus according to a second embodiment of the present invention.
[Explanation of symbols]
1, 2 Subject 3 Imaging lens 4
Claims (4)
bを撮像レンズの主点から撮像素子の配置位置までの光軸に沿う距離とし、fを撮像レンズの焦点距離とし、Fをレンズ絞りのFナンバーとし、δを許容錯乱円径とした場合に、前記演算処理装置が、
撮像レンズの主点から1つの撮像素子の光軸方向の距離を、式
b=f2 /(f−δF)を満たすように設定し、
他の1つの撮像素子の撮像レンズの主点からの光軸方向の距離を、式
b=f2 /(f−3δF)を満たすように設定することを特徴とする撮像装置。An imaging lens that captures an image of a subject, an optical path dividing unit that divides an optical path of light that has passed through the imaging lens into a plurality of optical paths, and is arranged in each of the divided optical paths. An image sensor to be generated, an image sensor driving device that moves each image sensor along the optical axis direction, and an arithmetic process that determines the position of each image sensor on the optical axis according to the lens parameters of the input imaging lens A device, and an image synthesis device that synthesizes video signals output from the respective image sensors,
When b is the distance along the optical axis from the principal point of the imaging lens to the position where the imaging element is arranged, f is the focal length of the imaging lens, F is the F number of the lens diaphragm, and δ is the allowable confusion circle diameter The arithmetic processing unit is
The distance in the optical axis direction of one image sensor from the principal point of the imaging lens is set so as to satisfy the formula b = f 2 / (f−δF),
An imaging apparatus, wherein a distance in the optical axis direction from a principal point of an imaging lens of another imaging element is set so as to satisfy a formula b = f 2 / (f−3δF).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001267311A JP4226235B2 (en) | 2001-09-04 | 2001-09-04 | Imaging device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001267311A JP4226235B2 (en) | 2001-09-04 | 2001-09-04 | Imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003078802A JP2003078802A (en) | 2003-03-14 |
JP4226235B2 true JP4226235B2 (en) | 2009-02-18 |
Family
ID=19093452
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001267311A Expired - Lifetime JP4226235B2 (en) | 2001-09-04 | 2001-09-04 | Imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4226235B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9949622B2 (en) | 2015-02-17 | 2018-04-24 | Olympus Corporation | Endoscope system for generating a composite image from optical images of different focus |
US11307430B2 (en) | 2016-06-07 | 2022-04-19 | Karl Storz Se & Co. Kg | Optical device and method for providing improved depth of field and resolution modes |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4541032B2 (en) * | 2004-05-26 | 2010-09-08 | パナソニック株式会社 | Image processing device |
JP4538611B2 (en) * | 2006-08-30 | 2010-09-08 | 独立行政法人産業技術総合研究所 | Multi-focus image capturing method and multi-focus image capturing apparatus |
JP4565115B2 (en) * | 2006-08-30 | 2010-10-20 | 独立行政法人産業技術総合研究所 | Multifocal imaging device |
JP5273220B2 (en) * | 2011-07-15 | 2013-08-28 | カシオ計算機株式会社 | Imaging apparatus and program thereof |
JP5393926B2 (en) | 2011-08-24 | 2014-01-22 | オリンパスメディカルシステムズ株式会社 | Imaging apparatus and imaging apparatus system |
EP2668891B1 (en) | 2011-10-27 | 2019-02-06 | Olympus Corporation | Endoscope system |
JP2013186293A (en) * | 2012-03-08 | 2013-09-19 | Seiko Epson Corp | Image generation device and image display method |
CN104219990B (en) * | 2012-06-28 | 2016-12-14 | 奥林巴斯株式会社 | Endoscopic system |
CN103957770B (en) | 2012-08-30 | 2016-05-18 | 奥林巴斯株式会社 | Endoscope |
CN104620075B (en) * | 2012-09-24 | 2016-04-13 | 富士胶片株式会社 | The distance-measuring device of many subjects and method |
JP6051002B2 (en) * | 2012-10-04 | 2016-12-21 | 三菱電機エンジニアリング株式会社 | Imaging apparatus and focus position adjusting method |
CN106303201A (en) * | 2015-06-04 | 2017-01-04 | 光宝科技股份有限公司 | Image capture unit and focusing method |
JP2018180296A (en) | 2017-04-13 | 2018-11-15 | 横河電機株式会社 | Microscope system, microscope, processing device and camera for microscope |
WO2021143640A1 (en) * | 2020-01-13 | 2021-07-22 | 荆门市探梦科技有限公司 | All-solid-state holographic photographing device and all-solid-state holographic projector |
JPWO2022044897A1 (en) * | 2020-08-31 | 2022-03-03 | ||
JP2022117068A (en) | 2021-01-29 | 2022-08-10 | i-PRO株式会社 | Imaging apparatus |
-
2001
- 2001-09-04 JP JP2001267311A patent/JP4226235B2/en not_active Expired - Lifetime
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9949622B2 (en) | 2015-02-17 | 2018-04-24 | Olympus Corporation | Endoscope system for generating a composite image from optical images of different focus |
US11307430B2 (en) | 2016-06-07 | 2022-04-19 | Karl Storz Se & Co. Kg | Optical device and method for providing improved depth of field and resolution modes |
Also Published As
Publication number | Publication date |
---|---|
JP2003078802A (en) | 2003-03-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4226235B2 (en) | Imaging device | |
JP2008015754A (en) | Image pickup device, image processor and image processing method | |
KR20100002051A (en) | Photographing apparatus and method | |
JP5348258B2 (en) | Imaging device | |
JP5611469B2 (en) | Stereoscopic imaging apparatus and method | |
JP2001174696A (en) | Color image pickup unit | |
JP2010243843A (en) | Autofocus system | |
JP2013160991A (en) | Imaging apparatus | |
JP2002372661A (en) | Photographic lens | |
JP2015043026A (en) | Image capturing device and control method therefor | |
JP2012142729A (en) | Camera | |
JP2006033242A (en) | Image reproducing method and image pickup device | |
JP2009251523A (en) | Correlation calculation method, correlation calculation device, focus detecting device and imaging apparatus | |
JPH06138362A (en) | Autofocusing device | |
JP2008003144A (en) | Lens adjustment system | |
JP2007248698A (en) | Method and apparatus for imaging | |
JP5144469B2 (en) | Imaging apparatus and control method thereof | |
JP7235068B2 (en) | Imaging device | |
JP4968009B2 (en) | Correlation calculation method, correlation calculation device, focus detection device, and imaging device | |
JP4968010B2 (en) | Correlation calculation method, correlation calculation device, focus detection device, and imaging device | |
JP5355252B2 (en) | Imaging apparatus and control method thereof | |
JP2014131188A (en) | Imaging apparatus, control method of the same, and control program | |
JP6728421B2 (en) | Image processing device, photographing device, image processing method, and program | |
JP2004151608A (en) | Autofocus system | |
JP2003287673A (en) | Focusing state detecting device for photographic lens |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080825 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080902 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081007 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20081007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081104 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081126 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4226235 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121205 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131205 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |