JP2016046773A - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP2016046773A
JP2016046773A JP2014171800A JP2014171800A JP2016046773A JP 2016046773 A JP2016046773 A JP 2016046773A JP 2014171800 A JP2014171800 A JP 2014171800A JP 2014171800 A JP2014171800 A JP 2014171800A JP 2016046773 A JP2016046773 A JP 2016046773A
Authority
JP
Japan
Prior art keywords
optical system
image
light receiving
annular
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014171800A
Other languages
Japanese (ja)
Inventor
近藤 茂
Shigeru Kondo
茂 近藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2014171800A priority Critical patent/JP2016046773A/en
Publication of JP2016046773A publication Critical patent/JP2016046773A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a small-sized inexpensive imaging device capable of simultaneously acquiring, by using a single imaging unit, a wide-angle image and a telescopic image whose optical axes agree with each other, and capable of securely capturing an object of a tracking target by using the telescopic image.SOLUTION: An imaging device comprises irises individually arranged to a first light path of a light flux incident on a directional sensor from a central optical system and a second light path of a light flux incident on the directional sensor from an annular optical system, where the first light path and the second light path do not overlap with each other, making it possible to simultaneously acquire, by using a single imaging unit, a wide-angle image and a telescopic image whose optical axes agree with each other and securely capture an imaging target.SELECTED DRAWING: Figure 2

Description

本発明は撮像装置に関し、特に広角画像と望遠画像とを同時に取得することができる撮像装置に関する。   The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus that can simultaneously acquire a wide-angle image and a telephoto image.

従来、同一の光軸上に中央部に広角レンズを配設し、その周辺部に環状の望遠レンズを配設した二重の焦点距離の光学システムが提案されている(特許文献1の図1)。この光学システムの環状の望遠レンズは、2枚の反射ミラーを含む反射ミラー型のレンズ構成となっており、焦点距離の長い望遠レンズをコンパクトな構成にしている。また、この光学システムの広角レンズと望遠レンズの結像位置は、それぞれ光軸方向の異なる位置になるように設計されており、それぞれの結像位置に別々の撮像素子が配設されている。   Conventionally, a double focal length optical system has been proposed in which a wide-angle lens is disposed at the center on the same optical axis and an annular telephoto lens is disposed at the periphery thereof (FIG. 1 of Patent Document 1). ). The annular telephoto lens of this optical system has a reflecting mirror type lens configuration including two reflecting mirrors, and the telephoto lens having a long focal length has a compact configuration. In addition, the imaging positions of the wide-angle lens and the telephoto lens of this optical system are designed to be different positions in the optical axis direction, and separate imaging elements are arranged at the respective imaging positions.

また、広角の対物光学系と、望遠の対物光学系と、各対物光学系を通過した光線が共通に通過する共通光学系とを有し、複数の対物光学系により取り込まれる被写体光のいずれかを選択的に共通光学系へ導く反射部材を備えた光学装置が提案されている(特許文献2)。   In addition, any one of the subject light captured by the plurality of objective optical systems has a wide-angle objective optical system, a telephoto objective optical system, and a common optical system through which the light beams that have passed through each objective optical system pass in common An optical device including a reflecting member that selectively guides the light to a common optical system has been proposed (Patent Document 2).

そして、反射部材を可動させることにより、広角の対物光学系と望遠の対物光学系のいずれか一方の対物光学系により取り込まれる被写体光を、共通光学系を介して共通の撮像素子に導くようにしている。   Then, by moving the reflecting member, the subject light captured by either the wide-angle objective optical system or the telephoto objective optical system is guided to the common image sensor via the common optical system. ing.

また、結像レンズの異なる領域を通過する被写体光を瞳分離し、結像レンズの異なる領域に対応する撮像素子の画素にそれぞれ入射させ、瞳分離した被写体光に対応する複数の画像を同時に撮像する撮像装置が提案されている(特許文献3)。   In addition, subject light passing through different areas of the imaging lens is pupil-separated and incident on each pixel of the image sensor corresponding to the different areas of the imaging lens, and multiple images corresponding to the subject light separated from the pupil are simultaneously captured. An imaging apparatus has been proposed (Patent Document 3).

特表2011−505022号公報Special table 2011-5005022 gazette 特開2009−122379号公報JP 2009-122379 A 特開2012−88696号公報JP 2012-88696 A

特許文献1に記載の光学システムは、広角レンズ及び望遠レンズによりそれぞれ撮影される広角画像及び望遠画像を、それぞれ光軸方向の異なる位置に配設された別々の撮像素子から取得するようにしているため、装置の小型化及び低コスト化を図ることができないという問題がある。   The optical system described in Patent Document 1 acquires a wide-angle image and a telephoto image captured by a wide-angle lens and a telephoto lens, respectively, from separate image sensors arranged at different positions in the optical axis direction. Therefore, there is a problem that the apparatus cannot be reduced in size and cost.

特許文献2に記載の光学装置は、反射部材(反射ミラー)を可動させることにより、広角の対物光学系と望遠の対物光学系のいずれか一方の対物光学系を選択するため、同時に広角画像と望遠画像を撮影することができず、また、反射部材を可動させるための機構が必要になり、装置が大型化するという問題がある。   The optical device described in Patent Document 2 selects either one of a wide-angle objective optical system and a telephoto objective optical system by moving a reflecting member (reflecting mirror). There is a problem that a telephoto image cannot be taken and a mechanism for moving the reflecting member is required, resulting in an increase in the size of the apparatus.

また、特許文献3に記載の撮像装置は、結像レンズの異なる領域を通過する被写体光を瞳分離し、瞳分離した被写体光に対応する複数の画像を、1つの撮像素子により同時に撮像することができるが、特許文献3には、広角画像と望遠画像とを良好に撮像するための具体的な構成に関する記載はない。   The imaging device described in Patent Literature 3 pupil-separates subject light that passes through different regions of the imaging lens, and simultaneously captures a plurality of images corresponding to the subject light that has undergone pupil separation using a single imaging device. However, Patent Document 3 does not describe a specific configuration for favorably capturing a wide-angle image and a telephoto image.

本発明はこのような事情に鑑みてなされたもので、光軸を共通にする中央光学系と環状光学系とによりそれぞれ結像される第一画像及び第二画像を同時に取得することができ、かつコンパクトで安価な撮像装置を提供することを目的とする。   The present invention has been made in view of such circumstances, and can simultaneously acquire a first image and a second image respectively formed by a central optical system and an annular optical system having a common optical axis, An object of the present invention is to provide a compact and inexpensive imaging apparatus.

本発明の第1の態様は、それぞれ同一の光軸上に配置された中央部の中央光学系とその周辺部の環状光学系とからなる撮影光学系と、2次元状に配列された光電変換素子により構成された複数の画素を有する指向性センサであって、中央光学系及び環状光学系を介して入射する光束をそれぞれ瞳分割して選択的に受光する複数の画素を含む指向性センサと、中央光学系を介して受光した第1画像を示す画像信号と環状光学系を介して受光した第2画像を示す画像信号とをそれぞれ指向性センサから取得する画像読み出し装置と、中央光学系から指向性センサに入射する光束の第1の光路および環状光学系から指向性センサに入射する光束の第2の光路であって第1の光路と第2の光路とが互いに重複しない光路のそれぞれに個別に配置された絞りと、を備える撮像装置を提供する。   According to a first aspect of the present invention, there is provided a photographing optical system comprising a central optical system at the center and an annular optical system at the periphery thereof arranged on the same optical axis, and photoelectric conversion arranged in a two-dimensional manner. A directional sensor having a plurality of pixels each composed of an element, the directional sensor including a plurality of pixels that selectively receive light by dividing a light beam incident through a central optical system and an annular optical system, respectively. An image reading device for acquiring an image signal indicating the first image received through the central optical system and an image signal indicating the second image received through the annular optical system from the directivity sensor, and from the central optical system. The first optical path of the light beam incident on the directional sensor and the second optical path of the light beam incident on the directional sensor from the annular optical system, where the first optical path and the second optical path do not overlap each other. Individually arranged Litho, provides an imaging device comprising a.

本発明の第2の態様は、中央光学系から指向性センサに入射する光束の光路および環状光学系から指向性センサに入射する光束の第3の光路であって第1の光路と第2の光路とが重複する第3の光路に配置された光量調節手段をさらに備える項1に記載の撮像装置を提供する。   The second aspect of the present invention is an optical path of a light beam incident on the directional sensor from the central optical system and a third optical path of a light beam incident on the directional sensor from the annular optical system, the first optical path and the second optical path. The imaging apparatus according to Item 1, further comprising a light amount adjusting unit arranged in a third optical path that overlaps the optical path.

本発明の第3の態様は、環状光学系は、光束を2回以上反射させる反射光学系を有し、光量調節手段は、環状光学系の反射光学系で2回以上反射され指向性センサに入射する光束の光路に配置される項2に記載の撮像装置を提供する。   In the third aspect of the present invention, the annular optical system has a reflective optical system that reflects the light beam twice or more, and the light amount adjusting means is reflected twice or more by the reflective optical system of the annular optical system and is applied to the directional sensor. An imaging apparatus according to item 2, which is disposed in an optical path of an incident light beam.

本発明の第4の態様は、光量調節手段は可変NDフィルタである項2または3に記載の撮像装置を提供する。   A fourth aspect of the present invention provides the imaging apparatus according to Item 2 or 3, wherein the light amount adjusting means is a variable ND filter.

本発明の第5の態様は、第1の光路に配置された第1の光量調節手段と第2の光路に配置された第2の光量調節手段とをさらに備える項1に記載の撮像装置を提供する。   The fifth aspect of the present invention is the imaging apparatus according to item 1, further comprising a first light amount adjusting unit disposed in the first optical path and a second light amount adjusting unit disposed in the second optical path. provide.

本発明の第6の態様は、第1の光量調節手段および第2の光量調節手段は可変NDフィルタである項5に記載の撮像装置を提供する。   According to a sixth aspect of the present invention, there is provided the imaging apparatus according to Item 5, wherein the first light amount adjusting means and the second light amount adjusting means are variable ND filters.

本発明の第7の態様は、指向性センサは、像面位置における中央光学系及び環状光学系の瞳形状に応じた指向特性のものが使用される項1〜3のいずれか1項に記載の撮像装置を提供する。   Item 7 is the seventh aspect of the present invention, wherein the directivity sensor has a directivity characteristic corresponding to the pupil shape of the central optical system and the annular optical system at the image plane position. An imaging apparatus is provided.

本発明の第8の態様は、指向性センサは、瞳分割手段として機能する複数のマイクロレンズを有し、複数のマイクロレンズの1マイクロレンズ当たりに割り当てられる画素の数及び/又は位置は、中央光学系及び環状光学系の瞳位置と形状に応じた数及び/又は位置となる請求項7に記載の撮像装置を提供する。   In an eighth aspect of the present invention, the directional sensor has a plurality of microlenses that function as pupil dividing means, and the number and / or positions of pixels allocated per microlens of the plurality of microlenses is the center. The imaging apparatus according to claim 7, wherein the number and / or position of the optical system and the annular optical system is the number and / or position corresponding to the pupil position and shape.

本発明の第9の態様は、指向性センサは、瞳分割手段として機能するマイクロレンズを有し、当該マイクロレンズにより瞳像を分離してそれぞれ入射させる、1マイクロレンズ当たりの画素の個数が、像高が高くなるにしたがって少なくなるように割り当てられている項7又は8に記載の撮像装置を提供する。   According to a ninth aspect of the present invention, the directivity sensor includes a microlens that functions as a pupil dividing unit, and the number of pixels per microlens for separating and entering the pupil image by the microlens is as follows. Item 9. The imaging device according to Item 7 or 8, wherein the imaging device is allocated so as to decrease as the image height increases.

本発明の第10の態様は、撮影光学系の光軸に対応する中心点を基準にした距離に応じて、第1画像および第2画像のシェーディング補正を実施するシェーディング補正部をさらに備える項1〜9のいずれか1項に記載の撮像装置を提供する。   The tenth aspect of the present invention further includes a shading correction unit that performs shading correction of the first image and the second image according to a distance based on a center point corresponding to the optical axis of the photographing optical system. The imaging device of any one of -9 is provided.

本発明の第11の態様は、環状光学系は、光束を2回以上反射させる反射光学系を有し、絞りは、環状光学系の反射光学系で2回以上反射される前の光束の光路に配置される項1〜10のいずれか1項に記載の撮像装置を提供する。   In an eleventh aspect of the present invention, the annular optical system has a reflection optical system that reflects the light beam twice or more, and the stop is an optical path of the light beam before being reflected by the reflection optical system of the ring optical system more than once. Item 11. The imaging device according to any one of Items 1 to 10 disposed in

本発明の第12の態様は、中央光学系は環状光学系より広角である項1〜11のいずれか1項に記載の撮像装置を提供する。   A twelfth aspect of the present invention provides the imaging apparatus according to any one of Items 1 to 11, wherein the central optical system has a wider angle than the annular optical system.

本発明の第13の態様は、第1画像および第2画像を、選択的、重畳的、または並列的に表示装置に表示させる表示制御部をさらに備える項1〜11のいずれか1項に記載の撮像装置を提供する。   The thirteenth aspect of the present invention is the display device according to any one of items 1 to 11, further comprising a display control unit that causes the display device to display the first image and the second image selectively, in a superimposed manner, or in parallel. An imaging apparatus is provided.

本発明の撮像装置は、中央光学系から指向性センサに入射する光束の第1の光路および環状光学系から指向性センサに入射する光束の第2の光路であって第1の光路と第2の光路とが互いに重複しない光路のそれぞれに個別に配置された絞りを備えており、単一の撮像部により光軸が一致した広角画像と望遠画像とを同時に取得することができ、撮影対象を確実に捉えることができる。   The imaging apparatus according to the present invention includes a first optical path of a light beam incident on the directional sensor from the central optical system and a second optical path of a light beam incident on the directional sensor from the annular optical system, the first optical path and the second optical path. The apertures are individually arranged in each of the optical paths that do not overlap with each other, and a wide-angle image and a telephoto image in which the optical axes coincide with each other can be acquired simultaneously by a single imaging unit. I can capture it reliably.

本発明に係る撮像装置の外観斜視図1 is an external perspective view of an imaging apparatus according to the present invention. 撮像装置の撮像部の第1の実施形態を示す断面図Sectional drawing which shows 1st Embodiment of the imaging part of an imaging device 図2に示したマイクロレンズアレイ及びイメージセンサの要部拡大図FIG. 2 is an enlarged view of a main part of the microlens array and the image sensor shown in FIG. マイクロレンズ16a1個当たりが受け持つ受光セルの個数を示す図The figure which shows the number of the light reception cells which one micro lens 16a takes charge of イメージセンサに配設されたカラーフィルタ配列等を示す図The figure which shows the color filter arrangement etc. which are arranged in the image sensor 撮像装置の内部構成の実施形態を示すブロック図The block diagram which shows embodiment of the internal structure of an imaging device 撮像装置により撮像される広角画像(撮影対象が広角画像の周辺部に存在)及び望遠画像の一例を示す図The figure which shows an example of the wide-angle image (photographing object exists in the peripheral part of a wide-angle image) and a telephoto image imaged with an imaging device 撮像装置により撮像される広角画像(撮影対象が広角画像の中央部に存在)及び望遠画像の一例を示す図The figure which shows an example of the wide-angle image (photographing object exists in the center part of a wide-angle image) and a telephoto image imaged with an imaging device 動体を撮像対象の物体として検出する動体検出方法の一例について説明するために用いた図The figure used to explain an example of a moving object detection method for detecting a moving object as an object to be imaged 本発明に係る撮像装置による撮像制御方法の一例を示すフローチャート6 is a flowchart showing an example of an imaging control method by the imaging apparatus according to the present invention. 指向性センサの他の実施形態を示す側面図Side view showing another embodiment of a directional sensor 撮像装置に適用可能な撮像部の他の実施形態を示す断面図Sectional drawing which shows other embodiment of the imaging part applicable to an imaging device 撮像装置の撮像部の他の実施形態を示す断面図Sectional drawing which shows other embodiment of the imaging part of an imaging device

以下、添付図面に従って本発明に係る撮像装置の実施の形態について説明する。   Hereinafter, embodiments of an imaging apparatus according to the present invention will be described with reference to the accompanying drawings.

<撮像装置の外観>
図1は本発明に係る撮像装置の外観斜視図である。
<Appearance of imaging device>
FIG. 1 is an external perspective view of an imaging apparatus according to the present invention.

図1は本発明に係る第1実施形態の撮像装置の外観斜視図である。図1に示すように、撮像装置10の前面には、撮影光学系12、フラッシュ発光部21等が配置され、上面にはシャッタボタン38−1、撮影光学系12のレンズ周辺には可変NDフィルタ調整ボタン38−2、側面にはズームボタン38−3が設けられている。Lは撮影光学系12の光軸を表す。   FIG. 1 is an external perspective view of the imaging apparatus according to the first embodiment of the present invention. As shown in FIG. 1, a photographing optical system 12, a flash light emitting unit 21, and the like are arranged on the front surface of the imaging apparatus 10, a shutter button 38-1 on the top surface, and a variable ND filter around the lens of the photographing optical system 12. An adjustment button 38-2 and a zoom button 38-3 are provided on the side surface. L represents the optical axis of the photographing optical system 12.

[撮像部の構成]
図2は、撮像装置10の撮像部11の第1の実施形態を示す断面図である。
[Configuration of imaging unit]
FIG. 2 is a cross-sectional view illustrating the first embodiment of the imaging unit 11 of the imaging device 10.

図2に示すように、撮像部11は、撮影光学系12と指向性センサ17と絞り63と可変NDフィルタ64とから構成されている。   As illustrated in FIG. 2, the imaging unit 11 includes a photographing optical system 12, a directivity sensor 17, a diaphragm 63, and a variable ND filter 64.

<撮影光学系>
撮影光学系12は、それぞれ同一の光軸上に配置された、第1の光学系としての中央部の中央光学系13と、その周辺部の同心円状の第2の光学系としての環状光学系14とから構成されている。
<Photographing optical system>
The photographing optical system 12 is arranged on the same optical axis, and a central optical system 13 as a first optical system and an annular optical system as a concentric second optical system at the periphery thereof. 14.

中央光学系13は、第1レンズ13a、第2レンズ13b、第3レンズ13c、第4レンズ13d、及び共通レンズ15から構成された広角光学系(広角レンズ)であり、指向性センサ17を構成するマイクロレンズアレイ16上に広角画像を結像させる。   The central optical system 13 is a wide-angle optical system (wide-angle lens) that includes a first lens 13 a, a second lens 13 b, a third lens 13 c, a fourth lens 13 d, and a common lens 15. A wide-angle image is formed on the microlens array 16.

環状光学系14は、第1レンズ14a、第2レンズ14b、反射光学系としての第1反射ミラー14c、第2反射ミラー14d、及び共通レンズ15から構成された望遠光学系(望遠レンズ)であり、マイクロレンズアレイ16上に望遠画像を結像させる。第1レンズ14a、及び第2レンズ14bを介して入射した光束は、第1反射ミラー14c及び第2反射ミラー14dにより2回反射された後、共通レンズ15を通過する。第1反射ミラー14c及び第2反射ミラー14dにより光束が折り返されることにより、焦点距離の長い望遠光学系(望遠レンズ)の光軸方向の長さを短くしている。   The annular optical system 14 is a telephoto optical system (telephoto lens) including a first lens 14a, a second lens 14b, a first reflection mirror 14c as a reflection optical system, a second reflection mirror 14d, and a common lens 15. A telephoto image is formed on the microlens array 16. The light beam incident through the first lens 14a and the second lens 14b is reflected twice by the first reflection mirror 14c and the second reflection mirror 14d, and then passes through the common lens 15. The light beam is folded back by the first reflecting mirror 14c and the second reflecting mirror 14d, so that the length in the optical axis direction of the telephoto optical system (telephoto lens) having a long focal length is shortened.

絞り63は、中央光学系13に対応した絞り63aと、環状光学系14に対応した絞り63bを含む。図4(b)に例示するように、絞り63aは、中央部に形成された穴の外径を伸縮することで、中央光学系13からマイクロレンズアレイ16に結像する光束の入射量を変化させる。また図4(c)に例示するように、絞り63bは、周縁部に形成された環状の穴の内径を伸縮することで、環状光学系14からマイクロレンズアレイ16に結像する光束の入射量を変化させる。   The diaphragm 63 includes a diaphragm 63 a corresponding to the central optical system 13 and a diaphragm 63 b corresponding to the annular optical system 14. As illustrated in FIG. 4B, the diaphragm 63a changes the incident amount of the light beam that forms an image on the microlens array 16 from the central optical system 13 by expanding and contracting the outer diameter of the hole formed in the central portion. Let In addition, as illustrated in FIG. 4C, the stop 63 b expands and contracts the inner diameter of the annular hole formed in the peripheral portion, so that the incident amount of the light beam that forms an image on the microlens array 16 from the annular optical system 14. To change.

共通レンズ15とイメージセンサ18の間に設けられた可変NDフィルタ64は、連続的あるいは段階的な透過率を複数有しており、印加する電圧を変化させるか、あるいは機械的に回転させることで、それらの中から任意の透過率を選択し、撮影光学系12からイメージセンサ18へ結像する被写体像の受光量を調節する。   The variable ND filter 64 provided between the common lens 15 and the image sensor 18 has a plurality of continuous or stepwise transmittances, and the applied voltage is changed or mechanically rotated. Then, an arbitrary transmittance is selected from them, and the received light amount of the subject image formed on the image sensor 18 from the photographing optical system 12 is adjusted.

なお、中央光学系13と環状光学系14は同一の光軸上に配置されるため、これらの結像する広角画像および望遠画像ではパララックスが発生しない。   Since the central optical system 13 and the annular optical system 14 are arranged on the same optical axis, no parallax occurs in the wide-angle image and the telephoto image that are formed.

<指向性センサ>
指向性センサ17は、マイクロレンズアレイ16とイメージセンサ18とから構成されている。
<Directivity sensor>
The directivity sensor 17 includes a microlens array 16 and an image sensor 18.

図3は、マイクロレンズアレイ16及びイメージセンサ18の要部拡大図である。   FIG. 3 is an enlarged view of a main part of the microlens array 16 and the image sensor 18.

マイクロレンズアレイ16は、複数のマイクロレンズ(瞳結像レンズ)16aが2次元状に配列されて構成されており、各マイクロレンズの水平方向及び垂直方向の間隔は、イメージセンサ18の光電変換素子である受光セル18aの3つ分の間隔に対応している。即ち、マイクロレンズアレイ16の各マイクロレンズは、水平方向及び垂直方向の各方向に対して、2つ置きの受光セルの位置に対応して形成されたものが使用される。   The microlens array 16 includes a plurality of microlenses (pupil imaging lenses) 16 a arranged in a two-dimensional manner, and the horizontal and vertical intervals between the microlenses are the photoelectric conversion elements of the image sensor 18. This corresponds to the interval of three light receiving cells 18a. That is, each microlens of the microlens array 16 is formed corresponding to the position of every two light receiving cells in each of the horizontal direction and the vertical direction.

また、マイクロレンズアレイ16の各マイクロレンズ16aは、撮影光学系12の中央光学系13及び環状光学系14に対応する、円形の中央瞳像(第1の瞳像)17a及び環状瞳像(第2の瞳像)17bを、イメージセンサ18の対応する受光領域の受光セル18a上に結像させる。   Each microlens 16a of the microlens array 16 has a circular central pupil image (first pupil image) 17a and an annular pupil image (first pupil image) corresponding to the central optical system 13 and the annular optical system 14 of the photographing optical system 12. 2b) 17b is formed on the light receiving cell 18a in the corresponding light receiving region of the image sensor 18.

図3に示すマイクロレンズアレイ16及びイメージセンサ18によれば、マイクロレンズアレイ16の1マイクロレンズ16a当たりに付き、格子状(正方格子状)の3×3個の受光セル18aが割り付けられている。以下、1つのマイクロレンズ16a及び1つのマイクロレンズ16aに対応する受光セル群(3×3個の受光セル18a)を単位ブロックという。   According to the microlens array 16 and the image sensor 18 shown in FIG. 3, 3 × 3 light receiving cells 18 a having a lattice shape (square lattice shape) are allocated per microlens 16 a of the microlens array 16. . Hereinafter, one microlens 16a and a light receiving cell group (3 × 3 light receiving cells 18a) corresponding to one microlens 16a are referred to as a unit block.

中央瞳像17aは、単位ブロックの中央の受光セル18aのみに結像し、環状瞳像17bは、単位ブロックの周囲の8個の受光セル18aに結像する。   The central pupil image 17a is formed only on the light receiving cell 18a at the center of the unit block, and the annular pupil image 17b is formed on the eight light receiving cells 18a around the unit block.

上記構成の撮像部11によれば、後述するように中央光学系13に対応する広角画像と、環状光学系14に対応する望遠画像とを同時に撮像することができる。   According to the imaging unit 11 configured as described above, a wide-angle image corresponding to the central optical system 13 and a telephoto image corresponding to the annular optical system 14 can be simultaneously captured as described later.

図4は、受光セル18aの配置例を示す。受光セル18aは、マイクロレンズ16a1個当たりが受け持つ受光セルの個数が、中央から周辺にいくにしたがって(像高が高くなるにしたがって)少なくなる構造となっている。図4に示す例では、1マイクロレンズ16a当たりの受け持つ受光セル18aの個数(紙面の上下方向の個数)を、中央(入射角0°)では3個、中間(入射角3.2°)では2個、周辺(入射角14.4°)では1個としている。   FIG. 4 shows an arrangement example of the light receiving cells 18a. The light receiving cell 18a has a structure in which the number of light receiving cells handled by one microlens 16a decreases from the center toward the periphery (as the image height increases). In the example shown in FIG. 4, the number of light receiving cells 18a per microlens 16a (the number in the vertical direction of the paper surface) is three at the center (incident angle 0 °) and at the middle (incident angle 3.2 °). Two and one at the periphery (incident angle 14.4 °).

図4に示すように受光セル18aのサイズが同一の場合、マイクロレンズ16aは、周辺にいくにしたがって小さいサイズで、焦点距離の短いもの使用する。これにより、周辺ほど高密度なサンプリングが可能になる。   As shown in FIG. 4, when the size of the light receiving cell 18a is the same, the microlens 16a having a smaller size and a shorter focal length is used as it goes to the periphery. As a result, higher density sampling is possible in the periphery.

[イメージセンサの実施形態]
図5は、イメージセンサ18に配設されたカラーフィルタ配列等を示す図である。尚、図4上で、マイクロレンズアレイ16は省略されているが、円形で示した領域は、マイクロレンズアレイ16の各マイクロレンズ16aにより瞳像が結像される3×3個の受光セルを含む単位ブロックを示している。
[Embodiment of Image Sensor]
FIG. 5 is a diagram showing a color filter array and the like disposed in the image sensor 18. In FIG. 4, the microlens array 16 is omitted. However, the region indicated by a circle includes 3 × 3 light receiving cells on which pupil images are formed by the microlenses 16 a of the microlens array 16. The unit block to be included is shown.

図5(a)に示すようにイメージセンサ18の撮像面上には、各受光セル上に配設されたカラーフィルタにより構成されるカラーフィルタ配列が設けられる。   As shown in FIG. 5A, on the imaging surface of the image sensor 18, a color filter array including color filters arranged on each light receiving cell is provided.

このカラーフィルタ配列は、赤(R)、緑(G)、及び青(B)の各波長域の光を透過させる3原色のカラーフィルタ(以下、Rフィルタ、Gフィルタ、Bフィルタという)により構成されている。そして、各受光セル上には、RGBフィルタのいずれかが配置される。以下、Rフィルタが配置された受光セルを「R受光セル」、Gフィルタが配置された受光セルを「G受光セル」、Bフィルタが配置された受光セルを「B受光セル」という。   This color filter array is constituted by three primary color filters (hereinafter referred to as R filter, G filter, and B filter) that transmit light in each wavelength band of red (R), green (G), and blue (B). Has been. One of the RGB filters is disposed on each light receiving cell. Hereinafter, the light receiving cell in which the R filter is disposed is referred to as “R light receiving cell”, the light receiving cell in which the G filter is disposed is referred to as “G light receiving cell”, and the light receiving cell in which the B filter is disposed is referred to as “B light receiving cell”.

図5(a)に示すカラーフィルタ配列は、6×6個の受光セルを基本ブロックB(図5(a)の太枠で示したブロック、及び図5(b)参照)とし、基本ブロックBが水平方向及び垂直方向に繰り返し配置されて構成されている。   In the color filter array shown in FIG. 5A, 6 × 6 light receiving cells are defined as a basic block B (see a block indicated by a thick frame in FIG. 5A and FIG. 5B). Are repeatedly arranged in the horizontal direction and the vertical direction.

図5(b)に示すように基本ブロックBは、4個の単位ブロックB1〜B4により構成されている。   As shown in FIG. 5B, the basic block B includes four unit blocks B1 to B4.

図5(c1)及び(c2)は、それぞれ4個の単位ブロックB1〜B4の中央の受光セル(図3に示した中央光学系13を通過した光束が入射する受光セル)のグループと、周囲の8個の受光セル(図3に示した環状光学系14を通過した光速が入射する受光セル)のグループとを示す。   5 (c1) and 5 (c2) show a group of light receiving cells (light receiving cells into which a light beam that has passed through the central optical system 13 shown in FIG. 3) of the four unit blocks B1 to B4, and the surroundings. 8 groups of light receiving cells (light receiving cells into which the speed of light having passed through the annular optical system 14 shown in FIG. 3 is incident).

図5(c1)に示すように中央の受光セルのグループの画像は、ベイヤ配列のモザイク画像となる。これにより、ベイヤ配列のモザイク画像をデモザイク処理することにより、カラー画像を得ることができる。   As shown in FIG. 5C1, the image of the group of light receiving cells in the center is a Bayer array mosaic image. Accordingly, a color image can be obtained by demosaicing the mosaic image of the Bayer array.

一方、図5(c2)に示すように、単位ブロックB1〜B4の各中央の受光セルの周囲の8個の受光セルのグループは、8個の受光セル内にRGBの全ての受光セル(R受光セル、G受光セル、B受光セル)を含み、かつ単位ブロックB1〜B4にかかわらず、RGBの受光セルが同じパターンで配置されている。   On the other hand, as shown in FIG. 5 (c2), a group of eight light receiving cells around each central light receiving cell of the unit blocks B1 to B4 is composed of all the RGB light receiving cells (R RGB light receiving cells are arranged in the same pattern regardless of the unit blocks B1 to B4.

具体的には、各単位ブロックB1〜B4の4隅の4つの受光セルは、G受光セルが配置され、中央の受光セルを挟んで上下の2個の受光セルは、R受光セルが配置され、中央の受光セルを挟んで左右の2個の受光セルは、B受光セルが配置されている。   Specifically, G light receiving cells are arranged in the four light receiving cells at the four corners of each of the unit blocks B1 to B4, and R light receiving cells are arranged in the two upper and lower light receiving cells across the center light receiving cell. The B light receiving cells are arranged in the two left and right light receiving cells with the central light receiving cell interposed therebetween.

また、R受光セル、G受光セル、及びB受光セルは、それぞれ単位ブロックの中央の受光セル(中心)に対して対称位置に配置されている。これにより、単位ブロック内のRGBの受光セルの出力信号を使用して、その単位ブロック毎のデモザイク処理(同時化処理)後の、画像を構成する1つの画素(RGBの画素値)を生成することができる。   In addition, the R light receiving cell, the G light receiving cell, and the B light receiving cell are arranged at symmetrical positions with respect to the center light receiving cell (center) of the unit block. Thereby, using the output signal of the RGB light receiving cell in the unit block, one pixel (RGB pixel value) constituting the image after the demosaic process (synchronization process) for each unit block is generated. be able to.

即ち、単位ブロック内の4個のG受光セルの出力信号(画素値)の平均値を求めることにより、単位ブロック(1マイクロレンズ)の中心位置におけるG画素の画素値を取得することができ、同様に単位ブロック内の2個のR受光セルの画素値の平均値、及び2個のB受光セルの画素値の平均値を求めることにより、それぞれ単位ブロックの中心位置におけるR画素及びB画素の画素値を取得することができる。   That is, by obtaining the average value of the output signals (pixel values) of the four G light receiving cells in the unit block, the pixel value of the G pixel at the center position of the unit block (1 microlens) can be obtained. Similarly, by calculating the average value of the pixel values of the two R light receiving cells in the unit block and the average value of the pixel values of the two B light receiving cells, the R pixel and the B pixel at the center position of the unit block, respectively. Pixel values can be acquired.

これにより、単位ブロックの周囲の8個の受光セルのグループにより生成される、環状光学系14(望遠光学系)に対応する望遠画像については、単位ブロック内のRGBの受光セルの画素値を使用してデモザイク処理を行うことができ、周囲の単位ブロックの受光セルの画素値を補間して特定の波長域の画素の画素値を生成する必要がなく、出力画像の解像度(実質的な画素数)を低下させることがない。   Thereby, for the telephoto image corresponding to the annular optical system 14 (telephoto optical system) generated by the group of eight light receiving cells around the unit block, the pixel values of the RGB light receiving cells in the unit block are used. Therefore, it is not necessary to generate pixel values of pixels in a specific wavelength range by interpolating the pixel values of the light receiving cells of the surrounding unit blocks, and the resolution of the output image (substantial number of pixels) ) Is not reduced.

<撮像装置の内部構成>
図6は、撮像装置10の内部構成の実施形態を示すブロック図である。
<Internal configuration of imaging device>
FIG. 6 is a block diagram illustrating an embodiment of the internal configuration of the imaging apparatus 10.

図6に示すように撮像装置10は、図2で説明した中央光学系13及び環状光学系14を有する撮影光学系12と、図3ないし図5で説明したマイクロレンズアレイ16及びイメージセンサ18を有する指向性センサ17とからなる撮像部11を備えている。   As shown in FIG. 6, the imaging apparatus 10 includes the photographing optical system 12 having the central optical system 13 and the annular optical system 14 described with reference to FIG. 2, the microlens array 16 and the image sensor 18 described with reference to FIGS. An imaging unit 11 including a directional sensor 17 is provided.

この撮像部11は、望遠光学系(環状光学系14)の焦点調整を行う焦点調整部19を備えることが好ましい。焦点調整部19は、例えば、環状光学系14の全体又は一部の光学系を光軸方向に移動させるボイスコイルモータ等により構成することができる。また、望遠画像の合焦の判断は、望遠画像の焦点検出領域のコントラストにより行うことができるが、焦点調整方法はこれに限定されない。尚、広角光学系(中央光学系13)については、別途、焦点調整部を設けるようにしてよいし、パンフォーカスとしてもよい。   The imaging unit 11 preferably includes a focus adjustment unit 19 that performs focus adjustment of the telephoto optical system (annular optical system 14). The focus adjustment unit 19 can be configured by, for example, a voice coil motor or the like that moves the entire or part of the annular optical system 14 in the optical axis direction. In addition, the focus of the telephoto image can be determined based on the contrast of the focus detection area of the telephoto image, but the focus adjustment method is not limited to this. For the wide-angle optical system (central optical system 13), a focus adjustment unit may be provided separately or pan focus may be used.

撮像部11は、撮影光学系12及び指向性センサ17を介して時系列の広角画像及び望遠画像を撮像するものであり、撮影光学系12を介して指向性センサ17(イメージセンサ18)の各受光セル(光電変換素子)の受光面に結像された被写体像は、その入射光量に応じた量の信号電圧(または電荷)に変換される。   The imaging unit 11 captures time-series wide-angle images and telephoto images via the photographing optical system 12 and the directivity sensor 17, and each of the directivity sensors 17 (image sensors 18) via the photographing optical system 12. The subject image formed on the light receiving surface of the light receiving cell (photoelectric conversion element) is converted into a signal voltage (or charge) in an amount corresponding to the amount of incident light.

レンズCPU65は、絞り63の開口径の増大と連動し、それに応じて増大する露出量(露光量の増分ΔEV)を相殺する可変NDフィルタ64の目標濃度(減光率)を決定する。レンズCPU65は、該決定された濃度に対応する信号を可変NDフィルタ64の駆動系に印加する。これにより可変NDフィルタ64の濃度が調節される。すなわちレンズCPU65は、現在の可変NDフィルタ64の濃度と目標濃度とを比較し、それらの差異が解消するよう目標濃度(減光率)を再び決定し、該決定された濃度に対応する制御信号を可変NDフィルタ64の駆動系に印加する。この駆動系が、この制御信号に対応した透過率をさらに選択することで、可変NDフィルタ64の濃度が調節され、イメージセンサの受光量が、絞り63の開放の前後で保たれるように調節される。   The lens CPU 65 determines the target density (dimming rate) of the variable ND filter 64 that works in conjunction with the increase in the aperture diameter of the diaphragm 63 and cancels the exposure amount (exposure amount increment ΔEV) that increases accordingly. The lens CPU 65 applies a signal corresponding to the determined density to the drive system of the variable ND filter 64. Thereby, the density of the variable ND filter 64 is adjusted. That is, the lens CPU 65 compares the current density of the variable ND filter 64 with the target density, determines again the target density (dimming rate) so as to eliminate the difference, and a control signal corresponding to the determined density. Is applied to the drive system of the variable ND filter 64. The drive system further selects the transmittance corresponding to the control signal, so that the density of the variable ND filter 64 is adjusted and the received light amount of the image sensor is adjusted before and after the aperture 63 is opened. Is done.

可変NDフィルタ64の透過率は、スイッチ、ボタン、タッチセンサなどの操作手段で構成された可変NDフィルタ調整ボタン38−2に対する入力により、変更することができる。好ましくは、可変NDフィルタ調整ボタン38−2は、レンズ周辺に設けられる。   The transmittance of the variable ND filter 64 can be changed by an input to the variable ND filter adjustment button 38-2 configured by operation means such as a switch, a button, and a touch sensor. Preferably, the variable ND filter adjustment button 38-2 is provided around the lens.

イメージセンサ18に蓄積された信号電圧(または電荷)は、受光セルそのもの若しくは付設されたキャパシタに蓄えられる。蓄えられた信号電圧(または電荷)は、X−Yアドレス方式を用いたMOS型撮像素子(いわゆるCMOSセンサ)の手法を用いて、受光セル位置の選択とともに読み出される。   The signal voltage (or charge) accumulated in the image sensor 18 is accumulated in the light receiving cell itself or an attached capacitor. The stored signal voltage (or charge) is read out together with the selection of the light receiving cell position by using a method of a MOS type image pickup device (so-called CMOS sensor) using an XY address method.

これにより、イメージセンサ18から中央光学系13に対応する中央の受光セルのグループの広角画像を示す画素信号と、環状光学系14に対応する周囲8個の受光セルのグループの望遠画像を示す画素信号とを読み出すことができる。尚、イメージセンサ18からは、所定のフレームレート(例えば、1秒当たりのフレーム数24p,30p,又は60p)で、広角画像及び望遠画像を示す画素信号が連続して読み出される。   Thereby, the pixel signal indicating the wide-angle image of the group of the light receiving cells in the center corresponding to the central optical system 13 from the image sensor 18 and the pixel indicating the telephoto image of the group of eight light receiving cells corresponding to the annular optical system 14. Signal can be read out. Note that pixel signals indicating a wide-angle image and a telephoto image are continuously read from the image sensor 18 at a predetermined frame rate (for example, the number of frames per second is 24p, 30p, or 60p).

イメージセンサ18から読み出された画素信号(電圧信号)は、相関二重サンプリング処理(センサ出力信号に含まれるノイズ(特に熱雑音)等を軽減することを目的として、受光セル毎の出力信号に含まれるフィードスルー成分レベルと信号成分レベルとの差をとることにより正確な画素データを得る処理)により受光セル毎の画素信号がサンプリングホールドされ、増幅されたのちA/D変換器20に加えられる。A/D変換器20は、順次入力する画素信号をデジタル信号に変換して画像取得部22に出力する。尚、MOS型センサでは、A/D変換器が内蔵されているものがあり、この場合、イメージセンサ18から直接デジタル信号が出力される。   The pixel signal (voltage signal) read from the image sensor 18 is converted into an output signal for each light receiving cell for the purpose of reducing correlated double sampling processing (noise (particularly thermal noise) included in the sensor output signal). The pixel signal for each light-receiving cell is sampled and held by a process of obtaining accurate pixel data by taking the difference between the included feedthrough component level and the signal component level, and is amplified and applied to the A / D converter 20 . The A / D converter 20 converts sequentially input pixel signals into digital signals and outputs them to the image acquisition unit 22. Note that some MOS type sensors include an A / D converter. In this case, a digital signal is directly output from the image sensor 18.

画像取得部22は、イメージセンサ18の受光セル位置を選択して画素信号を読み出すことにより、広角画像を示す画素信号と望遠画像を示す画素信号とを同時に、又は選択的に取得することができる。   The image acquisition unit 22 can acquire the pixel signal indicating the wide-angle image and the pixel signal indicating the telephoto image simultaneously or selectively by selecting the light receiving cell position of the image sensor 18 and reading out the pixel signal. .

即ち、イメージセンサ18の中央瞳像17aが入射する受光セルの画素信号を選択的に読み出すことにより、1マイクロレンズ当たり1個の受光セル(3×3の受光セルの中央の受光セル)の広角画像を示す画素信号(ベイヤ配列のモザイク画像を示す画素信号)を取得することができ、一方、イメージセンサ18の環状瞳像17bが入射する受光セルの画素信号を選択的に読み出すことにより、1マイクロレンズ当たり8個の受光セル(3×3の受光セルの周囲の受光セル)の望遠画像を示す画素信号を取得することができる。   That is, by selectively reading out the pixel signal of the light receiving cell on which the central pupil image 17a of the image sensor 18 enters, the wide angle of one light receiving cell (light receiving cell in the center of 3 × 3 light receiving cells) per microlens. A pixel signal indicating an image (a pixel signal indicating a mosaic image of a Bayer array) can be acquired. On the other hand, by selectively reading out a pixel signal of a light receiving cell on which the annular pupil image 17b of the image sensor 18 is incident, 1 A pixel signal indicating a telephoto image of eight light receiving cells (light receiving cells around a 3 × 3 light receiving cell) per microlens can be acquired.

尚、イメージセンサ18から全ての画素信号を読み出してバッファメモリに一時的に記憶させ、バッファメモリに記憶させた画素信号から、広角画像と望遠画像の2つ画像の画素信号のグループ分けを行ってもよい。   Note that all pixel signals are read from the image sensor 18 and temporarily stored in the buffer memory, and the pixel signals of the two images of the wide-angle image and the telephoto image are grouped from the pixel signals stored in the buffer memory. Also good.

画像取得部22により取得された広角画像及び望遠画像を示す画素信号は、それぞれデジタル信号処理部40及び物体検出部50に出力される。   Pixel signals indicating the wide-angle image and the telephoto image acquired by the image acquisition unit 22 are output to the digital signal processing unit 40 and the object detection unit 50, respectively.

デジタル信号処理部40は、入力するデジタルの画素信号(RGBの点順次のR信号、G信号、B信号)に対して、オフセット処理、ガンマ補正処理、及びRGBのモザイク画像の信号に対するデモザイク処理や、広角画像および望遠画像のそれぞれから個別に推定された光源の色温度に基づいたホワイトバランス補正処理等の所定の信号処理を行う。   The digital signal processing unit 40 performs offset processing, gamma correction processing, and demosaicing processing on RGB mosaic image signals on input digital pixel signals (RGB dot-sequential R signal, G signal, B signal). Then, predetermined signal processing such as white balance correction processing based on the color temperature of the light source individually estimated from each of the wide-angle image and the telephoto image is performed.

ここで、デモザイク処理とは、単板式のイメージセンサ18のカラーフィルタ配列に対応したRGBのモザイク画像から画素毎に全ての色情報を算出する処理であり、同時化処理ともいう。例えば、RGB3色のカラーフィルタからなるイメージセンサ18の場合、RGBからなるモザイク画像から画素毎にRGB全ての色情報を算出する処理である。   Here, the demosaic process is a process of calculating all color information for each pixel from the RGB mosaic image corresponding to the color filter array of the single-plate image sensor 18, and is also referred to as a synchronization process. For example, in the case of the image sensor 18 composed of RGB color filters, this is a process of calculating color information of all RGB for each pixel from a mosaic image composed of RGB.

また、広角画像および望遠画像のそれぞれから個別に推定された光源の色温度に基づいたホワイトバランス補正処理とは、図4(c1)の中央の受光セル及び図4(c2)の周囲の8個の受光セルのそれぞれから得られた、広角画像および望遠画像のそれぞれに対応するR、G、Bの画像信号に基づいて自動的に光源種(被写界の色温度)を求め、予め光源種別に設定されたR、G、Bのホワイトバランスゲイン(ホワイトバランス補正値)を記憶するテーブルから対応するホワイトバランスゲインを読み出し、広角画像および望遠画像のそれぞれに対応するR、G、Bの画像信号に、それぞれに対応するホワイトバランスゲインが乗算されることをいう。   The white balance correction processing based on the color temperature of the light source individually estimated from each of the wide-angle image and the telephoto image is the light receiving cell in the center of FIG. 4 (c1) and the eight in the periphery of FIG. 4 (c2). The light source type (the color temperature of the object field) is automatically obtained based on the R, G, B image signals corresponding to the wide-angle image and the telephoto image obtained from each of the light receiving cells, and the light source type is determined in advance. R, G, and B white balance gains (white balance correction values) set in the table are read out corresponding white balance gains, and R, G, and B image signals corresponding to the wide-angle image and the telephoto image, respectively. And the corresponding white balance gain.

即ち、デジタル信号処理部40に含まれるデモザイク処理部は、広角画像(ベイヤ配列のモザイク画像)のG受光セルの位置には、R受光セル、B受光セルが無いため、そのG受光セルの周囲のR受光セル、B受光セルのR信号、B信号をそれぞれ補間して、G受光セルの位置におけるR信号、B信号を生成する。同様に、モザイク画像のR受光セルの位置には、G受光セル、B受光セルが無いため、そのR受光セルの周囲のG受光セル、B受光セルのG信号、B信号をそれぞれ補間してR受光セルの位置におけるG信号、B信号を生成し、また、モザイク画像のB受光セルの位置には、G受光セル、R受光セルが無いため、そのB受光セルの周囲のG受光セル、R受光セルのG信号、R信号をそれぞれ補間してB受光セルの位置におけるG信号、R信号を生成する。   That is, the demosaic processing unit included in the digital signal processing unit 40 has no R light receiving cell and B light receiving cell at the position of the G light receiving cell in the wide-angle image (Bayer array mosaic image). R signal and B signal of the R light receiving cell and B light receiving cell are respectively interpolated to generate R signal and B signal at the position of the G light receiving cell. Similarly, since there are no G light receiving cell and B light receiving cell at the position of the R light receiving cell in the mosaic image, the G light receiving cell around the R light receiving cell, the G signal of the B light receiving cell, and the B signal are respectively interpolated. G signal and B signal are generated at the position of the R light receiving cell, and since there are no G light receiving cell and R light receiving cell at the position of the B light receiving cell of the mosaic image, the G light receiving cells around the B light receiving cell, The G signal and R signal at the position of the B light receiving cell are generated by interpolating the G signal and R signal of the R light receiving cell, respectively.

一方、望遠画像は、図5(c2)に示したように1マイクロレンズ16a当たり8個(3×3の単位ブロックの周囲8個)のモザイク画像からなり、かつ8個の受光セル内には、RGBの全ての色情報(R受光セル、G受光セル、B受光セル)が含まれているため、デモザイク処理部は、単位ブロック内の8個の受光セルの出力信号を使用して単位ブロック毎にデモザイク処理した、画像を構成する1つの画素(RGBの画素値)を生成することができる。   On the other hand, as shown in FIG. 5 (c2), the telephoto image is composed of 8 mosaic images per microlens 16a (8 around the 3 × 3 unit block), and in the 8 light receiving cells. Since all the RGB color information (R light receiving cell, G light receiving cell, B light receiving cell) is included, the demosaic processing unit uses the output signals of the eight light receiving cells in the unit block. It is possible to generate one pixel (RGB pixel value) constituting an image, demosaiced every time.

具体的には、望遠画像のモザイク画像をデモザイク処理するデモザイク処理部は、単位ブロック内の4個のG受光セルの画素値の平均値を求めることにより、単位ブロック(1マイクロレンズ)の中心位置における画素のGの画素値を算出し、同様に単位ブロック内の2個のR受光セルの画素値の平均値、及び2個のB受光セルの画素値の平均値を求めることにより、それぞれ単位ブロックの中心位置における画素のRの画素値及びBの画素値を算出する。   Specifically, the demosaic processing unit that performs demosaic processing of the mosaic image of the telephoto image obtains the average value of the pixel values of the four G light receiving cells in the unit block, thereby obtaining the center position of the unit block (1 microlens). By calculating the G pixel value of the pixel at the same time, and similarly calculating the average value of the pixel values of the two R light receiving cells and the average value of the pixel values of the two B light receiving cells in the unit block, respectively. The R pixel value and B pixel value of the pixel at the center position of the block are calculated.

上記デモザイク処理部により生成される広角画像及び望遠画像の2つのデモザイク画像のうちの望遠画像のデモザイク画像は、単位ブロック内の8個の受光セルの出力信号を使用してデモザイク処理が行われるため、周囲の単位ブロックの受光セルの出力信号を使用(補間)してデモザイク処理が行われる広角画像のデモザイク画像よりも解像度が実質的に高いものとなる。   The demosaic image of the telephoto image of the two demosaic images of the wide-angle image and the telephoto image generated by the demosaic processing unit is demosaiced using the output signals of the eight light receiving cells in the unit block. The resolution is substantially higher than the demosaic image of the wide-angle image in which the demosaic process is performed using (interpolating) the output signals of the light receiving cells of the surrounding unit blocks.

また、デジタル信号処理部40は、デモザイク処理部によりデモザイク処理されたRGBの色情報(R信号、G信号、B信号)から輝度信号Yと色差信号Cb,Crを生成するRGB/YC変換等を行い、所定のフレームレートの広角画像及び望遠画像を示す動画記録用及び動画表示用の画像信号を生成する。   Further, the digital signal processing unit 40 performs RGB / YC conversion for generating the luminance signal Y and the color difference signals Cb, Cr from the RGB color information (R signal, G signal, B signal) demosaiced by the demosaic processing unit. And generating image signals for recording and displaying moving images indicating wide-angle images and telephoto images at a predetermined frame rate.

デジタル信号処理部40で処理された広角画像及び望遠画像を示す画像信号は、それぞれ記録部42及び表示制御部45に出力される。記録部42は、デジタル信号処理部40により処理された広角画像及び/又は望遠画像を示す動画記録用の画像信号を記録媒体(ハードディスク、メモリカード等)に記録する。尚、記録部42は、広角画像中の望遠画像に相当する画角から物体が検出された場合に望遠画像を記録し、それ以外の場合は広角画像のみを記録するようにしてもよい。   Image signals indicating the wide-angle image and the telephoto image processed by the digital signal processing unit 40 are output to the recording unit 42 and the display control unit 45, respectively. The recording unit 42 records a moving image recording image signal indicating the wide-angle image and / or the telephoto image processed by the digital signal processing unit 40 on a recording medium (hard disk, memory card, or the like). The recording unit 42 may record the telephoto image when an object is detected from the angle of view corresponding to the telephoto image in the wide-angle image, and may record only the wide-angle image otherwise.

表示部44は、表示制御部45から選択的に出力される広角画像または望遠画像を示す動画表示用の画像信号により、広角画像及び望遠画像を表示する。尚、表示部44は、記録部42に記録された画像信号に基づいて広角画像及び/又は望遠画像を再生することもできる。   The display unit 44 displays a wide-angle image and a telephoto image by an image signal for moving image display indicating a wide-angle image or a telephoto image selectively output from the display control unit 45. The display unit 44 can also reproduce a wide-angle image and / or a telephoto image based on the image signal recorded in the recording unit 42.

一方、物体検出部50は、画像取得部22が取得した広角画像を示す画素信号に基づいて撮像対象の物体を検出し、検出した物体の画像中における位置情報を表示制御部45に出力するものである。   On the other hand, the object detection unit 50 detects an object to be imaged based on the pixel signal indicating the wide-angle image acquired by the image acquisition unit 22, and outputs position information of the detected object in the image to the display control unit 45. It is.

物体検出部50における物体の検出方法としては、人物の顔認識を行う技術や、車両のナンバープレートのナンバー認識に代表される物体認識技術により特定の物体を検出する方法、又は動体を追尾対象の物体として検出する動体検出方法がある。   As a method for detecting an object in the object detection unit 50, a technique for performing human face recognition, a method for detecting a specific object by an object recognition technique represented by number recognition of a license plate of a vehicle, or a moving object is a tracking target. There is a moving object detection method for detecting an object.

物体認識による物体の検出方法は、特定の物体の見え方の特徴(人物の顔の形状や車両のナンバープレートの数字の形状など)を物体辞書として予め登録しておき、撮影された画像から位置や大きさを変えながら切り出した画像と、物体辞書とを比較しながら物体を認識する方法である。   The object detection method based on object recognition is based on the characteristics of how a particular object looks (such as the shape of a person's face or the number of a car license plate) as an object dictionary. This is a method of recognizing an object by comparing an image cut out while changing its size and an object dictionary.

シェーディング補正部70は、広角画像および望遠画像に対し、撮像部11の光軸に対応する中心点を基準に、各画像の中心から離れるに従い同心円状のシェーディング補正を強める。これは、イメージセンサ18の受光面の中心部では、光束がマイクロレンズ16の光軸に対して平行に入射するため、イメージセンサ18のフォトダイオード間で均一な明るさの信号が出力される一方、イメージセンサ18の受光面の周縁部では、光束がマイクロレンズ16の光軸に対して斜めに入射するため、光軸から遠いイメージセンサ18ほど到達する光線の光量が光軸に近い受光素子よりも少なくなり、画面の端部に行くほど画素の濃度が濃くなるからである。   The shading correction unit 70 strengthens concentric shading correction as the distance from the center of each image increases with respect to the wide-angle image and the telephoto image with reference to the center point corresponding to the optical axis of the imaging unit 11. This is because, at the center of the light receiving surface of the image sensor 18, the light beam enters in parallel to the optical axis of the microlens 16, so that a signal with uniform brightness is output between the photodiodes of the image sensor 18. At the peripheral edge of the light receiving surface of the image sensor 18, the light beam is incident obliquely with respect to the optical axis of the microlens 16. This is because the pixel density increases as the edge of the screen decreases.

図7及び図8は、それぞれ撮像された広角画像及び望遠画像の一例を示す図である。尚、広角画像中の破線で示した領域は、望遠画像の撮像範囲を示している。   7 and 8 are diagrams illustrating examples of the wide-angle image and the telephoto image that are captured, respectively. In addition, the area | region shown with the broken line in a wide angle image has shown the imaging range of the telephoto image.

いま、図7(a)及び(b)に示す広角画像I1及び望遠画像I2(広角画像I1の中の範囲Rに相当)が撮像され、かつ人物の顔を追尾対象とし、物体(顔)認識技術により人物の顔を検出する場合、広角画像では、顔を検出することができるが、望遠画像では、顔を検出することができない。望遠画像には、人物の顔の一部しか入っておらず、顔を認識することができないからである。   Now, a wide-angle image I1 and a telephoto image I2 (corresponding to a range R in the wide-angle image I1) shown in FIGS. 7A and 7B are captured, and a person's face is a tracking target, and object (face) recognition is performed. When a human face is detected by technology, a face can be detected in a wide-angle image, but a face cannot be detected in a telephoto image. This is because the telephoto image contains only a part of the human face and cannot recognize the face.

従って、この場合、人物の顔(物体)の、広角画像中の位置情報を表示制御部45に出力する。また、表示制御部45は広角画像を選択的に表示部44に出力する。すなわち、望遠画像に追尾対象の一部しか映っていない場合、広角画像を選択的に表示部44に表示することで、追尾対象を見やすくする。   Therefore, in this case, the position information of the person's face (object) in the wide-angle image is output to the display control unit 45. Further, the display control unit 45 selectively outputs a wide-angle image to the display unit 44. That is, when only a part of the tracking target is shown in the telephoto image, the wide-angle image is selectively displayed on the display unit 44 to make the tracking target easy to see.

一方、図8(a)及び(b)に示すように、広角画像I1中の望遠画像I2に相当する範囲Rで物体を検出した場合には、検出した物体の望遠画像中の位置情報を表示制御部45に出力するとともに、表示制御部45は望遠画像を選択的に表示部44に出力する。望遠画像に追尾対象が映り物体が検出された場合、広角画像よりも望遠画像の方が検出された物体を見やすいからである。   On the other hand, as shown in FIGS. 8A and 8B, when an object is detected in a range R corresponding to the telephoto image I2 in the wide-angle image I1, position information of the detected object in the telephoto image is displayed. In addition to outputting to the control unit 45, the display control unit 45 selectively outputs a telephoto image to the display unit 44. This is because when the tracking target appears in the telephoto image and an object is detected, the telephoto image is easier to see than the wide-angle image.

次に、物体検出部50における物体の検出方法として、動体を追尾対象の物体として検出する動体検出方法の一例について説明する。   Next, as an object detection method in the object detection unit 50, an example of a moving object detection method for detecting a moving object as a tracking target object will be described.

この場合、物体検出部50は、図9に示すように時系列の2枚の広角画像(前回取得した広角画像(図9(a)と、今回取得した広角画像(図9(b))の差分をとった差分画像(図9(c))を検出する。   In this case, as shown in FIG. 9, the object detection unit 50 includes two time-series wide-angle images (a wide-angle image acquired previously (FIG. 9A) and a wide-angle image acquired this time (FIG. 9B)). A difference image (FIG. 9C) obtained from the difference is detected.

図9(a)及び(b)に示す例では、物体A,Bのうちの物体Aが移動し、物体Bは停止している。   In the example shown in FIGS. 9A and 9B, the object A out of the objects A and B moves and the object B stops.

従って、図9(c)に示すように差分画像A,Aは、物体Aの移動により生じた画像である。 Therefore, as shown in FIG. 9C, the difference images A 1 and A 2 are images generated by the movement of the object A.

ここで、差分画像A,Aの重心位置を算出し、それぞれ位置P,Pとし、これらの位置P,Pを結ぶ線分の中点を、位置Gとする。そして、この位置Gを動体(物体A)の広角画像中の位置とする。 Here, the barycentric positions of the difference images A 1 and A 2 are calculated and set as positions P 1 and P 2 , respectively, and the midpoint of the line segment connecting these positions P 1 and P 2 is set as a position G. The position G is set as a position in the wide-angle image of the moving object (object A).

このようして算出した広角画像中の物体Aの位置Gが、広角画像の中心位置(光軸上の位置)に移動するように、撮像部11による撮影方向を繰り返し制御することにより、物体Aが広角画像の中心位置に移動(収束)する。   The object A is repeatedly controlled by the imaging unit 11 so that the position G of the object A in the wide-angle image calculated in this way moves to the center position (position on the optical axis) of the wide-angle image. Moves (converges) to the center position of the wide-angle image.

撮像部11が移動する場合、時系列の画像間の背景も移動することになるが、この場合には、時系列の画像間の背景が一致するように画像をシフトさせ、シフト後の画像間の差分画像をとることにより、撮像部11の移動にかかわらず、実空間内を移動する物体を検出することができる。更に、動体検出方法は、上記の実施形態に限らない。   When the imaging unit 11 moves, the background between the time-series images also moves. In this case, the images are shifted so that the background between the time-series images matches, and between the images after the shift By taking the difference image, it is possible to detect an object moving in the real space regardless of the movement of the imaging unit 11. Furthermore, the moving object detection method is not limited to the above embodiment.

<撮像制御方法>
図10は、本発明に係る撮像装置による撮像制御方法の例を示すフローチャートである。
<Imaging control method>
FIG. 10 is a flowchart illustrating an example of an imaging control method by the imaging apparatus according to the present invention.

図10において、物体検出部50は、画像取得部22から広角画像を取得し(ステップS20)、取得した広角画像から追尾対象の物体を検出する(ステップS22)。   In FIG. 10, the object detection unit 50 acquires a wide-angle image from the image acquisition unit 22 (step S20), and detects a tracking target object from the acquired wide-angle image (step S22).

続いて、物体検出部50は、ステップS22において、広角画像中で望遠画像の画角に相当する範囲から物体が検出されたか否かを判別する(ステップS24)。この範囲から物体が検出された場合(「Yes」の場合)には、物体検出部50は、検出した物体の広角画像中の位置情報を算出する(ステップS26)。表示制御部45は、デジタル信号処理部40から出力された望遠画像および広角画像のうち、望遠画像を選択的に表示部44に出力する(ステップS27)。この結果、表示部44には、望遠画像が表示される。また、記録部42は、デジタル信号処理部40により処理された望遠画像を示す動画記録用の画像信号を記録媒体に記録する(ステップS27)。これにより、例えば撮影目的の人物が検出された場合、その人物を画角内に捉えた望遠画像の記録が開始される。   Subsequently, in step S22, the object detection unit 50 determines whether an object is detected from a range corresponding to the angle of view of the telephoto image in the wide-angle image (step S24). When an object is detected from this range (in the case of “Yes”), the object detection unit 50 calculates position information of the detected object in the wide-angle image (step S26). The display control unit 45 selectively outputs the telephoto image among the telephoto image and the wide-angle image output from the digital signal processing unit 40 to the display unit 44 (step S27). As a result, a telephoto image is displayed on the display unit 44. The recording unit 42 records an image signal for recording a moving image indicating the telephoto image processed by the digital signal processing unit 40 on a recording medium (step S27). Thereby, for example, when a person to be photographed is detected, recording of a telephoto image in which the person is captured within the angle of view is started.

一方、この範囲から物体が検出されなかった場合(「No」の場合)には、ステップS28に遷移する。ここで、ステップS28からステップS32の処理は、物体検出部50は、画像取得部22から広角画像を取得し(ステップS28)、取得した広角画像から追尾対象の物体を検出し(ステップS30)、検出した物体の広角画像中の位置情報を算出する(ステップS32)。表示制御部45は、デジタル信号処理部40から出力された望遠画像および広角画像のうち、広角画像を選択的に表示部44に出力する(ステップS33)。この結果、表示部44には、広角画像が表示される。   On the other hand, when an object is not detected from this range (in the case of “No”), the process proceeds to step S28. Here, in the processing from step S28 to step S32, the object detection unit 50 acquires a wide-angle image from the image acquisition unit 22 (step S28), detects the tracking target object from the acquired wide-angle image (step S30), and Position information in the wide-angle image of the detected object is calculated (step S32). The display control unit 45 selectively outputs a wide-angle image among the telephoto image and the wide-angle image output from the digital signal processing unit 40 to the display unit 44 (step S33). As a result, a wide-angle image is displayed on the display unit 44.

次に、表示制御部45は、ステップS26又はステップS32により検出された広角画像中の物体の位置情報を出力する(ステップS34)。   Next, the display control unit 45 outputs the position information of the object in the wide-angle image detected in step S26 or step S32 (step S34).

次に、撮像が終了したか否かを判別し(ステップS36)、終了していないと判別すると、ステップS20に遷移させる。これにより、上記ステップS20からステップS36の処理が繰り返され、物体を追尾した撮像が行われる。一方、撮像が終了したと判別されると、撮像を終了する。   Next, it is determined whether or not imaging has ended (step S36). If it is determined that imaging has not ended, the process proceeds to step S20. Thereby, the processing from step S20 to step S36 is repeated, and imaging is performed by tracking the object. On the other hand, when it is determined that the imaging is finished, the imaging is finished.

<指向性センサの他の実施形態>
図11は、指向性センサの他の実施形態を示す側面図である。
<Other Embodiments of Directional Sensor>
FIG. 11 is a side view showing another embodiment of the directivity sensor.

この指向性センサ117は、瞳分割手段としてのマイクロレンズアレイ118及び遮光マスクとして機能する遮光部材120と、遮光部材120により受光セル116a、116bの一部が遮光されたイメージセンサ116とから構成されている。尚、遮光部材120により一部が遮光された受光セル116aと受光セル116bとは、イメージセンサ116の左右方向及び上下方向に交互(チェッカーフラグ状)に設けられている。   The directivity sensor 117 includes a microlens array 118 serving as a pupil dividing unit, a light shielding member 120 functioning as a light shielding mask, and an image sensor 116 in which a part of the light receiving cells 116 a and 116 b is shielded from light by the light shielding member 120. ing. The light receiving cells 116a and the light receiving cells 116b partially shielded by the light shielding member 120 are provided alternately (checker flag shape) in the horizontal direction and the vertical direction of the image sensor 116.

マイクロレンズアレイ118は、イメージセンサ116の受光セル116a、116bと一対一に対応するマイクロレンズ118aを有している。   The microlens array 118 includes microlenses 118 a that correspond one-to-one with the light receiving cells 116 a and 116 b of the image sensor 116.

遮光部材120は、イメージセンサ116の受光セル116a、116bの開口を規制するものであり、図2に示した撮影光学系12の中央光学系13及び環状光学系14に対応する開口形状を有している。尚、マイクロレンズアレイ118の各レンズの下方には、赤(R)、緑(G)、青(B)のカラーフィルタが配設されている。   The light shielding member 120 regulates the opening of the light receiving cells 116a and 116b of the image sensor 116, and has an opening shape corresponding to the central optical system 13 and the annular optical system 14 of the photographing optical system 12 shown in FIG. ing. Note that red (R), green (G), and blue (B) color filters are disposed below each lens of the microlens array 118.

受光セル116aは、遮光部材120の遮光部120aによりその開口の周辺部が遮光され、一方、受光セル116bは、遮光部材120の遮光部120bによりその開口の中心部が遮光されている。これにより、撮影光学系12の中央光学系13を通過した光束は、マイクロレンズアレイ118及び遮光部材120の遮光部120aにより瞳分割されて受光セル116aに入射し、一方、撮影光学系12の環状光学系14を通過した光束は、マイクロレンズアレイ118及び遮光部材120の遮光部120bにより瞳分割されて受光セル116bに入射する。   In the light receiving cell 116a, the periphery of the opening is shielded by the light shielding portion 120a of the light shielding member 120, while in the light receiving cell 116b, the central portion of the opening is shielded by the light shielding portion 120b of the light shielding member 120. As a result, the light beam that has passed through the central optical system 13 of the photographic optical system 12 is pupil-divided by the microlens array 118 and the light shielding portion 120a of the light shielding member 120 and enters the light receiving cell 116a. The light beam that has passed through the optical system 14 is divided into pupils by the microlens array 118 and the light shielding portion 120b of the light shielding member 120, and enters the light receiving cell 116b.

これにより、イメージセンサ116の各受光セル116aから広角画像の画素信号を読み出すことができ、イメージセンサ116の各受光セル116bから望遠画像の画素信号を読み出すことができる。   Thereby, the pixel signal of the wide-angle image can be read from each light receiving cell 116a of the image sensor 116, and the pixel signal of the telephoto image can be read from each light receiving cell 116b of the image sensor 116.

<撮像部の他の実施形態>
次に、本発明に係る撮像装置に適用される撮像部の他の実施形態について説明する。
<Other Embodiments of Imaging Unit>
Next, another embodiment of the imaging unit applied to the imaging apparatus according to the present invention will be described.

図12は、撮像装置10に適用可能な撮像部の他の実施形態を示す断面図である。   FIG. 12 is a cross-sectional view illustrating another embodiment of an imaging unit applicable to the imaging device 10.

この撮像部は、撮影光学系112と、指向性センサ17とから構成されている。尚、指向性センサ17は、図2及び図3に示したものと同一であるため、以下、撮影光学系112について説明する。   The imaging unit includes a photographic optical system 112 and a directivity sensor 17. Since the directivity sensor 17 is the same as that shown in FIGS. 2 and 3, the photographing optical system 112 will be described below.

この撮影光学系112は、それぞれ同一の光軸上に配置された中央部の中央光学系113とその周辺部の環状光学系114とから構成されている。   The photographing optical system 112 includes a central optical system 113 at the center and an annular optical system 114 at the periphery thereof arranged on the same optical axis.

中央光学系113は、第1レンズ113a、第2レンズ113b、及び共通レンズ115から構成された望遠光学系であり、画角αを有している。   The central optical system 113 is a telephoto optical system including a first lens 113a, a second lens 113b, and a common lens 115, and has an angle of view α.

環状光学系114は、レンズ114a及び共通レンズ115から構成された広角光学系であり、画角β(β>α)を有し、中央光学系113よりも広角である。   The annular optical system 114 is a wide-angle optical system including a lens 114 a and a common lens 115, has an angle of view β (β> α), and is wider than the central optical system 113.

この撮影光学系112は、図2に示した撮影光学系12と比較すると、反射ミラーを使用しておらず、また、中央光学系113が望遠光学系であり、環状光学系114が広角光学系である点で相違する。   Compared with the photographing optical system 12 shown in FIG. 2, the photographing optical system 112 does not use a reflecting mirror, the central optical system 113 is a telephoto optical system, and the annular optical system 114 is a wide-angle optical system. It is different in that.

<可変NDフィルタの他の配置例>
図13のように、中央光学系13の光源側に、広角用可変NDフィルタ64aを設けるとともに、環状光学系14の光源側に望遠用可変NDフィルタ64bを設け、それぞれの透過率をレンズCPU65にて個別に制御することで、撮影光学系12へ入射する被写体像の受光量を個別に調節してもよい。
<Other arrangement examples of variable ND filter>
As shown in FIG. 13, a wide-angle variable ND filter 64 a is provided on the light source side of the central optical system 13, and a telephoto variable ND filter 64 b is provided on the light source side of the annular optical system 14. Thus, the amount of light received by the subject image incident on the photographic optical system 12 may be individually adjusted by controlling each of them individually.

[その他]
本実施形態の撮影光学系は、第1の光学系の周辺部に設けられた第2の光学系を、環状光学系としたが、これに限らず、光軸を中心とした同心円上に配設した複数の光学系により構成されたものでもよい。
[Others]
In the photographing optical system of the present embodiment, the second optical system provided in the peripheral portion of the first optical system is an annular optical system, but is not limited to this, and is arranged on a concentric circle with the optical axis as the center. It may be configured by a plurality of optical systems provided.

また、図2に示した撮影光学系12の反射ミラー型のレンズ構成のうちの反射ミラーは、凹面鏡や凸面鏡に限らず、平面鏡でもよく、また、反射ミラーの枚数も2枚に限らず、3枚以上設けるようにしてもよい。   2 is not limited to a concave mirror or a convex mirror, and may be a plane mirror, and the number of reflection mirrors is not limited to two. You may make it provide more sheets.

更に、焦点調整部は、中央光学系及び環状光学系の共通レンズ、又はイメージセンサを光軸方向に移動させるものでもよい。   Further, the focus adjustment unit may move the common lens of the central optical system and the annular optical system or the image sensor in the optical axis direction.

更にまた、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。   Furthermore, it goes without saying that the present invention is not limited to the embodiments described above, and various modifications can be made without departing from the spirit of the present invention.

10…撮像装置、11…撮像部、12、112…撮影光学系、13、113…中央光学系、14、114…環状光学系、16、118…マイクロレンズアレイ、16a、118a…マイクロレンズ、17、117…指向性センサ、18、116…イメージセンサ、18a、116a、116b…受光セル、22…画像取得部、42…記録部、50…物体検出部、120…遮光部材
DESCRIPTION OF SYMBOLS 10 ... Imaging device, 11 ... Image pick-up part, 12, 112 ... Shooting optical system, 13, 113 ... Central optical system, 14, 114 ... Annular optical system, 16, 118 ... Micro lens array, 16a, 118a ... Micro lens, 17 DESCRIPTION OF SYMBOLS 117 ... Directional sensor 18, 116 ... Image sensor, 18a, 116a, 116b ... Light receiving cell, 22 ... Image acquisition part, 42 ... Recording part, 50 ... Object detection part, 120 ... Light shielding member

Claims (13)

それぞれ同一の光軸上に配置された中央部の中央光学系とその周辺部の環状光学系とからなる撮影光学系と、
2次元状に配列された光電変換素子により構成された複数の画素を有する指向性センサであって、前記中央光学系及び前記環状光学系を介して入射する光束をそれぞれ瞳分割して選択的に受光する複数の画素を含む指向性センサと、
前記中央光学系を介して受光した第1画像を示す画像信号と前記環状光学系を介して受光した第2画像を示す画像信号とをそれぞれ前記指向性センサから取得する画像読み出し装置と、
前記中央光学系から前記指向性センサに入射する光束の第1の光路および前記環状光学系から前記指向性センサに入射する光束の第2の光路であって前記第1の光路と前記第2の光路とが互いに重複しない光路のそれぞれに個別に配置された絞りと、
を備える撮像装置。
An imaging optical system composed of a central optical system at the center and an annular optical system at the periphery thereof, each disposed on the same optical axis,
A directional sensor having a plurality of pixels configured by two-dimensionally arranged photoelectric conversion elements, wherein light beams incident through the central optical system and the annular optical system are selectively divided by pupils. A directional sensor including a plurality of pixels for receiving light;
An image reading device for acquiring from the directivity sensor an image signal indicating a first image received via the central optical system and an image signal indicating a second image received via the annular optical system;
A first optical path of a light beam incident on the directional sensor from the central optical system and a second optical path of a light beam incident on the directional sensor from the annular optical system, the first optical path and the second optical path. An aperture individually disposed in each of the optical paths that do not overlap with each other;
An imaging apparatus comprising:
前記中央光学系から前記指向性センサに入射する光束の光路および前記環状光学系から前記指向性センサに入射する光束の第3の光路であって前記第1の光路と前記第2の光路とが重複する第3の光路に配置された光量調節手段をさらに備える請求項1に記載の撮像装置。   An optical path of a light beam incident on the directional sensor from the central optical system and a third optical path of a light beam incident on the directional sensor from the annular optical system, wherein the first optical path and the second optical path are The imaging apparatus according to claim 1, further comprising a light amount adjusting unit disposed in the overlapping third optical path. 前記環状光学系は、光束を2回以上反射させる反射光学系を有し、
前記光量調節手段は、前記環状光学系の反射光学系で2回以上反射され前記指向性センサに入射する光束の光路に配置される請求項2に記載の撮像装置。
The annular optical system has a reflection optical system that reflects a light beam twice or more,
The imaging apparatus according to claim 2, wherein the light amount adjusting unit is disposed in an optical path of a light beam that is reflected twice or more by the reflection optical system of the annular optical system and enters the directivity sensor.
前記光量調節手段は可変NDフィルタである請求項2または3に記載の撮像装置。   The imaging apparatus according to claim 2, wherein the light amount adjusting unit is a variable ND filter. 前記第1の光路に配置された第1の光量調節手段と前記第2の光路に配置された第2の光量調節手段とをさらに備える請求項1に記載の撮像装置。   The imaging apparatus according to claim 1, further comprising a first light amount adjusting unit disposed in the first optical path and a second light amount adjusting unit disposed in the second optical path. 前記第1の光量調節手段および第2の光量調節手段は可変NDフィルタである請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the first light amount adjusting unit and the second light amount adjusting unit are variable ND filters. 前記指向性センサは、像面位置における前記中央光学系及び前記環状光学系の瞳形状に応じた指向特性のものが使用される請求項1〜6のいずれか1項に記載の撮像装置。   The imaging device according to claim 1, wherein the directional sensor has a directional characteristic corresponding to a pupil shape of the central optical system and the annular optical system at an image plane position. 前記指向性センサは、瞳分割手段として機能する複数のマイクロレンズを有し、
前記複数のマイクロレンズの1マイクロレンズ当たりに割り当てられる画素の数及び/又は位置は、前記中央光学系及び前記環状光学系の瞳位置と形状に応じた数及び/又は位置となる請求項7に記載の撮像装置。
The directivity sensor has a plurality of microlenses that function as pupil dividing means,
The number and / or position of pixels allocated per microlens of the plurality of microlenses is a number and / or position corresponding to the pupil position and shape of the central optical system and the annular optical system. The imaging device described.
前記指向性センサは、瞳分割手段として機能するマイクロレンズを有し、当該マイクロレンズにより瞳像を分離してそれぞれ入射させる、1マイクロレンズ当たりの前記画素の個数が、像高が高くなるにしたがって少なくなるように割り当てられている請求項7又は8に記載の撮像装置。   The directivity sensor has a microlens that functions as pupil dividing means, and separates the pupil image by the microlens and makes each incident, as the image height increases as the number of pixels per microlens increases. The imaging device according to claim 7 or 8, wherein the imaging device is allocated so as to decrease. 前記撮影光学系の光軸に対応する中心点を基準にした距離に応じて、前記第1画像および前記第2画像のシェーディング補正を実施するシェーディング補正部をさらに備える請求項1〜9のいずれか1項に記載の撮像装置。   The shading correction part which performs the shading correction | amendment of the said 1st image and the said 2nd image according to the distance on the basis of the center point corresponding to the optical axis of the said imaging | photography optical system is further provided. The imaging apparatus according to item 1. 前記環状光学系は、光束を2回以上反射させる反射光学系を有し、
前記絞りは、前記環状光学系の反射光学系で2回以上反射される前の光束の光路に配置される請求項1〜10のいずれか1項に記載の撮像装置。
The annular optical system has a reflection optical system that reflects a light beam twice or more,
The imaging device according to any one of claims 1 to 10, wherein the diaphragm is disposed in an optical path of a light beam before being reflected twice or more by the reflection optical system of the annular optical system.
前記中央光学系は前記環状光学系より広角である請求項1〜11のいずれか1項に記載の撮像装置。   The imaging device according to claim 1, wherein the central optical system has a wider angle than the annular optical system. 前記第1画像および前記第2画像を、選択的、重畳的、または並列的に表示装置に表示させる表示制御部をさらに備える請求項1〜12のいずれか1項に記載の撮像装置。   The imaging device according to claim 1, further comprising: a display control unit that causes the display device to display the first image and the second image selectively, in a superimposed manner, or in parallel.
JP2014171800A 2014-08-26 2014-08-26 Imaging device Pending JP2016046773A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014171800A JP2016046773A (en) 2014-08-26 2014-08-26 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014171800A JP2016046773A (en) 2014-08-26 2014-08-26 Imaging device

Publications (1)

Publication Number Publication Date
JP2016046773A true JP2016046773A (en) 2016-04-04

Family

ID=55636915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014171800A Pending JP2016046773A (en) 2014-08-26 2014-08-26 Imaging device

Country Status (1)

Country Link
JP (1) JP2016046773A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024014415A1 (en) * 2022-07-13 2024-01-18 京セラ株式会社 Imaging method, learning method, learning data generation method, and data structure

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024014415A1 (en) * 2022-07-13 2024-01-18 京セラ株式会社 Imaging method, learning method, learning data generation method, and data structure

Similar Documents

Publication Publication Date Title
JP6027560B2 (en) Automatic tracking imaging device
JP6641470B2 (en) Stereo camera and stereo camera control method
JP6302085B2 (en) Imaging apparatus and object recognition method
US9681057B2 (en) Exposure timing manipulation in a multi-lens camera
JP5572765B2 (en) Solid-state imaging device, imaging apparatus, and focusing control method
JP5619294B2 (en) Imaging apparatus and focusing parameter value calculation method
JP5629832B2 (en) Imaging device and method for calculating sensitivity ratio of phase difference pixel
CN105306786A (en) Image processing methods for image sensors with phase detection pixels
KR20170032227A (en) Compound-eye imaging device
EP2690871A1 (en) Color image sensor, imaging device, and imaging program
JP4858179B2 (en) Focus detection apparatus and imaging apparatus
JP2008177903A (en) Imaging device
WO2017126242A1 (en) Image capture device and image data generation method
US20200092489A1 (en) Optical apparatus, control method, and non-transitory computer-readable storage medium
JP2016048824A (en) Tracking device, tracking system and display device
WO2017029827A1 (en) Imaging device, imaging method, program, and non-temporary recording medium
EP2696585A1 (en) Color image capturing element, image capturing device, and image capturing program
JP2016048282A (en) Imaging apparatus
JPWO2019202984A1 (en) Imaging device and distance measurement method, distance measurement program and recording medium
JP2016048825A (en) Imaging apparatus
JP2016046773A (en) Imaging device
JP2016046771A (en) Imaging device, imaging system, and display device
JP2016046774A (en) Imaging device
JP6619513B2 (en) Imaging apparatus, imaging method, program, and non-transitory recording medium
JP7397626B2 (en) Imaging device and its control method