JP2015103885A - Compound-eye imaging device - Google Patents
Compound-eye imaging device Download PDFInfo
- Publication number
- JP2015103885A JP2015103885A JP2013241466A JP2013241466A JP2015103885A JP 2015103885 A JP2015103885 A JP 2015103885A JP 2013241466 A JP2013241466 A JP 2013241466A JP 2013241466 A JP2013241466 A JP 2013241466A JP 2015103885 A JP2015103885 A JP 2015103885A
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- image
- imaging optical
- view
- optical system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
Description
本発明は、複数の結像光学系を有し、結像光学系ごとに撮像(光電変換)を行う撮像領域を有する複眼撮像装置に関する。 The present invention relates to a compound-eye imaging device having a plurality of imaging optical systems and having an imaging region for performing imaging (photoelectric conversion) for each imaging optical system.
複眼撮像装置は、通常の撮像装置が有する1つの結像光学系(レンズ)を複数に分割することによって、個々のレンズの小型化を実現する。特許文献1には、互いに画角(焦点距離)が異なる2種類のレンズを有し、同じ被写体を異なる画角で撮像する複眼撮像装置が開示されている。この複眼撮像装置では、画角が広い短焦点レンズに対して設けられた撮像素子により得られるワイド画像の一部領域に、画角が狭い長焦点レンズに対して設けられた撮像素子により得られるズームアップ画像を合成する。これにより、上記一部領域の解像度が高く、その他の領域の解像度は低いが、全体として広い画角の画像を得ることができる。 The compound-eye imaging device realizes miniaturization of individual lenses by dividing one imaging optical system (lens) of a normal imaging device into a plurality of parts. Patent Document 1 discloses a compound eye imaging apparatus that has two types of lenses having different angles of view (focal lengths) and images the same subject at different angles of view. In this compound-eye imaging device, a partial area of a wide image obtained by an image sensor provided for a short focus lens having a wide angle of view is obtained by an image sensor provided for a long focus lens having a narrow angle of view. Synthesize the zoomed-up image. Thereby, although the resolution of the partial area is high and the resolution of the other areas is low, an image having a wide angle of view as a whole can be obtained.
ただし、特許文献1にて開示された複眼撮像装置では、短焦点レンズと長焦点レンズとがそれらの光軸に直交する方向に離間して配置されている。このため、短焦点レンズにより得られるワイド画像と長焦点レンズによって得られるズームアップ画像との間には視差があり、合成画像内で被写体の位置にずれが生じる。 However, in the compound eye imaging device disclosed in Patent Document 1, the short focus lens and the long focus lens are arranged apart from each other in a direction orthogonal to their optical axes. For this reason, there is a parallax between the wide image obtained by the short focus lens and the zoomed-up image obtained by the long focus lens, and the subject position is deviated in the composite image.
特許文献2には、複数の視点からの撮像により得られる画像を合成する際の被写体位置ずれを低減させることができるようにした複眼撮像装置が開示されている。この複眼撮像装置では、第1レンズの光軸位置(または複数の第1レンズの光軸の重心位置)を中心として、第1レンズとはF値等の光学特性が異なる複数の第2レンズを同心円上に配置している。そして、複数の第2レンズを通した撮像によって得られた複数の画像を、これらに含まれる同一の被写体領域が重なり合うように互いにずらして合成し、さらにこの合成画像の被写体領域に第1レンズを通した撮像により得られた画像の被写体領域を合成する。 Patent Document 2 discloses a compound eye imaging device capable of reducing subject position shift when images obtained by imaging from a plurality of viewpoints are combined. In this compound-eye imaging device, a plurality of second lenses having optical characteristics such as F-number and the like different from those of the first lens with the optical axis position of the first lens (or the center of gravity of the optical axes of the plurality of first lenses) as the center They are arranged on concentric circles. Then, the plurality of images obtained by imaging through the plurality of second lenses are combined while being shifted from each other so that the same subject areas included in these images overlap, and the first lens is placed on the subject area of the composite image. The subject area of the image obtained by passing the image is combined.
なお、複数の視点から得られる画像を切り替えて表示する際に、滑らかで違和感のない中間視点画像を生成することができる画像生成装置が特許文献3にて開示されている。この画像生成装置は、複数の視点から撮像された複数の画像からそれら画像に含まれる同一の被写体の床面上での位置を取得するとともに、それらの位置の中間点を決定し、その中間点に被写体が存在する中間視点画像を生成する。 Note that Patent Document 3 discloses an image generation apparatus that can generate an intermediate viewpoint image that is smooth and has no sense of incongruity when switching and displaying images obtained from a plurality of viewpoints. This image generation device acquires the position on the floor surface of the same subject included in the images from a plurality of images taken from a plurality of viewpoints, determines an intermediate point between the positions, and determines the intermediate point An intermediate viewpoint image in which a subject exists is generated.
特許文献2にて開示された複眼撮像装置が採用しているレンズの配置および画像合成方法は、平面的な被写体に対しては被写体位置ずれを低減しつつ良好な被写体領域の画質を得ることは可能である。しかしながら、立体的な被写体に対しては、第1および第2レンズのそれぞれの視点からは被写体が幾何的に変形したように撮像されるため、それらの撮像により得られた画像を単純に合成することはできない。しかも、特許文献2には、第1および第2レンズが同一画角を有する場合のレンズ配置と画像合成方法については詳しく説明されているが、第1および第2レンズが異なる画角を有する場合のレンズ配置や画像合成方法について明確に説明されていない。第1および第2レンズが異なる画角を有する場合に、特許文献2にて説明されているような単純な方法では画像合成を行うことができない。 The lens arrangement and the image composition method employed by the compound-eye imaging device disclosed in Patent Document 2 can obtain a good subject region image quality while reducing subject positional deviation for a planar subject. Is possible. However, for a three-dimensional subject, since the subject is imaged as if it were geometrically deformed from the respective viewpoints of the first and second lenses, the images obtained by the imaging are simply synthesized. It is not possible. Moreover, Patent Document 2 describes in detail the lens arrangement and the image composition method when the first and second lenses have the same angle of view, but the first and second lenses have different angles of view. The lens arrangement and image composition method are not clearly described. When the first and second lenses have different angles of view, image synthesis cannot be performed by a simple method as described in Patent Document 2.
さらに、特許文献3にて開示された画像生成装置では、被写体の位置の基準となる床面が存在していることが前提であるが、一般的な撮像環境には床面が存在しない場合も多く、この場合には該画像生成装置によって中間視点画像を生成することができない。 Furthermore, in the image generation apparatus disclosed in Patent Document 3, it is assumed that a floor surface serving as a reference for the position of the subject exists, but there may be a case where the floor surface does not exist in a general imaging environment. In many cases, an intermediate viewpoint image cannot be generated by the image generation apparatus.
本発明は、異なる画角の結像光学系で異なる視点から立体的な被写体を撮像する場合に、画角の切り替え時に生ずる被写体位置ずれを容易に低減することが可能な複眼撮像装置を提供する。 The present invention provides a compound-eye imaging device that can easily reduce subject position shift that occurs when the angle of view is switched when imaging a stereoscopic subject from different viewpoints with an imaging optical system having different angles of view. .
本発明の一側面としての複眼撮像装置は、それぞれの光軸に直交する方向に互いに離間して配置された複数の結像光学系と、該複数の結像光学系のそれぞれを通した被写体の撮像を行うための撮像領域が該結像光学系ごとに設けられた撮像手段とを有する。複数の結像光学系は、それぞれ第1の画角を有する複数の第1の結像光学系と、第1の画角よりも広い第2の画角を有する少なくとも1つの第2の結像光学系とを含む。そして、光軸方向視において、前記複数の第1の結像光学系のそれぞれの光軸の位置を結ぶ線によって囲まれた第1の領域内に上記少なくとも1つの第2の結像光学系の光軸が配置されていることを特徴とする。 A compound eye imaging device according to one aspect of the present invention includes a plurality of imaging optical systems that are spaced apart from each other in a direction orthogonal to the respective optical axes, and an object that passes through each of the plurality of imaging optical systems. An imaging region for imaging is provided with an imaging unit provided for each imaging optical system. The plurality of imaging optical systems includes a plurality of first imaging optical systems each having a first angle of view, and at least one second imaging having a second angle of view wider than the first angle of view. And an optical system. When viewed in the optical axis direction, the at least one second imaging optical system has a first area surrounded by a line connecting the optical axis positions of the plurality of first imaging optical systems. An optical axis is arranged.
本発明によれば、異なる画角を有する第1および第2の結像光学系を有するため、変倍用の光学素子を光軸方向に移動させるようなズーム機構を備えることなくズーミングが可能な小型(薄型)の撮像装置を実現することができる。しかも、複数の第1の結像光学系のそれぞれの光軸の位置を結ぶ線によって囲まれた第1の領域内に第2の結像光学系の光軸を配置している。このため、複数の第1の結像光学系を通して得られた画像のそれぞれの視点位置を、第2の結像光学系を通して得られる画像を基準として精度良く変更することが可能となる。このため、立体的な被写体を撮像する場合でも、画角の切り替え時に生ずる被写体位置ずれを低減することができる。 According to the present invention, since the first and second imaging optical systems having different angles of view are provided, zooming is possible without providing a zoom mechanism that moves the optical element for zooming in the optical axis direction. A small (thin) imaging device can be realized. In addition, the optical axis of the second imaging optical system is arranged in a first region surrounded by a line connecting the positions of the optical axes of the plurality of first imaging optical systems. For this reason, it becomes possible to change each viewpoint position of the image obtained through the plurality of first imaging optical systems with high accuracy on the basis of the image obtained through the second imaging optical system. For this reason, even when a three-dimensional subject is imaged, it is possible to reduce subject position deviation that occurs when the angle of view is switched.
以下、本発明の実施例について図面を参照しながら説明する。 Embodiments of the present invention will be described below with reference to the drawings.
本発明の実施例である複眼撮像装置は、互いに画角(焦点距離)が異なる複数の単焦点結像光学系を有することで、変倍用の光学素子を光軸方向に移動させるズーム機構を設ける必要をなくし、高いズーム比を確保しつつも装置の薄型化を図っている。そして、本実施例の複眼撮像装置は、離散的に画角が異なる複数の結像光学系を通した撮像により得られた(以下、単に結像光学系を通して得られたという)の画像を用いて、連続的に画角が変化する画像を生成することが可能である。ある画角の結像光学系を通して得られた画像の一部をトリミングし、このトリミングした範囲を所定のサイズに拡大することによって擬似的なズーミング効果を得られるデジタルズームは一般の撮像装置にも搭載されている。本実施例の複眼撮像装置は、複数の結像光学系が有する離散的な画角間をデジタルズーム処理によって補間することにより連続ズーミングを可能とする。本実施例では、このデジタルズーム処理を、中間画角画像生成処理ともいう。 A compound-eye imaging apparatus according to an embodiment of the present invention includes a zoom mechanism that moves a zooming optical element in the optical axis direction by including a plurality of single-focus imaging optical systems having different angles of view (focal lengths). There is no need to provide the device, and the device is made thinner while ensuring a high zoom ratio. The compound-eye imaging apparatus of the present embodiment uses an image obtained by imaging through a plurality of imaging optical systems having discretely different angles of view (hereinafter simply referred to as being obtained through the imaging optical system). Thus, it is possible to generate an image whose angle of view continuously changes. A digital zoom that can obtain a pseudo zooming effect by trimming a part of an image obtained through an imaging optical system with a certain angle of view and expanding the trimmed range to a predetermined size is also installed in general imaging devices. Has been. The compound-eye imaging apparatus of the present embodiment enables continuous zooming by interpolating between discrete field angles of a plurality of imaging optical systems by digital zoom processing. In the present embodiment, this digital zoom processing is also referred to as intermediate angle of view image generation processing.
また、本実施例の複眼撮像装置は、デジタルズームにより得られる画像の一部に、望遠レンズに相当する結像光学系を通して得られる望遠画像を合成する。これにより、該望遠画像の部分は解像度が高く、かつ他の部分の解像度は低いが広い画角を有する合成画像を生成することができる。本実施例では、この画像合成を、異画角画像合成処理という。 Further, the compound-eye imaging apparatus of the present embodiment combines a telephoto image obtained through an imaging optical system corresponding to a telephoto lens with a part of an image obtained by digital zoom. As a result, it is possible to generate a composite image having a wide field angle although the resolution of the portion of the telephoto image is high and the resolution of other portions is low. In the present embodiment, this image synthesis is referred to as different angle-of-view image synthesis processing.
これら中間画角画像生成処理や異画角画像合成処理では、得たい画角の画像の合成に用いる画像をその画角に近い画角を有する結像光学系を通して取得する。このため、一つの画角の結像光学系を通して得られた画像から単純にデジタルズームのみによって画角を変化させる場合に比べて高いズーム比を得つつも高画質の画像を生成することができる。 In these intermediate angle-of-view image generation processing and different angle-of-view angle image synthesis processing, an image used to synthesize an image with the desired angle of view is acquired through an imaging optical system having an angle of view close to that angle of view. For this reason, it is possible to generate a high-quality image while obtaining a high zoom ratio as compared with a case where the angle of view is simply changed only by digital zoom from an image obtained through an imaging optical system having one angle of view.
ただし、実施例の複眼撮像装置に設けられている複数の結像光学系は、それぞれの光軸に直交する方向に互いに離間して配置され、これら結像光学系のそれぞれを通した被写体の撮像を行うための撮像領域(光電変換領域)が結像光学系ごとに設けられている。このため、画角が異なる結像光学系を通して得られる画像間には視差がある。そして、この視差によって、画角の変更に伴い画像内での被写体の位置が大きく移動してしまう。その原因と原理について図13および図14を用いて説明する。 However, the plurality of imaging optical systems provided in the compound-eye imaging apparatus of the embodiment are arranged apart from each other in the direction orthogonal to the respective optical axes, and the subject is imaged through each of these imaging optical systems. An imaging region (photoelectric conversion region) for performing the above is provided for each imaging optical system. For this reason, there is a parallax between images obtained through imaging optical systems having different angles of view. Then, due to this parallax, the position of the subject in the image greatly moves with the change of the angle of view. The cause and principle will be described with reference to FIGS.
図13には、撮像装置C1,C2,C3がそれぞれある距離(基線長)だけ離間して配置され、各撮像装置から被写体距離Laだけ離れた被写体Aと、被写体距離Lbだけ離れた被写体Bとを撮像している様子を示している。図14には、撮像装置C1,C2,C3での撮像によりそれぞれ得られる画像を示している。これらの図から分かるように、基線長と被写体距離とに応じた幾何学的な関係により、画像内での被写体Aおよび被写体Bの位置がそれぞれ異なる量ずつずれる。つまり、視点に応じて画像上の被写体の位置が移動する。 In FIG. 13, the imaging devices C1, C2, and C3 are spaced apart from each other by a certain distance (baseline length), and a subject A that is separated from each imaging device by a subject distance La and a subject B that is separated by a subject distance Lb. Is shown. FIG. 14 shows images obtained by imaging with the imaging devices C1, C2, and C3, respectively. As can be seen from these figures, the positions of the subject A and the subject B in the image are shifted by different amounts due to the geometric relationship according to the base line length and the subject distance. That is, the position of the subject on the image moves according to the viewpoint.
このため、本実施例の複眼撮像装置は、画角と視点が異なる結像光学系を用いて画像内での被写体位置のずれを低減した画角の変更を行えるように、以下の構成を有する。すなわち、本実施例では、複数の結像光学系として、それぞれ第1の画角を有する複数の第1の結像光学系と、第1の画角よりも広い第2の画角を有する少なくとも1つの第2の結像光学系とを設ける。そして、光軸方向視において、複数の第1の結像光学系のそれぞれの光軸の位置を結ぶ線によって囲まれた第1の領域内に第2の結像光学系の光軸を配置している。このような構成によれば、第1の領域内に光軸が配置された第2の結像光学系を通して得られた画像を基準として、複数の第1の結像光学系を通して得られた画像のそれぞれの視点位置を精度良く変更することができる。そのため、画角の変更に伴う被写体位置ずれを容易に低減することができる。 For this reason, the compound-eye imaging apparatus of the present embodiment has the following configuration so that the angle of view can be changed while reducing the deviation of the subject position in the image using an imaging optical system having a different angle of view and viewpoint. . That is, in the present embodiment, as the plurality of imaging optical systems, a plurality of first imaging optical systems each having a first field angle and at least a second field angle wider than the first field angle. One second imaging optical system is provided. Then, when viewed in the optical axis direction, the optical axis of the second imaging optical system is disposed in the first region surrounded by a line connecting the positions of the optical axes of the plurality of first imaging optical systems. ing. According to such a configuration, an image obtained through the plurality of first imaging optical systems on the basis of the image obtained through the second imaging optical system in which the optical axis is disposed in the first region. Each viewpoint position can be changed with high accuracy. For this reason, it is possible to easily reduce the subject position shift accompanying the change in the angle of view.
また、本実施例においては、複数の結像光学系の互いに異なる画角(第1および第2の画角だけでなく、これらの間の第3の画角や第4の画角も含む)のうち、いずれかの画角Wと該画角Wの次に狭い画角Wnとが、以下の式(1)の条件を満足することが望ましい。
1.1≦W/Wn≦3 ...(1)
W/Wnの値が式(1)の下限値を下回ると、複眼撮像装置の高ズーム比を達成するために非常に多くの結像光学系が必要となるため、装置が大型化してしまうので好ましくない。また、W/Wnの値が式(1)の上限値を上回ると、後述する画素ずらし合成画像を生成しても高解像度を保つことが困難となり、ズーム後の画質が劣化するので好ましくない。
Further, in the present embodiment, different angles of view of the plurality of imaging optical systems (including not only the first and second angles of view, but also the third angle of view and the fourth angle of view between them). Among these, it is desirable that any one of the angle of view W and the angle of view Wn next to the angle of view W satisfy the condition of the following expression (1).
1.1 ≦ W / Wn ≦ 3. . . (1)
If the value of W / Wn is below the lower limit of the formula (1), a large number of imaging optical systems are required to achieve a high zoom ratio of the compound-eye imaging device, and the device becomes large. It is not preferable. Further, if the value of W / Wn exceeds the upper limit value of Expression (1), it is difficult to maintain a high resolution even when a pixel-shifted composite image described later is generated, and the image quality after zooming deteriorates, which is not preferable.
以下、本実施例の具体的な構成例を実施例1〜4として示す。 Hereinafter, specific configuration examples of this embodiment will be shown as Embodiments 1 to 4.
図1には、本発明の実施例1である複眼撮像装置の結像光学部100を光軸方向から見て(つまりは光軸方向視にて)示している。結像光学部100は、複数の結像光学系110a,110b,110c,110d,120a,120b,120c,120dを有する。これら複数の結像光学系110a〜110d,120a〜120dは、それぞれの光軸に直交する2次元方向に互いに離間して配置されている。また、これら結像光学系110a〜110d,120a〜120dの光軸は互いに平行に延びている。 FIG. 1 shows the imaging optical unit 100 of the compound-eye imaging apparatus that is Embodiment 1 of the present invention when viewed from the optical axis direction (that is, viewed from the optical axis direction). The imaging optical unit 100 includes a plurality of imaging optical systems 110a, 110b, 110c, 110d, 120a, 120b, 120c, and 120d. The plurality of image forming optical systems 110a to 110d and 120a to 120d are arranged apart from each other in a two-dimensional direction orthogonal to the respective optical axes. The optical axes of the imaging optical systems 110a to 110d and 120a to 120d extend in parallel to each other.
結像光学系110a〜110dは、第1の画角(焦点距離)θを有する第1の結像光学系であり、以下、これら第1の結像光学系110a〜110dをまとめて第1の結像光学系群ともいう。第1の画角θは、本実施例の複眼撮像装置において最も狭い画角である望遠端画角に相当する。また、結像光学系120a〜120dは、第1の画角θよりも広い第2の画角(本実施例では第1の画角θの2倍である2θ)を有する第2の結像光学系であり、以下、これら第2の結像光学系120a〜120dをまとめて第2の結像光学系群ともいう。第2の画角2θは、本実施例の複眼撮像装置において最も広い画角である広角端画角に相当する。本実施例では、垂直方向に並んだ2つの第1の結像光学系と垂直方向に並んだ2つの第2の結像光学系とが、水平方向に(図1中の左から右に)交互に配置されている。 The imaging optical systems 110a to 110d are first imaging optical systems having a first angle of view (focal length) θ, and hereinafter, the first imaging optical systems 110a to 110d are collectively referred to as a first. Also called an imaging optical system group. The first angle of view θ corresponds to the telephoto end angle of view which is the narrowest angle of view in the compound-eye imaging device of the present embodiment. Further, the imaging optical systems 120a to 120d have a second imaging with a second field angle (2θ which is twice the first field angle θ in this embodiment) wider than the first field angle θ. Hereinafter, these second imaging optical systems 120a to 120d are collectively referred to as a second imaging optical system group. The second field angle 2θ corresponds to the wide-angle end field angle that is the widest field angle in the compound-eye imaging apparatus of the present embodiment. In the present embodiment, the two first imaging optical systems arranged in the vertical direction and the two second imaging optical systems arranged in the vertical direction are in the horizontal direction (from left to right in FIG. 1). Alternatingly arranged.
図2には、本実施例の複眼撮像装置1の全体構成を示している。複眼撮像装置1は、上述した結像光学部100と、撮像素子部(撮像手段)10と、A/D変換器11と、画像処理部12と、情報入力部16と、撮像制御部17と、画像記録媒体18と、システムコントローラ19と、表示部(表示手段)20とを有する。さらに、複眼撮像装置1は、距離情報算出部(距離算出手段)21も有する。 FIG. 2 shows the overall configuration of the compound eye imaging apparatus 1 of the present embodiment. The compound eye imaging apparatus 1 includes the imaging optical unit 100, the imaging element unit (imaging unit) 10, the A / D converter 11, the image processing unit 12, the information input unit 16, and the imaging control unit 17 described above. And an image recording medium 18, a system controller 19, and a display unit (display means) 20. Further, the compound eye imaging apparatus 1 also includes a distance information calculation unit (distance calculation unit) 21.
複眼撮像装置1は、結像光学部100が一体に設けられた結像光学系一体型の撮像装置であってもよいし、結像光学部100が撮像装置本体に対して着脱(交換)が可能な結像光学系交換型の撮像装置であってもよい。本実施例では、結像光学系一体型である場合について説明する。 The compound-eye imaging device 1 may be an imaging optical system-integrated imaging device in which the imaging optical unit 100 is integrally provided, or the imaging optical unit 100 may be attached to and detached from the imaging device main body (replacement). A possible imaging optical system exchange type imaging apparatus may be used. In this embodiment, a case where the imaging optical system is integrated will be described.
撮像素子部10は、上述した8つの結像光学系110a〜110d,120a〜120dのそれぞれに対応する(すなわち、結像光学系ごとに設けられた)撮像領域を構成する8つの撮像素子10a〜10hを有する。各撮像素子は、対応する結像光学系により形成された被写体像(光学像)を光電変換してアナログ撮像信号を出力する。アナログ撮像信号は、A/D変換器11によってデジタル撮像信号に変換され、該デジタル撮像信号は画像処理部12に入力される。画像処理部12は、デジタル撮像信号に対して画素補間処理や色変換処理等の各種画像処理を行って画像を生成する。これにより、8つの結像光学系110a〜110d,120a〜120dのそれぞれを通した撮像により(それぞれを通して)8つの画像を生成することができる。画像処理部12は、生成した画像に対するデジタルズーム処理等も行う。画像処理部12にて処理された画像は、システムコントローラ19に送られる。 The imaging element unit 10 includes eight imaging elements 10a to 10a that constitute imaging regions corresponding to the eight imaging optical systems 110a to 110d and 120a to 120d described above (that is, provided for each imaging optical system). 10h. Each imaging device photoelectrically converts a subject image (optical image) formed by a corresponding imaging optical system and outputs an analog imaging signal. The analog imaging signal is converted into a digital imaging signal by the A / D converter 11, and the digital imaging signal is input to the image processing unit 12. The image processing unit 12 performs various image processing such as pixel interpolation processing and color conversion processing on the digital imaging signal to generate an image. As a result, eight images can be generated by imaging (through each) of the eight imaging optical systems 110a to 110d and 120a to 120d. The image processing unit 12 also performs digital zoom processing and the like on the generated image. The image processed by the image processing unit 12 is sent to the system controller 19.
画像処理部12には、画像合成部(画像合成手段)13と、中間画角画像生成部(画像生成手段)14と、プレビュー画像生成部15とが設けられている。 The image processing unit 12 includes an image composition unit (image composition unit) 13, an intermediate angle of view image generation unit (image generation unit) 14, and a preview image generation unit 15.
画像合成部13は、第1の結像光学系110a〜110dのそれぞれを通して得られた4つの画像を互いの画素をずらして合成し、図3に示す第1の合成画像(画素ずらし合成画像)110を生成する。また、画像合成部13は、第2の結像光学系120a〜120dのそれぞれを通して得られた4つの画像を互いの画素をずらして合成し、図3に示す第1の合成画像110よりも広い撮像画角の第2の合成画像(画素ずらし合成画像)120を生成する。 The image synthesizing unit 13 synthesizes four images obtained through the first imaging optical systems 110a to 110d with the pixels shifted from each other, and a first synthesized image (pixel shifted synthesized image) shown in FIG. 110 is generated. Further, the image composition unit 13 composes the four images obtained through the second imaging optical systems 120a to 120d by shifting the pixels from each other, and is wider than the first composite image 110 shown in FIG. A second composite image (pixel-shifted composite image) 120 with an imaging angle of view is generated.
ここで、図1には、第1の結像光学系110a〜110dの光軸の位置を垂直方向と水平方向に延びる実線(直線)で結んでおり、この実線で囲まれた領域を第1の領域とする。また、第2の結像光学系120a〜120dの光軸の位置を垂直方向と水平方向に延びる破線(直線)で結んでおり、この破線で囲まれた領域を第2の領域とする。なお、図1では、実線と破線が見やすいように、破線を第2の結像光学系120a〜120dの光軸の位置から若干ずらして示している。 Here, in FIG. 1, the positions of the optical axes of the first imaging optical systems 110 a to 110 d are connected by a solid line (straight line) extending in the vertical direction and the horizontal direction, and a region surrounded by the solid line is represented by the first line. The area is Further, the positions of the optical axes of the second imaging optical systems 120a to 120d are connected by a broken line (straight line) extending in the vertical direction and the horizontal direction, and a region surrounded by the broken line is defined as a second region. In FIG. 1, the broken lines are slightly shifted from the positions of the optical axes of the second imaging optical systems 120 a to 120 d so that the solid lines and the broken lines are easy to see.
この図から分かるように、本実施例では、第1の領域内に複数の第2の結像光学系120a〜120dのうち1つの第2の結像光学系120cの光軸が配置されている。以下、この第2の結像光学系120cからの視点を基準視点RPとし、第2の結像光学系120cを基準光学系ともいう。このような配置関係を持つことにより、第1の結像光学系110a〜110dを通して得られた4つの画像を合成して第1の合成画像を生成する際に、基準視点RPとなる基準光学系120cを通して得られた画像を合成の基準(基準画像)として使用することができる。 As can be seen from this figure, in this embodiment, the optical axis of one second imaging optical system 120c among the plurality of second imaging optical systems 120a to 120d is arranged in the first region. . Hereinafter, the viewpoint from the second imaging optical system 120c is referred to as a reference viewpoint RP, and the second imaging optical system 120c is also referred to as a reference optical system. With this arrangement relationship, the reference optical system that becomes the reference viewpoint RP when the four images obtained through the first imaging optical systems 110a to 110d are combined to generate the first combined image. The image obtained through 120c can be used as a composite reference (reference image).
画像合成部13は、この基準画像を用いた後述するブロックマッチング法等の対応点探索手法を用いて、同一画角を有する結像光学系を通して得られた画像同士または互いに異なる画角を有する結像光学系を通して得られた画像同士を合成する。これにより、全ての撮像画角に対応する合成画像を仮想的に基準視点RPからの撮像により得られた画像として生成することができる。この結果、第2の結像光学系群を通した第2の合成画像120の撮像状態から第1の結像光学系群を通した第1の合成画像110への撮像状態へと撮像画角の変更(ズーミング)を行った際の合成画像110,120間での被写体位置ずれを低減することができる。 The image synthesizing unit 13 uses corresponding point search methods such as a block matching method, which will be described later, using this reference image, and images obtained through an imaging optical system having the same angle of view or images having different angles of view. The images obtained through the image optical system are synthesized. As a result, a composite image corresponding to all the imaging angles of view can be virtually generated as an image obtained by imaging from the reference viewpoint RP. As a result, the imaging angle of view from the imaging state of the second composite image 120 through the second imaging optical system group to the imaging state of the first composite image 110 through the first imaging optical system group. The object position shift between the composite images 110 and 120 when the change (zooming) is performed can be reduced.
中間画角画像生成部14は、第1および第2の結像光学系群が離散的に有する異なる画角の間の画角(中間画角)を補間するための中間画角画像を生成する。中間画角画像の生成方法としては、複数画像を用いた高解像度化処理を行う超解像処理を用いることができる。超解像処理には、ML(Maximum-Likelihood)法、MAP(Maximum A Posterior)法、POCS(Projection Onto Convex Set)法、IBP(Iterative Back Projection)法、LR(Lucy-Richardson)法等を用いることができる。さらに本実施例では、デジタルズームによって得られる画像の一部領域に望遠レンズに相当する第1の結像光学系群を通して得られる望遠画像を合成する(嵌め込む)。これにより、該一部領域の解像度が高く、かつその他の領域の解像度は低いが中間画角の画像を得ることができる異画角画像合成を行う。 The intermediate angle-of-view image generation unit 14 generates an intermediate angle-of-view image for interpolating the angle of view (intermediate angle of view) between different angles of view that the first and second imaging optical system groups have discretely. . As a method for generating an intermediate angle-of-view image, a super-resolution process that performs a resolution enhancement process using a plurality of images can be used. For super-resolution processing, ML (Maximum-Likelihood) method, MAP (Maximum A Posterior) method, POCS (Projection Onto Convex Set) method, IBP (Iterative Back Projection) method, LR (Lucy-Richardson) method, etc. are used. be able to. Further, in this embodiment, the telephoto image obtained through the first imaging optical system group corresponding to the telephoto lens is synthesized (inserted) into a partial region of the image obtained by the digital zoom. As a result, different angle-of-view image synthesis is performed in which the resolution of the partial area is high and the resolution of the other areas is low but an intermediate angle of view image can be obtained.
プレビュー画像生成部15は、基準光学系120cを通して得られた基準画像からプレビュー画像を生成する。ユーザから画角の変更が指示された場合、基準視点RPとなる基準光学系120cを通して得られた画像をトリミングして表示部20に拡大表示することで、常に同一視点からの画像をプレビュー画像として表示することができる。 The preview image generation unit 15 generates a preview image from the reference image obtained through the reference optical system 120c. When a change in the angle of view is instructed by the user, an image obtained through the reference optical system 120c serving as the reference viewpoint RP is trimmed and enlarged and displayed on the display unit 20, so that an image from the same viewpoint is always used as a preview image. Can be displayed.
情報入力部16は、ユーザが所望の撮像条件(絞り値や露出時間等)を選択して入力する情報を検知してシステムコントローラ19にそのデータを供給する。撮像制御部17は、システムコントローラからの情報に基づいて、各結像光学系に含まれるフォーカスレンズ(図示せず)を光軸方向に移動させ、また各結像光学系の絞り値を制御し、さらに撮像素子部10での露出時間を制御することで必要な画像を取得する。 The information input unit 16 detects information input by the user selecting desired imaging conditions (aperture value, exposure time, etc.) and supplies the data to the system controller 19. Based on information from the system controller, the imaging control unit 17 moves a focus lens (not shown) included in each imaging optical system in the optical axis direction, and controls the aperture value of each imaging optical system. Furthermore, a necessary image is acquired by controlling the exposure time in the image sensor unit 10.
画像記録媒体18は、複数の静止画や動画を格納したり、画像ファイルを構成する場合にはファイルヘッダを格納したりする。 The image recording medium 18 stores a plurality of still images and moving images, and stores a file header when configuring an image file.
表示部20は、前述したようにプレビュー画像を表示したり、撮像により得られた画像や、メニュー画面や、現在選択されている画角(焦点距離)の情報等を表示したりする。表示部20は、液晶パネル等の表示素子を含む。 As described above, the display unit 20 displays a preview image, displays an image obtained by imaging, a menu screen, information on a currently selected angle of view (focal length), and the like. The display unit 20 includes a display element such as a liquid crystal panel.
距離情報算出部21は、基準画像選択部22と、対応点抽出部23と、視差量算出部24とを含む。 The distance information calculation unit 21 includes a reference image selection unit 22, a corresponding point extraction unit 23, and a parallax amount calculation unit 24.
基準画像選択部22は、複数の結像光学系を通して得られた互いに視差を有する複数の画像(視差画像)の中から被写体距離算出用の基準画像を選択する。 The reference image selection unit 22 selects a reference image for subject distance calculation from a plurality of images (parallax images) having parallax obtained through a plurality of imaging optical systems.
対応点抽出部23は、被写体距離算出用の基準画像と他の視差画像(参照画像)との間において互いに対応する対応画素(対応点)を抽出する。 The corresponding point extraction unit 23 extracts corresponding pixels (corresponding points) corresponding to each other between the reference image for subject distance calculation and another parallax image (reference image).
視差量算出部24は、対応点抽出部23で抽出された全ての対応画素の視差量をそれぞれ算出する。距離情報算出部21は、その算出された視差量から画像内の被写体までの距離(被写体距離情報)を算出する。 The parallax amount calculation unit 24 calculates the parallax amounts of all the corresponding pixels extracted by the corresponding point extraction unit 23, respectively. The distance information calculation unit 21 calculates a distance to the subject in the image (subject distance information) from the calculated amount of parallax.
次に、主としてシステムコントローラ19および画像合成部13がコンピュータプログラムとしての第1の画像処理プログラムに従って実行する撮像画角切り替えのための画像合成処理を、図4のフローチャートを用いて説明する。 Next, an image composition process for switching the imaging angle of view, which is mainly executed by the system controller 19 and the image composition unit 13 in accordance with a first image processing program as a computer program, will be described with reference to the flowchart of FIG.
まず、ステップS100では、システムコントローラ19は、情報入力部16によりユーザからの撮像条件および撮像の準備を指示する信号(撮像準備信号)が入力されると、撮像制御部17に対して撮像条件の情報および撮像準備信号を転送する。撮像制御部17は、入力された撮像条件に基づいて、第1および第2の結像光学系群の絞り値や撮像素子部10での露光時間(シャッタスピード)等を設定する。なお、このステップでは、ユーザが第1の結像光学系群の画角か第2の結像光学系群の画角のいずれかの画角を入力するのとする。 First, in step S <b> 100, when the system controller 19 receives an imaging condition and a signal instructing preparation for imaging (imaging preparation signal) from the user via the information input unit 16, the system controller 19 sets the imaging condition to the imaging controller 17. Transfer information and imaging preparation signal. The imaging control unit 17 sets the aperture values of the first and second imaging optical system groups, the exposure time (shutter speed) in the imaging element unit 10 and the like based on the input imaging conditions. In this step, it is assumed that the user inputs either the angle of view of the first imaging optical system group or the angle of view of the second imaging optical system group.
次に、ステップS101では、システムコントローラ19は、情報入力部16によりユーザからの撮像の開始を指示する信号(撮像開始信号)が入力されると、撮像制御部17に、撮像素子部10(撮像素子10a〜10h)の露光を開始させる。撮像素子10a〜10hからそれぞれ出力されるアナログ撮像信号は、A/D変換器11によりデジタル撮像信号に変換された後、画像処理部12に送られる。画像処理部12は、該デジタル撮像信号から撮像素子10a〜10h上にそれぞれ形成された被写体像に対応する画像を生成する。この際、画像処理部12において、それぞれの画像の輝度レベルやホワイトバランスを互いに一致させる処理を行うことが好ましい。この処理により、後段で行う画像合成処理における輝度むらや色むらといった弊害を低減することができる。 Next, in step S <b> 101, when the system controller 19 receives a signal (imaging start signal) instructing the start of imaging from the user through the information input unit 16, the imaging controller unit 17 (imaging device) is input to the imaging controller 17. The exposure of the elements 10a to 10h) is started. The analog image signals output from the image sensors 10 a to 10 h are converted into digital image signals by the A / D converter 11 and then sent to the image processing unit 12. The image processing unit 12 generates images corresponding to the subject images respectively formed on the imaging elements 10a to 10h from the digital imaging signal. At this time, it is preferable that the image processing unit 12 performs processing for matching the luminance levels and white balance of the respective images. By this processing, it is possible to reduce adverse effects such as luminance unevenness and color unevenness in the image composition processing performed later.
次に、ステップS102では、システムコントローラ19は、ユーザが入力した画角が基準光学系120cを含む第2の結像光学系群の画角(基準画角)と同一か否かを判定する。基準画角としては、複眼撮像装置1が有する複数の結像光学系群の画角のうち最も広い画角であることが好ましい。図3から分かるように、狭い画角の画像(110)には広い画角の画像(120)の周辺領域の情報が存在しない。このため、狭い画角の結像光学系群によって得られる画像を基準として広い画角の結像光学系群を通して得られる複数の画像の位置合わせを行うことは困難だからである。ユーザ入力画角が基準画角と同じである場合はS103に移行し、そうでない場合はS104に移行する。 Next, in step S102, the system controller 19 determines whether or not the angle of view input by the user is the same as the angle of view (reference angle of view) of the second imaging optical system group including the reference optical system 120c. The reference field angle is preferably the widest field angle among the plurality of image forming optical system groups included in the compound-eye imaging device 1. As can be seen from FIG. 3, the image (110) with a narrow angle of view does not have information on the peripheral area of the image (120) with a wide angle of view. For this reason, it is difficult to align a plurality of images obtained through an imaging optical system group having a wide angle of view with reference to an image obtained by the imaging optical system group having a narrow angle of view. If the user input angle of view is the same as the reference angle of view, the process proceeds to S103, and if not, the process proceeds to S104.
ステップS103では、画像合成部13は、基準光学系120cを通して得られる基準画像に対して他の第2の結像光学系120a,120b,120dを通して得られた画像を合成する。 In step S103, the image synthesis unit 13 synthesizes the images obtained through the other second imaging optical systems 120a, 120b, and 120d with the reference image obtained through the reference optical system 120c.
ここで、基準光学系120cと同一画角を有する第2の結像光学系120a,120b,120dを通して得られる画像の合成方法について説明する。図5(a),(b)にはそれぞれ、図13にも示した被写体A,Bを、複眼撮像装置1を用いて撮像した場合に第2の結像光学系120c,120dを通して得られる画像を示している。第2の結像光学系120c,120dから得られる画像上では、第2の結像光学系120c,120d間の光軸間の距離である基線長と被写体A,Bまでの距離である被写体距離とに応じた幾何学的な関係により被写体A,Bの位置がそれぞれ異なる量ずれる。また、両視差画像の視点が異なることに起因して、同一の被写体においても画像上に写る部分とそうでない部分とが生じる。例えば、第2の結像光学系120cを通して得られる画像(図5(a))では、被写体Aの面A3と被写体Bの面B3が写っているが、第2の結像光学系120dを通して得られる画像(図5(b))にはこれらの面が写っていない。逆に、第2の結像光学系120dを通して得られる画像(図5(b))には、第2の結像光学系120cを通して得られる画像(図5(a))には写っていない被写体Bの面B4が写っている。このように、視点の違いによって一方の画像には写っている被写体領域が他方の画像には写っていないことを、オクルージョンと称する。 Here, a method for synthesizing images obtained through the second imaging optical systems 120a, 120b, and 120d having the same angle of view as the reference optical system 120c will be described. FIGS. 5A and 5B show images obtained through the second imaging optical systems 120c and 120d when the subjects A and B shown in FIG. 13 are imaged using the compound-eye imaging device 1, respectively. Is shown. On the image obtained from the second imaging optical systems 120c and 120d, the base length which is the distance between the optical axes between the second imaging optical systems 120c and 120d and the subject distance which is the distance to the subjects A and B The positions of the subjects A and B are different from each other by the geometrical relationship according to the above. Also, due to the different viewpoints of the two parallax images, a portion that appears on the image and a portion that is not so appear even in the same subject. For example, in the image obtained through the second imaging optical system 120c (FIG. 5A), the surface A3 of the subject A and the surface B3 of the subject B are shown, but obtained through the second imaging optical system 120d. These planes are not shown in the resulting image (FIG. 5B). On the other hand, the image obtained through the second imaging optical system 120d (FIG. 5B) does not appear in the image obtained through the second imaging optical system 120c (FIG. 5A). B side B4 is shown. In this way, the fact that the subject area shown in one image is not shown in the other image due to the difference in viewpoint is called occlusion.
本実施例における画像合成処理では、基準光学系120cを通して得られる画像(図5(a))を基準画像とする。そして、基準光学系120cではない第2の結像光学系を通して得られる画像のうち基準画像に写っている被写体領域に対応する被写体領域(対応点)を抽出して、これを基準画像上の被写体領域に合成する。 In the image composition processing in the present embodiment, an image (FIG. 5A) obtained through the reference optical system 120c is used as a reference image. Then, a subject area (corresponding point) corresponding to the subject area shown in the reference image is extracted from the image obtained through the second imaging optical system that is not the reference optical system 120c, and this is extracted as a subject on the reference image. Composite to the area.
対応点の抽出手法について、図6を用いて説明する。図6の左側には図5(a)に示した基準画像501を、右側には該基準画像に合成される図5(b)に示した画像としての参照画像502を示している。ここでは、画像上の水平方向および垂直方向での位置を示す画像座標(X,Y)を用いる。画像座標(X,Y)は、図6に示す各画像の左上を原点として定義する。また、基準画像501における画像座標(X,Y)の輝度をF1(X,Y)とし、参照画像502における画像座標(X,Y)の輝度をF2(X,Y)とする。 The corresponding point extraction method will be described with reference to FIG. The left side of FIG. 6 shows the reference image 501 shown in FIG. 5A, and the right side shows the reference image 502 as the image shown in FIG. 5B combined with the reference image. Here, image coordinates (X, Y) indicating positions in the horizontal direction and the vertical direction on the image are used. Image coordinates (X, Y) are defined with the upper left of each image shown in FIG. 6 as the origin. Further, the luminance of the image coordinates (X, Y) in the standard image 501 is F1 (X, Y), and the luminance of the image coordinates (X, Y) in the reference image 502 is F2 (X, Y).
基準画像501における任意の座標(X,Y)の画素(ハッチングして示す)に対応する参照画像502中の画素(ハッチングして示す)は、参照画像502のうち基準画像501中の輝度F1(X,Y)と最も類似した輝度を有する画素を探すことで求められる。ただし、任意の画素の輝度と最も類似する輝度を有する画素を単純に探すことは難しいため、画像座標(X,Y)の近傍の画素も用いたブロックマッチング法にて輝度が類似した画素を探索する。 A pixel (shown by hatching) in the reference image 502 corresponding to a pixel (shown by hatching) at an arbitrary coordinate (X, Y) in the reference image 501 is the luminance F1 (in the reference image 502) in the reference image 501 (shown by hatching). X, Y) is obtained by searching for a pixel having the most similar luminance. However, since it is difficult to simply search for a pixel having the most similar brightness to the brightness of an arbitrary pixel, a pixel with similar brightness is searched by the block matching method using pixels near the image coordinates (X, Y). To do.
例えば、ブロックサイズが3である場合のブロックマッチング処理について説明する。基準画像501中の任意の座標(X,Y)の画素と、その前後(X−1,Y),(X+1,Y)の2つの画素の計3つの画素の輝度値はそれぞれ、
F1(X,Y),F1(X−1,Y),F1(X+1,Y)
となる。
For example, a block matching process when the block size is 3 will be described. The luminance values of a total of three pixels, that is, a pixel at an arbitrary coordinate (X, Y) in the reference image 501 and two pixels before and after (X−1, Y) and (X + 1, Y), respectively,
F1 (X, Y), F1 (X-1, Y), F1 (X + 1, Y)
It becomes.
これに対し、座標(X,Y),(X−1,Y),(X+1,Y)からX方向にkだけずれた参照画像502中の画素の輝度値はそれぞれ、
F2(X+k,Y),F2(X+k−1,Y),F2(X+k+1,Y)
となる。
On the other hand, the luminance values of the pixels in the reference image 502 shifted by k in the X direction from the coordinates (X, Y), (X-1, Y), (X + 1, Y) are respectively
F2 (X + k, Y), F2 (X + k-1, Y), F2 (X + k + 1, Y)
It becomes.
このとき、基準画像501中の座標(X,Y)の画素との類似度Eを以下の式(2)で定義する。 At this time, the similarity E with the pixel at the coordinates (X, Y) in the reference image 501 is defined by the following equation (2).
この式(2)において逐次kの値を変えて類似度Eの値を計算し、最も小さい類似度Eを与える(X+k、Y)が、参照画像502のうち基準画像501中の座標(X,Y)に対応する画素(対応点)である。ここでは、水平方向に視差を有する画像間での対応点抽出方法について説明したが、同様にして垂直方向や斜め方向に視差を有する場合の対応点を抽出することもできる。 In this formula (2), the value of similarity E is calculated by successively changing the value of k, and the smallest similarity E is given (X + k, Y), but the coordinates (X, Y) corresponds to a pixel (corresponding point). Here, the method of extracting corresponding points between images having parallax in the horizontal direction has been described, but corresponding points in the case of having parallax in the vertical direction or oblique direction can be similarly extracted.
このようにして得られた対応点としての被写体領域を画素単位で基準画像に合成することで、基準画像内のノイズレベルを低減させることができ、出力される合成画像の画質を向上させることができる。 By synthesizing the subject area as the corresponding point obtained in this way with the reference image in units of pixels, the noise level in the reference image can be reduced, and the image quality of the output composite image can be improved. it can.
図5(a)に示した被写体Aの面A3と被写体Bの面B3は、図5(b)においてはオクルージョン領域として対応する被写体領域が存在しないため、第2の結像光学系120dを通して得られる画像からは合成されない。また、図5(b)にのみ写っている被写体Bの面B4も基準画像上には写っていないため、合成には使用されない。このように、オクルージョン領域は合成することができないが、その他の大部分については、基準視点RPとは異なる視点からの撮像により得られた画像を基準画像に合成することができるため、合成画像全体としてのノイズレベルを低減することができる。 The surface A3 of the subject A and the surface B3 of the subject B shown in FIG. 5A are obtained through the second imaging optical system 120d because there is no corresponding subject region as an occlusion region in FIG. 5B. Is not synthesized from the resulting image. Further, the surface B4 of the subject B that is shown only in FIG. 5B is not shown in the reference image, and thus is not used for composition. In this way, the occlusion region cannot be synthesized, but in most other cases, an image obtained by imaging from a viewpoint different from the reference viewpoint RP can be synthesized with the reference image, so that the entire synthesized image As a result, the noise level can be reduced.
なお、そのままではブロックマッチング法では対応できないほど視差が大きく基準画像と参照画像間で被写体領域の形状が大きく異なる場合には、参照画像に対してアフィン変換等の幾何変換を行った後に、ブロックマッチング法を用いて合成処理を行ってもよい。以上説明した画像合成方法と同様にして、他の第2の結像光学系120a,120bを通して得られた画像も基準画像に合成することができる。 If the parallax is so large that the block matching method cannot be used as it is, and the shape of the subject area differs greatly between the base image and the reference image, block matching is performed after geometric conversion such as affine transformation is performed on the reference image. The synthesis process may be performed using a method. In the same manner as the image composition method described above, an image obtained through the other second imaging optical systems 120a and 120b can also be composed with the reference image.
一方、ステップS104およびステップS105において、システムコントローラ19は、ユーザ入力画角が基準画角と異なる場合の画像合成処理である異画角画像合成処理を行う。 On the other hand, in step S104 and step S105, the system controller 19 performs different angle-of-view image composition processing, which is image composition processing when the user input view angle is different from the reference view angle.
ここで、異画角画像合成処理について、図7を用いて説明する。図7(a),(b)にはそれぞれ、図13にも示した被写体A,Bを、複眼撮像装置1を用いて撮像した場合に第1の結像光学系110c,110dを通して得られる画像を示している。また、図7(c)には、図13と同様の被写体A,Bを複眼撮像装置1を用いて撮像した場合の基準光学系120cを通して得られる基準画像を示している。 Here, the different angle-of-view image composition processing will be described with reference to FIG. FIGS. 7A and 7B respectively show images obtained through the first imaging optical systems 110c and 110d when the subjects A and B shown in FIG. 13 are imaged using the compound-eye imaging device 1. Is shown. FIG. 7C shows a reference image obtained through the reference optical system 120c when the subjects A and B similar to those in FIG. 13 are imaged using the compound-eye imaging device 1.
第1の結像光学系110c,110dを通して得られる画像は、基準光学系120cを通して得られる基準画像よりも画角が狭い。このため、画像上での被写体A,Bのサイズが異なり、このままではこれらの画像を合成することができない。このため、まずステップS104において、画像合成部13は、基準光学系120cを通して得られる基準画像をユーザ入力画角(ここでは、第1の結像光学系群の画角)に合わせるために、基準画像の一部のトリミングと拡大処理を行う。図7(d)には、図7(c)に示した基準画像の一部(中心領域)をトリミングし、そのトリミングした部分が第1の結像光学画系110c,110dの画角に対応する画角の画像となるように拡大処理した画像を示している。トリミングおよび拡大処理によって画像の解像度は劣化するが、第1の結像光学系110c,110dを通して得られる画像上での被写体と同等のサイズの被写体が写った新たな基準画像(以下、拡大基準画像という)を得ることができる。 The image obtained through the first imaging optical systems 110c and 110d has a narrower angle of view than the reference image obtained through the reference optical system 120c. For this reason, the sizes of the subjects A and B on the image are different, and these images cannot be combined as they are. Therefore, first, in step S104, the image composition unit 13 matches the reference image obtained through the reference optical system 120c with the user input angle of view (here, the angle of view of the first imaging optical system group). Trim and enlarge part of the image. In FIG. 7D, a part (center region) of the reference image shown in FIG. 7C is trimmed, and the trimmed part corresponds to the angle of view of the first imaging optical image systems 110c and 110d. An image that has been enlarged so as to be an image having an angle of view is shown. Although the resolution of the image is degraded by the trimming and enlargement processing, a new reference image (hereinafter referred to as an enlarged reference image) in which a subject having the same size as the subject on the image obtained through the first imaging optical systems 110c and 110d is captured. Can be obtained).
そして、ステップS105では、画像合成部13は、ステップS104で得られた拡大基準画像を用いて、第1の結像光学系110a〜110dを通して得られた画像を合成する。ここでの画像合成方法は、ステップS103にて説明した画像合成方法と同様に、図7(d)に示す拡大基準画像に対して、第1の結像光学系110a〜110dを通して得られた画像中の被写体領域を画素単位で合成することも可能である。また、上述したように拡大処理によって図7(d)に示す基準画像の解像度が劣化している。このため、拡大基準画像を用いて第1の結像光学系110a〜110dを通して得られた画像における相互に対応する被写体領域を決定し、これらの位置を合わせるようにして、拡大基準画像以外の画像同士を合成する(拡大基準画像は合成しない)ようにしてもよい。 In step S105, the image synthesis unit 13 synthesizes the images obtained through the first imaging optical systems 110a to 110d using the enlarged reference image obtained in step S104. The image composition method here is an image obtained through the first imaging optical systems 110a to 110d with respect to the enlarged reference image shown in FIG. It is also possible to synthesize the subject area inside in units of pixels. Further, as described above, the resolution of the reference image shown in FIG. For this reason, mutually corresponding subject regions in the images obtained through the first imaging optical systems 110a to 110d are determined using the enlarged reference image, and these positions are aligned so that images other than the enlarged reference image are obtained. You may make it synthesize | combine (it does not synthesize | combine an expansion reference | standard image).
ここで、本実施例では、基準光学系120cが図1に示した第1の結像光学系群の光軸が含まれる第1の領域内に配置されている。しかも、これらの結像光学系は、それぞれの光軸が平行になるように2次元的に配置されている。これにより、図7に示すように、基準視点RPに配置された基準光学系120cを通して得られる画像に写っている被写体領域のすべてが、第1の結像光学系群を通して得られる複数の画像のうちいずれかに写る。すなわち、基準画像中の被写体領域についてはオクルージョンが生じない。 Here, in this embodiment, the reference optical system 120c is arranged in the first region including the optical axis of the first imaging optical system group shown in FIG. Moreover, these imaging optical systems are two-dimensionally arranged so that their optical axes are parallel to each other. As a result, as shown in FIG. 7, all of the subject areas shown in the image obtained through the reference optical system 120c arranged at the reference viewpoint RP are obtained from the plurality of images obtained through the first imaging optical system group. It appears in one of them. That is, no occlusion occurs in the subject area in the reference image.
例えば、図7(d)に示す拡大基準画像に写っている面A1〜A3および面B1〜B3は、図7(a)示す画像においては面A1,A3,B1,B3が写っており、図7(b)に示す画像には面A2,B2が写っている。このため、拡大基準画像に写っている全ての被写体領域は、図7(a),(b)の画像のいずれかから得られる。また、拡大基準画像は、トリミングおよび拡大処理後の画像ではあるが、基準視点RPからの被写体位置情報が明確に判定できるため、ブロックマッチング法による位置合わせ精度も向上させることができる。さらに、距離情報を用いた視点補間処理等を行う必要がないため、演算処理の負荷を大幅に低減することができる。また、上記のように異なる画角の画像の合成においても、常に基準視点RPとしての基準光学系120cを通して得られる画像を基準として合成が行われるため、撮像画角を切り替えた際の被写体位置ずれを少なくすることができる。 For example, the surfaces A1 to A3 and the surfaces B1 to B3 shown in the enlarged reference image shown in FIG. 7D include the surfaces A1, A3, B1, and B3 in the image shown in FIG. In the image shown in FIG. 7B, planes A2 and B2 are shown. For this reason, all the subject areas shown in the enlarged reference image can be obtained from either of the images shown in FIGS. Further, although the enlarged reference image is an image after trimming and enlargement processing, the subject position information from the reference viewpoint RP can be clearly determined, so that the alignment accuracy by the block matching method can be improved. Furthermore, since it is not necessary to perform viewpoint interpolation processing using distance information, it is possible to greatly reduce the processing load. Also, in the synthesis of images with different angles of view as described above, the composition is always performed based on the image obtained through the reference optical system 120c as the reference viewpoint RP, so that the subject position shift when switching the imaging angle of view is performed. Can be reduced.
ステップS103およびステップS105からステップS106に移行すると、システムコントローラ19は、合成された画像を記録媒体18に保存して、画像合成処理を終了する。 When the process proceeds from step S103 and step S105 to step S106, the system controller 19 stores the synthesized image in the recording medium 18 and ends the image synthesis process.
次に、主としてシステムコントローラ19、画像合成部13および中間画角画像生成部14によって行われる連続ズーミングを実現するための中間画角画像生成処理を、図8のフローチャートを用いて説明する。この中間画角画像生成処理は、コンピュータプログラムとしての第2の画像処理プログラムに従って実行される。 Next, intermediate angle-of-view image generation processing for realizing continuous zooming performed mainly by the system controller 19, the image composition unit 13, and the intermediate angle-of-view image generation unit 14 will be described with reference to the flowchart of FIG. This intermediate angle of view image generation process is executed according to a second image processing program as a computer program.
まず、ステップS200では、システムコントローラ19は、情報入力部16からユーザにより指定された撮像条件や画角が入力されると、撮像制御部17に対してこれら撮像条件や画角の情報を転送する。ここでは、ユーザによって第1の結像光学系群の画角と第2の結像光学系群の画角との間の中間画角が入力されたものとする。 First, in step S <b> 200, when the imaging condition and the angle of view designated by the user are input from the information input unit 16, the system controller 19 transfers the information of the imaging condition and the angle of view to the imaging control unit 17. . Here, it is assumed that an intermediate field angle between the field angle of the first imaging optical system group and the field angle of the second imaging optical system group is input by the user.
次に、ステップS201では、撮像制御部17は、ユーザにより入力された画角に応じて撮像を行う結像光学系を選択する。ここでは、中間画角が入力されたので、第1の結像光学系群と第2の結像光学系群の全てを撮像に用いる結像光学系として選択する。 Next, in step S201, the imaging control unit 17 selects an imaging optical system that performs imaging according to the angle of view input by the user. Here, since the intermediate angle of view is input, all of the first imaging optical system group and the second imaging optical system group are selected as imaging optical systems used for imaging.
次に、ステップS202では、撮像制御部17は、撮像素子部10のうち選択した結像光学系に対応する撮像素子の露光を開始する。そして、画像処理部12は、該撮像素子からA/D変換器11を介して入力されたデジタル撮像信号から画像を生成する。これにより、第1の結像光学系群を通して得られる同一画角の画像群と、第2の結像光学系群を通して得られる同一画角の画像群とが生成される。 Next, in step S <b> 202, the imaging control unit 17 starts exposure of the image sensor corresponding to the imaging optical system selected from the image sensor unit 10. Then, the image processing unit 12 generates an image from the digital imaging signal input from the imaging device via the A / D converter 11. As a result, an image group having the same field angle obtained through the first imaging optical system group and an image group having the same field angle obtained through the second imaging optical system group are generated.
この際、画像処理部12において、それぞれの画像の輝度レベルやホワイトバランスを互いに一致させる処理を行うことが好ましい。この処理により、後段で行う画像合成処理における輝度むらや色むらといった弊害を低減することができる。 At this time, it is preferable that the image processing unit 12 performs processing for matching the luminance levels and white balance of the respective images. By this processing, it is possible to reduce adverse effects such as luminance unevenness and color unevenness in the image composition processing performed later.
次に、ステップS203では、画像合成部13は、第1の結像光学系群を通して得られた画像群に対して画像合成処理を行って第1の合成画像を生成し、また第2の結像光学系群を通して得られた画像群に対しても画像合成処理を行って第2の合成画像を生成する。う。画像合成処理は、図4のステップS103およびステップS104,S105で行った処理である。この時点で、互いに画角が異なる第1および第2の合成画像はいずれも、基準視点RPから撮像された画像に相当する同一視点画像となる。 Next, in step S203, the image composition unit 13 performs image composition processing on the image group obtained through the first imaging optical system group to generate a first composite image, and the second result. An image synthesis process is also performed on the image group obtained through the image optical system group to generate a second synthesized image. Yeah. The image composition process is the process performed in step S103 and steps S104 and S105 in FIG. At this time, both the first and second synthesized images having different angles of view are the same viewpoint image corresponding to an image captured from the reference viewpoint RP.
次に、ステップS204では、中間画角画像生成部14は、第2の結像光学系群を通して得られた広角合成画像である第2の合成画像からユーザ入力画角に応じた領域をトリミングし、該領域を拡大処理する。さらに、中間画角画像生成部14は、第1の結像光学系群を通して得られた望遠合成画像である第1の合成画像を、ユーザ入力画角に応じて縮小処理する。 Next, in step S204, the intermediate angle-of-view image generation unit 14 trims a region corresponding to the user input angle of view from the second synthesized image that is a wide-angle synthesized image obtained through the second imaging optical system group. The area is enlarged. Further, the intermediate angle-of-view image generation unit 14 reduces the first synthesized image, which is a telephoto synthesized image obtained through the first imaging optical system group, according to the user input angle of view.
次に、ステップS250では、中間画角画像生成部14は、上述した異画角画像合成処理によって、第2の合成画像からトリミングおよび拡大処理により得られた拡大画像と第1の合成画像の縮小処理により得られた縮小画像とを合成して中間画角画像を生成する。そして、本処理を終了する。 Next, in step S250, the intermediate angle-of-view image generation unit 14 reduces the enlarged image obtained by trimming and enlarging the second synthesized image and the first synthesized image by the different angle-of-view image synthesizing process described above. An intermediate angle-of-view image is generated by combining the reduced image obtained by the processing. Then, this process ends.
このような中間画角画像生成処理によれば、基準視点RPからの撮像により得られた画像に相当する中間画角画像が生成される。このため、連続ズームによって中間画角が選択された場合でも被写体位置ずれが少ない中間画角画像を生成することができる。 According to such an intermediate angle of view image generation process, an intermediate angle of view image corresponding to an image obtained by imaging from the reference viewpoint RP is generated. For this reason, even when the intermediate angle of view is selected by continuous zooming, an intermediate angle of view image with little subject position shift can be generated.
さらに、プレビュー画像生成部15は、基準視点RPとなる基準光学系120cを通して得られた基準画像からプレビュー画像を生成して表示部20に表示する。このため、ユーザが画角変更(ズーミング)を指示した場合も、基準画像をトリミングして拡大表示することで、常に同一視点からの画像としてのプレビュー画像を生成および表示することができる。これにより、プレビュー画像から画角変更時の最終画角画像までが全て同一の基準視点RPからの撮像により得られる画像として生成されるため、ユーザは被写体位置ずれによる違和感の少ない画像を見ることができる。 Further, the preview image generation unit 15 generates a preview image from the reference image obtained through the reference optical system 120 c serving as the reference viewpoint RP and displays the preview image on the display unit 20. Therefore, even when the user instructs to change the angle of view (zooming), a preview image as an image from the same viewpoint can always be generated and displayed by trimming and displaying the reference image. Thus, since the preview image and the final view angle image at the time of changing the view angle are all generated as images obtained from the same reference viewpoint RP, the user can see an image with less discomfort due to the subject position shift. it can.
次に、主としてシステムコントローラ19および距離情報算出部21によって行われる被写体距離情報記録処理を、図9のフローチャートを用いて説明する。この被写体距離情報記録処理は、コンピュータプログラムとしての第3の画像処理プログラムに従って実行される。ここでは、まず、最も広い被写体空間を撮像する第2の結像光学系群(第2の結像光学系120c,120d)によって得られる視差画像を用いた被写体距離情報記録処理について説明する。 Next, subject distance information recording processing mainly performed by the system controller 19 and the distance information calculation unit 21 will be described with reference to the flowchart of FIG. This subject distance information recording process is executed in accordance with a third image processing program as a computer program. Here, first, subject distance information recording processing using a parallax image obtained by the second imaging optical system group (second imaging optical systems 120c and 120d) that captures the widest subject space will be described.
まず、ステップS300では、システムコントローラ19は、情報入力部16からユーザにより入力された撮像準備信号を受ける。これに応じて、撮像素子部10のうち第2の結像光学系120c,120dに対応する撮像素子からの撮像信号をA/D変換器11を介して画像処理部12に転送する。画像処理部12は、該撮像信号から、第2の結像光学系120c,120dを通して得られる2つの視差画像を生成する。 First, in step S300, the system controller 19 receives an imaging preparation signal input from the information input unit 16 by the user. In response to this, an image pickup signal from an image pickup element corresponding to the second imaging optical systems 120 c and 120 d in the image pickup element unit 10 is transferred to the image processing unit 12 via the A / D converter 11. The image processing unit 12 generates two parallax images obtained through the second imaging optical systems 120c and 120d from the imaging signal.
次に、ステップS301では、基準画像選択部22は、生成された2つの視差画像のうち一方を視差量算出(つまりは被写体距離算出)のための基準画像として選択する。本実施例では、第2の結像光学系120cによって得られる画像を基準画像として選択する。 Next, in step S301, the reference image selection unit 22 selects one of the two generated parallax images as a reference image for parallax amount calculation (that is, subject distance calculation). In this embodiment, an image obtained by the second imaging optical system 120c is selected as a reference image.
次に、ステップS302では、対応点抽出部23は、第2の結像光学系120dを通して得られる画像を参照画像として、上記基準画像と参照画像との対応画素(対応点)を検出する。対応画素とは、例えば、被写体Aを撮像して得られた2つの視差画像において、該被写体Aの同一点が写っている画素同士である。対応画素の検出方法は、先の画像合成処理で説明した対応点抽出方法を用いることができる。 Next, in step S302, the corresponding point extraction unit 23 detects corresponding pixels (corresponding points) between the standard image and the reference image, using the image obtained through the second imaging optical system 120d as a reference image. Corresponding pixels are, for example, pixels in which the same point of the subject A appears in two parallax images obtained by imaging the subject A. As a corresponding pixel detection method, the corresponding point extraction method described in the previous image composition process can be used.
次に、ステップS303では、視差量算出部24は、抽出された対応点間での視差量を算出する。具体的には、視差量を、基準画像と参照画像の対応画素間での画素位置の差分として算出する。 Next, in step S303, the parallax amount calculation unit 24 calculates the parallax amount between the extracted corresponding points. Specifically, the amount of parallax is calculated as a difference in pixel position between corresponding pixels of the standard image and the reference image.
次に、ステップS304では、距離情報算出部21は、ステップS303で算出された視差量と、既知の情報である第2の結像光学系120c,120dの焦点距離および基線長とから、被写体距離を算出する。なお、ここでは、第2の結像光学系120c,120dを用いた場合の被写体距離の算出について説明しているが、同様の原理によって、他の結像光学系の対(例えば、第2の結像光学系120a,120bの対)を用いても被写体距離を算出することが可能である。また、画角が異なる視差画像に対して上記手法を用いる場合は、広い画角の視差画像から、狭い画角の視差画像に対応する部分を切り出して、その切り出した部分から対応画素を抽出することが望ましい。 Next, in step S304, the distance information calculation unit 21 calculates the subject distance from the parallax amount calculated in step S303 and the focal lengths and baseline lengths of the second imaging optical systems 120c and 120d, which are known information. Is calculated. Here, the calculation of the subject distance when the second imaging optical systems 120c and 120d are used has been described. However, other imaging optical system pairs (for example, the second imaging optical system, for example) The subject distance can also be calculated using a pair of imaging optical systems 120a and 120b. When the above method is used for parallax images with different angles of view, a portion corresponding to a parallax image with a narrow angle of view is cut out from a parallax image with a wide angle of view, and corresponding pixels are extracted from the cut-out portion. It is desirable.
以上説明したように、本実施例によれば、複眼撮像装置を薄型化し、高ズーム比を得つつも、ズーミングに伴う画像上での被写体位置ずれを低減することができる。 As described above, according to the present embodiment, it is possible to reduce the subject position shift on the image due to zooming while reducing the thickness of the compound-eye imaging device and obtaining a high zoom ratio.
また、本実施例によれば、様々な撮像モードを実現することができる。例えば、ハイダイナミックレンジモードでは、複眼を構成するそれぞれの結像光学系およびこれに対応する撮像素子の露出条件を変えながら複数回の撮像を行う。そして、複数回の撮像によって得られた複数の画像を合成することによって、ダイナミックレンジの広い画像を取得することができる。また、ぼけ付加モードでは、算出した被写体距離の情報に基づいて背景にぼけを付加することにより、主たる被写体を強調する画像を得ることができる。また、背景除去モードでは、上記のように算出した被写体距離に基づいて主たる被写体以外の背景を除去した画像を得ることができる。さらに、立体撮像モードでは、水平方向に配列された複眼を構成するそれぞれの結像光学系および対応する撮像素子によって左右の視差画像を取得する。そして、狭い画角の画像とそれに対応する他方の広い画角の画像の一部とを用いて立体画像として画像を保存することができる。 Further, according to the present embodiment, various imaging modes can be realized. For example, in the high dynamic range mode, imaging is performed a plurality of times while changing the exposure conditions of the imaging optical systems constituting the compound eye and the imaging elements corresponding thereto. Then, by synthesizing a plurality of images obtained by a plurality of imaging operations, an image having a wide dynamic range can be acquired. In the blur addition mode, an image that emphasizes the main subject can be obtained by adding blur to the background based on the calculated subject distance information. In the background removal mode, an image in which the background other than the main subject is removed based on the subject distance calculated as described above can be obtained. Further, in the stereoscopic imaging mode, left and right parallax images are acquired by the respective imaging optical systems that constitute the compound eyes arranged in the horizontal direction and the corresponding imaging elements. Then, an image can be stored as a stereoscopic image using an image with a narrow angle of view and a part of the image with the other wide angle of view corresponding thereto.
図10には、本発明の実施例2である複眼撮像装置の結像光学部200を光軸方向から見て示している。結像光学部200には、第1の結像光学系210a,210b,210c,210dと、第2の結像光学系220a,220b,220c,220dとが設けられている。さらに、結像光学部200には、第3の結像光学系230a,230b,230c,230dと、第4の結像光学系240a,240b,240c,240dとが設けられている。これら複数の結像光学系210a〜210d,220a〜220d,230a〜230d,240a〜240dは、それぞれの光軸に直交する2次元方向に互いに離間して配置されている。また、これら結像光学系210a〜210d,220a〜220d,230a〜230d,240a〜240dの光軸は互いに平行に延びている。 FIG. 10 shows the imaging optical unit 200 of the compound-eye imaging apparatus that is Embodiment 2 of the present invention when viewed from the optical axis direction. The imaging optical unit 200 is provided with first imaging optical systems 210a, 210b, 210c, and 210d, and second imaging optical systems 220a, 220b, 220c, and 220d. Further, the imaging optical unit 200 is provided with third imaging optical systems 230a, 230b, 230c, and 230d, and fourth imaging optical systems 240a, 240b, 240c, and 240d. The plurality of imaging optical systems 210a to 210d, 220a to 220d, 230a to 230d, and 240a to 240d are spaced apart from each other in a two-dimensional direction orthogonal to the respective optical axes. The optical axes of the imaging optical systems 210a to 210d, 220a to 220d, 230a to 230d, and 240a to 240d extend in parallel with each other.
第1の結像光学系(以下、まとめて第1の結像光学系群ともいう)210a〜210dは、第1の画角(焦点距離)θを有する。第1の画角θは、本実施例の複眼撮像装置において最も狭い画角である望遠端画角に相当する。また、第2の結像光学系(以下、まとめて第1の結像光学系群ともいう)220a〜220dは、第1の画角θよりも広い第2の画角(本実施例では第1の画角θの8倍である8θ)を有する。第2の画角は、本実施例の複眼撮像装置において最も広い画角である広角端画角に相当する。第3の結像光学系(以下、まとめて第3の結像光学系群ともいう)230a〜230dは、第3の画角(本実施例では第2の画角8θの1/2倍である4θ)を有する。第4の結像光学系(以下、まとめて第4の結像光学系群ともいう)240a〜240dは、第4の画角(本実施例では第2の画角8θの1/4倍である2θ)を有する。 First imaging optical systems (hereinafter collectively referred to as first imaging optical system groups) 210a to 210d have a first angle of view (focal length) θ. The first angle of view θ corresponds to the telephoto end angle of view which is the narrowest angle of view in the compound-eye imaging device of the present embodiment. Also, the second imaging optical system (hereinafter collectively referred to as the first imaging optical system group) 220a to 220d has a second angle of view (in this embodiment, the first angle of view) that is wider than the first angle of view θ. 1), which is 8 times the angle of view θ of 1. The second field angle corresponds to the wide-angle end field angle that is the widest field angle in the compound-eye imaging apparatus of the present embodiment. The third image forming optical system (hereinafter collectively referred to as a third image forming optical system group) 230a to 230d has a third field angle (in this embodiment, half the second field angle 8θ). 4θ). The fourth imaging optical system (hereinafter collectively referred to as a fourth imaging optical system group) 240a to 240d has a fourth field angle (in this embodiment, 1/4 times the second field angle 8θ). 2θ).
本実施例では、これら第1〜第4の結像光学系群が水平方向と垂直方向に4×4で配置されている。具体的には、垂直方向における第1列と第3列には、第1の結像光学系、第2の結像光学系、第1の結像光学系および第2の結像光学系がこの順で水平方向に(図10中の左から右に、以下同じ)配置されている。また、第2列と第4列には、第3の結像光学系、第4の結像光学系、第3の結像光学系および第4の結像光学系がこの順で水平方向に配置されている。 In the present embodiment, these first to fourth imaging optical system groups are arranged 4 × 4 in the horizontal and vertical directions. Specifically, a first imaging optical system, a second imaging optical system, a first imaging optical system, and a second imaging optical system are provided in the first column and the third column in the vertical direction. They are arranged in this order in the horizontal direction (from left to right in FIG. 10, the same applies hereinafter). In the second and fourth rows, the third imaging optical system, the fourth imaging optical system, the third imaging optical system, and the fourth imaging optical system are arranged in this order in the horizontal direction. Has been placed.
なお、図示はしないが、本実施例の複眼撮像装置の撮像素子部は、上述した16の結像光学系210a〜210d,220a〜220d,230a〜230d,240a〜240dのそれぞれに対応する撮像領域を構成する16の撮像素子を有する。 Although not shown, the imaging element unit of the compound-eye imaging device of the present embodiment has imaging areas corresponding to the 16 imaging optical systems 210a to 210d, 220a to 220d, 230a to 230d, and 240a to 240d described above. There are 16 image sensors constituting
図10には、第1の結像光学系210a〜210dの光軸の位置を垂直方向と水平方向に延びる実線(直線)で結んでおり、この実線で囲まれた領域を第1の領域とする。また、第2の結像光学系220a〜220dの光軸の位置を垂直方向と水平方向に延びる破線(直線)で結んでおり、この破線で囲まれた領域を第2の領域とする。さらに、第3の結像光学系230a〜230dの光軸の位置を垂直方向と水平方向に延びる一点鎖線(直線)で結んでおり、この一点鎖線で囲まれた領域を第3の領域とする。また、第4の結像光学系240a〜240dの光軸の位置を垂直方向と水平方向に延びる二点鎖線で結んでおり、この二点鎖線で囲まれた領域を第4の領域とする。なお、図10では、実線、破線、一点鎖線および二点鎖線が見やすいように、各線を対応する結像光学系の光軸の位置から若干ずらして示している。 In FIG. 10, the positions of the optical axes of the first imaging optical systems 210a to 210d are connected by a solid line (straight line) extending in the vertical direction and the horizontal direction, and a region surrounded by the solid line is defined as a first region. To do. The positions of the optical axes of the second imaging optical systems 220a to 220d are connected by a broken line (straight line) extending in the vertical direction and the horizontal direction, and a region surrounded by the broken line is defined as a second region. Further, the positions of the optical axes of the third imaging optical systems 230a to 230d are connected by a one-dot chain line (straight line) extending in the vertical direction and the horizontal direction, and a region surrounded by the one-dot chain line is defined as a third region. . Further, the positions of the optical axes of the fourth imaging optical systems 240a to 240d are connected by a two-dot chain line extending in the vertical direction and the horizontal direction, and a region surrounded by the two-dot chain line is defined as a fourth region. In FIG. 10, each line is shown slightly shifted from the position of the optical axis of the corresponding imaging optical system so that the solid line, the broken line, the one-dot chain line, and the two-dot chain line are easy to see.
第1〜第4の結像光学系群は、第1〜第4の領域の全てが重なる領域(結像光学部200の中央にて第1〜第4の結像光学系210d,220c,230b,240aの光軸が位置する領域)が存在するように配置されている。本実施例では、この第1〜第4の領域の全てが重なる領域に配置された第1〜第4の結像光学系210d,220c,230b,240aのうち最も広画角である第2の結像光学系220cを基準光学系とし、その配置位置を基準視点RPとする。本実施例の複眼撮像装置の他の構成は、実施例1と同じであり、その説明は省略する。 The first to fourth imaging optical system groups are regions in which all of the first to fourth regions overlap (the first to fourth imaging optical systems 210d, 220c, and 230b at the center of the imaging optical unit 200). , 240a (region where the optical axis is located). In the present embodiment, the second one having the widest field angle among the first to fourth imaging optical systems 210d, 220c, 230b, and 240a arranged in the overlapping region of all the first to fourth regions. The imaging optical system 220c is a reference optical system, and its arrangement position is a reference viewpoint RP. Other configurations of the compound-eye imaging apparatus of the present embodiment are the same as those of the first embodiment, and the description thereof is omitted.
本実施例でも、実施例1と同様にして、基準視点RPとなる基準光学系220cを通して得られる画像を基準画像として画像合成処理および中間画角画像生成処理を行う(これら処理の流れの説明は省略する)。これにより、第2の結像光学群の画角から第1、第3および第4の結像光学系群の画角へと撮像画角の切り替えを行った場合に、それぞれの結像光学系群を通して得られる合成画像上での被写体位置ずれを少なくすることができる。また、第1〜第4の領域が全て重なる領域内に基準視点RPとなる基準光学系220cの光軸を配置しているため、基準光学系220cを通して得られる基準画像に写っている被写体領域は、他の結像光学系を通して得られる画像のいずれかに必ず含まれている。このため、基準画像を用いた画像合成におけるオクルージョンの影響をなくすることができる。 Also in the present embodiment, in the same manner as in the first embodiment, image synthesis processing and intermediate angle-of-view image generation processing are performed using an image obtained through the reference optical system 220c serving as the reference viewpoint RP as a reference image. (Omitted). Thus, when the imaging angle of view is switched from the angle of view of the second imaging optical group to the angle of view of the first, third and fourth imaging optical systems, the respective imaging optical systems It is possible to reduce the subject position shift on the composite image obtained through the group. In addition, since the optical axis of the reference optical system 220c serving as the reference viewpoint RP is disposed in an area where all the first to fourth areas overlap, the subject area shown in the reference image obtained through the reference optical system 220c is It is always included in one of the images obtained through other imaging optical systems. For this reason, it is possible to eliminate the influence of occlusion in the image composition using the reference image.
本実施例も、実施例1と同様に、変倍用の光学素子を光軸方向に移動させるようなズーム機構を設けることなく、連続ズーミングを可能とする。さらに、本実施例では、実施例1に比べて互いに画角が異なる結像光学系群の数が多いため、より高いズーム比を容易に得ることができる。 Similarly to the first embodiment, this embodiment also enables continuous zooming without providing a zoom mechanism that moves the optical element for zooming in the optical axis direction. Further, in this embodiment, since the number of imaging optical system groups having different field angles from each other is larger than that in the first embodiment, a higher zoom ratio can be easily obtained.
なお、本実施例では、離散的に異なる第1〜第4の画角において、広角側の画角Wとその次に狭い画角Wnとの比が2となる場合について説明したが、これは例に過ぎず、他の比の値となるようにしてもよい。ただし、上述した式(1)の条件を満足することが望ましい。このことは、後述する他の実施例でも同じである。 In the present embodiment, in the first to fourth angles of view that are discretely different, the case where the ratio of the angle of view W on the wide angle side to the next narrowest angle of view Wn is 2 has been described. It is only an example, and other ratio values may be used. However, it is desirable to satisfy the condition of the above-described formula (1). This is the same in other embodiments described later.
図11には、本発明の実施例3である複眼撮像装置の結像光学部300を光軸方向から見て示している。結像光学部300には、第1の結像光学系310a,310b,310c,310dと、第2の結像光学系320a,320b,320c,320dとが設けられている。さらに、結像光学部300には、第3の結像光学系330a,330b,330c,330dと、第4の結像光学系340a,340b,340c,340dとが設けられている。これら複数の結像光学系310a〜310d,320a〜320d,330a〜330d,340a〜340dは、それぞれの光軸に直交する2次元方向に互いに離間して配置されている。また、これら結像光学系310a〜310d,320a〜320d,330a〜330d,340a〜340dの光軸は互いに平行に延びている。 FIG. 11 shows the imaging optical unit 300 of the compound-eye imaging apparatus that is Embodiment 3 of the present invention when viewed from the optical axis direction. The imaging optical unit 300 is provided with first imaging optical systems 310a, 310b, 310c, and 310d, and second imaging optical systems 320a, 320b, 320c, and 320d. Furthermore, the imaging optical unit 300 is provided with third imaging optical systems 330a, 330b, 330c, and 330d, and fourth imaging optical systems 340a, 340b, 340c, and 340d. The plurality of imaging optical systems 310a to 310d, 320a to 320d, 330a to 330d, and 340a to 340d are arranged apart from each other in a two-dimensional direction orthogonal to the respective optical axes. The optical axes of the imaging optical systems 310a to 310d, 320a to 320d, 330a to 330d, and 340a to 340d extend in parallel to each other.
第1の結像光学系(以下、まとめて第1の結像光学系群ともいう)310a〜310dは、第1の画角(焦点距離)θを有する。第1の画角θは、本実施例の複眼撮像装置において最も狭い画角である望遠端画角に相当する。また、第2の結像光学系(以下、まとめて第1の結像光学系群ともいう)320a〜320dは、第1の画角θよりも広い第2の画角(本実施例では第1の画角θの8倍である8θ)を有する。第2の画角は、本実施例の複眼撮像装置において最も広い画角である広角端画角に相当する。第3の結像光学系(以下、まとめて第3の結像光学系群ともいう)330a〜330dは、第1の画角より広く第2の画角より狭い第3の画角(本実施例では第2の画角8θの1/2倍である4θ)を有する。第4の結像光学系(以下、まとめて第4の結像光学系群ともいう)340a〜340dは、第1の画角より広く第3の画角より狭い第4の画角(本実施例では第2の画角8θの1/4倍である2θ)を有する。なお、第4の結像光学系340a〜340dも、第1の画角より広く第2の画角より狭い画角を有するため、第3の結像光学系330a〜330dとは別の第3の結像光学系ということもできる。 First imaging optical systems (hereinafter collectively referred to as first imaging optical system groups) 310a to 310d have a first angle of view (focal length) θ. The first angle of view θ corresponds to the telephoto end angle of view which is the narrowest angle of view in the compound-eye imaging device of the present embodiment. In addition, the second image forming optical system (hereinafter, also collectively referred to as a first image forming optical system group) 320a to 320d has a second angle of view (in this embodiment, the first image forming optical system group). 1), which is 8 times the angle of view θ of 1. The second field angle corresponds to the wide-angle end field angle that is the widest field angle in the compound-eye imaging apparatus of the present embodiment. Third image forming optical systems (hereinafter collectively referred to as a third image forming optical system group) 330a to 330d have a third field angle that is wider than the first field angle and narrower than the second field angle (this embodiment). In the example, it has 4θ) that is ½ times the second field angle 8θ. The fourth image forming optical system (hereinafter collectively referred to as a fourth image forming optical system group) 340a to 340d is a fourth field angle that is wider than the first field angle and narrower than the third field angle (this embodiment). In the example, it has 2θ) which is 1/4 times the second angle of view 8θ. Since the fourth imaging optical systems 340a to 340d also have an angle of view that is wider than the first field angle and narrower than the second field angle, the third imaging optical systems 330a to 330d are different from the third image forming optical systems 330a to 330d. It can also be referred to as an imaging optical system.
本実施例では、これら第1〜第4の結像光学系群が水平方向と垂直方向に4×4で配置されている。具体的には、垂直方向における第1列には、第1の結像光学系、第3の結像光学系、第4の結像光学系および第1の結像光学系がこの順で水平方向に(図11中の左から右に、以下同じ)配置されている。また、第2列には、第4の結像光学系、第2の結像光学系、第2の結像光学系および第3の結像光学系がこの順で水平方向に配置されている。また、第3列には、第3の結像光学系、第2の結像光学系、第2の結像光学系および第4の結像光学系がこの順で水平方向に配置されている。また、第4列には、第1の結像光学系、第4の結像光学系、第3の結像光学系および第4の結像光学系がこの順で水平方向に配置されている。 In the present embodiment, these first to fourth imaging optical system groups are arranged 4 × 4 in the horizontal and vertical directions. Specifically, in the first column in the vertical direction, the first imaging optical system, the third imaging optical system, the fourth imaging optical system, and the first imaging optical system are horizontally arranged in this order. It is arranged in the direction (from left to right in FIG. 11, the same applies hereinafter). In the second column, a fourth imaging optical system, a second imaging optical system, a second imaging optical system, and a third imaging optical system are arranged in this order in the horizontal direction. . In the third column, the third imaging optical system, the second imaging optical system, the second imaging optical system, and the fourth imaging optical system are arranged in this order in the horizontal direction. . In the fourth column, the first imaging optical system, the fourth imaging optical system, the third imaging optical system, and the fourth imaging optical system are arranged in this order in the horizontal direction. .
なお、図示はしないが、本実施例の複眼撮像装置の撮像素子部は、上述した16の結像光学系310a〜310d,320a〜320d,330a〜330d,340a〜340dのそれぞれに対応する撮像領域を構成する16の撮像素子を有する。 Although not shown, the imaging element unit of the compound-eye imaging device of the present embodiment has imaging areas corresponding to the above-described 16 imaging optical systems 310a to 310d, 320a to 320d, 330a to 330d, and 340a to 340d. There are 16 image sensors constituting
図11には、第1の結像光学系310a〜310dの光軸の位置を垂直方向と水平方向に延びる実線(直線)で結んでおり、この実線で囲まれた領域を第1の領域とする。また、第2の結像光学系320a〜320dの光軸の位置を垂直方向と水平方向に延びる破線(直線)で結んでおり、この破線で囲まれた領域を第2の領域とする。さらに、第3の結像光学系330a〜330dの光軸の位置を斜め方向に延びる一点鎖線(直線)で結んでおり、この一点鎖線で囲まれた領域を第3の領域とする。また、第4の結像光学系340a〜340dの光軸の位置を斜め方向に延びる二点鎖線(直線)で結んでおり、この二点鎖線で囲まれた領域を第4の領域とする。なお、図11では、実線、破線、一点鎖線および二点鎖線のそれぞれが見やすいように、実線を第1の結像光学系群の光軸の位置から若干ずらして示している。 In FIG. 11, the positions of the optical axes of the first imaging optical systems 310a to 310d are connected by a solid line (straight line) extending in the vertical direction and the horizontal direction, and a region surrounded by the solid line is defined as a first region. To do. Further, the positions of the optical axes of the second imaging optical systems 320a to 320d are connected by a broken line (straight line) extending in the vertical direction and the horizontal direction, and a region surrounded by the broken line is defined as a second region. Further, the positions of the optical axes of the third imaging optical systems 330a to 330d are connected by an alternate long and short dash line (straight line) extending in an oblique direction, and a region surrounded by the alternate long and short dash line is defined as a third region. Further, the positions of the optical axes of the fourth imaging optical systems 340a to 340d are connected by a two-dot chain line (straight line) extending in an oblique direction, and a region surrounded by the two-dot chain line is defined as a fourth region. In FIG. 11, the solid line is slightly shifted from the position of the optical axis of the first imaging optical system group so that each of the solid line, the broken line, the one-dot chain line, and the two-dot chain line is easy to see.
第1〜第4の結像光学系群は、第1〜第4の領域の全てが重なる領域(結像光学部300の中央にて第2の結像光学系320a〜320dの光軸が位置する領域)が存在するように配置されている。本実施例では、第1〜第4の結像光学系群のうち、この第1〜第4の領域の全てが重なる領域に配置された最も広画角である第2の結像光学系群の1つである第2の結像光学系320cを基準光学系とし、その配置位置を基準視点RPとする。本実施例の複眼撮像装置の他の構成は、実施例1と同じであり、その説明は省略する。 The first to fourth imaging optical system groups are regions where all of the first to fourth regions overlap (the optical axes of the second imaging optical systems 320a to 320d are positioned at the center of the imaging optical unit 300). Area) to be present. In the present embodiment, among the first to fourth image forming optical system groups, the second image forming optical system group having the widest angle of view disposed in a region where all of the first to fourth regions overlap. The second imaging optical system 320c, which is one of the above, is used as a reference optical system, and its arrangement position is set as a reference viewpoint RP. Other configurations of the compound-eye imaging apparatus of the present embodiment are the same as those of the first embodiment, and the description thereof is omitted.
本実施例でも、実施例1と同様にして、基準視点RPとなる基準光学系320cを通して得られる画像を基準画像として画像合成処理および中間画角画像生成処理を行う(これら処理の流れの説明は省略する)。これにより、第2の結像光学群の画角から第1、第3および第4の結像光学系群の画角へと撮像画角の切り替えを行った場合に、それぞれの結像光学系群を通して得られる合成画像上での被写体位置ずれを少なくすることができる。また、第1〜第4の領域が全て重なる領域内に基準視点RPとなる基準光学系320cの光軸を配置しているため、基準光学系320cを通して得られる基準画像に写っている被写体領域は、他の結像光学系を通して得られる画像のいずれかに必ず含まれている。このため、基準画像を用いた画像合成におけるオクルージョンの影響をなくすることができる。 Also in the present embodiment, in the same manner as in the first embodiment, image synthesis processing and intermediate angle-of-view image generation processing are performed using an image obtained through the reference optical system 320c serving as the reference viewpoint RP as a reference image (the flow of these processing is described) (Omitted). Thus, when the imaging angle of view is switched from the angle of view of the second imaging optical group to the angle of view of the first, third and fourth imaging optical systems, the respective imaging optical systems It is possible to reduce the subject position shift on the composite image obtained through the group. In addition, since the optical axis of the reference optical system 320c serving as the reference viewpoint RP is disposed in an area where the first to fourth areas all overlap, the subject area shown in the reference image obtained through the reference optical system 320c is It is always included in one of the images obtained through other imaging optical systems. For this reason, it is possible to eliminate the influence of occlusion in the image composition using the reference image.
本実施例も、実施例1と同様に、変倍用の光学素子を光軸方向に移動させるようなズーム機構を設けることなく、連続ズーミングを可能とする。さらに、本実施例では、実施例1に比べて互いに画角が異なる結像光学系群の数が多いため、より高いズーム比を容易に得ることができる。 Similarly to the first embodiment, this embodiment also enables continuous zooming without providing a zoom mechanism that moves the optical element for zooming in the optical axis direction. Further, in this embodiment, since the number of imaging optical system groups having different field angles from each other is larger than that in the first embodiment, a higher zoom ratio can be easily obtained.
図12には、本発明の実施例4である複眼撮像装置の結像光学部400を光軸方向から見て示している。結像光学部400には、第1の結像光学系410a,410b,410cと、第2の結像光学系420a,420b,420c,420dとが設けられている。さらに、結像光学部300には、第3の結像光学系430a,430b,430cが設けられている。これら複数の結像光学系410a〜410c,420a〜420d,430a〜430cは、それぞれの光軸に直交する2次元方向に互いに離間して配置されている。また、これら結像光学系410a〜410c,420a〜420d,430a〜430cの光軸は互いに平行に延びている。 FIG. 12 shows the imaging optical unit 400 of the compound-eye imaging apparatus that is Embodiment 4 of the present invention when viewed from the optical axis direction. The imaging optical unit 400 is provided with first imaging optical systems 410a, 410b, 410c and second imaging optical systems 420a, 420b, 420c, 420d. Further, the imaging optical unit 300 is provided with third imaging optical systems 430a, 430b, and 430c. The plurality of imaging optical systems 410a to 410c, 420a to 420d, and 430a to 430c are arranged apart from each other in a two-dimensional direction orthogonal to the respective optical axes. The optical axes of the imaging optical systems 410a to 410c, 420a to 420d, and 430a to 430c extend in parallel to each other.
第1の結像光学系(以下、まとめて第1の結像光学系群ともいう)410a〜410cは、第1の画角(焦点距離)θを有する。第1の画角θは、本実施例の複眼撮像装置において最も狭い画角である望遠端画角に相当する。また、第2の結像光学系(以下、まとめて第1の結像光学系群ともいう)420a〜420dは、第1の画角θよりも広い第2の画角(本実施例では第1の画角θの4倍である4θ)を有する。第2の画角は、本実施例の複眼撮像装置において最も広い画角である広角端画角に相当する。第3の結像光学系(以下、まとめて第3の結像光学系群ともいう)430a〜430cは、第1の画角より広く第2の画角より狭い第3の画角(本実施例では第2の画角4θの1/2倍である2θ)を有する。 First imaging optical systems (hereinafter collectively referred to as first imaging optical system groups) 410a to 410c have a first angle of view (focal length) θ. The first angle of view θ corresponds to the telephoto end angle of view which is the narrowest angle of view in the compound-eye imaging device of the present embodiment. In addition, the second imaging optical system (hereinafter, also collectively referred to as a first imaging optical system group) 420a to 420d has a second field angle wider than the first field angle θ (in this embodiment, the first field angle). 4 [theta] which is four times the angle of view [theta] of 1. The second field angle corresponds to the wide-angle end field angle that is the widest field angle in the compound-eye imaging apparatus of the present embodiment. The third image forming optical system (hereinafter collectively referred to as a third image forming optical system group) 430a to 430c has a third field angle that is wider than the first field angle and narrower than the second field angle (this embodiment). In the example, it has 2θ) that is ½ times the second angle of view 4θ.
本実施例では、これら第1〜第3の結像光学系群が、1つの第2の結像光学系420cを中心として、それ以外の結像光学系が同心円上に並ぶように配置されている。具体的には、第2の結像光学系420c以外の結像光学系は、反時計回り方向に、第1の結像光学系、第2の結像光学系および第3の結像光学系がこの順で繰り返すように配置されている。 In the present embodiment, these first to third imaging optical system groups are arranged so that the other imaging optical systems are arranged concentrically around the second imaging optical system 420c. Yes. Specifically, the imaging optical systems other than the second imaging optical system 420c are arranged in the counterclockwise direction in the first imaging optical system, the second imaging optical system, and the third imaging optical system. Are arranged to repeat in this order.
なお、図示はしないが、本実施例の複眼撮像装置の撮像素子部は、上述した10の結像光学系410a〜410c,420a〜420d,430a〜430cのそれぞれに対応する撮像領域を構成する10の撮像素子を有する。 Although not shown, the imaging element unit of the compound-eye imaging device according to the present embodiment configures imaging regions corresponding to the ten imaging optical systems 410a to 410c, 420a to 420d, and 430a to 430c described above. Image sensor.
図12には、第1の結像光学系410a〜410dの光軸の位置を実線(直線)で結んでおり、この実線で囲まれた領域を第1の領域とする。また、第2の結像光学系420c以外の第2の結像光学系420a,420b,420dの光軸の位置を破線(直線)で結んでおり、この破線で囲まれた領域を第2の領域とする。さらに、第3の結像光学系430a〜430cの光軸の位置を一点鎖線(直線)で結んでおり、この一点鎖線で囲まれた領域を第3の領域とする。 In FIG. 12, the positions of the optical axes of the first imaging optical systems 410a to 410d are connected by a solid line (straight line), and a region surrounded by the solid line is defined as a first region. Further, the positions of the optical axes of the second imaging optical systems 420a, 420b, 420d other than the second imaging optical system 420c are connected by a broken line (straight line), and the region surrounded by the broken line is defined as the second area. This is an area. Further, the positions of the optical axes of the third imaging optical systems 430a to 430c are connected by a one-dot chain line (straight line), and a region surrounded by the one-dot chain line is defined as a third region.
第1〜第3の結像光学系群は、第1〜第3の領域の全てが重なる領域が存在するように配置されている。本実施例では、第1〜第3の結像光学系群のうち最も広画角である第2の結像光学系群の1つである第2の結像光学系420cを、第1〜第3の領域の全てが重なる領域内に配置している。第2の結像光学系420cを基準光学系とし、その配置位置を基準視点RPとする。 The first to third imaging optical system groups are arranged so that there is a region where all of the first to third regions overlap. In the present embodiment, the second imaging optical system 420c, which is one of the second imaging optical system groups having the widest field angle among the first to third imaging optical system groups, is replaced with the first to third imaging optical system groups. All the third areas are arranged in the overlapping area. The second imaging optical system 420c is a reference optical system, and its arrangement position is a reference viewpoint RP.
なお、基準光学系420cは、第1〜第3の領域の全てが重なる領域内であって、他の全ての結像光学系の光軸の位置の重心となる位置(または他の全ての結像光学系の光軸の位置から等距離の位置)に配置されることが好ましい。このような位置に基準光学系420cを配置することで、基準光学系420cに対する他の結像光学系の視差量が大きくなり過ぎることを防ぐことができる。視差量が大きくなりすぎると、結像光学系群ごとに得られる画像の被写体位置ずれ量や被写体の変形量が大きくなるため、画像合成を行うことが難しくなる。本実施例の複眼撮像装置の他の構成は、実施例1と同じであり、その説明は省略する。 The reference optical system 420c is in a region where all of the first to third regions overlap, and is a position (or all other connections) that is the center of gravity of the position of the optical axis of all other imaging optical systems. It is preferably arranged at a position equidistant from the position of the optical axis of the image optical system. By disposing the reference optical system 420c at such a position, it is possible to prevent the parallax amount of another imaging optical system with respect to the reference optical system 420c from becoming too large. If the amount of parallax is too large, the subject position shift amount and the subject deformation amount of the image obtained for each imaging optical system group become large, and it is difficult to perform image composition. Other configurations of the compound-eye imaging apparatus of the present embodiment are the same as those of the first embodiment, and the description thereof is omitted.
本実施例でも、実施例1と同様にして、基準視点RPとなる基準光学系420cを通して得られる画像を基準画像として画像合成処理および中間画角画像生成処理を行う(これら処理の流れの説明は省略する)。これにより、第2の結像光学群の画角から第1、第3および第4の結像光学系群の画角へと撮像画角の切り替えを行った場合に、それぞれの結像光学系群を通して得られる合成画像上での被写体位置ずれを少なくすることができる。また、第1〜第3の領域が全て重なる領域内に基準視点RPとなる基準光学系420cの光軸を配置しているため、基準光学系420cを通して得られる基準画像に写っている被写体領域は、他の結像光学系を通して得られる画像のいずれかに必ず含まれている。このため、基準画像を用いた画像合成におけるオクルージョンの影響をなくすることができる。 Also in the present embodiment, in the same manner as in the first embodiment, an image synthesis process and an intermediate angle-of-view image generation process are performed using an image obtained through the reference optical system 420c serving as the reference viewpoint RP as a reference image. (Omitted). Thus, when the imaging angle of view is switched from the angle of view of the second imaging optical group to the angle of view of the first, third and fourth imaging optical systems, the respective imaging optical systems It is possible to reduce the subject position shift on the composite image obtained through the group. In addition, since the optical axis of the reference optical system 420c serving as the reference viewpoint RP is arranged in an area where the first to third areas all overlap, the subject area shown in the reference image obtained through the reference optical system 420c is It is always included in one of the images obtained through other imaging optical systems. For this reason, it is possible to eliminate the influence of occlusion in the image composition using the reference image.
本実施例も、実施例1と同様に、変倍用の光学素子を光軸方向に移動させるようなズーム機構を設けることなく、連続ズーミングを可能とする。さらに、本実施例では、実施例1に比べて互いに画角が異なる結像光学系群の数が多いため、より高いズーム比を容易に得ることができる。 Similarly to the first embodiment, this embodiment also enables continuous zooming without providing a zoom mechanism that moves the optical element for zooming in the optical axis direction. Further, in this embodiment, since the number of imaging optical system groups having different field angles from each other is larger than that in the first embodiment, a higher zoom ratio can be easily obtained.
なお、上記各実施例では、最も広画角の第2の結像光学系を複数設けた場合について説明したが、第2の結像光学系は少なくとも1つ設けられ、これが基準光学系とされればよい。 In each of the above-described embodiments, the case where a plurality of second imaging optical systems having the widest field angle are provided has been described. However, at least one second imaging optical system is provided, and this is used as a reference optical system. Just do it.
以上説明した各実施例は代表的な例にすぎず、本発明の実施に際しては、各実施例に対して種々の変形や変更が可能である。 Each embodiment described above is only a representative example, and various modifications and changes can be made to each embodiment in carrying out the present invention.
小型で良好な画像が得られる複眼撮像装置を提供できる。 It is possible to provide a compound eye imaging device that can obtain a small and good image.
1 複眼撮像装置
110a〜110d,210a〜210d,310a〜310d,410a〜410c 第1の結像光学系
120a〜120d,220a〜220d,320a〜320d,420a〜420d 第2の結像光学系
10 撮像素子部
DESCRIPTION OF SYMBOLS 1 Compound eye imaging device 110a-110d, 210a-210d, 310a-310d, 410a-410c 1st imaging optical system 120a-120d, 220a-220d, 320a-320d, 420a-420d 2nd imaging optical system 10 Element part
Claims (9)
前記複数の結像光学系のそれぞれを通した被写体の撮像を行うための撮像領域が該結像光学系ごとに設けられた撮像手段とを有する複眼撮像装置であって、
前記複数の結像光学系は、それぞれ第1の画角を有する複数の第1の結像光学系と、前記第1の画角よりも広い第2の画角を有する少なくとも1つの第2の結像光学系とを含み、
光軸方向視において、前記複数の第1の結像光学系のそれぞれの光軸の位置を結ぶ線によって囲まれた第1の領域内に前記少なくとも1つの第2の結像光学系の光軸が配置されていることを特徴とする複眼撮像装置。 A plurality of imaging optical systems disposed apart from each other in a direction perpendicular to the respective optical axes;
A compound-eye imaging device having an imaging unit for each imaging optical system having an imaging region for imaging a subject through each of the plurality of imaging optical systems,
The plurality of imaging optical systems include a plurality of first imaging optical systems each having a first field angle and at least one second field angle having a second field angle wider than the first field angle. An imaging optical system,
When viewed in the optical axis direction, the optical axis of the at least one second imaging optical system is within a first region surrounded by a line connecting the positions of the optical axes of the plurality of first imaging optical systems. A compound eye imaging device characterized in that is arranged.
光軸方向視において、前記第1の領域と前記複数の第2の結像光学系のそれぞれの光軸の位置を結ぶ線によって囲まれた第2の領域とが重なる領域内に、前記複数の第2の結像光学系のうち前記少なくとも1つの第2の結像光学系の光軸が配置されていることを特徴とする請求項1に記載の複眼撮像装置。 A plurality of the second imaging optical systems;
In the optical axis direction view, the plurality of the first region and the second region surrounded by a line connecting the optical axis positions of the plurality of second imaging optical systems overlap each other. 2. The compound eye imaging apparatus according to claim 1, wherein an optical axis of the at least one second imaging optical system of the second imaging optical system is arranged.
光軸方向視において、前記第1の領域と前記第2の領域と前記複数の第3の結像光学系のそれぞれの光軸の位置を結ぶ線によって囲まれた第3の領域とが重なる領域内に、前記複数の第2の結像光学系のうち前記少なくとも1つの第2の結像光学系の光軸が配置されていることを特徴とする請求項2に記載の複眼撮像装置。 The plurality of imaging optical systems includes a plurality of third imaging optical systems having a third field angle that is wider than the first field angle and narrower than the second field angle;
A region where the first region, the second region, and the third region surrounded by a line connecting the positions of the optical axes of the plurality of third imaging optical systems overlap each other when viewed in the optical axis direction The compound-eye imaging apparatus according to claim 2, wherein an optical axis of the at least one second imaging optical system among the plurality of second imaging optical systems is disposed therein.
1.1≦W/Wn≦3
なる条件を満足することを特徴とする請求項1から8のいずれか一項に記載の複眼撮像装置。 Of the different angles of view of the plurality of imaging optical systems, any one of the angle of view W and the next narrowest angle of view Wn after the angle of view W are:
1.1 ≦ W / Wn ≦ 3
The compound eye imaging apparatus according to claim 1, wherein the following condition is satisfied.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013241466A JP6278668B2 (en) | 2013-11-22 | 2013-11-22 | Compound eye imaging device |
US14/547,492 US20150145958A1 (en) | 2013-11-22 | 2014-11-19 | Multi-lens image capturing apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013241466A JP6278668B2 (en) | 2013-11-22 | 2013-11-22 | Compound eye imaging device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015103885A true JP2015103885A (en) | 2015-06-04 |
JP6278668B2 JP6278668B2 (en) | 2018-02-14 |
Family
ID=53379286
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013241466A Active JP6278668B2 (en) | 2013-11-22 | 2013-11-22 | Compound eye imaging device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6278668B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016142947A (en) * | 2015-02-03 | 2016-08-08 | キヤノン株式会社 | Compound-eye imaging device |
JP2017028611A (en) * | 2015-07-27 | 2017-02-02 | キヤノン株式会社 | Imaging apparatus |
JP2017028606A (en) * | 2015-07-27 | 2017-02-02 | キヤノン株式会社 | Imaging apparatus |
EP3255888A2 (en) | 2016-05-16 | 2017-12-13 | Canon Kabushiki Kaisha | Image processing apparatus, image capturing apparatus, image processing method, and image processing program |
WO2024195563A1 (en) * | 2023-03-17 | 2024-09-26 | ソニーグループ株式会社 | Imaging device, signal processing method, and program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013062626A (en) * | 2011-09-12 | 2013-04-04 | Canon Inc | Imaging apparatus, image processing method and program |
JP2013069012A (en) * | 2011-09-21 | 2013-04-18 | Sharp Corp | Multi-lens imaging apparatus |
JP2013085176A (en) * | 2011-10-12 | 2013-05-09 | Canon Inc | Image-capturing device |
JP2013211827A (en) * | 2012-02-28 | 2013-10-10 | Canon Inc | Image processing method, device and program |
-
2013
- 2013-11-22 JP JP2013241466A patent/JP6278668B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013062626A (en) * | 2011-09-12 | 2013-04-04 | Canon Inc | Imaging apparatus, image processing method and program |
JP2013069012A (en) * | 2011-09-21 | 2013-04-18 | Sharp Corp | Multi-lens imaging apparatus |
JP2013085176A (en) * | 2011-10-12 | 2013-05-09 | Canon Inc | Image-capturing device |
JP2013211827A (en) * | 2012-02-28 | 2013-10-10 | Canon Inc | Image processing method, device and program |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016142947A (en) * | 2015-02-03 | 2016-08-08 | キヤノン株式会社 | Compound-eye imaging device |
JP2017028611A (en) * | 2015-07-27 | 2017-02-02 | キヤノン株式会社 | Imaging apparatus |
JP2017028606A (en) * | 2015-07-27 | 2017-02-02 | キヤノン株式会社 | Imaging apparatus |
EP3255888A2 (en) | 2016-05-16 | 2017-12-13 | Canon Kabushiki Kaisha | Image processing apparatus, image capturing apparatus, image processing method, and image processing program |
US11032533B2 (en) | 2016-05-16 | 2021-06-08 | Canon Kabushiki Kaisha | Image processing apparatus, image capturing apparatus, image processing method, and storage medium |
WO2024195563A1 (en) * | 2023-03-17 | 2024-09-26 | ソニーグループ株式会社 | Imaging device, signal processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP6278668B2 (en) | 2018-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11470257B2 (en) | Dual aperture zoom digital camera | |
JP5020398B1 (en) | Image conversion apparatus, camera, image conversion method and program | |
JP6436783B2 (en) | Image processing apparatus, imaging apparatus, image processing method, program, and storage medium | |
JP5742179B2 (en) | Imaging apparatus, image processing apparatus, image processing method, and program | |
JP5666069B1 (en) | Coordinate calculation apparatus and method, and image processing apparatus and method | |
JP6278668B2 (en) | Compound eye imaging device | |
JP6576046B2 (en) | Compound eye imaging device | |
JP6478511B2 (en) | Image processing method, image processing apparatus, compound eye imaging apparatus, image processing program, and storage medium | |
JP2015102794A (en) | Compound-eye imaging apparatus | |
JP2003134375A (en) | Image pickup system | |
US20150145958A1 (en) | Multi-lens image capturing apparatus | |
JP2016053978A (en) | Image processor | |
JP3929346B2 (en) | Stereo image display method and stereo image display apparatus | |
TWI435160B (en) | Method for composing three dimensional image with long focal length and three dimensional imaging system | |
JP6648916B2 (en) | Imaging device | |
JP2019008494A (en) | Image processing device | |
JP2014165866A (en) | Image processing device, control method therefor and program | |
KR101565926B1 (en) | Method for compensating image for low vision person and apparatus for the same | |
JP4089912B2 (en) | Digital camera system | |
JP2015220662A (en) | Information processing apparatus, method for the same, and program | |
JP2002010294A (en) | Stereoscopic image generating apparatus | |
US9602701B2 (en) | Image-pickup apparatus for forming a plurality of optical images of an object, control method thereof, and non-transitory computer-readable medium therefor | |
JP2017182843A (en) | Program, display control device, and display control method | |
JP6566765B2 (en) | Imaging device | |
JP4117041B2 (en) | Digital camera system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161115 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170810 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170822 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171013 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171219 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180116 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6278668 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |