JP5896680B2 - Imaging apparatus, image processing apparatus, and image processing method - Google Patents
Imaging apparatus, image processing apparatus, and image processing method Download PDFInfo
- Publication number
- JP5896680B2 JP5896680B2 JP2011224814A JP2011224814A JP5896680B2 JP 5896680 B2 JP5896680 B2 JP 5896680B2 JP 2011224814 A JP2011224814 A JP 2011224814A JP 2011224814 A JP2011224814 A JP 2011224814A JP 5896680 B2 JP5896680 B2 JP 5896680B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- angle
- view
- unit
- units
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000003384 imaging method Methods 0.000 title claims description 364
- 238000012545 processing Methods 0.000 title claims description 73
- 238000003672 processing method Methods 0.000 title claims 3
- 230000008859 change Effects 0.000 claims description 27
- 238000000034 method Methods 0.000 description 56
- 238000011156 evaluation Methods 0.000 description 48
- 230000003287 optical effect Effects 0.000 description 47
- 210000001747 pupil Anatomy 0.000 description 35
- 230000008569 process Effects 0.000 description 31
- 238000013461 design Methods 0.000 description 17
- 238000011161 development Methods 0.000 description 11
- 230000018109 developmental process Effects 0.000 description 11
- 239000007787 solid Substances 0.000 description 10
- 230000006835 compression Effects 0.000 description 9
- 238000007906 compression Methods 0.000 description 9
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 7
- 230000006837 decompression Effects 0.000 description 6
- 239000000203 mixture Substances 0.000 description 6
- KNMAVSAGTYIFJF-UHFFFAOYSA-N 1-[2-[(2-hydroxy-3-phenoxypropyl)amino]ethylamino]-3-phenoxypropan-2-ol;dihydrochloride Chemical compound Cl.Cl.C=1C=CC=CC=1OCC(O)CNCCNCC(O)COC1=CC=CC=C1 KNMAVSAGTYIFJF-UHFFFAOYSA-N 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000012952 Resampling Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000012447 hatching Effects 0.000 description 1
- 239000005304 optical glass Substances 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Cameras In General (AREA)
Description
本発明は、写真を撮影後に、写真画像のズーム倍率を変更する画像処理が可能な撮像装置及び画像処理装置に関する。 The present invention relates to an imaging apparatus and an image processing apparatus capable of performing image processing for changing a zoom magnification of a photographic image after taking a photograph.
写真を撮影後に、写真画像のフォーカス、絞り及びズーム倍率などを変更する方法が提案されている。例えば非特許文献1は、小型で被写界深度が深い複数の小型カメラからなる多眼カメラで撮像された画像データから、被写界深度のより浅い画像データを生成する手法を開示する。
There has been proposed a method of changing the focus, aperture, zoom magnification, and the like of a photographic image after taking a photograph. For example, Non-Patent
このような多眼カメラにおいてズーム処理を行う場合、最も単純な実現方法は個々の小型カメラにそれぞれズーム光学系を持たせる事である。しかしながら、ズーム光学系を全ての小型カメラに持たせると非常に高価となる。一方、特許文献1ではそれぞれ異なる画角を有する複数の単焦点カメラからなる多眼カメラを用い、画角に応じて使用する画像を切り替えることで光学系によるズームを省き、安価にズーム処理を実現する方法を開示している。つまり、特許文献1の技術によれば、画角の異なる多眼カメラを一つのズームカメラとみなすことが可能である。このズームカメラを非特許文献1における一つの小型カメラに置き換えると、異なる画角を有する単焦点カメラが複数配置された多眼カメラとなる。これにより、撮影後に写真画像の被写界深度とズームとが変更できる多眼カメラをより安価に実現する事が可能である。
When performing zoom processing in such a multi-lens camera, the simplest implementation method is to provide each small camera with a zoom optical system. However, it is very expensive to have a zoom optical system in all small cameras. On the other hand,
しかしながら、上記のような単純な従来技術の組み合わせでは、カメラの集光能力が画角毎に異なってしまう。この時、露光時間を画角によらず一致させて撮影した場合においては、各画角間で明るさ、あるいはノイズ量が異なってしまうという課題がある。また、明るさが一致するように露光時間を画角毎に変えた場合においては、手ぶれや動きぶれの問題が生じたり、そもそも露光時間が異なるため、他のズームでは意図した写真にならず、事実上は撮影後にズーム処理ができないという課題がある。 However, with the simple combination of the conventional techniques as described above, the light collecting ability of the camera varies depending on the angle of view. At this time, when shooting is performed with the exposure time matched regardless of the angle of view, there is a problem that the brightness or the amount of noise differs between the angles of view. In addition, when the exposure time is changed for each angle of view so that the brightness matches, there is a problem of camera shake and motion blur, and since the exposure time is different in the first place, other zooms do not become the intended photo, In practice, there is a problem that zoom processing cannot be performed after shooting.
本発明に係る撮像装置は、同一平面上に並んだ複数の撮像部を有する撮像装置であって、前記複数の撮像部のうち第1の画角を持つ1つ以上の撮像部の数は、前記第1の画角より広い画角を持つ1つ以上の撮像部の数より多く、かつ、前記複数の撮像部のうち第1の画角を持つ1つ以上の撮像部が合計で受ける光の量と、前記第1の画角とは異なる第2の画角を持つ1つ以上の撮像部が合計で受ける光の量との比は、調節可能な露光時間の変化幅の範囲内であることを特徴とする。 An imaging apparatus according to the present invention is an imaging apparatus having a plurality of imaging units arranged on the same plane, and the number of one or more imaging units having a first angle of view among the plurality of imaging units is: said first angle of view one or more Many than the number of the imaging unit having a wide angle of view than, and one or more imaging unit having a first angle of view of the plurality of the imaging unit is subjected in total The ratio between the amount of light and the amount of light received in total by one or more imaging units having a second angle of view different from the first angle of view is within a range of changeable exposure time. It is characterized by being.
本発明によれば、撮影後の写真画像に対してズーム倍率を変更する際にノイズ量や露光時間に左右される程度が小さくなる。 According to the present invention, when the zoom magnification is changed with respect to a photographed image, the degree to which it depends on the amount of noise and the exposure time is reduced.
[実施例1]
まず、実施例1の概略について説明する。実施例1は、例えば望遠用の撮像部を広角用の撮像部よりも多く配置することによって、それぞれの撮像部で得られる画角毎の画像データの明るさのバランスを調整することに関するものである。
[Example 1]
First, an outline of the first embodiment will be described. The first embodiment relates to adjusting the brightness balance of image data for each angle of view obtained by each imaging unit by disposing, for example, a telephoto imaging unit more than a wide-angle imaging unit. is there.
<撮像装置の構成>
図1は、実施例1の撮像装置100の概観を示す図である。図1に示す撮像装置100は、前面(被写体側)に61個の撮像部101−161を有する所謂多眼カメラである。図1に示す撮像部101−161のハッチングの違いは、後述するように画角の違いを示している。撮像装置100はさらにフラッシュ162と撮影ボタン163とを備える。また、図1には示さないが、撮像装置100は、その背面に操作部及び表示部などを有する。以下本実施例では撮像部を61個有する場合の説明を行うが、撮像部の数は61個に限られるわけではなく、三つ以上であればよい。三つ以上である理由は、例えば2種類の画角を有する撮像部がある場合に、一方の画角を有する撮像部の数を他方の画角を有する撮像部の数より多くするためである。また、複数の撮像部は同じ被写体またはほぼ同じ領域をほぼ同時に撮影可能となるように配置されていればよい。「ほぼ同じ領域」及び「ほぼ同時に」とは、例えば複数の撮像部で撮影された画像データを合成した場合に、他の撮像部で撮像された画像データと同じような画像を得られる範囲を示している。なお、図1に示すように各撮像部は同一面に配置され、かつ各撮像部の光軸は並行となっている方が画像処理が簡易となり好ましいが、本実施例はこの配置に限定されない。本実施例に関わる各撮像部のさらに詳細な構成および配置などについては後述する。
<Configuration of imaging device>
FIG. 1 is a diagram illustrating an overview of the
図2は、撮像装置100の構成例を示すブロック図である。CPU201は、RAM202をワークメモリとして使用して、ROM203に格納されたOSや各種プログラムを実行する。また、CPU201は、システムバス200を介して、撮像装置100の各構成を制御する。RAM202は、撮像光学系の制御結果を示すフォーカス設定及び絞り設定など撮像部101−161の状態を示す情報である撮像パラメータなどを格納する。ROM203は、撮像部101−161の相対的な位置関係並びに各撮像部の撮像素子の画素ピッチ、光のエネルギーの受光効率、及び撮像部が撮像できる画角(立体角)などを示すカメラ設計パラメータなどを格納する。なお、図示していないが、各撮像部101−161のROMに当該撮像部のカメラ設計パラメータを格納するようにしてもよい。
FIG. 2 is a block diagram illustrating a configuration example of the
CPU201は、コンピュータグラフィックス(CG)生成部207及び表示制御部204を制御してモニタ213にユーザインタフェイス(UI)を表示させる。また、CPU201は、撮影ボタン163や操作部164を介してユーザ指示を受信する。そして、CPU201は、ユーザ指示に従い、撮像時の被写体距離、焦点距離、絞り、露光時間、及びフラッシュの発光などの撮影条件の設定をすることができる。また、CPU201は、ユーザ指示に従い、撮像の指示、及び撮像した画像の表示設定を行うことができる。CG生成部207は、UIを実現するための文字やグラフィックスなどのデータを生成する。
The
ユーザから撮影を指示されると、CPU201は、ユーザの指示に対応した光学系の制御方法を光学系制御方法生成部209から取得する。次に、CPU201は、取得した光学系の制御方法に基づいて光学系制御部210に撮像を指示する。この撮像指示を受信した光学系制御部210は、フォーカスを合わせ、絞りを調節し、又はシャッタを開閉するなどの撮像光学系の制御を行う。また、光学系制御部210は、撮像光学系の制御結果を示すフォーカス設定及び絞り設定など撮像部101−161の状態を示す情報である撮像パラメータをRAM202に格納する。なお、一つの光学系制御部210によって各撮像部101−161の撮像光学系を制御するのではなく、CPU201と通信可能な光学系制御部を各撮像部101−161に備えてもよい。
When photographing is instructed by the user, the
撮像部101−161はそれぞれ、被写体からの光をCCDやCMOSなどの撮像センサ307において受光する。詳細は図3に関連して後述する。撮像部101−161は、撮像センサ307が出力するアナログ信号をアナログ−デジタル(A/D)変換した撮像データ(以下、RAWデータ)を、一旦、撮像部101−161内のバッファメモリに保持する。バッファメモリに保持されたRAWデータは、CPU201の制御により、順次、RAM202の所定領域に格納される。
Each of the
デジタル信号処理部208は、RAM202の所定領域に格納された複数のRAWデータ(以下、RAWデータ群)から画像データを生成する現像処理を行う。またデジタル信号処理部208は、RAWデータ群および生成した画像データをRAM202の所定領域に格納する。なお、現像処理には、複数のRAWデータを合成する合成処理、デモザイキング処理、ホワイトバランス処理、ガンマ処理、及びノイズ低減処理などが含まれる。また、デジタル信号処理部208は、撮影後の画像データに対してズーム倍率を変更し、変更後の画像データを生成する処理を行うことができる。生成した画像データにはフォーカス距離、ズーム倍率および被写界深度などを示す現像処理時のパラメータ(以下、画像生成パラメータ)が付加される。画像生成パラメータは、例えばユーザから指定された値に基づいて生成される。また、例えば初回現像時などにおいては初期設定値を画像生成パラメータとして用いることができる。また、RAWデータ群には少なくとも撮像パラメータが付加されるが、外部の画像処理装置による現像処理を考慮して、カメラ設計パラメータを付加してもよい。
The digital
CPU201は、表示制御部204を制御して、RAM202の所定領域に格納された画像データをモニタ213に表示する。圧縮伸長部212は、RAM202の所定領域に格納された画像データをJPEGやMPEGなどのフォーマットに変換するエンコード処理を行う。また、圧縮伸長部212は、必要ならば、RAWデータ群をロスレス圧縮する処理を行う。
The
CPU201は、表示制御部204を制御して、RAM202の所定領域に格納された画像データをモニタ213に表示する。圧縮伸長部212は、RAM202の所定領域に格納された画像データをJPEGやMPEGなどのフォーマットに変換するエンコード処理、必要ならば、RAWデータ群をロスレス圧縮する処理を行う。
The
インタフェイス(I/F)205は、例えばメモリカードやUSBメモリなどの記録メディア206を読み書きする機能及び有線や無線のネットワークに接続する機能を有する。I/F205は、CPU201の指示に従い、例えばRAM202に格納されたJPEGやMPEGフォーマットの画像データおよびRAWデータ群を外部のメディアやサーバ装置に出力したり、外部の記録メディアやサーバ装置から各種データを入力する。
An interface (I / F) 205 has a function of reading and writing a
画像生成パラメータ生成部211は、デジタル信号処理部208における現像処理に必要な画像生成パラメータを生成する。
The image generation
なお、図2には撮像部101−161とその他の構成を一つにまとめた撮像装置100を示したが、撮像部101−161とその他の構成(画像処理装置)を分離することもできる。その場合、撮像部101−161と画像処理装置それぞれに、例えばUSBやIEEE1394などのシリアルバスI/Fや無線ネットワークカードのような通信部をもたせ、通信部を介して制御信号の送受信およびデータの入出力を行えばよい。
2 shows the
<各撮像部の構成例>
図3のブロック図は、撮像部101−161の構成例を示す図である。なお、図3には撮像部101の構成例を示すが、他の撮像部102−161もほぼ同様の構成を有する。ただし、撮像部101−161の画角、フォーカスおよび絞りなどの設定は、必ずしもすべて同一の構成である必要はない。詳細は後述する。
<Configuration example of each imaging unit>
The block diagram of FIG. 3 is a diagram illustrating a configuration example of the imaging units 101-161. 3 shows a configuration example of the
被写体からの光は、フォーカスレンズ群301、絞り302、固定レンズ群303、シャッタ304、赤外線カットフィルタ305、カラーフィルタ306を通過して、CMOSセンサやCCDなどの撮像センサ307上に結像する。A/D変換部308は、撮像センサ307が出力するアナログ信号をA/D変換する。バッファ309は、A/D変換部308が出力するRAWデータを一時的に格納し、CPU201の要求に応じて、RAWデータをシステムバス200を介してRAM202に転送する。
Light from the subject passes through a
なお、図3に示すレンズ群と絞りの配置は一例であり、異なる配置でもよい。例えば、一部またはすべての撮像部がテレセントリック性などのレンズ性能を向上させるための固定レンズ群303をもたなくてもよい。
The arrangement of the lens group and the diaphragm shown in FIG. 3 is an example and may be different. For example, some or all of the imaging units may not have the fixed
<撮像部の構成とその組み合わせ>
安価にズーム機能を備えるために、本実施例における撮像部の画角は全て同じではない。例えば図1に示した61眼の多眼カメラの例においては、撮像部101−161の画角は四種類存在し、撮像部101−105、撮像部106−113、撮像部114−129、撮像部130−161がそれぞれ同じ画角を持っている。ただし、画角が同じであっても、撮像部101−161が全て同じ大きさの撮像センサを有するとは限らない。つまり、異なる大きさの撮像センサを有している場合であっても、撮像部の焦点距離が対応する距離であれば、画角は等しくなる。なお、画角が同じである撮像部同士は同じ画素数である方が画像処理が簡易になるため好ましい。また、本実施例では撮像部101−161の有する光学系の入射瞳(≒レンズ前側からみた絞り)の大きさは概略等しく設計されているものとする。
<Configuration of imaging unit and its combination>
In order to provide a zoom function at a low cost, the angle of view of the imaging unit in this embodiment is not all the same. For example, in the example of the 61-lens multi-lens camera shown in FIG. 1, there are four types of angle of view of the imaging units 101-161, the imaging units 101-105, the imaging units 106-113, the imaging units 114-129, and the imaging. The sections 130-161 have the same angle of view. However, even if the angle of view is the same, the imaging units 101-161 do not necessarily have imaging sensors of the same size. That is, even if the image sensors have different sizes, the angles of view are equal if the focal lengths of the image capturing units correspond to each other. In addition, it is preferable that the imaging units having the same angle of view have the same number of pixels because the image processing becomes simple. In this embodiment, it is assumed that the sizes of the entrance pupils of the optical system included in the
本実施例では、画角が異なる撮像部で撮像された画像間において、明るさ、ノイズ、及び露光時間を同時に合わせるために、撮像部101−161は、画角毎の合計の集光能力が概略同じとなるように構成されている。たとえば撮像部101−105の合計の集光能力と、撮像部106−113の合計の集光能力とが概略同じとなるように構成される。また、他の撮像部群についても同様である。具体的には、jを画角のインデックスとし、画角毎に以下の式で計算される評価値Ejに対し、それらが概略等しくなるように構成されている。
Ej = NjΩj
In the present embodiment, in order to simultaneously adjust the brightness, noise, and exposure time between images captured by image capturing units having different angles of view, the image capturing units 101-161 have a total condensing capability for each angle of view. It is comprised so that it may become substantially the same. For example, the total light collection capability of the imaging units 101-105 and the total light collection capability of the imaging units 106-113 are configured to be substantially the same. The same applies to other imaging unit groups. Specifically, j is an index of the angle of view, and the evaluation value Ej calculated by the following formula for each angle of view is configured to be approximately equal.
Ej = NjΩj
ここで、Njは画角jを持つ撮像部の数である。また、Ωjは画角jの撮像部が撮像する領域の立体角である。立体角Ωjは直接測定される事が望ましいが、以下の式によって計算してもよい。 Here, Nj is the number of imaging units having an angle of view j. Further, Ωj is a solid angle of an area picked up by the image pickup unit having an angle of view j. The solid angle Ωj is preferably measured directly, but may be calculated by the following equation.
ここで、fj,iは画角jを持つ撮像部iの焦点距離であり、x,yは撮像部が有する撮像センサ上の座標である。積分範囲は撮像センサの大きさである。撮像部の撮像センサの大きさが異なっている場合であっても画角が同じであれば立体角は同じであるので、画角jを持つ複数の撮像部のうちいずれか一つの撮像部について立体角を計算するだけで十分である。なお、撮像部の有する光学系に歪曲収差が存在する場合には、歪曲収差を補正した後の座標系x',y'に置き換えて立体角を計算することができる。また、歪曲補正の結果画像合成に使わない領域が存在する場合には、積分範囲からその領域を省くことができる。 Here, fj, i is a focal length of the imaging unit i having the angle of view j, and x, y are coordinates on the imaging sensor of the imaging unit. The integration range is the size of the image sensor. Even if the imaging sensors of the imaging units are different in size, the solid angle is the same if the angle of view is the same. Therefore, for any one of the imaging units having the angle of view j, It is sufficient to calculate the solid angle. When distortion is present in the optical system of the imaging unit, the solid angle can be calculated by replacing the distortion with the coordinate system x ′, y ′ after correction. If there is a region that is not used for image synthesis as a result of distortion correction, the region can be omitted from the integration range.
図1に示した例では4種類の画角があるため、評価値Ejも4種類計算される。評価値Ejは、画角jを持つ複数の撮像部が単位時間当たりに受ける光のエネルギーの合計に比例する量である。このためEjが画角jによらず等しい場合には、ノイズの主な原因であるショットノイズのパワーがほぼ等しくなる。従って、画角が異なる画像間のノイズのバラつきもほぼ等しくなる。 In the example shown in FIG. 1, since there are four types of angles of view, four types of evaluation values Ej are also calculated. The evaluation value Ej is an amount proportional to the total energy of light received per unit time by a plurality of imaging units having an angle of view j. For this reason, when Ej is equal regardless of the angle of view j, the power of shot noise, which is the main cause of noise, becomes substantially equal. Therefore, the noise variation between the images having different angles of view is almost equal.
各撮像部は評価値Ejが可能な限り等しくなるように構成される事が望ましいが、評価値Ejを完全に一致させる事は難しい場合がある。このため、Ejのずれの許容範囲を定める必要がある。例えば、各画角の間でSNの差を2割程度までに抑えたい場合には、信号値が2倍になればノイズ値は√2倍となる関係を有していることから、評価値Ejの差は4割程度に抑えるように設計する。より好ましくは、ユーザが調節できる露光時間の変化幅よりもEjの差が小さくなるように撮像部が構成されているとよい。つまり、ユーザが露光時間を1/3段ステップで制御できる場合、画角jと画角kに対する評価値EjとEkの比が次の式を満たすようになっている事が好ましい。 Although it is desirable that each imaging unit is configured so that the evaluation values Ej are as equal as possible, it may be difficult to completely match the evaluation values Ej. For this reason, it is necessary to define an allowable range of deviation of Ej. For example, when it is desired to suppress the SN difference between each angle of view to about 20%, the noise value has a relationship of √2 times when the signal value is doubled. The difference in Ej is designed to be suppressed to about 40%. More preferably, the imaging unit may be configured so that the difference in Ej is smaller than the change width of the exposure time that can be adjusted by the user. That is, when the user can control the exposure time in 1 / 3-step steps, it is preferable that the ratio of the evaluation values Ej and Ek to the angle of view j and the angle of view k satisfy the following expression.
このように各画角における評価値が概略等しくなるように撮像部の数を調整することによって、各画角の集光能力を等しくすることができる。具体的には、第1の画角を有する第1の撮像部群の撮像部の数を、第1の撮像部群の有する画角よりも小さい第2の画角を有する第2の撮像部群の撮像部の数よりも少なくするように構成する。例えば、望遠用の撮像部の数を広角用の撮像部の数よりも多く配置することで各画角の評価値を概略等しくすることが可能となる。このような各画角における評価値が概略等しくなるように撮像部の数を調整することは、例えば撮像装置を製造する際に行うことができる。 In this way, by adjusting the number of imaging units so that the evaluation values at the respective angles of view are approximately equal, the light collecting ability at each angle of view can be made equal. Specifically, the second image pickup unit having a second angle of view smaller than the angle of view of the first image pickup unit group in which the number of image pickup units of the first image pickup unit group having the first view angle is set. The number is configured to be smaller than the number of imaging units in the group. For example, it is possible to make the evaluation values for each angle of view approximately equal by disposing more telephoto imaging units than wide-angle imaging units. Such adjustment of the number of imaging units so that the evaluation values at the respective angles of view are approximately equal can be performed, for example, when an imaging device is manufactured.
<撮像動作>
図4は、実施例1の撮像動作の一例を示すフローチャートである。なお、各画角の評価値は前述したように概略等しく設計されているものとする。図4に示す処理は、例えばROM203に格納されたプログラムをCPU201が読み出して実行することによって実現される。ユーザが操作部164や撮影ボタン163を操作すると図4に示す撮像動作が開始される。CPU201は、操作部164や撮影ボタン163を介してユーザ指示を受け取り、ユーザの操作を判定する(ステップS101)。
<Imaging operation>
FIG. 4 is a flowchart illustrating an example of an imaging operation according to the first embodiment. It should be noted that the evaluation values for each angle of view are designed to be approximately equal as described above. The processing shown in FIG. 4 is realized by the
ユーザが操作部164を操作してフォーカス及び絞りなど撮像光学系の設定を変更した場合、CPU201は、光学系制御方法生成部209から各撮像部の有する光学系の制御方法を取得する(ステップS102)。ステップS102では、光学系制御方法生成部209は、あらかじめユーザにより設定された動作モードに基づき、撮像部の光学系の制御方法を算出する。例えば、全ての撮像部が同じフォーカスに合わせて撮影する動作モードの場合は、光学系制御方法生成部209は全ての撮像部のフォーカスをユーザが指定した値に設定する。逆に、複数の撮像部がそれぞれ異なるフォーカスに合わせて撮影する動作モードの場合は、光学系制御方法生成部209はユーザが指定した以外の撮像部のフォーカスは維持するように設定値を算出する。光学系制御方法生成部209は絞りについても同様の動作を行う。なお、先に説明したように、本実施例においては撮像部の入射瞳(≒レンズ前側からみた絞り)の大きさは概略等しく設計されている。ステップS102において、例えばユーザが絞りの値を変更した場合においては、全ての撮像部が同じ絞りに合わせて撮影する動作モードの場合には、全ての撮像部の入射瞳の大きさが同様に変化するので、画角毎の評価値は概略等しい状態となる。一方、複数の撮像部がそれぞれ異なるフォーカスに合わせて撮影する動作モードの場合には、ユーザが絞りの値を変更した場合には、入射瞳の大きさが変更された状態になる。このような場合には、後述する実施例2で説明するように、算出した評価値に基づいて撮像部の絞りを調整する処理が行われる。本処理の詳細な説明は実施例2において行う。
When the user operates the
CPU201は、この算出された絞り値やフォーカスの値に基づいて光学系制御部210を制御し、撮像部101−161の各レンズ群や絞りの状態を変更する(ステップS103)。光学系制御部210は、撮像部101−161の各レンズ群や絞りの状態を示す撮像パラメータをCPU201に送信し、CPU201は受信した撮像パラメータをRAM202の所定領域に格納する(ステップS104)。
The
なお、ユーザが撮影ボタン163を半分程度押し下げた時、ユーザによる設定に基づいて、フォーカスを自動的に合わせるオートフォーカスや絞りを自動的に合わせて露光量を調節するオートエクスポージャーが行われる。この操作により撮像部のフォーカスや絞りが自動的に変更されるから、これも撮像光学系の変更動作の一つである。このようにオートエクスポージャーが行われる場合にもステップS102からS104で説明した処理が行われる。
Note that when the user depresses the
ユーザが撮影ボタン163を完全に押し下げた時、ステップS101においてCPU201は、撮影操作が行われたと判断する。CPU201は、光学系制御部210を制御して、撮像部101−161のシャッタ304を予め設定した時間だけ開口させて撮像センサ307を露光する(ステップS105)。
When the user presses down the
その後、CPU201は、撮像部101−161のバッファ309を制御してRAWデータ群をRAM202の所定領域に格納する(ステップS106)。
Thereafter, the
次に、CPU201は、画像生成パラメータ生成部211を制御して、ズーム倍率、フォーカス距離および被写界深度などの画像生成パラメータを取得し、RAM202の所定領域に格納する(ステップS107)。そして、デジタル信号処理部208を制御してRAWデータ群の現像処理を実行させる(ステップS108)。
Next, the
デジタル信号処理部208は、RAWデータ群、撮像パラメータ、カメラ設計パラメータ、及び画像生成パラメータを入力して、これらデータとパラメータに基づき現像処理を実行して、画像データ(以下、初回画像データ)を生成する。その後、デジタル信号処理部208は、RAWデータ群に撮像パラメータ(必要ならばカメラ設計パラメータ)を付加し、かつ初回画像データに現像処理に使用した画像生成パラメータを付加する。CPU201は、デジタル信号処理部208が出力する初回画像データおよびRAWデータ群をRAM202の所定領域に格納する(ステップS109)。
The digital
次に、CPU201は、圧縮伸長部212を制御して初回画像データをエンコード処理する(ステップS110)。そして、I/F205を制御して、エンコード処理済の初回画像データおよびRAWデータ群を一つのファイルとして出力する(ステップS111)。なお、データの出力先は、例えば記録メディア206や図示しないサーバ装置などである。また、圧縮伸長部212によってロスレス圧縮を施したRAWデータ群を出力してもよい。
Next, the
<ズーム倍率変更処理>
次に、撮影後の画像のズーム倍率の変更を行う処理(以下、倍率変更処理)を説明する。図5は、倍率変更処理の一例を示すフローチャートである。なお、図5に示す処理は、例えばROM203に格納されたプログラムをCPU201が読み出して実行することによって実現される。また、倍率変更処理は、通常、操作部164を介したユーザ指示により開始されるが、撮影後、自動的に開始されてもよい。
<Zoom magnification change processing>
Next, processing for changing the zoom magnification of an image after photographing (hereinafter, magnification changing processing) will be described. FIG. 5 is a flowchart illustrating an example of the magnification changing process. Note that the processing illustrated in FIG. 5 is realized by the
CPU201は、倍率変更処理が指示されると(ステップS501)、ユーザが指示する画像データおよび対応するRAWデータ群を例えば記録メディア206から取得する(ステップS502)。そして、圧縮伸長部212を制御して画像データを(必要ならばRAWデータ群も)デコード処理し、デコードした画像データとRAWデータ群をRAM202の所定領域に格納する(ステップS503)。
When the magnification change process is instructed (step S501), the
なお、ステップS502で取得するデータは、撮像装置100によって撮影された撮像データや生成された画像データである必要はなく、他の撮像装置や他の画像処理装置によって例えば記録メディア206に格納されたデータでもよい。ただし、その場合には、取得するRAWデータに関連する撮像パラメータおよびカメラ設計パラメータを別途取得する必要がある。
Note that the data acquired in step S502 does not have to be image data captured by the
次に、CPU201は、RAWデータ群から撮像パラメータとカメラ設計パラメータとを、画像データから画像生成パラメータを読み込む(ステップS504)。そして、画像生成パラメータ生成部211から画像生成パラメータの変更が可能な範囲を取得する(S505)。なお、この画像生成パラメータには、撮影後の画像のズーム倍率が含まれている。
Next, the
次に、CPU201は、CG生成部207、表示制御部204を制御して、画像データが表す画像を表示し、変更が可能な範囲で画像生成パラメータを変更するためのグラフィカルユーザインタフェイス(GUI)をモニタ213に表示する(ステップS506)。ユーザは、モニタ213に表示される画像を参照して、所望する画像が得られている場合は例えばGUIの決定ボタンを押し、画像生成パラメータを変更する場合はGUIを操作して例えばGUIの変更ボタンを押す。
Next, the
CPU201は、ユーザ操作が決定ボタンの押下動作であるか、又はズーム倍率変更ボタンの押下動作であるかを判定する(ステップS507)。決定ボタンが押された場合はユーザが所望する画像データが撮像されたと判断して倍率変更処理を終了する。
The
ズーム倍率変更ボタンが押された場合、CPU201はデジタル信号処理部208を制御して、ユーザがGUIを介して指定する画像生成パラメータによってRAWデータ群を現像処理した画像データ(以下、再現像画像データ)を生成させる(ステップS508)。そして、処理をステップS506に戻して、再現像画像データが表す画像をGUIに表示する。
When the zoom magnification change button is pressed, the
CPU201は、ステップS507の判定により倍率変更処理後に決定ボタンが押されたか判断する(ステップS509)。ステップS509で倍率変更処理後に決定ボタンが押されたと判断すると、初回画像データを出力する場合と同様の処理により再現像画像データを出力する(ステップS510)。そして、倍率変更処理を終了する。
The
<画像処理>
デジタル信号処理部208の現像処理のうち、複数のRAWデータを合成する処理(以下、画像合成処理)を簡単に説明する。本実施例における画像合成処理では、複数視点画像から被写界深度の浅い画像を生成する合成開口法と電子ズームとを組み合わせる事により、この画像合成処理によって被写界深度を制御しつつ、ズーム倍率を変更する。
<Image processing>
Of the development processing of the digital
図1に示すように、撮像部101−161の位置はそれぞれ異なり、撮像部101−161が出力するRAWデータ群は所謂複数視点画像を構成する。デジタル信号処理部208は、RAWデータ群の撮像データを取得する(撮像データ取得処理)。そしてデジタル信号処理部208は、個々の画像データに必要に応じてフィルタ処理を施し、さらにフォーカスを合わせたい距離(以下、フォーカス距離)に位置合わせをした上で画像データを足し合わせ、被写界深度が浅い合成画像を生成する。被写界深度の調節は、一般にはフィルタ処理に使用するフィルタを変更するか、合成に用いる画像数を変更するなどして行う事ができる。また、画像の位置合わせに必要な位置ずれ量は、各撮像部の位置や向きなどのカメラ設計パラメータと、フォーカス距離などの画像生成パラメータとから算出可能である。
As illustrated in FIG. 1, the positions of the
ズーム倍率の変更は、使用する撮像部の切り替えと、一般的な電子ズームの手法を組み合わせて用いればよい。つまり、ズーム倍率に応じて適切な画角を持つ撮像部を選び、さらに電子ズームの処理を行うことでほぼ連続的にズーム倍率の変更を実現する。一般的な電子ズームの処理では、画像にフィルタ処理を行いながら所望の領域で画素のリサンプリングを行い、所望のズーム倍率の画像を得る。合成に用いる画像は出力すべきズーム倍率に対応した画角よりも広い画角を持つ画像の内、最も狭い画角を有する複数の画像を用いるとよい。 The zoom magnification can be changed by combining switching of the imaging unit to be used and a general electronic zoom method. That is, the zoom magnification can be changed almost continuously by selecting an imaging unit having an appropriate angle of view according to the zoom magnification and further performing electronic zoom processing. In general electronic zoom processing, pixel resampling is performed in a desired region while filtering the image to obtain an image with a desired zoom magnification. As an image used for composition, it is preferable to use a plurality of images having the narrowest angle of view among images having an angle of view wider than the angle of view corresponding to the zoom magnification to be output.
開口合成処理と電子ズーム処理のうち、開口合成処理を先に行うと、電子ズーム処理は一度で済むため効率的である。ただし、ズーム倍率が大きいと、出力に必要のない領域の画像に対しても開口合成処理を行う事になり、効率が悪くなってくる。この場合は、逆に電子ズーム処理を先に行う方が好ましい。電子ズーム処理を行う場合、画像の位置合わせを考慮しつつ画像のリサンプリング処理を行うとよい。これにより、位置合わせがなされ、所望の画角で所望の画素数を持つ画像群が生成される。開口合成処理では、これらの画像にさらにフィルタリング処理を行った上で足し合わせればよい。 Of the aperture synthesis process and the electronic zoom process, if the aperture synthesis process is performed first, the electronic zoom process only needs to be performed once, which is efficient. However, if the zoom magnification is large, the aperture synthesis process is performed even on an image in an area that is not necessary for output, and the efficiency becomes worse. In this case, it is preferable to perform the electronic zoom process first. When electronic zoom processing is performed, image resampling processing may be performed in consideration of image alignment. Thereby, alignment is performed and an image group having a desired number of pixels at a desired angle of view is generated. In the aperture synthesis processing, these images may be added after further filtering processing.
以上説明した実施例1の構成によれば、画角毎の光を受ける量を概略一致させる事ができる。このため、画角が異なる画像間において、明るさ、ノイズおよび露光時間を同時に合わせる事が可能となる。これにより、ユーザは明るさ、ノイズおよび露光時間の大きな変動なしに、撮影後の画像データに対するズームの変更を行う事ができる。 According to the configuration of the first embodiment described above, the amount of light received at each angle of view can be approximately matched. For this reason, it is possible to simultaneously adjust brightness, noise, and exposure time between images having different angles of view. Thereby, the user can change the zoom with respect to the image data after shooting without significant changes in brightness, noise, and exposure time.
[実施例2]
実施例1では、各撮像部の入射瞳の大きさが全て概略一致する場合の構成について説明した。本実施例においては各撮像部の入射瞳の大きさが各々異なる場合の構成について説明する。なお、実施例1と共通である部分については説明を省略する。
[Example 2]
In the first embodiment, the configuration in the case where the sizes of the entrance pupils of the respective imaging units are almost the same has been described. In the present embodiment, a configuration when the sizes of the entrance pupils of the respective imaging units are different will be described. Note that description of portions common to the first embodiment is omitted.
<撮像装置の構成>
図6は、実施例2の撮像装置600の外観例を示す。撮像装置600は、前面(被写体側)に16個の撮像部601−616を有する所謂多眼カメラである。撮像装置600はフラッシュ162と撮影ボタン163を備える。また、図6には示さないが、撮像装置600は、その背面に操作部や表示部などを有する。以下本実施例では撮像部を16個有する場合の説明を行うが、撮像部の数は16個に限られるわけではなく、二つ以上であればよい。実施例2では、撮像部の入射瞳の大きさを調整する例を示しているので、画角が異なる2種類の撮像部を少なくとも用いて実現することができる。その他の構成は、実施例1と同様である。
<Configuration of imaging device>
FIG. 6 illustrates an appearance example of the
<撮像部の構成とその組み合わせ>
実施例1と同様に、本実施例においても撮像部の画角は全て同じではない。例えば図6に示した16眼の多眼カメラの例においては、撮像部601−616の画角は四種類存在し、撮像部601−604、撮像部605−608、撮像部609−612、撮像部613−616がそれぞれ同じ画角を持っている。実施例1では撮像部101−161の有する光学系の入射瞳の大きさは概略等しく設計されている例を説明したが、本実施例では、撮像部601−616の有する光学系の入射瞳の大きさは異なる場合の例を説明する。
<Configuration of imaging unit and its combination>
Similar to the first embodiment, not all the angles of view of the imaging units are the same in this embodiment. For example, in the example of the 16-lens multi-lens camera shown in FIG. 6, there are four types of angles of view of the imaging units 601-616, the imaging units 601-604, the imaging units 605-608, the imaging units 609-612, and the imaging. The parts 613-616 have the same angle of view. In the first embodiment, an example in which the sizes of the entrance pupils of the optical systems included in the imaging units 101-161 are designed to be approximately equal has been described. However, in this embodiment, the entrance pupils of the optical systems included in the imaging units 601-616 are described. An example where the sizes are different will be described.
実施例2においても、画角が異なる画像間において、明るさ、ノイズ及び露光時間を同時に合わせるために、撮像部601−616の構成は画角毎の合計の集光能力が概略同じとなるように構成されている。具体的には、jを画角のインデックスとし、画角毎に以下の式で計算される評価値Ejに対し、それらが概略等しくなるように構成されている。
Ej = Σ( Si×τi×Ωj )
ここで、Σは画角jを持つ撮像部で和を取ることを意味する。また、Siはi番目の撮像部の有する光学系の入射瞳の面積である。入射瞳の面積は、光学系の設計データ(設計パラメータ)から計算する事ができる。また、τiは、i番目の撮像部の光のエネルギー受光効率である。τiは直接測定される事が好ましいが、撮像部の有するレンズ群およびカラーフィルタの透過率、撮像センサの受光効率から計算する事もできる。Ωjは画角jの撮像部が撮像する領域の立体角であり、実施例1と同様である。
Also in the second embodiment, in order to adjust the brightness, noise, and exposure time at the same time between images with different angle of view, the configuration of the imaging units 601-616 is approximately the same as the total light collection capability for each angle of view. It is configured. Specifically, j is an index of the angle of view, and the evaluation value Ej calculated by the following formula for each angle of view is configured to be approximately equal.
Ej = Σ (Si × τi × Ωj)
Here, Σ means that the sum is taken by the imaging unit having the angle of view j. Si is the area of the entrance pupil of the optical system of the i-th imaging unit. The area of the entrance pupil can be calculated from design data (design parameters) of the optical system. Further, τ i is the energy reception efficiency of light of the i-th imaging unit. τi is preferably measured directly, but can also be calculated from the transmittance of the lens group and color filter of the imaging unit and the light receiving efficiency of the imaging sensor. Ωj is the solid angle of the area imaged by the imaging unit with the angle of view j, which is the same as in the first embodiment.
図6に示した例では4種類の画角があるため、評価値Ejも4種類計算される。実施例2の評価値Ejも、画角jを持つ複数の撮像部が単位時間当たりに受ける光のエネルギーの合計に比例する量である。このためEjが画角jによらず等しい場合には、実施例1と同様、ノイズの主な原因であるショットノイズのパワーがほぼ等しくなる。 In the example shown in FIG. 6, since there are four types of angles of view, four types of evaluation values Ej are also calculated. The evaluation value Ej of the second embodiment is also an amount proportional to the total light energy received per unit time by the plurality of imaging units having the angle of view j. For this reason, when Ej is equal regardless of the angle of view j, the power of the shot noise, which is the main cause of noise, is almost equal, as in the first embodiment.
実施例1と同様に、各撮像部は評価値Ejが可能な限り等しくなるように構成される事が望ましいが、評価値Ejを完全に一致させる事は難しい。本実施例においても実施例1と同様のEjの比の許容量を設定することができる。 As in the first embodiment, each imaging unit is preferably configured so that the evaluation values Ej are as equal as possible, but it is difficult to make the evaluation values Ej completely coincide. Also in the present embodiment, the allowable amount of the ratio of Ej similar to that in the first embodiment can be set.
なお、撮像部iの入射瞳面積Siは、撮像部の絞り値に応じて変化する。このため、ユーザの指示あるいはオートエクスポージャー機能により、撮像部の絞り値が変化した場合には評価値Ejも変化する。よく晴れた日中などの非常に明るいシーンでの撮影では、ゲインの調整のみではセンサの飽和を防ぐ事ができず、絞る事でしかセンサの飽和を防げない場合もある。このようなシーンにおいても課題を解決するために、ある撮像部の設定が変えられた場合には、評価値Ejが概略一致するように他の撮像部の設定も連動して変える方が好ましい。詳細は後述するが、本実施例ではある撮像部の絞り設定値を変化させた場合に、評価値Ejが概略一致するように他の撮像部の絞り設定値を、光学系制御方法生成部209にて算出する。
Note that the entrance pupil area Si of the imaging unit i changes according to the aperture value of the imaging unit. For this reason, the evaluation value Ej also changes when the aperture value of the imaging unit changes due to a user instruction or an auto exposure function. When shooting in a very bright scene such as a sunny day, the saturation of the sensor cannot be prevented only by adjusting the gain, and the saturation of the sensor may be prevented only by narrowing down. In order to solve the problem even in such a scene, when the setting of a certain image pickup unit is changed, it is preferable to change the settings of other image pickup units in conjunction with each other so that the evaluation values Ej substantially match. Although details will be described later, in this embodiment, when the aperture setting value of an imaging unit is changed, the aperture setting values of the other imaging units are set to the optical system control
<撮像部の設定変更時の動作>
図7のフローチャートにより撮像動作の一例を説明する。なお、図7に示す処理は、例えばROM203に格納されたプログラムをCPU201が読み出して実行することによって実現される。ユーザが操作部164や撮影ボタン163を操作すると撮像動作が開始される。CPU201は、操作部164や撮影ボタン163を介してユーザ指示を受け取り、ユーザの操作が撮像光学系の設定変更であるか否かを判定する(ステップS701)。
<Operation when changing the setting of the imaging unit>
An example of the imaging operation will be described with reference to the flowchart of FIG. Note that the processing shown in FIG. 7 is realized by the
ユーザが操作部164を操作してフォーカス及び絞りなどの撮像光学系の設定を変更した場合、CPU201は、光学系制御方法生成部209から各撮像部の有する光学系の制御方法を取得する(ステップS702)。
When the user operates the
ステップS702においては、ユーザの操作が、全ての撮像部でフォーカスを一致させて撮影するモードの場合には全ての撮像部のフォーカスをユーザの指示した値とする。また、撮像部毎に異なるフォーカスで撮影する場合には、ユーザが指示した撮像部のみを指示されたフォーカス値に設定する。光学系制御方法生成部209は絞りについても同様の動作を行う。このとき、光学系制御方法生成部209は、第1の画角kの評価値Ekが第2の画角jの評価値Ejと概略一致するように、その他の撮像部の絞り値を算出する。例えば、全ての撮像部で絞りを一致させて撮影するモードの場合には、ユーザが絞り値を20%大きくした場合、その他の全ての撮像部の絞り値も20%大きくすると、評価値Ejは互いに概略一致する。一方、撮像部毎に異なる絞り値で撮影する場合には、ユーザが指示した撮像部のみを指示された絞り値に設定する。そして、他の撮像部については、他の画角kの評価値Ekがユーザが指示した撮像部の画角の評価値Ejと概略一致するように、その他の撮像部の絞り値を算出する。
In step S <b> 702, when the user's operation is a mode in which shooting is performed with all the imaging units having the same focus, the focus of all the imaging units is set to a value designated by the user. When shooting with a different focus for each imaging unit, only the imaging unit designated by the user is set to the designated focus value. The optical system control
また、絞りではなくフォーカスを変更しても入射瞳面積Siが変更されるような光学系の場合は、やはり他の画角kの評価値Ekが評価値Ejと一致するように絞り値とフォーカスを算出する。 In addition, in the case of an optical system in which the entrance pupil area Si is changed even if the focus is changed instead of the aperture, the aperture value and the focus are set so that the evaluation value Ek of the other angle of view k coincides with the evaluation value Ej. Is calculated.
CPU201は、この算出された絞り値やフォーカスに基づいて光学系制御部210を制御し、撮像部101−161の各レンズ群や絞りの状態を変更する(ステップS703)。光学系制御部210は、撮像部101−161の各レンズ群や絞りの状態を示す撮像パラメータをCPU201に送信、CPU201は受信した撮像パラメータをRAM202の所定領域に格納する(ステップS704)。
The
なお、ユーザが撮影ボタン163を半分程度押し下げた時、ユーザによる設定に基づいて、フォーカスを自動的に合わせるオートフォーカスや絞りを自動的に合わせて露光量を調節するオートエクスポージャーが行われる。この操作により撮像部のフォーカスや絞りが自動的に変更されるから、これも撮像光学系の変更動作の一つであり、ステップS902からステップS904の動作が行われる。
Note that when the user depresses the
図8は、図7のフローチャートのステップS702からステップS704で説明した撮像パラメータを算出するデータの流れの例を示している。光学系制御方法生成部209は、評価値算出部803と撮像パラメータ算出部804とを有している。設計パラメータ格納部801及び撮像パラメータ格納部802は、例えばRAM202で構成される。評価値算出部803は、設計パラメータ格納部801から画角の値を含む各撮像部の設計パラメータを取得する(設計パラメータ取得処理)。また、評価値算出部803は、撮像パラメータ格納部802から絞り又はフォーカスの値を含む各撮像部の撮像パラメータを取得する(撮像パラメータ取得処理)。撮像パラメータ格納部802から取得される撮像パラメータは、ユーザ操作によって変更された撮像パラメータを含む。評価値算出部803は、取得した設計パラメータ及び撮像パラメータを用いて画角毎の評価値Ejを算出する。撮像パラメータ算出部804は、算出された評価値Ejを取得して絞り又はフォーカスの値を含む撮像パラメータを算出する。つまり、前述したように、撮像パラメータ算出部804は、画角毎の評価値Ejが等しくなるように所定の画角の撮像部の絞り又はフォーカスの値を算出する。そして、撮像パラメータ算出部804は、算出した撮像パラメータを撮像パラメータ格納部802に格納する。その後、ユーザ指定された絞り又はフォーカスの値が設定された撮像部と、撮像パラメータ算出部によって算出された絞り又はフォーカスの値が設定された撮像部とによる撮像が行われることになる。
FIG. 8 shows an example of a data flow for calculating the imaging parameters described in steps S702 to S704 in the flowchart of FIG. The optical system control
<撮像動作、ズーム倍率変更処理、及び画像処理>
本実施例の撮像動作、ズーム倍率変更処理、及び画像処理については実施例1と同等であるため、説明を省略する。
<Imaging Operation, Zoom Magnification Change Processing, and Image Processing>
Since the imaging operation, zoom magnification change processing, and image processing of the present embodiment are the same as those of the first embodiment, description thereof is omitted.
以上の実施例2の構成により画角毎の光を受ける量を概略一致させる事ができる。実施例2では、入射瞳の大きさが撮像部間で異なっている場合であっても画角毎の光を受ける量を概略一致させることができる。また、ユーザ操作によって絞り値が調整された場合であっても、他の撮像部の絞り値を調整して画角毎の光を受ける量を概略一致させることができる。 With the configuration of the second embodiment described above, the amount of light received at each angle of view can be roughly matched. In the second embodiment, even when the sizes of the entrance pupils are different between the imaging units, the amount of light received at each angle of view can be approximately matched. Even when the aperture value is adjusted by a user operation, the aperture values of other imaging units can be adjusted to roughly match the amounts of light received at each angle of view.
[実施例3]
実施例1および実施例2では、各撮像部の画角の種類が2つ以上あり、各画角につき1つ以上の撮像部があり、画像合成時は同じ画角を持つ複数の撮像データを用いる場合の例について述べた。本実施例3では、画像合成時に異なる画角を持つ複数の撮像データを用いる場合の構成について述べる。
[Example 3]
In the first and second embodiments, there are two or more types of angle of view of each imaging unit, and there are one or more imaging units for each angle of view. An example of use is described. In the third embodiment, a configuration in the case of using a plurality of image data having different angles of view at the time of image composition will be described.
<撮像装置の構成>
図9は、実施例3におけるの撮像装置900の外観例を示す図である。撮像装置900は、前面(被写体側)に18個の撮像部901−918を有する所謂多眼カメラである。撮像装置900はフラッシュ162と撮影ボタン163を備える。実施例1および2と同様、撮像装置900は、その背面に操作部や表示部などを有する。以下本実施例では撮像部を18個有する場合の説明を行うが、撮像部の数は18個に限られるわけではなく、二つ以上であればよい。その他の構成は、実施例1と同様である。
<Configuration of imaging device>
FIG. 9 is a diagram illustrating an appearance example of the
<撮像部の構成とその組み合わせ>
実施例1と同様に、本実施例においても撮像部の画角は全て同じではない。例えば図9に示した18眼の多眼カメラの画角は図10の撮像部画角欄に示すように異なっている。また、実施例2と同様、本実施例では、撮像部901−918の有する光学系の入射瞳の大きさは異なるものとする。
<Configuration of imaging unit and its combination>
Similar to the first embodiment, not all the angles of view of the imaging units are the same in this embodiment. For example, the angle of view of the 18-lens multi-lens camera shown in FIG. 9 is different as shown in the imaging section angle of view column of FIG. Similarly to the second embodiment, in this embodiment, the size of the entrance pupil of the optical system included in the imaging units 901-918 is different.
本実施例では、撮像部901−918の構成は以下の式で計算される評価値G(f)に対し、それらが概略等しくなるように設計されている。
G(f) = Σ( Si×τi×Ωi )
In the present embodiment, the configuration of the imaging units 901-918 is designed so that they are approximately equal to the evaluation value G (f) calculated by the following equation.
G (f) = Σ (Si × τi × Ωi)
ここで、Si,τi,Ωiは、それぞれi番目の撮像部の入射瞳面積、光のエネルギー受光効率、立体角であり、実施例2と同様である。また、fは合成後の画像データの持つ画角(以下出力画像画角)に対応する35mm版換算の焦点距離である。またΣは、実施例2では画角jを持つ撮像部についての和を表したが、本実施例では出力画像画角の画像を合成する際に用いる撮像部について和を取る。すなわち、本実施例においては、撮像部の画角ではなく出力画像画角の明るさを概略同一にする評価値を出力画像画角毎に算出する。図10に、出力画像画角と使用する撮像部の関係の例を示す。本実施例ではある出力画像画角の画像を合成する際に、図10の当該出力画像画角欄に対し網掛けがなされている撮像部を選択して用いる。例えば、出力画像画角が30mmの場合には、撮像部番号4〜7で特定される撮像部904〜907で撮像された撮像データ群を用いることになる。図10に示すように、出力画像画角が狭くなる(すなわち、焦点距離が長くなる)につれ、徐々に狭い画角を有する撮像部に切り換えている。本実施例では、例えば撮像部番号1〜4で特定される第1の撮像データ群と、撮像部番号4〜7で特定される第2の撮像データ群との集光能力を概略一致させる。
Here, Si, τi, and Ωi are the entrance pupil area, light energy receiving efficiency, and solid angle of the i-th imaging unit, respectively, and are the same as in the second embodiment. Further, f is a focal length in terms of 35 mm plate corresponding to the angle of view (hereinafter referred to as output image angle of view) of the combined image data. In addition, Σ represents the sum for the imaging unit having the angle of view j in the second embodiment, but in this embodiment, the sum is obtained for the imaging unit used when the image of the output image angle of view is synthesized. In other words, in the present embodiment, an evaluation value that makes the brightness of the output image angle of view, not the angle of view of the imaging unit approximately the same, is calculated for each output image angle of view. FIG. 10 shows an example of the relationship between the output image angle of view and the imaging unit to be used. In this embodiment, when compositing an image having a certain output image angle of view, an image pickup unit shaded with respect to the output image angle of view column in FIG. 10 is selected and used. For example, when the output image angle of view is 30 mm, the imaging data group captured by the
評価値G(f)は、少なくとも使用する撮像部の組み合わせの種類の数だけ計算される。評価値G(f)も、複数の撮像部が単位時間当たりに受ける光のエネルギーの合計に比例する量である。このためG(f)が出力画像画角によらず等しい場合には、実施例1と同様、ノイズの主な原因であるショットノイズのパワーがほぼ等しくなる。 The evaluation value G (f) is calculated by at least the number of types of combinations of imaging units to be used. The evaluation value G (f) is also an amount proportional to the total energy of light received by a plurality of imaging units per unit time. For this reason, when G (f) is equal regardless of the output image angle of view, the power of the shot noise, which is the main cause of noise, is substantially equal, as in the first embodiment.
評価値G(f)を概略一致させるための撮像部の設計方法について述べる。まず、各撮像部の画角すなわち立体角Ωiは、出力画像画角などの他の要件から与えられているとする。また、実施例1で説明したように立体角Ωiを算出してもよい。また、τiも実施例2で説明したように、各撮像部で使用する光学ガラスやカラーフィルタの特性、撮像センサの特性によりすでに決まっているものとする。ここで評価値G(f)を概略一致させるために調整可能な項目は、入射瞳面積Siである。この入射瞳面積Siは、画角が広い順に決定することができる。図9では、使用する撮像部の組み合わせが出力画像画角に合わせて14通りある。これを出力画像画角の広い方から順番に、1,2,..,14と番号をつけ、それぞれに対応した評価値をG(1), G(2),..,G(14)と表記する。最も広い出力画像画角を有する画像の合成には、1番目から4番目までの撮像部を使用するため、評価値G(1)は以下の式の様になる。
G(1) = S1τ1Ω1 + S2τ2Ω2 + S3τ3Ω3 + S4τ4Ω4
同様に、評価値G(2)は、2番目から5番目までの撮像部を使用する事から、
G(2) = S2τ2Ω2 + S3τ3Ω3 + S4τ4Ω4 + S5τ5Ω5
となる。この式の元で、G(1)とG(2)を概略等しくするには、
S1τ1Ω1 = S5τ5Ω5
としなければならない。ここで、τ1、τ5、Ω1、Ω5はすでに与えられているから、5番目の撮像部の入射瞳面積S5は1番目の撮像部の入射瞳面積S1によって決まってしまう。同様に、6番目の入射瞳面積S6は2番目の撮像部の入射瞳面積S2によって決まってしまう。さらには入射瞳面積S7は入射瞳面積S3で決まり、入射瞳面積S8は入射瞳面積S4で決まる。入射瞳面積S9は入射瞳面積S4で決まり、しかるにS1によって決まってしまう。以下、図9に示した例では入射瞳径S16までは同様に決まってしまう。そして、13番目の評価値G(13)と14番目の評価値G(14)は以下のようになる。
G(13) = S13τ13Ω13 + S14τ14Ω14 + S15τ15Ω15 + S16τ16Ω16
G(14) = S14τ14Ω14 + S15τ15Ω15 + S16τ16Ω16 + S17τ17Ω17 + S18τ18Ω18
ここで、G(13)とG(14)が概略等しいため
S13τ13Ω13 = S17τ17Ω17 + S18τ18Ω18
という式が得られる。この場合、入射瞳面積S17と入射瞳面積S18には自由度が1つだけあり、どちらか一方は自由に決める事ができる。通常は、入射瞳面積S17と入射瞳面積S18は等しくおけばよい。なお、14番目の出力画像画角では、新たに使用する撮像部が17番目の撮像部と18番目の撮像部の2台あるために、このような自由度が発生している事に注意しておく。逆に新たに使用する撮像部の台数が増えない場合では、このような自由度は発生しない。
A design method of the imaging unit for roughly matching the evaluation value G (f) will be described. First, it is assumed that the angle of view of each imaging unit, that is, the solid angle Ωi is given from other requirements such as the output image angle of view. Further, as described in the first embodiment, the solid angle Ωi may be calculated. As described in the second embodiment, τi is already determined by the characteristics of the optical glass and color filter used in each imaging unit and the characteristics of the imaging sensor. Here, an item that can be adjusted to roughly match the evaluation value G (f) is the entrance pupil area Si. The entrance pupil area Si can be determined in order of increasing field angle. In FIG. 9, there are 14 combinations of imaging units to be used in accordance with the output image angle of view. In order from the wider output image angle of view, 1, 2,. . , 14 are assigned numbers, and the evaluation values corresponding to the numbers are expressed as G (1), G (2), .., G (14). Since the first to fourth imaging units are used for synthesis of an image having the widest output image angle of view, the evaluation value G (1) is expressed by the following equation.
G (1) = S1τ1Ω1 + S2τ2Ω2 + S3τ3Ω3 + S4τ4Ω4
Similarly, since the evaluation value G (2) uses the second to fifth imaging units,
G (2) = S2τ2Ω2 + S3τ3Ω3 + S4τ4Ω4 + S5τ5Ω5
It becomes. To make G (1) and G (2) approximately equal under this equation:
S1τ1Ω1 = S5τ5Ω5
And shall be. Here, since τ1, τ5, Ω1, and Ω5 are already given, the entrance pupil area S5 of the fifth imaging unit is determined by the entrance pupil area S1 of the first imaging unit. Similarly, the sixth entrance pupil area S6 is determined by the entrance pupil area S2 of the second imaging unit. Further, the entrance pupil area S7 is determined by the entrance pupil area S3, and the entrance pupil area S8 is determined by the entrance pupil area S4. The entrance pupil area S9 is determined by the entrance pupil area S4, and is determined by S1. Hereinafter, in the example shown in FIG. 9, the incident pupil diameter S16 is similarly determined. The 13th evaluation value G (13) and the 14th evaluation value G (14) are as follows.
G (13) = S13τ13Ω13 + S14τ14Ω14 + S15τ15Ω15 + S16τ16Ω16
G (14) = S14τ14Ω14 + S15τ15Ω15 + S16τ16Ω16 + S17τ17Ω17 + S18τ18Ω18
Where G (13) and G (14) are roughly equal
S13τ13Ω13 = S17τ17Ω17 + S18τ18Ω18
Is obtained. In this case, the entrance pupil area S17 and the entrance pupil area S18 have only one degree of freedom, and either one can be freely determined. Usually, the entrance pupil area S17 and the entrance pupil area S18 should be equal. Note that in the 14th output image angle of view, such a degree of freedom occurs because there are two new imaging units, the 17th imaging unit and the 18th imaging unit. Keep it. On the contrary, when the number of imaging units to be newly used does not increase, such a degree of freedom does not occur.
結局、画像の合成に用いる撮像部を1台ずつ変える限りにおいては、入射瞳面積Siは画角の広いいくつかの撮像部のみを指定すると、後は自動的に決定される。撮像部の台数を一度に2台以上増加させる場合には、増加させた台数に応じて指定できる入射瞳の個数が増える。図9に示した例ではS1, S2, S3, S4の4つの値と、S17またはS18のいずれか1つのみが自由に設定できる値である。このように制約があるものの、以上述べた手順に従って評価値G(f)が概略一致するように各撮像部を設計する事が可能である。 After all, as long as the image pickup units used for image synthesis are changed one by one, the entrance pupil area Si is automatically determined after designating only a few image pickup units having a wide angle of view. When the number of imaging units is increased by two or more at a time, the number of entrance pupils that can be specified increases according to the increased number. In the example shown in FIG. 9, four values S1, S2, S3, and S4 and only one of S17 and S18 are values that can be freely set. Although there are restrictions as described above, it is possible to design each imaging unit so that the evaluation values G (f) substantially match according to the procedure described above.
なお、図10の例では、出力画像画角に対応する撮像部を、画角の大きさに合わせて順に採用している例を説明した。しかしながら、出力画像画角に対応する合成画像を出力可能であれば、必ずしも画角の大きさ順に使用する撮像部を選択しなくてもよい。また、本実施例では、広い出力画像画角を構成する撮像部から順に評価値を算出する例を説明したが、狭い出力画像画角を構成する撮像部から順に評価値を算出してもよい。 In the example of FIG. 10, the example in which the imaging units corresponding to the output image angle of view are sequentially employed according to the size of the angle of view has been described. However, as long as a composite image corresponding to the output image angle of view can be output, it is not necessary to select an imaging unit to be used in the order of the angle of view. Further, in this embodiment, the example in which the evaluation value is calculated in order from the imaging unit that forms the wide output image angle of view has been described, but the evaluation value may be calculated in order from the imaging unit that forms the narrow output image angle of view. .
<撮像動作、ズーム倍率変更処理、画像処理>
実施例3における撮像動作、ズーム倍率変更処理、及び画像処理は実施例1又は2と同等であるため、説明を省略する。
<Imaging operation, zoom magnification change processing, image processing>
Since the imaging operation, zoom magnification change processing, and image processing in the third embodiment are the same as those in the first or second embodiment, description thereof is omitted.
以上の実施例3の構成により画角毎に光を受ける量を概略一致させる事ができ、画角が異なる画像データを合成する場合においても、明るさ、ノイズ、及び露光時間を同時に合わせる事が可能となる。 With the configuration of the third embodiment described above, the amount of light received at each angle of view can be roughly matched. Even when image data with different angle of view is synthesized, the brightness, noise, and exposure time can be adjusted simultaneously. It becomes possible.
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (15)
前記複数の撮像部のうち第1の画角を持つ1つ以上の撮像部の数は、前記第1の画角より広い画角を持つ1つ以上の撮像部の数より多く、かつ、
前記複数の撮像部のうち第1の画角を持つ1つ以上の撮像部が合計で受ける光の量と、前記第1の画角とは異なる第2の画角を持つ1つ以上の撮像部が合計で受ける光の量との比は、調節可能な露光時間の変化幅の範囲内であることを特徴とする撮像装置。 An imaging apparatus having a plurality of imaging units arranged on the same plane,
The number of the one or more imaging unit having a first angle of view of the plurality of imaging unit Many than the number of the one or more imaging unit having a wide angle of view than the first field angle and
One or more imaging having a total amount of light received by one or more imaging units having a first angle of view among the plurality of imaging units and a second angle of view different from the first angle of view. The ratio of the total amount of light received by the unit is within an adjustable range of change in exposure time .
前記複数の撮像部のうち第1の画角を持つ1つ以上の撮像部の数は、前記第1の画角より広い画角を持つ1つ以上の撮像部の数より多く、かつ、
前記複数の撮像部のうち第1の画角を持つ1つ以上の撮像部から得られた撮像データに変換された光の量の合計と、前記第1の画角とは異なる第2の画角を持つ1つ以上の撮像部から得られた撮像データに変換された光の量の合計との比は、調節可能な露光時間の変化幅の範囲内であることを特徴とする画像処理装置。 An image processing apparatus having a generation means for generating image data by combining image data obtained from a plurality of image pickup units arranged on the same plane,
The number of the one or more imaging unit having a first angle of view of the plurality of imaging unit Many than the number of the one or more imaging unit having a wide angle of view than the first field angle and
A total of the amount of light converted into imaging data obtained from one or more imaging units having a first angle of view among the plurality of imaging units, and a second image different from the first angle of view An image processing apparatus characterized in that a ratio of the amount of light converted into imaging data obtained from one or more imaging units having corners is within a range of changeable exposure time .
前記複数の撮像部のうち第1の画角を持つ1つ以上の撮像部が合計で受ける光の量と、前記第1の画角とは異なる第2の画角を持つ1つ以上の撮像部が合計で受ける光の量との比は、調節可能な露光時間の変化幅の範囲内であることを特徴とする撮像装置。 An imaging apparatus having a plurality of imaging units,
One or more imaging having a total amount of light received by one or more imaging units having a first angle of view among the plurality of imaging units and a second angle of view different from the first angle of view. The ratio of the total amount of light received by the unit is within an adjustable range of change in exposure time.
前記取得した第1の画角を持つ撮像部における撮像パラメータを変更することで、前記第1の画角を持つ撮像部が合計で受ける光の量と、前記第2の画角を持つ撮像部が合計で受ける光の量との比が、調節可能な露光時間の変化幅の範囲内になるように制御を行う制御手段と
をさらに備えることを特徴とする請求項5に記載の撮像装置。 Imaging parameter acquisition means for acquiring imaging parameters in each imaging unit related to the amount of light received;
The imaging unit having the second field angle and the amount of light received by the imaging unit having the first field angle in total by changing the imaging parameter in the imaging unit having the acquired first field angle. The image pickup apparatus according to claim 5 , further comprising a control unit that performs control so that a ratio of a total amount of light received by the light source falls within an adjustable range of change in exposure time.
前記複数の撮像部のうち第1の画角を持つ1つ以上の撮像部から得られた撮像データに変換された光の量の合計と、前記第1の画角とは異なる第2の画角を持つ1つ以上の撮像部から得られた撮像データに変換された光の量の合計との比は、調節可能な露光時間の変化幅の範囲内であることを特徴とする画像処理装置。 An image processing apparatus having a generating unit that generates image data by combining image data obtained from a plurality of image capturing units,
A total of the amount of light converted into imaging data obtained from one or more imaging units having a first angle of view among the plurality of imaging units, and a second image different from the first angle of view An image processing apparatus characterized in that a ratio of the amount of light converted into imaging data obtained from one or more imaging units having corners is within a range of changeable exposure time .
前記取得した第1の画角を持つ撮像部における撮像パラメータを変更することで、前記複数の撮像部のうち第1の画角を持つ1つ以上の撮像部から得られた撮像データに変換された光の量の合計と、前記第2の画角を持つ1つ以上の撮像部から得られた撮像データに変換された光の量の合計との比が、調節可能な露光時間の変化幅の範囲内になるように制御を行う制御手段と
をさらに備えることを特徴とする請求項9に記載の画像処理装置。 Imaging parameter acquisition means for acquiring imaging parameters in each imaging unit related to the amount of light received;
By changing the imaging parameter in the acquired imaging unit having the first angle of view, it is converted into imaging data obtained from one or more imaging units having the first angle of view among the plurality of imaging units. The ratio of the total amount of light and the total amount of light converted into imaging data obtained from one or more imaging units having the second angle of view can be adjusted. The image processing apparatus according to claim 9 , further comprising: a control unit that performs control so as to fall within the range.
前記撮像データ取得手段が取得した第1の撮像データ群を撮像した、第1の画角を有する1つ以上の撮像部が合計で受ける光の量と、前記第1の撮像データ群とは異なる第2の撮像データ群を撮像した、前記第1の画角とは異なる第2の画角を有する1つ以上の撮像部が合計で受ける光の量との比が、調節可能な露光時間の変化幅の範囲内になるように、前記取得した複数の撮像データから前記第1の撮像データ群を選択する選択手段と、
前記選択した第1の撮像データ群の撮像データを合成して画像データを生成する生成手段と
を備えることを特徴とする画像処理装置。 Imaging data acquisition means for acquiring a plurality of imaging data obtained from a plurality of imaging units;
The amount of light received in total by one or more imaging units having a first angle of view, obtained by imaging the first imaging data group acquired by the imaging data acquisition means, is different from the first imaging data group The ratio of the total amount of light received by one or more imaging units having a second field angle different from the first field angle obtained by imaging the second imaging data group is an adjustable exposure time. Selection means for selecting the first imaging data group from the acquired plurality of imaging data so as to fall within a range of change width;
An image processing apparatus comprising: generating means for generating image data by combining image data of the selected first image data group.
前記撮像データ取得ステップにおいて取得した第1の撮像データ群を撮像した、第1の画角を有する1つ以上の撮像部が合計で受ける光の量と、前記第1の撮像データ群とは異なる第2の撮像データ群を撮像した、前記第1の画角とは異なる第2の画角を有する1つ以上の撮像部が合計で受ける光の量との比が、調節可能な露光時間の変化幅の範囲内になるように、前記取得した複数の撮像データから前記第1の撮像データ群を選択する選択ステップと、
前記選択した第1の撮像データ群の撮像データを合成して画像データを生成する生成ステップと
を備えることを特徴とする画像処理方法。 An imaging data acquisition step of acquiring a plurality of imaging data obtained from a plurality of imaging units;
The amount of light received in total by one or more imaging units having a first angle of view, which is obtained by imaging the first imaging data group acquired in the imaging data acquisition step, is different from the first imaging data group. The ratio of the total amount of light received by one or more imaging units having a second field angle different from the first field angle obtained by imaging the second imaging data group is an adjustable exposure time. A selection step of selecting the first imaging data group from the plurality of acquired imaging data so as to fall within a range of change width;
An image processing method comprising: a generation step of generating image data by combining image data of the selected first image data group.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011224814A JP5896680B2 (en) | 2011-10-12 | 2011-10-12 | Imaging apparatus, image processing apparatus, and image processing method |
EP12183748.8A EP2582128A3 (en) | 2011-10-12 | 2012-09-10 | Image-capturing device |
EP13154074.2A EP2592823A3 (en) | 2011-10-12 | 2012-09-10 | Image-capturing device |
US13/613,809 US20130093842A1 (en) | 2011-10-12 | 2012-09-13 | Image-capturing device |
KR1020120109915A KR101514502B1 (en) | 2011-10-12 | 2012-10-04 | Image-capturing device, image processing apparatus, image processing method, and method of manufacturing image-capturing device |
CN201210388219.4A CN103051833B (en) | 2011-10-12 | 2012-10-12 | Picture pick-up device and manufacture method, image processing apparatus and image processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011224814A JP5896680B2 (en) | 2011-10-12 | 2011-10-12 | Imaging apparatus, image processing apparatus, and image processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2013085176A JP2013085176A (en) | 2013-05-09 |
JP2013085176A5 JP2013085176A5 (en) | 2014-11-06 |
JP5896680B2 true JP5896680B2 (en) | 2016-03-30 |
Family
ID=48529911
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011224814A Expired - Fee Related JP5896680B2 (en) | 2011-10-12 | 2011-10-12 | Imaging apparatus, image processing apparatus, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5896680B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6278668B2 (en) * | 2013-11-22 | 2018-02-14 | キヤノン株式会社 | Compound eye imaging device |
JP6355324B2 (en) * | 2013-12-06 | 2018-07-11 | キヤノン株式会社 | Imaging apparatus and control method thereof |
JP6239993B2 (en) | 2014-02-07 | 2017-11-29 | オリンパス株式会社 | Imaging device, display device, and control method |
JP6478511B2 (en) * | 2014-08-01 | 2019-03-06 | キヤノン株式会社 | Image processing method, image processing apparatus, compound eye imaging apparatus, image processing program, and storage medium |
EP3678361A4 (en) * | 2017-10-20 | 2020-10-28 | Sony Corporation | Information processing device, information processing method, program, and interchangeable lens |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005303694A (en) * | 2004-04-13 | 2005-10-27 | Konica Minolta Holdings Inc | Compound eye imaging device |
JP2009213063A (en) * | 2008-03-06 | 2009-09-17 | Funai Electric Co Ltd | Monitoring apparatus |
-
2011
- 2011-10-12 JP JP2011224814A patent/JP5896680B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2013085176A (en) | 2013-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101514502B1 (en) | Image-capturing device, image processing apparatus, image processing method, and method of manufacturing image-capturing device | |
US10009540B2 (en) | Image processing device, image capturing device, and image processing method for setting a combination parameter for combining a plurality of image data | |
JP5956808B2 (en) | Image processing apparatus and method | |
JP4902562B2 (en) | Imaging apparatus, image processing apparatus, control method, and program | |
WO2014050699A1 (en) | Image-processing device and method, and image pickup device | |
CN102783135A (en) | Method and apparatus for providing a high resolution image using low resolution | |
US7593635B2 (en) | Digital imaging apparatus capable of creating panorama image and a creating method thereof | |
US8860852B2 (en) | Image capturing apparatus | |
JP5376993B2 (en) | Information processing apparatus, imaging apparatus, and information processing apparatus control method | |
WO2015167009A1 (en) | Image processing device and image pickup device | |
JP5896680B2 (en) | Imaging apparatus, image processing apparatus, and image processing method | |
JP2014235224A (en) | Imaging device and control program | |
JP2013183278A (en) | Image processing apparatus, image processing method and program | |
US20090290041A1 (en) | Image processing device and method, and computer readable recording medium containing program | |
KR101626447B1 (en) | An apparatus, a method, a computer-readable medium storing a computer program of removing lens distortion and chromatic aberration | |
US20110115938A1 (en) | Apparatus and method for removing lens distortion and chromatic aberration | |
JP7492344B2 (en) | Image processing device and image processing method | |
JP6732440B2 (en) | Image processing apparatus, image processing method, and program thereof | |
JP2019169985A (en) | Image processing apparatus | |
JP5911307B2 (en) | Imaging device | |
JP5882957B2 (en) | Information processing apparatus, information processing apparatus control method, and control program | |
JP2024007926A (en) | Imaging apparatus, imaging method, and computer program | |
JP6817855B2 (en) | Image processing equipment, imaging equipment, image processing methods, and programs | |
JP6039726B2 (en) | Imaging apparatus and control method thereof | |
JP6566765B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140922 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140922 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150907 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160202 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160301 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5896680 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |