JP2015046687A - Image processing apparatus, image processing method, program, and imaging apparatus - Google Patents
Image processing apparatus, image processing method, program, and imaging apparatus Download PDFInfo
- Publication number
- JP2015046687A JP2015046687A JP2013175656A JP2013175656A JP2015046687A JP 2015046687 A JP2015046687 A JP 2015046687A JP 2013175656 A JP2013175656 A JP 2013175656A JP 2013175656 A JP2013175656 A JP 2013175656A JP 2015046687 A JP2015046687 A JP 2015046687A
- Authority
- JP
- Japan
- Prior art keywords
- image
- image data
- subject
- unit
- reconstructed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、撮像装置に関し、特にマイクロレンズアレイを用いて光の入射方向の情報を取得し、再構成画像を生成する手段を有する撮像装置に関する。 The present invention relates to an imaging apparatus, and more particularly to an imaging apparatus having means for acquiring information on the incident direction of light using a microlens array and generating a reconstructed image.
近年、電子カメラ等の撮像装置において、光の強度分布のみならず光の入射方向の情報をも取得可能なライトフィールドカメラと呼ばれる撮像装置が提案されている。例えば、非特許文献1によれば、撮影レンズと撮像素子との間にマイクロレンズアレイ(以下、MLAと記す)を配置し、撮像素子の複数の画素に対してひとつのマイクロレンズ(以下、MLと記す)を対応させている。この構成により、MLを通過した光は複数の画素によって入射方向別に取得される。
2. Description of the Related Art In recent years, an imaging device called a light field camera that can acquire not only light intensity distribution but also information on the incident direction of light in an imaging device such as an electronic camera has been proposed. For example, according to Non-Patent
このように取得された画素信号(ライトフィールド)に対して、通常の撮影画像を生成することが可能である。また、「Light Field Photography」と呼ばれる手法を適用することで、任意の像面(リフォーカス面)に焦点を合わせた画像を撮影後に再構成することもできる。 A normal captured image can be generated for the pixel signal (light field) acquired in this way. In addition, by applying a method called “Light Field Photography”, an image focused on an arbitrary image plane (refocus plane) can be reconstructed after shooting.
非特許文献1に記載されているライトフィールドカメラの撮像画角の範囲は、撮影レンズの焦点距離、撮像素子のサイズなど、装置本体が備えるハードウェアの性能に依存している。また、特許文献1ではハードウェアの性能を越えるような広角画像を取得する場合に、撮像装置の撮影範囲を動かしながら連続撮影し、得られた複数の画像を合成する技術が提案されている。
The range of the angle of view of the light field camera described in Non-Patent
しかしながら、特許文献1で提案された技術で撮影後に選択した被写体に焦点があった広角画像を表示したい場合は、ライトフィールドカメラで撮影した複数の撮像画像を全て保持するため、データ量が膨大となってしまう。そのため、本発明は、再構成のためのデータ量を軽減しながら、撮影後に選択した被写体に焦点があった広角画像の表示を可能とする画像処理装置の提供を目的とする。
However, when it is desired to display a wide-angle image in which the subject selected after shooting by the technique proposed in
本発明によれば、画像処理装置は、リフォーカス可能な複数の異なる画角の画像データを取得する取得手段と、複数の画像データから得られる被写体情報に基づいた像面における再構成画像を、各画像データから生成する生成手段と、異なる画角の画像データから生成された再構成画像を、像面ごとに合成する合成手段とを備える。 According to the present invention, an image processing apparatus obtains reconstructed images on an image plane based on subject information obtained from a plurality of image data, an acquisition unit that acquires image data having a plurality of different angles of view that can be refocused, A generating unit configured to generate the image data; and a combining unit configured to combine the reconstructed image generated from the image data having different angles of view for each image plane.
本発明によれば、再構成のためのデータ量を軽減しながら、撮影後に選択した被写体に焦点があった広角画像を生成することが可能な画像処理装置を提供することができる。 According to the present invention, it is possible to provide an image processing apparatus capable of generating a wide-angle image focused on a subject selected after shooting while reducing the amount of data for reconstruction.
以下、本発明の実施の形態を、添付の図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.
本実施例は、ライトフィールドデータを取得可能な撮像装置で得られた再構成可能な複数の画像データから複数の広角画像を合成することで、選択した被写体に焦点があった広角画像の表示を可能とする画像処理装置の実施例を示す。しかし、本実施例に係る画像処理動作は、撮像装置による連続撮影中に行われてもよいし、他の再生装置で画像データを再生する場合に行ってもよい。即ち、本発明に係る画像処理は、必ずしも例示したような撮像装置において実現する必要はなく、例示した撮像装置で取得される画像データを入力画像データとして取得して、本発明に係る画像処理動作を行うことが可能な装置で実現してもよい。 In this embodiment, by combining a plurality of wide-angle images from a plurality of reconfigurable image data obtained by an imaging device capable of acquiring light field data, a wide-angle image focused on a selected subject can be displayed. An embodiment of an image processing apparatus that can be made will be described. However, the image processing operation according to the present embodiment may be performed during continuous shooting by the imaging device, or may be performed when image data is played back by another playback device. That is, the image processing according to the present invention is not necessarily realized in the illustrated imaging apparatus, and the image processing operation according to the present invention is performed by acquiring the image data acquired by the illustrated imaging apparatus as input image data. You may implement | achieve with the apparatus which can perform.
図1は、本発明の実施例に係る画像処理装置を適用した、ライトフィールドデータを取得可能な撮像装置100のブロック図である。同図において、101は撮影レンズ、102はMLA、103は撮像素子である。撮影レンズ101を通過した光は撮影レンズ101の焦点位置の近傍に被写体像として結像する。MLA102は、複数のML1020から構成されており、撮影レンズ101の焦点位置近傍に配置されることで、撮影レンズ101の異なる瞳領域を通過した光を瞳領域ごとに分割して出射する瞳分割手段である。撮像素子103は、CMOSイメージセンサやCCDイメージセンサに代表される光電変換素子である。各ML1020は、複数の画素が対応するように配置されることで、撮像素子103はML1020により撮影レンズ101の瞳領域ごとに分割して出射された光を、分割情報を保ったまま受光し、データ処理可能な画像信号に変換する。撮像素子103により生成された画像信号は、A/D変換部104に出力される。A/D変換部104は、画像信号をデジタル化し、画像データとして画像処理部105へ出力する。
FIG. 1 is a block diagram of an
画像処理部105は、ホワイトバランス、色変換等の様々な画像形成処理や、形成後の画像を圧縮する圧縮処理、人物の顔が誰であるかを認識する画像認識処理を行う。本画像処理部105は、本実施例の特徴であるリフォーカス演算により再構成画像を生成する再構成処理と、再構成画像を合成して広角画像を生成する画像合成処理を行い、記録部115によって記録されるファイルを生成する。
The
画像処理部105により処理された画像データおよび生成された再構成画像は、バス112を介してメインメモリ114へ一時的に格納される。格納された画像データおよび再構成画像は、ファイルとして記録部115を介して外部の記録媒体(図示せず)に記録されるか、もしくは通信部116を介して、パーソナルコンピュータ等の外部装置(図示せず)に送信される。
The image data processed by the
スイッチ群117は、撮影モードの設定など、撮影に関わる様々な情報をCPU111へ出力する。またレリーズスイッチが出力する信号は、AEやAFの動作開始トリガや、撮影の開始トリガとなる。CPU111はこれらの開始トリガを受けて、撮像素子103、表示部106をはじめとする、撮影装置の各部の制御を行う。また、ROM113には、CPU111のためのプログラムやデータが格納され、CPU111がそのプログラムを実行することで、撮像装置の各部を制御して本実施例に係る画像処理動作(画像合成記録動作)を実現する。
The
表示部106は、撮影装置のユーザインターフェース画面を表示するか、電子ビューファインダとして使用するか、もしくは撮影後の広角画像を表示する。また表示部106はタッチパネルを有しており、タッチ操作の情報をCPU111へ出力する。
The
上述のように、本実施例は、画像処理部105が本発明に係る画像処理装置の動作を行うことを特徴としている。即ち、画像処理部105は演算処理(再構成処理)を行うことにより、画像データ(撮影画像)から、任意の焦点位置(リフォーカス面)に設定した画像(再構成画像)を再構成して合成するよう構成される。この場合の演算処理は、「Light Field Photography」と呼ばれる手法を用いて行う。
As described above, this embodiment is characterized in that the
次に、本実施例に係る撮像装置における撮影レンズ101、MLA102および撮像素子103の構成について説明する。
Next, the configuration of the taking
図2は、撮像素子103およびMLA102を図1の光軸Z方向から見た図である。MLAは、複数の単位画素201に対して1つのML1020が対応するように配置されている。1つのMLの後方にある複数の単位画素201をまとめて画素配列20と定義する。なお、本実施例では画素配列20は、単位画素201の5行5列の計25個を含むものとする。
FIG. 2 is a diagram of the
図3は、撮影レンズ101から出射された光が1つのML1020を通過して撮像素子103で受光される様子を光軸Zに対して垂直方向から見た図である。撮影レンズ101の各瞳領域a1〜a5から出射され、ML1020を通過した光は、後方の対応する単位画素p1〜p5にそれぞれ結像する。
FIG. 3 is a diagram in which the light emitted from the photographing
図4(a)は、撮影レンズ101の開口を光軸Z方向から見た図である。図4(b)は、1つのML1020とその後方に配置された画素配列20を光軸Z方向から見た図である。図4(a)に示すように、撮影レンズ101の瞳領域を1つのMLの後方にある画素と同数の領域に分割した場合、1つの画素には撮影レンズ101の1つの瞳分割領域から出射した光が結像されることになる。ただし、ここでは撮影レンズ101とML1020のFナンバーがほぼ一致しているものとする。
FIG. 4A is a view of the aperture of the taking
図4(a)に示す撮影レンズ101の瞳分割領域a11〜a55と、図4(b)に示す画素p11〜p55との対応関係は光軸Z方向から見て点対称となる。したがって、撮影レンズ101の瞳分割領域a11から出射した光は、MLの後方にある画素配列20のうち、画素p11に結像する。これと同様に、瞳分割領域a11から出射し、別のML1020を通過する光も、そのMLの後方にある画素配列20の中の画素p11に結像する。
The correspondence between the pupil division areas a11 to a55 of the photographing
ここで、画面内の任意の被写体位置に対応した像面(リフォーカス面)を算出する方法について説明する。図4で説明したように、画素配列20の各画素は、撮影レンズ101に対して互いに異なる瞳領域を通過した光を受光している。これらの画素からの複数の画素信号を合成することで、水平方向に瞳分割された一対の信号を生成する。
Here, a method for calculating an image plane (refocus plane) corresponding to an arbitrary subject position in the screen will be described. As described with reference to FIG. 4, each pixel of the
また、式(2)は、ある画素配列20の各画素について、撮影レンズ101の射出瞳の右側領域(瞳領域a4〜a5)を通過した光を積分する式である。これを水平方向に並ぶ各画素配列20に適用し、これらの出力信号群で構成した被写体像をB像とする。
Expression (2) is an expression for integrating the light passing through the right area (pupil areas a4 to a5) of the exit pupil of the photographing
A像とB像に対して相関演算を施し、像のずれ量(瞳分割位相差)を検出する。さらに、像のずれ量に対して撮影レンズ101の焦点位置と光学系から決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。
A correlation operation is performed on the A image and the B image, and an image shift amount (pupil division phase difference) is detected. Furthermore, the focal position corresponding to an arbitrary subject position in the screen can be calculated by multiplying the image shift amount by the focal position of the photographing
次に、撮影レンズ101、MLA102および撮像素子103の構成によって取得された画像データに対して、任意に設定した像面(リフォーカス面)での画像の再構成する処理について説明する。
Next, processing for reconstructing an image on an arbitrarily set image plane (refocus plane) with respect to image data acquired by the configurations of the photographing
図5は、任意に設定したリフォーカス面上のある画素を通過する光が、撮影レンズのどの瞳分割領域から出射され、どのMLへ入射するかを光軸Zに対して垂直方向から見た図である。 FIG. 5 shows, from a direction perpendicular to the optical axis Z, from which pupil division region of the photographing lens light that passes through a pixel on an arbitrarily set refocus plane is emitted and which ML is incident. FIG.
図5において、撮影レンズの瞳分割領域の位置を座標(u,v)、リフォーカス面上の単位画素の位置を座標(x,y)、MLA上のMLの位置を座標(x’,y’)、撮影レンズからMLAまでの距離をF、撮影レンズからリフォーカス面までの距離をαFとする。ここで、αはリフォーカス面の位置を決定するためのリフォーカス係数であり、ユーザーが任意に設定できる。なお、図5ではu、x、x’の方向のみを示し、v、y、y’については省略してある。 In FIG. 5, the position of the pupil division area of the taking lens is coordinates (u, v), the position of the unit pixel on the refocus plane is coordinates (x, y), and the ML position on the MLA is coordinates (x ′, y). '), The distance from the taking lens to the MLA is F, and the distance from the taking lens to the refocus plane is αF. Here, α is a refocus coefficient for determining the position of the refocus plane and can be arbitrarily set by the user. In FIG. 5, only the directions of u, x, and x ′ are shown, and v, y, and y ′ are omitted.
図5に示すように、座標(u,v)と座標(x,y)を通過した光は、MLA上の座標(x’,y’)に到達する。この座標(x’,y’)は式(3)のように表すことができる。
そして、この光を受光する画素の出力をL(x’,y’,u,v)とすると、リフォーカス面上の座標(x,y)で得られる出力E(x,y)は、L(x’,y’,u,v)を撮影レンズの瞳領域に関して積分したものとなるため、式(4)のようになる。
式(4)において、リフォーカス係数αはユーザーによって決定されるため、(x,y)、(u,v)を与えれば、式(3)から光の入射するMLの位置(x’,y’)がわかる。 In Expression (4), since the refocus coefficient α is determined by the user, if (x, y) and (u, v) are given, the ML position (x ′, y) where light enters from Expression (3) is given. ') I understand.
そして、そのMLに対応する画素配列20から(u,v)の位置に対応する画素がわかる。この画素の出力がL(x’,y’,u,v)となる。これをすべての瞳分割領域について行い、求めた画素出力を積分することでE(x,y)を算出できる。なお、(u,v)を撮影レンズの瞳分割領域の代表座標とすれば、式(4)の積分は、単純加算により計算することができる。
Then, the pixel corresponding to the position (u, v) is known from the
次に、本実施例の特徴である画像処理部105における再構成処理と画像合成記録処理について、図6の画像合成記録動作のフローチャートを参照して説明する。
Next, reconstruction processing and image composition recording processing in the
同図において、ステップS601では、撮影順にメインメモリ114に保持されている各画像データを読み出す。ステップS602では、読み出した画像データをあらかじめ決められた距離情報取得エリア(以下、Dエリアとする)に分割する。ここで、Dエリアへの分割は、再構成時の合焦精度に反映されるため、最小の分解能である画素配列20ごとに分割することが望ましい。しかし、複数の画素配列20をまとめてひとつのDエリアを構成する等、画像処理部105の演算能力やフレームレート等の制限に応じて分割領域(Dエリア)のサイズを適宜決めてもよい。すなわち、フレームレートが高い、あるいは画像処理部105の演算能力が低いほど、Dエリアの数が少なくするようにしてもよい。
In the figure, in step S601, each image data held in the
ステップS603では、Dエリアに分割された画像データに対して前述した式(1)および式(2)を適用し、各Dエリアを代表する距離情報として被写体距離を算出する。ここでの距離取得は、複数の画素配列20をまとめてひとつのDエリアを構成した場合(例えば、5×5画素配列など)は、中心の画素配列20のみの結果を被写体距離としてもよいし、5×5の画素配列20の平均値を被写体距離としてもよい。また、このようにして得られたDエリアごとの被写体距離を距離情報マップとする。
In step S603, the above-described equations (1) and (2) are applied to the image data divided into the D areas, and the subject distance is calculated as the distance information representing each D area. In the distance acquisition here, when a plurality of
ステップS604では、読み出した画像データから被写体を抽出し、距離情報マップの該当する被写体距離と対応つける距離リストを被写体情報として生成する。ここで、被写体の抽出方法はエッジ検出などの任意のアルゴリズムを使用する。また、生成した距離リストは画像データごとに更新する。 In step S604, a subject is extracted from the read image data, and a distance list associated with the corresponding subject distance in the distance information map is generated as subject information. Here, the subject extraction method uses an arbitrary algorithm such as edge detection. The generated distance list is updated for each image data.
ステップS605では、全画像データの読み出しが完了か否かを判定し、完了の場合はS606に進み、否の場合はS601に戻る。ステップS606では、画像データ間の整合をとるため、前述した距離リストで不足している被写体距離を追加することで距離リストを補正する。尚、本実施例における距離リストの補正例は後述する。 In step S605, it is determined whether reading of all the image data is completed. If completed, the process proceeds to S606, and if not, the process returns to S601. In step S606, in order to match the image data, the distance list is corrected by adding a subject distance that is insufficient in the above-described distance list. A correction example of the distance list in this embodiment will be described later.
ステップS607では、撮影順にメインメモリ114に保持されている画像データを読み出す。ステップS608では、読み出した画像データと距離リストを用いて前述した再構成処理を行い、被写体距離ごとに焦点があった再構成画像とパンフォーカスの再構成画像を生成する。このとき、これら再構成画像の生成にともない、メインメモリ114から読み出した画像データとそれから生成した再構成画像とを関連付けるリンク情報を生成する。本情報は、ステップS615での画像データの削除の際に参照される。ここで、パンフォーカスの再構成画像とは、距離情報マップのDエリアごとに焦点の合うよう再構成処理を行って生成した再構成画像のこととする。尚、本実施例における再構成処理の例は後述する。
In step S607, the image data held in the
ステップS609では、S608で生成した再構成画像と合成する広角画像をメインメモリ114に保持しているか否かを判定し、保持している場合はS612に進み、否の場合はS610に進む。ここで、広角画像とは、複数の再構成画像をつなぎ合わせ、通常の画角を超えた画像のこととする。
In step S609, it is determined whether the wide-angle image to be combined with the reconstructed image generated in S608 is held in the
ステップS610では、S608で生成したパンフォーカスの再構成画像をパンフォーカスの広角画像の初期画像としてメインメモリ114に保持する。ステップS611では、S608で生成した被写体距離ごとに焦点があった再構成画像を、被写体距離ごとの広角画像の初期画像としてメインメモリ114に保持する。
In step S610, the pan-focus reconstructed image generated in step S608 is stored in the
ステップS612では、生成したパンフォーカスの再構成画像とパンフォーカスの広角画像を位置合わせした際の位置ずれから合成可能か否かを判定し、合成可能の場合はS613に進み、否の場合はS615に進む。ここで、パンフォーカスの広角画像とは、複数のパンフォーカスの再構成画像をつなぎ合わせ、通常の画角を超えた画角の画像のこととする。また、位置ずれの判定は、画像を任意のサイズの小ブロックに分割して、小ブロック毎に輝度のSAD(Sum of Absolute Difference)が最小となる対応点から、動きベクトルを算出する方法などによる周知の技術により行う。 In step S612, it is determined whether or not it is possible to combine the generated pan-focus reconstructed image and the pan-focus wide-angle image, and the process proceeds to step S613. Proceed to Here, the pan-focus wide-angle image is an image having an angle of view that exceeds a normal angle of view by connecting a plurality of pan-focus reconstructed images. In addition, the determination of positional deviation is based on a method of dividing a picture into small blocks of an arbitrary size and calculating a motion vector from corresponding points at which the luminance SAD (Sum of Absolute Difference) is minimized for each small block. This is performed by a well-known technique.
ステップS613では、S608で生成したパンフォーカスの再構成画像とメインメモリ114に保持されているパンフォーカスの広角画像の合成処理を行い、合成した画像によりパンフォーカスの広角画像を更新する。また、更新したパンフォーカスの広角画像は次のパンフォーカスの再構成画像との合成に備えて、メインメモリ114に保持しておく。
In step S613, the pan-focus reconstructed image generated in S608 and the pan-focus wide-angle image held in the
ステップS614では、S608で生成した再構成画像とメインメモリ114に保持されている広角画像を被写体距離ごとに画像合成処理を行い、合成した画像は広角画像として被写体距離ごとに更新する。また、更新した広角画像は次の再構成画像との合成に備えて、メインメモリ114に保持しておく。尚、本実施例におけるこれらの画像合成処理の例は後述する。ステップS615では、上述したリンク情報に基づいて、S607で読み出した画像データをメインメモリ114から削除する。
In step S614, the reconstructed image generated in S608 and the wide-angle image held in the
ステップS616では、全画像データ読み出し完了か否かを判定し、完了の場合はS617に進み、否の場合はS607に戻る。ステップS607からS616を繰り返すことで、被写体距離ごとに焦点が合った広角画像を生成することができる。 In step S616, it is determined whether or not all image data has been read. If complete, the process proceeds to S617. If not, the process returns to S607. By repeating steps S607 to S616, it is possible to generate a wide-angle image focused on each subject distance.
ステップS617では、被写体距離ごとに焦点が合った広角画像をデータ部に、各広角画像の先頭アドレスをヘッダ情報部に付加したファイルを記録して記録動作を終了する。尚、本実施例において記録したファイルの構成例は後述する。 In step S617, a wide-angle image focused for each subject distance is recorded in the data portion, and a file with the head address of each wide-angle image added to the header information portion is recorded, and the recording operation is terminated. A configuration example of the file recorded in this embodiment will be described later.
次に、本実施例の撮影状況と撮像データについて図7を参照して説明する。 Next, the imaging situation and imaging data of the present embodiment will be described with reference to FIG.
図7(a)は被写体B1、B2、B3を撮影位置S1、S2、S3の順に3回撮影した場合の撮影状況を模式的に示す図である。ここで、D1は、撮像装置100から被写体B1までの被写体距離である。また、D2は、撮像装置100から被写体B2までの被写体距離である。さらに、D3は、撮像装置100から被写体B3までの被写体距離である。図7(b)は、撮影位置S1で撮影した画像データL1の画角を示す。図7(c)は撮影位置S2で撮影した画像データL2の画角を示す。図7(d)は撮影位置S3で撮影した画像データL3の画角を示す。
FIG. 7A is a diagram schematically showing a shooting situation when the subjects B1, B2, and B3 are shot three times in the order of the shooting positions S1, S2, and S3. Here, D1 is a subject distance from the
次に、ステップS606における距離リストの補正について、図8を参照して説明する。 Next, the correction of the distance list in step S606 will be described with reference to FIG.
図8(a)は、横軸を撮影位置L1〜L3、縦軸を被写体B1〜B3として検出した被写体と算出した被写体距離とを対応付ける補正前の距離リストを示す。補正前の距離リストは、画像データL3の被写体B3について被写体距離が不足している。図8(b)は、図8(a)と同様に被写体距離を表した補正後の距離リストを示す。本実施例では、例えば、不足している撮像データL3の被写体B3の被写体距離を、例えば撮像データL2の被写体B3の被写体距離で補正する。 FIG. 8A shows a pre-correction distance list that associates the detected subjects with the horizontal positions of the photographing positions L1 to L3 and the vertical axis of the subjects B1 to B3 with the calculated subject distance. In the distance list before correction, the subject distance is insufficient for the subject B3 of the image data L3. FIG. 8B shows a corrected distance list representing the subject distance as in FIG. In this embodiment, for example, the subject distance of the subject B3 in the imaging data L3 that is insufficient is corrected by the subject distance of the subject B3 in the imaging data L2, for example.
次に、ステップS608における再構成処理について、図9を参照して説明する。 Next, the reconstruction process in step S608 will be described with reference to FIG.
図9は、画像データL2について距離リストをもとに再構成処理を行って生成した被写体距離ごとに焦点が合った再構成画像を示す。ここで、図9(a)は再構成前の画像データL2を示す。図9(b)は被写体距離D1に焦点があった再構成画像R21を示す。また、図9(c)は被写体距離D2に焦点があった再構成画像R22を、図9(d)は被写体距離D3に焦点があった再構成画像R23を示す。図9(e)は、パンフォーカスの再構成画像R24を示す。 FIG. 9 shows a reconstructed image in which each object distance is generated by performing reconstruction processing on the image data L2 based on the distance list. Here, FIG. 9A shows the image data L2 before reconstruction. FIG. 9B shows a reconstructed image R21 that is focused on the subject distance D1. FIG. 9C shows a reconstructed image R22 focused on the subject distance D2, and FIG. 9D shows a reconstructed image R23 focused on the subject distance D3. FIG. 9E shows a pan-focus reconstructed image R24.
また、図9では図示しないが画像データL2およびL3についても同様に距離リストをもとに再構成処理を行い、被写体距離ごとに焦点が合った再構成画像を生成する。 Further, although not shown in FIG. 9, the image data L2 and L3 are similarly reconstructed based on the distance list to generate a reconstructed image focused on each subject distance.
次に、ステップS610、S611における画像合成処理について図10を参照して説明する。 Next, the image composition processing in steps S610 and S611 will be described with reference to FIG.
図10は、撮像データL1から生成した再構成画像と、画像データL2から生成した再構成画像を被写体距離ごとに合成して生成した広角画像を示す。図10(a)は、被写体距離D1に焦点があった再構成画像R11と被写体距離D1に焦点があった再構成画像R21を合成して生成した合成画像を示す。図10(b)は、被写体距離D2に焦点があった再構成画像R12と被写体距離D2に焦点があった再構成画像R22を合成して生成した合成画像を示す。図10(c)は、被写体距離D3に焦点があった再構成画像R13と被写体距離D3に焦点があった再構成画像R23を合成して生成した合成画像を示す。図10(d)は、パンフォーカスの再構成画像R14とパンフォーカスの再構成画像R24を合成して生成した合成画像を示す。 FIG. 10 shows a wide-angle image generated by combining the reconstructed image generated from the imaging data L1 and the reconstructed image generated from the image data L2 for each subject distance. FIG. 10A shows a composite image generated by combining the reconstructed image R11 focused on the subject distance D1 and the reconstructed image R21 focused on the subject distance D1. FIG. 10B shows a composite image generated by combining the reconstructed image R12 focused on the subject distance D2 and the reconstructed image R22 focused on the subject distance D2. FIG. 10C shows a composite image generated by combining the reconstructed image R13 focused on the subject distance D3 and the reconstructed image R23 focused on the subject distance D3. FIG. 10D shows a composite image generated by combining the pan-focus reconstructed image R14 and the pan-focus reconstructed image R24.
また、図10では、図示しないが画像データL3についても同様に生成した再構成画像と、画像データL1及びL2を合成して得られた、被写体距離ごとの広角画像を合成して広角画像を更新する。 In FIG. 10, although not shown, the reconstructed image generated in the same manner for the image data L3 and the wide-angle image obtained by combining the image data L1 and L2 are combined to update the wide-angle image. To do.
次に、ステップS613におけるファイル生成および記録について図11を参照して説明する。 Next, file generation and recording in step S613 will be described with reference to FIG.
図11は、被写体距離D1、被写体距離D2、および被写体距離D3それぞれに焦点があった広角画像と、パンフォーカス広角画像の4種類の広角画像を含むファイル1100の構成例を示す。ファイル1100は、ヘッダ情報部1101と、データ部1102で構成される。ヘッダ情報部1101には、データサイズや初期再生画像、作成時間等を書き込む。さらに、被写体距離D1、被写体距離D2、および被写体距離D3それぞれに焦点があった広角画像とパンフォーカス広角画像の4種類の広角画像のアドレス情報(先頭アドレス)1112乃至1115も書き込む。ここで、初期再生画像は、再生時のデフォルト画像としてパンフォーカスの広角画像の先頭アドレスとしても良いし、任意の被写体距離に焦点が合ったものにしても良く、特に限定しない。
FIG. 11 shows a configuration example of a file 1100 including four types of wide-angle images: a wide-angle image focused on each of the subject distance D1, the subject distance D2, and the subject distance D3, and a pan-focus wide-angle image. The file 1100 includes a
データ部1102は、被写体距離D1、被写体距離D2、被写体距離D3それぞれに焦点があった広角画像とパンフォーカス広角画像の4種類の広角画像1121乃至1115を保持する。すなわち、ヘッダ情報部1101に書き込まれている各広角画像の先頭アドレス1112乃至1115から、任意の広角画像を取得することができる。
The
次に、ステップS613で記録したファイルの再生処理の動作について、図12の再生フローチャートを参照して説明する。 Next, the operation of reproducing the file recorded in step S613 will be described with reference to the reproduction flowchart of FIG.
図12において、ステップS1201では、メインメモリ114に保持されているファイルを読み出す。ステップS1202では、読み出したファイルから初期再生画像を参照して再生する広角画像を設定する。ステップS1203では、設定した広角画像を表示する。ステップS1204では、ユーザによりスイッチ群117や表示部106のタッチ操作などの入力があるか否かを判定し、否の場合S1204へ戻る。
In FIG. 12, in step S1201, a file held in the
ステップS1205では、画像内の領域を選択する入力があるか否かを判定する。ここで、画面内の領域を選択する入力は表示部106のタッチ操作情報などから判断する。また、画像内の領域を選択する入力があった場合はS1206に進む。さらに、画像内の領域を選択する入力がなかった場合は、その他処理を実行するため再生動作を終了する。
In step S1205, it is determined whether there is an input for selecting an area in the image. Here, an input for selecting an area in the screen is determined from touch operation information on the
ステップS1206では、再生するのに最適な広角画像を判断するため、読み出したファイルに保持されている広角画像の中から画像内の選択された領域のコントラストが最大になる広角画像を選択する。ステップS1207では、選択した広角画像の先頭アドレスを読み出したファイルの初期再生画像として設定し、S1203へ戻る。 In step S1206, in order to determine the optimum wide-angle image for reproduction, the wide-angle image that maximizes the contrast of the selected region in the image is selected from the wide-angle images held in the read file. In step S1207, the head address of the selected wide-angle image is set as the initial reproduction image of the read file, and the process returns to S1203.
以上の動作により、ユーザーの選択に応じて被写体ごとに焦点のあった広角画像を再生することができる。 With the above operation, a wide-angle image focused on each subject can be reproduced according to the user's selection.
上述した本発明によれば、再構成のためのデータ量を軽減しながら、撮影後に選択した被写体に焦点があった広角画像を生成することが可能な画像処理装置を提供することが可能となる。 According to the present invention described above, it is possible to provide an image processing apparatus capable of generating a wide-angle image focused on a subject selected after shooting while reducing the amount of data for reconstruction. .
ここで、上述した本実施例の画像処理装置が適用可能な他の撮像装置の構成例について説明する。 Here, a configuration example of another imaging apparatus to which the above-described image processing apparatus of the present embodiment can be applied will be described.
上述した実施例に係る画像処理装置は、リフォーカス可能なライトフィールドデータとして、図3に示した撮影レンズ101、MLA102、撮像素子103の構成にて取得されたデータを対象とした。しかし、図13に示す構成で取得したライトフィールドデータを用いてもよい。なお、図13において、図3と同様の構成部分は同じ符号を付して示す。
The image processing apparatus according to the above-described embodiment targets data acquired by the configuration of the photographing
図13の詳細は非特許文献2に記載されているので、ここでは簡単に述べる。図3との違いは、図3の構成はカメラの撮影レンズ101はMLA102の平面に焦点が合うように調整されているが、図13ではMLA102の平面の手前の像面IP1に焦点が合うように調整されている。
The details of FIG. 13 are described in
また、本実施例では、リフォーカス可能なライトフィールドデータとして、図1に示す装置構成の撮像装置で取得したデータを対象としたが、代わりに図14に示す構成の撮像装置で取得したライトフィールドデータを用いてもよい。なお、同図においても、図1と同様の構成部分については同じ符号を付して示す。 In this embodiment, the light field data acquired by the imaging apparatus having the configuration shown in FIG. 14 is used as the refocusable light field data. Data may be used. In the figure, the same components as those in FIG. 1 are denoted by the same reference numerals.
図14の場合、光学系101a〜101cで屈折された光線は、それぞれに対応した撮像素子103a〜103cで受光される。撮像素子103a〜103cで取得された複数の画像は、被写体空間を異なる視点から観察した視差画像となっている。これらの複数の画像を合わせることで、被写体空間における光の2次元強度分布と角度情報、つまりライトフィールドを得ることができる。図14のような多眼構成のカメラにおいて複数の画像を合わせてライトフィールドを得る方法については特許文献1等に記載されているのでここでは割愛する。
In the case of FIG. 14, the light rays refracted by the
また、本発明の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても達成される。すなわち、そのシステム或いは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても本件発明の目的が達成されることは言うまでもない。 The object of the present invention can also be achieved by supplying a storage medium storing software program codes for realizing the functions of the above-described embodiments to a system or apparatus. That is, it goes without saying that the object of the present invention can also be achieved when the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the storage medium.
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、プログラムコード自体及びそのプログラムコードを記憶した記憶媒体は本発明を構成することになる。 In this case, the program code itself read from the storage medium realizes the functions of the above-described embodiments, and the program code itself and the storage medium storing the program code constitute the present invention.
プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。 As a storage medium for supplying the program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.
また、コンピュータが読み出したプログラムコードの指示に基づき、コンピュータ上で稼動しているOS(基本システム或いはオペレーティングシステム)などが実際の処理の一部又は全部を行うことによっても前述した実施形態の機能が実現される。この場合も本件発明に含まれることは言うまでもない。 In addition, the functions of the above-described embodiment can also be realized when an OS (basic system or operating system) operating on the computer performs part or all of the actual processing based on the instruction of the program code read by the computer. Realized. Needless to say, this case is also included in the present invention.
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づく処理も本件発明に含まれる。すなわち、機能拡張ボードや機能拡張ユニットに備わるCPU等がプログラムコードの指示に基づき実際の処理の一部又は全部を行って前述した実施形態の機能を実現する場合も本件発明に含まれることは言うまでもない。 Furthermore, after the program code read from the storage medium is written to the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer, the processing based on the instruction of the program code is also performed. Included in the invention. That is, it goes without saying that the present invention also includes the case where the CPU or the like provided in the function expansion board or function expansion unit performs part or all of the actual processing based on the instruction of the program code to realize the functions of the above-described embodiment. Yes.
上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
以上、本発明の好ましい実施の形態を説明したが、本発明はこれらの実施形態に限定されるものではなく、その要旨の範囲内で種々の変形及び変更が可能である。 As mentioned above, although preferable embodiment of this invention was described, this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.
Claims (17)
前記複数の画像データから得られる被写体情報に基づいた像面における再構成画像を、前記複数の画像データの各画像データから生成する生成手段と、
前記異なる画角の画像データから生成された再構成画像を、前記像面ごとに合成する合成手段と
を備えることを特徴とする画像処理装置。 Acquisition means for acquiring image data of a plurality of different angles of view that can be refocused;
Generating means for generating a reconstructed image on an image plane based on subject information obtained from the plurality of image data from each image data of the plurality of image data;
An image processing apparatus comprising: a combining unit configured to combine the reconstructed image generated from the image data having different angles of view for each image plane.
前記撮像手段により異なる画角で前記被写体像を撮像して生成された画像データを取得して処理する請求項1乃至7のいずれか一項に記載の画像処理装置と、
前記像面ごとに合成された再構成画像を記録媒体に記録する記録手段と、
前記記録媒体に記録された前記像面ごとに合成された再構成画像を再生する再生手段と
を備えることを特徴とする撮像装置。 Imaging means for imaging a subject image formed by a photographic lens and generating reconfigurable image data;
The image processing apparatus according to any one of claims 1 to 7, which acquires and processes image data generated by imaging the subject image at different angles of view by the imaging unit;
Recording means for recording a reconstructed image synthesized for each image plane on a recording medium;
Reproducing means for reproducing a reconstructed image synthesized for each image plane recorded on the recording medium.
前記複数の画像データから得られる被写体情報に基づいた像面における再構成画像を、各画像データから生成する生成ステップと、
前記異なる画角の画像データから生成された再構成画像を、前記像面ごとに合成する合成ステップと
を備えることを特徴とする画像処理方法。 An acquisition step of acquiring image data of a plurality of different angles of view that can be refocused;
Generating a reconstructed image on an image plane based on subject information obtained from the plurality of image data from each image data;
An image processing method comprising: a combining step of combining the reconstructed image generated from the image data having the different angles of view for each image plane.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013175656A JP6406804B2 (en) | 2013-08-27 | 2013-08-27 | Image processing apparatus, image processing method and program, and imaging apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013175656A JP6406804B2 (en) | 2013-08-27 | 2013-08-27 | Image processing apparatus, image processing method and program, and imaging apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015046687A true JP2015046687A (en) | 2015-03-12 |
JP6406804B2 JP6406804B2 (en) | 2018-10-17 |
Family
ID=52671896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013175656A Active JP6406804B2 (en) | 2013-08-27 | 2013-08-27 | Image processing apparatus, image processing method and program, and imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6406804B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019097169A (en) * | 2017-11-24 | 2019-06-20 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Image restoration apparatus and method |
CN113295059A (en) * | 2021-04-13 | 2021-08-24 | 长沙理工大学 | Multi-lens imaging method for detecting multi-cartridge fireworks and crackers |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004228711A (en) * | 2003-01-20 | 2004-08-12 | Sony Corp | Supervisory apparatus and method, program, and supervisory system |
JP2005277813A (en) * | 2004-03-25 | 2005-10-06 | Canon Inc | Electronic imaging apparatus |
JP2011022796A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Image processing method and image processor |
JP2011223089A (en) * | 2010-04-05 | 2011-11-04 | Casio Comput Co Ltd | Video file generating device, video file generation method, and video file generation program |
JP2011239195A (en) * | 2010-05-11 | 2011-11-24 | Sanyo Electric Co Ltd | Electronic apparatus |
JP2011237713A (en) * | 2010-05-13 | 2011-11-24 | Canon Inc | Imaging device and imaging method |
US20120249550A1 (en) * | 2009-04-18 | 2012-10-04 | Lytro, Inc. | Selective Transmission of Image Data Based on Device Attributes |
JP2012524467A (en) * | 2009-04-18 | 2012-10-11 | リフォーカス イマジング,インコーポレイテッド | Light field camera images, files and configuration data, and methods for using, storing and communicating them |
JP2012253444A (en) * | 2011-05-31 | 2012-12-20 | Canon Inc | Imaging apparatus, image processing system, and method thereof |
JP2013065280A (en) * | 2011-09-01 | 2013-04-11 | Canon Inc | Image processing method, image processing system and program |
JP2013128217A (en) * | 2011-12-19 | 2013-06-27 | Canon Inc | Imaging apparatus |
JP2013145980A (en) * | 2012-01-13 | 2013-07-25 | Canon Inc | Imaging device, control method thereof, image processing apparatus, image generation method, program |
-
2013
- 2013-08-27 JP JP2013175656A patent/JP6406804B2/en active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004228711A (en) * | 2003-01-20 | 2004-08-12 | Sony Corp | Supervisory apparatus and method, program, and supervisory system |
JP2005277813A (en) * | 2004-03-25 | 2005-10-06 | Canon Inc | Electronic imaging apparatus |
US20120249550A1 (en) * | 2009-04-18 | 2012-10-04 | Lytro, Inc. | Selective Transmission of Image Data Based on Device Attributes |
JP2012524467A (en) * | 2009-04-18 | 2012-10-11 | リフォーカス イマジング,インコーポレイテッド | Light field camera images, files and configuration data, and methods for using, storing and communicating them |
JP2011022796A (en) * | 2009-07-15 | 2011-02-03 | Canon Inc | Image processing method and image processor |
JP2011223089A (en) * | 2010-04-05 | 2011-11-04 | Casio Comput Co Ltd | Video file generating device, video file generation method, and video file generation program |
JP2011239195A (en) * | 2010-05-11 | 2011-11-24 | Sanyo Electric Co Ltd | Electronic apparatus |
JP2011237713A (en) * | 2010-05-13 | 2011-11-24 | Canon Inc | Imaging device and imaging method |
JP2012253444A (en) * | 2011-05-31 | 2012-12-20 | Canon Inc | Imaging apparatus, image processing system, and method thereof |
JP2013065280A (en) * | 2011-09-01 | 2013-04-11 | Canon Inc | Image processing method, image processing system and program |
JP2013128217A (en) * | 2011-12-19 | 2013-06-27 | Canon Inc | Imaging apparatus |
JP2013145980A (en) * | 2012-01-13 | 2013-07-25 | Canon Inc | Imaging device, control method thereof, image processing apparatus, image generation method, program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019097169A (en) * | 2017-11-24 | 2019-06-20 | 三星電子株式会社Samsung Electronics Co.,Ltd. | Image restoration apparatus and method |
JP7264624B2 (en) | 2017-11-24 | 2023-04-25 | 三星電子株式会社 | Video restoration device and method |
CN113295059A (en) * | 2021-04-13 | 2021-08-24 | 长沙理工大学 | Multi-lens imaging method for detecting multi-cartridge fireworks and crackers |
Also Published As
Publication number | Publication date |
---|---|
JP6406804B2 (en) | 2018-10-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6055332B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP5725953B2 (en) | Imaging apparatus, control method therefor, and information processing apparatus | |
JP5947548B2 (en) | IMAGING DEVICE, ITS CONTROL METHOD, IMAGE PROCESSING DEVICE, IMAGE GENERATION METHOD, PROGRAM | |
JP2013201752A5 (en) | ||
JP6159097B2 (en) | Image processing apparatus, imaging apparatus, control method, and program | |
JP5377768B2 (en) | Image processing method and apparatus | |
US20140226039A1 (en) | Image capturing apparatus and control method thereof | |
JP6095266B2 (en) | Image processing apparatus and control method thereof | |
JP2018174502A (en) | Imaging apparatus, image processing apparatus, control method of imaging apparatus, and program | |
JP6211137B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
JP2017005689A (en) | Image processing system and image processing method | |
JPWO2010035752A1 (en) | Image generation apparatus, imaging apparatus, image reproduction apparatus, and image reproduction program | |
JP6406804B2 (en) | Image processing apparatus, image processing method and program, and imaging apparatus | |
JP6053276B2 (en) | Imaging apparatus, control method therefor, and image processing apparatus | |
US10681260B2 (en) | Focus detection device and focus detection method | |
JP6210836B2 (en) | IMAGING DEVICE, IMAGING CONTROL DEVICE, ITS CONTROL METHOD, AND PROGRAM | |
JP5895587B2 (en) | Image recording apparatus, image recording method, image reproducing apparatus, and image reproducing method | |
JP6491442B2 (en) | Image processing apparatus, image processing method, program, and recording medium | |
JP6757245B2 (en) | Video playback device, imaging device, video playback method and program | |
JP2014220598A (en) | Image processing device and image processing method | |
JP2015084517A (en) | Image processing apparatus, image processing method, program and recording medium | |
JP6291605B2 (en) | Image processing apparatus and control method thereof | |
JP2019208214A (en) | Image processing apparatus, image processing method, program, and imaging apparatus | |
JP2014110442A (en) | Imaging apparatus | |
JP2018050147A (en) | Imaging apparatus, imaging method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160803 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170515 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170627 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170825 |
|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20171214 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20180126 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180301 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180601 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180821 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180918 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6406804 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |