JP5843599B2 - Image processing apparatus, imaging apparatus, and method thereof - Google Patents

Image processing apparatus, imaging apparatus, and method thereof Download PDF

Info

Publication number
JP5843599B2
JP5843599B2 JP2011276966A JP2011276966A JP5843599B2 JP 5843599 B2 JP5843599 B2 JP 5843599B2 JP 2011276966 A JP2011276966 A JP 2011276966A JP 2011276966 A JP2011276966 A JP 2011276966A JP 5843599 B2 JP5843599 B2 JP 5843599B2
Authority
JP
Japan
Prior art keywords
image
imaging
processing apparatus
aperture
spatial frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011276966A
Other languages
Japanese (ja)
Other versions
JP2013128212A5 (en
JP2013128212A (en
Inventor
千晶 金子
千晶 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011276966A priority Critical patent/JP5843599B2/en
Publication of JP2013128212A publication Critical patent/JP2013128212A/en
Publication of JP2013128212A5 publication Critical patent/JP2013128212A5/ja
Application granted granted Critical
Publication of JP5843599B2 publication Critical patent/JP5843599B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は画像処理装置および撮像装置並びにその方法に関し、より具体的には複数の画像を用いてダイナミックレンジの広い画像を生成するための画像処理装置および撮像装置並びにその方法に関する。   The present invention relates to an image processing apparatus, an imaging apparatus, and a method thereof, and more specifically to an image processing apparatus, an imaging apparatus, and a method thereof for generating an image with a wide dynamic range using a plurality of images.

デジタルカメラを用いて屋外で撮影する際など、撮影可能なダイナミックレンジよりも撮影シーンのダイナミックレンジが広い場合がある。このとき、撮影可能なダイナミックレンジを超える被写体についてはその階調情報を記録することができないため、撮影画像において白飛びや黒潰れが発生する。その結果、撮影シーンの印象と撮影画像の印象とが異なってしまう可能性がある。   When shooting outdoors using a digital camera, the dynamic range of the shooting scene may be wider than the dynamic range that can be shot. At this time, gradation information cannot be recorded for a subject that exceeds the dynamic range that can be photographed, and thus whiteout and blackout occur in the photographed image. As a result, the impression of the shooting scene and the impression of the shot image may be different.

従来、このような問題を解決するための技術の1つとして、ハイダイナミックレンジ(High Dynamic Range)画像生成技術(以後、HDR画像生成技術)が知られている。HDR画像生成技術は、露出の異なる複数枚の撮影画像を取得し、これらを合成することでよりダイナミックレンジの広い画像を生成するものである。ここで、撮影画像の露出を変える方法としては、デジタルカメラの露光時間を変化させて同一シーンを複数回撮影するものが広く知られている。また、他の方法として、絞りを変化させることで露出の異なる複数画像を取得する方法も知られている(例えば、特許文献1参照)。   Conventionally, a high dynamic range image generation technique (hereinafter, HDR image generation technique) is known as one of the techniques for solving such a problem. The HDR image generation technology generates a plurality of captured images with different exposures and combines them to generate an image with a wider dynamic range. Here, as a method of changing the exposure of a photographed image, a method of photographing the same scene a plurality of times by changing the exposure time of the digital camera is widely known. As another method, a method of acquiring a plurality of images with different exposures by changing the aperture is also known (see, for example, Patent Document 1).

特許第4530149号公報Japanese Patent No. 4530149

しかし、上述した露光時間を変えて複数回撮影する方法では、撮影シーンに動きがある場合、撮影画像間において露出ごとに被写体の位置が微妙に異なって写り、ブレが生じる。また、絞りを変えて撮影する方法では、絞りの量に応じて被写界深度も変化するため、奥行きのあるシーンを撮影した場合に露出ごとに合焦範囲が変化して、異なるボケが生じる。そのため従来技術は、動きや奥行きのあるシーンを撮影した場合に、撮影画像を合成して得られるHDR画像が不自然な画像となるという課題があった。   However, in the above-described method of shooting a plurality of times while changing the exposure time, if there is a movement in the shooting scene, the position of the subject appears slightly different for each exposure between shot images, and blurring occurs. Also, in the method of shooting with changing the aperture, the depth of field also changes according to the amount of the aperture, so when shooting a scene with depth, the focus range changes for each exposure, resulting in different blurring. . Therefore, the conventional technique has a problem that when a scene with motion and depth is photographed, an HDR image obtained by synthesizing the photographed images becomes an unnatural image.

そこで本発明では、絞りを変えて撮影した露出の異なる複数枚の画像について、被写界深度が互いに同等となるように補正を実行してから合成することにより、より自然なHDR画像を生成することを目的とする。   Therefore, in the present invention, a plurality of images with different exposures shot with different apertures are combined after performing correction so that the depth of field is equal to each other, thereby generating a more natural HDR image. For the purpose.

本発明の画像処理装置は、被写体を第一の視点から第一の絞り値の絞りを介して撮像することにより得られる第一の画像と、前記被写体を、前記第一の視点とは異なる第二の視点から、前記第一の絞り値とは異なる第二の絞り値の絞りを介して撮像することにより得られる、前記第一の画像とは露出の異なる第二の画像とを取得する取得手段と、前記第一の画像のボケ具合と前記第二の画像のボケ具合との間の差異が小さくなるように、前記第一の画像および前記第二の画像のうちの少なくとも一方の画素値を補正する補正手段と、少なくとも一方の画素値が補正された前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりもダイナミックレンジが広い合成画像を生成する合成手段とを備えることを特徴とする。  The image processing apparatus according to the present invention provides a first image obtained by capturing an image of a subject from a first viewpoint through an aperture having a first aperture value, and the subject is different from the first viewpoint. Acquiring from a second viewpoint, a second image having a different exposure from the first image, obtained by imaging through a second aperture value different from the first aperture value. And a pixel value of at least one of the first image and the second image such that a difference between the blur condition of the first image and the blur condition of the second image is reduced. By combining the first image and the second image in which at least one pixel value has been corrected, and a correction means for correcting the image, the dynamic range is greater than that of the first image and the second image. A synthesis means for generating a wide composite image And features.

本発明の画像処理方法は、被写体を第一の視点から第一の絞り値の絞りを介して撮像することにより得られる第一の画像と、前記被写体を、前記第一の視点とは異なる第二の視点から、前記第一の絞り値とは異なる第二の絞り値の絞りを介して撮像することにより得られる、前記第一の画像とは露出の異なる第二の画像とを取得する取得工程と、前記第一の画像のボケ具合と前記第二の画像のボケ具合との間の差異が小さくなるように、前記第一の画像および前記第二の画像のうちの少なくとも一方の画素値を補正する補正工程と、少なくとも一方の画素値が補正された前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりもダイナミックレンジが広い合成画像を生成する合成工程とを備えることを特徴とする。  According to the image processing method of the present invention, a first image obtained by capturing an image of a subject from a first viewpoint through a first aperture value, and the subject different from the first viewpoint. Acquiring from a second viewpoint, a second image having a different exposure from the first image, obtained by imaging through a second aperture value different from the first aperture value. And a pixel value of at least one of the first image and the second image so that a difference between a blur condition of the first image and the blur condition of the second image is reduced. By combining the first image in which at least one pixel value is corrected and the second image, the dynamic range is greater than that of the first image and the second image. A synthesis process for generating a wide composite image And features.

本発明は、被写体に動きがあり、かつ奥行きのあるシーンにおいても、被写体ブレの少ない、ボケ味の自然なHDR画像の生成を可能とする。   The present invention makes it possible to generate a bokeh natural HDR image with less subject blur even in a scene where the subject is moving and deep.

本発明の撮像装置の一例を示す図である。It is a figure which shows an example of the imaging device of this invention. 本発明の撮像装置の一例を示す図である。It is a figure which shows an example of the imaging device of this invention. 本実施例における画像処理装置のシステム構成を示すブロック図である。It is a block diagram which shows the system configuration | structure of the image processing apparatus in a present Example. 本実施例における画像処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the image processing in a present Example. 本実施例の撮影画像取得処理の流れを示すフローチャートである。It is a flowchart which shows the flow of the picked-up image acquisition process of a present Example. 実施例1における画像補正処理の流れを示すフローチャートである。3 is a flowchart showing a flow of image correction processing in Embodiment 1. 実施例2における画像補正処理の流れを示すフローチャートである。10 is a flowchart illustrating a flow of image correction processing according to the second exemplary embodiment. 各撮像部の撮影画像の例を示す図である。It is a figure which shows the example of the picked-up image of each imaging part. 本実施例のシーンの被写体、合焦位置および被写界深度との関係を説明するための図である。It is a figure for demonstrating the relationship with the to-be-photographed object of a scene of a present Example, a focus position, and depth of field. 本実施例のボケを同程度に調整した補正画像の例を示す図である。It is a figure which shows the example of the correction | amendment image which adjusted the blur of the present Example to the same extent. 本実施例のボケを同程度に調整した補正画像の例を示す図である。It is a figure which shows the example of the correction | amendment image which adjusted the blur of the present Example to the same extent. 本実施例のボケを同程度に調整した補正画像の例を示す図である。It is a figure which shows the example of the correction | amendment image which adjusted the blur of the present Example to the same extent. 本実施例のボケの程度を補正したHDR画像の例を示す図である。It is a figure which shows the example of the HDR image which correct | amended the extent of the blur of a present Example. ボケの程度を補正せずに合成したHDR画像の例を示す図である。It is a figure which shows the example of the HDR image synthesize | combined without correcting the grade of a blur. 実施例2における平滑化処理の流れを示すフローチャートである。10 is a flowchart illustrating a flow of a smoothing process in the second embodiment.

[実施例1]
本実施例では、絞りの異なる複数の撮像部を用いて複数の視点位置から同一シーンを撮影し、露出の異なる複数枚の撮影画像を取得する。取得した複数枚の画像を用いて、撮影時の被写界深度が最も浅い画像を撮影した撮像部の撮影パラメータに基づき、各撮影画像をリフォーカスすることにより、被写体のボケが互いに同程度でボケの差異を減少させた露出の異なる複数の補正画像を生成する。最後に、これらの補正画像を合成してHDR画像を生成する。これにより、撮影画像間でのボケ方の差を補正した自然なHDR画像の生成を可能とする。
[Example 1]
In this embodiment, the same scene is photographed from a plurality of viewpoint positions using a plurality of imaging units having different apertures, and a plurality of photographed images having different exposures are acquired. Based on the shooting parameters of the imaging unit that captured the image with the shallowest depth of field at the time of shooting using the multiple images obtained, each subject image was defocused by refocusing. A plurality of corrected images having different exposures with reduced blur differences are generated. Finally, these corrected images are combined to generate an HDR image. As a result, it is possible to generate a natural HDR image in which the difference in blur between captured images is corrected.

まず、本実施例における画像処理装置のシステム構成例について、図1ないし図3を用いて説明する。図1は、複数の撮像部を備えた多眼方式による撮像装置の一例を示す図である。同図において、撮像装置100の筐体は、画像を取得する9個の撮像部101〜109からなるカメラアレイと、撮影ボタン110を備えている。撮影ボタン110が押下されると、撮像部101〜109が被写体の光情報をセンサ(撮像素子)で受光し、受光した信号がA/D変換されて、複数の撮影画像(デジタルデータ)が同時に取得される。このような多眼方式の撮像装置により、同一の被写体を複数の位置から撮影した画像群を得ることができる。なお、ここでは撮像部の数を9個としたが撮像部の数は9個に限定されず、例えば図2に示すように3個とすることもできる。したがって、複数の撮像部を有するいずれの撮像装置にも本発明を適用することができる。また、複数の撮像部の配置は任意であり、放射状や直線状に配置してもよいし、まったくランダムに配置してもよい。   First, a system configuration example of the image processing apparatus according to the present embodiment will be described with reference to FIGS. FIG. 1 is a diagram illustrating an example of a multi-lens imaging apparatus including a plurality of imaging units. In the figure, the housing of the imaging apparatus 100 includes a camera array including nine imaging units 101 to 109 that acquire images, and a shooting button 110. When the shooting button 110 is pressed, the imaging units 101 to 109 receive light information of the subject with a sensor (imaging device), the received signal is A / D converted, and a plurality of captured images (digital data) are simultaneously displayed. To be acquired. With such a multi-lens imaging device, it is possible to obtain an image group obtained by photographing the same subject from a plurality of positions. Although the number of image pickup units is nine here, the number of image pickup units is not limited to nine, and may be three as shown in FIG. 2, for example. Therefore, the present invention can be applied to any imaging apparatus having a plurality of imaging units. Moreover, the arrangement of the plurality of imaging units is arbitrary, and may be arranged radially or linearly, or may be arranged at random.

図3は、撮像装置100の内部構成を示すブロック図である。中央処理装置(CPU)201は、以下に述べる各部を統括的に制御する。RAM202は、CPU201の主メモリ、ワークエリア等として機能する。ROM203は、CPU201で実行される制御プラグラム等を格納している。バス213は、各種データの転送経路となる。例えば、撮像部101〜109によって取得されたデジタルデータは、このバス213を介して所定の処理部に送られる。ユーザの指示を受け取る操作部204は、ボタンやモードダイヤルなどが含まれるが、これに限られない。   FIG. 3 is a block diagram illustrating an internal configuration of the imaging apparatus 100. A central processing unit (CPU) 201 generally controls each unit described below. The RAM 202 functions as a main memory, work area, and the like for the CPU 201. The ROM 203 stores a control program executed by the CPU 201 and the like. The bus 213 serves as a transfer path for various data. For example, digital data acquired by the imaging units 101 to 109 is sent to a predetermined processing unit via the bus 213. The operation unit 204 that receives a user instruction includes a button, a mode dial, and the like, but is not limited thereto.

表示部206は、撮影画像や文字の表示を行い、例えば液晶ディスプレイが用いられる。また、表示部206は、タッチスクリーン機能を有していても良く、その場合はタッチスクリーンを用いたユーザ指示を操作部204の入力として扱うことも可能である。表示制御部205は、表示部206に表示される撮影画像や文字の表示制御を行う。   The display unit 206 displays captured images and characters, and for example, a liquid crystal display is used. Further, the display unit 206 may have a touch screen function, and in that case, a user instruction using the touch screen can be handled as an input of the operation unit 204. A display control unit 205 performs display control of a captured image and characters displayed on the display unit 206.

撮像部制御部207は、フォーカスを合わせる、シャッターを開く及び閉じる並びに絞りを調節するなどの、CPU201からの指示に基づいた撮像系の制御を行う。デジタル信号処理部208は、バス213を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。エンコーダ部209は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部210は、PCやその他のメディア211(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に接続するためのインターフェースである。画像処理部212は、撮像部101〜109で取得されたカラー画像群或いは、デジタル信号処理部208から出力されるカラー画像群から出力されるデジタル画像群を用いて画像処理を行う。   The imaging unit control unit 207 controls the imaging system based on instructions from the CPU 201 such as focusing, opening and closing the shutter, and adjusting the aperture. The digital signal processing unit 208 performs various processes such as white balance processing, gamma processing, and noise reduction processing on the digital data received via the bus 213. The encoder unit 209 performs processing for converting digital data into a file format such as JPEG or MPEG. The external memory control unit 210 is an interface for connecting to a PC or other media 211 (for example, hard disk, memory card, CF card, SD card, USB memory). The image processing unit 212 performs image processing using the color image group acquired by the imaging units 101 to 109 or the digital image group output from the color image group output from the digital signal processing unit 208.

次に、本実施例の画像処理装置における一連の処理の動作手順を、図4に示すフローチャートを参照して説明する。まずステップS301において、撮像部101〜109の絞りを異なる設定にして被写体を撮影することにより、露出の異なる複数の撮影画像を取得する(撮影画像取得処理)。ステップS302において、撮影時の被写界深度が最も浅い撮像部の撮影パラメータに基づき、各撮影画像をリフォーカスして複数の補正画像を生成する(画像補正処理)。ステップS303において、補正画像の画素値を合成して1枚のHDR画像を生成する(画像合成処理)。以下、各処理の詳細について説明する。なお本処理は、図4のフローチャートに示す手順を実行するよう記述されたコンピュータ実行可能なプログラムを、ROM203からRAM202上に読み込んだ後、CPU201によって、読み込んだプログラムを実行することにより行われる。   Next, an operation procedure of a series of processes in the image processing apparatus of the present embodiment will be described with reference to a flowchart shown in FIG. First, in step S301, a plurality of captured images with different exposures are acquired by capturing a subject with different aperture settings of the imaging units 101 to 109 (captured image acquisition processing). In step S302, based on the imaging parameters of the imaging unit with the shallowest depth of field at the time of imaging, each captured image is refocused to generate a plurality of corrected images (image correction processing). In step S303, the pixel values of the corrected image are combined to generate one HDR image (image combining process). Details of each process will be described below. This process is performed by reading a computer-executable program described to execute the procedure shown in the flowchart of FIG. 4 from the ROM 203 onto the RAM 202 and then executing the read program by the CPU 201.

<撮影画像取得の詳細処理>
通常のデジタルカメラにおいては、撮影準備状態においてレンズの種類、焦点距離、ピント距離、露光時間、絞り値などからなる撮影パラメータセットを1セット設定する。これに対し、本実施例で用いるような多眼方式の撮像装置では各撮像部が1セットずつ撮影パラメータを設定されるが、ここでは露出が異なるように絞り値を変えた撮影パラメータセットを複数作成する。作成された撮影パラメータセットは複数の撮像部101〜109に各々割り当てられ、割り当てられたパラメータセットに応じて露光を行うことで、露出の異なる複数の撮影画像を得る。以下、図5に示すフローチャートを用いて詳細な処理について説明する。
<Detailed processing for acquiring captured images>
In an ordinary digital camera, one set of shooting parameter sets including a lens type, a focal length, a focus distance, an exposure time, an aperture value, and the like is set in a shooting preparation state. On the other hand, in the multi-lens imaging device used in the present embodiment, each imaging unit sets a shooting parameter for each set. Here, a plurality of shooting parameter sets with different aperture values are set so that exposure is different. create. The created shooting parameter set is assigned to each of the plurality of imaging units 101 to 109, and exposure is performed according to the assigned parameter set, thereby obtaining a plurality of shot images with different exposures. Hereinafter, detailed processing will be described with reference to the flowchart shown in FIG.

まず、撮影ボタン110が半押しされると本実施例の撮像装置100は撮影準備状態となり、ステップS401で通常のデジタルカメラと同様にして、例えば撮像部105における適正露出(EV=±0)の撮影パラメータセットP0を1セット決定する。以後、この撮影パラメータセットを基準撮影パラメータセットと呼ぶ。また、撮像部105の位置を基準視点位置Oと呼ぶ。   First, when the shooting button 110 is half-pressed, the imaging apparatus 100 according to the present embodiment is in a shooting preparation state. One set of shooting parameter set P0 is determined. Hereinafter, this shooting parameter set is referred to as a reference shooting parameter set. Further, the position of the imaging unit 105 is referred to as a reference viewpoint position O.

次にステップS402で、基準撮影パラメータセットと、ROM203上のレンズ特性値データベースに格納されている情報を取得する。この取得した情報に基づき、絞り値を変化させて露出が−1段(EV=-1)および+1段(EV=+1)となる撮影パラメータセットP-1およびP+1を作成する。以後、P-1、P+1を変動撮影パラメータセットと呼ぶ。ここで、レンズ特性値データベースには、予め撮影パラメータセットと、露出、被写界深度および後述する画像補正処理で用いる仮想絞りフィルタとの対応関係が格納されているものとする。   In step S <b> 402, information stored in the reference imaging parameter set and the lens characteristic value database on the ROM 203 is acquired. Based on the acquired information, photographing parameter sets P-1 and P + 1 are generated by changing the aperture value to obtain exposures of −1 (EV = −1) and +1 (EV = + 1). Hereinafter, P-1 and P + 1 are referred to as a variable imaging parameter set. Here, it is assumed that the lens characteristic value database stores in advance the correspondence between the shooting parameter set, the exposure, the depth of field, and the virtual aperture filter used in the image correction process described later.

撮影ボタン110が全押しされると、ステップS403で各撮影パラメータセットP0、P-1、P+1が撮像部101〜109に割り当てられ、撮像部が各々撮影パラメータセットに従って撮影動作を開始し、複数枚の撮影画像を得る。撮影パラメータセットの割り当ては、例えば、被写界深度が深い(つまり、絞りを閉じた)撮影パラメータセットほど、距離の離れた多くの撮像部に割り当たるように行うのが望ましい。例えば、図1に示す白丸、網掛け、黒丸で示した撮像部に、それぞれ撮影パラメータセットP-1、P0、P+1を割り当てる。すなわち、撮像部101、103、107及び109には撮影パラメータセットP-1が割り当てられる。同様に、撮像部102、104、106及び108には撮影パラメータセットP0が、撮像部105には撮影パラメータセットP+1が割り当てられる。このような割り当てにより、後の画像補正処理においてより高品質なリフォーカス画像を生成することが可能となるが、これに限られず撮像部とパラメータとはいずれの組合せとしても本実施例の効果を奏することはできる。   When the shooting button 110 is fully pressed, the shooting parameter sets P0, P-1, and P + 1 are assigned to the imaging units 101 to 109 in step S403, and the imaging unit starts shooting operations according to the shooting parameter sets. Obtain multiple shot images. It is desirable to assign the shooting parameter set so that, for example, a shooting parameter set with a deeper depth of field (that is, with the aperture closed) is assigned to a larger number of imaging units that are farther away. For example, imaging parameter sets P-1, P0, and P + 1 are assigned to the imaging units indicated by white circles, shaded areas, and black circles shown in FIG. That is, the imaging parameter set P-1 is assigned to the imaging units 101, 103, 107, and 109. Similarly, the imaging parameter set P0 is assigned to the imaging units 102, 104, 106, and 108, and the imaging parameter set P + 1 is assigned to the imaging unit 105. Such an assignment makes it possible to generate a higher-quality refocus image in the subsequent image correction processing. However, the present invention is not limited to this, and the effect of the present embodiment can be achieved by any combination of the imaging unit and the parameter. I can play.

以上の処理により得られる撮影画像の例を図8に示す。図8において、画像(a)〜(i)はそれぞれ撮像部101〜109から得られる撮像画像である。また、この際撮影されるシーンの状態を図9に示す。図9に示す被写体701は、被写体703の撮像装置100から遠ざかる方向に所定の距離をおいて配置され、焦点は被写体703に合っているものとする。ここで、撮像装置100から被写体703までの距離はL0とし、撮影パラメータセットP0、P-1およびP+1の被写界深度をそれぞれD0、D-1およびD+1とする。このように設定すると、図8に示すように、被写体701は、撮影パラメータセットP0、P-1が割り当てられた撮像部では被写界深度D0、D-1内にあるので合焦する。しかし、撮影パラメータセットP+1の撮像部の被写界深度D+1内にははいらない。そのため、EV=−1およびEV=±0の撮影画像、すなわち撮像部105以外の撮像部で撮影し得られた画像上では被写体701にピントが合って見えるが、EV=+1の画像、すなわち撮像部105で撮影し得られた画像上では被写体701にボケが生じる。   An example of a captured image obtained by the above processing is shown in FIG. In FIG. 8, images (a) to (i) are captured images obtained from the imaging units 101 to 109, respectively. Further, FIG. 9 shows the state of the scene photographed at this time. A subject 701 illustrated in FIG. 9 is disposed at a predetermined distance in a direction in which the subject 703 moves away from the imaging apparatus 100, and the focus is on the subject 703. Here, the distance from the imaging device 100 to the subject 703 is L0, and the depths of field of the shooting parameter sets P0, P-1, and P + 1 are D0, D-1, and D + 1, respectively. With this setting, as shown in FIG. 8, the subject 701 is in focus because it is within the depth of field D0 and D-1 in the imaging unit to which the imaging parameter sets P0 and P-1 are assigned. However, it does not fall within the depth of field D + 1 of the imaging unit of the shooting parameter set P + 1. Therefore, the subject 701 looks in focus on the captured image of EV = −1 and EV = ± 0, that is, the image obtained by the imaging unit other than the imaging unit 105, but the image of EV = + 1, that is, the imaging The subject 701 is blurred on the image captured by the unit 105.

<画像補正処理の詳細>
本実施例における画像補正処理について説明する。本実施例においては、同一の撮影パラメータセットを用いて得られた複数の撮影画像を変換して重みづけ加算することにより撮影画像のリフォーカスを行い、撮影位置・ピント距離・被写界深度が同一で、露出の異なる複数の補正画像を生成する。また、撮影画像を重みづけ加算する際の重み係数は、撮影時の被写界深度が最も浅い撮像部の撮影パラメータセットに基づいて決定する。以下、図6に示すフローチャートを用いて詳細な処理について説明する。
<Details of image correction processing>
An image correction process in this embodiment will be described. In this embodiment, a plurality of shot images obtained using the same shooting parameter set are converted and weighted and added to refocus the shot image, and the shooting position, the focus distance, and the depth of field are set. A plurality of corrected images that are the same and have different exposures are generated. Also, the weighting coefficient for weighted addition of captured images is determined based on the imaging parameter set of the imaging unit with the shallowest depth of field at the time of imaging. Hereinafter, detailed processing will be described with reference to the flowchart shown in FIG.

まずステップS501で、基準撮影パラメータセットP0および変動撮影パラメータセットP-1、P+1に基づき、後述するステップS502で用いる目標絞りフィルタを取得する。具体的には、まず撮影パラメータセットP0、P-1、P+1を用いてレンズ特性値データベースから対応する被写界深度D0、D-1、D+1を取得する。得られた被写界深度のうち最も浅い被写界深度Dmin(本例では、D+1)を求め、これに対応する仮想絞りフィルタを目標絞りフィルタとしてレンズ特性値データベースから取得する。なお、仮想絞りフィルタは、絞りに応じて定まるボケの大きさや形状を表すものであり、後述するステップS502の重みづけ加算に用いる重み係数が記述されたフィルタである。   First, in step S501, a target aperture filter used in step S502 to be described later is acquired based on the reference shooting parameter set P0 and the variable shooting parameter sets P-1 and P + 1. Specifically, first, the corresponding depth of field D0, D-1, and D + 1 is acquired from the lens characteristic value database using the imaging parameter sets P0, P-1, and P + 1. The shallowest depth of field Dmin (D + 1 in this example) is obtained from the obtained depth of field, and the virtual diaphragm filter corresponding to this is obtained from the lens characteristic value database as the target diaphragm filter. Note that the virtual aperture filter represents the size and shape of blur determined according to the aperture, and is a filter in which a weighting factor used for weighting addition in step S502 described later is described.

次にステップS502で、基準撮影パラメータセットP0中のピント距離L0、およびステップS501で取得した目標絞りフィルタを用いてリフォーカス処理を行い、EV=±0,−1,+1の撮影画像に対応する補正画像を生成する。以下、EV=±0の撮影画像を例にしてリフォーカス処理を具体的に説明する。ただし、リフォーカス処理については様々な手法が知られており、ピント位置および被写界深度を露出の異なる画像間で統一できるものであれば、実現方法を本実施例で説明する処理に限定するものではない。   Next, in step S502, refocus processing is performed using the focus distance L0 in the reference imaging parameter set P0 and the target aperture filter acquired in step S501, and the captured image of EV = ± 0, −1, +1 is handled. A corrected image is generated. Hereinafter, the refocus processing will be specifically described by taking a captured image of EV = ± 0 as an example. However, various methods are known for the refocus processing, and the implementation method is limited to the processing described in the present embodiment as long as the focus position and the depth of field can be unified between images with different exposures. It is not a thing.

まず、基準撮影パラメータセットP0を用いて得られた複数の撮影画像それぞれに関し、ピント面上の被写体について画像上での位置を一致させるシフト変形量を算出する。カメラアレイ平面上において基準視点位置Oに対する相対位置座標が( i, j )である撮像部から得られた撮影画像をI0 ,(i,j) とする。そうすると、ピント距離がL0である場合の撮影画像I0,(i,j)の水平シフト量Shiftu(i,j)および垂直シフト量Shiftv(i,j)は以下の式で求められる。   First, for each of a plurality of captured images obtained using the reference capturing parameter set P0, a shift deformation amount that matches the position of the subject on the focus surface on the image is calculated. A captured image obtained from an imaging unit whose relative position coordinates with respect to the reference viewpoint position O on the camera array plane is (i, j) is I0, (i, j). Then, the horizontal shift amount Shiftu (i, j) and the vertical shift amount Shiftv (i, j) of the captured image I0, (i, j) when the focus distance is L0 can be obtained by the following equations.

Figure 0005843599
Figure 0005843599

ここで、W、Hはそれぞれ撮影画像の水平方向および垂直方向の画像サイズ、θw、θhはそれぞれ撮像部の水平視野角および垂直視野角である。   Here, W and H are the horizontal and vertical image sizes of the captured image, respectively, and θw and θh are the horizontal viewing angle and the vertical viewing angle of the imaging unit, respectively.

次に、算出したシフト量Shiftu(i,j)、Shiftv(i,j)と、ステップS501で取得した目標絞りフィルタの重み係数α( i, j )を用い、次式に従い撮影画像I0 ,(i,j)の画素値を重みづけ加算して補正画像H0を生成する。ただし、( u, v )は画像平面上における水平、垂直座標であり、I0 ,(i,j) ( u, v )、H0 ( u, v )はそれぞれ撮影画像I0 ,(i,j) および補正画像H0の座標( u, v )における画素値である。   Next, using the calculated shift amounts Shiftu (i, j) and Shiftv (i, j) and the weighting coefficient α (i, j) of the target aperture filter acquired in step S501, the captured images I0, ( The corrected image H0 is generated by weighted addition of the pixel values i, j). Where (u, v) is the horizontal and vertical coordinates on the image plane, and I0, (i, j) (u, v) and H0 (u, v) are the captured images I0, (i, j) and It is a pixel value at the coordinates (u, v) of the corrected image H0.

以上で説明した処理により、EV=±0に対して撮影位置がO、ピント距離がL0、被写界深度がDminである補正画像H0が得られる。同様にして、撮影時に用いた変動撮影パラメータセットごとに、ステップS301で得た複数の撮影画像に対してリフォーカス処理を適用することにより、EV=-1,+1に対する補正画像H-1、H+1も生成する。   Through the processing described above, a corrected image H0 is obtained in which the shooting position is O, the focus distance is L0, and the depth of field is Dmin with respect to EV = ± 0. Similarly, by applying a refocus process to the plurality of captured images obtained in step S301 for each variable shooting parameter set used at the time of shooting, a corrected image H-1 for EV = -1, + 1, H + 1 is also generated.

以上の処理により得られる補正画像の例を図10ないし12に示す。これらの補正画像は、露出は異なるが被写体のボケが同程度である画像となる。なお、ステップS403において、被写界深度が最も浅い撮影パラメータセットを基準視点位置に存在する撮像部に割り当てた場合、その撮像部から得られる撮影画像についてはリフォーカス処理を省略してもよい。例えば、最も浅い被写界深度Dminが変動撮影パラメータセットP+1に対応する被写界深度D+1であり、撮像部105の撮影パラメータセットがP+1である場合がある。この場合には、撮像部105から得られるEV=+1の撮影画像I+1 ,(0,0) をそのまま補正画像H+1としてもよい。その場合、処理時間を短縮できるという効果を奏する。   Examples of corrected images obtained by the above processing are shown in FIGS. These corrected images are images with different exposures but the same degree of blurring of the subject. In step S403, when the imaging parameter set with the shallowest depth of field is assigned to the imaging unit existing at the reference viewpoint position, the refocus processing may be omitted for the captured image obtained from the imaging unit. For example, the shallowest depth of field Dmin may be the depth of field D + 1 corresponding to the variable shooting parameter set P + 1, and the shooting parameter set of the imaging unit 105 may be P + 1. In this case, the EV = + 1 captured image I + 1, (0,0) obtained from the imaging unit 105 may be used as the corrected image H + 1 as it is. In that case, the processing time can be shortened.

一般にリフォーカス処理は、ボケた被写体像からピントの合った被写体像を生成するよりも、ピントの合った被写体像からボケた被写体像を生成する方が比較的簡単な処理で品質の良い画像を生成することができる。また、撮影画像上の被写体像に対して生成したいボケの程度が大きい場合、より多様な視点位置から撮影した画像を用いるほど、生成されるボケた被写体像の品質が向上する。したがって本実施例では、撮影画像のうち最も浅い被写界深度に他の撮影画像の被写界深度を揃え、さらに、ステップS403で説明したように撮影パラメータセットを割り当てる。これによって、より高品質な補正画像を生成することが可能となる。   In general, refocus processing is a relatively simple process of generating a high-quality image by generating a blurred subject image from a focused subject image rather than generating a focused subject image from a blurred subject image. Can be generated. Further, when the degree of blur to be generated with respect to the subject image on the captured image is large, the quality of the generated blurred subject image is improved as the images captured from various viewpoint positions are used. Therefore, in the present embodiment, the depth of field of the other photographed image is aligned with the shallowest depth of field of the photographed image, and the photographing parameter set is assigned as described in step S403. This makes it possible to generate a higher quality corrected image.

<画像合成の詳細処理>
補正画像からHDR画像を合成する際には、既知のHDR画像生成技術が利用可能である。例えば、次式に従い各補正画像H-1、H0、H+1の画素値に合成ゲインを乗じて足し合わせることで、1枚のHDR画像Gを生成する。なお、合成ゲインの値は各補正画像の露出に応じた値(例えば、γ−1=2.0、γ0=1.0、γ+1=0.5)とすればよい。得られるHDR画像Gの例を図13に示す。また、撮像部105で撮影パラメータセットP0 、P-1、P+1を用いて撮影した画像から補正せずに合成して得られるHDR画像の例を図14に示す。図14のHDR画像では、被写体702とその周辺の間でボケの不整合が生じる。これに対し、本実施例においてHDR合成に用いる補正画像は撮影画像間でのボケ方の差を補正した画像であるため、合成して得られるHDR画像はボケの不整合が生じない自然な画像となる。
<Detailed processing of image composition>
When synthesizing an HDR image from a corrected image, a known HDR image generation technique can be used. For example, one HDR image G is generated by multiplying the pixel values of the corrected images H-1, H0, and H + 1 by the composite gain and adding them according to the following equation. Note that the value of the composite gain may be a value corresponding to the exposure of each corrected image (for example, γ−1 = 2.0, γ0 = 1.0, γ + 1 = 0.5). An example of the obtained HDR image G is shown in FIG. Further, FIG. 14 shows an example of an HDR image obtained by synthesizing the image captured by the imaging unit 105 using the imaging parameter sets P0, P-1, and P + 1 without correction. In the HDR image of FIG. 14, blur mismatch occurs between the subject 702 and its periphery. In contrast, in the present embodiment, the correction image used for HDR synthesis is an image obtained by correcting the difference in blur between captured images, so that the HDR image obtained by synthesis is a natural image that does not cause blur mismatching. It becomes.

以上説明したように、多眼カメラを用い同時に複数の露出の異なる画像を取得するとともに、深度の調整も行うことで、被写体に動きがあり、かつ奥行きのあるシーンにおいても、被写体ブレおよびボケ味の自然なHDR画像を得ることが可能となる。なお、本実施例では露出をEV=−1,±0,+1の3段階に変えて撮影する例について説明したが、露出の段階数が複数であれば、他の露出設定で撮影を行っても同様の効果を得ることができる。   As described above, by using a multi-lens camera to simultaneously acquire a plurality of images with different exposures and adjusting the depth, the subject is moving and the subject blurs and blurs even in a deep scene. It is possible to obtain a natural HDR image. In this embodiment, the example of shooting with the exposure changed to EV = −1, ± 0, +1 is described. However, if there are a plurality of exposure levels, shooting is performed with other exposure settings. The same effect can be obtained.

[実施例2]
実施例1では、露出ごとに撮影画像をリフォーカスすることによりボケ具合を整合させて補正画像を生成する例について説明した。本実施例においては、被写界深度の最も浅い撮影画像における空間周波数のスペクトルに基づき、他の撮影画像を平滑化することにより補正画像を生成する例について説明する。なお、撮影画像取得処理および画像合成処理については、実施例1と同一であるため説明を省略する。ただし、本実施例においては、図2に示す撮像装置を用いて露出ごとに各撮像部で3つの画像を取得し、これを合成して1枚の撮影画像を得るものとする。本実施例では、図2に示すような撮像装置を例に説明するが、撮像部の数や形態などについては、本技術分野で知られたいずれの撮像装置も使用することができ、その場合は以下の処理は適宜具体的な装置特性に合わせて変更することができる。さらに、撮像部間の距離はピント距離に対して十分短く、何れの撮像部で撮影した画像も基準視点位置Oから撮影した画像として見なせるものとする。以下、図7に示すフローチャートを用いて詳細な処理を説明する。
[Example 2]
In the first embodiment, an example has been described in which a corrected image is generated by refocusing a captured image for each exposure so that the degree of blur is matched. In the present embodiment, an example will be described in which a corrected image is generated by smoothing another captured image based on the spectrum of the spatial frequency in the captured image with the shallowest depth of field. Note that the captured image acquisition process and the image composition process are the same as those in the first embodiment, and thus description thereof is omitted. However, in this embodiment, it is assumed that three images are acquired by each imaging unit for each exposure using the imaging device shown in FIG. 2 and are combined to obtain a single captured image. In the present embodiment, an imaging apparatus as shown in FIG. 2 will be described as an example. However, for the number and form of imaging sections, any imaging apparatus known in the art can be used. The following processing can be appropriately changed according to specific device characteristics. Furthermore, the distance between the imaging units is sufficiently short with respect to the focus distance, and an image captured by any imaging unit can be regarded as an image captured from the reference viewpoint position O. Hereinafter, detailed processing will be described with reference to the flowchart shown in FIG.

まずステップS601において、基準撮影パラメータセットP0並びに変動撮影パラメータセットP-1及びP+1に基づき、撮影画像の中から基準深度画像を選択する。具体的には、撮影パラメータセットP0、P-1、P+1を用いてレンズ特性値データベースから対応する被写界深度D0、D-1、D+1を取得する。そして、得られた被写界深度が最も浅い撮影パラメータセットを特定し、それを用いて撮影した撮影画像を基準深度画像IDとして選択する。   First, in step S601, a reference depth image is selected from the captured images based on the reference shooting parameter set P0 and the variable shooting parameter sets P-1 and P + 1. Specifically, the corresponding depth of field D0, D-1, and D + 1 is acquired from the lens characteristic value database using the imaging parameter sets P0, P-1, and P + 1. Then, the obtained shooting parameter set with the shallowest depth of field is specified, and a shot image shot using the set is selected as a reference depth image ID.

次にステップS602で、基準深度画像IDおよび他の撮影画像(以後、補正対象画像)をN×N画素のブロック領域に分割する。そしてステップS603で、各補正対象画像の領域ごとに空間周波数スペクトルが基準深度画像IDと同等となるよう平滑化を行い、補正画像を得る。以下、ある1枚の補正対象画像Inの領域Rを平滑化する場合を例に、図15に示すフローチャートを用いて詳細を説明する。まず、ステップS1001で基準深度画像ID上の領域Rについて、フーリエ変換等を用いて空間周波数スペクトルを算出する。さらに、求めたスペクトルをそれぞれの直流成分で正規化し、正規化スペクトルfD(kx,ky)(kx,kyは空間周波数を表すインデックス)を得る。   In step S602, the reference depth image ID and other captured images (hereinafter referred to as correction target images) are divided into block regions of N × N pixels. In step S603, the correction is performed by performing smoothing so that the spatial frequency spectrum is equal to the reference depth image ID for each region of each correction target image. Hereinafter, the details will be described using the flowchart shown in FIG. 15 as an example of smoothing the region R of one correction target image In. First, in step S1001, a spatial frequency spectrum is calculated for the region R on the reference depth image ID using Fourier transform or the like. Further, the obtained spectrum is normalized with each DC component, and a normalized spectrum fD (kx, ky) (kx, ky is an index representing a spatial frequency) is obtained.

次にステップS1002で、補正対象画像In上の領域Rについて、ステップS1001と同様に空間周波数の正規化スペクトルfn(kx,ky)を得る。次にステップS1003で、正規化スペクトルfD(kx,ky)、fn(kx,ky)を用いて、領域Rにおける基準深度画像IDと補正対象画像Inの相違度Snを求める。ここで、相違度Snは2つの正規化空間周波数スペクトル間における違いの程度を表す評価値であり、例えば次式に従い算出する。このとき、相違度Snは基準深度画像と補正対象画像との間でボケの程度が異なるほど大きな値となる。   Next, in step S1002, a spatial frequency normalized spectrum fn (kx, ky) is obtained for the region R on the correction target image In as in step S1001. In step S1003, the difference Sn between the reference depth image ID and the correction target image In in the region R is obtained using the normalized spectra fD (kx, ky) and fn (kx, ky). Here, the degree of difference Sn is an evaluation value representing the degree of difference between the two normalized spatial frequency spectra, and is calculated according to the following equation, for example. At this time, the difference Sn becomes larger as the degree of blur differs between the reference depth image and the correction target image.

次にステップS1004で、相違度Snが予め定めた閾値Thより小さいか否かを判定する。Sn≦Thの場合には領域Rに関して基準深度画像と補正対象画像とはボケの程度が同等であると判断し、補正対象画像における領域Rの画素値を補正画像における領域Rの画素値として記憶した後、処理を終了する。また、Sn>Thの場合にはボケの程度が異なっていると判断し、ステップS1005へ進む。ステップS1005では、補正対象画像Inの領域Rに対してガウスフィルタ等を用いて平滑化処理を実行し、平滑化した補正対象画像を新たな補正対象画像としてステップS1002に戻る。   In step S1004, it is determined whether or not the difference Sn is smaller than a predetermined threshold value Th. When Sn ≦ Th, the reference depth image and the correction target image are determined to have the same degree of blur with respect to the region R, and the pixel value of the region R in the correction target image is stored as the pixel value of the region R in the correction image. After that, the process ends. If Sn> Th, it is determined that the degree of blur is different, and the process proceeds to step S1005. In step S1005, smoothing processing is performed on the region R of the correction target image In using a Gaussian filter or the like, and the process returns to step S1002 with the smoothed correction target image as a new correction target image.

以上のステップS1002〜S1005の処理を繰り返し行うことにより、補正画像における領域Rの画素値を得る。なお、上述の例ではステップS1004において相違度が閾値以下となるまで処理を繰り返し行うが、相違度が極小値に収束した場合に処理を終了するようにしてもよい。   By repeatedly performing the processes in steps S1002 to S1005, the pixel value of the region R in the corrected image is obtained. In the above-described example, the process is repeated until the dissimilarity is equal to or smaller than the threshold value in step S1004. However, the process may be terminated when the dissimilarity converges to a minimum value.

以上の処理により、撮像部の個数が少ない場合においても、撮影画像間でのボケ方の差を補正した補正画像を生成することが可能となる。なお、本実施例ではステップS602において基準深度画像を含む撮影画像をブロック領域に分割したが、分割方法はこれに限るものではない。例えば、基準深度画像のエッジに基づいて領域分割を行ってもよい。その場合、被写体の輪郭線が過剰に平滑化されたり、ブロック領域間の平滑化程度の差により補正画像にブロックノイズが生じたりすることを回避する効果を奏する。   With the above processing, it is possible to generate a corrected image in which the difference in blur between captured images is corrected even when the number of imaging units is small. In this embodiment, the captured image including the reference depth image is divided into block areas in step S602. However, the division method is not limited to this. For example, region division may be performed based on the edge of the reference depth image. In this case, there is an effect of avoiding that the contour line of the subject is excessively smoothed or block noise is generated in the corrected image due to a difference in the smoothing level between the block areas.

[その他の実施形態]
また、本発明は、以下の処理を実行することによっても実現される。すなわち、上述した実施例の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。また、本発明は、複数のプロセッサが連携して処理を行うことによっても実現できるものである。
[Other Embodiments]
The present invention can also be realized by executing the following processing. That is, software (program) for realizing the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed. The present invention can also be realized by a plurality of processors cooperating to perform processing.

Claims (14)

被写体を第一の視点から第一の絞り値の絞りを介して撮像することにより得られる第一の画像と、前記被写体を、前記第一の視点とは異なる第二の視点から、前記第一の絞り値とは異なる第二の絞り値の絞りを介して撮像することにより得られる、前記第一の画像とは露出の異なる第二の画像とを取得する取得手段と、  The first image obtained by imaging the subject from the first viewpoint through the aperture with the first aperture value, and the subject from the second viewpoint different from the first viewpoint, the first Obtaining means for obtaining a second image having a different exposure from the first image, obtained by imaging through a second aperture value different from the first aperture value;
前記第一の画像のボケ具合と前記第二の画像のボケ具合との間の差異が小さくなるように、前記第一の画像および前記第二の画像のうちの少なくとも一方の画素値を補正する補正手段と、  The pixel value of at least one of the first image and the second image is corrected so that the difference between the blur condition of the first image and the blur condition of the second image is reduced. Correction means;
少なくとも一方の画素値が補正された前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりもダイナミックレンジが広い合成画像を生成する合成手段とを備える  Combining the first image with at least one pixel value corrected with the second image to generate a composite image having a wider dynamic range than the first image and the second image Means
ことを特徴とする画像処理装置。  An image processing apparatus.
前記補正手段は、前記第一の画像及び前記第二の画像のうちの少なくとも一方の画素値を補正することで、同じ被写体を同じ視点から見た場合の画像であって、互いに露出が異なる画像である複数の画像を取得し、  The correction means corrects at least one pixel value of the first image and the second image, and is an image when the same subject is viewed from the same viewpoint, and images with different exposures. Get multiple images that are
前記合成手段は、前記補正手段により取得された前記複数の画像を合成することで、前記合成画像を生成する  The synthesizing unit generates the synthesized image by synthesizing the plurality of images acquired by the correcting unit.
ことを特徴とする請求項1に記載の画像処理装置。  The image processing apparatus according to claim 1.
前記第一の画像は前記第二の画像よりも被写界深度の浅い画像であり、  The first image is an image having a shallower depth of field than the second image,
前記取得手段は、前記第二の絞り値で前記被写体を撮像することにより得られた、前記第二の画像とは異なる第三の画像を更に取得し、  The acquisition means further acquires a third image different from the second image, obtained by imaging the subject with the second aperture value,
前記補正手段は、前記第二の画像と前記第三の画像とを合成することにより、前記第二の画像の被写界深度が浅くなるように前記第二の画像の画素値を補正し、  The correction means corrects the pixel value of the second image so that the depth of field of the second image becomes shallow by combining the second image and the third image,
前記合成手段は、前記第一の画像と、画素値が補正された前記第二の画像とを合成することで、前記合成画像を生成する  The synthesizing unit generates the synthesized image by synthesizing the first image and the second image whose pixel value is corrected.
ことを特徴とする請求項1または2に記載の画像処理装置。  The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
前記補正手段は、前記第二の画像と前記第三の画像とを重みづけ加算することにより前記第二の画像の画素値を補正し、  The correction means corrects the pixel value of the second image by weighting and adding the second image and the third image,
前記重みづけ加算に用いる重み係数は、前記第一の絞り値に基づいて決定される  A weighting factor used for the weighted addition is determined based on the first aperture value.
ことを特徴とする請求項3に記載の画像処理装置。The image processing apparatus according to claim 3.
前記第一の画像は前記第二の画像よりも被写界深度の浅い画像であり、  The first image is an image having a shallower depth of field than the second image,
前記補正手段は、前記第二の画像に平滑化処理を施すことで、前記第二の画像の被写界深度が浅くなるように前記第二の画像の画素値を補正することを特徴とする請求項1又は2に記載の画像処理装置。  The correction unit corrects the pixel value of the second image so that the depth of field of the second image becomes shallow by performing a smoothing process on the second image. The image processing apparatus according to claim 1.
前記補正手段は、前記第一の画像の空間周波数スペクトルに基づき、前記平滑化処理を行う  The correction unit performs the smoothing process based on a spatial frequency spectrum of the first image.
ことを特徴とする請求項5に記載の画像処理装置。  The image processing apparatus according to claim 5.
前記補正手段は、前記第一の画像の第一の領域における第一の空間周波数スペクトルと、前記第二の画像の、前記第一の領域に対応する第二の領域における第二の空間周波数スペクトルとを比較し、前記第一の空間周波数スペクトルと前記第二の空間周波数スペクトルとの間の相違度が所定の閾値よりも大きい場合に、前記第二の領域に対して平滑化処理を行う  The correcting means includes a first spatial frequency spectrum in a first region of the first image and a second spatial frequency spectrum in a second region corresponding to the first region of the second image. And when the difference between the first spatial frequency spectrum and the second spatial frequency spectrum is greater than a predetermined threshold, smoothing processing is performed on the second region
ことを特徴とする請求項6に記載の画像処理装置。  The image processing apparatus according to claim 6.
前記補正手段は、前記平滑化処理が行われた後の前記第二の領域の空間周波数スペクトルである第三の空間周波数スペクトルと、前記第一の空間周波数スペクトルとを比較し、前記第三の空間周波数スペクトルと前記第一の空間周波数スペクトルとの間の相違度が所定の閾値よりも大きい場合に、前記第二の領域に対して更に平滑化処理を行う  The correction means compares the third spatial frequency spectrum, which is the spatial frequency spectrum of the second region after the smoothing process, with the first spatial frequency spectrum, and the third spatial frequency spectrum. When the difference between the spatial frequency spectrum and the first spatial frequency spectrum is greater than a predetermined threshold, the second region is further smoothed.
ことを特徴とする請求項7に記載の画像処理装置。  The image processing apparatus according to claim 7.
前記第一の領域および前記第二の領域は、前記第一の画像および前記第二の画像のエッジに基づいて決定される  The first region and the second region are determined based on edges of the first image and the second image.
ことを特徴とする請求項7または8に記載の画像処理装置。  The image processing apparatus according to claim 7, wherein the image processing apparatus is an image processing apparatus.
請求項1乃至9のいずれか一項に記載の画像処理装置と、  An image processing apparatus according to any one of claims 1 to 9,
前記第一の画像を撮像する第一の撮像部と、  A first imaging unit that captures the first image;
前記第二の画像を撮像する第二の撮像部とを有する  A second imaging unit that captures the second image.
ことを特徴とする撮像装置。  An imaging apparatus characterized by that.
前記第二の撮像部を含む、前記第二の絞り値の絞りを介して撮像する複数の第二の撮像部と、  A plurality of second imaging units that include the second imaging unit and that images through the aperture of the second aperture value;
前記第二の絞り値よりも大きな第三の絞り値の絞りを介して撮像する複数の第三の撮像部とを有し、  A plurality of third imaging units for imaging through an aperture having a third aperture value larger than the second aperture value;
前記複数の第三の撮像部間の距離は、前記複数の第二の撮像部間の距離よりも大きい  The distance between the plurality of third imaging units is larger than the distance between the plurality of second imaging units.
ことを特徴とする請求項10に記載の撮像装置。  The imaging apparatus according to claim 10.
被写体を第一の視点から第一の絞り値の絞りを介して撮像することにより得られる第一の画像と、前記被写体を、前記第一の視点とは異なる第二の視点から、前記第一の絞り値とは異なる第二の絞り値の絞りを介して撮像することにより得られる、前記第一の画像とは露出の異なる第二の画像とを取得する取得工程と、  The first image obtained by imaging the subject from the first viewpoint through the aperture with the first aperture value, and the subject from the second viewpoint different from the first viewpoint, the first An acquisition step of acquiring a second image having a different exposure from the first image, obtained by imaging through an aperture having a second aperture value different from the aperture value;
前記第一の画像のボケ具合と前記第二の画像のボケ具合との間の差異が小さくなるように、前記第一の画像および前記第二の画像のうちの少なくとも一方の画素値を補正する補正工程と、  The pixel value of at least one of the first image and the second image is corrected so that the difference between the blur condition of the first image and the blur condition of the second image is reduced. A correction process;
少なくとも一方の画素値が補正された前記第一の画像と前記第二の画像とを合成することで、前記第一の画像および前記第二の画像よりもダイナミックレンジが広い合成画像を生成する合成工程とを備える  Combining the first image with at least one pixel value corrected with the second image to generate a composite image having a wider dynamic range than the first image and the second image Process
ことを特徴とする画像処理方法。  An image processing method.
コンピュータを請求項1乃至9のいずれか一項に記載の画像処理装置として機能させるプログラム。  A program that causes a computer to function as the image processing apparatus according to any one of claims 1 to 9. コンピュータを請求項10または11に記載の撮像装置として機能させるプログラム。  The program which functions a computer as an imaging device of Claim 10 or 11.
JP2011276966A 2011-12-19 2011-12-19 Image processing apparatus, imaging apparatus, and method thereof Active JP5843599B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011276966A JP5843599B2 (en) 2011-12-19 2011-12-19 Image processing apparatus, imaging apparatus, and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011276966A JP5843599B2 (en) 2011-12-19 2011-12-19 Image processing apparatus, imaging apparatus, and method thereof

Publications (3)

Publication Number Publication Date
JP2013128212A JP2013128212A (en) 2013-06-27
JP2013128212A5 JP2013128212A5 (en) 2015-02-19
JP5843599B2 true JP5843599B2 (en) 2016-01-13

Family

ID=48778502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011276966A Active JP5843599B2 (en) 2011-12-19 2011-12-19 Image processing apparatus, imaging apparatus, and method thereof

Country Status (1)

Country Link
JP (1) JP5843599B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10643316B2 (en) 2017-10-31 2020-05-05 Samsung Electronics Co., Ltd. Image processing apparatus, method for processing image and computer-readable recording medium

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3009395B1 (en) * 2013-07-31 2016-12-23 Dxo Labs DEVICE FOR SHOOTING WITH A PLURALITY OF CAMERA MODULES
JP6347675B2 (en) * 2014-06-06 2018-06-27 キヤノン株式会社 Image processing apparatus, imaging apparatus, image processing method, imaging method, and program
CN106464815B (en) * 2014-11-21 2020-01-14 深圳市大疆创新科技有限公司 System and method for fast adaptive blending for high dynamic range imaging
CN109314776B (en) * 2017-05-17 2021-02-26 深圳配天智能技术研究院有限公司 Image processing method, image processing apparatus, and storage medium

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4448844B2 (en) * 2006-11-22 2010-04-14 富士フイルム株式会社 Compound eye imaging device
JP2011022796A (en) * 2009-07-15 2011-02-03 Canon Inc Image processing method and image processor
JP2011229111A (en) * 2010-03-29 2011-11-10 Fujifilm Corp Imaging apparatus
JP5367640B2 (en) * 2010-05-31 2013-12-11 パナソニック株式会社 Imaging apparatus and imaging method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10643316B2 (en) 2017-10-31 2020-05-05 Samsung Electronics Co., Ltd. Image processing apparatus, method for processing image and computer-readable recording medium

Also Published As

Publication number Publication date
JP2013128212A (en) 2013-06-27

Similar Documents

Publication Publication Date Title
US9444991B2 (en) Robust layered light-field rendering
TWI602152B (en) Image capturing device nd image processing method thereof
US9167168B2 (en) Image processing method, image processing apparatus, non-transitory computer-readable medium, and image-pickup apparatus
US8860816B2 (en) Scene enhancements in off-center peripheral regions for nonlinear lens geometries
JP5968073B2 (en) Image processing apparatus, imaging apparatus, image processing method, and image processing program
JP6308748B2 (en) Image processing apparatus, imaging apparatus, and image processing method
KR101643613B1 (en) Digital image process apparatus, method for image processing and storage medium thereof
CN108462830B (en) Image pickup apparatus and control method of image pickup apparatus
JP2010009417A (en) Image processing apparatus, image processing method, program and recording medium
JP2010020758A (en) Image processing apparatus, imaging apparatus, image processing method and program
US9332195B2 (en) Image processing apparatus, imaging apparatus, and image processing method
KR20110056098A (en) A apparatus and method for estimating psf
JP5843599B2 (en) Image processing apparatus, imaging apparatus, and method thereof
WO2020029679A1 (en) Control method and apparatus, imaging device, electronic device and readable storage medium
JP2013026844A (en) Image generation method and device, program, recording medium, and electronic camera
JP2018195079A (en) Image processing apparatus and image processing method
JP2017011327A (en) Image processing apparatus, image processing method, and program
JP2019047169A (en) Apparatus, method, and program for generating high dynamic range image
JPWO2017169039A1 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP2015046678A (en) Image processing device, image processing method and imaging device
US9538074B2 (en) Image processing apparatus, imaging apparatus, and image processing method
WO2019124289A1 (en) Device, control method, and storage medium
US8498494B2 (en) Method and apparatus for processing a digital image signal, and a recording medium having recorded thereon a program for executing the method
JP5282533B2 (en) Image processing apparatus, imaging apparatus, and program
JP2015109681A (en) Image processing method, image processing apparatus, image processing program, and imaging apparatus

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141218

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20141218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150903

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151020

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151117

R151 Written notification of patent or utility model registration

Ref document number: 5843599

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151