JP5483949B2 - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP5483949B2
JP5483949B2 JP2009185891A JP2009185891A JP5483949B2 JP 5483949 B2 JP5483949 B2 JP 5483949B2 JP 2009185891 A JP2009185891 A JP 2009185891A JP 2009185891 A JP2009185891 A JP 2009185891A JP 5483949 B2 JP5483949 B2 JP 5483949B2
Authority
JP
Japan
Prior art keywords
image
hdr
processing
captured image
exposure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009185891A
Other languages
Japanese (ja)
Other versions
JP2011040952A (en
Inventor
直之 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009185891A priority Critical patent/JP5483949B2/en
Publication of JP2011040952A publication Critical patent/JP2011040952A/en
Application granted granted Critical
Publication of JP5483949B2 publication Critical patent/JP5483949B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Description

本発明は画像処理装置、画像処理方法及びプログラムに関し、特に、画像を補正するために用いて好適な技術に関する。   The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly, to a technique suitable for use in correcting an image.

屋外などにおいてデジタルカメラを用いてあるシーンを撮影するとき、撮影可能な輝度レンジよりも撮影シーンの輝度レンジが広い場合がある。このとき、撮影可能な輝度レンジ外の被写体については、その階調情報を記録することができないため、白飛び・黒潰れが発生する。例えば、晴天時に屋外で人物を撮影する場合、人物に露出を合わせると背景の空や雲が白飛びしたり、木陰が黒潰れしたりするケースがある。このため、シーンを見た際の印象と撮影画像を見た際の印象とが異なっている場合があり、ユーザにとって不満であった。   When shooting a scene using a digital camera outdoors or the like, the brightness range of the shooting scene may be wider than the brightness range that can be shot. At this time, since the gradation information cannot be recorded for a subject outside the photographic brightness range, overexposure / blackout occurs. For example, when a person is photographed outdoors in fine weather, there are cases where the sky and clouds in the background are blown off and the shade of the trees is crushed black when exposure is adjusted to the person. For this reason, the impression when viewing the scene may be different from the impression when viewing the captured image, which is unsatisfactory for the user.

そこで、このような問題を解決する技術の1つにHigh Dynamic Range Imaging処理(以下、HDR処理)が知られている。HDR処理は、大きく分けて、ダイナミックレンジ拡大処理と階調圧縮処理とから構成されている。ダイナミックレンジ拡大処理は、撮影可能なダイナミックレンジを拡大し、白飛び・黒潰れ等が発生していた輝度レンジの階調情報を記録する処理であり、一般的な方法としては、同じコンテンツに対し露出を変えて撮影した画像群(多段露出画像群)を合成する。以下、このダイナミックレンジ拡大処理により生成される画像をHDR画像と呼ぶ。これに対して階調圧縮処理は、ダイナミックレンジの広いHDR画像をダイナミックレンジの狭い表示/出力機器で好ましく再現するための画像処理であり、HDR画像の輝度の低周波成分について、その振幅を圧縮するなどの方法が用いられている。このようにHDR処理を行うと、白飛び・黒潰れを軽減した好ましい画像を表示または出力することができる。このようなHDR処理については、例えば特許文献1に開示されている。   Therefore, High Dynamic Range Imaging processing (hereinafter referred to as HDR processing) is known as one of techniques for solving such a problem. The HDR process is roughly divided into a dynamic range expansion process and a gradation compression process. The dynamic range expansion process is a process that expands the dynamic range that can be shot and records the gradation information of the brightness range where whiteout or blackout has occurred. As a general method, A group of images shot with different exposures (multi-stage exposure image group) is synthesized. Hereinafter, an image generated by this dynamic range expansion process is referred to as an HDR image. On the other hand, tone compression processing is image processing for preferably reproducing an HDR image with a wide dynamic range on a display / output device with a narrow dynamic range, and compresses the amplitude of the low-frequency component of the luminance of the HDR image. The method of doing is used. By performing the HDR processing in this way, it is possible to display or output a preferable image with reduced whiteout / blackout. Such HDR processing is disclosed in Patent Document 1, for example.

特開2007−215073号公報JP 2007-215073 A 特開2005−63406号公報JP 2005-63406 A

E.H.Land, J.J.McCann, "Lightness and Retinex Theory", Journal of the Optical Society of America, Vol.61, Num1, January, 1971E.H.Land, J.J.McCann, "Lightness and Retinex Theory", Journal of the Optical Society of America, Vol.61, Num1, January, 1971 F.Durand, J.Dorsey, "Fast Bilateral Filtering for the Display of High-Dynamic-Range Images", SIGGRAPH 2002F.Durand, J.Dorsey, "Fast Bilateral Filtering for the Display of High-Dynamic-Range Images", SIGGRAPH 2002

通常、ユーザは一度に多くの画像を撮影しており、前述したダイナミックレンジ拡大処理により多段露出画像群を合成する場合には、それらの多数の撮影画像群の中から多段露出画像群を選択する必要がある。このとき、ユーザが多段露出画像群を選択するため、適切なものを選択していない可能性があり、その結果、ユーザの意図とは異なるHDR画像が生成されてしまうという問題点がある。   Normally, the user takes many images at a time, and when a multi-stage exposure image group is synthesized by the above-described dynamic range expansion processing, the multi-stage exposure image group is selected from the many photographed image groups. There is a need. At this time, since the user selects the multi-stage exposure image group, there is a possibility that an appropriate image may not be selected. As a result, there is a problem that an HDR image different from the user's intention is generated.

本発明は前述の問題点に鑑み、HDR処理を行うための多段露出画像群を適切に選択できるようにすることを目的としている。   An object of the present invention is to make it possible to appropriately select a multistage exposed image group for performing HDR processing in view of the above-described problems.

本発明の画像処理装置は、ユーザの操作に応じて1つの撮影画像を選択する選択手段と、前記選択手段によって選択された1つの撮影画像との相関性に基づいてHDR画像を生成するための多段露出撮影画像を抽出する抽出手段と、前記選択手段によって選択された1つの撮影画像と前記抽出手段によって抽出された多段露出撮影画像をグループ化して表示部に表示する表示手段と、前記選択手段によって選択された1つの撮影画像と前記多段露出撮影画像に対し、ダイナミックレンジ拡大処理を行って前記HDR画像を生成するダイナミックレンジ拡大処理手段と、前記ダイナミックレンジ拡大処理手段によって生成されたHDR画像に対して階調圧縮処理を行う階調圧縮処理手段とを有することを特徴とする。 The image processing apparatus of the present invention includes a selection means for selecting one of the captured images in response to the user's operation, based on the correlation between one photographing image selected by said selecting means, for generating a HDR image Extraction means for extracting a multi-stage exposure photographed image, display means for grouping and displaying one photographed image selected by the selection means and the multi-stage exposure photographed image extracted by the extraction means on the display unit, and the selection Dynamic range expansion processing means for generating the HDR image by performing dynamic range expansion processing on one captured image selected by the means and the multistage exposure captured image, and the HDR image generated by the dynamic range expansion processing means And a gradation compression processing means for performing gradation compression processing on the image.

本発明によれば、多段露出画像の選択ミスを減らすことができる。これにより、適切な多段露出画像群に対してダイナミックレンジ拡大処理、階調圧縮処理を実施することができ、白飛び・黒潰れ等を軽減した撮影画像を取得することができる。   According to the present invention, it is possible to reduce selection mistakes in multistage exposure images. Thereby, dynamic range expansion processing and gradation compression processing can be performed on an appropriate multi-stage exposed image group, and a captured image with reduced whiteout and blackout can be acquired.

第1の実施形態に係る画像処理装置の構成例を示すブロック図である。1 is a block diagram illustrating a configuration example of an image processing apparatus according to a first embodiment. 第1の実施形態のHDR処理の手順の一例を示すフローチャートである。6 is a flowchart illustrating an example of a procedure of HDR processing according to the first embodiment. 露出間隔を設定するための画面の一例を示す図である。It is a figure which shows an example of the screen for setting an exposure space | interval. 撮影画像の付加情報の一例を示す図である。It is a figure which shows an example of the additional information of a picked-up image. 多段露出画像群及びHRD処理UIが表示された画面の一例を示す図である。It is a figure which shows an example of the screen as which the multistage exposure image group and the HRD process UI were displayed. 全画素の8ビットRGB値が示されたデータの一例を示す図である。It is a figure which shows an example of the data by which the 8-bit RGB value of all the pixels was shown. ステップS206の詳細な手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed procedure of step S206. HDR画像データを作成する手順の概要を示す図である。It is a figure which shows the outline | summary of the procedure which produces HDR image data. ステップS207の詳細な手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed procedure of step S207. 階調圧縮処理におけるパラメータ計算の流れを示す図である。It is a figure which shows the flow of the parameter calculation in a gradation compression process. ステップS905の詳細な手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed procedure of step S905. 輝度照明成分の圧縮特性を示す図である。It is a figure which shows the compression characteristic of a luminance illumination component. 第2の実施形態のHDR処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the HDR process of 2nd Embodiment. ステップS1303の詳細な手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed procedure of step S1303. 画素数のヒストグラムの一例を示す図である。It is a figure which shows an example of the histogram of a pixel count. 第3の実施形態に係る画像処理装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the image processing apparatus which concerns on 3rd Embodiment. 第3の実施形態のHDR処理の手順の一例を示すフローチャートである。14 is a flowchart illustrating an example of a procedure of HDR processing according to the third embodiment. HDR合成できない旨の警告画面の一例を示す図である。It is a figure which shows an example of the warning screen to the effect that HDR composition cannot be performed. ステップS1703の詳細な手順の一例を示すフローチャートである。It is a flowchart which shows an example of the detailed procedure of step S1703.

(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら詳細に説明する。
図1は、本実施形態に係る画像処理装置100の構成例を示すブロック図である。
図1において、撮像部101は、被写体の光を検知するためのものである。撮像部101は、例えば、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、iRカットフィルタ、カラーフィルタ、及び、CMOSやCCDなどのセンサ、から構成されている。A/D変換部102は、被写体の光の検知量をデジタル信号に変換するためのものである。信号処理部103は、A/D変換部102で変換されたデジタル信号に信号処理を施し、デジタル画像データを生成するためのものであり、例えば、ガンマ処理などを行う。エンコーダ部104は、デジタル画像データに対してデータの圧縮を行うためのものであり、例えばJPEG方式に従って圧縮などを行う。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus 100 according to the present embodiment.
In FIG. 1, an imaging unit 101 is for detecting light of a subject. The imaging unit 101 includes, for example, a zoom lens, a focus lens, a shake correction lens, a diaphragm, a shutter, an optical low-pass filter, an iR cut filter, a color filter, and a sensor such as a CMOS or a CCD. The A / D conversion unit 102 is for converting the detected light amount of the subject into a digital signal. The signal processing unit 103 performs signal processing on the digital signal converted by the A / D conversion unit 102 to generate digital image data, and performs, for example, gamma processing. The encoder unit 104 is for compressing data with respect to digital image data. For example, the encoder unit 104 performs compression according to the JPEG method.

メディアインターフェース部105は、例えば、ハードディスク、メモリーカード、SDカード、USBメモリなどのメディアにつなぐためのインターフェースである。CPU106は、画像処理装置100全体の各構成の処理を制御するためのものである。ROM107及びRAM108は、各構成の処理に必要なプログラム、データ、作業領域などをCPU106に提供するためのものである。また、後述する処理に必要な制御プログラムがROM107に格納されている場合には、RAM108に一旦展開してから実行される。   The media interface unit 105 is an interface for connecting to media such as a hard disk, a memory card, an SD card, and a USB memory. The CPU 106 is for controlling processing of each component of the entire image processing apparatus 100. The ROM 107 and the RAM 108 are provided to provide the CPU 106 with programs, data, work areas, and the like necessary for the processing of each configuration. Further, when a control program necessary for processing to be described later is stored in the ROM 107, it is executed after being temporarily expanded in the RAM 108.

操作部109は、ユーザからの指示を入力するためのものであり、例えば、ボタンやモードダイヤル等が該当する。キャラクタージェネレーション部110は、文字やグラフィックを生成するためのものである。D/A変換部111は、デジタル画像データをアナログ信号に変換するためのものである。表示部112は、撮影画像やGUI等の画像を表示するための装置であり、一般的にはCRTや液晶ディスプレイなどである。また、公知のタッチスクリーンであってもよく、その場合、タッチスクリーンによる入力については操作部109の入力として扱うことも可能である。また、撮像部コントローラ113は、CPU106から指示された撮像系の制御を行うためのものであり、例えば、フォーカス合わせ、シャッターの開閉、絞り調節などの制御を行う。   The operation unit 109 is for inputting an instruction from the user, and corresponds to, for example, a button or a mode dial. The character generation unit 110 is for generating characters and graphics. The D / A converter 111 is for converting digital image data into an analog signal. The display unit 112 is a device for displaying a captured image, an image such as a GUI, and is generally a CRT, a liquid crystal display, or the like. In addition, a known touch screen may be used, and in this case, input via the touch screen can be handled as input from the operation unit 109. The imaging unit controller 113 is for controlling the imaging system instructed by the CPU 106, and controls, for example, focusing, shutter opening / closing, aperture adjustment, and the like.

図2は、本実施形態に係る画像処理装置100が実行するHDR処理の手順を示すフローチャートである。なお、図2に示す各処理は、CPU106の制御により行われる。
ユーザにより不図示の撮影開始ボタンが押下されると処理を開始し、ステップS201において、撮像部101は、CPU106からの指示によりユーザにより選択された露出間隔でオートブラケット撮影を行う。ここで、露出間隔を設定する手順としては、まず、図3に示すように表示部112に撮影メニューUIが表示される。ユーザの選択により「オートブラケット撮影」メニューが選択されると、図3に示すブラケット撮影の露出間隔(露出幅)を設定するUIが画面の右側に表示される。これらの露出間隔の中から設定する露出間隔がユーザにより選択される。
FIG. 2 is a flowchart illustrating a procedure of HDR processing executed by the image processing apparatus 100 according to the present embodiment. 2 is performed under the control of the CPU 106.
When the user presses a shooting start button (not shown), the process starts. In step S201, the imaging unit 101 performs auto bracket shooting at an exposure interval selected by the user according to an instruction from the CPU. Here, as a procedure for setting the exposure interval, first, a shooting menu UI is displayed on the display unit 112 as shown in FIG. When the “auto bracket shooting” menu is selected by the user's selection, a UI for setting the exposure interval (exposure width) of bracket shooting shown in FIG. 3 is displayed on the right side of the screen. The exposure interval set from these exposure intervals is selected by the user.

また、ステップS201においては、さらに、CPU106によりオートブラケット撮影が行われた旨を撮影画像の付加情報に記載する。ここで付加情報とは、図4に示すように、撮影日時や露出時間などの撮影時に関する情報が含まれたデータであり、例えば、公知の画像データフォーマットであるExif形式などのデータである。オートブラケット撮影時には、オートブラケットフラグは「ON」となり、オートブラケット撮影の回数についてはブラケットグループ番号として情報を保持している。また、これらの撮影された画像には同じブラケット番号が付されることになる。   In step S201, the fact that the CPU 106 has performed auto bracket shooting is described in the additional information of the shot image. Here, as shown in FIG. 4, the additional information is data including information related to shooting such as shooting date / time and exposure time, for example, data such as Exif format which is a known image data format. At the time of auto bracket shooting, the auto bracket flag is “ON”, and information on the number of auto bracket shooting is held as a bracket group number. Also, the same bracket number is assigned to these captured images.

次に、ステップS202において、表示部112の画面左側に表示された図5(a)に示すような撮影メニューUIから、ユーザの指示により操作部109を介して「撮影画像を表示」メニューが選択されたか否かを判定する。選択されていない場合はそのまま待機する。そして、「撮影画像を表示」メニューが選択された場合は、ステップS203において、CPU106は検出手段として機能し、前述の付加情報からオートブラケットフラグ及びグループ番号についての情報を読み出す。そして、CPU106は、オートブラケットフラグが「ON」となっており、相関性のある同じブラケットグループ番号の画像を抽出し、表示部112に多段露出画像群としてグループ化して表示する。   Next, in step S202, from the shooting menu UI displayed on the left side of the screen of the display unit 112 as shown in FIG. 5A, the “display shot image” menu is selected via the operation unit 109 according to a user instruction. It is determined whether or not it has been done. If it is not selected, it waits as it is. When the “display photographed image” menu is selected, in step S203, the CPU 106 functions as a detection unit, and reads information about the auto bracket flag and the group number from the additional information described above. Then, the CPU 106 extracts the images having the same bracket group number having the correlation with the auto bracket flag being “ON”, and displays the images as a grouped multi-exposure image group on the display unit 112.

次に、ステップS204において、図5(b)に示すパラメータの中から、ユーザの指示により操作部109を介して設定すべきHDR処理パラメータが選択されたか否かを判定する。図5(b)に示すHDR処理UIは、図5(a)に示す画面において、ユーザの指示により操作部109を介して、前述のグループ化された多段露出画像群に対して「HDR処理」が選択されると表示されるものである。HDR処理パラメータが選択されていない場合はそのまま待機し、HDR処理パラメータが選択された場合は、ステップS205において、選択されたHDR処理パラメータをRAM108に記憶する。次に、ステップS206において、多段露出画像群の各画像を合成してHDR画像データを生成する。生成されるHDR画像データは、図6に示す画像データのように、全画素の8ビットRGB値が示されたデータである。なお、ステップS206の詳細については後述する。   Next, in step S204, it is determined whether or not an HDR processing parameter to be set through the operation unit 109 is selected from the parameters illustrated in FIG. The HDR processing UI shown in FIG. 5B is “HDR processing” for the grouped multi-stage exposure image group described above on the screen shown in FIG. Is displayed when is selected. If the HDR processing parameter is not selected, the process waits as it is. If the HDR processing parameter is selected, the selected HDR processing parameter is stored in the RAM 108 in step S205. Next, in step S206, the HDR image data is generated by synthesizing the images of the multistage exposed image group. The generated HDR image data is data in which 8-bit RGB values of all the pixels are shown as in the image data shown in FIG. Details of step S206 will be described later.

次に、ステップS207において、RAM108に記憶されたHDR処理パラメータに基づいて、生成したHDR画像データに対して階調圧縮処理を行う。なお、ステップS207の詳細については後述する。そして、ステップS208において、階調圧縮処理を行ったHDR画像を表示部112に表示するとともに、メディアインターフェース部105を介してメディア等にHDR画像データを記録し、処理を終了する。   Next, in step S207, tone compression processing is performed on the generated HDR image data based on the HDR processing parameters stored in the RAM 108. Details of step S207 will be described later. In step S208, the HDR image subjected to the gradation compression process is displayed on the display unit 112, and the HDR image data is recorded on a medium or the like via the media interface unit 105, and the process ends.

次に、図2のステップS206において実行される処理の詳細について説明する。
図7は、ステップS206において実行されるHDR画像データを生成する処理手順の一例を示すフローチャートである。なお、図7に示す各処理は、CPU106によって行われる。ステップS206では、図8に示すように、露出の多い画像に合成ゲインを乗じて、露出の少ない画像に順次合成していく。
まず、ステップS701において、多段露出画像群の各画像の付加情報から露出時間ETの情報を読み出す。次に、ステップS702において、これらの露出時間ETの中の最大値ETmaxを検出する。
Next, details of the process executed in step S206 of FIG. 2 will be described.
FIG. 7 is a flowchart illustrating an example of a processing procedure for generating HDR image data executed in step S206. Each process shown in FIG. 7 is performed by the CPU 106. In step S206, as shown in FIG. 8, the image with much exposure is multiplied by the synthesis gain, and the images with low exposure are sequentially synthesized.
First, in step S701, information on the exposure time ET is read from the additional information of each image in the multistage exposed image group. Next, in step S702, the maximum value ETmax in these exposure times ET is detected.

次に、ステップS703において、露出時間ETが最大の画像について、画素番号1のRGB値を読み出す。そして、ステップS704において、読み出したRGB値が白飛び・黒潰れのない画素値(有効範囲内の画素値)であるか否かを判定する。この判定の結果、白飛び・黒潰れしている画素値である場合は、ステップS705に進み、白飛び・黒潰れしていない画素値である場合は、ステップS709に進む。ここで白飛び・黒潰れしていない画素値とは、0<RGB<255を満たす画素値である。   Next, in step S703, the RGB value of pixel number 1 is read for the image with the longest exposure time ET. In step S704, it is determined whether or not the read RGB value is a pixel value that does not have whiteout or blackout (a pixel value within an effective range). As a result of the determination, if the pixel value is whiteout / blackout, the process proceeds to step S705. If the pixel value is not whiteout / blackout, the process proceeds to step S709. Here, the pixel values that are not overexposure / blackout are pixel values that satisfy 0 <RGB <255.

次に、ステップS705において、露出時間ETが一段階小さい画像について、同じ画素番号のRGB値を読み出す。そして、ステップS706において、読み出したRGB値が白飛び・黒潰れのない画素値であるか否かを判定する。この判定の結果、白飛び・黒潰れしている画素値である場合は、ステップS705に戻り、白飛び・黒潰れしていない画素値である場合は、ステップS707に進む。そして、ステップS707において、以下の数1に示す式に従って、ステップS706で白飛び・黒潰れのない画素値と判定された画像(以下、選択画像)の露出時間ETと露出時間最大値ETmaxとの露出時間比ETRを算出する。   Next, in step S705, the RGB value of the same pixel number is read out for an image whose exposure time ET is one step smaller. In step S706, it is determined whether or not the read RGB value is a pixel value without whiteout or blackout. As a result of the determination, if the pixel value is whiteout / blackout, the process returns to step S705. If the pixel value is not whiteout / blackout, the process proceeds to step S707. Then, in step S707, the exposure time ET and the exposure time maximum value ETmax of the image (hereinafter referred to as a selected image) determined as a pixel value without whiteout / blackout in step S706 according to the following equation (1). Calculate the exposure time ratio ETR.

Figure 0005483949
Figure 0005483949

次に、ステップS708において、選択画像のRGB値と、算出した露出時間比ETRとを用いて、以下の数2に示す式により、HDR画像の合成後のRGB値(RGBHDR)を算出する。 Next, in step S708, using the RGB value of the selected image and the calculated exposure time ratio ETR, the RGB value (RGB HDR ) after combining the HDR image is calculated according to the following equation (2).

Figure 0005483949
Figure 0005483949

次に、ステップS709において、算出したHDR画像の合成後のRGB値(RGBHDR)をRAM108に記憶する。そして、ステップS710において、全画素についてHDR画像の合成後のRGB値(RGBHDR)をRAM108に記憶したか否かを判定する。この判定の結果、全画素についてHDR画像の合成後のRGB値(RGBHDR)を記憶した場合は、処理を終了する。一方、ステップS710の判定の結果、まだRAM108に記憶していない画素がある場合は、ステップS711に進み、露出時間が最大の画像について、次の画素番号のRGB値を読み出し、ステップS704に戻る。 In step S709, the calculated RGB value (RGB HDR ) of the HDR image is stored in the RAM 108. In step S710, it is determined whether or not the RGB values (RGB HDR ) after combining HDR images are stored in the RAM 108 for all pixels. As a result of this determination, when the RGB values (RGB HDR ) after synthesizing the HDR image are stored for all the pixels, the processing is terminated. On the other hand, if the result of determination in step S710 is that there are pixels not yet stored in the RAM 108, processing proceeds to step S711, and the RGB value of the next pixel number is read for the image with the longest exposure time, and processing returns to step S704.

次に、ステップS207において実行される処理の詳細について説明する。
図9は、ステップS207において実行される階調圧縮の処理手順の一例を示すフローチャートである。なお、図8に示す各処理は、CPU106によって行われる。また、図10は、階調圧縮処理におけるパラメータ計算の流れを示す図である。ステップS207では、例えば非特許文献1に記載されているLandらにより提唱されたRetinexモデルを利用して階調圧縮を行う。Retinexモデルを利用した階調圧縮処理とは、実シーンの輝度成分を、照明成分と反射率成分とに分離し、照明成分は人間の視覚に鈍感であると仮定し、照明成分のみを圧縮するというものである。なお、輝度照明成分は、HDR画像にローパスフィルタ処理を行うことで取得される。
Next, details of the processing executed in step S207 will be described.
FIG. 9 is a flowchart showing an example of the gradation compression processing procedure executed in step S207. Note that each process shown in FIG. 8 is performed by the CPU 106. FIG. 10 is a diagram showing a flow of parameter calculation in the gradation compression process. In step S207, tone compression is performed using the Retinex model proposed by Land et al. Described in Non-Patent Document 1, for example. Tone compression processing using the Retinex model separates the luminance component of a real scene into an illumination component and a reflectance component, and assumes that the illumination component is insensitive to human vision and compresses only the illumination component That's it. Note that the luminance illumination component is acquired by performing low-pass filter processing on the HDR image.

まず、ステップS901において、以下の数3に示す式に従って、HDR画像のRGB値(RGBHDR)から、輝度成分YHDRを算出する。 First, in step S901, the luminance component Y HDR is calculated from the RGB value (RGB HDR ) of the HDR image according to the following equation (3).

Figure 0005483949
Figure 0005483949

次に、ステップS902において、以下の数4に示す式に従って、ガウシアンフィルタFilter(a,b)を算出する。本実施形態では、ガウシアンフィルタFilter(a,b)の分散Sを、画像幅Wの1/5の画素数とし、フィルタ処理を行う範囲は、ガウス関数の積分値の約95%が含まれる−S〜Sとする。   Next, in step S902, a Gaussian filter Filter (a, b) is calculated according to the following equation (4). In the present embodiment, the variance S of the Gaussian filter Filter (a, b) is set to 1/5 the number of pixels of the image width W, and the filter processing range includes approximately 95% of the integral value of the Gaussian function− S to S.

Figure 0005483949
Figure 0005483949

次に、ステップS903において、以下の数5に示す式に従って、輝度成分YHDRとガウシアンフィルタFilter(a,b)との離散畳み込み演算を行い、輝度照明成分YIllum_HDRを算出する。 Next, in step S903, according to the equation shown in Expression 5 below, it performs a discrete convolution operation between the luminance component Y HDR and Gaussian filter Filter (a, b), calculates the luminance illumination component Y Illum _ HDR.

Figure 0005483949
Figure 0005483949

次に、ステップS904において、以下の数6に示す式に従って、輝度反射率成分YRefrectanceを算出する。 Next, in step S904, the luminance reflectance component Y Refrectance is calculated according to the following equation (6).

Figure 0005483949
Figure 0005483949

次に、ステップS905において、ステップS903において算出した輝度照明成分YIllum_HDRを圧縮し、圧縮後の輝度照明成分YIllum_LDRを算出する。なお、ステップS905の詳細については後述する。次に、ステップS906において、以下の数7に示す式に従って、圧縮後の輝度照明成分YIllum_LDRと輝度反射率成分YRefrectanceとを合成し、輝度成分YLDRを算出する。 Next, in step S905, the calculated brightness illumination component Y Illum _ HDR compressed in step S903, it calculates the luminance illumination component Y Illum _ LDR after compression. Details of step S905 will be described later. Next, in step S906, according to the equation shown in the following Equation 7, it combines the luminance illumination component Y Illum _ LDR and the luminance reflectance component Y Refrectance after compression, to calculate the luminance component Y LDR.

Figure 0005483949
Figure 0005483949

次に、ステップS907において、以下の数8に示す式に従って、階調圧縮処理前後の輝度成分YHDR、YLDRを用いて、HDR画像のRGB値(RGBHDR)を調節し、階調圧縮処理後のRGB値(RGBLDR)を算出する。 Next, in step S907, the RGB values (RGB HDR ) of the HDR image are adjusted using the luminance components Y HDR and Y LDR before and after the gradation compression process according to the following equation (8), and the gradation compression process is performed. The later RGB value (RGB LDR ) is calculated.

Figure 0005483949
Figure 0005483949

次に、ステップS908において、以下の数9に示す式に従って、階調圧縮処理後のRGB値(RGBLDR)にカメラガンマ処理を行い、カメラガンマ処理後のRGB値(RGBLDR_g)を算出し、RAM108に記憶する。そして、処理を終了する。図10に示すように、輝度照明成分のみを圧縮し、HDR画像のRGB値(RGBHDR)からカメラガンマ処理後のRGB値(RGBLDR_g)を算出する。 Then, calculated in step S908, according to the equation shown in the following numbers 9, RGB values after gradation compression processing to (RGB LDR) performs a camera gamma processing, the camera gamma processed RGB values (RGB LDR _ g) And stored in the RAM 108. Then, the process ends. As shown in FIG. 10, it compresses only luminance illumination component, calculates the RGB values of the HDR image from (RGB HDR) camera gamma processing after the RGB values (RGB LDR _ g).

Figure 0005483949
Figure 0005483949

次に、ステップS905において実行される処理の詳細について説明する。
図11は、ステップS905において実行される輝度照明成分YIllum_HDRの圧縮処理手順の一例を示すフローチャートである。なお、図11に示す各処理は、CPU106によって行われる。また、図12(a)は、「黒潰れを補正」、「白飛びを補正」、及び「黒潰れ及び白飛びを補正」のそれぞれの場合における輝度照明成分の圧縮特性を示す図である。
まず、ステップS1101において、HDR処理パラメータ(選択画像の基準輝度YRef、補正方法、補正強さ)をRAM108から読み出す。そして、ステップS1102において、ステップS903で算出された輝度照明成分YIllum_HDRの中から最大値YIllum_MAXを検出する。
Next, details of the processing executed in step S905 will be described.
Figure 11 is a flowchart illustrating an example of the compression processing procedure of the luminance illumination component Y Illum _ HDR executed in step S905. Each process illustrated in FIG. 11 is performed by the CPU 106. FIG. 12A is a diagram showing the compression characteristics of the luminance illumination component in each of the cases “correct blackout”, “correct whiteout”, and “correct blackout and whiteout”.
First, in step S1101, the HDR processing parameters (reference brightness Y Ref of selected image, correction method, correction strength) are read from the RAM 108. Then, in step S1102, detects a maximum value Y Illum _ MAX from the calculated at the step S903 the luminance illumination component Y Illum _ HDR.

次に、ステップS1103において、輝度照明成分YIllum_HDRがステップS1101で読み出した基準輝度YRefより大きいか否かを判定する。この判定の結果、基準輝度YRefより小さい場合は、ステップS1104に進み、基準輝度YRef以上である場合は、ステップS1105に進む。 Next, in step S1103, it determines whether reference luminance Y Ref is greater than the luminance illumination component Y Illum _ HDR read out in step S1101. If the result of this determination is that it is smaller than the reference brightness Y Ref , the process proceeds to step S1104, and if it is greater than or equal to the reference brightness Y Ref , the process proceeds to step S1105.

ステップS1104においては、以下の数10及び表1に従って輝度照明成分YIllum_HDRを圧縮し、圧縮後の輝度照明成分YIllum_LDRを算出する。なお、数10に示す式のSCDとは、黒潰れ補正強さ(Shadow Correction Degree)であり、設定された黒潰れ補正強さに応じて、図12(b)に示すような圧縮特性で補正を行う。 In step S1104, compressing the luminance illumination component Y Illum _ HDR according having 10 and Table 1 below, calculates the luminance illumination component Y Illum _ LDR after compression. Note that the SCD in the equation shown in Equation 10 is a shadow correction degree (Shadow Correction Degree), and is corrected with a compression characteristic as shown in FIG. 12B according to the set black shadow correction strength. I do.

Figure 0005483949
Figure 0005483949

Figure 0005483949
Figure 0005483949

一方、ステップS1105においては、以下の数11に示す式に従って輝度照明成分YIllum_HDRを圧縮し、圧縮後の輝度照明成分YIllum_LDRを算出する。ここで、数11に示す式のHCDとは、白飛び補正強さ(Highlight Correction Degree)であり、設定された白飛び補正強さに応じて、図12(c)に示すような圧縮特性で補正を行う。 On the other hand, in step S1105, compressing the luminance illumination component Y Illum _ HDR according to the formula shown in the following Equation 11 to calculate the luminance illumination component Y Illum _ LDR after compression. Here, the HCD in the equation shown in Expression 11 is the highlight correction degree (Highlight Correction Degree), and has a compression characteristic as shown in FIG. 12 (c) according to the set whiteout correction strength. Make corrections.

Figure 0005483949
Figure 0005483949

Figure 0005483949
Figure 0005483949

以上のように本実施形態によれば、オートブラケットフラグが「ON」であって、同じブラケットグループ番号の画像を多段露出画像とし、多段露出画像群をグループ化して表示部112に表示するようにした。これにより、ユーザは適切な多段露出画像群を確認することができ、多段露出画像の選択ミスを減らすことができる。したがって、適切な多段露出画像群に対してダイナミックレンジ拡大処理、階調圧縮処理を実施することができ、白飛び・黒潰れ等を軽減した撮影画像を取得することができる。   As described above, according to the present embodiment, the auto bracket flag is “ON”, images with the same bracket group number are set as multi-stage exposure images, and multi-stage exposure image groups are grouped and displayed on the display unit 112. did. Thereby, the user can confirm an appropriate multistage exposure image group, and can reduce selection mistakes of the multistage exposure image. Therefore, dynamic range expansion processing and gradation compression processing can be performed on an appropriate multistage exposure image group, and a captured image with reduced whiteout and blackout can be acquired.

なお、本実施形態では、図5(a)に示すように、多段露出画像群をグループ化して複数のグループを表示する例について説明した。一方、グループ化を行う前に、ユーザが1つのオートブラケット撮影した画像を選択し、その選択した画像の多段露出画像群のみをグループ化して表示するようにしてもよい。   In the present embodiment, as shown in FIG. 5A, the example in which the multistage exposed image group is grouped and a plurality of groups is displayed has been described. On the other hand, before grouping, the user may select an image captured by one auto bracket, and only the multi-stage exposed image group of the selected image may be grouped and displayed.

また、本実施形態においては、画像ファイルには、画像データとして、全画素の8ビットのRGB値が記録されているものとしたが、データの種類、フォーマットはこれに限るものではない。例えば、記録されているRGB値は16ビットであってもよい。また、本実施形態においては、露出の多い画像に合成ゲインを乗じて、露出の少ない画像に順次合成していくようにしたが、合成ゲインを用いて露出の異なる画像同士を合成する方法であれば、これに限るものではない。例えば、露出の少ない画像に合成ゲインを乗じて、露出の多い画像に順次合成してもよい。   In the present embodiment, the 8-bit RGB values of all the pixels are recorded as image data in the image file. However, the data type and format are not limited to this. For example, the recorded RGB values may be 16 bits. Further, in the present embodiment, the image having a large amount of exposure is multiplied by the composite gain, and the image is sequentially combined with the image having a small amount of exposure. However, a method of combining images having different exposures using the composite gain. For example, it is not limited to this. For example, an image with little exposure may be multiplied by a synthesis gain and sequentially synthesized with an image with much exposure.

さらに、本実施形態における階調圧縮処理は、ガウシアンフィルタにより抽出された画像低周波成分を圧縮するものとしたが、Retinexモデルに基づき、画像低周波成分を圧縮するものであればこれに限るものではない。例えば、非特許文献2に記載されているように、バイラテラルフィルタを用いて抽出された周波数成分を圧縮しても構わない。また、基準輝度YRefを階調圧縮処理前後で維持するとしたが、これに限るものではない。例えば、画像から顔などの主要被写体を検出し、検出した主要被写体の輝度Yfaceが階調圧縮処理前後で維持されるように補正しても構わない。この場合、数10及び数11に示した式における基準輝度YRefを、検出した主要被写体の輝度Yfaceに置き換える。主要被写体の検出方法は、例えば特許文献2に記されている。 Furthermore, the gradation compression processing in the present embodiment compresses the low frequency component of the image extracted by the Gaussian filter. However, the present invention is not limited to this if it compresses the low frequency component of the image based on the Retinex model. is not. For example, as described in Non-Patent Document 2, a frequency component extracted using a bilateral filter may be compressed. Further, although the reference luminance Y Ref is maintained before and after the gradation compression process, the present invention is not limited to this. For example, a main subject such as a face may be detected from the image, and the detected luminance Y face of the main subject may be corrected so as to be maintained before and after the gradation compression process. In this case, the reference luminance Y Ref in the equations shown in Equations 10 and 11 is replaced with the detected luminance Y face of the main subject. A method for detecting a main subject is described in Patent Document 2, for example.

(第2の実施形態)
以下、本発明による第2の実施形態を、図面を参照しながら詳細に説明する。第1の実施形態では、オートブラケット撮影を行った場合の例について説明したが、本実施形態では、通常の撮影により生成された撮影画像を対象とした場合の例について説明する。本実施形態では、ブラケットグループ番号が付されていないそれぞれの撮影画像の撮影条件等から判断して、相関がある撮影画像をHDR処理に用いている。なお、本実施形態における画像処理装置の構成は、第1の実施形態と同様であるため、説明を省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described in detail with reference to the drawings. In the first embodiment, an example in which auto bracket shooting is performed has been described. However, in the present embodiment, an example in which a captured image generated by normal shooting is used will be described. In the present embodiment, a correlated captured image is used for HDR processing, as determined from the capturing conditions of each captured image without a bracket group number. Note that the configuration of the image processing apparatus in the present embodiment is the same as that in the first embodiment, and a description thereof will be omitted.

図13は、本実施形態における画像処理装置100が実行するHDR処理の手順一例を示すフローチャートである。なお、図13に示す各処理は、CPU106の制御により行われる。
ユーザにより不図示の撮影開始ボタンが押下されると処理を開始し、ステップS1301において、撮像部101は、ユーザの指示に応じて、撮影ごとに露出時間を変えながら撮影を行う。なお、ステップS1302は、第1の実施形態における図2のステップS202と同様である。
FIG. 13 is a flowchart illustrating an example of a procedure of HDR processing executed by the image processing apparatus 100 according to the present embodiment. Each process shown in FIG. 13 is performed under the control of the CPU 106.
When the user presses a shooting start button (not shown), the process starts. In step S1301, the imaging unit 101 performs shooting while changing the exposure time for each shooting in accordance with a user instruction. Note that step S1302 is the same as step S202 of FIG. 2 in the first embodiment.

次に、ステップS1302の判定の結果、「撮影画像を表示」メニューが選択された場合は、ステップS1303において、ピックアップした多段露出画像群をグループ化して表示部112に表示する。なお、ステップS1303の詳細については後述する。また、ステップS1304〜ステップS1308については、第1の実施形態の図2のステップS204〜ステップS208と同様の処理となるため、説明を省略する。   If the “display photographed image” menu is selected as a result of the determination in step S1302, the picked-up multistage exposure image group is grouped and displayed on the display unit 112 in step S1303. Details of step S1303 will be described later. Steps S1304 to S1308 are the same as steps S204 to S208 in FIG. 2 of the first embodiment, and thus description thereof is omitted.

次に、図13のステップS1303において実行される処理の詳細について説明する。図14は、ステップS1303において実行される多段露出画像群を表示する処理手順の一例を示すフローチャートである。なお、図14に示す各処理は、CPU106によって行われる。
まず、ステップS1401において、保持している撮影画像群から任意の2枚の画像データをRAM108から読み出す。そして、ステップS1402において、読み出した2枚の画像データに、図4に示すような撮影時の付加情報が存在するか否かを判定する。この判定の結果、付加情報が存在する場合は、ステップS1403に進み、付加情報が存在しない場合は、ステップS1405に進む。
Next, details of the processing executed in step S1303 of FIG. 13 will be described. FIG. 14 is a flowchart illustrating an example of a processing procedure for displaying the multi-stage exposure image group executed in step S1303. Each process illustrated in FIG. 14 is performed by the CPU 106.
First, in step S1401, arbitrary two pieces of image data are read from the RAM 108 from the captured image group held. In step S1402, it is determined whether additional information at the time of shooting as shown in FIG. 4 exists in the two read image data. As a result of this determination, if additional information exists, the process proceeds to step S1403. If additional information does not exist, the process proceeds to step S1405.

次に、ステップS1403において、付加情報を参照し、撮影時間がほぼ同時刻(1分差以内)であって、撮影場所・画像幅及び画像高さといった画像サイズ・レンズの絞り値・ISO感度が同じであり、さらに、露出時間が異なるか否かを判定する。この判定の結果、条件を満たす場合は、ステップS1404に進み、条件を満たさない場合は、ステップS1407に進む。そして、ステップS1404において、両画像データの付加情報に同じブラケットグループ番号を付加する。なお、いずれか一方の画像データに既にブラケットグループ番号が付加されている場合は、ブラケットグループ番号が記載されていない画像データに同じブラケットグループ番号を付加する。   Next, in step S1403, the additional information is referred to, the shooting time is approximately the same time (within 1 minute difference), and the image size such as the shooting location, the image width, and the image height, the lens aperture value, and the ISO sensitivity are set. It is determined whether or not the exposure time is different. As a result of this determination, if the condition is satisfied, the process proceeds to step S1404. If the condition is not satisfied, the process proceeds to step S1407. In step S1404, the same bracket group number is added to the additional information of both image data. If a bracket group number has already been added to any one of the image data, the same bracket group number is added to the image data for which no bracket group number is described.

一方、ステップS1405においては、2つの画像データから図15に示すような画素分布のヒストグラムを算出し、以下の数12に示す式に従って、比較対象としてそれらの相関係数Cを算出する。なお、数12に示す式のHist1、Hist2は読み出した2枚の画像データのヒストグラムを示し、Hist1ave、Hist1aveは両画像データのヒストグラムの平均値を示す。そして、算出した相関係数Cが0.9以上であるか否かを判定する。この判定の結果、相関係数Cが0.9以上である場合は、ステップS1406に進み、相関係数が0.9未満である場合は、ステップS1407に進む。 On the other hand, in step S1405, a histogram of pixel distribution as shown in FIG. 15 is calculated from the two image data, and their correlation coefficient C is calculated as a comparison target according to the following equation (12). Note that Hist1 and Hist2 in the equation shown in Expression 12 indicate histograms of two read image data, and Hist1 ave and Hist1 ave indicate average values of histograms of both image data. Then, it is determined whether or not the calculated correlation coefficient C is 0.9 or more. As a result of this determination, if the correlation coefficient C is 0.9 or more, the process proceeds to step S1406, and if the correlation coefficient is less than 0.9, the process proceeds to step S1407.

Figure 0005483949
Figure 0005483949

次に、ステップS1406において、両画像データの付加情報を新規作成し、ブラケット撮影フラグをONにして、同じブラケットグループ番号を付加し、その他の付加情報については付加しないようにする。なお、いずれか一方の画像データに既にブラケットグループ番号が付加されている場合、ブラケットグループ番号が記載されていない画像データに同じブラケットグループ番号を付加する。そして、ステップS1407において、撮影画像群の中で2枚の組合せ全てについて処理を終了したか否かを判定する。この判定の結果、全ての組合せについて処理を終了した場合は、ステップS1408に進み、処理を終了していない場合、ステップS1401に戻る。次に、ステップS1408において、図5(a)に示すように、ブラケットグループ番号が同じ画像群をグループ化して表示し、処理を終了する。   Next, in step S1406, additional information of both image data is newly created, the bracket shooting flag is turned ON, the same bracket group number is added, and other additional information is not added. When a bracket group number is already added to any one of the image data, the same bracket group number is added to the image data not including the bracket group number. In step S1407, it is determined whether or not the processing has been completed for all the two combinations in the captured image group. As a result of this determination, if the processing has been completed for all combinations, the process proceeds to step S1408. If the process has not been completed, the process returns to step S1401. Next, in step S1408, as shown in FIG. 5A, image groups having the same bracket group number are grouped and displayed, and the process ends.

以上のように本実施形態によれば、撮影画像の付加情報、もしくは撮影画像の画素分布から相関性を検出し、相関性のある撮影画像を多段露出画像群としてグループ化して表示部112に表示するようにした。これにより、ユーザは適切な多段露出画像群を確認することができ、多段露出画像の選択ミスを減らすことができる。したがって、適切な多段露出画像群に対してダイナミックレンジ拡大処理、階調圧縮処理を実施することができ、白飛び・黒潰れ等を軽減した撮影画像を取得することができる。   As described above, according to the present embodiment, the correlation is detected from the additional information of the captured image or the pixel distribution of the captured image, and the correlated captured images are grouped and displayed on the display unit 112 as a multistage exposed image group. I tried to do it. Thereby, the user can confirm an appropriate multistage exposure image group, and can reduce selection mistakes of the multistage exposure image. Therefore, dynamic range expansion processing and gradation compression processing can be performed on an appropriate multistage exposure image group, and a captured image with reduced whiteout and blackout can be acquired.

なお、本実施形態では、図5(a)に示すように、多段露出画像群をグループ化して複数のグループを表示する例について説明した。一方、第1の実施形態と同様に、グループ化を行う前に、ユーザが1つの撮影画像を選択し、その選択した画像の多段露出画像群のみをグループ化して表示するようにしてもよい。   In the present embodiment, as shown in FIG. 5A, the example in which the multistage exposed image group is grouped and a plurality of groups is displayed has been described. On the other hand, similarly to the first embodiment, before grouping, the user may select one photographed image and display only a group of multi-stage exposed images of the selected image.

(第3の実施形態)
以下、本発明による第3の実施形態を、図面を参照しながら詳細に説明する。第2の実施形態では、相関のある撮影画像を判断して同じブラケットグループ番号を付し、装置側がHDR処理に用いる画像を選択した。これに対して本実施形態では、ユーザが選択した撮影画像がHDR処理に適したものであるか否かを判断して、適していない撮影画像が含まれている場合には、警告表示を行う例について説明する。
(Third embodiment)
Hereinafter, a third embodiment according to the present invention will be described in detail with reference to the drawings. In the second embodiment, a correlated captured image is determined and assigned the same bracket group number, and the apparatus side selects an image used for HDR processing. On the other hand, in the present embodiment, it is determined whether or not the captured image selected by the user is suitable for HDR processing, and a warning is displayed when a captured image that is not suitable is included. An example will be described.

図16は、本実施形態に係る画像処理装置300の構成例を示すブロック図である。
図16において、入力部301は、ユーザからの指示や、データを入力するためのものであり、例えばキーボードやポインティング装置を含むものである。なお、ポインティング装置としては、マウス、トラックボール、トラックパッド、タブレット等が挙げられる。
FIG. 16 is a block diagram illustrating a configuration example of the image processing apparatus 300 according to the present embodiment.
In FIG. 16, an input unit 301 is used to input an instruction from the user and data, and includes, for example, a keyboard and a pointing device. Note that examples of the pointing device include a mouse, a trackball, a trackpad, and a tablet.

データ保存部302は、画像データを保持するための記録媒体であり、例えばハードディスク、フレキシブルディスク、CD−ROM、CD−RやDVD、メモリーカード、スマートメディアSDカード、USBメモリ等である。データ保存部302には、画像データの他にも、プログラムやその他のデータを保持することも可能である。また、後述するRAM306の一部をデータ保存部302として用いてもよい。さらには、後述する通信部307により接続した先の機器のデータ保存部を通信部307を介して利用する、という形態であってもよい。   The data storage unit 302 is a recording medium for holding image data, such as a hard disk, a flexible disk, a CD-ROM, a CD-R, a DVD, a memory card, a smart media SD card, a USB memory, or the like. The data storage unit 302 can store programs and other data in addition to image data. Further, a part of the RAM 306 described later may be used as the data storage unit 302. Furthermore, the form which utilizes the data storage part of the apparatus of the other side connected by the communication part 307 mentioned later via the communication part 307 may be sufficient.

表示部303は、画像処理前、もしくは画像処理後の画像を表示したり、GUI等の画像を表示したりする装置であり、一般的にはCRTや液晶ディスプレイなどが用いられる。なお、表示部303は、ケーブル等で接続された装置外部のディスプレイ装置であってもよく、公知のタッチスクリーンであってもよい。この場合、タッチスクリーンによる入力については、入力部301の入力として扱うことも可能である。   The display unit 303 is a device that displays an image before or after image processing, or displays an image such as a GUI, and generally uses a CRT, a liquid crystal display, or the like. The display unit 303 may be a display device external to the device connected by a cable or the like, or a known touch screen. In this case, the input via the touch screen can be handled as the input of the input unit 301.

CPU304は、画像処理装置300全体の各構成の処理を制御するためのものである。ROM305及びRAM306は、その処理に必要なプログラム、データ、作業領域などをCPU304に提供するためのものである。また、後述する処理に必要な制御プログラムがデータ保存部302やROM305に格納されている場合には、RAM306に一旦展開してから実行される。また、通信部307を経由して装置がプログラムを受信する場合には、データ保存部302に記録した後にRAM306に一旦展開されるか、通信部307からRAM306に直接読み出されてから実行される。   The CPU 304 is for controlling processing of each component of the entire image processing apparatus 300. The ROM 305 and the RAM 306 are provided for providing the CPU 304 with programs, data, work areas, and the like necessary for the processing. Further, when a control program necessary for processing to be described later is stored in the data storage unit 302 or the ROM 305, the control program is temporarily expanded in the RAM 306 and executed. When the apparatus receives a program via the communication unit 307, the program is recorded in the data storage unit 302 and then temporarily expanded in the RAM 306, or directly read from the communication unit 307 to the RAM 306 and executed. .

通信部307は、機器間の通信を行うためのI/Fであり、例えば、公知のイーサネット(登録商標)、USB、IEEE1284、IEEE1394、電話回線などの有線による通信方式である。また、赤外線(IrDA)、IEEE802.11a、IEEE802.11b、IEEE802.11g、Bluetooth、UWB(Ultra Wide Band)等の無線通信方式であってもよい。なお、図16では、入力部301、データ保存部302、及び表示部303が全て1つの装置内に含まれるような構成を示しているが、これらの構成が公知の通信方式による通信路で接続されており、全体としてこのような構成となっているのであってもよい。また、システム構成については、上記以外にも様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。   The communication unit 307 is an I / F for performing communication between devices. For example, the communication unit 307 is a wired communication method such as a well-known Ethernet (registered trademark), USB, IEEE1284, IEEE1394, or telephone line. Further, a wireless communication method such as infrared (IrDA), IEEE802.11a, IEEE802.11b, IEEE802.11g, Bluetooth, UWB (Ultra Wide Band) may be used. Note that FIG. 16 shows a configuration in which the input unit 301, the data storage unit 302, and the display unit 303 are all included in one device, but these configurations are connected via a communication path using a known communication method. It may be configured as such as a whole. In addition to the above, there are various components of the system configuration, but since these are not the main points of the present invention, description thereof will be omitted.

図17は、本実施形態に係る画像処理装置300が実行するHDR処理の手順の一例を示すフローチャートである。なお、図17に示す各処理はCPU304の制御により行われる。
まず、ユーザにより入力部301から撮影画像を表示する指示を受けると処理を開始する。そして、ステップS1701において、表示部303に撮影画像群(例えば、サムネイル画像)を表示する。次に、ステップS1702において、ユーザにより入力部301を介して表示された撮影画像群の中から多段露出画像群が選択され、それらの選択された多段露出画像群がHDR合成に適するか否かを判定する。この判定の結果、HDR合成に適する場合は、ステップS1704に進み、HDR合成に適さない場合は、ステップS1703に進む。なお、ステップS1702の詳細については後述する。
FIG. 17 is a flowchart illustrating an example of a procedure of HDR processing executed by the image processing apparatus 300 according to the present embodiment. Each process shown in FIG. 17 is performed under the control of the CPU 304.
First, when the user receives an instruction to display a captured image from the input unit 301, the process is started. In step S1701, a group of captured images (for example, thumbnail images) is displayed on the display unit 303. In step S1702, a multi-stage exposure image group is selected from the captured image group displayed by the user via the input unit 301, and whether or not the selected multi-stage exposure image group is suitable for HDR synthesis. judge. As a result of this determination, if it is suitable for HDR synthesis, the process proceeds to step S1704, and if it is not suitable for HDR synthesis, the process proceeds to step S1703. Details of step S1702 will be described later.

ステップS1703においては、表示部303に、例えば図18に示すような警告表示を行い、ステップS1701に戻る。一方、ステップS1704においては、多段露出画像群をグループ化して表示部303に表示する。なお、ステップS1705〜ステップS1708については、第1の実施形態で説明した図2のステップS203〜ステップS206と同様の処理であるため、説明は省略する。   In step S1703, for example, a warning message as shown in FIG. 18 is displayed on the display unit 303, and the process returns to step S1701. On the other hand, in step S1704, the multistage exposed image group is grouped and displayed on the display unit 303. Steps S1705 to S1708 are the same as steps S203 to S206 in FIG. 2 described in the first embodiment, and thus the description thereof is omitted.

図19は、ステップS1702において実行される判定の判定基準を生成する処理手順の一例を示すフローチャートである。なお、図19に示す各処理はCPU304の制御により行われる。
まず、ステップS1901において、ユーザにより選択された多段露出画像群から任意の2枚の画像データをデータ保存部302から読み出す。なお、ステップS1902〜S1907は、第2の実施形態で説明したステップS1402〜S1407と同様であるため、説明は省略する。また、本実施形態では、第2の実施形態とは異なり、ユーザにより選択された画像のみが対象となる。
FIG. 19 is a flowchart illustrating an example of a processing procedure for generating a determination criterion for determination performed in step S1702. Each process shown in FIG. 19 is performed under the control of the CPU 304.
First, in step S1901, arbitrary two pieces of image data are read from the data storage unit 302 from the multistage exposed image group selected by the user. Note that steps S1902 to S1907 are the same as steps S1402 to S1407 described in the second embodiment, and a description thereof will be omitted. Further, in the present embodiment, unlike the second embodiment, only the image selected by the user is targeted.

そして、ステップS1908において、ユーザにより選択されたすべての多段露出画像のブラケットグループ番号を確認し、処理を終了する。このようにブラケットグループ番号を確認し、多段露出画像群の中に、1つでもブラケットグループ番号が異なるもしくは存在しない画像が含まれている場合には、ステップS1703に進むことになる。また、すべての多段露出画像のブラケットグループ番号が同じ場合には、ステップS1704に進むことになる。   In step S1908, the bracket group numbers of all the multistage exposure images selected by the user are confirmed, and the process ends. As described above, the bracket group number is confirmed, and if at least one bracket group number is different or does not exist in the multistage exposed image group, the process proceeds to step S1703. If all the multistage exposure images have the same bracket group number, the process advances to step S1704.

以上のように本実施形態によれば、ユーザが多段露出画像として選択した撮影画像の付加情報、もしくは撮影画像の画素分布から相関性を検出する。そして、選択したすべての撮影画像において相関性がある場合は、撮影画像を多段露出画像群としてグループ化して表示部112に表示するようにし、そうでない場合は警告画面を表示するようにした。これにより、ユーザは適切な多段露出画像群であるか否かを確認することができ、多段露出画像の選択ミスを減らすことができる。したがって、適切な多段露出画像群に対してダイナミックレンジ拡大処理、階調圧縮処理を実施することができ、白飛び・黒潰れ等を軽減した撮影画像を取得することができる。   As described above, according to the present embodiment, the correlation is detected from the additional information of the captured image selected by the user as the multistage exposed image or the pixel distribution of the captured image. If all selected photographed images have a correlation, the photographed images are grouped as a multi-stage exposed image group and displayed on the display unit 112. Otherwise, a warning screen is displayed. Thereby, the user can confirm whether it is an appropriate multistage exposure image group, and can reduce selection mistakes of a multistage exposure image. Therefore, dynamic range expansion processing and gradation compression processing can be performed on an appropriate multistage exposure image group, and a captured image with reduced whiteout and blackout can be acquired.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

106 CPU、112 表示部 106 CPU, 112 Display unit

Claims (8)

ユーザの操作に応じて1つの撮影画像を選択する選択手段と、
前記選択手段によって選択された1つの撮影画像との相関性に基づいてHDR画像を生成するための多段露出撮影画像を抽出する抽出手段と、
前記選択手段によって選択された1つの撮影画像と前記抽出手段によって抽出された多段露出撮影画像をグループ化して表示部に表示する表示手段と、
前記選択手段によって選択された1つの撮影画像と前記多段露出撮影画像に対し、ダイナミックレンジ拡大処理を行って前記HDR画像を生成するダイナミックレンジ拡大処理手段と、
前記ダイナミックレンジ拡大処理手段によって生成されたHDR画像に対して階調圧縮処理を行う階調圧縮処理手段とを有することを特徴とする画像処理装置。
Selection means for selecting one captured image in response to a user operation;
Extracting means for extracting a multi-exposure shooting image for based on the correlation between one photographing image selected by said selecting means, for generating a HDR image,
Display means for grouping and displaying one photographed image selected by the selecting means and the multistage exposure photographed image extracted by the extracting means on the display unit;
Dynamic range expansion processing means for performing dynamic range expansion processing on the one captured image selected by the selection means and the multistage exposure captured image to generate the HDR image;
An image processing apparatus comprising: gradation compression processing means for performing gradation compression processing on the HDR image generated by the dynamic range expansion processing means.
前記抽出手段は、前記撮影画像の付加情報に基づいて相関性を判定することを特徴とする請求項1に記載の画像処理装置。The image processing apparatus according to claim 1, wherein the extraction unit determines the correlation based on additional information of the captured image. 前記抽出手段は、前記撮影画像の付加情報に含まれるブラケット撮影の情報に基づいて相関性を判定することを特徴とする請求項2に記載の画像処理装置。The image processing apparatus according to claim 2, wherein the extracting unit determines the correlation based on bracket shooting information included in the additional information of the captured image. 前記抽出手段は、前記撮影画像の付加情報に含まれる撮影時間、ISO感度、レンズの絞り、露出時間、画像サイズ、及び撮影場所に基づいて相関性を判定することを特徴とする請求項2に記載の画像処理装置。3. The correlation according to claim 2, wherein the extracting unit determines the correlation based on a shooting time, ISO sensitivity, lens aperture, exposure time, image size, and shooting location included in the additional information of the shot image. The image processing apparatus described. 前記抽出手段は、前記撮影画像に付加情報が存在しない場合は、前記撮影画像の比較に基づいて相関性を判定することを特徴とする請求項2乃至4のいずれか1項に記載の画像処理装置。5. The image processing according to claim 2, wherein the extraction unit determines the correlation based on the comparison of the captured images when no additional information is present in the captured image. 6. apparatus. 前記抽出手段は、前記撮影画像の画素分布に基づいて相関性を判定することを特徴とする請求項5に記載の画像処理装置。The image processing apparatus according to claim 5, wherein the extraction unit determines the correlation based on a pixel distribution of the photographed image. ユーザの操作に応じて1つの撮影画像を選択する選択工程と、
前記選択工程によって選択された1つの撮影画像との相関性に基づいてHDR画像を生成するための多段露出撮影画像を抽出する抽出工程と、
前記選択工程によって選択された1つの撮影画像と前記抽出工程によって抽出された多段露出撮影画像をグループ化して表示部に表示する表示工程と、
前記選択工程によって選択された1つの撮影画像と前記多段露出撮影画像に対し、ダイナミックレンジ拡大処理を行って前記HDR画像を生成するダイナミックレンジ拡大処理工程と、
前記ダイナミックレンジ拡大処理工程によって生成されたHDR画像に対して階調圧縮処理を行う階調圧縮処理工程とを有することを特徴とする画像処理方法。
A selection step of selecting one captured image in response to a user operation;
Based on the correlation between one photographing image selected by said selecting step, an extraction step of extracting a multistage exposure shooting image for generating a HDR image,
A display step of grouping and displaying one captured image selected in the selection step and the multistage exposure captured image extracted in the extraction step on a display unit;
A dynamic range expansion process step of generating a HDR image by performing a dynamic range expansion process on the one captured image selected in the selection step and the multi-stage exposure captured image;
A gradation compression processing step of performing gradation compression processing on the HDR image generated by the dynamic range expansion processing step.
ユーザの操作に応じて1つの撮影画像を選択する選択工程と、
前記選択工程によって選択された1つの撮影画像との相関性に基づいてHDR画像を生成するための多段露出撮影画像を抽出する抽出工程と、
前記選択工程によって選択された1つの撮影画像と前記抽出工程によって抽出された多段露出撮影画像をグループ化して表示部に表示する表示工程と、
前記選択工程によって選択された1つの撮影画像と前記多段露出撮影画像に対し、ダイナミックレンジ拡大処理を行って前記HDR画像を生成するダイナミックレンジ拡大処理工程と、
前記ダイナミックレンジ拡大処理工程によって生成されたHDR画像に対して階調圧縮処理を行う階調圧縮処理工程とをコンピュータに実行させることを特徴とするプログラム。
A selection step of selecting one captured image in response to a user operation;
Based on the correlation between one photographing image selected by said selecting step, an extraction step of extracting a multistage exposure shooting image for generating a HDR image,
A display step of grouping and displaying one captured image selected in the selection step and the multistage exposure captured image extracted in the extraction step on a display unit;
A dynamic range expansion process step of generating a HDR image by performing a dynamic range expansion process on the one captured image selected in the selection step and the multi-stage exposure captured image;
A program causing a computer to execute a gradation compression processing step of performing gradation compression processing on an HDR image generated by the dynamic range expansion processing step.
JP2009185891A 2009-08-10 2009-08-10 Image processing apparatus, image processing method, and program Active JP5483949B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009185891A JP5483949B2 (en) 2009-08-10 2009-08-10 Image processing apparatus, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009185891A JP5483949B2 (en) 2009-08-10 2009-08-10 Image processing apparatus, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2011040952A JP2011040952A (en) 2011-02-24
JP5483949B2 true JP5483949B2 (en) 2014-05-07

Family

ID=43768278

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009185891A Active JP5483949B2 (en) 2009-08-10 2009-08-10 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP5483949B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6536012B2 (en) * 2014-11-05 2019-07-03 コニカミノルタ株式会社 IMAGE GENERATION APPARATUS, IMAGE GENERATION CONTROL PROGRAM, AND IMAGE GENERATION CONTROL METHOD

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108915A (en) * 2004-10-01 2006-04-20 Canon Inc Apparatus and method for image photographing
JP4624889B2 (en) * 2005-08-30 2011-02-02 富士フイルム株式会社 Face detection method, apparatus and program
JP2007124387A (en) * 2005-10-28 2007-05-17 Nikon Corp Image processing device and image processing program
JP2007221536A (en) * 2006-02-17 2007-08-30 Nikon Corp Image pickup device, image processing program, and image transmission program
JP2008005154A (en) * 2006-06-21 2008-01-10 Canon Inc Image processor and control method thereof

Also Published As

Publication number Publication date
JP2011040952A (en) 2011-02-24

Similar Documents

Publication Publication Date Title
US8554010B2 (en) Image processing apparatus combining plural sets of image data and method for controlling the same
CN110033418B (en) Image processing method, image processing device, storage medium and electronic equipment
JP6388673B2 (en) Mobile terminal and imaging method thereof
JP5713752B2 (en) Image processing apparatus and control method thereof
JP4530277B2 (en) Image reproducing apparatus, image reproducing method, program, and recording medium
JP6478499B2 (en) Image processing apparatus, image processing method, and program
JP5408053B2 (en) Image processing apparatus and image processing method
JP6218389B2 (en) Image processing apparatus and image processing method
US20120019686A1 (en) Image synthesizing device, image synthesizing method and computer readable medium
US20100103268A1 (en) Digital camera
JP2006238163A5 (en)
JP6685188B2 (en) Imaging device, image processing device, control method thereof, and program
JP2014123914A (en) Imaging apparatus, and control method, program, and storage media for the same
JP2005252711A (en) Photographing system using digital still camera and photographing control method
JPWO2013032008A1 (en) Image processing apparatus and program
CN110047060B (en) Image processing method, image processing device, storage medium and electronic equipment
JP2008227945A (en) Image processing apparatus and image processing program
JP5315125B2 (en) Image processing apparatus, imaging apparatus, and composite image generation method
JP5127638B2 (en) Image processing apparatus and method
JP2015211233A (en) Image processing apparatus and control method for image processing apparatus
JP5932392B2 (en) Image processing apparatus and image processing method
JP2015192338A (en) Image processing device and image processing program
JP2011199785A (en) Imaging apparatus and method
JP5202190B2 (en) Image processing method and image processing apparatus
JP5483949B2 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130618

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130802

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140218

R151 Written notification of patent or utility model registration

Ref document number: 5483949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151