JP5483949B2 - Image processing apparatus, image processing method, and program - Google Patents
Image processing apparatus, image processing method, and program Download PDFInfo
- Publication number
- JP5483949B2 JP5483949B2 JP2009185891A JP2009185891A JP5483949B2 JP 5483949 B2 JP5483949 B2 JP 5483949B2 JP 2009185891 A JP2009185891 A JP 2009185891A JP 2009185891 A JP2009185891 A JP 2009185891A JP 5483949 B2 JP5483949 B2 JP 5483949B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- hdr
- processing
- captured image
- exposure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 99
- 238000003672 processing method Methods 0.000 title description 2
- 238000000034 method Methods 0.000 claims description 76
- 238000007906 compression Methods 0.000 claims description 37
- 230000006835 compression Effects 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 4
- 230000035945 sensitivity Effects 0.000 claims description 2
- 238000005286 illumination Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 11
- 238000012937 correction Methods 0.000 description 10
- 238000013500 data storage Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 230000015572 biosynthetic process Effects 0.000 description 5
- 238000003786 synthesis reaction Methods 0.000 description 5
- 230000001276 controlling effect Effects 0.000 description 3
- 230000002596 correlated effect Effects 0.000 description 3
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002194 synthesizing effect Effects 0.000 description 2
- 101100517651 Caenorhabditis elegans num-1 gene Proteins 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000007429 general method Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
Images
Landscapes
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Facsimile Image Signal Circuits (AREA)
- Studio Devices (AREA)
Description
本発明は画像処理装置、画像処理方法及びプログラムに関し、特に、画像を補正するために用いて好適な技術に関する。 The present invention relates to an image processing apparatus, an image processing method, and a program, and more particularly, to a technique suitable for use in correcting an image.
屋外などにおいてデジタルカメラを用いてあるシーンを撮影するとき、撮影可能な輝度レンジよりも撮影シーンの輝度レンジが広い場合がある。このとき、撮影可能な輝度レンジ外の被写体については、その階調情報を記録することができないため、白飛び・黒潰れが発生する。例えば、晴天時に屋外で人物を撮影する場合、人物に露出を合わせると背景の空や雲が白飛びしたり、木陰が黒潰れしたりするケースがある。このため、シーンを見た際の印象と撮影画像を見た際の印象とが異なっている場合があり、ユーザにとって不満であった。 When shooting a scene using a digital camera outdoors or the like, the brightness range of the shooting scene may be wider than the brightness range that can be shot. At this time, since the gradation information cannot be recorded for a subject outside the photographic brightness range, overexposure / blackout occurs. For example, when a person is photographed outdoors in fine weather, there are cases where the sky and clouds in the background are blown off and the shade of the trees is crushed black when exposure is adjusted to the person. For this reason, the impression when viewing the scene may be different from the impression when viewing the captured image, which is unsatisfactory for the user.
そこで、このような問題を解決する技術の1つにHigh Dynamic Range Imaging処理(以下、HDR処理)が知られている。HDR処理は、大きく分けて、ダイナミックレンジ拡大処理と階調圧縮処理とから構成されている。ダイナミックレンジ拡大処理は、撮影可能なダイナミックレンジを拡大し、白飛び・黒潰れ等が発生していた輝度レンジの階調情報を記録する処理であり、一般的な方法としては、同じコンテンツに対し露出を変えて撮影した画像群(多段露出画像群)を合成する。以下、このダイナミックレンジ拡大処理により生成される画像をHDR画像と呼ぶ。これに対して階調圧縮処理は、ダイナミックレンジの広いHDR画像をダイナミックレンジの狭い表示/出力機器で好ましく再現するための画像処理であり、HDR画像の輝度の低周波成分について、その振幅を圧縮するなどの方法が用いられている。このようにHDR処理を行うと、白飛び・黒潰れを軽減した好ましい画像を表示または出力することができる。このようなHDR処理については、例えば特許文献1に開示されている。
Therefore, High Dynamic Range Imaging processing (hereinafter referred to as HDR processing) is known as one of techniques for solving such a problem. The HDR process is roughly divided into a dynamic range expansion process and a gradation compression process. The dynamic range expansion process is a process that expands the dynamic range that can be shot and records the gradation information of the brightness range where whiteout or blackout has occurred. As a general method, A group of images shot with different exposures (multi-stage exposure image group) is synthesized. Hereinafter, an image generated by this dynamic range expansion process is referred to as an HDR image. On the other hand, tone compression processing is image processing for preferably reproducing an HDR image with a wide dynamic range on a display / output device with a narrow dynamic range, and compresses the amplitude of the low-frequency component of the luminance of the HDR image. The method of doing is used. By performing the HDR processing in this way, it is possible to display or output a preferable image with reduced whiteout / blackout. Such HDR processing is disclosed in
通常、ユーザは一度に多くの画像を撮影しており、前述したダイナミックレンジ拡大処理により多段露出画像群を合成する場合には、それらの多数の撮影画像群の中から多段露出画像群を選択する必要がある。このとき、ユーザが多段露出画像群を選択するため、適切なものを選択していない可能性があり、その結果、ユーザの意図とは異なるHDR画像が生成されてしまうという問題点がある。 Normally, the user takes many images at a time, and when a multi-stage exposure image group is synthesized by the above-described dynamic range expansion processing, the multi-stage exposure image group is selected from the many photographed image groups. There is a need. At this time, since the user selects the multi-stage exposure image group, there is a possibility that an appropriate image may not be selected. As a result, there is a problem that an HDR image different from the user's intention is generated.
本発明は前述の問題点に鑑み、HDR処理を行うための多段露出画像群を適切に選択できるようにすることを目的としている。 An object of the present invention is to make it possible to appropriately select a multistage exposed image group for performing HDR processing in view of the above-described problems.
本発明の画像処理装置は、ユーザの操作に応じて1つの撮影画像を選択する選択手段と、前記選択手段によって選択された1つの撮影画像との相関性に基づいて、HDR画像を生成するための多段露出撮影画像を抽出する抽出手段と、前記選択手段によって選択された1つの撮影画像と前記抽出手段によって抽出された多段露出撮影画像をグループ化して表示部に表示する表示手段と、前記選択手段によって選択された1つの撮影画像と前記多段露出撮影画像に対し、ダイナミックレンジ拡大処理を行って前記HDR画像を生成するダイナミックレンジ拡大処理手段と、前記ダイナミックレンジ拡大処理手段によって生成されたHDR画像に対して階調圧縮処理を行う階調圧縮処理手段とを有することを特徴とする。 The image processing apparatus of the present invention includes a selection means for selecting one of the captured images in response to the user's operation, based on the correlation between one photographing image selected by said selecting means, for generating a HDR image Extraction means for extracting a multi-stage exposure photographed image, display means for grouping and displaying one photographed image selected by the selection means and the multi-stage exposure photographed image extracted by the extraction means on the display unit, and the selection Dynamic range expansion processing means for generating the HDR image by performing dynamic range expansion processing on one captured image selected by the means and the multistage exposure captured image, and the HDR image generated by the dynamic range expansion processing means And a gradation compression processing means for performing gradation compression processing on the image.
本発明によれば、多段露出画像の選択ミスを減らすことができる。これにより、適切な多段露出画像群に対してダイナミックレンジ拡大処理、階調圧縮処理を実施することができ、白飛び・黒潰れ等を軽減した撮影画像を取得することができる。 According to the present invention, it is possible to reduce selection mistakes in multistage exposure images. Thereby, dynamic range expansion processing and gradation compression processing can be performed on an appropriate multi-stage exposed image group, and a captured image with reduced whiteout and blackout can be acquired.
(第1の実施形態)
以下、本発明の第1の実施形態について、図面を参照しながら詳細に説明する。
図1は、本実施形態に係る画像処理装置100の構成例を示すブロック図である。
図1において、撮像部101は、被写体の光を検知するためのものである。撮像部101は、例えば、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、iRカットフィルタ、カラーフィルタ、及び、CMOSやCCDなどのセンサ、から構成されている。A/D変換部102は、被写体の光の検知量をデジタル信号に変換するためのものである。信号処理部103は、A/D変換部102で変換されたデジタル信号に信号処理を施し、デジタル画像データを生成するためのものであり、例えば、ガンマ処理などを行う。エンコーダ部104は、デジタル画像データに対してデータの圧縮を行うためのものであり、例えばJPEG方式に従って圧縮などを行う。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram illustrating a configuration example of an
In FIG. 1, an
メディアインターフェース部105は、例えば、ハードディスク、メモリーカード、SDカード、USBメモリなどのメディアにつなぐためのインターフェースである。CPU106は、画像処理装置100全体の各構成の処理を制御するためのものである。ROM107及びRAM108は、各構成の処理に必要なプログラム、データ、作業領域などをCPU106に提供するためのものである。また、後述する処理に必要な制御プログラムがROM107に格納されている場合には、RAM108に一旦展開してから実行される。
The
操作部109は、ユーザからの指示を入力するためのものであり、例えば、ボタンやモードダイヤル等が該当する。キャラクタージェネレーション部110は、文字やグラフィックを生成するためのものである。D/A変換部111は、デジタル画像データをアナログ信号に変換するためのものである。表示部112は、撮影画像やGUI等の画像を表示するための装置であり、一般的にはCRTや液晶ディスプレイなどである。また、公知のタッチスクリーンであってもよく、その場合、タッチスクリーンによる入力については操作部109の入力として扱うことも可能である。また、撮像部コントローラ113は、CPU106から指示された撮像系の制御を行うためのものであり、例えば、フォーカス合わせ、シャッターの開閉、絞り調節などの制御を行う。
The
図2は、本実施形態に係る画像処理装置100が実行するHDR処理の手順を示すフローチャートである。なお、図2に示す各処理は、CPU106の制御により行われる。
ユーザにより不図示の撮影開始ボタンが押下されると処理を開始し、ステップS201において、撮像部101は、CPU106からの指示によりユーザにより選択された露出間隔でオートブラケット撮影を行う。ここで、露出間隔を設定する手順としては、まず、図3に示すように表示部112に撮影メニューUIが表示される。ユーザの選択により「オートブラケット撮影」メニューが選択されると、図3に示すブラケット撮影の露出間隔(露出幅)を設定するUIが画面の右側に表示される。これらの露出間隔の中から設定する露出間隔がユーザにより選択される。
FIG. 2 is a flowchart illustrating a procedure of HDR processing executed by the
When the user presses a shooting start button (not shown), the process starts. In step S201, the
また、ステップS201においては、さらに、CPU106によりオートブラケット撮影が行われた旨を撮影画像の付加情報に記載する。ここで付加情報とは、図4に示すように、撮影日時や露出時間などの撮影時に関する情報が含まれたデータであり、例えば、公知の画像データフォーマットであるExif形式などのデータである。オートブラケット撮影時には、オートブラケットフラグは「ON」となり、オートブラケット撮影の回数についてはブラケットグループ番号として情報を保持している。また、これらの撮影された画像には同じブラケット番号が付されることになる。
In step S201, the fact that the
次に、ステップS202において、表示部112の画面左側に表示された図5(a)に示すような撮影メニューUIから、ユーザの指示により操作部109を介して「撮影画像を表示」メニューが選択されたか否かを判定する。選択されていない場合はそのまま待機する。そして、「撮影画像を表示」メニューが選択された場合は、ステップS203において、CPU106は検出手段として機能し、前述の付加情報からオートブラケットフラグ及びグループ番号についての情報を読み出す。そして、CPU106は、オートブラケットフラグが「ON」となっており、相関性のある同じブラケットグループ番号の画像を抽出し、表示部112に多段露出画像群としてグループ化して表示する。
Next, in step S202, from the shooting menu UI displayed on the left side of the screen of the
次に、ステップS204において、図5(b)に示すパラメータの中から、ユーザの指示により操作部109を介して設定すべきHDR処理パラメータが選択されたか否かを判定する。図5(b)に示すHDR処理UIは、図5(a)に示す画面において、ユーザの指示により操作部109を介して、前述のグループ化された多段露出画像群に対して「HDR処理」が選択されると表示されるものである。HDR処理パラメータが選択されていない場合はそのまま待機し、HDR処理パラメータが選択された場合は、ステップS205において、選択されたHDR処理パラメータをRAM108に記憶する。次に、ステップS206において、多段露出画像群の各画像を合成してHDR画像データを生成する。生成されるHDR画像データは、図6に示す画像データのように、全画素の8ビットRGB値が示されたデータである。なお、ステップS206の詳細については後述する。
Next, in step S204, it is determined whether or not an HDR processing parameter to be set through the
次に、ステップS207において、RAM108に記憶されたHDR処理パラメータに基づいて、生成したHDR画像データに対して階調圧縮処理を行う。なお、ステップS207の詳細については後述する。そして、ステップS208において、階調圧縮処理を行ったHDR画像を表示部112に表示するとともに、メディアインターフェース部105を介してメディア等にHDR画像データを記録し、処理を終了する。
Next, in step S207, tone compression processing is performed on the generated HDR image data based on the HDR processing parameters stored in the
次に、図2のステップS206において実行される処理の詳細について説明する。
図7は、ステップS206において実行されるHDR画像データを生成する処理手順の一例を示すフローチャートである。なお、図7に示す各処理は、CPU106によって行われる。ステップS206では、図8に示すように、露出の多い画像に合成ゲインを乗じて、露出の少ない画像に順次合成していく。
まず、ステップS701において、多段露出画像群の各画像の付加情報から露出時間ETの情報を読み出す。次に、ステップS702において、これらの露出時間ETの中の最大値ETmaxを検出する。
Next, details of the process executed in step S206 of FIG. 2 will be described.
FIG. 7 is a flowchart illustrating an example of a processing procedure for generating HDR image data executed in step S206. Each process shown in FIG. 7 is performed by the
First, in step S701, information on the exposure time ET is read from the additional information of each image in the multistage exposed image group. Next, in step S702, the maximum value ETmax in these exposure times ET is detected.
次に、ステップS703において、露出時間ETが最大の画像について、画素番号1のRGB値を読み出す。そして、ステップS704において、読み出したRGB値が白飛び・黒潰れのない画素値(有効範囲内の画素値)であるか否かを判定する。この判定の結果、白飛び・黒潰れしている画素値である場合は、ステップS705に進み、白飛び・黒潰れしていない画素値である場合は、ステップS709に進む。ここで白飛び・黒潰れしていない画素値とは、0<RGB<255を満たす画素値である。
Next, in step S703, the RGB value of
次に、ステップS705において、露出時間ETが一段階小さい画像について、同じ画素番号のRGB値を読み出す。そして、ステップS706において、読み出したRGB値が白飛び・黒潰れのない画素値であるか否かを判定する。この判定の結果、白飛び・黒潰れしている画素値である場合は、ステップS705に戻り、白飛び・黒潰れしていない画素値である場合は、ステップS707に進む。そして、ステップS707において、以下の数1に示す式に従って、ステップS706で白飛び・黒潰れのない画素値と判定された画像(以下、選択画像)の露出時間ETと露出時間最大値ETmaxとの露出時間比ETRを算出する。 Next, in step S705, the RGB value of the same pixel number is read out for an image whose exposure time ET is one step smaller. In step S706, it is determined whether or not the read RGB value is a pixel value without whiteout or blackout. As a result of the determination, if the pixel value is whiteout / blackout, the process returns to step S705. If the pixel value is not whiteout / blackout, the process proceeds to step S707. Then, in step S707, the exposure time ET and the exposure time maximum value ETmax of the image (hereinafter referred to as a selected image) determined as a pixel value without whiteout / blackout in step S706 according to the following equation (1). Calculate the exposure time ratio ETR.
次に、ステップS708において、選択画像のRGB値と、算出した露出時間比ETRとを用いて、以下の数2に示す式により、HDR画像の合成後のRGB値(RGBHDR)を算出する。 Next, in step S708, using the RGB value of the selected image and the calculated exposure time ratio ETR, the RGB value (RGB HDR ) after combining the HDR image is calculated according to the following equation (2).
次に、ステップS709において、算出したHDR画像の合成後のRGB値(RGBHDR)をRAM108に記憶する。そして、ステップS710において、全画素についてHDR画像の合成後のRGB値(RGBHDR)をRAM108に記憶したか否かを判定する。この判定の結果、全画素についてHDR画像の合成後のRGB値(RGBHDR)を記憶した場合は、処理を終了する。一方、ステップS710の判定の結果、まだRAM108に記憶していない画素がある場合は、ステップS711に進み、露出時間が最大の画像について、次の画素番号のRGB値を読み出し、ステップS704に戻る。
In step S709, the calculated RGB value (RGB HDR ) of the HDR image is stored in the
次に、ステップS207において実行される処理の詳細について説明する。
図9は、ステップS207において実行される階調圧縮の処理手順の一例を示すフローチャートである。なお、図8に示す各処理は、CPU106によって行われる。また、図10は、階調圧縮処理におけるパラメータ計算の流れを示す図である。ステップS207では、例えば非特許文献1に記載されているLandらにより提唱されたRetinexモデルを利用して階調圧縮を行う。Retinexモデルを利用した階調圧縮処理とは、実シーンの輝度成分を、照明成分と反射率成分とに分離し、照明成分は人間の視覚に鈍感であると仮定し、照明成分のみを圧縮するというものである。なお、輝度照明成分は、HDR画像にローパスフィルタ処理を行うことで取得される。
Next, details of the processing executed in step S207 will be described.
FIG. 9 is a flowchart showing an example of the gradation compression processing procedure executed in step S207. Note that each process shown in FIG. 8 is performed by the
まず、ステップS901において、以下の数3に示す式に従って、HDR画像のRGB値(RGBHDR)から、輝度成分YHDRを算出する。 First, in step S901, the luminance component Y HDR is calculated from the RGB value (RGB HDR ) of the HDR image according to the following equation (3).
次に、ステップS902において、以下の数4に示す式に従って、ガウシアンフィルタFilter(a,b)を算出する。本実施形態では、ガウシアンフィルタFilter(a,b)の分散Sを、画像幅Wの1/5の画素数とし、フィルタ処理を行う範囲は、ガウス関数の積分値の約95%が含まれる−S〜Sとする。 Next, in step S902, a Gaussian filter Filter (a, b) is calculated according to the following equation (4). In the present embodiment, the variance S of the Gaussian filter Filter (a, b) is set to 1/5 the number of pixels of the image width W, and the filter processing range includes approximately 95% of the integral value of the Gaussian function− S to S.
次に、ステップS903において、以下の数5に示す式に従って、輝度成分YHDRとガウシアンフィルタFilter(a,b)との離散畳み込み演算を行い、輝度照明成分YIllum_HDRを算出する。 Next, in step S903, according to the equation shown in Expression 5 below, it performs a discrete convolution operation between the luminance component Y HDR and Gaussian filter Filter (a, b), calculates the luminance illumination component Y Illum _ HDR.
次に、ステップS904において、以下の数6に示す式に従って、輝度反射率成分YRefrectanceを算出する。 Next, in step S904, the luminance reflectance component Y Refrectance is calculated according to the following equation (6).
次に、ステップS905において、ステップS903において算出した輝度照明成分YIllum_HDRを圧縮し、圧縮後の輝度照明成分YIllum_LDRを算出する。なお、ステップS905の詳細については後述する。次に、ステップS906において、以下の数7に示す式に従って、圧縮後の輝度照明成分YIllum_LDRと輝度反射率成分YRefrectanceとを合成し、輝度成分YLDRを算出する。 Next, in step S905, the calculated brightness illumination component Y Illum _ HDR compressed in step S903, it calculates the luminance illumination component Y Illum _ LDR after compression. Details of step S905 will be described later. Next, in step S906, according to the equation shown in the following Equation 7, it combines the luminance illumination component Y Illum _ LDR and the luminance reflectance component Y Refrectance after compression, to calculate the luminance component Y LDR.
次に、ステップS907において、以下の数8に示す式に従って、階調圧縮処理前後の輝度成分YHDR、YLDRを用いて、HDR画像のRGB値(RGBHDR)を調節し、階調圧縮処理後のRGB値(RGBLDR)を算出する。 Next, in step S907, the RGB values (RGB HDR ) of the HDR image are adjusted using the luminance components Y HDR and Y LDR before and after the gradation compression process according to the following equation (8), and the gradation compression process is performed. The later RGB value (RGB LDR ) is calculated.
次に、ステップS908において、以下の数9に示す式に従って、階調圧縮処理後のRGB値(RGBLDR)にカメラガンマ処理を行い、カメラガンマ処理後のRGB値(RGBLDR_g)を算出し、RAM108に記憶する。そして、処理を終了する。図10に示すように、輝度照明成分のみを圧縮し、HDR画像のRGB値(RGBHDR)からカメラガンマ処理後のRGB値(RGBLDR_g)を算出する。
Then, calculated in step S908, according to the equation shown in the following numbers 9, RGB values after gradation compression processing to (RGB LDR) performs a camera gamma processing, the camera gamma processed RGB values (RGB LDR _ g) And stored in the
次に、ステップS905において実行される処理の詳細について説明する。
図11は、ステップS905において実行される輝度照明成分YIllum_HDRの圧縮処理手順の一例を示すフローチャートである。なお、図11に示す各処理は、CPU106によって行われる。また、図12(a)は、「黒潰れを補正」、「白飛びを補正」、及び「黒潰れ及び白飛びを補正」のそれぞれの場合における輝度照明成分の圧縮特性を示す図である。
まず、ステップS1101において、HDR処理パラメータ(選択画像の基準輝度YRef、補正方法、補正強さ)をRAM108から読み出す。そして、ステップS1102において、ステップS903で算出された輝度照明成分YIllum_HDRの中から最大値YIllum_MAXを検出する。
Next, details of the processing executed in step S905 will be described.
Figure 11 is a flowchart illustrating an example of the compression processing procedure of the luminance illumination component Y Illum _ HDR executed in step S905. Each process illustrated in FIG. 11 is performed by the
First, in step S1101, the HDR processing parameters (reference brightness Y Ref of selected image, correction method, correction strength) are read from the
次に、ステップS1103において、輝度照明成分YIllum_HDRがステップS1101で読み出した基準輝度YRefより大きいか否かを判定する。この判定の結果、基準輝度YRefより小さい場合は、ステップS1104に進み、基準輝度YRef以上である場合は、ステップS1105に進む。 Next, in step S1103, it determines whether reference luminance Y Ref is greater than the luminance illumination component Y Illum _ HDR read out in step S1101. If the result of this determination is that it is smaller than the reference brightness Y Ref , the process proceeds to step S1104, and if it is greater than or equal to the reference brightness Y Ref , the process proceeds to step S1105.
ステップS1104においては、以下の数10及び表1に従って輝度照明成分YIllum_HDRを圧縮し、圧縮後の輝度照明成分YIllum_LDRを算出する。なお、数10に示す式のSCDとは、黒潰れ補正強さ(Shadow Correction Degree)であり、設定された黒潰れ補正強さに応じて、図12(b)に示すような圧縮特性で補正を行う。 In step S1104, compressing the luminance illumination component Y Illum _ HDR according having 10 and Table 1 below, calculates the luminance illumination component Y Illum _ LDR after compression. Note that the SCD in the equation shown in Equation 10 is a shadow correction degree (Shadow Correction Degree), and is corrected with a compression characteristic as shown in FIG. 12B according to the set black shadow correction strength. I do.
一方、ステップS1105においては、以下の数11に示す式に従って輝度照明成分YIllum_HDRを圧縮し、圧縮後の輝度照明成分YIllum_LDRを算出する。ここで、数11に示す式のHCDとは、白飛び補正強さ(Highlight Correction Degree)であり、設定された白飛び補正強さに応じて、図12(c)に示すような圧縮特性で補正を行う。 On the other hand, in step S1105, compressing the luminance illumination component Y Illum _ HDR according to the formula shown in the following Equation 11 to calculate the luminance illumination component Y Illum _ LDR after compression. Here, the HCD in the equation shown in Expression 11 is the highlight correction degree (Highlight Correction Degree), and has a compression characteristic as shown in FIG. 12 (c) according to the set whiteout correction strength. Make corrections.
以上のように本実施形態によれば、オートブラケットフラグが「ON」であって、同じブラケットグループ番号の画像を多段露出画像とし、多段露出画像群をグループ化して表示部112に表示するようにした。これにより、ユーザは適切な多段露出画像群を確認することができ、多段露出画像の選択ミスを減らすことができる。したがって、適切な多段露出画像群に対してダイナミックレンジ拡大処理、階調圧縮処理を実施することができ、白飛び・黒潰れ等を軽減した撮影画像を取得することができる。
As described above, according to the present embodiment, the auto bracket flag is “ON”, images with the same bracket group number are set as multi-stage exposure images, and multi-stage exposure image groups are grouped and displayed on the
なお、本実施形態では、図5(a)に示すように、多段露出画像群をグループ化して複数のグループを表示する例について説明した。一方、グループ化を行う前に、ユーザが1つのオートブラケット撮影した画像を選択し、その選択した画像の多段露出画像群のみをグループ化して表示するようにしてもよい。 In the present embodiment, as shown in FIG. 5A, the example in which the multistage exposed image group is grouped and a plurality of groups is displayed has been described. On the other hand, before grouping, the user may select an image captured by one auto bracket, and only the multi-stage exposed image group of the selected image may be grouped and displayed.
また、本実施形態においては、画像ファイルには、画像データとして、全画素の8ビットのRGB値が記録されているものとしたが、データの種類、フォーマットはこれに限るものではない。例えば、記録されているRGB値は16ビットであってもよい。また、本実施形態においては、露出の多い画像に合成ゲインを乗じて、露出の少ない画像に順次合成していくようにしたが、合成ゲインを用いて露出の異なる画像同士を合成する方法であれば、これに限るものではない。例えば、露出の少ない画像に合成ゲインを乗じて、露出の多い画像に順次合成してもよい。 In the present embodiment, the 8-bit RGB values of all the pixels are recorded as image data in the image file. However, the data type and format are not limited to this. For example, the recorded RGB values may be 16 bits. Further, in the present embodiment, the image having a large amount of exposure is multiplied by the composite gain, and the image is sequentially combined with the image having a small amount of exposure. However, a method of combining images having different exposures using the composite gain. For example, it is not limited to this. For example, an image with little exposure may be multiplied by a synthesis gain and sequentially synthesized with an image with much exposure.
さらに、本実施形態における階調圧縮処理は、ガウシアンフィルタにより抽出された画像低周波成分を圧縮するものとしたが、Retinexモデルに基づき、画像低周波成分を圧縮するものであればこれに限るものではない。例えば、非特許文献2に記載されているように、バイラテラルフィルタを用いて抽出された周波数成分を圧縮しても構わない。また、基準輝度YRefを階調圧縮処理前後で維持するとしたが、これに限るものではない。例えば、画像から顔などの主要被写体を検出し、検出した主要被写体の輝度Yfaceが階調圧縮処理前後で維持されるように補正しても構わない。この場合、数10及び数11に示した式における基準輝度YRefを、検出した主要被写体の輝度Yfaceに置き換える。主要被写体の検出方法は、例えば特許文献2に記されている。 Furthermore, the gradation compression processing in the present embodiment compresses the low frequency component of the image extracted by the Gaussian filter. However, the present invention is not limited to this if it compresses the low frequency component of the image based on the Retinex model. is not. For example, as described in Non-Patent Document 2, a frequency component extracted using a bilateral filter may be compressed. Further, although the reference luminance Y Ref is maintained before and after the gradation compression process, the present invention is not limited to this. For example, a main subject such as a face may be detected from the image, and the detected luminance Y face of the main subject may be corrected so as to be maintained before and after the gradation compression process. In this case, the reference luminance Y Ref in the equations shown in Equations 10 and 11 is replaced with the detected luminance Y face of the main subject. A method for detecting a main subject is described in Patent Document 2, for example.
(第2の実施形態)
以下、本発明による第2の実施形態を、図面を参照しながら詳細に説明する。第1の実施形態では、オートブラケット撮影を行った場合の例について説明したが、本実施形態では、通常の撮影により生成された撮影画像を対象とした場合の例について説明する。本実施形態では、ブラケットグループ番号が付されていないそれぞれの撮影画像の撮影条件等から判断して、相関がある撮影画像をHDR処理に用いている。なお、本実施形態における画像処理装置の構成は、第1の実施形態と同様であるため、説明を省略する。
(Second Embodiment)
Hereinafter, a second embodiment of the present invention will be described in detail with reference to the drawings. In the first embodiment, an example in which auto bracket shooting is performed has been described. However, in the present embodiment, an example in which a captured image generated by normal shooting is used will be described. In the present embodiment, a correlated captured image is used for HDR processing, as determined from the capturing conditions of each captured image without a bracket group number. Note that the configuration of the image processing apparatus in the present embodiment is the same as that in the first embodiment, and a description thereof will be omitted.
図13は、本実施形態における画像処理装置100が実行するHDR処理の手順一例を示すフローチャートである。なお、図13に示す各処理は、CPU106の制御により行われる。
ユーザにより不図示の撮影開始ボタンが押下されると処理を開始し、ステップS1301において、撮像部101は、ユーザの指示に応じて、撮影ごとに露出時間を変えながら撮影を行う。なお、ステップS1302は、第1の実施形態における図2のステップS202と同様である。
FIG. 13 is a flowchart illustrating an example of a procedure of HDR processing executed by the
When the user presses a shooting start button (not shown), the process starts. In step S1301, the
次に、ステップS1302の判定の結果、「撮影画像を表示」メニューが選択された場合は、ステップS1303において、ピックアップした多段露出画像群をグループ化して表示部112に表示する。なお、ステップS1303の詳細については後述する。また、ステップS1304〜ステップS1308については、第1の実施形態の図2のステップS204〜ステップS208と同様の処理となるため、説明を省略する。
If the “display photographed image” menu is selected as a result of the determination in step S1302, the picked-up multistage exposure image group is grouped and displayed on the
次に、図13のステップS1303において実行される処理の詳細について説明する。図14は、ステップS1303において実行される多段露出画像群を表示する処理手順の一例を示すフローチャートである。なお、図14に示す各処理は、CPU106によって行われる。
まず、ステップS1401において、保持している撮影画像群から任意の2枚の画像データをRAM108から読み出す。そして、ステップS1402において、読み出した2枚の画像データに、図4に示すような撮影時の付加情報が存在するか否かを判定する。この判定の結果、付加情報が存在する場合は、ステップS1403に進み、付加情報が存在しない場合は、ステップS1405に進む。
Next, details of the processing executed in step S1303 of FIG. 13 will be described. FIG. 14 is a flowchart illustrating an example of a processing procedure for displaying the multi-stage exposure image group executed in step S1303. Each process illustrated in FIG. 14 is performed by the
First, in step S1401, arbitrary two pieces of image data are read from the
次に、ステップS1403において、付加情報を参照し、撮影時間がほぼ同時刻(1分差以内)であって、撮影場所・画像幅及び画像高さといった画像サイズ・レンズの絞り値・ISO感度が同じであり、さらに、露出時間が異なるか否かを判定する。この判定の結果、条件を満たす場合は、ステップS1404に進み、条件を満たさない場合は、ステップS1407に進む。そして、ステップS1404において、両画像データの付加情報に同じブラケットグループ番号を付加する。なお、いずれか一方の画像データに既にブラケットグループ番号が付加されている場合は、ブラケットグループ番号が記載されていない画像データに同じブラケットグループ番号を付加する。 Next, in step S1403, the additional information is referred to, the shooting time is approximately the same time (within 1 minute difference), and the image size such as the shooting location, the image width, and the image height, the lens aperture value, and the ISO sensitivity are set. It is determined whether or not the exposure time is different. As a result of this determination, if the condition is satisfied, the process proceeds to step S1404. If the condition is not satisfied, the process proceeds to step S1407. In step S1404, the same bracket group number is added to the additional information of both image data. If a bracket group number has already been added to any one of the image data, the same bracket group number is added to the image data for which no bracket group number is described.
一方、ステップS1405においては、2つの画像データから図15に示すような画素分布のヒストグラムを算出し、以下の数12に示す式に従って、比較対象としてそれらの相関係数Cを算出する。なお、数12に示す式のHist1、Hist2は読み出した2枚の画像データのヒストグラムを示し、Hist1ave、Hist1aveは両画像データのヒストグラムの平均値を示す。そして、算出した相関係数Cが0.9以上であるか否かを判定する。この判定の結果、相関係数Cが0.9以上である場合は、ステップS1406に進み、相関係数が0.9未満である場合は、ステップS1407に進む。 On the other hand, in step S1405, a histogram of pixel distribution as shown in FIG. 15 is calculated from the two image data, and their correlation coefficient C is calculated as a comparison target according to the following equation (12). Note that Hist1 and Hist2 in the equation shown in Expression 12 indicate histograms of two read image data, and Hist1 ave and Hist1 ave indicate average values of histograms of both image data. Then, it is determined whether or not the calculated correlation coefficient C is 0.9 or more. As a result of this determination, if the correlation coefficient C is 0.9 or more, the process proceeds to step S1406, and if the correlation coefficient is less than 0.9, the process proceeds to step S1407.
次に、ステップS1406において、両画像データの付加情報を新規作成し、ブラケット撮影フラグをONにして、同じブラケットグループ番号を付加し、その他の付加情報については付加しないようにする。なお、いずれか一方の画像データに既にブラケットグループ番号が付加されている場合、ブラケットグループ番号が記載されていない画像データに同じブラケットグループ番号を付加する。そして、ステップS1407において、撮影画像群の中で2枚の組合せ全てについて処理を終了したか否かを判定する。この判定の結果、全ての組合せについて処理を終了した場合は、ステップS1408に進み、処理を終了していない場合、ステップS1401に戻る。次に、ステップS1408において、図5(a)に示すように、ブラケットグループ番号が同じ画像群をグループ化して表示し、処理を終了する。 Next, in step S1406, additional information of both image data is newly created, the bracket shooting flag is turned ON, the same bracket group number is added, and other additional information is not added. When a bracket group number is already added to any one of the image data, the same bracket group number is added to the image data not including the bracket group number. In step S1407, it is determined whether or not the processing has been completed for all the two combinations in the captured image group. As a result of this determination, if the processing has been completed for all combinations, the process proceeds to step S1408. If the process has not been completed, the process returns to step S1401. Next, in step S1408, as shown in FIG. 5A, image groups having the same bracket group number are grouped and displayed, and the process ends.
以上のように本実施形態によれば、撮影画像の付加情報、もしくは撮影画像の画素分布から相関性を検出し、相関性のある撮影画像を多段露出画像群としてグループ化して表示部112に表示するようにした。これにより、ユーザは適切な多段露出画像群を確認することができ、多段露出画像の選択ミスを減らすことができる。したがって、適切な多段露出画像群に対してダイナミックレンジ拡大処理、階調圧縮処理を実施することができ、白飛び・黒潰れ等を軽減した撮影画像を取得することができる。
As described above, according to the present embodiment, the correlation is detected from the additional information of the captured image or the pixel distribution of the captured image, and the correlated captured images are grouped and displayed on the
なお、本実施形態では、図5(a)に示すように、多段露出画像群をグループ化して複数のグループを表示する例について説明した。一方、第1の実施形態と同様に、グループ化を行う前に、ユーザが1つの撮影画像を選択し、その選択した画像の多段露出画像群のみをグループ化して表示するようにしてもよい。 In the present embodiment, as shown in FIG. 5A, the example in which the multistage exposed image group is grouped and a plurality of groups is displayed has been described. On the other hand, similarly to the first embodiment, before grouping, the user may select one photographed image and display only a group of multi-stage exposed images of the selected image.
(第3の実施形態)
以下、本発明による第3の実施形態を、図面を参照しながら詳細に説明する。第2の実施形態では、相関のある撮影画像を判断して同じブラケットグループ番号を付し、装置側がHDR処理に用いる画像を選択した。これに対して本実施形態では、ユーザが選択した撮影画像がHDR処理に適したものであるか否かを判断して、適していない撮影画像が含まれている場合には、警告表示を行う例について説明する。
(Third embodiment)
Hereinafter, a third embodiment according to the present invention will be described in detail with reference to the drawings. In the second embodiment, a correlated captured image is determined and assigned the same bracket group number, and the apparatus side selects an image used for HDR processing. On the other hand, in the present embodiment, it is determined whether or not the captured image selected by the user is suitable for HDR processing, and a warning is displayed when a captured image that is not suitable is included. An example will be described.
図16は、本実施形態に係る画像処理装置300の構成例を示すブロック図である。
図16において、入力部301は、ユーザからの指示や、データを入力するためのものであり、例えばキーボードやポインティング装置を含むものである。なお、ポインティング装置としては、マウス、トラックボール、トラックパッド、タブレット等が挙げられる。
FIG. 16 is a block diagram illustrating a configuration example of the
In FIG. 16, an
データ保存部302は、画像データを保持するための記録媒体であり、例えばハードディスク、フレキシブルディスク、CD−ROM、CD−RやDVD、メモリーカード、スマートメディアSDカード、USBメモリ等である。データ保存部302には、画像データの他にも、プログラムやその他のデータを保持することも可能である。また、後述するRAM306の一部をデータ保存部302として用いてもよい。さらには、後述する通信部307により接続した先の機器のデータ保存部を通信部307を介して利用する、という形態であってもよい。
The
表示部303は、画像処理前、もしくは画像処理後の画像を表示したり、GUI等の画像を表示したりする装置であり、一般的にはCRTや液晶ディスプレイなどが用いられる。なお、表示部303は、ケーブル等で接続された装置外部のディスプレイ装置であってもよく、公知のタッチスクリーンであってもよい。この場合、タッチスクリーンによる入力については、入力部301の入力として扱うことも可能である。
The
CPU304は、画像処理装置300全体の各構成の処理を制御するためのものである。ROM305及びRAM306は、その処理に必要なプログラム、データ、作業領域などをCPU304に提供するためのものである。また、後述する処理に必要な制御プログラムがデータ保存部302やROM305に格納されている場合には、RAM306に一旦展開してから実行される。また、通信部307を経由して装置がプログラムを受信する場合には、データ保存部302に記録した後にRAM306に一旦展開されるか、通信部307からRAM306に直接読み出されてから実行される。
The
通信部307は、機器間の通信を行うためのI/Fであり、例えば、公知のイーサネット(登録商標)、USB、IEEE1284、IEEE1394、電話回線などの有線による通信方式である。また、赤外線(IrDA)、IEEE802.11a、IEEE802.11b、IEEE802.11g、Bluetooth、UWB(Ultra Wide Band)等の無線通信方式であってもよい。なお、図16では、入力部301、データ保存部302、及び表示部303が全て1つの装置内に含まれるような構成を示しているが、これらの構成が公知の通信方式による通信路で接続されており、全体としてこのような構成となっているのであってもよい。また、システム構成については、上記以外にも様々な構成要素が存在するが、本発明の主眼ではないので、その説明は省略する。
The
図17は、本実施形態に係る画像処理装置300が実行するHDR処理の手順の一例を示すフローチャートである。なお、図17に示す各処理はCPU304の制御により行われる。
まず、ユーザにより入力部301から撮影画像を表示する指示を受けると処理を開始する。そして、ステップS1701において、表示部303に撮影画像群(例えば、サムネイル画像)を表示する。次に、ステップS1702において、ユーザにより入力部301を介して表示された撮影画像群の中から多段露出画像群が選択され、それらの選択された多段露出画像群がHDR合成に適するか否かを判定する。この判定の結果、HDR合成に適する場合は、ステップS1704に進み、HDR合成に適さない場合は、ステップS1703に進む。なお、ステップS1702の詳細については後述する。
FIG. 17 is a flowchart illustrating an example of a procedure of HDR processing executed by the
First, when the user receives an instruction to display a captured image from the
ステップS1703においては、表示部303に、例えば図18に示すような警告表示を行い、ステップS1701に戻る。一方、ステップS1704においては、多段露出画像群をグループ化して表示部303に表示する。なお、ステップS1705〜ステップS1708については、第1の実施形態で説明した図2のステップS203〜ステップS206と同様の処理であるため、説明は省略する。
In step S1703, for example, a warning message as shown in FIG. 18 is displayed on the
図19は、ステップS1702において実行される判定の判定基準を生成する処理手順の一例を示すフローチャートである。なお、図19に示す各処理はCPU304の制御により行われる。
まず、ステップS1901において、ユーザにより選択された多段露出画像群から任意の2枚の画像データをデータ保存部302から読み出す。なお、ステップS1902〜S1907は、第2の実施形態で説明したステップS1402〜S1407と同様であるため、説明は省略する。また、本実施形態では、第2の実施形態とは異なり、ユーザにより選択された画像のみが対象となる。
FIG. 19 is a flowchart illustrating an example of a processing procedure for generating a determination criterion for determination performed in step S1702. Each process shown in FIG. 19 is performed under the control of the
First, in step S1901, arbitrary two pieces of image data are read from the
そして、ステップS1908において、ユーザにより選択されたすべての多段露出画像のブラケットグループ番号を確認し、処理を終了する。このようにブラケットグループ番号を確認し、多段露出画像群の中に、1つでもブラケットグループ番号が異なるもしくは存在しない画像が含まれている場合には、ステップS1703に進むことになる。また、すべての多段露出画像のブラケットグループ番号が同じ場合には、ステップS1704に進むことになる。 In step S1908, the bracket group numbers of all the multistage exposure images selected by the user are confirmed, and the process ends. As described above, the bracket group number is confirmed, and if at least one bracket group number is different or does not exist in the multistage exposed image group, the process proceeds to step S1703. If all the multistage exposure images have the same bracket group number, the process advances to step S1704.
以上のように本実施形態によれば、ユーザが多段露出画像として選択した撮影画像の付加情報、もしくは撮影画像の画素分布から相関性を検出する。そして、選択したすべての撮影画像において相関性がある場合は、撮影画像を多段露出画像群としてグループ化して表示部112に表示するようにし、そうでない場合は警告画面を表示するようにした。これにより、ユーザは適切な多段露出画像群であるか否かを確認することができ、多段露出画像の選択ミスを減らすことができる。したがって、適切な多段露出画像群に対してダイナミックレンジ拡大処理、階調圧縮処理を実施することができ、白飛び・黒潰れ等を軽減した撮影画像を取得することができる。
As described above, according to the present embodiment, the correlation is detected from the additional information of the captured image selected by the user as the multistage exposed image or the pixel distribution of the captured image. If all selected photographed images have a correlation, the photographed images are grouped as a multi-stage exposed image group and displayed on the
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
106 CPU、112 表示部 106 CPU, 112 Display unit
Claims (8)
前記選択手段によって選択された1つの撮影画像との相関性に基づいて、HDR画像を生成するための多段露出撮影画像を抽出する抽出手段と、
前記選択手段によって選択された1つの撮影画像と前記抽出手段によって抽出された多段露出撮影画像をグループ化して表示部に表示する表示手段と、
前記選択手段によって選択された1つの撮影画像と前記多段露出撮影画像に対し、ダイナミックレンジ拡大処理を行って前記HDR画像を生成するダイナミックレンジ拡大処理手段と、
前記ダイナミックレンジ拡大処理手段によって生成されたHDR画像に対して階調圧縮処理を行う階調圧縮処理手段とを有することを特徴とする画像処理装置。 Selection means for selecting one captured image in response to a user operation;
Extracting means for extracting a multi-exposure shooting image for based on the correlation between one photographing image selected by said selecting means, for generating a HDR image,
Display means for grouping and displaying one photographed image selected by the selecting means and the multistage exposure photographed image extracted by the extracting means on the display unit;
Dynamic range expansion processing means for performing dynamic range expansion processing on the one captured image selected by the selection means and the multistage exposure captured image to generate the HDR image;
An image processing apparatus comprising: gradation compression processing means for performing gradation compression processing on the HDR image generated by the dynamic range expansion processing means.
前記選択工程によって選択された1つの撮影画像との相関性に基づいて、HDR画像を生成するための多段露出撮影画像を抽出する抽出工程と、
前記選択工程によって選択された1つの撮影画像と前記抽出工程によって抽出された多段露出撮影画像をグループ化して表示部に表示する表示工程と、
前記選択工程によって選択された1つの撮影画像と前記多段露出撮影画像に対し、ダイナミックレンジ拡大処理を行って前記HDR画像を生成するダイナミックレンジ拡大処理工程と、
前記ダイナミックレンジ拡大処理工程によって生成されたHDR画像に対して階調圧縮処理を行う階調圧縮処理工程とを有することを特徴とする画像処理方法。 A selection step of selecting one captured image in response to a user operation;
Based on the correlation between one photographing image selected by said selecting step, an extraction step of extracting a multistage exposure shooting image for generating a HDR image,
A display step of grouping and displaying one captured image selected in the selection step and the multistage exposure captured image extracted in the extraction step on a display unit;
A dynamic range expansion process step of generating a HDR image by performing a dynamic range expansion process on the one captured image selected in the selection step and the multi-stage exposure captured image;
A gradation compression processing step of performing gradation compression processing on the HDR image generated by the dynamic range expansion processing step.
前記選択工程によって選択された1つの撮影画像との相関性に基づいて、HDR画像を生成するための多段露出撮影画像を抽出する抽出工程と、
前記選択工程によって選択された1つの撮影画像と前記抽出工程によって抽出された多段露出撮影画像をグループ化して表示部に表示する表示工程と、
前記選択工程によって選択された1つの撮影画像と前記多段露出撮影画像に対し、ダイナミックレンジ拡大処理を行って前記HDR画像を生成するダイナミックレンジ拡大処理工程と、
前記ダイナミックレンジ拡大処理工程によって生成されたHDR画像に対して階調圧縮処理を行う階調圧縮処理工程とをコンピュータに実行させることを特徴とするプログラム。 A selection step of selecting one captured image in response to a user operation;
Based on the correlation between one photographing image selected by said selecting step, an extraction step of extracting a multistage exposure shooting image for generating a HDR image,
A display step of grouping and displaying one captured image selected in the selection step and the multistage exposure captured image extracted in the extraction step on a display unit;
A dynamic range expansion process step of generating a HDR image by performing a dynamic range expansion process on the one captured image selected in the selection step and the multi-stage exposure captured image;
A program causing a computer to execute a gradation compression processing step of performing gradation compression processing on an HDR image generated by the dynamic range expansion processing step.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009185891A JP5483949B2 (en) | 2009-08-10 | 2009-08-10 | Image processing apparatus, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009185891A JP5483949B2 (en) | 2009-08-10 | 2009-08-10 | Image processing apparatus, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2011040952A JP2011040952A (en) | 2011-02-24 |
JP5483949B2 true JP5483949B2 (en) | 2014-05-07 |
Family
ID=43768278
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009185891A Active JP5483949B2 (en) | 2009-08-10 | 2009-08-10 | Image processing apparatus, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5483949B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6536012B2 (en) * | 2014-11-05 | 2019-07-03 | コニカミノルタ株式会社 | IMAGE GENERATION APPARATUS, IMAGE GENERATION CONTROL PROGRAM, AND IMAGE GENERATION CONTROL METHOD |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006108915A (en) * | 2004-10-01 | 2006-04-20 | Canon Inc | Apparatus and method for image photographing |
JP4624889B2 (en) * | 2005-08-30 | 2011-02-02 | 富士フイルム株式会社 | Face detection method, apparatus and program |
JP2007124387A (en) * | 2005-10-28 | 2007-05-17 | Nikon Corp | Image processing device and image processing program |
JP2007221536A (en) * | 2006-02-17 | 2007-08-30 | Nikon Corp | Image pickup device, image processing program, and image transmission program |
JP2008005154A (en) * | 2006-06-21 | 2008-01-10 | Canon Inc | Image processor and control method thereof |
-
2009
- 2009-08-10 JP JP2009185891A patent/JP5483949B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2011040952A (en) | 2011-02-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8554010B2 (en) | Image processing apparatus combining plural sets of image data and method for controlling the same | |
CN110033418B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
JP6388673B2 (en) | Mobile terminal and imaging method thereof | |
JP5713752B2 (en) | Image processing apparatus and control method thereof | |
JP4530277B2 (en) | Image reproducing apparatus, image reproducing method, program, and recording medium | |
JP6478499B2 (en) | Image processing apparatus, image processing method, and program | |
JP5408053B2 (en) | Image processing apparatus and image processing method | |
JP6218389B2 (en) | Image processing apparatus and image processing method | |
US20120019686A1 (en) | Image synthesizing device, image synthesizing method and computer readable medium | |
US20100103268A1 (en) | Digital camera | |
JP2006238163A5 (en) | ||
JP6685188B2 (en) | Imaging device, image processing device, control method thereof, and program | |
JP2014123914A (en) | Imaging apparatus, and control method, program, and storage media for the same | |
JP2005252711A (en) | Photographing system using digital still camera and photographing control method | |
JPWO2013032008A1 (en) | Image processing apparatus and program | |
CN110047060B (en) | Image processing method, image processing device, storage medium and electronic equipment | |
JP2008227945A (en) | Image processing apparatus and image processing program | |
JP5315125B2 (en) | Image processing apparatus, imaging apparatus, and composite image generation method | |
JP5127638B2 (en) | Image processing apparatus and method | |
JP2015211233A (en) | Image processing apparatus and control method for image processing apparatus | |
JP5932392B2 (en) | Image processing apparatus and image processing method | |
JP2015192338A (en) | Image processing device and image processing program | |
JP2011199785A (en) | Imaging apparatus and method | |
JP5202190B2 (en) | Image processing method and image processing apparatus | |
JP5483949B2 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120710 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130611 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130618 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130802 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140218 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5483949 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |