JP2013127819A - Image processing apparatus and method thereof - Google Patents

Image processing apparatus and method thereof Download PDF

Info

Publication number
JP2013127819A
JP2013127819A JP2013052404A JP2013052404A JP2013127819A JP 2013127819 A JP2013127819 A JP 2013127819A JP 2013052404 A JP2013052404 A JP 2013052404A JP 2013052404 A JP2013052404 A JP 2013052404A JP 2013127819 A JP2013127819 A JP 2013127819A
Authority
JP
Japan
Prior art keywords
image
area
display
raw
development processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013052404A
Other languages
Japanese (ja)
Other versions
JP5539561B2 (en
Inventor
Nobuhiko Tamura
信彦 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013052404A priority Critical patent/JP5539561B2/en
Publication of JP2013127819A publication Critical patent/JP2013127819A/en
Application granted granted Critical
Publication of JP5539561B2 publication Critical patent/JP5539561B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve processing efficiency in development processing, and to obtain processing result intended by a user.SOLUTION: When applying development processing to a photographic image, demosaicing processing is applied to the photographic image (S102), and a display image is generated from the photographic image to which the demosaicing processing has been applied (S103). Then, an instruction indicating a reference region on the display image is input (S104), and an adjustment instruction of the development processing parameters of the photographic image is input (S106). Then, an image region having a high correlation with the reference region is extracted as a similar region (S109). Then, the development processing parameters are applied to the photographic image before the demosaicing processing, which corresponds to the reference region and the photographic image before the demosaicing processing, which corresponds to the similar region to generate the display images of the reference region and the similar region (S107, S110).

Description

本発明は、撮影画像の画像処理に関する。   The present invention relates to image processing of captured images.

近年、ディジタルカメラの進歩は目覚しく、高画素、高感度、手振れ補正など様々な機能面の高度化が進んでいる。また、ディジタル一眼レフカメラの低価格化が進み、ディジタルカメラの更なる普及を後押ししている。   In recent years, digital cameras have made remarkable progress, and various functional aspects such as high pixels, high sensitivity, and camera shake correction have been advanced. In addition, the price of digital single-lens reflex cameras has been reduced, and further popularization of digital cameras has been promoted.

フィルムカメラに対するディジタルカメラの利点の一つとして、画像をディジタルデータとして扱うため撮影後のレタッチが容易であることが挙げられる。ディジタルカメラは、CCD、CMOSなどの撮像素子に焦点を結んだ光を電気信号に変換し、カメラ内部で画像処理した撮影画像をディジタルデータとして記録媒体に保存する。データ形式としては、JPEGなどのデータ圧縮した形式が一般的である。近年は、よりレタッチの自由度が高い撮影データの形式のディジタルデータの保存も可能である。   One advantage of a digital camera over a film camera is that the image is handled as digital data, so that it can be easily retouched after shooting. A digital camera converts light focused on an image sensor such as a CCD or CMOS into an electric signal, and saves a photographed image processed in the camera as digital data in a recording medium. A data compression format such as JPEG is generally used as the data format. In recent years, it is also possible to store digital data in the form of shooting data with a higher degree of freedom of retouching.

撮影画像のデータは、撮像素子が出力する信号をディジタル化したデータ(以下、RAWデータ)であり、デモザイキング(demosicking/demosaicing)などが行われていない。従って、そのままでは通常の画像として表示することはできない。   The data of the captured image is data obtained by digitizing a signal output from the image sensor (hereinafter referred to as RAW data), and demosaicing / demosaicing or the like is not performed. Therefore, it cannot be displayed as a normal image as it is.

ここでRAWデータについて簡単に説明する。ディジタルカメラやディジタルビデオカメラなどの撮像装置の多くは、CCDやCMOSなどの光電変換デバイスの前に特定の色のフィルタを配置し、被写体の色情報を取得する。この方式を単板式と呼ぶ。図8は単板式のディジタルカメラやディジタルビデオカメラに用いる典型的なカラーフィルタ配列として知られるベイヤ配列を示す図である。単板式の撮像装置の場合、特定の色のフィルタが存在する素子からは、他の色の信号を得ることはできない。そこで、他の色の信号は、近隣の素子の信号から補間によって求める。この補間処理をデモザイキングと呼ぶ。   Here, RAW data will be briefly described. Many imaging apparatuses such as digital cameras and digital video cameras obtain a subject's color information by placing a filter of a specific color in front of a photoelectric conversion device such as a CCD or CMOS. This method is called a single plate type. FIG. 8 is a diagram showing a Bayer array known as a typical color filter array used in a single-plate digital camera or digital video camera. In the case of a single-plate imaging device, signals of other colors cannot be obtained from an element having a filter of a specific color. Therefore, signals of other colors are obtained by interpolation from signals of neighboring elements. This interpolation process is called demosaicing.

カラーフィルタが図8に示すベイヤ配列の場合を例としてデモザイキングを説明する。まず、光電変換デバイスから得られるRGBが混在したセンサ信号を三つのプレーン、すなわちR、G、Bプレーンに分割する。図9はセンサ信号をプレーン分割した結果を示す図で、図9(a)はRプレーンを、図9(b)はGプレーンを、図9(c)はBプレーンをそれぞれ表す。なお、各プレーンにおいて、値が不明な画素(当該色以外の色のフィルタが配置された素子に対応する画素)には略ゼロを挿入する。   Demosaicing will be described by taking as an example the case where the color filter has the Bayer arrangement shown in FIG. First, a sensor signal mixed with RGB obtained from a photoelectric conversion device is divided into three planes, that is, R, G, and B planes. FIG. 9 is a diagram showing the result of dividing the sensor signal into planes, FIG. 9 (a) shows the R plane, FIG. 9 (b) shows the G plane, and FIG. 9 (c) shows the B plane. In each plane, substantially zero is inserted into a pixel whose value is unknown (a pixel corresponding to an element in which a filter of a color other than the color is arranged).

図10はコンボリューションフィルタを示し、当該フィルタにより各プレーンを補間することでデモザイキングを行う。図10(a)はR、Bプレーンの補間用フィルタ、図10(b)はGプレーンの補間用フィルタである。   FIG. 10 shows a convolution filter, and demosaicing is performed by interpolating each plane with the filter. FIG. 10A shows an R and B plane interpolation filter, and FIG. 10B shows a G plane interpolation filter.

図11はGプレーンのデモザイキングの様子を示す図である。図11(a)は、デモザイキング前のGプレーンの状態を示し、中央は値が不明な画素であり、ゼロが挿入されている。図11(b)はデモザイキング後のGプレーンの状態を示し、中央の値が不明な画素に対して、上下左右に隣接する画素の値の平均値が割り当てられてる。R、Bプレーンについても、Gプレーンと同様、値が不明な画素は、周囲の画素の値によって補間される。   FIG. 11 is a diagram showing the G-plane demosaicing. FIG. 11 (a) shows the state of the G plane before demosaicing, where the center is a pixel whose value is unknown and zero is inserted. FIG. 11 (b) shows the state of the G plane after demosaicing, and the average value of the adjacent pixels in the vertical and horizontal directions is assigned to the pixel whose central value is unknown. As for the R and B planes, similarly to the G plane, pixels whose values are unknown are interpolated by the values of surrounding pixels.

なお、デモザイキングは、上記の方法以外にも様々な方法があり、例えば、上下左右に隣接する画素の値の平均値ではなく、適応的に上下に隣接する画素の値の平均値、または、左右に隣接する画素の値の平均値に補間する方法もある。   Note that there are various methods other than the above method for demosaicing, for example, not the average value of pixels adjacent vertically and horizontally, but the average value of pixels adjacent vertically and adaptively, or There is also a method of interpolating to the average value of the values of pixels adjacent to the left and right.

RAWデータは、撮影時に、一旦、記録媒体に保存し、その後、パーソナルコンピュータ(PC)上で動作するソフトウェアなどによってデモザイキング処理などの画像処理を行う。画像処理後の画像は、表示したり、JPEGなどの汎用データ形式に変換して記録媒体に保存することができる。つまり、ディジタルカメラにおけるRAWデータの利用するための処理は、フィルムカメラにおける撮影処理と現像処理に例えることができる。   The RAW data is temporarily stored in a recording medium at the time of shooting, and thereafter, image processing such as demosaicing processing is performed by software that operates on a personal computer (PC). The image after image processing can be displayed or converted into a general-purpose data format such as JPEG and stored in a recording medium. In other words, processing for using RAW data in a digital camera can be compared to shooting processing and development processing in a film camera.

RAWデータを利用すれば、現像に対応する画像処理(以下、現像処理)のユーザ調整が可能になり、レタッチの自由度が高くなる。また、RAWデータは一画素当りのビット数が大きく、ロスレス圧縮されているため、画質の劣化が少ない現像処理が可能である。   If RAW data is used, user adjustment of image processing corresponding to development (hereinafter referred to as development processing) becomes possible, and the degree of freedom of retouching is increased. In addition, since RAW data has a large number of bits per pixel and is losslessly compressed, development processing with little deterioration in image quality is possible.

現像処理を行うソフトウェア(以下、現像ソフト)は、一般に、現像処理後の画像を表示する表示機能のインタフェイスと、現像処理のパラメータを調整する調整機能のインタフェイスを備える。ユーザ調整が可能な現像処理パラメータにはエッジ強調処理のパラメータ、ぼかし処理のパラメータ、色の調整パラメータ、デモザイキングに関わるパラメータなどが含まれる。ユーザは、表示された画像を観察しながら現像処理パラメータを調整し、調整した現像処理パラメータによって表示画像を更新する。ユーザは、この手順を繰り返して、所望する表示画像になるように現像処理パラメータを決定する。   Software for performing development processing (hereinafter referred to as development software) generally includes a display function interface for displaying an image after development processing and an adjustment function interface for adjusting development processing parameters. The development processing parameters that can be adjusted by the user include edge enhancement processing parameters, blurring processing parameters, color adjustment parameters, demosaicing parameters, and the like. The user adjusts the development processing parameter while observing the displayed image, and updates the display image with the adjusted development processing parameter. The user repeats this procedure to determine development processing parameters so as to obtain a desired display image.

RAWデータが利用可能なディジタルカメラは、ディジタル一眼レフカメラなどのハイエンド機が殆どである。ハイエンド機は、一般に撮像画素数が多いためRAMデータのデータ量が膨大になる。そのため、現像処理の演算負荷は大きく、ユーザが現像処理パラメータを調整し、再度画像処理を施された画像を表示するまでの時間は長くなる。特許文献1の技術は、撮影画像の一部領域の画像に画像処理を施して表示することで、処理効率を高めている。   Most digital cameras that can use RAW data are high-end devices such as digital single-lens reflex cameras. High end machines generally have a large amount of RAM data because of the large number of imaging pixels. For this reason, the computation load of the development processing is large, and the time until the user adjusts the development processing parameters and displays the image subjected to the image processing again becomes long. The technique of Patent Document 1 improves processing efficiency by performing image processing on an image of a partial region of a captured image and displaying the image.

しかし、特許文献1の技術は、撮影画像の一部領域(以下、参照領域)を参照して現像処理パラメータを決定するため、現像処理パラメータを調整した後の現像処理が参照領域以外の領域にどのように影響するかが不明である。言い換えれば、現像処理パラメータを調整した後の現像処理を画像全体に適用した場合、参照領域ではユーザが意図するとおりの画像が得られても、参照領域外ではユーザが意図する画像が得られない場合がある。   However, since the technique of Patent Document 1 determines development processing parameters with reference to a partial area of a captured image (hereinafter referred to as a reference area), the development processing after adjusting the development processing parameters is performed in an area other than the reference area. It is unclear how it will affect. In other words, when the development processing after adjusting the development processing parameters is applied to the entire image, an image intended by the user cannot be obtained outside the reference region even if an image as intended by the user is obtained in the reference region. There is a case.

特開2004-040559号公報JP 2004-040559 A

本発明は、現像処理における処理効率を向上するとともに、ユーザが意図する処理結果が得られるようにすることを目的とする。   An object of the present invention is to improve the processing efficiency in development processing and to obtain a processing result intended by a user.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる画像処理は、RAW画像から表示画像を生成し、前記表示画像の中の参照領域を示す指示、および、前記参照領域に対する現像処理パラメータの指示を入力し、前記RAW画像から、前記RAW画像の中の前記参照領域と相関が高い画像領域を類似領域として抽出し、前記参照領域に対応するRAW画像および前記類似領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記表示画像の上に表示することを特徴とする。   The image processing according to the present invention generates a display image from a RAW image, inputs an instruction indicating a reference area in the display image, and an instruction of a development processing parameter for the reference area. An image area generated by extracting an image area having a high correlation with the reference area in the RAW image as a similar area, and applying the development processing parameters to the RAW image corresponding to the reference area and the RAW image corresponding to the similar area Is displayed on the display image.

本発明によれば、現像処理における処理効率を向上するとともに、ユーザが意図する処理結果が得られるようになる。   According to the present invention, the processing efficiency in the development process is improved, and the processing result intended by the user can be obtained.

画像処理装置の構成例を示すブロック図。1 is a block diagram illustrating a configuration example of an image processing apparatus. 実施例1の現像処理アプリケーションによる処理の概要を示す図。FIG. 3 is a diagram showing an outline of processing by a development processing application according to the first embodiment. 実施例1の現像処理を説明するフローチャート。6 is a flowchart for explaining development processing according to the first embodiment. 相関の算出を説明するフローチャート。The flowchart explaining calculation of correlation. 実施例2の現像処理アプリケーションによる処理の概要を示す図。FIG. 6 is a diagram showing an outline of processing by a development processing application according to a second embodiment. 実施例2の現像処理を説明するフローチャート。9 is a flowchart for explaining development processing according to the second embodiment. テストチャートの一例を示す図。The figure which shows an example of a test chart. ペイヤ配列を示す図。The figure which shows a payer arrangement | sequence. プレーン分割とゼロ挿入を説明する図。The figure explaining plane division | segmentation and zero insertion. デモザキングに用いるフィルタ例を示す図。The figure which shows the example of a filter used for demozaking. デモザイキングを説明する図。The figure explaining demosaicing. 「ラーメンノイズ」を説明する図。The figure explaining "ramen noise".

以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。   Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

[装置の構成]
図1は画像処理装置の構成例を示すブロック図である。
[Device configuration]
FIG. 1 is a block diagram illustrating a configuration example of an image processing apparatus.

CPU101は、メインメモリ102のRAMをワークメモリとして、メインメモリ102のROMおよびハードディスクドライブ(HDD)105に格納されたオペレーティングシステム(OS)や各種プログラムを実行する。そして、PCI (peripheral component interconnect)バスなどのシステムバス1114を介して各構成を制御する。さらに、後述する現像処理アプリケーションを含む各種プログラムを実行する。   The CPU 101 executes an operating system (OS) and various programs stored in the ROM of the main memory 102 and the hard disk drive (HDD) 105 using the RAM of the main memory 102 as a work memory. Each component is controlled via a system bus 1114 such as a PCI (peripheral component interconnect) bus. Further, various programs including a development processing application described later are executed.

CPU101は、システムバス1114およびシリアルATAインタフェイス(SATA I/F)103を介してHDD105にアクセスする。また、ネットワークI/F104を介してローカルエリアネットワーク(LAN)などのネットワーク1113にアクセスする。   The CPU 101 accesses the HDD 105 via the system bus 1114 and the serial ATA interface (SATA I / F) 103. Further, a network 1113 such as a local area network (LAN) is accessed via the network I / F 104.

以下では、現像処理アプリケーション、画像データなどをHDD105から読み出すとして説明するが、ネットワーク1113上のサーバから読み出すこともできる。   In the following description, it is assumed that the development processing application, image data, and the like are read from the HDD 105, but can be read from a server on the network 1113.

また、CPU101は、後述する処理のユーザインタフェイスや処理結果をグラフィックアクセラレータ106を介してモニタ107に表示し、ユーザ指示をキーボード/マウスコントローラ110に接続されたキーボード1111、マウス1112を介して入力する。   Further, the CPU 101 displays a user interface and processing results of processing to be described later on the monitor 107 via the graphic accelerator 106, and inputs user instructions via the keyboard 1111 and mouse 1112 connected to the keyboard / mouse controller 110. .

また、CPU101は、画像データをUSB (Universal Serial Bus)コントローラ108を介してプリンタ109に出力して、例えばユーザが指示する画像を印刷する。   Further, the CPU 101 outputs the image data to the printer 109 via a USB (Universal Serial Bus) controller 108, and prints an image instructed by the user, for example.

[画像処理]
図2は実施例1の現像処理アプリケーションによる処理の概要を示す図で、現像処理は、処理1、処理2、処理3に大別される。
[Image processing]
FIG. 2 is a diagram showing an outline of processing by the development processing application of the first embodiment. Development processing is roughly divided into processing 1, processing 2, and processing 3.

詳細は後述するが、処理1において、表示画像113上で指定された、現像処理パラメータを調整する際の参照領域121のRAWデータ114を取得する。次に、処理2において、参照領域121と他の領域の間で相関を算出する。そして、処理3において、相関が高い画像領域を表示する。   Although details will be described later, in processing 1, the RAW data 114 of the reference area 121 when adjusting the development processing parameters specified on the display image 113 is acquired. Next, in process 2, a correlation is calculated between the reference area 121 and another area. Then, in process 3, an image area having a high correlation is displayed.

図3は実施例1の現像処理を説明するフローチャートで、CPU101が実行する処理である。   FIG. 3 is a flowchart for explaining the developing process according to the first embodiment, which is a process executed by the CPU 101.

CPU101は、現像処理すべきRAWデータ111を取得し(S101)、RAWデータ111をデモザイキングした画像112を生成する(S102)。なお、例えば3CCDや、RGB画像を順次撮影する、単板式のディジタルカメラなどはデモザイキングを行う必要はなく、ステップS102の処理は省略してよい。   The CPU 101 acquires the RAW data 111 to be developed (S101), and generates an image 112 obtained by demosaicing the RAW data 111 (S102). For example, a 3CCD or a single-panel digital camera that sequentially captures RGB images need not be demosaiced, and the processing in step S102 may be omitted.

次に、CPU101は、デモザイキングした画像112に画像処理130を施して表示画像113を生成し、モニタ107に表示する(S103)。そして、表示画像113上の参照領域121を示すユーザ指示を取得し(S104)、RAWデータ111から参照領域121に対応する参照RAWデータ114を取得する(S105)。   Next, the CPU 101 performs image processing 130 on the demosaiced image 112 to generate a display image 113 and displays it on the monitor 107 (S103). Then, a user instruction indicating the reference area 121 on the display image 113 is acquired (S104), and reference RAW data 114 corresponding to the reference area 121 is acquired from the RAW data 111 (S105).

次に、CPU101は、現像処理パラメータに対するユーザの調整指示を入力し(S106)、調整後の現像処理パラメータを使用して参照RAWデータ114を現像処理する。そして、現像処理後の参照領域121の画像を表示画像113上に表示する(S107)。その際、参照領域121に枠を表示するなど、ユーザが参照領域121を認識し易いように表示することが好ましい。   Next, the CPU 101 inputs a user adjustment instruction for the development processing parameter (S106), and develops the reference RAW data 114 using the adjusted development processing parameter. Then, the image of the reference area 121 after the development processing is displayed on the display image 113 (S107). At this time, it is preferable to display the reference area 121 so that the user can easily recognize it, for example, by displaying a frame in the reference area 121.

つまり、ステップS101からS107が処理1に対応する。   That is, steps S101 to S107 correspond to process 1.

次に、CPU101は、参照領域121以外の領域を相関の検出対象の領域122とし、相関の検出対象の領域122に対応するRAWデータ115をRAWデータ111から取得する(S108)。そして、参照領域121以外の各領域においてRAWデータ115と参照RAWデータ114との相関を算出する(S109)。   Next, the CPU 101 sets a region other than the reference region 121 as the correlation detection target region 122, and acquires the RAW data 115 corresponding to the correlation detection target region 122 from the RAW data 111 (S108). Then, the correlation between the RAW data 115 and the reference RAW data 114 is calculated in each area other than the reference area 121 (S109).

つまり、ステップS108、S109が処理2に対応する。   That is, steps S108 and S109 correspond to process 2.

次に、CPU101は、参照領域121において調整された現像処理パラメータを用いて、参照領域121と相関が高い(類似する)領域116(以下、類似領域)のRAWデータを現像処理する。そして、現像処理後の類似領域116の画像を表示画像113上に表示する(S110)。その際、類似領域116に枠を表示するなど、ユーザが類似領域116を認識し易いように表示することが好ましい。   Next, the CPU 101 uses the development processing parameters adjusted in the reference area 121 to develop RAW data in an area 116 (hereinafter referred to as a similar area) having a high correlation (similarity) with the reference area 121. Then, the image of the similar region 116 after the development processing is displayed on the display image 113 (S110). At this time, it is preferable to display the similar region 116 so that the user can easily recognize the similar region 116, such as displaying a frame in the similar region 116.

つまり、ステップS110が処理3に対応する。   That is, step S110 corresponds to process 3.

次に、CPU101は、例えばユーザが終了を示すボタンを押して終了を指示したなど、現像処理パラメータの調整が終了したか否かを判定し(S111)、未了の場合は処理をステップS104に戻す。   Next, the CPU 101 determines whether or not the development process parameter adjustment has been completed, for example, when the user has pressed the end button to instruct the end (S111). If not completed, the process returns to step S104. .

[相関の算出]
図4は相関の算出(S109)を説明するフローチャートである。
[Calculation of correlation]
FIG. 4 is a flowchart for explaining the calculation of correlation (S109).

CPU101は、相関を算出する領域(以下、比較領域)を決定する(S201)。なお、相関の検出対象のRAWデータ115の全域で相関を計算することが望ましいが、所定の画素間隔で相関を計算してもよい。あるいは、相関を算出する領域をユーザが指定するなど、必要に応じて相関を算出する領域を限定してもよい。なお、相関を算出する領域のサイズは、参照領域121と同じサイズにする。   The CPU 101 determines an area for calculating the correlation (hereinafter referred to as a comparison area) (S201). Although it is desirable to calculate the correlation over the entire area of the RAW data 115 to be detected for correlation, the correlation may be calculated at a predetermined pixel interval. Or you may limit the area | region which calculates a correlation as needed, such as a user specifying the area | region which calculates a correlation. The size of the area for calculating the correlation is the same as that of the reference area 121.

次に、CPU101は、相関の検出対象の領域に対応するRAWデータ115から、比較領域のRAWデータを抽出して比較RAWデータとする(S202)。例えば参照領域121が5×5画素の場合、比較領域も5×5画素である。   Next, the CPU 101 extracts the RAW data in the comparison area from the RAW data 115 corresponding to the correlation detection area, and sets it as comparison RAW data (S202). For example, when the reference area 121 is 5 × 5 pixels, the comparison area is also 5 × 5 pixels.

次に、CPU101は、参照RAWデータ114と比較RAWデータの相関を算出する(S203)。相関の算出は式(1)により行う。
Corr = ΣiΣjIref(i, j)Icomp(i, j) …(1)
ここで、Corrは相関値、
iは縦方向の画素位置を表すインデックス、
jは横方向の画素位置を表すインデックス、
Irefは参照RAWデータの画素(i, j)の値、
Icompは比較RAWデータの画素(i, j)の値。
Next, the CPU 101 calculates the correlation between the reference RAW data 114 and the comparative RAW data (S203). The calculation of the correlation is performed by equation (1).
Corr = Σ i Σ j Iref (i, j) Icomp (i, j)… (1)
Where Corr is the correlation value,
i is an index representing the pixel position in the vertical direction,
j is an index indicating the pixel position in the horizontal direction,
Iref is the value of pixel (i, j) of the reference RAW data,
Icomp is the pixel (i, j) value of the comparative RAW data.

相関の算出に式(2)やその他の算出方法を用いてもよい。さらに、撮像機器が単板式でなく、例えばベイヤ配列のRGBデータをRAWデータとして記録する方式の場合は、Gに対応する画素のみを対象として相関を算出してもよい。
Corr = ΣiΣj{Iref(i, j) - Irefave}{Icomp(i, j) - Icompave} …(2)
ここで、Corrは相関値、
Irefaveは参照RAWデータの平均値、
Icompaveは比較RAWデータの平均値。
Equation (2) or other calculation methods may be used for calculating the correlation. Further, when the imaging device is not a single-plate type, for example, a method of recording Bayer array RGB data as RAW data, the correlation may be calculated only for pixels corresponding to G.
Corr = Σ i Σ j {Iref (i, j)-Iref ave } {Icomp (i, j)-Icomp ave }… (2)
Where Corr is the correlation value,
Iref ave is the average value of the reference RAW data,
Icomp ave is the average value of comparative RAW data.

次に、CPU101は、相関を算出すべき領域の相関を算出したか否かを判定し(S204)、相関の算出が未了の領域がなくなるまでステップS201からS203の処理を繰り返す。   Next, the CPU 101 determines whether or not the correlation of the area for which the correlation is to be calculated has been calculated (S204), and repeats the processing from step S201 to S203 until there is no area for which the correlation calculation has not been completed.

相関の算出が終了すると、CPU101は、相関値が所定値を超える領域を類似領域116に決定する(S205)。なお、類似領域116は、参照領域121と同じサイズになるとは限らない。つまり、隣接する比較領域がともに類似領域であれば、それらを結合した領域を類似領域116にする。   When the calculation of the correlation is completed, the CPU 101 determines the region where the correlation value exceeds the predetermined value as the similar region 116 (S205). Note that the similar area 116 is not necessarily the same size as the reference area 121. That is, if adjacent comparison regions are both similar regions, the region obtained by combining them is set as the similar region 116.

図2には示さないが、CPU101は、調整後の現像処理パラメータを使用して現像処理した参照領域121の画像と、類似領域116の画像を表示画像113上に表示する。従って、ユーザは、調整後の現像処理パラメータが参照領域121に対して適切か否かを知ることができる。その上、参照領域112との相関が高い類似領域116と、類似領域116の画像に当該現像処理パラメータがどう影響するか(または影響しないか)を目視で評価することができる。その際、CPU101は、参照領域112との相関が低い領域に対しては画像処理を行わないため、当該現像処理パラメータを用いてRAWデータ111(画像全体)を処理する場合に比べて処理効率を向上することができる。   Although not shown in FIG. 2, the CPU 101 displays an image of the reference area 121 and an image of the similar area 116 that have been developed using the adjusted development processing parameters on the display image 113. Therefore, the user can know whether or not the adjusted development processing parameter is appropriate for the reference area 121. In addition, it is possible to visually evaluate the similar region 116 having a high correlation with the reference region 112 and how the development processing parameter affects (or does not affect) the image in the similar region 116. At that time, since the CPU 101 does not perform image processing on an area having a low correlation with the reference area 112, the processing efficiency is higher than when processing the RAW data 111 (entire image) using the development processing parameter. Can be improved.

例えば、人物の頭髪部(参照領域)など空間周波数が高い画像領域をエッジ強調する際、頭上の空(非類似領域)などの比較的空間周波数が低い画像領域の処理効果を確認する必要は少ない。参照領域121および類似する領域116を提示し、当該領域の現像処理結果を表示することで、CPU101の処理負荷を低減することができる。   For example, when edge enhancement is performed on an image region having a high spatial frequency such as a human hair (reference region), there is little need to confirm the processing effect of an image region having a relatively low spatial frequency such as an overhead sky (dissimilar region). By presenting the reference area 121 and the similar area 116 and displaying the development processing result of the area, the processing load on the CPU 101 can be reduced.

類似領域116の検出を、現像後の画像同士の比較ではなく、RAWデータの比較に基づき行うメリットを説明する。そのため、まず、現像処理による画質劣化について説明する。   The merit of detecting the similar region 116 based on comparison of RAW data, not comparison of developed images, will be described. Therefore, first, image quality deterioration due to development processing will be described.

現像処理による画質劣化として、実際の被写体には存在しない模様が発生する場合がある。モアレも現像処理による画質劣化の一つである。また、モアレ以外にも現像処理の方法によっては「ラーメンノイズ」と呼ばれる画質劣化が発生する場合がある。「ラーメンノイズ」は、図12(a)に示すような細線が密集する被写体を撮影した場合、現像後の画像において、図12(b)に示すように、細線同士が画素レベルで渦巻き状につながる画質劣化である。   A pattern that does not exist in an actual subject may occur as image quality degradation due to development processing. Moire is one of the image quality degradations caused by development processing. In addition to moire, image quality degradation called “ramen noise” may occur depending on the development processing method. `` Ramen noise '' means that when a subject with dense lines as shown in Fig. 12 (a) is photographed, the fine lines are spiraled at the pixel level as shown in Fig. 12 (b) in the developed image. It is connected image quality degradation.

このような現像処理による画質劣化は、現像後の画像から検出することは困難である。何故ならば、現像後の画像を観察した場合、被写体がそもそも「ラーメンノイズ」に類似する模様を有するのか、現像処理によって「ラーメンノイズ」が発生したのか、の区別がつかないからである。現像後の画像から類似領域116を検出するのではなく、RAWデータで類似領域116を検出すれば上記の問題は解決する。つまり、RAWデータの時点で類似していれば、現像処理を施した結果も類似するためである。   Such image quality degradation due to development processing is difficult to detect from an image after development. This is because, when an image after development is observed, it cannot be distinguished whether the subject has a pattern similar to “ramen noise” or whether “ramen noise” has occurred due to the development process. If the similar region 116 is detected from the RAW data instead of detecting the similar region 116 from the developed image, the above problem is solved. That is, if the RAW data is similar at the time, the result of the development processing is also similar.

以下、本発明にかかる実施例2の画像処理を説明する。なお、実施例2において、実施例1と略同様の構成については、同一符号を付して、その詳細説明を省略する。   The image processing according to the second embodiment of the present invention will be described below. Note that the same reference numerals in the second embodiment denote the same parts as in the first embodiment, and a detailed description thereof will be omitted.

実施例1では、一つの撮影画像に対して現像処理パラメータを調整する例を説明した。実施例2では、複数の撮影画像に共通する現像処理パラメータを調整する方法を説明する。複数の撮影画像に共通する現像処理パラメータを使用する場合、類似領域は一つの撮影画像に限らず、他の撮影画像にも含まれる。   In the first embodiment, the example in which the development processing parameter is adjusted for one captured image has been described. In the second embodiment, a method for adjusting development processing parameters common to a plurality of captured images will be described. When using development processing parameters common to a plurality of captured images, the similar region is not limited to one captured image, but is included in other captured images.

図5は実施例2の現像処理アプリケーションによる処理の概要を示す図で、現像処理は、処理1、処理2、処理3に大別される。   FIG. 5 is a diagram showing an outline of processing by the development processing application of the second embodiment. The development processing is roughly divided into processing 1, processing 2, and processing 3.

処理1、3は実施例1と同様である。処理2において、現像処理する複数の撮影画像に含まれ、参照領域121を含む画像(以下、参照画像)とは異なる撮影画像132との間で相関を算出する。   Processes 1 and 3 are the same as those in the first embodiment. In the process 2, a correlation is calculated between a captured image 132 that is included in a plurality of captured images to be developed and includes a reference region 121 (hereinafter referred to as a reference image).

図6は実施例2の現像処理を説明するフローチャートで、CPU101が実行する処理である。   FIG. 6 is a flowchart for explaining the developing process according to the second embodiment, which is a process executed by the CPU 101.

ステップS101からS107の処理1は図3に示す実施例1の処理と同様である。   Process 1 from steps S101 to S107 is the same as the process of the first embodiment shown in FIG.

次に、CPU101は、現像処理する複数の撮影画像に含まれ、参照画像とは異なる撮影画像(以下、比較画像)を選択して、比較画像のRAWデータ131を取得する(S301)。そして、比較画像の各領域においてRAWデータ131と参照RAWデータ114の相関を算出する(S302)。なお、比較画像は、例えば、ユーザ入力などに基づき選択すればよい。   Next, the CPU 101 selects a captured image (hereinafter referred to as a comparative image) that is included in the plurality of captured images to be developed and is different from the reference image, and acquires the RAW data 131 of the comparative image (S301). Then, the correlation between the RAW data 131 and the reference RAW data 114 is calculated in each area of the comparison image (S302). The comparison image may be selected based on, for example, user input.

つまり、ステップS301、S302が処理2に対応する。   That is, steps S301 and S302 correspond to process 2.

次に、CPU101は、参照領域121において調整された現像処理パラメータを用いて、類似領域116のRAWデータを現像処理する。そして、現像処理後の類似領域116の画像を別ウィンドウに表示した表示画像132上に表示する(S303)。その際、類似領域116に枠を表示するなど、ユーザが類似領域116を認識し易いように表示することが好ましい。また、比較画像が複数有る場合は、比較画像の数分のウィンドウに類似領域116を示す表示画像132を表示するか、ユーザがスクロールバーなどを操作して複数の比較画像を観察できるようにすればよい。   Next, the CPU 101 develops the RAW data in the similar area 116 using the development processing parameters adjusted in the reference area 121. Then, the image of the similar region 116 after the development processing is displayed on the display image 132 displayed in another window (S303). At this time, it is preferable to display the similar region 116 so that the user can easily recognize the similar region 116, such as displaying a frame in the similar region 116. In addition, when there are a plurality of comparison images, display images 132 indicating the similar regions 116 are displayed in a window corresponding to the number of comparison images, or the user can operate the scroll bar or the like to observe the plurality of comparison images. That's fine.

つまり、ステップS303が処理3に対応する。   That is, step S303 corresponds to process 3.

次に、CPU101は、例えばユーザが終了を示すボタンを押して終了を指示したなど、現像処理パラメータの調整が終了したか否かを判定し(S111)、未了の場合は処理をステップS104に戻す。   Next, the CPU 101 determines whether or not the development process parameter adjustment has been completed, for example, when the user has pressed the end button to instruct the end (S111). If not completed, the process returns to step S104. .

なお、詳細な説明は省略するが、現像処理アプリケーションは、実施例1の同一画像内の類似領域の処理も実行することは言うまでもない。   Although a detailed description is omitted, it goes without saying that the development processing application also executes processing of similar regions in the same image of the first embodiment.

[変形例]
実施例2においては、例えばユーザが指定する比較画像を取得し、比較画像の参照領域121と相関が高い類似領域116に、参照画像において調整した現像処理パラメータを適用する例を説明した。ここで、比較画像を、例えば図7に示すテストチャートなどの予め指定されたRAWデータにすることもできる。図7に示すテストチャートは、画像中央部で空間周波数が低く、画像周辺部で空間周波数が高い画像の一例である。なお、様々な空間周波数のパターンが記録されたテストチャートがあり、テスチャートの撮影、現像処理によって、画像処理の特性が一目で把握できる。
[Modification]
In the second embodiment, for example, a comparative image designated by the user is acquired, and the development processing parameter adjusted in the reference image is applied to the similar region 116 having a high correlation with the reference region 121 of the comparative image. Here, the comparison image may be RAW data designated in advance, such as a test chart shown in FIG. The test chart shown in FIG. 7 is an example of an image having a low spatial frequency at the center of the image and a high spatial frequency at the periphery of the image. There are test charts in which patterns of various spatial frequencies are recorded, and the characteristics of image processing can be grasped at a glance by taking and developing test charts.

このようなテストチャートを用いれば、ユーザは、現像処理パラメータを調整する際に、参照領域121と類似する空間周波数領域をテストチャートから知ることができる。言い換えれば、テストチャートにおける類似領域116を参照しつつ、現像処理パラメータを調整すれば、汎用的な現像処理パラメータを得ることができる。つまり、風景写真、ポートレートなど、通常の撮影画像における領域が、テストチャートの領域とどのように対応するかが把握できるため、汎用的な現像処理パラメータを効率的に調整することができる。   By using such a test chart, the user can know a spatial frequency region similar to the reference region 121 from the test chart when adjusting the development processing parameter. In other words, general-purpose development processing parameters can be obtained by adjusting development processing parameters while referring to the similar region 116 in the test chart. That is, since it is possible to grasp how the area in the normal photographed image such as a landscape photograph or a portrait corresponds to the area of the test chart, general-purpose development processing parameters can be adjusted efficiently.

[他の実施例]
なお、本発明は、複数の機器(例えばコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(例えば、複写機、ファクシミリ装置、制御装置など)に適用してもよい。
[Other embodiments]
Note that the present invention can be applied to a system composed of a plurality of devices (for example, a computer, an interface device, a reader, a printer, etc.), or a device (for example, a copier, a facsimile machine, a control device) composed of a single device. Etc.).

また、本発明の目的は、上記実施例の機能を実現するコンピュータプログラムを記録した記録媒体または記憶媒体をシステムまたは装置に供給する。そして、そのシステムまたは装置のコンピュータ(CPUやMPU)が前記コンピュータプログラムを実行することでも達成される。この場合、記録媒体から読み出されたソフトウェア自体が上記実施例の機能を実現することになり、そのコンピュータプログラムと、そのコンピュータプログラムを記憶する、コンピュータが読み取り可能な記録媒体は本発明を構成する。   Another object of the present invention is to supply a recording medium or a recording medium recording a computer program for realizing the functions of the above embodiments to a system or apparatus. This can also be achieved by the computer (CPU or MPU) of the system or apparatus executing the computer program. In this case, the software read from the recording medium itself realizes the functions of the above embodiments, and the computer program and the computer-readable recording medium storing the computer program constitute the present invention. .

また、前記コンピュータプログラムの実行により上記機能が実現されるだけではない。つまり、そのコンピュータプログラムの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)および/または第一の、第二の、第三の、…プログラムなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   Further, the above functions are not only realized by the execution of the computer program. That is, according to the instruction of the computer program, the operating system (OS) and / or the first, second, third,... This includes the case where the above function is realized.

また、前記コンピュータプログラムがコンピュータに接続された機能拡張カードやユニットなどのデバイスのメモリに書き込まれていてもよい。つまり、そのコンピュータプログラムの指示により、第一の、第二の、第三の、…デバイスのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。   The computer program may be written in a memory of a device such as a function expansion card or unit connected to the computer. That is, it includes the case where the CPU of the first, second, third,... Device performs part or all of the actual processing according to the instructions of the computer program, thereby realizing the above functions.

本発明を前記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応または関連するコンピュータプログラムが格納される。   When the present invention is applied to the recording medium, the recording medium stores a computer program corresponding to or related to the flowchart described above.

Claims (16)

RAW画像から表示画像を生成する画像処理手段と、
前記表示画像の中の参照領域を示す指示、および、前記参照領域に対する現像処理パラメータの指示を入力する入力手段と、
前記RAW画像から、前記RAW画像の中の前記参照領域と相関が高い画像領域を類似領域として抽出する抽出手段と、
前記参照領域に対応するRAW画像および前記類似領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記表示画像の上に表示する表示手段とを有する画像処理装置。
Image processing means for generating a display image from a RAW image;
An input means for inputting an instruction indicating a reference area in the display image, and an instruction of a development processing parameter for the reference area;
Extraction means for extracting an image area having a high correlation with the reference area in the RAW image as a similar area from the RAW image,
An image processing apparatus comprising: a display unit configured to display an image generated by applying the development processing parameter to a RAW image corresponding to the reference area and a RAW image corresponding to the similar area on the display image.
前記抽出手段は、前記RAW画像のGプレーンに対応する画素のみを対象として前記相関をとる請求項1に記載された画像処理装置。   2. The image processing apparatus according to claim 1, wherein the extraction unit takes the correlation only for pixels corresponding to a G plane of the RAW image. RAW画像から表示画像を生成する画像処理手段と、
前記表示画像の中の参照領域を示す指示、および、前記参照領域に対する現像処理パラメータの指示を入力する入力手段と、
予め指定された画像から、前記RAW画像の中の前記参照領域と相関が高い画像領域を類似領域として抽出する抽出手段と、
前記参照領域に対応するRAW画像および前記類似領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記表示画像の上に表示する前記表示手段とを有する画像処理装置。
Image processing means for generating a display image from a RAW image;
An input means for inputting an instruction indicating a reference area in the display image, and an instruction of a development processing parameter for the reference area;
Extraction means for extracting an image area having a high correlation with the reference area in the RAW image as a similar area from a pre-designated image;
An image processing apparatus comprising: a display unit configured to display an image generated by applying the development processing parameter to a RAW image corresponding to the reference area and a RAW image corresponding to the similar area on the display image.
前記予め指定された画像は、画像の中央部で空間周波数が低く、画像周辺部ほど空間周波数が高いテストチャートである請求項3に記載された画像処理装置。   4. The image processing apparatus according to claim 3, wherein the predesignated image is a test chart having a lower spatial frequency at a central portion of the image and a higher spatial frequency at a peripheral portion of the image. RAW画像から表示画像を生成する画像処理手段と、
RAW画像である参照画像から生成された表示画像の中の参照領域を示す指示、および、前記参照領域に対する現像処理パラメータの指示を入力する入力手段と、
前記参照画像とは異なるRAW画像である比較画像から、前記RAW画像である参照画像の中の前記参照領域と相関が高い画像領域を類似領域として抽出する抽出手段と、
前記参照領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記参照画像の表示画像の上に表示し、前記類似領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記比較画像の表示画像の上に表示する表示手段とを有する画像処理装置。
Image processing means for generating a display image from a RAW image;
An input means for inputting an instruction indicating a reference area in a display image generated from a reference image which is a RAW image, and an instruction of a development processing parameter for the reference area;
Extraction means for extracting, as a similar region, an image region having a high correlation with the reference region in the reference image that is the RAW image, from a comparison image that is a RAW image different from the reference image,
An image generated by applying the development processing parameter to the RAW image corresponding to the reference area is displayed on the display image of the reference image, and the development processing parameter is applied to the RAW image corresponding to the similar area. An image processing apparatus comprising: display means for displaying the generated image on the display image of the comparison image.
前記表示手段は、前記参照領域に枠を表示する請求項1から請求項5の何れか一項に記載された画像処理装置。   6. The image processing apparatus according to claim 1, wherein the display unit displays a frame in the reference area. 前記表示手段は、前記類似領域に枠を表示する請求項1から請求項6の何れか一項に記載された画像処理装置。   7. The image processing apparatus according to claim 1, wherein the display unit displays a frame in the similar region. 前記画像処理手段は、前記RAW画像をデモザイキングして前記表示画像を生成する請求項1から請求項7の何れか一項に記載された画像処理装置。   8. The image processing apparatus according to claim 1, wherein the image processing unit generates the display image by demosaicing the RAW image. 前記表示手段は、前記参照領域と前記類似領域を除くRAW画像に前記現像処理パラメータを適用しない請求項1から請求項8の何れか一項に記載された画像処理装置。   9. The image processing apparatus according to claim 1, wherein the display unit does not apply the development processing parameter to a RAW image excluding the reference area and the similar area. 前記現像処理パラメータには、エッジ強調の処理パラメータ、ぼかし処理のパラメータ、色の調整のパラメータ、および、前記デモザイキングに関するパラメータの少なくとも一つが含まれる請求項1から請求項9の何れか一項に記載された画像処理装置。   10. The development processing parameter includes at least one of an edge enhancement processing parameter, a blurring processing parameter, a color adjustment parameter, and a parameter related to the demosaicing. The described image processing apparatus. 前記抽出手段は、隣接する前記類似領域を結合する請求項1から請求項10の何れか一項に記載された画像処理装置。   11. The image processing apparatus according to claim 1, wherein the extraction unit combines adjacent similar regions. RAW画像から表示画像を生成し、
前記表示画像の中の参照領域を示す指示、および、前記参照領域に対する現像処理パラメータの指示を入力し、
前記RAW画像から、前記RAW画像の中の前記参照領域と相関が高い画像領域を類似領域として抽出し、
前記参照領域に対応するRAW画像および前記類似領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記表示画像の上に表示することを特徴とする画像処理方法。
Generate display image from RAW image,
Input an instruction indicating a reference area in the display image, and an instruction of a development processing parameter for the reference area,
From the RAW image, an image area having a high correlation with the reference area in the RAW image is extracted as a similar area,
An image processing method, wherein an image generated by applying the development processing parameter to a RAW image corresponding to the reference area and a RAW image corresponding to the similar area is displayed on the display image.
RAW画像から表示画像を生成し、
前記表示画像の中の参照領域を示す指示、および、前記参照領域に対する現像処理パラメータの指示を入力し、
予め指定された画像から、前記RAW画像の中の前記参照領域と相関が高い画像領域を類似領域として抽出し、
前記参照領域に対応するRAW画像および前記類似領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記表示画像の上に表示する画像処理方法。
Generate display image from RAW image,
Input an instruction indicating a reference area in the display image, and an instruction of a development processing parameter for the reference area,
From the image specified in advance, an image area having a high correlation with the reference area in the RAW image is extracted as a similar area,
An image processing method for displaying an image generated by applying the development processing parameter to a RAW image corresponding to the reference area and a RAW image corresponding to the similar area on the display image.
RAW画像から表示画像を生成し、
RAW画像である参照画像から生成された表示画像の中の参照領域を示す指示、および、前記参照領域に対する現像処理パラメータの指示を入力し、
前記参照画像とは異なるRAW画像である比較画像から、前記RAW画像である参照画像の中の前記参照領域と相関が高い画像領域を類似領域として抽出し、
前記参照領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記参照画像の表示画像の上に表示し、前記類似領域に対応するRAW画像に前記現像処理パラメータを適用して生成した画像を前記比較画像の表示画像の上に表示する画像処理方法。
Generate display image from RAW image,
An instruction indicating a reference area in a display image generated from a reference image which is a RAW image, and an instruction of a development processing parameter for the reference area are input.
From a comparison image that is a RAW image different from the reference image, an image region having a high correlation with the reference region in the reference image that is the RAW image is extracted as a similar region,
An image generated by applying the development processing parameter to the RAW image corresponding to the reference area is displayed on the display image of the reference image, and the development processing parameter is applied to the RAW image corresponding to the similar area. An image processing method for displaying a generated image on a display image of the comparison image.
コンピュータを請求項1から請求項11の何れか一項に記載された画像処理装置の各手段として機能させるためのプログラム。   12. A program for causing a computer to function as each unit of the image processing apparatus according to any one of claims 1 to 11. 請求項15に記載されたプログラムが格納されたコンピュータが読み取り可能な記録媒体。   16. A computer-readable recording medium in which the program according to claim 15 is stored.
JP2013052404A 2013-03-14 2013-03-14 Image processing apparatus and method Expired - Fee Related JP5539561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013052404A JP5539561B2 (en) 2013-03-14 2013-03-14 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013052404A JP5539561B2 (en) 2013-03-14 2013-03-14 Image processing apparatus and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008186503A Division JP2010026734A (en) 2008-07-17 2008-07-17 Image processor and its method

Publications (2)

Publication Number Publication Date
JP2013127819A true JP2013127819A (en) 2013-06-27
JP5539561B2 JP5539561B2 (en) 2014-07-02

Family

ID=48778263

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013052404A Expired - Fee Related JP5539561B2 (en) 2013-03-14 2013-03-14 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP5539561B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020241855A1 (en) * 2019-05-31 2020-12-03

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11275351A (en) * 1998-03-19 1999-10-08 Fuji Photo Film Co Ltd Image processing method
JP2004040559A (en) * 2002-07-04 2004-02-05 Fuji Photo Film Co Ltd Method and program for processing image and image processor
JP2006311108A (en) * 2005-04-27 2006-11-09 Fuji Photo Film Co Ltd Image processor, image processing method, image processing program and camera
JP2007150491A (en) * 2005-11-25 2007-06-14 Nikon Corp Camera, and image control program
JP2007189426A (en) * 2006-01-12 2007-07-26 Fujifilm Corp Image output apparatus and image output method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11275351A (en) * 1998-03-19 1999-10-08 Fuji Photo Film Co Ltd Image processing method
JP2004040559A (en) * 2002-07-04 2004-02-05 Fuji Photo Film Co Ltd Method and program for processing image and image processor
JP2006311108A (en) * 2005-04-27 2006-11-09 Fuji Photo Film Co Ltd Image processor, image processing method, image processing program and camera
JP2007150491A (en) * 2005-11-25 2007-06-14 Nikon Corp Camera, and image control program
JP2007189426A (en) * 2006-01-12 2007-07-26 Fujifilm Corp Image output apparatus and image output method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020241855A1 (en) * 2019-05-31 2020-12-03
WO2020241855A1 (en) * 2019-05-31 2020-12-03 富士フイルム株式会社 Image processing device, image processing method, and image processing program
JP7114807B2 (en) 2019-05-31 2022-08-08 富士フイルム株式会社 Image processing device, image processing method, and image processing program
JP7321336B2 (en) 2019-05-31 2023-08-04 富士フイルム株式会社 Image processing device, image processing method, and image processing program

Also Published As

Publication number Publication date
JP5539561B2 (en) 2014-07-02

Similar Documents

Publication Publication Date Title
US8941749B2 (en) Image processing apparatus and method for image synthesis
US9538085B2 (en) Method of providing panoramic image and imaging device thereof
JP5984493B2 (en) Image processing apparatus, image processing method, imaging apparatus, and program
JP2008022240A (en) Photographing device, image processor, image file generating method, image processing method, and image processing program
JP2015197745A (en) Image processing apparatus, imaging apparatus, image processing method, and program
EP2219366B1 (en) Image capturing device, image capturing method, and image capturing program
US8922681B2 (en) Image processing device that performs image processing to correct target pixels in a region surrounding a defective pixel
JP6319972B2 (en) Image processing apparatus, imaging apparatus, image processing method, and program
JP6071419B2 (en) Image processing apparatus and image processing method
JP6711396B2 (en) Image processing device, imaging device, image processing method, and program
JP6656035B2 (en) Image processing apparatus, imaging apparatus, and control method for image processing apparatus
JP2010026734A (en) Image processor and its method
JP2007096437A (en) Determination of image creator's intention
JP2019110430A (en) Control apparatus, imaging apparatus, control method, and program
US8837866B2 (en) Image processing apparatus and method for controlling image processing apparatus
JP2016111568A (en) Image blur correction control device, imaging apparatus, control method and program thereof
JP5539561B2 (en) Image processing apparatus and method
JP7183015B2 (en) Image processing device, image processing method, and program
JP6245847B2 (en) Image processing apparatus and image processing method
JP6218520B2 (en) Image processing apparatus, image processing method, and program
JP6818585B2 (en) Image processing device, image processing method, and program
JP2017204787A (en) Image processing apparatus, control method thereof, imaging apparatus, and program
JP7057159B2 (en) Image processing equipment, image processing methods and programs
JP2021005798A (en) Imaging apparatus, control method of imaging apparatus, and program
WO2019012647A1 (en) Image processing device, image processing method, and program storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140331

R151 Written notification of patent or utility model registration

Ref document number: 5539561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140430

LAPS Cancellation because of no payment of annual fees