JP2024049798A - Image processing apparatus, image processing method, and computer program - Google Patents

Image processing apparatus, image processing method, and computer program Download PDF

Info

Publication number
JP2024049798A
JP2024049798A JP2022156253A JP2022156253A JP2024049798A JP 2024049798 A JP2024049798 A JP 2024049798A JP 2022156253 A JP2022156253 A JP 2022156253A JP 2022156253 A JP2022156253 A JP 2022156253A JP 2024049798 A JP2024049798 A JP 2024049798A
Authority
JP
Japan
Prior art keywords
image
pixel
frequency
real space
saturated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022156253A
Other languages
Japanese (ja)
Inventor
弘基 沖野
Hiroki Okino
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022156253A priority Critical patent/JP2024049798A/en
Publication of JP2024049798A publication Critical patent/JP2024049798A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

To provide an image processing apparatus for synthesizing a plurality of images while properly suppressing image quality adverse effect.SOLUTION: An image processing apparatus includes: frequency space transformation means which transforms a first real-space image and a second real-space image to frequency spaces, respectively, to generate a first frequency image and a second frequency image; synthesis means which synthesizes the first frequency image with the second frequency image based on frequency components, to generate a third frequency image; real space transformation means which transforms the third frequency image into a real space to obtain a third real-space image; saturated pixel determination means which determines a saturated pixel in the first real-space image; and correction means which corrects a pixel value of a corresponding pixel, which is a pixel of the third real-space image located in coordinates corresponding to the saturated pixel, so as to be close to a pixel value of the saturated pixel.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法及びコンピュータプログラム等に関するものである。 The present invention relates to an image processing device, an image processing method, a computer program, etc.

デジタルカメラ等の撮像装置において、ノイズの少ない画像を得るためには、十分な露光時間を確保することが有効である。しかしながら露光時間を長くすると、手ぶれによるカメラの動きや、被写体の動きにより画像にぶれが生じる問題がある。 In imaging devices such as digital cameras, ensuring a sufficient exposure time is effective in obtaining images with little noise. However, if the exposure time is extended, there is a problem that the image will become blurred due to camera movement caused by camera shake or movement of the subject.

このようなぶれに対処する方式として電子ぶれ補正方式が提案されている。電子ぶれ補正方式では、ぶれの少ない短い露光時間で撮影を複数回連続して行い、得られた複数枚の画像を合成することで低ノイズの画像を得る。またこのとき、特許文献1に示されるように、画像間の差分が大きい領域で合成率を下げることにより、合成結果にて被写体が多重になる状態を抑制できる。これにより、ぶれの少ない画像を得ることができる。 An electronic blur correction method has been proposed as a method for dealing with this type of blur. With electronic blur correction, multiple images are taken in succession with short exposure times that cause less blur, and the resulting images are then synthesized to obtain a low-noise image. In addition, as shown in Patent Document 1, by lowering the synthesis rate in areas where there is a large difference between images, it is possible to prevent the subject from appearing multiple times in the synthesis result. This makes it possible to obtain an image with less blur.

又、非特許文献1に示されるように、周波数成分ごとに画像間の差分を計算し、差分の大きい周波数成分で合成率を下げることにより、被写体を良好に維持しながら低ノイズの画像を得る方法が知られている。 Also, as shown in Non-Patent Document 1, a method is known in which the difference between images is calculated for each frequency component, and the synthesis rate is lowered for frequency components with large differences, thereby obtaining a low-noise image while maintaining the subject in good condition.

特開2008-99260号公報JP 2008-99260 A

Samuel W Hasinoff, Dillon Sharlet, Ryan Geiss, Andrew Adams, Jonathan T. Barron, Florian Kainz, Jiawen Chen, Marc Levoy, “Burst photography for high dynamic range and low-light imaging on mobile cameras”, ACM Transactions on Graphics, Volume 35, Issue 6, November 2016, Article No.192, pp1-12Samuel W Hasinoff, Dillon Sharlet, Ryan Geiss, Andrew Adams, Jonathan T. Barron, Florian Kainz, Jiawen Chen, Marc Levoy, "Burst photography for high dynamic range and low-light imaging on mobile cameras", ACM Transactions on Graphics, Volume 35, Issue 6, November 2016, Article No. 192, pp. 1-12

しかし、周波数成分間で異なる合成率により合成を行う場合、合成結果にて特定の周波数成分の影響が相対的に強く又は弱くなりすぎることにより、本来の被写体にない波状の模様やリンギングが生じることがあった。特に、画像中の画素値が飽和している領域ではこの影響により飽和状態が解除され、画素値が一定である状態が崩れて画質弊害として目立つことがあった。 However, when combining frequency components with different combining rates, the influence of a particular frequency component in the combined result can become relatively strong or weak, resulting in wavy patterns or ringing that are not present in the original subject. In particular, in areas where the pixel values in the image are saturated, this effect can cause the saturation state to be released, disrupting the state in which the pixel values are constant and resulting in a noticeable impairment of image quality.

そこで本発明では、画質弊害を良好に抑制して複数の画像の合成を行うことができる画像処理装置を提供することを目的とする。 The present invention aims to provide an image processing device that can effectively suppress image quality degradation and synthesize multiple images.

本発明の画像処理装置は、
第1の実空間画像及び第2の実空間画像を夫々周波数空間に変換し第1の周波数画像及び第2の周波数画像を生成する周波数空間変換手段と、
周波数成分に基づいて前記第1の周波数画像と前記第2の周波数画像とを合成し、第3の周波数画像を生成する合成手段と、
前記第3の周波数画像を実空間に変換し第3の実空間画像を得る実空間変換手段と、
前記第1の実空間画像の飽和画素を判定する飽和画素判定手段と、
前記飽和画素に対応する座標の前記第3の実空間画像の画素である対応画素の画素値を前記飽和画素の画素値に近づけるように補正する補正手段と、を有することを特徴とする。
The image processing device of the present invention comprises:
a frequency space transforming means for transforming the first real space image and the second real space image into a frequency space to generate a first frequency image and a second frequency image, respectively;
a synthesis means for synthesizing the first frequency image and the second frequency image based on frequency components to generate a third frequency image;
a real space conversion means for converting the third frequency image into a real space to obtain a third real space image;
a saturated pixel determination means for determining saturated pixels of the first real space image;
and a correcting means for correcting a pixel value of a corresponding pixel, which is a pixel of the third real space image at a coordinate corresponding to the saturated pixel, so as to approach the pixel value of the saturated pixel.

本発明によれば、画質弊害を良好に抑制して複数の画像の合成を行うことができる画像処理装置を実現できる。 The present invention makes it possible to realize an image processing device that can effectively suppress image quality degradation and synthesize multiple images.

本発明の実施例1に係る画像処理装置の構成例を示すブロック図である。1 is a block diagram showing an example of the configuration of an image processing device according to a first embodiment of the present invention; 本発明の実施例1における画像処理部107における、複数フレームの画像信号の合成処理を行うための構成例を示す機能ブロック図である。2 is a functional block diagram showing an example of a configuration for performing synthesis processing of image signals of a plurality of frames in an image processing unit 107 according to the first embodiment of the present invention. FIG. 図2における合成部202の構成例を示す機能ブロック図である。3 is a functional block diagram showing an example of the configuration of a synthesis unit 202 in FIG. 2 . 小領域抽出部201aが抽出する複数の小領域の例を示す図である。2A to 2C are diagrams showing examples of a plurality of small regions extracted by a small region extraction unit 201a; 差分値Dと合成率SIG_RATIOとの対応関係を表すテーブルの例を示す図である。13 is a diagram showing an example of a table indicating the correspondence relationship between a difference value D and a synthesis rate SIG_RATIO. FIG. 実施例2の画像処理部107の基本的な構成例を示す機能ブロック図である。FIG. 11 is a functional block diagram showing an example of a basic configuration of an image processing unit 107 according to a second embodiment. 補正部602の構成例を示す機能ブロック図である。FIG. 6 is a functional block diagram showing an example of the configuration of a correction unit 602.

以下、図面を参照して本発明の実施の形態を、実施例を用いて説明する。ただし、本発明は以下の実施例に限定されるものではない。なお、各図において、同一の部材または要素については同一の参照番号を付し、重複する説明は省略または簡略化する。 The following describes the embodiment of the present invention using examples with reference to the drawings. However, the present invention is not limited to the following examples. In each drawing, the same members or elements are given the same reference numbers, and duplicate descriptions are omitted or simplified.

<実施例1>
図1は、本発明の実施例1に係る画像処理装置としての撮像装置100の構成例を示すブロック図である。以下、実施例1の構成例について図1を参照して説明する。
Example 1
1 is a block diagram showing a configuration example of an image capture device 100 as an image processing device according to a first embodiment of the present invention. The configuration example of the first embodiment will be described below with reference to FIG.

尚、実施例1では、画像処理装置として撮像装置100の例を示すが、画像処理装置はこれに限定されるものではない。例えば、パーソナルコンピュータ、アプリケーションサーバーなどの画像処理装置により本発明に係る画像処理を実行しても良い。 In the first embodiment, the imaging device 100 is shown as an example of an image processing device, but the image processing device is not limited to this. For example, the image processing according to the present invention may be performed by an image processing device such as a personal computer or an application server.

制御部101は、例えばCPUであり、撮像装置100が備える各ブロックに対する制御プログラムを後述のROM102より読み出し、後述のRAM103に展開して実行する。これにより、制御部101は、撮像装置100が備える各ブロックの動作を制御する。 The control unit 101 is, for example, a CPU, and reads out a control program for each block of the imaging device 100 from a ROM 102 (described later), and deploys it in a RAM 103 (described later) for execution. In this way, the control unit 101 controls the operation of each block of the imaging device 100.

ROM102は、電気的に消去・記録可能な不揮発性メモリであり、撮像装置100が備える各ブロックの動作プログラムに加え、各ブロックの動作に必要なパラメータ等を記憶する。 The ROM 102 is a non-volatile memory that can be electrically erased and recorded, and stores the operating programs of each block of the imaging device 100 as well as parameters required for the operation of each block.

RAM103は、書き換え可能な揮発性メモリであり、制御部101等が実行するプログラムの展開や、撮像装置100が備える各ブロックの動作で生成等されたデータの一時的な記憶等に用いられる。 RAM 103 is a rewritable volatile memory, and is used for expanding programs executed by the control unit 101, etc., and for temporarily storing data generated by the operation of each block of the imaging device 100, etc.

光学系104は、ズームレンズ、フォーカスレンズを含むレンズ群で構成され、被写体像を後述の撮像部105の撮像面上に結像する。撮像部105は、例えばCCDセンサーやCMOSセンサー等の撮像素子であり、光学系104により撮像部105の撮像面上に結像された光学像を光電変換し、得られたアナログ画像信号をA/D変換部106に出力する。 The optical system 104 is composed of a group of lenses including a zoom lens and a focus lens, and forms an image of a subject on the imaging surface of the imaging unit 105 described below. The imaging unit 105 is an imaging element such as a CCD sensor or a CMOS sensor, and photoelectrically converts the optical image formed on the imaging surface of the imaging unit 105 by the optical system 104, and outputs the obtained analog image signal to the A/D conversion unit 106.

A/D変換部106は、入力されたアナログ画像信号をデジタル画像データに変換する。A/D変換部106から出力されたデジタル画像データは、RAM103に一時的に記憶される。 The A/D conversion unit 106 converts the input analog image signal into digital image data. The digital image data output from the A/D conversion unit 106 is temporarily stored in the RAM 103.

画像処理部107は、RAM103に記憶されている画像データに対して、各種画像処理を行う。具体的には、例えば、デモザイキング処理、ホワイトバランス補正処理、ガンマ処理、トーンマッピング処理など、デジタル画像データを現像し表示・記録するための様々な画像処理を適用する。又、空間フィルタや複数枚の画像データの合成によるノイズ抑制処理など、デジタル画像データを高画質化するための様々な画像処理を適用する。 The image processing unit 107 performs various types of image processing on the image data stored in the RAM 103. Specifically, it applies various types of image processing, such as demosaicing processing, white balance correction processing, gamma processing, and tone mapping processing, to develop, display, and record digital image data. It also applies various types of image processing to improve the image quality of the digital image data, such as noise suppression processing using spatial filters and synthesis of multiple pieces of image data.

記録部108は、内蔵する記録媒体に画像データを含むデータを記録する。通信部109は、無線により外部装置と接続し、画像データ等を通信する。表示部110は、LCD等の表示デバイスを含み、RAM103に記憶されている画像や記録部108に記録されている画像を表示デバイスに表示する。又、表示部110は、ユーザーからの指示を受け付けるための操作ユーザーインターフェイスの表示等も行う。 The recording unit 108 records data including image data on a built-in recording medium. The communication unit 109 wirelessly connects to an external device and communicates image data and the like. The display unit 110 includes a display device such as an LCD, and displays images stored in the RAM 103 and images recorded in the recording unit 108 on the display device. The display unit 110 also displays an operation user interface for receiving instructions from the user.

指示入力部111は、タッチパネルやシャッターボタン等の各種の物理的な操作部材を含む入力インターフェイスであり、ユーザーによる指示の入力を受け付ける。 The instruction input unit 111 is an input interface that includes various physical operating components such as a touch panel and a shutter button, and accepts instructions input by the user.

図2は、本発明の実施例1における画像処理部107における、複数フレームの画像信号の合成処理を行うための構成例を示す機能ブロック図である。又、図3は、図2における合成部202の構成例を示す機能ブロック図である。以下、本発明の実施例1における画像信号処理の構成例について図2、図3を参照して説明する。 Fig. 2 is a functional block diagram showing an example of the configuration for performing synthesis processing of image signals of multiple frames in the image processing unit 107 in the first embodiment of the present invention. Also, Fig. 3 is a functional block diagram showing an example of the configuration of the synthesis unit 202 in Fig. 2. Below, an example of the configuration for image signal processing in the first embodiment of the present invention will be described with reference to Figs. 2 and 3.

尚、図2、図3に示される機能ブロックの一部は、撮像装置100の制御部に含まれるコンピュータとしてのCPUに、記憶媒体としてのROM102に記憶されたコンピュータプログラムを実行させることによって実現されている。しかし、それらの一部又は全部をハードウェアで実現するようにしても構わない。ハードウェアとしては、専用回路(ASIC)やプロセッサ(リコンフィギュラブルプロセッサ、DSP)などを用いることができる。 Some of the functional blocks shown in Figures 2 and 3 are realized by having a CPU, which serves as a computer included in the control unit of the imaging device 100, execute a computer program stored in a ROM 102, which serves as a storage medium. However, some or all of these may be realized by hardware. As the hardware, a dedicated circuit (ASIC) or a processor (reconfigurable processor, DSP), etc., may be used.

又、図2、図3に示される夫々の機能ブロックは、同じ筐体に内蔵されていなくても良く、互いに信号路を介して接続された別々の装置により構成しても良い。尚、図2、図3に関する上記の説明は、図6、図7についても同様に当てはまる。 Furthermore, the functional blocks shown in Figures 2 and 3 do not have to be built into the same housing, and may be configured as separate devices connected to each other via signal paths. The above explanation regarding Figures 2 and 3 also applies to Figures 6 and 7.

図2の画像信号の合成処理を行うブロック200は、画像信号SIG_B、画像信号SIG_R、小領域座標データを入力とし、SIG_BとSIG_Rを合成した画像信号SIG_Oを出力する。尚、実施例1では説明のため、SIG_BとSIG_Rの計2フレームの画像を合成するものとして説明する。又、SIG_B(第1の全体画像)とSIG_R(第2の全体画像)は連続撮影により得られた画像信号であり、被写体が類似しているものとする。 Block 200 in FIG. 2 that performs image signal synthesis processing receives image signal SIG_B, image signal SIG_R, and small area coordinate data as input, and outputs image signal SIG_O obtained by synthesizing SIG_B and SIG_R. For the sake of explanation, in Example 1, it is assumed that a total of two frames of images, SIG_B and SIG_R, are synthesized. Also, SIG_B (first overall image) and SIG_R (second overall image) are image signals obtained by continuous shooting, and are assumed to have similar subjects.

小領域抽出部201aは、小領域座標データを参照して画像信号SIG_Bから小領域画像信号SIG_B_P(第1の実空間画像)を抽出する。ここで、小領域座標データ及び小領域抽出部201aの具体的な動作について図4を用いて説明する。図4は、小領域抽出部201aが抽出する複数の小領域の例を示す図である。 The small region extraction unit 201a extracts a small region image signal SIG_B_P (first real space image) from the image signal SIG_B by referring to the small region coordinate data. Here, the small region coordinate data and the specific operation of the small region extraction unit 201a will be described with reference to FIG. 4. FIG. 4 is a diagram showing an example of multiple small regions extracted by the small region extraction unit 201a.

図4に示す複数の矩形は、小領域抽出部201aが抽出する複数の小領域の例である。複数の小領域は水平垂直方向に夫々複数並んだ状態であり、図4では、複数のうち一部を示している。複数の小領域画像信号SIG_B_Pは、図4に示されるように、画像信号SIG_Bを所定のサイズの矩形にブロック分割した状態で抽出される。所定のサイズの矩形とは、例えば、水平方向に16画素かつ垂直方向に16画素のサイズの矩形とする。 The multiple rectangles shown in FIG. 4 are examples of multiple small regions extracted by the small region extraction unit 201a. The multiple small regions are arranged in a row in both the horizontal and vertical directions, and FIG. 4 shows only a portion of the multiple small regions. The multiple small region image signals SIG_B_P are extracted in a state where the image signal SIG_B is divided into blocks of rectangles of a predetermined size, as shown in FIG. 4. A rectangle of a predetermined size is, for example, a rectangle of 16 pixels horizontally and 16 pixels vertically.

ここで、小領域座標データは、上述の小領域の左上の座標を示すデータである。小領域座標データは、例えば、クロック回路により上述の座標となるように各小領域について順次算出され、小領域抽出部201aに順次入力される。小領域抽出部201aは、小領域座標データに示される座標を小領域の左上として、順次前述の所定のサイズで小領域を抽出する。 The small area coordinate data here is data indicating the coordinates of the upper left corner of the above-mentioned small area. The small area coordinate data is calculated for each small area in sequence, for example, by a clock circuit so as to obtain the above-mentioned coordinates, and is input in sequence to the small area extraction unit 201a. The small area extraction unit 201a takes the coordinates indicated in the small area coordinate data as the upper left corner of the small area, and sequentially extracts small areas of the above-mentioned predetermined size.

これにより、小領域抽出部201aは、図4に示す位置関係で画像信号SIG_B(第1の全体画像)から複数の小領域画像信号SIG_B_P(第1の実空間画像)を順次抽出することができる。以上が小領域座標データ及び小領域抽出部201aの具体的な動作についての説明である。 This allows the small region extraction unit 201a to sequentially extract multiple small region image signals SIG_B_P (first real space image) from the image signal SIG_B (first overall image) in the positional relationship shown in FIG. 4. This concludes the explanation of the small region coordinate data and the specific operation of the small region extraction unit 201a.

以降、図2の説明に戻る。小領域抽出部201bは、小領域抽出部201aと同様の動作により、小領域座標データを参照して画像信号SIG_R(第2の全体画像)から小領域画像信号SIG_R_P(第2の実空間画像)を抽出する。ここで、小領域抽出部201aと小領域抽出部201bは画像から小領域画像を抽出する小領域抽出手段として機能しており、夫々第1の全体画像から第1の実空間画像を抽出し、第1の全体画像とは異なる第2の全体画像から第2の実空間画像を抽出する。 From here on, we return to the explanation of FIG. 2. Small region extraction unit 201b operates in a similar manner to small region extraction unit 201a, and extracts a small region image signal SIG_R_P (second real space image) from image signal SIG_R (second overall image) by referring to the small region coordinate data. Here, small region extraction unit 201a and small region extraction unit 201b function as small region extraction means that extract a small region image from an image, and each extracts a first real space image from a first overall image and a second real space image from a second overall image that is different from the first overall image.

合成部202は、小領域画像信号SIG_B_P(第1の実空間画像)と小領域画像信号SIG_R_P(第2の実空間画像)を合成し、小領域画像信号SIG_M_Pを生成する。尚、合成部202には小領域座標データが示す各座標の小領域画像信号SIG_B_Pに夫々対応する同じ座標の小領域画像信号SIG_R_Pが入力されるものする。 The synthesis unit 202 synthesizes the small area image signal SIG_B_P (first real space image) and the small area image signal SIG_R_P (second real space image) to generate the small area image signal SIG_M_P. Note that the synthesis unit 202 receives the small area image signal SIG_R_P of the same coordinates that correspond to the small area image signal SIG_B_P of each coordinate indicated by the small area coordinate data.

例えば、遅延回路による制御により小領域画像信号SIG_B_Pと対応する同じ座標の小領域画像信号SIG_R_Pを入力することができる。合成部202の具体的な動作について図3を用いて説明する。 For example, a small area image signal SIG_R_P having the same coordinates as the small area image signal SIG_B_P can be input by controlling a delay circuit. The specific operation of the synthesis unit 202 will be described with reference to FIG. 3.

図3は、合成部202の構成例を示しており、各ブロックの動作について説明する。DCT部301aは、小領域画像信号SIG_B_P(第1の実空間画像)を離散コサイン変換(周波数変換)し、周波数空間信号SIG_B_F(第1の周波数画像)を出力する。離散コサイン変換は、小領域画像信号SIG_B_Pの水平方向と垂直方向に対し夫々行う。 Figure 3 shows an example of the configuration of the synthesis unit 202, and the operation of each block will be described. The DCT unit 301a performs discrete cosine transform (frequency transform) on the small-area image signal SIG_B_P (first real space image) and outputs a frequency space signal SIG_B_F (first frequency image). The discrete cosine transform is performed on both the horizontal and vertical directions of the small-area image signal SIG_B_P.

これにより、小領域画像信号SIG_B_Pが前述のように水平方向に16画素かつ垂直方向に16画素のサイズの矩形の場合、周波数空間信号SIG_B_Fにて例えば水平方向に16成分、垂直方向に16成分の周波数成分が得られる。又、水平方向と垂直方向の成分の組み合わせにより、周波数空間信号SIG_B_Fでは合計で256成分の周波数成分が得られる。 As a result, if the small region image signal SIG_B_P is a rectangle with a size of 16 pixels horizontally and 16 pixels vertically as described above, the frequency space signal SIG_B_F will have, for example, 16 frequency components horizontally and 16 frequency components vertically. Furthermore, by combining the horizontal and vertical components, the frequency space signal SIG_B_F will have a total of 256 frequency components.

DCT部301bは、DCT部301aと同様の動作により、小領域画像信号SIG_R_P(第2の実空間画像)を離散コサイン変換(周波数変換)し、周波数空間信号SIG_R_F(第2の周波数画像)を出力する。ここで、DCT部301aとDCT部301bは、第1の実空間画像及び第2の実空間画像を夫々周波数空間に変換し第1の周波数画像及び第2の周波数画像を生成する周波数空間変換ステップを実行する周波数空間変換手段として機能している。 The DCT unit 301b performs a discrete cosine transform (frequency transform) on the small region image signal SIG_R_P (second real space image) by the same operation as the DCT unit 301a, and outputs a frequency space signal SIG_R_F (second frequency image). Here, the DCT unit 301a and the DCT unit 301b function as a frequency space transforming means that executes a frequency space transforming step that transforms the first real space image and the second real space image into frequency space, respectively, to generate a first frequency image and a second frequency image.

合成率算出部302は、周波数空間信号SIG_B_Fと周波数空間信号SIG_R_Fに基づき、周波数成分ごとの合成率SIG_RATIOを算出して出力する。 The synthesis rate calculation unit 302 calculates and outputs the synthesis rate SIG_RATIO for each frequency component based on the frequency space signal SIG_B_F and the frequency space signal SIG_R_F.

具体的には、合成率算出部302は先ず、周波数空間信号SIG_B_Fと周波数空間信号SIG_R_Fとの差分値Dを周波数成分ごとに算出する。次に合成率算出部302は差分値Dと合成率との対応関係を表すテーブルを参照し、差分値Dが小さい場合に合成率が大きく、差分値Dが大きい場合に合成率が小さくなるように周波数成分ごとに合成率SIG_RATIOを算出する。 Specifically, the combination ratio calculation unit 302 first calculates the difference value D between the frequency space signal SIG_B_F and the frequency space signal SIG_R_F for each frequency component. Next, the combination ratio calculation unit 302 refers to a table showing the correspondence between the difference value D and the combination ratio, and calculates the combination ratio SIG_RATIO for each frequency component so that the combination ratio is large when the difference value D is small and the combination ratio is small when the difference value D is large.

図5は、差分値Dと合成率SIG_RATIOとの対応関係を表すテーブルの例を示す図である。図5のグラフの横軸は差分値Dであり、縦軸は合成率SIG_RATIOを示す。尚、合成率SIG_RATIOは値域が0~1の値として示している。 Figure 5 is a diagram showing an example of a table showing the correspondence between the difference value D and the synthesis rate SIG_RATIO. The horizontal axis of the graph in Figure 5 shows the difference value D, and the vertical axis shows the synthesis rate SIG_RATIO. Note that the synthesis rate SIG_RATIO is shown as a value range of 0 to 1.

加重加算部303は、周波数成分毎の合成率SIG_RATIOに基づき、周波数空間信号SIG_B_F(第1の周波数画像)と周波数空間信号SIG_R_F(第2の周波数画像)を合成して周波数空間信号SIG_M_F(第3の周波数画像)を生成する。ここで加重加算部303は、周波数成分に基づいて、少なくとも2つの周波数成分間で異なる合成率で、第1の周波数画像と第2の周波数画像とを合成し、第3の周波数画像を生成する合成ステップを実行する合成手段として機能している。 The weighted addition unit 303 synthesizes the frequency space signal SIG_B_F (first frequency image) and the frequency space signal SIG_R_F (second frequency image) based on the synthesis rate SIG_RATIO for each frequency component to generate a frequency space signal SIG_M_F (third frequency image). Here, the weighted addition unit 303 functions as a synthesis means that executes a synthesis step of synthesizing the first frequency image and the second frequency image with a synthesis rate that differs between at least two frequency components based on the frequency components to generate a third frequency image.

具体的には、加重加算部303は周波数成分ごとに例えば以下の数式1に示す演算を行い、周波数空間信号SIG_M_Fを生成する。 Specifically, the weighted addition unit 303 performs the calculation shown in the following formula 1 for each frequency component to generate the frequency space signal SIG_M_F.

SIG_M_F={(2-SIG_RATIO)×SIG_B_F+SIG_RATIO×SIG_R_F}÷2・・・(数式1) SIG_M_F = {(2 - SIG_RATIO) x SIG_B_F + SIG_RATIO x SIG_R_F} ÷ 2 ... (Formula 1)

数式1によると、合成率SIG_RATIOが最大値の1のとき、周波数空間信号SIG_B_Fと周波数空間信号SIG_R_Fが50%ずつの割合で合成される。又、合成率SIG_RATIOが最小値の0のとき、周波数空間信号SIG_B_Fが100%、周波数空間信号SIG_R_Fが0%の割合で合成される。 According to Equation 1, when the synthesis rate SIG_RATIO is the maximum value of 1, the frequency space signal SIG_B_F and the frequency space signal SIG_R_F are synthesized at a ratio of 50% each. When the synthesis rate SIG_RATIO is the minimum value of 0, the frequency space signal SIG_B_F is synthesized at a ratio of 100% and the frequency space signal SIG_R_F is synthesized at a ratio of 0%.

逆DCT部304は、周波数空間信号SIG_M_F(第3の周波数画像)に対し逆離散コサイン変換を行い、実空間の小領域画像信号SIG_M_P(第3の実空間画像)を出力する。逆離散コサイン変換は、周波数空間信号SIG_M_Fの成分の水平方向と垂直方向に対し夫々行う。ここで、逆DCT部304は、第3の周波数画像を実空間に変換し第3の実空間画像を得る実空間変換ステップを実行する実空間変換手段として機能している。 The inverse DCT unit 304 performs an inverse discrete cosine transform on the frequency space signal SIG_M_F (third frequency image) and outputs a small region image signal SIG_M_P (third real space image) in real space. The inverse discrete cosine transform is performed on the horizontal and vertical components of the frequency space signal SIG_M_F. Here, the inverse DCT unit 304 functions as a real space transforming means that executes a real space transforming step that transforms the third frequency image into real space and obtains a third real space image.

以上が合成部202の具体的な動作である。これにより、合成部202は周波数成分間で異なる合成率により小領域画像信号SIG_B_Pと小領域画像信号SIG_R_Pの合成を行うことができる。又、数式1により、小領域画像信号SIG_B_Pの被写体を基準として合成を行うことができる。以降、図2の説明に戻る。 The above is a specific operation of the synthesis unit 202. As a result, the synthesis unit 202 can synthesize the small area image signal SIG_B_P and the small area image signal SIG_R_P using different synthesis rates between frequency components. Furthermore, according to Equation 1, synthesis can be performed using the subject of the small area image signal SIG_B_P as a reference. From here on, we will return to the explanation of Figure 2.

再飽和部203は、小領域画像信号SIG_B_Pを用いて小領域画像信号SIG_M_Pの飽和の解除を補正し、補正後の小領域画像信号SIG_S_Pを出力する。具体的には、再飽和部203は先ず、小領域画像信号SIG_B_P(第1の実空間画像)の各画素に対し、画素値が所定の閾値以上であるか判定する。ここで、再飽和部203は、第1の実空間画像の飽和画素を判定する飽和画素判定ステップを実行する飽和画素判定手段として機能している。 The resaturation unit 203 corrects the desaturation of the small-area image signal SIG_M_P using the small-area image signal SIG_B_P, and outputs the corrected small-area image signal SIG_S_P. Specifically, the resaturation unit 203 first determines whether the pixel value of each pixel of the small-area image signal SIG_B_P (first real-space image) is equal to or greater than a predetermined threshold value. Here, the resaturation unit 203 functions as a saturated pixel determination means that executes a saturated pixel determination step that determines saturated pixels of the first real-space image.

所定の閾値とは例えば、画素値が飽和している状態である最大画素値や、飽和していると見なす最大画素値に近い画素値である。次に、再飽和部203は、前述の所定の閾値以上であるかの判定に応じて、小領域画像信号SIG_M_Pの画素値を出力するか、小領域画像信号SIG_B_Pの画素値を出力するかを各画素で切り替える。 The predetermined threshold value is, for example, the maximum pixel value at which the pixel value is saturated, or a pixel value close to the maximum pixel value considered to be saturated. Next, the resaturation unit 203 switches for each pixel between outputting the pixel value of the small region image signal SIG_M_P or the pixel value of the small region image signal SIG_B_P depending on whether the pixel value is equal to or greater than the predetermined threshold value.

小領域画像信号SIG_B_Pの画素値が所定の閾値以上であった場合、再飽和部203は当該画素の座標にて、出力の小領域画像信号SIG_S_P(第3の実空間画像)として小領域画像信号SIG_B_Pの画素値を選択し出力する。即ち、再飽和部203は、飽和画素に対応する座標の第3の実空間画像の画素である対応画素の画素値を飽和画素の画素値に置換することで、飽和画素の画素値に近づけるように補正する補正ステップを実行する補正手段として機能している。 When the pixel value of the small area image signal SIG_B_P is equal to or greater than a predetermined threshold value, the resaturation unit 203 selects and outputs the pixel value of the small area image signal SIG_B_P at the coordinates of the pixel in question as the output small area image signal SIG_S_P (third real space image). In other words, the resaturation unit 203 functions as a correction means that executes a correction step to correct the pixel value of the corresponding pixel, which is the pixel of the third real space image at the coordinates corresponding to the saturated pixel, to approach the pixel value of the saturated pixel by replacing it with the pixel value of the saturated pixel.

又、小領域画像信号SIG_B_Pの画素値が所定の閾値以上でなかった場合、再飽和部203は当該画素の座標にて、出力の小領域画像信号SIG_S_Pとして小領域画像信号SIG_M_Pの画素値を選択し出力する。 In addition, if the pixel value of the small area image signal SIG_B_P is not equal to or greater than the predetermined threshold, the resaturation unit 203 selects and outputs the pixel value of the small area image signal SIG_M_P at the coordinates of that pixel as the output small area image signal SIG_S_P.

これにより、再飽和部203は小領域画像信号SIG_B_Pから飽和が解除された可能性のある小領域画像信号SIG_M_Pの画素値を、合成処理前の信号である小領域画像信号SIG_B_Pの画素値で置換して出力することができる。又、それ以外の画素では小領域画像信号SIG_M_Pの画素値をそのまま出力できる。 This allows the re-saturation unit 203 to replace pixel values of the small-area image signal SIG_M_P that may have been desaturated from the small-area image signal SIG_B_P with pixel values of the small-area image signal SIG_B_P, which is the signal before the synthesis process, and output the replaced pixel values. Furthermore, for other pixels, the pixel values of the small-area image signal SIG_M_P can be output as is.

小領域配置部204は、小領域座標データを元に小領域画像信号SIG_S_P(第3の実空間画像)を配置し、第3の実空間画像からなるSIG_O(第3の全体画像)を出力する。ここで小領域配置部204は、複数の第3の実空間画像を配置して、第第3の全体画像を生成する小領域配置手段として機能している。 The small area placement unit 204 places a small area image signal SIG_S_P (third real space image) based on the small area coordinate data, and outputs SIG_O (third overall image) consisting of the third real space image. Here, the small area placement unit 204 functions as a small area placement means that places multiple third real space images and generates a third overall image.

具体的には、小領域配置部204は画像信号SIG_O中の小領域座標データの示す座標を左上とした領域を、小領域画像信号SIG_S_Pで置換し、画像信号SIG_Oを更新して出力する。 Specifically, the small region placement unit 204 replaces the region whose upper left corner is the coordinate indicated by the small region coordinate data in the image signal SIG_O with the small region image signal SIG_S_P, and updates and outputs the image signal SIG_O.

これを繰り返すことで、図4にて説明した位置関係となるように小領域画像信号SIG_S_Pを順次配置できる。尚、小領域配置部204には、小領域座標データが示す各座標の小領域画像信号SIG_B_Pに夫々対応する小領域画像信号SIG_S_Pが入力されるものする。これにより、小領域抽出部201aにて画像信号SIG_Bから小領域画像信号SIG_B_Pを抽出したときの領域と同じ領域に小領域画像信号SIG_S_Pを配置できる。 By repeating this, the small area image signals SIG_S_P can be sequentially arranged so as to obtain the positional relationship described in FIG. 4. It is assumed that the small area arrangement unit 204 receives the small area image signals SIG_S_P corresponding to the small area image signals SIG_B_P at each coordinate indicated by the small area coordinate data. This allows the small area image signals SIG_S_P to be arranged in the same area as when the small area extraction unit 201a extracted the small area image signal SIG_B_P from the image signal SIG_B.

図2の画像信号の合成処理を行うブロックは、全ての小領域座標データに対して小領域抽出部201aや小領域抽出部201bから小領域配置部204までの処理を行うことで、最終的な画像信号SIG_Oを生成できる。尚、全ての小領域座標データとは例えば、画像信号SIG_Bや画像信号SIG_Rの全域から小領域を抽出するための全ての座標を示す小領域座標データである。 The block in FIG. 2 that performs the synthesis process of the image signal can generate the final image signal SIG_O by performing processes on all the small area coordinate data from the small area extraction unit 201a and the small area extraction unit 201b to the small area placement unit 204. Note that all the small area coordinate data is, for example, small area coordinate data that indicates all the coordinates for extracting small areas from the entire area of the image signal SIG_B or the image signal SIG_R.

以上が図2の画像信号の合成処理を行うブロックの説明である。このように、実施例1によると、合成部202の動作により、合成後の画像に飽和状態の解除が生じ得るが、再飽和部203の動作により飽和状態の解除を補正することができる。 The above is an explanation of the blocks that perform the synthesis process of the image signal in FIG. 2. In this way, according to the first embodiment, the operation of the synthesis unit 202 may cause the image after synthesis to become desaturated, but the operation of the resaturation unit 203 can correct the desaturation.

尚、実施例1では合成後の飽和領域の画素値を合成前の画素値で置換して補正する例を示したが、合成後の飽和領域の画素値を合成前の画素値に近づけるよう補正する方法であれば、どのような方法で補正しても良い。 In the first embodiment, an example was shown in which pixel values in the saturated region after synthesis were replaced with pixel values before synthesis for correction, but any method of correction may be used as long as it brings the pixel values in the saturated region after synthesis closer to the pixel values before synthesis.

例えば、合成後の飽和領域の画素値が合成前の飽和領域の画素値との補間値となるよう補正しても良い。この場合、再飽和部203は小領域画像信号SIG_B_Pの画素値が前述の所定の閾値以上のとき、当該画素の座標で以下の数式2により算出した画素値を出力する。
W×SIG_B_P+(1-W)×SIG_M_P・・・(数式2)
For example, the pixel value of the saturated region after synthesis may be corrected to an interpolated value with the pixel value of the saturated region before synthesis. In this case, when the pixel value of the small region image signal SIG_B_P is equal to or greater than the above-mentioned predetermined threshold, the re-saturation unit 203 outputs the pixel value calculated by the following formula 2 at the coordinates of the pixel.
W × SIG_B_P + (1-W) × SIG_M_P ... (Formula 2)

ここで、W(0<W≦1)は小領域画像信号SIG_M_Pの画素値を小領域画像信号SIG_B_Pの画素値に近づける割合である。このように数式2の方法によっても、再飽和部203は合成部202の動作により合成後の画像に生じ得る飽和状態の解除を補正できる。即ち、飽和画素の画素値と、それに対応する小領域画像信号SIG_M_P(第3の周波数画像)の画素値とから求めた補間値に基づき、対応画素の画素値を補正しても良い。 Here, W (0<W≦1) is the ratio by which the pixel value of the small region image signal SIG_M_P approaches the pixel value of the small region image signal SIG_B_P. In this way, even with the method of Equation 2, the re-saturation unit 203 can correct the release of the saturated state that may occur in the synthesized image due to the operation of the synthesis unit 202. That is, the pixel value of the corresponding pixel may be corrected based on an interpolated value calculated from the pixel value of the saturated pixel and the corresponding pixel value of the small region image signal SIG_M_P (third frequency image).

又、実施例1では1画素あたりに1つのチャンネルを持つ画像信号の処理例を示したが、1画素あたりに複数のチャンネルを持つ画像信号に対しても本発明を適用できる。複数のチャンネルとは、例えば、RGBなどの複数の色を示すチャンネルである。即ち、第1の実空間画像(小領域画像信号SIG_B_P)は1画素が複数のチャンネル(色チャンネル)により構成されていても良い。 In addition, while Example 1 shows an example of processing an image signal having one channel per pixel, the present invention can also be applied to an image signal having multiple channels per pixel. Multiple channels are, for example, channels that indicate multiple colors such as RGB. In other words, the first real space image (small area image signal SIG_B_P) may be configured such that one pixel is composed of multiple channels (color channels).

この場合、画像処理部107は図2、図3に記載の合成処理を複数のチャンネルの夫々に対して順次行うことで、複数のチャンネルに対し合成処理及び飽和状態の解除の補正が行える。ただしこの場合、1画素あたりの複数のチャンネルのうち幾つかのチャンネルのみに対し飽和状態の解除の補正が適応されることにより、色曲がり(色相の変化)が生じる場合がある。 In this case, the image processing unit 107 performs the compositing process shown in Figures 2 and 3 on each of the multiple channels in sequence, thereby performing compositing process and desaturation correction on the multiple channels. However, in this case, color distortion (change in hue) may occur because the desaturation correction is applied to only some of the multiple channels per pixel.

これを抑制するため、別の例として、1画素あたりの複数のチャンネルの全てを補正するか、全てを補正しないか、のどちらかとなるよう制御しても良い。この場合、画像処理部107は先ず1画素あたりに複数のチャンネルを持つSIG_BとSIG_Rに対し合成部202までの処理を行い、1画素あたりに複数のチャンネルを持つ小領域画像信号SIG_B_Pと小領域画像信号SIG_M_Pを得る。 To prevent this, as another example, control may be performed so that either all of the multiple channels per pixel are corrected, or none are corrected. In this case, the image processing unit 107 first processes SIG_B and SIG_R, which have multiple channels per pixel, up to the synthesis unit 202, and obtains small area image signals SIG_B_P and SIG_M_P, which have multiple channels per pixel.

次に再飽和部203は例えば、小領域画像信号SIG_B_Pの各画素に対し、1画素あたりの複数のチャンネルのうち1つ以上が所定の閾値以上であるか判定する。即ち、第1の実空間画像(小領域画像信号SIG_B_P)の1以上の色チャンネルの画素値が閾値以上である画素に対応する座標の第1の実空間画像の画素を飽和画素と判定する。又、再飽和部203は判定結果に応じて、1画素あたりに複数のチャンネルを持つ小領域画像信号SIG_S_Pを出力する。 Then, for example, the resaturation unit 203 determines for each pixel of the small area image signal SIG_B_P whether one or more of the multiple channels per pixel are equal to or greater than a predetermined threshold value. That is, it determines that a pixel in the first real space image at coordinates corresponding to a pixel in which the pixel value of one or more color channels of the first real space image (small area image signal SIG_B_P) is equal to or greater than a threshold value is a saturated pixel. Furthermore, the resaturation unit 203 outputs a small area image signal SIG_S_P having multiple channels per pixel according to the determination result.

具体的には、複数のチャンネルのうち1つ以上が前述の所定の閾値以上であった場合、再飽和部203は当該画素の座標にて、小領域画像信号SIG_S_Pとして複数のうち全てのチャンネルで小領域画像信号SIG_B_Pの画素値を選択し出力する。即ち、小領域画像信号SIG_S_P(第3の実空間画像)は1画素が前記複数のチャンネルにより構成され、再飽和部203は、対応画素の複数のチャンネルの画素値を、飽和画素の複数のチャンネルの夫々の画素値に近づけるようにする。 Specifically, if one or more of the multiple channels is equal to or greater than the aforementioned predetermined threshold, the resaturation unit 203 selects and outputs the pixel values of the small area image signal SIG_B_P in all of the multiple channels at the coordinates of the pixel in question as the small area image signal SIG_S_P. That is, one pixel of the small area image signal SIG_S_P (third real space image) is composed of the multiple channels, and the resaturation unit 203 makes the pixel values of the multiple channels of the corresponding pixel closer to the pixel values of the multiple channels of the saturated pixel.

又、複数のチャンネルのうちいずれも前述の所定の閾値以上でなかった場合、再飽和部203は当該画素の座標にて、小領域画像信号SIG_S_Pとして複数のうち全てのチャンネルで小領域画像信号SIG_M_Pの画素値を選択し出力する。これにより、再飽和部203は色曲がりを抑制しながら飽和状態の解除の補正が行える。 In addition, if none of the multiple channels is equal to or greater than the aforementioned predetermined threshold, the resaturation unit 203 selects and outputs the pixel values of the small area image signal SIG_M_P in all of the multiple channels at the coordinates of the pixel in question as the small area image signal SIG_S_P. This allows the resaturation unit 203 to perform correction to remove the saturation state while suppressing color distortion.

又、実施例1では小領域画像信号SIG_B_Pの画素値を元に飽和領域を判定したが、この場合、小領域画像信号SIG_M_Pの画素値が、小領域画像信号SIG_B_Pにてノイズ成分により局所的に飽和している画素の画素値に置換される可能性がある。ノイズ成分に置換された場合、小領域画像信号SIG_S_Pにて合成によるノイズ低減効果が弱まる。これを抑制するため、小領域画像信号SIG_B_Pに基づき生成した画像の画素値を元に飽和領域を判定しても良い。 In addition, in the first embodiment, the saturated area was determined based on the pixel values of the small-area image signal SIG_B_P, but in this case, the pixel values of the small-area image signal SIG_M_P may be replaced with the pixel values of pixels that are locally saturated by noise components in the small-area image signal SIG_B_P. If replaced with noise components, the noise reduction effect of synthesis in the small-area image signal SIG_S_P will be weakened. To prevent this, the saturated area may be determined based on the pixel values of an image generated based on the small-area image signal SIG_B_P.

例えば、再飽和部203は小領域画像信号SIG_B_P(第1の実空間画像)に平滑化手段としてのローパスフィルタによる平滑化処理を施して平滑化画像を得た後、平滑化画像の画素値を元に飽和領域を判定しても良い。 For example, the re-saturation unit 203 may perform a smoothing process using a low-pass filter as a smoothing means on the small region image signal SIG_B_P (first real space image) to obtain a smoothed image, and then determine the saturated region based on the pixel values of the smoothed image.

即ち、平滑化画像の画素値が閾値以上の画素に対応する座標の第1の実空間画像の画素を飽和画素と判定しても良い。このように、第1の実空間画像に応じて生成された、1画素が複数の色チャンネルにより構成される画像(平滑化画像等)の、1以上の色チャンネルの画素値が閾値以上である画素に対応する座標の第1の実空間画像の画素を飽和画素と判定としても良い。 That is, a pixel in the first real space image at coordinates corresponding to a pixel in the smoothed image whose pixel value is equal to or greater than a threshold value may be determined to be a saturated pixel. In this way, a pixel in the first real space image at coordinates corresponding to a pixel in an image (such as a smoothed image) in which one pixel is composed of multiple color channels and whose pixel value in one or more color channels is equal to or greater than a threshold value may be determined to be a saturated pixel.

これにより、小領域画像信号SIG_M_Pの画素値が、小領域画像信号SIG_B_Pにてノイズ成分により局所的に飽和している画素となっている画素値に置換されることを抑制できる。 This prevents pixel values in the small-region image signal SIG_M_P from being replaced with pixel values in the small-region image signal SIG_B_P that are locally saturated due to noise components.

その他にも、小領域画像信号SIG_B_Pの明るい画素を空間方向に収縮させる処理や、明るい画素を空間方向に収縮した後に膨張させる処理により得た画像を元に飽和領域を判定するようにしても良い。それらの方法によっても、ローパスフィルタの場合と同様の効果を得ることができる。 Alternatively, the saturated region may be determined based on an image obtained by a process of shrinking the bright pixels of the small region image signal SIG_B_P in the spatial direction, or by a process of shrinking the bright pixels in the spatial direction and then expanding them. These methods can also achieve the same effect as the low-pass filter.

又、前述の説明のように1画素あたりに複数のチャンネルを持つ信号を処理する場合であっても、小領域画像信号SIG_M_Pの画素値が、ノイズ成分により局所的に飽和している画素となっている画素値に置換されることを抑制することができる。この場合は、複数のチャンネルを持つ小領域画像信号SIG_B_Pの各チャンネルに基づき生成した複数のチャンネルを持つ画像の画素値を元に飽和領域を判定する。 Even when processing a signal having multiple channels per pixel as described above, it is possible to prevent the pixel values of the small-area image signal SIG_M_P from being replaced with pixel values of pixels that are locally saturated due to noise components. In this case, the saturated area is determined based on the pixel values of an image having multiple channels generated based on each channel of the small-area image signal SIG_B_P having multiple channels.

又、実施例1では離散コサイン変換により周波数空間に変換した信号を合成する例を示したが、周波数成分の合成を行う方法であれば、どのような方法であっても本発明を適用できる。例えば、フーリエ変換により周波数空間に変換した信号を合成する場合であっても良い。 In addition, in the first embodiment, an example was shown in which signals transformed into frequency space by discrete cosine transform were synthesized, but the present invention can be applied to any method for synthesizing frequency components. For example, signals transformed into frequency space by Fourier transform may be synthesized.

又、実施例1では画像信号SIG_Bと画像信号SIG_Rの2フレームを合成する例を示したが、本発明は合成するフレーム数によらず適応できる。例えば、3フレーム以上合成する場合、複数の画像信号SIG_Rから複数の小領域画像信号SIG_R_Pを抽出し、合成部202にて小領域画像信号SIG_B_Pと複数の小領域画像信号SIG_R_Pを合成するよう変形しても良い。 In addition, in the first embodiment, an example of synthesizing two frames, image signal SIG_B and image signal SIG_R, is shown, but the present invention can be applied regardless of the number of frames to be synthesized. For example, when synthesizing three or more frames, multiple small area image signals SIG_R_P may be extracted from multiple image signals SIG_R, and the synthesis unit 202 may synthesize the small area image signal SIG_B_P and the multiple small area image signals SIG_R_P.

この場合、合成部202は各フレームの周波数空間信号SIG_R_Fの夫々に対して合成率SIG_RATIOを求める。又、加重加算部303は各フレームの合成率SIG_RATIOに応じて、周波数空間信号SIG_B_Fと、各フレームの周波数空間信号SIG_R_Fを加重加算する。 In this case, the synthesis unit 202 calculates a synthesis ratio SIG_RATIO for each of the frequency space signals SIG_R_F of each frame. In addition, the weighted addition unit 303 performs weighted addition of the frequency space signal SIG_B_F and the frequency space signal SIG_R_F of each frame according to the synthesis ratio SIG_RATIO of each frame.

<実施例2>
実施例1では、画像の合成処理時に飽和状態の解除を補正する処理を行う例を示した。実施例2では、合成後の画像の後処理時に飽和状態の解除を補正する。尚、特に説明が無い場合、第1の実施形態と同じ符号のものは第1の実施形態と同様の動作、処理を行うものとする。
Example 2
In the first embodiment, an example is shown in which a process for correcting the release of a saturated state during image synthesis processing is performed. In the second embodiment, a process for correcting the release of a saturated state is performed during post-processing of a synthesized image. Unless otherwise specified, the same reference numerals as in the first embodiment perform the same operations and processes as in the first embodiment.

図6は、実施例2の画像処理部107の基本的な構成例を示す機能ブロック図である。図6において、画像処理部107は、周波数空間合成部601と補正部602を備える。周波数空間合成部601と補正部602は夫々、バスを介してRAM103と画像データの通信を行う。 Fig. 6 is a functional block diagram showing an example of the basic configuration of the image processing unit 107 of the second embodiment. In Fig. 6, the image processing unit 107 includes a frequency space synthesis unit 601 and a correction unit 602. The frequency space synthesis unit 601 and the correction unit 602 each communicate image data with the RAM 103 via a bus.

周波数空間合成部601は、実施例1にて図2を用いて説明した処理と同様の処理により、画像信号SIG_Bと画像信号SIG_Rを周波数成分間で異なる合成率により合成し、画像信号SIG_Oを出力する。補正部602は、画像信号に各種補正を施す。尚、実施例2では補正部602は補正としてトーンマッピング処理を施すものとする。補正部602の詳細は後述する。 The frequency space synthesis unit 601 synthesizes the image signals SIG_B and SIG_R with different synthesis rates between frequency components by the same process as that described in the first embodiment using FIG. 2, and outputs the image signal SIG_O. The correction unit 602 performs various corrections on the image signals. Note that in the second embodiment, the correction unit 602 performs tone mapping processing as the correction. The correction unit 602 will be described in detail later.

先ず、実施例2における制御部101の動作を説明する。制御部101は指示入力部111を介し、周波数空間合成部601により生成した合成後の画像信号SIG_Oに後処理を施すユーザーの指示を受け付けることができる。尚、実施例2では、後処理はトーンマッピング処理を含む。 First, the operation of the control unit 101 in the second embodiment will be described. The control unit 101 can receive a user instruction to perform post-processing on the synthesized image signal SIG_O generated by the frequency space synthesis unit 601 via the instruction input unit 111. In the second embodiment, the post-processing includes a tone mapping process.

制御部101は合成後の画像信号SIG_Oにトーンマッピング処理を施すユーザーの指示を受け付けると、記録部108を介して画像信号SIG_Oと、画像信号SIG_Oに対応する合成前の画像信号SIG_BをRAM103に読み込む。尚、制御部101は周波数空間合成部601の合成処理の終了後に、記録部108を介して画像信号SIG_Oと画像信号SIG_Bを記録媒体に記録するものとする。 When the control unit 101 receives a user instruction to perform tone mapping processing on the synthesized image signal SIG_O, it reads the image signal SIG_O and the pre-synthesis image signal SIG_B corresponding to the image signal SIG_O into the RAM 103 via the recording unit 108. Note that the control unit 101 records the image signals SIG_O and SIG_B on the recording medium via the recording unit 108 after the synthesis process of the frequency space synthesis unit 601 is completed.

又、制御部101は周波数空間合成部601の合成処理の終了後に合成後の画像信号SIG_O記録媒体に記録するとき、合成前の画像信号SIG_Bを示す付帯情報を画像信号SIG_Oに付加して記録するものとする。 In addition, when the control unit 101 records the synthesized image signal SIG_O on the recording medium after the synthesis process of the frequency space synthesis unit 601 is completed, the control unit 101 adds additional information indicating the image signal SIG_B before synthesis to the image signal SIG_O and records it.

例えば、制御部101はExif等の形式によりSIG_Oに付帯情報を付加する。これにより、制御部101は合成後の画像信号SIG_Oの付帯情報を参照し、合成後の画像信号SIG_Oに対応する合成前の画像信号SIG_Bを読み込むことができる。 For example, the control unit 101 adds additional information to SIG_O in a format such as Exif. This allows the control unit 101 to refer to the additional information of the combined image signal SIG_O and read the pre-combination image signal SIG_B that corresponds to the combined image signal SIG_O.

次に、制御部101は補正部602を制御し、画像信号SIG_Bを参照情報として画像信号SIG_Oのトーンマッピングを行う。その後、制御部101は記録部108を介してトーンマッピング後の画像信号SIG_S_Tを記録媒体に記録する。以上が制御部101の動作である。以降、補正部602の動作について図7を用いて説明する。 Next, the control unit 101 controls the correction unit 602 to perform tone mapping of the image signal SIG_O using the image signal SIG_B as reference information. After that, the control unit 101 records the image signal SIG_S_T after tone mapping on a recording medium via the recording unit 108. This completes the operation of the control unit 101. Hereinafter, the operation of the correction unit 602 will be described with reference to FIG. 7.

図7は補正部602の構成例を示す機能ブロック図であり、以下、実施例2における画像信号のトーンマッピング処理の構成例について図7を参照して説明する。 Figure 7 is a functional block diagram showing an example of the configuration of the correction unit 602. Below, an example of the configuration of the tone mapping process of the image signal in the second embodiment will be described with reference to Figure 7.

図7の画像信号のトーンマッピング処理を行う補正部602においては、合成後の画像信号SIG_O、合成前の画像信号SIG_Bを入力とし、SIG_Bを参照してSIG_Oにトーンマッピング処理を施した画像信号SIG_S_Tを出力する。 The correction unit 602 in FIG. 7, which performs tone mapping processing of the image signal, receives the synthesized image signal SIG_O and the unsynthesized image signal SIG_B as input, and outputs an image signal SIG_S_T in which tone mapping processing has been performed on SIG_O with reference to SIG_B.

トーンマッピング部701aは、第3の実空間画像からなる画像信号SIG_O(第3の全体画像)に対し所定のパラメータでトーンマッピング処理を施し、トーンマッピング処理後の画像信号SIG_O_T(第5の全体画像)を出力する。所定のパラメータとは例えば、ユーザーの指定したパラメータや、画像処理部107が画像信号SIG_Oに応じて算出したパラメータである。ここで、トーンマッピング部701aは、第3の全体画像に後処理としてのトーンマッピング処理を施して第5の全体画像を生成する第2の後処理ステップを実行する第2の後処理手段として機能している。 The tone mapping unit 701a performs tone mapping processing on the image signal SIG_O (third overall image) consisting of the third real space image with predetermined parameters, and outputs the image signal SIG_O_T (fifth overall image) after the tone mapping processing. The predetermined parameters are, for example, parameters specified by the user or parameters calculated by the image processing unit 107 according to the image signal SIG_O. Here, the tone mapping unit 701a functions as a second post-processing means that executes a second post-processing step in which the third overall image is subjected to tone mapping processing as post-processing to generate a fifth overall image.

これにより、トーンマッピング処理後の画像信号SIG_O_Tでは、新たな飽和領域が生じる場合がある。このとき、画像信号SIG_Oは周波数成分間で異なる合成率により合成して得られた画像であることから、波状の模様やリンギングの影響により、画像信号SIG_O_Tの新たな飽和領域の画素値が一定でない状態となり画質弊害として目立つ可能性がある。 As a result, new saturated regions may appear in the image signal SIG_O_T after tone mapping processing. In this case, since the image signal SIG_O is an image obtained by synthesizing frequency components at different synthesis rates, the pixel values of the new saturated regions of the image signal SIG_O_T may not be constant due to the effects of wavy patterns or ringing, which may be noticeable as a drawback to image quality.

トーンマッピング部701bは第1の実空間画像からなる画像信号SIG_B(第1の全体画像)に対しトーンマッピング部701aと同一のパラメータでトーンマッピング処理を施し、トーンマッピング処理後の画像信号SIG_B_Tを出力する。これにより、画像信号SIG_O_Tと同様の領域で新たな飽和領域を生じさせた画像信号SIG_B_T(第4の全体画像)を得ることができる。 The tone mapping unit 701b performs tone mapping processing on the image signal SIG_B (first overall image) consisting of the first real space image with the same parameters as the tone mapping unit 701a, and outputs the image signal SIG_B_T after the tone mapping processing. This makes it possible to obtain the image signal SIG_B_T (fourth overall image) in which a new saturated area has been generated in the same area as the image signal SIG_O_T.

ここで、トーンマッピング部701bは、画像信号SIG_B(第1の全体画像)に後処理としてのトーンマッピング処理を施して第4の全体画像を生成する第1の後処理ステップを実行する第1の後処理手段として機能している。又、第1の後処理手段と第2の後処理手段は、互いに同一のパラメータにより第1の全体画像と第3の全体画像に夫々後処理を施している。 Here, the tone mapping unit 701b functions as a first post-processing means that executes a first post-processing step of performing tone mapping processing as post-processing on the image signal SIG_B (first overall image) to generate a fourth overall image. In addition, the first post-processing means and the second post-processing means perform post-processing on the first overall image and the third overall image, respectively, using the same parameters.

再飽和部702は、画像信号SIG_B_T(第4の全体画像)の飽和領域を判定すると共に、画像信号SIG_O_T(第5の全体画像)の飽和領域を補正し、補正後の画像信号SIG_S_Tを出力する。 The re-saturation unit 702 determines the saturated area of the image signal SIG_B_T (fourth overall image), corrects the saturated area of the image signal SIG_O_T (fifth overall image), and outputs the corrected image signal SIG_S_T.

ここで、再飽和部702は、画像信号SIG_B_T(第4の全体画像)の飽和画素を判定する飽和画素判定ステップを実行する飽和画素判定手段として機能している。又、再飽和部702は、更に補正手段として機能しており、飽和画素に対応する座標の第5の全体画像の画素である対応画素の画素値を、飽和画素の画素値に近づけるように補正する補正ステップを実行する。 Here, the resaturation unit 702 functions as saturated pixel determination means that executes a saturated pixel determination step that determines saturated pixels in the image signal SIG_B_T (fourth overall image). The resaturation unit 702 also functions as correction means, and executes a correction step that corrects the pixel value of a corresponding pixel, which is a pixel of the fifth overall image at a coordinate corresponding to a saturated pixel, so that the pixel value approaches the pixel value of the saturated pixel.

再飽和部702の動作は、実施例1における再飽和部203の説明と同様である。具体的には、再飽和部203の説明の小領域画像信号SIG_B_Pを画像信号SIG_B_T、小領域画像信号SIG_M_Pを画像信号SIG_O_T、小領域画像信号SIG_S_Pを画像信号SIG_S_Tに夫々置き換えた場合と同様の動作である。これにより、再飽和部702は画像信号SIG_O_Tにて新たに生じた飽和領域における画質弊害を抑制することができる。 The operation of the resaturation unit 702 is the same as that of the resaturation unit 203 in the first embodiment. Specifically, the operation is the same as that in the resaturation unit 203, except that the small area image signal SIG_B_P is replaced with the image signal SIG_B_T, the small area image signal SIG_M_P is replaced with the image signal SIG_O_T, and the small area image signal SIG_S_P is replaced with the image signal SIG_S_T. This enables the resaturation unit 702 to suppress image quality problems in the newly saturated areas that occur in the image signal SIG_O_T.

以上が図7の画像信号のトーンマッピング処理を行うブロックの説明である。尚、実施例2ではトーンマッピング処理により生じた新たな飽和領域における画質弊害を抑制するための構成を説明した。しかし、新たな飽和領域を生じさせるどのような後処理に対しても、本実施例を適用することで、新たな飽和領域の画質弊害を抑制できる。 The above is an explanation of the blocks that perform tone mapping processing of the image signal in Figure 7. Note that in the second embodiment, a configuration for suppressing image quality problems in new saturated areas that are generated by tone mapping processing is explained. However, by applying this embodiment to any post-processing that generates new saturated areas, it is possible to suppress image quality problems in new saturated areas.

以上、本発明をその好適な実施例に基づいて詳述してきたが、本発明は上記実施例に限定されるものではなく、本発明の趣旨に基づき種々の変形が可能であり、それらを本発明の範囲から除外するものではない。尚、本発明は、以下の組み合わせを含む。 The present invention has been described in detail above based on preferred embodiments thereof, but the present invention is not limited to the above embodiments, and various modifications are possible based on the spirit of the present invention, and are not excluded from the scope of the present invention. The present invention includes the following combinations.

(構成1)第1の実空間画像及び第2の実空間画像を夫々周波数空間に変換し第1の周波数画像及び第2の周波数画像を生成する周波数空間変換手段と、周波数成分に基づいて前記第1の周波数画像と前記第2の周波数画像とを合成し、第3の周波数画像を生成する合成手段と、前記第3の周波数画像を実空間に変換し第3の実空間画像を得る実空間変換手段と、前記第1の実空間画像の飽和画素を判定する飽和画素判定手段と、前記飽和画素に対応する座標の前記第3の実空間画像の画素である対応画素の画素値を前記飽和画素の画素値に近づけるように補正する補正手段と、を有することを特徴とする画像処理装置。 (Configuration 1) An image processing device comprising: a frequency space conversion means for converting a first real space image and a second real space image into a frequency space, respectively, to generate a first frequency image and a second frequency image; a synthesis means for synthesizing the first frequency image and the second frequency image based on frequency components to generate a third frequency image; a real space conversion means for converting the third frequency image into real space to obtain a third real space image; a saturated pixel determination means for determining saturated pixels in the first real space image; and a correction means for correcting a pixel value of a corresponding pixel, which is a pixel of the third real space image at a coordinate corresponding to the saturated pixel, to approach the pixel value of the saturated pixel.

(構成2)前記合成手段は、少なくとも2つの周波数成分間で異なる合成率で、前記第1の周波数画像と前記第2の周波数画像とを合成することを特徴とする構成1に記載の画像処理装置。 (Configuration 2) The image processing device described in Configuration 1, characterized in that the synthesis means synthesizes the first frequency image and the second frequency image with a synthesis rate that differs between at least two frequency components.

(構成3)前記補正手段は、前記対応画素の画素値を前記飽和画素の画素値に置換することを特徴とする構成1又は2に記載の画像処理装置。 (Configuration 3) The image processing device according to configuration 1 or 2, characterized in that the correction means replaces the pixel value of the corresponding pixel with the pixel value of the saturated pixel.

(構成4)前記補正手段は、前記飽和画素の画素値と、前記第3の周波数画像の画素値とから求めた補間値に基づき、前記対応画素の画素値を補正することを特徴とする構成1~3のいずれか1つに記載の画像処理装置。 (Configuration 4) The image processing device according to any one of configurations 1 to 3, characterized in that the correction means corrects the pixel value of the corresponding pixel based on an interpolated value calculated from the pixel value of the saturated pixel and the pixel value of the third frequency image.

(構成5)前記第1の実空間画像に平滑化処理を施して平滑化画像を生成する平滑化手段を更に備え、前記飽和画素判定手段は、前記平滑化画像の画素値が閾値以上の画素に対応する座標の前記第1の実空間画像の画素を前記飽和画素と判定することを特徴とする構成1~4のいずれか1つに記載の画像処理装置。 (Configuration 5) The image processing device according to any one of configurations 1 to 4, further comprising a smoothing means for performing a smoothing process on the first real-space image to generate a smoothed image, and the saturated pixel determination means determines, as the saturated pixel, a pixel of the first real-space image at a coordinate corresponding to a pixel of the smoothed image whose pixel value is equal to or greater than a threshold value.

(構成6)前記第1の実空間画像は1画素が複数の色チャンネルにより構成されることを特徴とする構成1~5のいずれか1つに記載の画像処理装置。 (Configuration 6) The image processing device according to any one of configurations 1 to 5, characterized in that one pixel of the first real space image is composed of multiple color channels.

(構成7)前記飽和画素判定手段は、
前記第1の実空間画像の1以上の色チャンネルの画素値が閾値以上である画素に対応する座標の前記第1の実空間画像の画素を前記飽和画素と判定することを特徴とする構成6に記載の画像処理装置。
(Configuration 7) The saturated pixel determination means
The image processing device according to configuration 6, characterized in that a pixel of the first real space image at a coordinate corresponding to a pixel whose pixel value of one or more color channels of the first real space image is equal to or greater than a threshold value is determined to be the saturated pixel.

(構成8)前記飽和画素判定手段は、
前記第1の実空間画像に応じて生成された、1画素が複数の色チャンネルにより構成される画像の、1以上の色チャンネルの画素値が閾値以上である画素に対応する座標の前記第1の実空間画像の画素を前記飽和画素と判定することを特徴とする構成6又は7に記載の画像処理装置。
(Configuration 8) The saturated pixel determination means
The image processing device according to configuration 6 or 7, characterized in that a pixel of the first real space image at a coordinate corresponding to a pixel whose pixel value of one or more color channels is equal to or greater than a threshold value in an image in which one pixel is composed of a plurality of color channels and which is generated based on the first real space image, is determined to be the saturated pixel.

(構成9)前記第3の実空間画像は1画素が前記複数のチャンネルにより構成され、
前記補正手段は、前記対応画素の前記複数のチャンネルの画素値を、前記飽和画素の前記複数のチャンネルの夫々の画素値に近づけることを特徴とする構成6~8のいずれか1つに記載の画像処理装置。
(Configuration 9) The third real space image has one pixel constituted by the plurality of channels,
9. The image processing device according to any one of configurations 6 to 8, wherein the correction means brings pixel values of the plurality of channels of the corresponding pixel closer to pixel values of the plurality of channels of the saturated pixel.

(構成10)画像から小領域画像を抽出する小領域抽出手段を更に備え、
前記小領域抽出手段は、第1の全体画像から前記第1の実空間画像を抽出し、前記第1の全体画像とは異なる第2の全体画像から前記第2の実空間画像を抽出することを特徴とする構成1~9のいずれか1つに記載の画像処理装置。
(Configuration 10) The image processing method further includes a small area extraction means for extracting a small area image from the image,
The image processing device according to any one of configurations 1 to 9, wherein the small region extraction means extracts the first real-space image from a first overall image, and extracts the second real-space image from a second overall image different from the first overall image.

(構成11)複数の前記第3の実空間画像を配置して第3の全体画像を生成する小領域配置手段を更に有することを特徴とする構成1~10のいずれか1つに記載の画像処理装置。 (Configuration 11) The image processing device according to any one of configurations 1 to 10, further comprising a small area arrangement means for arranging a plurality of the third real space images to generate a third overall image.

(構成12)第1の実空間画像及び第2の実空間画像を夫々周波数空間に変換し第1の周波数画像及び第2の周波数画像を生成する周波数空間変換手段と、周波数成分に基づいて前記第1の周波数画像と前記第2の周波数画像とを合成し、第3の周波数画像を生成する合成手段と、前記第3の周波数画像を実空間に変換し第3の実空間画像を得る実空間変換手段と、前記第1の実空間画像からなる第1の全体画像に後処理を施して第4の全体画像を生成する第1の後処理手段と、前記第3の実空間画像からなる第3の全体画像に前記後処理を施して第5の全体画像を生成する第2の後処理手段と、前記第4の全体画像の飽和画素を判定する飽和画素判定手段と、前記飽和画素に対応する座標の前記第5の全体画像の画素である対応画素の画素値を、前記飽和画素の画素値に近づける補正をする補正手段と、を有することを特徴とする画像処理装置。 (Configuration 12) An image processing device comprising: a frequency space conversion means for converting a first real space image and a second real space image into a frequency space, respectively, to generate a first frequency image and a second frequency image; a synthesis means for synthesizing the first frequency image and the second frequency image based on frequency components to generate a third frequency image; a real space conversion means for converting the third frequency image into real space to obtain a third real space image; a first post-processing means for performing post-processing on a first overall image consisting of the first real space image to generate a fourth overall image; a second post-processing means for performing post-processing on a third overall image consisting of the third real space image to generate a fifth overall image; a saturated pixel determination means for determining saturated pixels in the fourth overall image; and a correction means for correcting a pixel value of a corresponding pixel, which is a pixel of the fifth overall image at a coordinate corresponding to the saturated pixel, to approach the pixel value of the saturated pixel.

(構成13)前記第1の後処理手段と前記第2の後処理手段は、互いに同一のパラメータにより前記第1の全体画像と前記第3の全体画像に夫々後処理を施すことを特徴とする構成12に記載の画像処理装置。 (Configuration 13) The image processing device described in Configuration 12, characterized in that the first post-processing means and the second post-processing means perform post-processing on the first overall image and the third overall image, respectively, using the same parameters.

(構成14)前記後処理は、トーンマッピング処理を含むことを特徴とする構成12又は13に記載の画像処理装置。 (Configuration 14) The image processing device according to configuration 12 or 13, characterized in that the post-processing includes tone mapping processing.

(方法1)第1の実空間画像及び第2の実空間画像を夫々周波数空間に変換し第1の周波数画像及び第2の周波数画像を生成する周波数空間変換ステップと、周波数成分に基づいて前記第1の周波数画像と前記第2の周波数画像とを合成し、第3の周波数画像を生成する合成ステップと、前記第3の周波数画像を実空間に変換し第3の実空間画像を得る実空間変換ステップと、前記第1の実空間画像の飽和画素を判定する飽和画素判定ステップと、前記飽和画素に対応する座標の前記第3の実空間画像の画素である対応画素の画素値を前記飽和画素の画素値に近づけるように補正する補正ステップと、を有することを特徴とする画像処理方法。 (Method 1) An image processing method comprising: a frequency space transformation step of transforming a first real space image and a second real space image into a frequency space to generate a first frequency image and a second frequency image, respectively; a synthesis step of synthesizing the first frequency image and the second frequency image based on frequency components to generate a third frequency image; a real space transformation step of transforming the third frequency image into real space to obtain a third real space image; a saturated pixel determination step of determining saturated pixels in the first real space image; and a correction step of correcting the pixel value of a corresponding pixel, which is a pixel of the third real space image at a coordinate corresponding to the saturated pixel, to approach the pixel value of the saturated pixel.

(方法2)第1の実空間画像及び第2の実空間画像を夫々周波数空間に変換し第1の周波数画像及び第2の周波数画像を生成する周波数空間変換ステップと、周波数成分に基づいて前記第1の周波数画像と前記第2の周波数画像とを合成し、第3の周波数画像を生成する合成ステップと、前記第3の周波数画像を実空間に変換し第3の実空間画像を得る実空間変換ステップと、前記第1の実空間画像からなる第1の全体画像に後処理を施して第4の全体画像を生成する第1の後処理ステップと、前記第3の実空間画像からなる第3の全体画像に前記後処理を施して第5の全体画像を生成する第2の後処理ステップと、前記第4の全体画像の飽和画素を判定する飽和画素判定ステップと、前記飽和画素に対応する座標の前記第5の全体画像の画素である対応画素の画素値を前記飽和画素の画素値に近づけるように補正する補正ステップと、を有することを特徴とする画像処理方法。 (Method 2) An image processing method comprising: a frequency space transformation step of transforming the first real space image and the second real space image into a frequency space to generate a first frequency image and a second frequency image, respectively; a synthesis step of synthesizing the first frequency image and the second frequency image based on frequency components to generate a third frequency image; a real space transformation step of transforming the third frequency image into real space to obtain a third real space image; a first post-processing step of performing post-processing on a first overall image consisting of the first real space image to generate a fourth overall image; a second post-processing step of performing post-processing on a third overall image consisting of the third real space image to generate a fifth overall image; a saturated pixel determination step of determining saturated pixels in the fourth overall image; and a correction step of correcting the pixel value of a corresponding pixel, which is a pixel of the fifth overall image at a coordinate corresponding to the saturated pixel, to approach the pixel value of the saturated pixel.

(プログラム)構成1~14のいずれか1つに記載の画像処理装置の各手段をコンピュータにより制御するためのコンピュータプログラム。 (Program) A computer program for controlling each means of an image processing device described in any one of configurations 1 to 14 by a computer.

尚、本実施例における制御の一部又は全部を実現するために、上述した実施例の機能を実現するコンピュータプログラムをネットワーク又は各種記憶媒体を介して画像処理装置等に供給するようにしてもよい。そしてその画像処理装置等におけるコンピュータ(又はCPUやMPU等)がそのプログラムを読み出して実行するようにしてもよい。その場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することとなる。 In order to realize some or all of the control in this embodiment, a computer program that realizes the functions of the above-mentioned embodiment may be supplied to an image processing device or the like via a network or various storage media. Then, a computer (or a CPU, MPU, etc.) in the image processing device or the like may read and execute the program. In this case, the program and the storage medium on which the program is stored constitute the present invention.

100:撮像装置
101:制御部
102:ROM
103:RAM
104:光学系
105:撮像部
106:A/D変換部
107:画像処理部
108:記録部
109:通信部
110:表示部
111:指示入力部
201a:小領域抽出部
201b:小領域抽出部
202:合成部
203:再飽和部
204:小領域配置部
301a:DCT部
301b:DCT部
302:合成率算出部
303:加重加算部
304:逆DCT部
601:周波数空間合成部
602:補正部
701a:トーンマッピング部
701b:トーンマッピング部
702:再飽和部

100: Imaging device 101: Control unit 102: ROM
103: RAM
104: Optical system 105: Imaging unit 106: A/D conversion unit 107: Image processing unit 108: Recording unit 109: Communication unit 110: Display unit 111: Instruction input unit 201a: Small region extraction unit 201b: Small region extraction unit 202: Synthesis unit 203: Resaturation unit 204: Small region arrangement unit 301a: DCT unit 301b: DCT unit 302: Synthesis rate calculation unit 303: Weighted addition unit 304: Inverse DCT unit 601: Frequency space synthesis unit 602: Correction unit 701a: Tone mapping unit 701b: Tone mapping unit 702: Resaturation unit

Claims (17)

第1の実空間画像及び第2の実空間画像を夫々周波数空間に変換し第1の周波数画像及び第2の周波数画像を生成する周波数空間変換手段と、
周波数成分に基づいて前記第1の周波数画像と前記第2の周波数画像とを合成し、第3の周波数画像を生成する合成手段と、
前記第3の周波数画像を実空間に変換し第3の実空間画像を得る実空間変換手段と、
前記第1の実空間画像の飽和画素を判定する飽和画素判定手段と、
前記飽和画素に対応する座標の前記第3の実空間画像の画素である対応画素の画素値を前記飽和画素の画素値に近づけるように補正する補正手段と、を有することを特徴とする画像処理装置。
a frequency space transforming means for transforming the first real space image and the second real space image into a frequency space to generate a first frequency image and a second frequency image, respectively;
a synthesis means for synthesizing the first frequency image and the second frequency image based on frequency components to generate a third frequency image;
a real space conversion means for converting the third frequency image into a real space to obtain a third real space image;
a saturated pixel determination means for determining saturated pixels of the first real space image;
a correction unit that corrects a pixel value of a corresponding pixel, which is a pixel of the third real space image at a coordinate corresponding to the saturated pixel, so as to approach the pixel value of the saturated pixel.
前記合成手段は、少なくとも2つの周波数成分間で異なる合成率で、前記第1の周波数画像と前記第2の周波数画像とを合成することを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that the synthesis means synthesizes the first frequency image and the second frequency image with a synthesis rate that differs between at least two frequency components. 前記補正手段は、前記対応画素の画素値を前記飽和画素の画素値に置換することを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that the correction means replaces the pixel value of the corresponding pixel with the pixel value of the saturated pixel. 前記補正手段は、前記飽和画素の画素値と、前記第3の周波数画像の画素値とから求めた補間値に基づき、前記対応画素の画素値を補正することを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that the correction means corrects the pixel value of the corresponding pixel based on an interpolated value calculated from the pixel value of the saturated pixel and the pixel value of the third frequency image. 前記第1の実空間画像に平滑化処理を施して平滑化画像を生成する平滑化手段を更に備え、
前記飽和画素判定手段は、前記平滑化画像の画素値が閾値以上の画素に対応する座標の前記第1の実空間画像の画素を前記飽和画素と判定することを特徴とする請求項1に記載の画像処理装置。
a smoothing unit that performs a smoothing process on the first real space image to generate a smoothed image;
2. The image processing apparatus according to claim 1, wherein the saturated pixel determining means determines, as the saturated pixel, a pixel of the first real space image at a coordinate corresponding to a pixel of the smoothed image whose pixel value is equal to or greater than a threshold value.
前記第1の実空間画像は1画素が複数の色チャンネルにより構成されることを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, characterized in that one pixel of the first real space image is composed of multiple color channels. 前記飽和画素判定手段は、
前記第1の実空間画像の1以上の色チャンネルの画素値が閾値以上である画素に対応する座標の前記第1の実空間画像の画素を前記飽和画素と判定することを特徴とする請求項6に記載の画像処理装置。
The saturated pixel determination means
The image processing apparatus according to claim 6 , further comprising: determining, as the saturated pixel, a pixel of the first real space image at a coordinate corresponding to a pixel whose pixel value in one or more color channels of the first real space image is equal to or greater than a threshold value.
前記飽和画素判定手段は、
前記第1の実空間画像に応じて生成された、1画素が複数の色チャンネルにより構成される画像の、1以上の色チャンネルの画素値が閾値以上である画素に対応する座標の前記第1の実空間画像の画素を前記飽和画素と判定することを特徴とする請求項6に記載の画像処理装置。
The saturated pixel determination means
7. The image processing device according to claim 6, wherein a pixel of the first real space image at a coordinate corresponding to a pixel whose pixel value of one or more color channels is equal to or greater than a threshold value in an image generated based on the first real space image and in which one pixel is composed of a plurality of color channels is determined to be the saturated pixel.
前記第3の実空間画像は1画素が前記複数のチャンネルにより構成され、
前記補正手段は、前記対応画素の前記複数のチャンネルの画素値を、前記飽和画素の前記複数のチャンネルの夫々の画素値に近づけることを特徴とする請求項6記載の画像処理装置。
the third real space image has one pixel constituted by the plurality of channels;
7. The image processing apparatus according to claim 6, wherein said correction means brings the pixel values of said plurality of channels of said corresponding pixel closer to the pixel values of said plurality of channels of said saturated pixel.
画像から小領域画像を抽出する小領域抽出手段を更に備え、
前記小領域抽出手段は、第1の全体画像から前記第1の実空間画像を抽出し、前記第1の全体画像とは異なる第2の全体画像から前記第2の実空間画像を抽出することを特徴とする請求項1に記載の画像処理装置。
The method further comprises: extracting a small region image from the image;
2. The image processing device according to claim 1, wherein the small region extraction means extracts the first real-space image from a first overall image, and extracts the second real-space image from a second overall image different from the first overall image.
複数の前記第3の実空間画像を配置して第3の全体画像を生成する小領域配置手段を更に有することを特徴とする請求項1に記載の画像処理装置。 The image processing device according to claim 1, further comprising a small area arrangement means for arranging a plurality of the third real space images to generate a third overall image. 第1の実空間画像及び第2の実空間画像を夫々周波数空間に変換し第1の周波数画像及び第2の周波数画像を生成する周波数空間変換手段と、
周波数成分に基づいて前記第1の周波数画像と前記第2の周波数画像とを合成し、第3の周波数画像を生成する合成手段と、
前記第3の周波数画像を実空間に変換し第3の実空間画像を得る実空間変換手段と、
前記第1の実空間画像からなる第1の全体画像に後処理を施して第4の全体画像を生成する第1の後処理手段と、
前記第3の実空間画像からなる第3の全体画像に前記後処理を施して第5の全体画像を生成する第2の後処理手段と、
前記第4の全体画像の飽和画素を判定する飽和画素判定手段と、
前記飽和画素に対応する座標の前記第5の全体画像の画素である対応画素の画素値を、前記飽和画素の画素値に近づける補正をする補正手段と、を有することを特徴とする画像処理装置。
a frequency space transforming means for transforming the first real space image and the second real space image into a frequency space to generate a first frequency image and a second frequency image, respectively;
a synthesis means for synthesizing the first frequency image and the second frequency image based on frequency components to generate a third frequency image;
a real space conversion means for converting the third frequency image into a real space to obtain a third real space image;
a first post-processing means for performing post-processing on a first overall image formed from the first real space image to generate a fourth overall image;
a second post-processing means for performing the post-processing on a third overall image formed from the third real space image to generate a fifth overall image;
a saturated pixel determining means for determining saturated pixels of the fourth entire image;
a correction unit that corrects a pixel value of a corresponding pixel, which is a pixel of the fifth entire image at a coordinate corresponding to the saturated pixel, so as to approach the pixel value of the saturated pixel.
前記第1の後処理手段と前記第2の後処理手段は、互いに同一のパラメータにより前記第1の全体画像と前記第3の全体画像に夫々後処理を施すことを特徴とする請求項12に記載の画像処理装置。 The image processing device according to claim 12, characterized in that the first post-processing means and the second post-processing means perform post-processing on the first overall image and the third overall image, respectively, using the same parameters. 前記後処理は、トーンマッピング処理を含むことを特徴とする請求項12に記載の画像処理装置。 The image processing device according to claim 12, characterized in that the post-processing includes a tone mapping process. 第1の実空間画像及び第2の実空間画像を夫々周波数空間に変換し第1の周波数画像及び第2の周波数画像を生成する周波数空間変換ステップと、
周波数成分に基づいて前記第1の周波数画像と前記第2の周波数画像とを合成し、第3の周波数画像を生成する合成ステップと、
前記第3の周波数画像を実空間に変換し第3の実空間画像を得る実空間変換ステップと、
前記第1の実空間画像の飽和画素を判定する飽和画素判定ステップと、
前記飽和画素に対応する座標の前記第3の実空間画像の画素である対応画素の画素値を前記飽和画素の画素値に近づけるように補正する補正ステップと、を有することを特徴とする画像処理方法。
a frequency space transformation step of transforming the first real space image and the second real space image into a frequency space to generate a first frequency image and a second frequency image, respectively;
a synthesis step of synthesizing the first frequency image and the second frequency image based on frequency components to generate a third frequency image;
a real space transformation step of transforming the third frequency image into a real space to obtain a third real space image;
a saturated pixel determination step of determining saturated pixels of the first real space image;
a correction step of correcting a pixel value of a corresponding pixel, which is a pixel of the third real space image at a coordinate corresponding to the saturated pixel, so as to approach the pixel value of the saturated pixel.
第1の実空間画像及び第2の実空間画像を夫々周波数空間に変換し第1の周波数画像及び第2の周波数画像を生成する周波数空間変換ステップと、
周波数成分に基づいて前記第1の周波数画像と前記第2の周波数画像とを合成し、第3の周波数画像を生成する合成ステップと、
前記第3の周波数画像を実空間に変換し第3の実空間画像を得る実空間変換ステップと、
前記第1の実空間画像からなる第1の全体画像に後処理を施して第4の全体画像を生成する第1の後処理ステップと、
前記第3の実空間画像からなる第3の全体画像に前記後処理を施して第5の全体画像を生成する第2の後処理ステップと、
前記第4の全体画像の飽和画素を判定する飽和画素判定ステップと、
前記飽和画素に対応する座標の前記第5の全体画像の画素である対応画素の画素値を前記飽和画素の画素値に近づけるように補正する補正ステップと、を有することを特徴とする画像処理方法。
a frequency space transformation step of transforming the first real space image and the second real space image into a frequency space to generate a first frequency image and a second frequency image, respectively;
a synthesis step of synthesizing the first frequency image and the second frequency image based on frequency components to generate a third frequency image;
a real space transformation step of transforming the third frequency image into a real space to obtain a third real space image;
a first post-processing step of performing post-processing on a first overall image formed from the first real space image to generate a fourth overall image;
a second post-processing step of performing the post-processing on a third overall image formed from the third real space image to generate a fifth overall image;
a saturated pixel determination step of determining saturated pixels of the fourth entire image;
a correcting step of correcting a pixel value of a corresponding pixel, which is a pixel of the fifth entire image at a coordinate corresponding to the saturated pixel, so as to approach the pixel value of the saturated pixel.
請求項1~14のいずれか1項に記載の画像処理装置の各手段をコンピュータにより制御するためのコンピュータプログラム。

A computer program for controlling each unit of the image processing apparatus according to any one of claims 1 to 14 by a computer.

JP2022156253A 2022-09-29 2022-09-29 Image processing apparatus, image processing method, and computer program Pending JP2024049798A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022156253A JP2024049798A (en) 2022-09-29 2022-09-29 Image processing apparatus, image processing method, and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022156253A JP2024049798A (en) 2022-09-29 2022-09-29 Image processing apparatus, image processing method, and computer program

Publications (1)

Publication Number Publication Date
JP2024049798A true JP2024049798A (en) 2024-04-10

Family

ID=90622206

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022156253A Pending JP2024049798A (en) 2022-09-29 2022-09-29 Image processing apparatus, image processing method, and computer program

Country Status (1)

Country Link
JP (1) JP2024049798A (en)

Similar Documents

Publication Publication Date Title
JP4315971B2 (en) Imaging device
US9307212B2 (en) Tone mapping for low-light video frame enhancement
US20150062387A1 (en) Tone Mapping For Low-Light Video Frame Enhancement
US20110216230A1 (en) Image data processing apparatus and electronic camera
JP4869653B2 (en) Image processing device
JP4433883B2 (en) White balance correction device, white balance correction method, program, and electronic camera device
JP6087612B2 (en) Image processing apparatus and image processing method
US8345121B2 (en) Image processing apparatus, method, and program
JP2004363853A (en) Method and device for reducing noise of image signal
KR101003681B1 (en) Pixel interpolation circuit, pixel interpolation method, and recording medium
JP5291788B2 (en) Imaging device
JP5092536B2 (en) Image processing apparatus and program thereof
JP6929711B2 (en) Image processing device, image processing method, image processing program
WO2012070440A1 (en) Image processing device, image processing method, and image processing program
EP1592235A1 (en) Image processing device, image processing program and program-recorded recording medium
JP2009094751A (en) Noise suppressing device, noise suppression method, noise suppression program, and imaging apparatus
US8009935B2 (en) Pixel interpolation circuit, pixel interpolation method, and recording medium
JP2004242125A (en) Image processor
JP5919086B2 (en) Image processing apparatus, control method therefor, and program
JP2024049798A (en) Image processing apparatus, image processing method, and computer program
JP7183015B2 (en) Image processing device, image processing method, and program
JP3951993B2 (en) IMAGING DEVICE AND COLOR DATA MEASURING METHOD USED FOR THIS IMAGING DEVICE
JP2020149589A (en) Image processing device, imaging apparatus, image processing method, and program
JP5952573B2 (en) Image processing apparatus and control method thereof
JP2024052316A (en) Image processing device, image processing method and computer program