JP2016046701A - Image processing apparatus, image processing method and program - Google Patents

Image processing apparatus, image processing method and program Download PDF

Info

Publication number
JP2016046701A
JP2016046701A JP2014170227A JP2014170227A JP2016046701A JP 2016046701 A JP2016046701 A JP 2016046701A JP 2014170227 A JP2014170227 A JP 2014170227A JP 2014170227 A JP2014170227 A JP 2014170227A JP 2016046701 A JP2016046701 A JP 2016046701A
Authority
JP
Japan
Prior art keywords
image data
image
area
region
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014170227A
Other languages
Japanese (ja)
Inventor
拓也 岩田
Takuya Iwata
拓也 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014170227A priority Critical patent/JP2016046701A/en
Publication of JP2016046701A publication Critical patent/JP2016046701A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique which allows a user to easily deciding whether a saturation region, existing in an image represented by the image data after image processing, is a saturation region generated by image processing or a saturation region that has been generated before image processing.SOLUTION: An image processing apparatus has image processing means for generating the image processing data by performing image processing of input image data, first detection means for detecting at least one of a black crushing area or a whiteout area, among the area of image represented by the input image data, as a saturation area, second detection means for detecting at least one of a black crushing area or a whiteout area, among the area of image represented by the image processing data, as a saturation area, and generation means for generating display image data representing the saturation region of an image based on the image processing data detected by only the second detection means, and the saturation region detected by both first and second detection means identifiably.SELECTED DRAWING: Figure 1

Description

本発明は、画像処理装置、画像処理方法、及び、プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

近年、階調値のビット数が多い画像データ(多ビット画像データ)を取り扱う機会が増えてきている。例えば、12ビットや16ビットの階調値を有するRAW画像データを撮影して記録するデジタルカメラが提案されている。また、32ビットの階調値を有する画像データ(ダイナミックレンジが広い画像データ;HDR画像データ)のフォーマットとして、JPEG−HDRが提案されている(特許文献1)。JPEG−HDRは、HDR画像データを、8ビットの階調値を有するJPEG画像データと、当該JPEG画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データと、で表現したフォーマットである。   In recent years, opportunities to handle image data (multi-bit image data) having a large number of bits of gradation values are increasing. For example, a digital camera that captures and records RAW image data having 12-bit or 16-bit gradation values has been proposed. Further, JPEG-HDR has been proposed as a format of image data having 32-bit gradation values (image data with a wide dynamic range; HDR image data) (Patent Document 1). JPEG-HDR includes HDR image data, JPEG image data having an 8-bit gradation value, and difference data used in enlargement processing for enlarging at least one of the dynamic range and color gamut of the JPEG image data. It is the expressed format.

しかしながら、多ビット画像データに対応していない装置(画像表示装置、携帯端末、等)を使用する機会は、依然として多い。“多ビット画像データに対応していない装置”は、“多ビット画像データを処理できない装置”と言うこともできる。
そのため、撮影された多ビット画像データを、階調値のビット数が少ない画像データ(少ビット画像データ)に変換して使用するケースも多い。多ビット画像データは、例えば、変換前の階調値と変換後の階調値との対応関係を表す対応データ(関数やテーブル)を用いて、少ビット画像データに変換される。対応データは、取り得る階調値の範囲を圧縮するデータと言うこともできる。
そして、多ビット画像データを少ビット画像データに変換することにより、画像に白飛びや黒潰れが生じてしまうことがある。
なお、白飛びや黒潰れの発生を招く画像処理は、多ビット画像データを少ビット画像データに変換する画像処理に限らない。
However, there are still many opportunities to use devices that do not support multi-bit image data (image display devices, portable terminals, etc.). “A device that does not support multi-bit image data” can also be referred to as a “device that cannot process multi-bit image data”.
Therefore, in many cases, the captured multi-bit image data is used after being converted into image data (small bit image data) having a small number of bits of the gradation value. The multi-bit image data is converted into small-bit image data using, for example, correspondence data (function or table) indicating the correspondence between the gradation value before conversion and the gradation value after conversion. The corresponding data can also be said to be data that compresses a range of possible gradation values.
Then, when multi-bit image data is converted into low-bit image data, whiteout or blackout may occur in the image.
Note that image processing that causes whiteout or blackout is not limited to image processing that converts multi-bit image data into low-bit image data.

近年、デジタルカメラやJPEGビューワ等では、白飛びが生じている画像領域(白飛び領域)と黒潰れが生じている画像領域(黒潰れ領域)とを強調表示する機能がよく使用されている。
このような機能に関する従来技術は、例えば、特許文献2,3に開示されている。
特許文献2に開示の撮影装置は、白飛び領域と黒潰れ領域との検出結果を撮影者に通知する。また、特許文献2に開示の撮影装置は、白飛びと黒潰れを低減するために必要な調整を表す調整情報、露出を適切な値に調整する調整操作を促す操作情報、等を表示する。
特許文献3に開示の画像表示装置は、表示可能な階調値の範囲よりも広い範囲の階調値を有する入力画像データを表示する場合に、入力画像データが取り得る階調値の範囲が表示可能な階調値の範囲に圧縮されるように、入力画像データの各階調値を変換する。そして、特許文献3に開示の画像表示装置は、変換後の画像データを表示する。また、特許文献3に開示の画像表示装置は、入力画像データの階調値のヒストグラムを表示し、表示している画像データの階調値の範囲を当該ヒストグラム上に表示する。
In recent years, digital cameras, JPEG viewers, and the like often use a function of highlighting an image area in which whiteout has occurred (whiteout area) and an image area in which blackout has occurred (blackout area).
Conventional techniques relating to such functions are disclosed in, for example, Patent Documents 2 and 3.
The imaging apparatus disclosed in Patent Literature 2 notifies the photographer of the detection results of the whiteout area and the blackout area. In addition, the photographing apparatus disclosed in Patent Document 2 displays adjustment information indicating adjustment necessary for reducing overexposure and blackout, operation information for prompting an adjustment operation for adjusting the exposure to an appropriate value, and the like.
The image display device disclosed in Patent Document 3 has a range of gradation values that can be taken by input image data when displaying input image data having a gradation value range wider than the range of gradation values that can be displayed. Each gradation value of the input image data is converted so as to be compressed into a displayable gradation value range. Then, the image display device disclosed in Patent Document 3 displays the converted image data. The image display device disclosed in Patent Document 3 displays a gradation value histogram of input image data, and displays a range of gradation values of the displayed image data on the histogram.

ここでは、白飛び領域と黒潰れ領域を“飽和領域”と記載する。
画像処理後の画像データ(例えば、少ビット画像データ)が表す画像に存在する飽和領域として、画像処理によって生じた飽和領域(第1飽和領域)と、画像処理が施される前から生じていた飽和領域(第2飽和領域)と、がある。そして、第1飽和領域と第2飽和領域とでは、白飛びや黒潰れの低減方法が互いに異なる。例えば、第1飽和領域の白飛びや黒潰れは、画像処理の方法を変更することで低減することができる。一方、第2飽和領域の白飛びや黒潰れは、画像処理の方法を変更しても低減することはできない。第2飽和
領域の白飛びや黒潰れを低減するためには、画像処理前の画像データの再撮影などの作業が必要となる。
そのため、白飛びや黒潰れを効率よく低減するために、画像処理後の画像データが表す画像に存在する飽和領域が第1飽和領域であるか第2飽和領域であるかを、ユーザが容易に把握できることが望ましい。
Here, the whiteout area and the blackout area are referred to as “saturated areas”.
As a saturated region existing in an image represented by image data after image processing (for example, small bit image data), a saturated region (first saturated region) generated by the image processing and before the image processing was performed And a saturation region (second saturation region). The first saturation region and the second saturation region are different from each other in the method of reducing whiteout or blackout. For example, whiteout or blackout in the first saturation region can be reduced by changing the image processing method. On the other hand, whiteout or blackout in the second saturation region cannot be reduced even if the image processing method is changed. In order to reduce overexposure and blackout in the second saturation region, it is necessary to perform re-photographing of image data before image processing.
Therefore, in order to efficiently reduce overexposure and blackout, the user can easily determine whether the saturation region present in the image represented by the image data after image processing is the first saturation region or the second saturation region. It is desirable to be able to grasp.

しかしながら、特許文献2に開示の技術を用いた場合、第1飽和領域と第2飽和領域が区別されずに取り扱われてしまう。
そのため、特許文献2の技術を用いたとしても、画像処理後の画像データが表す画像に存在する飽和領域が第1飽和領域であるか第2飽和領域であるかを、ユーザは判断することができない。その結果、白飛びや黒潰れを効率よく低減することができない。
また、特許文献3に開示の技術では、入力画像データの階調値のヒストグラムが表示されるが、ユーザは、ヒストグラムからでは、画像処理後の画像データが表す画像に存在する飽和領域が第1飽和領域であるか第2飽和領域であるかを判断することはできない。
そのため、特許文献3の技術を用いたとしても、画像処理後の画像データが表す画像に存在する飽和領域が第1飽和領域であるか第2飽和領域であるかを、ユーザは判断することができない。その結果、白飛びや黒潰れを効率よく低減することができない。
However, when the technique disclosed in Patent Document 2 is used, the first saturated region and the second saturated region are handled without being distinguished.
Therefore, even if the technique of Patent Document 2 is used, the user can determine whether the saturation region existing in the image represented by the image data after image processing is the first saturation region or the second saturation region. Can not. As a result, it is not possible to efficiently reduce whiteout or blackout.
In the technique disclosed in Patent Document 3, a histogram of the gradation values of the input image data is displayed. From the histogram, the user has a saturated region present in the image represented by the image data after image processing as the first. It cannot be determined whether the saturation region or the second saturation region.
Therefore, even if the technique of Patent Document 3 is used, the user can determine whether the saturated region existing in the image represented by the image data after image processing is the first saturated region or the second saturated region. Can not. As a result, it is not possible to efficiently reduce whiteout or blackout.

また、特許文献3に開示の技術では、表示している画像データの階調値の範囲がさらに表示される。しかしながら、上記画像処理として、変換前の階調値の変化に対して変化後の階調値が非線形に変化する画像処理(ガンマ変換処理、クリップ処理、等)が行われることがある。そのため、表示している画像データの階調値の範囲を表示しても、表示している画像データの階調値のヒストグラムが表現されないことがある。その結果、表示している画像データの階調値に関する情報をユーザが正確に把握できないことがある。   In the technique disclosed in Patent Document 3, the range of gradation values of the displayed image data is further displayed. However, as the image processing, image processing (gamma conversion processing, clipping processing, etc.) in which the gradation value after the change changes nonlinearly with respect to the change in the gradation value before the conversion may be performed. For this reason, even if the range of the gradation value of the displayed image data is displayed, a histogram of the gradation value of the displayed image data may not be expressed. As a result, the user may not be able to accurately grasp information related to the gradation value of the displayed image data.

特開2011−193511号公報JP 2011-193511 A 特開2007−235421号公報JP 2007-235421 A 特開平09−016795号公報Japanese Patent Application Laid-Open No. 09-016795

本発明は、画像処理後の画像データが表す画像に存在する飽和領域が、画像処理によって生じた飽和領域であるか、画像処理が施される前から生じていた飽和領域であるかを、ユーザに容易に判断させることができる技術を提供することを目的とする。   The present invention determines whether a saturated area existing in an image represented by image data after image processing is a saturated area generated by image processing or a saturated area generated before image processing is performed. It is an object of the present invention to provide a technique that can easily make a judgment.

本発明の第1の態様は、
入力画像データに画像処理を施すことにより、処理画像データを生成する画像処理手段と、
前記入力画像データに基づいて、前記入力画像データが表す画像の領域の中から、黒潰れが生じている領域と白飛びが生じている領域との少なくとも一方を、飽和領域として検出する第1検出手段と、
前記処理画像データに基づいて、前記処理画像データが表す画像の領域の中から、黒潰れが生じている領域と白飛びが生じている領域との少なくとも一方を、飽和領域として検出する第2検出手段と、
前記処理画像データ、前記第1検出手段の検出結果、及び、前記第2検出手段の検出結果に基づいて、前記処理画像データに基づく画像の、前記第2検出手段でのみ検出された飽和領域と、前記第1検出手段と前記第2検出手段の両方で検出された飽和領域と、を識
別可能に表現した表示用画像データを生成する生成手段と、
を有することを特徴とする画像処理装置である。
The first aspect of the present invention is:
Image processing means for generating processed image data by performing image processing on the input image data;
First detection for detecting, as a saturated region, at least one of a blackened region and a whiteout region from an image region represented by the input image data based on the input image data Means,
Second detection for detecting, as a saturated region, at least one of a blackened region and a whiteout region from an image region represented by the processed image data based on the processed image data Means,
Based on the processed image data, the detection result of the first detection means, and the detection result of the second detection means, a saturated region detected only by the second detection means of an image based on the processed image data; Generating means for generating image data for display expressing the saturation region detected by both the first detection means and the second detection means in an identifiable manner;
An image processing apparatus comprising:

本発明の第2の態様は、
第1画像データを取得する第1取得手段と、
前記第1画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データを取得する第2取得手段と、
前記差分データを用いた拡大処理を前記第1画像データに施すことにより、第2画像データを生成する拡大手段と、
前記第2画像データに基づいて、前記第2画像データが表す画像の領域の中から、黒潰れが生じている領域と、白飛びが生じている領域と、の少なくとも一方を、飽和領域として検出する第1検出手段と、
前記第1画像データに基づいて、前記第1画像データが表す画像の領域の中から、黒潰れが生じている領域と、白飛びが生じている領域と、の少なくとも一方を飽和領域として検出する第2検出手段と、
前記第1画像データ、前記第1検出手段の検出結果、及び、前記第2検出手段の検出結果に基づいて、前記第1画像データに基づく画像の、前記第2検出手段でのみ検出された飽和領域と、前記第1検出手段と前記第2検出手段の両方で検出された飽和領域と、を識別可能に表現した表示用画像データを生成する生成手段と、
を有することを特徴とする画像処理装置である。
The second aspect of the present invention is:
First acquisition means for acquiring first image data;
Second acquisition means for acquiring difference data used in an enlargement process for enlarging at least one of the dynamic range and color gamut of the first image data;
Enlargement means for generating second image data by applying enlargement processing using the difference data to the first image data;
Based on the second image data, at least one of a blackened area and a whiteout area is detected as a saturated area from the image area represented by the second image data. First detecting means for
Based on the first image data, at least one of a blackened area and a whiteout area is detected as a saturated area from the image area represented by the first image data. A second detection means;
Based on the first image data, the detection result of the first detection means, and the detection result of the second detection means, the saturation detected only by the second detection means of the image based on the first image data Generating means for generating display image data expressing the area and the saturated area detected by both the first detecting means and the second detecting means in an identifiable manner;
An image processing apparatus comprising:

本発明の第3の態様は、
入力画像データに画像処理を施すことにより、処理画像データを生成する画像処理ステップと、
前記入力画像データに基づいて、前記入力画像データが表す画像の領域の中から、黒潰れが生じている領域と白飛びが生じている領域との少なくとも一方を、飽和領域として検出する第1検出ステップと、
前記処理画像データに基づいて、前記処理画像データが表す画像の領域の中から、黒潰れが生じている領域と白飛びが生じている領域との少なくとも一方を、飽和領域として検出する第2検出ステップと、
前記処理画像データ、前記第1検出ステップの検出結果、及び、前記第2検出ステップの検出結果に基づいて、前記処理画像データに基づく画像の、前記第2検出ステップでのみ検出された飽和領域と、前記第1検出ステップと前記第2検出ステップの両方で検出された飽和領域と、を識別可能に表現した表示用画像データを生成する生成ステップと、
を有することを特徴とする画像処理方法である。
The third aspect of the present invention is:
An image processing step for generating processed image data by performing image processing on the input image data;
First detection for detecting, as a saturated region, at least one of a blackened region and a whiteout region from an image region represented by the input image data based on the input image data Steps,
Second detection for detecting, as a saturated region, at least one of a blackened region and a whiteout region from an image region represented by the processed image data based on the processed image data Steps,
Based on the processed image data, the detection result of the first detection step, and the detection result of the second detection step, a saturation region detected only in the second detection step of the image based on the processed image data; A generation step of generating display image data expressing the saturation region detected in both the first detection step and the second detection step in an identifiable manner;
An image processing method characterized by comprising:

本発明の第4の態様は、
第1画像データを取得する第1取得ステップと、
前記第1画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データを取得する第2取得ステップと、
前記差分データを用いた拡大処理を前記第1画像データに施すことにより、第2画像データを生成する拡大ステップと、
前記第2画像データに基づいて、前記第2画像データが表す画像の領域の中から、黒潰れが生じている領域と、白飛びが生じている領域と、の少なくとも一方を、飽和領域として検出する第1検出ステップと、
前記第1画像データに基づいて、前記第1画像データが表す画像の領域の中から、黒潰れが生じている領域と、白飛びが生じている領域と、の少なくとも一方を飽和領域として検出する第2検出ステップと、
前記第1画像データ、前記第1検出手段の検出結果、及び、前記第2検出手段の検出結果に基づいて、前記第1画像データに基づく画像の、前記第2検出ステップでのみ検出さ
れた飽和領域と、前記第1検出ステップと前記第2検出ステップの両方で検出された飽和領域と、を識別可能に表現した表示用画像データを生成する生成ステップと、
を有することを特徴とする画像処理方法である。
The fourth aspect of the present invention is:
A first acquisition step of acquiring first image data;
A second acquisition step of acquiring difference data used in an enlargement process for enlarging at least one of the dynamic range and the color gamut of the first image data;
An enlargement step of generating second image data by applying an enlargement process using the difference data to the first image data;
Based on the second image data, at least one of a blackened area and a whiteout area is detected as a saturated area from the image area represented by the second image data. First detecting step,
Based on the first image data, at least one of a blackened area and a whiteout area is detected as a saturated area from the image area represented by the first image data. A second detection step;
Saturation detected only in the second detection step of the image based on the first image data based on the first image data, the detection result of the first detection means, and the detection result of the second detection means A generation step of generating display image data expressing the region and the saturated region detected in both the first detection step and the second detection step in an identifiable manner;
An image processing method characterized by comprising:

本発明の第5の態様は、上述した画像処理方法の各ステップをコンピュータに実行させることを特徴とするプログラムである。   According to a fifth aspect of the present invention, there is provided a program that causes a computer to execute each step of the above-described image processing method.

本発明によれば、画像処理後の画像データが表す画像に存在する飽和領域が、画像処理によって生じた飽和領域であるか、画像処理が施される前から生じていた飽和領域であるかを、ユーザに容易に判断させることができる。その結果、白飛びや黒潰れを効率よく低減することができる。   According to the present invention, it is determined whether the saturated area existing in the image represented by the image data after the image processing is a saturated area generated by the image processing or a saturated area generated before the image processing is performed. The user can easily make a determination. As a result, whiteout and blackout can be efficiently reduced.

実施例1に係る画像表示装置の機能構成の一例を示すブロック図FIG. 1 is a block diagram illustrating an example of a functional configuration of an image display device according to a first embodiment. 実施例1に係る対応データの一例を示す図The figure which shows an example of the correspondence data which concern on Example 1. 実施例1に係る第1飽和領域検出部の検出結果の一例を示す図The figure which shows an example of the detection result of the 1st saturation area | region detection part which concerns on Example 1. FIG. 実施例1に係る第2飽和領域検出部の検出結果の一例を示す図The figure which shows an example of the detection result of the 2nd saturation area | region detection part which concerns on Example 1. FIG. 実施例1に係る処理画像と表示用画像の一例を示す図The figure which shows an example of the process image and display image which concern on Example 1. FIG. 実施例1に係る画像表示装置の動作の一例を示すフローチャート7 is a flowchart illustrating an example of the operation of the image display apparatus according to the first embodiment. 実施例2に係る画像表示装置の機能構成の一例を示すブロック図FIG. 7 is a block diagram illustrating an example of a functional configuration of an image display apparatus according to a second embodiment. 実施例2に係る表示画像の一例を示す図The figure which shows an example of the display image which concerns on Example 2. FIG. 実施例2に係る画像表示装置の動作の一例を示すフローチャート10 is a flowchart illustrating an example of the operation of the image display apparatus according to the second embodiment. 実施例3に係る画像表示装置の機能構成の一例を示すブロック図FIG. 9 is a block diagram illustrating an example of a functional configuration of an image display apparatus according to a third embodiment. 実施例4に係る画像表示装置の機能構成の一例を示すブロック図FIG. 9 is a block diagram illustrating an example of a functional configuration of an image display apparatus according to a fourth embodiment.

<実施例1>
本発明の実施例1に係る画像処理装置及び画像処理方法について説明する。
なお、本実施例では、画像処理装置が画像表示装置である場合の例を説明するが、画像処理装置は画像表示装置とは別体の装置であってもよい。
<Example 1>
An image processing apparatus and an image processing method according to Embodiment 1 of the present invention will be described.
In this embodiment, an example in which the image processing apparatus is an image display apparatus will be described, but the image processing apparatus may be a separate apparatus from the image display apparatus.

図1は、本実施例に係る画像表示装置100の機能構成の一例を示すブロック図である。
図1に示すように、画像表示装置100は、画像入力部101、トーンマッピング部102、画像処理部103、第1飽和領域検出部104、第2飽和領域検出部105、飽和領域描画部106、画像表示部107、等を有する。
なお、画像処理装置が画像表示装置と別体の装置である場合には、画像入力部101、トーンマッピング部102、画像処理部103、第1飽和領域検出部104、第2飽和領域検出部105、及び、飽和領域描画部106が画像処理装置に設けられる。そして、画像表示部107が画像表示装置に設けられる。
FIG. 1 is a block diagram illustrating an example of a functional configuration of the image display apparatus 100 according to the present embodiment.
As shown in FIG. 1, the image display apparatus 100 includes an image input unit 101, a tone mapping unit 102, an image processing unit 103, a first saturated region detecting unit 104, a second saturated region detecting unit 105, a saturated region drawing unit 106, And an image display unit 107.
When the image processing apparatus is a separate apparatus from the image display apparatus, the image input unit 101, the tone mapping unit 102, the image processing unit 103, the first saturation region detection unit 104, and the second saturation region detection unit 105 are used. , And a saturated region rendering unit 106 is provided in the image processing apparatus. An image display unit 107 is provided in the image display device.

画像入力部101は、画像データ(入力画像データ)を取得し、入力画像データをトーンマッピング部102と第1飽和領域検出部104に出力する。
なお、入力画像データの取得方法は特に限定されない。例えば、画像処理装置の外部から入力画像データが取得されてもよいし、画像処理装置が有する不図示の記憶部から入力画像データが取得されてもよい。
なお、入力画像データはどのような画像データであってもよい。本実施例では、16ビットの階調値(0以上且つ65535以下の階調値)を有するRAW画像データが入力画像データとして取得された場合の例を説明する。階調値としては、色成分値、輝度値、等
を使用することができる。色成分値は、例えば、赤色に対応するR値、緑色に対応するG値、青色に対応するB値、等である。画像データの画素値は、複数の色成分値の組み合わせた値であってもよいし、輝度値と色差値を組み合わせた値であってもよい。複数の色成分値の組み合わせた画素値は、例えば、R値とG値とB値の組み合わせたRGB値である。輝度値と色差値を組み合わせた画素値は、例えば、輝度値(Y値)と2つの色差値(Cb値とCr値)を組み合わせたYCbCr値である。
The image input unit 101 acquires image data (input image data) and outputs the input image data to the tone mapping unit 102 and the first saturation region detection unit 104.
In addition, the acquisition method of input image data is not specifically limited. For example, input image data may be acquired from the outside of the image processing apparatus, or input image data may be acquired from a storage unit (not shown) included in the image processing apparatus.
The input image data may be any image data. In this embodiment, an example will be described in which RAW image data having 16-bit gradation values (gradation values of 0 or more and 65535 or less) is acquired as input image data. As the gradation value, a color component value, a luminance value, or the like can be used. The color component value is, for example, an R value corresponding to red, a G value corresponding to green, a B value corresponding to blue, and the like. The pixel value of the image data may be a value obtained by combining a plurality of color component values, or may be a value obtained by combining a luminance value and a color difference value. The pixel value obtained by combining a plurality of color component values is, for example, an RGB value obtained by combining an R value, a G value, and a B value. The pixel value obtained by combining the luminance value and the color difference value is, for example, a YCbCr value obtained by combining the luminance value (Y value) and two color difference values (Cb value and Cr value).

トーンマッピング部102は、画像入力部101から出力された入力画像データに画像処理を施すことにより、処理画像データ(第1処理画像データ)を生成する画像処理部である。本実施例では、トーンマッピング部102は、入力画像データの階調値と第1処理画像データの階調値との対応関係を表す対応データ(関数やテーブル)を用いて、入力画像データの階調値を第1処理画像データの階調値に変換する画像処理を実行する。このような画像処理は、“トーンマッピング処理”と呼ばれる。
ここで、入力画像データの階調値が画像処理部103及び画像表示部107が処理可能な階調値の範囲の外側の値を含むことがある。トーンマッピング処理を行うことにより、入力画像データが取り得る階調値の範囲を画像処理部103及び画像表示部107が処理可能な階調値の範囲に合わせる(圧縮する)ことができる。
トーンマッピング部102は、生成した第1処理画像データを画像処理部103と第2飽和領域検出部105に出力する。
The tone mapping unit 102 is an image processing unit that generates processed image data (first processed image data) by performing image processing on the input image data output from the image input unit 101. In the present embodiment, the tone mapping unit 102 uses the corresponding data (function or table) representing the correspondence between the gradation value of the input image data and the gradation value of the first processed image data to calculate the level of the input image data. Image processing for converting the tone value into the tone value of the first processed image data is executed. Such image processing is called “tone mapping processing”.
Here, the gradation values of the input image data may include values outside the range of gradation values that can be processed by the image processing unit 103 and the image display unit 107. By performing the tone mapping process, the range of gradation values that can be taken by the input image data can be matched (compressed) with the range of gradation values that can be processed by the image processing unit 103 and the image display unit 107.
The tone mapping unit 102 outputs the generated first processed image data to the image processing unit 103 and the second saturation region detection unit 105.

なお、第1処理画像データはどのような画像データであってもよい。また、画像処理部103及び画像表示部107が処理可能な階調値の範囲は特に限定されない。本実施例では、画像処理部103及び画像表示部107が処理可能な階調値が8ビットの階調値(0以上且つ255以下の階調値)であり、8ビットの階調値を有する第1処理画像データが生成される場合の例を説明する。
なお、トーンマッピング部102が実行する画像処理は上記画像処理に限らない。例えば、トーンマッピング部102が実行する画像処理は、入力画像データの画素値に係数を乗算する乗算処理、入力画像データの画素値に補正値を加算する加算処理、等であってもよい。
The first processed image data may be any image data. The range of gradation values that can be processed by the image processing unit 103 and the image display unit 107 is not particularly limited. In this embodiment, the gradation value that can be processed by the image processing unit 103 and the image display unit 107 is an 8-bit gradation value (a gradation value of 0 or more and 255 or less), and has an 8-bit gradation value. An example in which the first processed image data is generated will be described.
Note that the image processing executed by the tone mapping unit 102 is not limited to the above image processing. For example, the image processing executed by the tone mapping unit 102 may be multiplication processing for multiplying the pixel value of the input image data by a coefficient, addition processing for adding the correction value to the pixel value of the input image data, and the like.

図2(a)〜2(c)は、対応データの一例を示す図である。
図2(a)〜2(c)の横軸は入力値(変換前の階調値;入力画像データが取り得る階調値;入力階調値)を示す。図2(a)〜2(c)の縦軸は出力値(変換後の階調値;第1処理画像データが取り得る階調値;処理階調値)を示す。
トーンマッピング部102は、トーンマッピング部102が実行する画像処理の方法を変更することができる。具体的には、トーンマッピング部102は、使用する対応データが表す対応関係を変更することができる。使用する対応データが表す対応関係は、例えば、ユーザ操作、入力画像データが表す画像(入力画像)の特徴、画像表示装置100の設置環境、等に応じて変更される。使用する対応データが表す対応関係を変更することにより、例えば、入力階調値の範囲のうちの一部の範囲に他の範囲よりも優先して処理階調値が割り当てられた対応データを得ることができる。
2A to 2C are diagrams illustrating an example of correspondence data.
2 (a) to 2 (c) indicate input values (gradation values before conversion; gradation values that can be taken by input image data; input gradation values). The vertical axis in FIGS. 2A to 2C indicates an output value (a converted gradation value; a gradation value that can be taken by the first processed image data; a processed gradation value).
The tone mapping unit 102 can change the image processing method executed by the tone mapping unit 102. Specifically, the tone mapping unit 102 can change the correspondence relationship represented by the correspondence data to be used. The correspondence relationship represented by the correspondence data to be used is changed according to, for example, the user operation, the characteristics of the image (input image) represented by the input image data, the installation environment of the image display device 100, and the like. By changing the correspondence relationship represented by the correspondence data to be used, for example, the correspondence data in which the processing gradation value is assigned to some of the input gradation value ranges with priority over the other ranges is obtained. be able to.

なお、使用する対応データが表す対応関係の変更方法は特に限定されない。例えば、対応データを補正することにより、対応データが表す対応関係が変更されてもよい。複数の対応データのうちの1つが使用する対応データとして選択されてもよい。その場合には、選択する対応データを変更することによって、使用する対応データが表す対応関係を変更することができる。   The method for changing the correspondence relationship represented by the correspondence data to be used is not particularly limited. For example, the correspondence relationship represented by the correspondence data may be changed by correcting the correspondence data. One of the plurality of corresponding data may be selected as the corresponding data to be used. In that case, the correspondence relationship represented by the correspondence data to be used can be changed by changing the correspondence data to be selected.

図2(a)の対応データは、入力階調値の増加に伴って処理階調値が線形に増加する対応関係を表す。
図2(b)の対応データでは、入力階調値の範囲のうちの低階調範囲に、他の範囲よりも優先して処理階調値が割り当てられている。低階調範囲は、低階調側の入力階調値の範囲である。例えば、低階調範囲は、入力階調値の最小値から第1階調値までの範囲である。第1階調値は、入力階調値の最小値よりも大きい入力階調値である。図2(b)の対応データを使用することにより、暗部領域(入力画像データの階調値が低階調範囲の入力階調値である領域)の階調性が他の領域の階調性よりも高い画像(処理画像)を表す第1処理画像データを得ることができる。
図2(c)の対応データでは、入力階調値の範囲のうちの高階調範囲に、他の範囲よりも優先して処理階調値が割り当てられている。高階調範囲は、高階調側の入力階調値の範囲である。例えば、高階調範囲は、入力階調値の最大値から第2階調値までの範囲である。第2階調値は、入力階調値の最大値よりも小さい入力階調値である。図2(c)の対応データを使用することにより、明部領域(入力画像データの階調値が高階調範囲の入力階調値である領域)の階調性が他の領域の階調性よりも高い処理画像を表す第1処理画像データを得ることができる。
なお、第1階調値と第2階調値はどのような値であってもよい。第1階調値と第2階調値の少なくとも一方は、メーカによって予め定められた値であってもよいし、ユーザ操作、入力画像の特徴、画像表示装置100の設置環境、等に応じて決定されてもよい。
The correspondence data in FIG. 2A represents a correspondence relationship in which the processing gradation value increases linearly as the input gradation value increases.
In the corresponding data in FIG. 2B, the processing gradation value is assigned to the low gradation range of the input gradation value range in preference to the other ranges. The low gradation range is a range of input gradation values on the low gradation side. For example, the low gradation range is a range from the minimum input gradation value to the first gradation value. The first gradation value is an input gradation value that is larger than the minimum value of the input gradation values. By using the corresponding data in FIG. 2B, the gradation of the dark area (the area in which the gradation value of the input image data is the input gradation value in the low gradation range) becomes the gradation of the other area. First processed image data representing a higher image (processed image) can be obtained.
In the correspondence data in FIG. 2C, the processing gradation value is assigned to the high gradation range in the input gradation value range in preference to the other ranges. The high gradation range is a range of input gradation values on the high gradation side. For example, the high gradation range is a range from the maximum input gradation value to the second gradation value. The second gradation value is an input gradation value that is smaller than the maximum value of the input gradation values. By using the corresponding data in FIG. 2C, the gradation of the bright area (the area where the gradation value of the input image data is the input gradation value in the high gradation range) is the gradation of the other area. First processed image data representing a higher processed image can be obtained.
Note that the first gradation value and the second gradation value may be any value. At least one of the first gradation value and the second gradation value may be a value determined in advance by the manufacturer, or according to a user operation, a feature of the input image, an installation environment of the image display device 100, or the like. It may be determined.

第1飽和領域検出部104は、画像入力部101から出力された入力画像データに基づいて、入力画像の領域の中から黒潰れ領域と白飛び領域との少なくとも一方を、飽和領域として検出する(第1検出処理)。黒潰れ領域は、黒潰れが生じている領域であり、白飛び領域は、白飛びが生じている領域である。本実施例では、第1飽和領域検出部104は、黒潰れ領域と白飛び領域とのそれぞれを、飽和領域として検出する。
そして、第1飽和領域検出部104は、飽和領域の検出結果を飽和領域描画部106に出力する。例えば、第1飽和領域検出部104は、飽和領域を表す領域情報を、飽和領域の検出結果として出力する。領域情報は、例えば、飽和領域に含まれる各画素の座標を表す座標情報である。
Based on the input image data output from the image input unit 101, the first saturation region detection unit 104 detects at least one of a blackened region and a whiteout region as a saturation region from the region of the input image ( First detection process). The blackout area is an area where blackout occurs, and the whiteout area is an area where whiteout occurs. In the present embodiment, the first saturation region detection unit 104 detects each of the blackout region and the whiteout region as a saturation region.
Then, the first saturation region detection unit 104 outputs the detection result of the saturation region to the saturation region drawing unit 106. For example, the first saturation region detection unit 104 outputs region information representing the saturation region as a detection result of the saturation region. The area information is, for example, coordinate information that represents the coordinates of each pixel included in the saturated area.

なお、第1飽和領域検出部104は、黒潰れが生じている領域と白飛びが生じている領域との一方を飽和領域として検出してもよい。
なお、第1飽和領域検出部104は、領域情報と、各飽和領域が黒潰れ領域であるか白飛び領域であるかを表す種類情報と、を含む情報を、飽和領域の検出結果として出力してもよい。
Note that the first saturation region detection unit 104 may detect one of a blackened region and a whiteout region as a saturated region.
The first saturated region detection unit 104 outputs information including region information and type information indicating whether each saturated region is a blackout region or a whiteout region as a saturation region detection result. May be.

本実施例では、第1飽和領域検出部104は、入力画像データの階調値が第1閾値以上である領域を白飛び領域として検出し、入力画像データの階調値が第2閾値以下である領域を黒潰れ領域として検出する。第2閾値は、第1閾値よりも小さい値である。このような方法によれば、入力画像データの階調値が入力階調値の最大値と一致する画素だけでなく、入力画像データの階調値が入力階調値の最大値の近傍の値である画素も、白飛び領域の画素として検出することができる。また、入力画像データの階調値が入力階調値の最小値と一致する画素だけでなく、入力画像データの階調値が入力階調値の最小値の近傍の値である画素も、黒潰れ領域の画素として検出することができる。   In the present embodiment, the first saturation region detection unit 104 detects a region where the gradation value of the input image data is equal to or greater than the first threshold value as a whiteout region, and the gradation value of the input image data is equal to or less than the second threshold value. A certain area is detected as a blackout area. The second threshold is a value smaller than the first threshold. According to such a method, not only the pixel whose gradation value of the input image data matches the maximum value of the input gradation value, but also the gradation value of the input image data is a value in the vicinity of the maximum value of the input gradation value. This pixel can also be detected as a pixel in a whiteout region. In addition, not only pixels whose gradation value of the input image data matches the minimum value of the input gradation value, but also pixels whose gradation value of the input image data is a value near the minimum value of the input gradation value are black. It can be detected as a pixel in the collapsed area.

なお、第1閾値と第2閾値はどのような値であってもよい。第1閾値と第2閾値の少なくとも一方は、メーカによって予め定められた値であってもよいし、ユーザ操作、入力画像の特徴、入力階調値の範囲、入力画像のサイズ、画像表示装置100の設置環境、等に応じて決定されてもよい。第1閾値は、入力階調値の最大値であってもよい。第2閾値は、入力階調値の最小値であってもよい。
なお、飽和領域の検出方法は上記方法に限らない。例えば、入力画像データの階調値が第1閾値以上であり、且つ、サイズが閾値以上である領域が、白飛び領域として検出され
てもよい。そして、入力画像データの階調値が第2閾値以下であり、且つ、サイズが閾値以上である領域が、黒潰れ領域として検出されてもよい。
なお、サイズの閾値はどのような値であってもよい。サイズの閾値は、メーカによって予め定められた値であってもよいし、ユーザ操作、入力画像の特徴、入力階調値の範囲、入力画像のサイズ、画像表示装置100の設置環境、等に応じて決定されてもよい。
Note that the first threshold value and the second threshold value may be any value. At least one of the first threshold value and the second threshold value may be a value determined in advance by the manufacturer, or may be a user operation, a feature of the input image, a range of the input gradation value, a size of the input image, and the image display device 100. It may be determined according to the installation environment, etc. The first threshold value may be the maximum value of the input gradation value. The second threshold value may be a minimum value of the input gradation value.
Note that the saturation region detection method is not limited to the above method. For example, an area where the gradation value of the input image data is greater than or equal to the first threshold and the size is greater than or equal to the threshold may be detected as a whiteout area. Then, an area where the gradation value of the input image data is equal to or smaller than the second threshold and the size is equal to or larger than the threshold may be detected as a blackout area.
The size threshold may be any value. The size threshold value may be a value determined in advance by the manufacturer, or may depend on the user operation, the characteristics of the input image, the range of the input gradation value, the size of the input image, the installation environment of the image display device 100, and the like. May be determined.

図3に、第1飽和領域検出部104の検出結果の一例を示す。
図3において、太実線を細実線で分割して得られる領域は、入力画像の画素を表す。画素に記載されている数値は、飽和領域の検出結果を表すフラグ(第1フラグ)である。第1フラグ“0”が記載された画素は、飽和領域の画素として検出されなかった画素である。第1フラグ“1”が記載された画素は、白飛び領域の画素として検出された画素である。第1フラグ“2”が記載された画素は、黒潰れ領域の画素として検出された画素である。
第1飽和領域検出部104は、入力画像の画素毎に、その画素の画素値と閾値(第1閾値と第2閾値)との比較結果に応じた第1フラグ(0〜2)を設定する。そして、第1飽和領域検出部104は、各画素の第1フラグを、飽和領域の検出結果として出力する。
FIG. 3 shows an example of the detection result of the first saturation region detection unit 104.
In FIG. 3, a region obtained by dividing a thick solid line by a thin solid line represents a pixel of the input image. The numerical value described in the pixel is a flag (first flag) indicating the detection result of the saturated region. A pixel in which the first flag “0” is described is a pixel that has not been detected as a pixel in the saturation region. A pixel in which the first flag “1” is described is a pixel detected as a pixel in a whiteout region. A pixel in which the first flag “2” is described is a pixel detected as a pixel in a blackout area.
For each pixel of the input image, the first saturation region detection unit 104 sets a first flag (0 to 2) corresponding to a comparison result between the pixel value of the pixel and a threshold value (first threshold value and second threshold value). . Then, the first saturation region detection unit 104 outputs the first flag of each pixel as a saturation region detection result.

第2飽和領域検出部105は、トーンマッピング部102から出力された第1処理画像データに基づいて、処理画像の領域の中から黒潰れ領域と白飛び領域との少なくとも一方を、飽和領域として検出する(第2検出処理)。本実施例では、第2飽和領域検出部105は、黒潰れ領域と白飛び領域とのそれぞれを、飽和領域として検出する。
そして、第2飽和領域検出部105は、飽和領域の検出結果を飽和領域描画部106に出力する。例えば、第2飽和領域検出部105は、飽和領域を表す領域情報を、飽和領域の検出結果として出力する。領域情報は、例えば、飽和領域に含まれる各画素の座標を表す座標情報である。
Based on the first processed image data output from the tone mapping unit 102, the second saturated area detection unit 105 detects at least one of a blackout area and a whiteout area as a saturated area from the processed image area. (Second detection process). In the present embodiment, the second saturation area detection unit 105 detects each of the blackout area and the whiteout area as a saturation area.
Then, the second saturation region detection unit 105 outputs the detection result of the saturation region to the saturation region drawing unit 106. For example, the second saturation region detection unit 105 outputs region information representing the saturation region as a detection result of the saturation region. The area information is, for example, coordinate information that represents the coordinates of each pixel included in the saturated area.

なお、第2飽和領域検出部105は、黒潰れが生じている領域と白飛びが生じている領域との一方を飽和領域として検出してもよい。
なお、第2飽和領域検出部104は、領域情報と、各飽和領域が黒潰れ領域であるか白飛び領域であるかを表す種類情報と、を含む情報を、飽和領域の検出結果として出力してもよい。
Note that the second saturation region detection unit 105 may detect one of a blackened region and a whiteout region as a saturated region.
The second saturated region detection unit 104 outputs information including region information and type information indicating whether each saturated region is a blackout region or a whiteout region as a saturation region detection result. May be.

本実施例では、第2飽和領域検出部105は、第1処理画像データの階調値が第3閾値以上である領域を白飛び領域として検出し、第1処理画像データの階調値が第4閾値以下である領域を黒潰れ領域として検出する。第4閾値は、第3閾値よりも小さい値である。このような方法によれば、第1処理画像データの階調値が処理階調値の最大値と一致する画素だけでなく、第1処理画像データの階調値が処理階調値の最大値の近傍の値である画素も、白飛び領域の画素として検出することができる。また、第1処理画像データの階調値が処理階調値の最小値と一致する画素だけでなく、第1処理画像データの階調値が処理階調値の最小値の近傍の値である画素も、黒潰れ領域の画素として検出することができる。   In the present embodiment, the second saturation area detecting unit 105 detects an area where the gradation value of the first processed image data is equal to or greater than the third threshold as a whiteout area, and the gradation value of the first processed image data is the first value. An area having a threshold value of 4 or less is detected as a black area. The fourth threshold value is smaller than the third threshold value. According to such a method, not only the pixel whose gradation value of the first processed image data matches the maximum value of the processed gradation value, but also the gradation value of the first processed image data is the maximum value of the processed gradation value. A pixel having a value in the vicinity of can also be detected as a pixel in a whiteout region. Further, not only the pixel whose gradation value of the first processed image data matches the minimum value of the processed gradation value, but also the gradation value of the first processed image data is a value in the vicinity of the minimum value of the processed gradation value. Pixels can also be detected as pixels in the blackout area.

なお、処理階調値の範囲は入力階調値の範囲と異なるため、第3閾値として第1閾値と異なる値が使用され、第4閾値として第2閾値と異なる値が使用される。
なお、第3閾値と第4閾値はどのような値であってもよい。第3閾値と第4閾値の少なくとも一方は、メーカによって予め定められた値であってもよいし、ユーザ操作、処理画像の特徴、処理階調値の範囲、処理画像のサイズ、画像表示装置100の設置環境、等に応じて決定されてもよい。第3閾値は、処理階調値の最大値であってもよい。第4閾値は、処理階調値の最小値であってもよい。
なお、飽和領域の検出方法は上記方法に限らない。例えば、第1処理画像データの階調
値が第3閾値以上であり、且つ、サイズが閾値以上である領域が、白飛び領域として検出されてもよい。そして、第1処理画像データの階調値が第4閾値以下であり、且つ、サイズが閾値以上である領域が、黒潰れ領域として検出されてもよい。
なお、サイズの閾値はどのような値であってもよい。サイズの閾値は、メーカによって予め定められた値であってもよいし、ユーザ操作、処理画像の特徴、処理階調値の範囲、処理画像のサイズ、画像表示装置100の設置環境、等に応じて決定されてもよい。
Since the range of the processing gradation value is different from the range of the input gradation value, a value different from the first threshold is used as the third threshold, and a value different from the second threshold is used as the fourth threshold.
Note that the third threshold value and the fourth threshold value may be any value. At least one of the third threshold value and the fourth threshold value may be a value determined in advance by the manufacturer, or may be a user operation, a characteristic of the processed image, a range of the processed gradation value, a size of the processed image, the image display device 100. It may be determined according to the installation environment, etc. The third threshold value may be the maximum processing gradation value. The fourth threshold value may be a minimum processing gradation value.
Note that the saturation region detection method is not limited to the above method. For example, an area in which the gradation value of the first processed image data is greater than or equal to the third threshold and the size is greater than or equal to the threshold may be detected as a whiteout area. And the area | region where the gradation value of 1st process image data is below a 4th threshold value, and a size is more than a threshold value may be detected as a black-out area | region.
The size threshold may be any value. The size threshold value may be a value determined in advance by the manufacturer, or may depend on the user operation, the characteristics of the processed image, the range of the processed gradation value, the size of the processed image, the installation environment of the image display device 100, and the like. May be determined.

図4に、第2飽和領域検出部105の検出結果の一例を示す。
図4において、太実線を細実線で分割して得られる領域は、処理画像の画素を表す。画素に記載されている数値は、飽和領域の検出結果を表すフラグ(第2フラグ)である。第2フラグ“0”が記載された画素は、飽和領域の画素として検出されなかった画素である。第2フラグ“1”が記載された画素は、白飛び領域の画素として検出された画素である。第2フラグ“2”が記載された画素は、黒潰れ領域の画素として検出された画素である。
第2飽和領域検出部105は、処理画像の画素毎に、その画素の画素値と閾値(第3閾値と第4閾値)との比較結果に応じた第2フラグ(0〜2)を設定する。そして、第2飽和領域検出部105は、各画素の第2フラグを、飽和領域の検出結果として出力する。
FIG. 4 shows an example of the detection result of the second saturation region detection unit 105.
In FIG. 4, a region obtained by dividing a thick solid line by a thin solid line represents a pixel of the processed image. The numerical value described in the pixel is a flag (second flag) indicating the detection result of the saturated region. A pixel in which the second flag “0” is described is a pixel that has not been detected as a pixel in the saturation region. A pixel in which the second flag “1” is described is a pixel detected as a pixel in a whiteout region. A pixel in which the second flag “2” is described is a pixel detected as a pixel in a blackout area.
The second saturation region detection unit 105 sets, for each pixel of the processed image, a second flag (0 to 2) corresponding to a comparison result between the pixel value of the pixel and a threshold value (third threshold value and fourth threshold value). . Then, the second saturation region detection unit 105 outputs the second flag of each pixel as a detection result of the saturation region.

画像処理部103と飽和領域描画部106により、第1処理画像データ、第1飽和領域検出部104の検出結果、及び、第2飽和領域検出部105の検出結果に基づいて、表示用画像データ(第1表示用画像データ)が生成される(第1生成処理)。具体的には、表示用画像データとして、第1処理画像データに基づく画像の第1飽和領域と第2飽和領域とを識別可能に表現した画像データが生成される。第1飽和領域は、第2飽和領域検出部105でのみ検出された飽和領域であり、第2飽和領域は、第1飽和領域検出部104と第2飽和領域検出部105の両方で検出された飽和領域である。   Based on the first processed image data, the detection result of the first saturation region detection unit 104, and the detection result of the second saturation region detection unit 105 by the image processing unit 103 and the saturation region drawing unit 106, display image data ( (First display image data) is generated (first generation process). Specifically, image data expressing the first saturated region and the second saturated region of the image based on the first processed image data so as to be identifiable is generated as the display image data. The first saturation region is a saturation region detected only by the second saturation region detection unit 105, and the second saturation region is detected by both the first saturation region detection unit 104 and the second saturation region detection unit 105. It is a saturation region.

画像処理部103は、トーンマッピング部102から出力された第1処理画像データに所定の画像処理を施すことにより、第2処理画像データを生成する。所定の画像処理は、色変換処理、輝度変換処理、解像度変換処理、フレームレート変換処理、等である。画像処理部103は、第2処理画像データを飽和領域描画部106に出力する。
なお、画像表示装置100は画像処理部103を有していなくてもよい。
The image processing unit 103 generates second processed image data by performing predetermined image processing on the first processed image data output from the tone mapping unit 102. The predetermined image processing includes color conversion processing, luminance conversion processing, resolution conversion processing, frame rate conversion processing, and the like. The image processing unit 103 outputs the second processed image data to the saturated region drawing unit 106.
Note that the image display device 100 may not include the image processing unit 103.

飽和領域描画部106は、第1飽和領域検出部104の検出結果と第2飽和領域検出部105の検出結果とに基づいて、画像処理部103から出力された第2処理画像データに処理を施す。具体的には、第1飽和領域と第2飽和領域とが互いに異なる形式で表現されるように、第2処理画像データに処理が施される。それにより、第1飽和領域と第2飽和領域とが識別可能な表示用画像データが生成される。飽和領域描画部106は、表示用画像データを画像表示部107に出力する。   The saturated region drawing unit 106 performs processing on the second processed image data output from the image processing unit 103 based on the detection result of the first saturated region detection unit 104 and the detection result of the second saturation region detection unit 105. . Specifically, the second processed image data is processed so that the first saturated region and the second saturated region are expressed in different formats. Thereby, display image data in which the first saturation region and the second saturation region can be identified is generated. The saturated area drawing unit 106 outputs the display image data to the image display unit 107.

第1飽和領域(第2飽和領域検出部105でのみ検出された飽和領域)は、トーンマッピング部102の画像処理によって生じた飽和領域である。
第2飽和領域(第1飽和領域検出部104と第2飽和領域検出部105の両方で検出された飽和領域)は、トーンマッピング部102の画像処理が施される前から生じていた飽和領域である。
The first saturated region (saturated region detected only by the second saturated region detecting unit 105) is a saturated region generated by the image processing of the tone mapping unit 102.
The second saturation region (saturation region detected by both the first saturation region detection unit 104 and the second saturation region detection unit 105) is a saturation region that has occurred before the image processing of the tone mapping unit 102 is performed. is there.

図5(a)は、処理画像データが表す画像(処理画像)の一例を示し、図5(b)は、表示用画像データが表す画像(表示用画像)の一例を示す。
図5(b)の斜線領域601(斜線でハッチングされた領域)は、第1飽和領域である。本実施例では、第1飽和領域の画素の色を黄色(第1の色)に変更する画像処理が、第2処理画像データに施される。それにより、第1飽和領域を明確に表現する表示用画像デ
ータが生成される。
図5(b)の塗潰し領域602(黒で塗りつぶされた領域)は、第2飽和領域である。本実施例では、第2飽和領域の画素の色を白色(第2の色)に変更する画像処理が、第2処理画像データに施される。それにより、第2飽和領域を明確に表現する表示用画像データが生成される。また、第1飽和領域の画素の色を第2飽和領域の画素の色と異ならせたことにより、第1飽和領域と第2飽和領域が明確に区別されて表現される。
第2処理画像データの画素が、第1飽和領域の画素であるか、第2飽和領域の画素であるか、それら以外の画素であるかは、例えば、当該画素の第1フラグと第2フラグを比較することによって判断することができる。
FIG. 5A shows an example of an image (processed image) represented by the processed image data, and FIG. 5B shows an example of an image (display image) represented by the display image data.
A hatched region 601 (a hatched region) in FIG. 5B is a first saturation region. In the present embodiment, image processing for changing the color of the pixel in the first saturation region to yellow (first color) is performed on the second processed image data. Thereby, display image data that clearly represents the first saturation region is generated.
A filled area 602 (area filled in black) in FIG. 5B is a second saturated area. In the present embodiment, image processing for changing the color of the pixels in the second saturation region to white (second color) is performed on the second processed image data. Thereby, display image data that clearly represents the second saturation region is generated. Further, the first saturated region and the second saturated region are clearly distinguished from each other by making the color of the pixel in the first saturated region different from the color of the pixel in the second saturated region.
Whether the pixel of the second processed image data is a pixel in the first saturation region, a pixel in the second saturation region, or a pixel other than these is, for example, the first flag and the second flag of the pixel Can be determined by comparing.

なお、第1の色が第2の色と異なっていれば、第1の色と第2の色は、どのような色であってもよい。
なお、第2処理画像データに施す処理は、上記処理に限らない。
例えば、画素の色ではなく輝度を変更する処理が第2処理画像データに施されてもよい。具体的には、第1飽和領域の画素の輝度を第1の値に変更し、第2飽和領域の画素の輝度を第2の値(≠第1の値)に変更する画像処理が、第2処理画像データに施されてもよい。
第2処理画像データが表す画像に第1飽和領域の輪郭を表す第1の枠線と第2飽和領域の輪郭を表す第2の枠線とが描画されるように、第2処理画像データの輝度や色が変更されてもよい。第1の枠線は、第2の枠線と色、太さ、線種、等が異なる枠線である。
第2飽和領域検出部105でのみ検出された飽和領域と、第1飽和領域検出部104と第2飽和領域検出部105の両方で検出された飽和領域と、が識別可能なグラフィック画像を表すグラフィック画像データが生成されてもよい。そして、第2処理画像データが表す画像にグラフィック画像が重畳されるように、グラフィック画像データが第2処理画像データに合成されてもよい(合成処理;重畳処理)。具体的には、第1飽和領域に第1グラフィック画像を重畳し、第2飽和領域に第2グラフィック画像を重畳する重畳処理が、第2処理画像データに施されてもよい。第1グラフィック画像は、例えば、第2グラフィック画像と色、輝度、透明度、表示パターンが異なる画像である。上述した第1枠線を第1グラフィック画像として使用し、上述した第2枠線を第2グラフィック画像として使用することもできる。第1飽和領域に重畳された第1グラフィック画像と、第2飽和領域に重畳された第2グラフィック画像と、が時分割で交互に表示されるように、第2処理画像データに重畳処理が施されてもよい。飽和領域には、例えば、形状及びサイズが飽和領域と同じグラフィック画像が重畳される。グラフィック画像が点滅表示されるように表示用画像データを生成すれば、飽和領域における第2処理画像データが表す画像をユーザが確認させることができる。背景を透過するグラフィック画像が重畳されるように表示用画像データを生成しても、飽和領域における第2処理画像データが表す画像をユーザが確認させることができる。
なお、表示用画像データ(第1表示用画像データ)として、黒潰れ領域である飽和領域と、白飛び領域である飽和領域と、がさらに識別可能な画像データが生成されてもよい。具体的には、黒潰れ領域である第1飽和領域、白飛び領域である第1飽和領域、黒潰れ領域である第2飽和領域、及び、白飛び領域である第2飽和領域、が識別可能な第1表示用画像データが生成されてもよい。
Note that the first color and the second color may be any color as long as the first color is different from the second color.
Note that the processing applied to the second processed image data is not limited to the above processing.
For example, the second processed image data may be subjected to a process of changing the luminance instead of the pixel color. Specifically, the image processing for changing the luminance of the pixel in the first saturated region to the first value and changing the luminance of the pixel in the second saturated region to the second value (≠ first value) It may be applied to the two-process image data.
In the image represented by the second processed image data, the first frame line representing the outline of the first saturated region and the second frame line representing the contour of the second saturated region are drawn. Luminance and color may be changed. The first frame line is a frame line that is different from the second frame line in color, thickness, line type, and the like.
A graphic representing a graphic image in which a saturated region detected only by the second saturated region detector 105 and a saturated region detected by both the first saturated region detector 104 and the second saturated region detector 105 can be identified. Image data may be generated. Then, the graphic image data may be combined with the second processed image data so that the graphic image is superimposed on the image represented by the second processed image data (compositing process; superimposing process). Specifically, a superimposition process for superimposing the first graphic image on the first saturation region and superimposing the second graphic image on the second saturation region may be performed on the second processed image data. The first graphic image is, for example, an image that is different from the second graphic image in color, brightness, transparency, and display pattern. The above-described first frame line can be used as the first graphic image, and the above-described second frame line can be used as the second graphic image. Superimposition processing is performed on the second processed image data so that the first graphic image superimposed on the first saturation region and the second graphic image superimposed on the second saturation region are alternately displayed in a time division manner. May be. For example, a graphic image having the same shape and size as the saturated region is superimposed on the saturated region. If the display image data is generated so that the graphic image is blinked, the user can confirm the image represented by the second processed image data in the saturation region. Even when the display image data is generated so that the graphic image that passes through the background is superimposed, the user can confirm the image represented by the second processed image data in the saturation region.
Note that as the display image data (first display image data), image data that can further identify a saturated region that is a blackout region and a saturated region that is a whiteout region may be generated. Specifically, a first saturated area that is a blackout area, a first saturation area that is a whiteout area, a second saturation area that is a blackout area, and a second saturated area that is a whiteout area can be identified. First display image data may be generated.

画像表示部107は、飽和領域描画部106から出力された表示用画像データに基づく画像を画面に表示する。画像表示部107としては、液晶表示パネル、有機EL表示パネル、プラズマ表示パネル、等を使用することができる。
上述したように、本実施例では、飽和領域描画部106により、第1飽和領域と第2飽和領域が明確に区別されて表現された表示用画像データが生成される。そのため、本実施例では、第1飽和領域と第2飽和領域が明確に区別されて表現された表示画像(画面に表示された画像)が得られる。その結果、第2処理画像データが表す画像に存在する飽和領
域が第1飽和領域であるか第2飽和領域であるかを、ユーザに容易に判断させることができる。ユーザは、飽和領域が第1飽和領域であるか第2飽和領域であるかの判断結果に基づいて、白飛びや黒潰れを好適に調整することができる。その結果、白飛びや黒潰れを効率よく低減することができる。
The image display unit 107 displays an image based on the display image data output from the saturated region drawing unit 106 on the screen. As the image display unit 107, a liquid crystal display panel, an organic EL display panel, a plasma display panel, or the like can be used.
As described above, in the present embodiment, the saturated region drawing unit 106 generates display image data in which the first saturated region and the second saturated region are clearly distinguished and expressed. Therefore, in this embodiment, a display image (an image displayed on the screen) in which the first saturated region and the second saturated region are clearly distinguished and obtained is obtained. As a result, the user can easily determine whether the saturated region existing in the image represented by the second processed image data is the first saturated region or the second saturated region. The user can suitably adjust overexposure or blackout based on the determination result of whether the saturation region is the first saturation region or the second saturation region. As a result, whiteout and blackout can be efficiently reduced.

なお、黒潰れ領域である飽和領域と、白飛び領域である飽和領域と、が互いに異なる形式で表現されていれば、第2処理画像データが表す画像に存在する飽和領域がどのような領域であるかを、ユーザに容易且つ詳細に判断させることができる。具体的には、飽和領域が第1飽和領域であるか第2飽和領域であるかだけでなく、飽和領域が黒潰れ領域であるか白飛び領域であるかを、ユーザに容易に判断させることができる。そして、ユーザは、飽和領域がどのような飽和領域であるかの判断結果に基づいて、白飛びや黒潰れをより好適に調整することができる。その結果、白飛びや黒潰れをより効率よく低減することができる。   If the saturated area that is a blackout area and the saturated area that is a whiteout area are expressed in different formats, what kind of area is the saturated area that exists in the image represented by the second processed image data. The user can easily and in detail determine whether there is any. Specifically, not only whether the saturated region is the first saturated region or the second saturated region, but also allows the user to easily determine whether the saturated region is a blacked-out region or a whiteout region. Can do. Then, the user can more suitably adjust the whiteout and the blackout based on the determination result of the saturated region. As a result, whiteout and blackout can be reduced more efficiently.

次に、画像表示装置100の動作について、図6のフローチャートを用いて説明する。
図6のフローチャートは、例えば、飽和領域を表示するユーザ操作に応じて開始される。
Next, the operation of the image display apparatus 100 will be described using the flowchart of FIG.
The flowchart in FIG. 6 is started, for example, in response to a user operation for displaying a saturated region.

まず、トーンマッピング部102が、入力階調値の範囲が画像処理部103と画像表示部107が処理不可能な階調値を含むか否かを判断する(S701)。入力階調値の範囲が画像処理部103と画像表示部107が処理不可能な階調値を含む場合には、トーンマッピング処理が行われ、S702に処理が進められる。入力階調値の範囲が画像処理部103と画像表示部107が処理不可能な階調値を含まない場合には、トーンマッピング処理が行われず、S705に処理が進められる。   First, the tone mapping unit 102 determines whether or not the range of input gradation values includes gradation values that cannot be processed by the image processing unit 103 and the image display unit 107 (S701). When the range of the input tone values includes tone values that cannot be processed by the image processing unit 103 and the image display unit 107, tone mapping processing is performed, and the process proceeds to S702. If the input tone value range does not include tone values that cannot be processed by the image processing unit 103 and the image display unit 107, tone mapping processing is not performed, and the process proceeds to S705.

S702では、第1飽和領域検出部104が、入力画像の領域の中から飽和領域を検出する。
次に、第2飽和領域検出部105が、処理画像の領域の中から飽和領域を検出する(S703)。
そして、飽和領域描画部106が、S702とS703の処理結果に基づいて、第1飽和領域と第2飽和領域が明確に区別されて表現された表示用画像データを生成する(S704)。その後、画像表示部107によって、第1飽和領域と第2飽和領域が明確に区別されて表現された表示画像が画面に表示される。
In S702, the first saturation region detection unit 104 detects a saturation region from the region of the input image.
Next, the second saturation region detection unit 105 detects a saturation region from the region of the processed image (S703).
Then, the saturated area drawing unit 106 generates display image data in which the first saturated area and the second saturated area are clearly distinguished based on the processing results of S702 and S703 (S704). Thereafter, the image display unit 107 displays a display image in which the first saturated region and the second saturated region are clearly distinguished and displayed on the screen.

トーンマッピング処理が行われなかった場合、入力画像データと同じ処理画像データがトーンマッピング部102から出力される。
S705では、第1飽和領域検出部104が入力画像の領域の中から飽和領域を検出する処理と、第2飽和領域検出部105が処理画像の領域の中から飽和領域を検出する処理と、の少なくとも一方が行われる。
そして、飽和領域描画部106が、S705の処理結果に基づいて、第2飽和領域が明確に表現された表示用画像データを生成する(S706)。その後、画像表示部107によって、第2飽和領域が明確に表現された表示画像が画面に表示される。
When tone mapping processing is not performed, the same processed image data as input image data is output from the tone mapping unit 102.
In S705, the first saturated region detection unit 104 detects a saturation region from the input image region, and the second saturation region detection unit 105 detects the saturation region from the processed image region. At least one is done.
Then, the saturated region rendering unit 106 generates display image data in which the second saturated region is clearly expressed based on the processing result of S705 (S706). Thereafter, the image display unit 107 displays a display image in which the second saturation region is clearly expressed on the screen.

以上述べたように、本実施例によれば、第1飽和領域と第2飽和領域とが互いに異なる形式で表現される。それにより、処理画像データが表す画像に存在する飽和領域が第1飽和領域であるか第2飽和領域であるかを、ユーザに容易に判断させることができる。具体的には、ユーザは、表示画像に存在する飽和領域が第1飽和領域であるか第2飽和領域であるかを、容易に(ひと目で)見分けることができる。その結果、白飛びや黒潰れを低減する際の利便性を向上し、白飛びや黒潰れを効率よく低減することができる。   As described above, according to the present embodiment, the first saturation region and the second saturation region are expressed in different formats. Thereby, the user can easily determine whether the saturation region existing in the image represented by the processed image data is the first saturation region or the second saturation region. Specifically, the user can easily (at a glance) discern whether the saturated region existing in the display image is the first saturated region or the second saturated region. As a result, it is possible to improve the convenience in reducing whiteout and blackout, and to efficiently reduce whiteout and blackout.

なお、画像処理装置(画像表示装置)は、第1生成部をさらに有していてもよい。第1生成部は、入力画像データ、第1処理画像データ、及び、第1表示用画像データに基づいて、第1表示用画像データが表す画像(第1表示用画像)と、ヒストグラムと、が配置された第2表示用画像データを生成する(第2生成処理)。具体的には、第1生成部は、第1表示用画像、入力画像データの階調値のヒストグラム、及び、処理画像データの階調値のヒストグラム、が配置された画像を表す第2表示用画像データを生成する。そして、第1表示用画像と、ヒストグラムと、が配置された表示画像が画面に表示されてもよい。それにより、ユーザは、入力画像データの階調値のヒストグラムと、処理画像データの階調値のヒストグラムと、を容易に把握することができる。   Note that the image processing apparatus (image display apparatus) may further include a first generation unit. The first generation unit includes an image represented by the first display image data (first display image) and a histogram based on the input image data, the first processed image data, and the first display image data. The arranged second display image data is generated (second generation process). Specifically, the first generation unit is for second display representing an image in which a first display image, a histogram of gradation values of input image data, and a histogram of gradation values of processed image data are arranged. Generate image data. A display image in which the first display image and the histogram are arranged may be displayed on the screen. Accordingly, the user can easily grasp the gradation value histogram of the input image data and the gradation value histogram of the processed image data.

<実施例2>
本発明の実施例2に係る画像処理装置及び画像処理方法について説明する。
図7は、本実施例に係る画像表示装置900の機能構成の一例を示すブロック図である。
図7に示すように、画像表示装置900は、図1に示す機能部の他に、飽和領域解析部901と付加情報描画部902をさらに有する。
なお、図7において実施例1(図1)と同じ機能部には実施例1と同じ符号を付し、その説明は省略する。
<Example 2>
An image processing apparatus and an image processing method according to Embodiment 2 of the present invention will be described.
FIG. 7 is a block diagram illustrating an example of a functional configuration of the image display apparatus 900 according to the present embodiment.
As illustrated in FIG. 7, the image display apparatus 900 further includes a saturation region analysis unit 901 and an additional information drawing unit 902 in addition to the functional units illustrated in FIG. 1.
In FIG. 7, the same functional parts as those in the first embodiment (FIG. 1) are denoted by the same reference numerals as those in the first embodiment, and the description thereof is omitted.

飽和領域解析部901は、第1飽和領域検出部104の検出結果と第2飽和領域検出部105の検出結果を解析することにより、第2飽和領域検出部105でのみ検出された飽和領域(第1飽和領域)を表す情報を、解析結果として取得する。そして、飽和領域解析部901は、解析結果を付加情報描画部902に出力する。   The saturation region analysis unit 901 analyzes the detection result of the first saturation region detection unit 104 and the detection result of the second saturation region detection unit 105, thereby detecting a saturation region (first) detected only by the second saturation region detection unit 105. Information representing one saturation region) is acquired as an analysis result. Then, the saturation region analysis unit 901 outputs the analysis result to the additional information drawing unit 902.

付加情報描画部902は、飽和領域解析部901の解析結果に基づいて付加情報を生成する。そして、付加情報描画部902は、飽和領域描画部106で生成された第1表示用画像データが表す画像(第1表示用画像)と、付加情報の画像と、が配置された画像を表す画像データを生成する。付加情報描画部902は、生成した画像データを表示用画像データとして画像表示部107に出力する。   The additional information drawing unit 902 generates additional information based on the analysis result of the saturation region analysis unit 901. Then, the additional information drawing unit 902 is an image representing an image in which an image (first display image) represented by the first display image data generated by the saturated region drawing unit 106 and an image of the additional information are arranged. Generate data. The additional information drawing unit 902 outputs the generated image data to the image display unit 107 as display image data.

具体的には、付加情報描画部902は、画像入力部101から入力画像データを取得し、飽和領域解析部901から飽和領域の解析結果を取得し、飽和領域描画部106から第1表示用画像データを取得する。
まず、付加情報描画部902は、飽和領域解析部901の解析結果に基づいて、第1飽和領域における画像データを入力画像データから抽出する(抽出処理)。
次に、付加情報描画部902は、抽出した画像データに、トーンマッピング部102が実行する画像処理とは異なる画像処理を施すことにより、黒潰れと白飛びが生じていない画像を表す部分処理画像データを生成する(第3生成処理)。
そして、付加情報描画部902は、第1表示用画像データと部分処理画像データとに基づいて、第1表示用画像と、部分処理画像データが表す画像(部分処理画像)と、が配置された画像を表す画像データを生成する(第4生成処理)。
その後、付加情報描画部902は、第3生成処理によって生成した画像データを、表示用画像データとして出力する。
Specifically, the additional information drawing unit 902 acquires the input image data from the image input unit 101, acquires the analysis result of the saturation region from the saturation region analysis unit 901, and the first display image from the saturation region drawing unit 106. Get the data.
First, the additional information drawing unit 902 extracts image data in the first saturation region from the input image data based on the analysis result of the saturation region analysis unit 901 (extraction process).
Next, the additional information rendering unit 902 performs image processing different from the image processing executed by the tone mapping unit 102 on the extracted image data, thereby displaying a partially processed image representing an image in which blackout and whiteout are not generated. Data is generated (third generation process).
Then, the additional information drawing unit 902 is arranged with the first display image and the image (partial processing image) represented by the partial processing image data based on the first display image data and the partial processing image data. Image data representing an image is generated (fourth generation process).
Thereafter, the additional information drawing unit 902 outputs the image data generated by the third generation process as display image data.

第2生成処理では、例えば、抽出処理で抽出された画像データの階調値の最大値と最小値が取得される。そして、取得した最小値から取得した最大値への入力階調値の変化に対して、処理階調値が処理階調値の最小値から処理階調値の最大値へ線形に変化する対応データが生成される。その後、生成した対応データを用いた画像処理(トーンマッピング処理)により、抽出処理で抽出された画像データが部分処理画像データに変換される。
なお、抽出処理、第2生成処理、及び、第3生成処理は互いに異なる機能部によって実
行されてもよい。抽出処理、第2生成処理、及び、第3生成処理のうちの1つの処理が、残り2つの処理を実行する機能部とは異なる機能部によって実行されてもよい。
In the second generation process, for example, the maximum value and the minimum value of the gradation values of the image data extracted by the extraction process are acquired. Corresponding data in which the processing gradation value linearly changes from the minimum value of the processing gradation value to the maximum value of the processing gradation value with respect to the change of the input gradation value from the acquired minimum value to the acquired maximum value. Is generated. Thereafter, the image data extracted by the extraction process is converted into the partially processed image data by image processing (tone mapping process) using the generated correspondence data.
Note that the extraction process, the second generation process, and the third generation process may be executed by different functional units. One of the extraction process, the second generation process, and the third generation process may be executed by a functional unit different from the functional units that execute the remaining two processes.

図8に、本実施例に係る表示画像の一例を示す。
図8の例では、左側に第1表示用画像(図5(b)の画像)が配置され、且つ、右側に部分処理画像801が配置されている。
FIG. 8 shows an example of a display image according to the present embodiment.
In the example of FIG. 8, the first display image (the image of FIG. 5B) is arranged on the left side, and the partial processing image 801 is arranged on the right side.

次に、画像表示装置900の動作について、図9のフローチャートを用いて説明する。
図9のフローチャートは、例えば、付加情報を表示するユーザ操作に応じて開始される。
なお、第1表示用画像データを生成するまでの画像表示装置900の動作は実施例1と同じであるため、その説明は省略する。
Next, the operation of the image display apparatus 900 will be described using the flowchart of FIG.
The flowchart of FIG. 9 is started in response to a user operation for displaying additional information, for example.
Since the operation of the image display apparatus 900 until the generation of the first display image data is the same as that of the first embodiment, the description thereof is omitted.

まず、飽和領域解析部901が、図3,4に示す検出結果を解析することにより、第1飽和領域を表す情報を解析結果として取得する(S1001)。
次に、付加情報描画部902が、S1001の解析結果に基づいて、第1飽和領域における画像データを入力画像データから抽出し、抽出した画像データに基づいて、部分処理画像データを生成する処理で使用する対応データを生成する(S1002)。
そして、付加情報描画部902が、S1002で抽出した画像データにS1002で生成した対応データを用いた画像処理を施すことにより、部分処理画像データを生成する(S1003)。
次に、付加情報描画部902が、第1表示用画像データと部分処理画像データとに基づいて、第1表示用画像と部分処理画像とが配置された画像を表す表示用画像データを生成する(S1004)。その後、画像表示部107によって、第1表示用画像と部分処理画像とが配置された表示画像が画面に表示される。
First, the saturation region analysis unit 901 obtains information representing the first saturation region as an analysis result by analyzing the detection results shown in FIGS. 3 and 4 (S1001).
Next, the additional information drawing unit 902 extracts image data in the first saturation region from the input image data based on the analysis result of S1001, and generates partial processing image data based on the extracted image data. Corresponding data to be used is generated (S1002).
Then, the additional information drawing unit 902 performs image processing using the corresponding data generated in S1002 on the image data extracted in S1002, thereby generating partial processed image data (S1003).
Next, the additional information drawing unit 902 generates display image data representing an image in which the first display image and the partially processed image are arranged based on the first display image data and the partially processed image data. (S1004). Thereafter, the image display unit 107 displays a display image in which the first display image and the partial processing image are arranged on the screen.

以上述べたように、本実施例によれば、第1表示用画像と部分処理画像とが配置された画像を表す画像データが生成される。そして、第1表示用画像と部分処理画像とが配置された表示画像が画面に表示される。部分処理画像は、トーンマッピング部102の画像処理結果の1つに相当する。そのため、本実施例によれば、ユーザは、トーンマッピング部102の画像処理結果の1つを容易に把握することができる。その結果、トーンマッピング部102が実行する画像処理の方法を変更するか否をユーザが決定する際の利便性を向上することができる。
なお、付加情報は、部分処理画像データに限らない。例えば、付加情報は、ユーザに通知するメッセージであってもよい。
As described above, according to the present embodiment, image data representing an image in which the first display image and the partially processed image are arranged is generated. Then, a display image in which the first display image and the partially processed image are arranged is displayed on the screen. The partially processed image corresponds to one of the image processing results of the tone mapping unit 102. Therefore, according to the present embodiment, the user can easily grasp one of the image processing results of the tone mapping unit 102. As a result, it is possible to improve convenience when the user determines whether to change the image processing method executed by the tone mapping unit 102.
Note that the additional information is not limited to the partially processed image data. For example, the additional information may be a message notified to the user.

なお、画像処理装置(画像表示装置)は、第1通知部をさらに有していてもよい。第1通知部は、第1飽和領域検出部で検出された飽和領域の総面積と、第2飽和領域検出部で検出された飽和領域の総面積と、の差が第5閾値以上である場合に、ユーザ通知を行う。ユーザ通知では、トーンマッピング部によって実行された画像処理の方法が好適でない可能性があることがユーザに通知される。第1飽和領域検出部で検出された飽和領域の総面積と、第2飽和領域検出部で検出された飽和領域の総面積と、の差が大きい場合、トーンマッピング部の画像処理の方法が好適でない可能性が高い。第1通知部を設けることにより、トーンマッピング部の画像処理の方法が好適でない可能性が高い場合に、トーンマッピング部の画像処理の方法が好適でない可能性があることをユーザに通知することができる。ひいては、トーンマッピング部の画像処理の方法の変更をユーザに促すことができる。
なお、第5閾値は、メーカによって予め定められた値であってもよいし、そうでなくてもよい。第5閾値は、ユーザ操作、入力画像の特徴、処理画像の特徴、入力階調値の範囲、処理階調値の範囲、入力画像のサイズ、処理画像のサイズ、画像表示装置100の設置
環境、等に応じて決定されてもよい。
Note that the image processing apparatus (image display apparatus) may further include a first notification unit. When the difference between the total area of the saturated regions detected by the first saturated region detector and the total area of the saturated regions detected by the second saturated region detector is greater than or equal to the fifth threshold value In addition, user notification is performed. The user notification notifies the user that the image processing method executed by the tone mapping unit may not be suitable. When there is a large difference between the total area of the saturated regions detected by the first saturated region detector and the total area of the saturated regions detected by the second saturated region detector, the image processing method of the tone mapping unit is preferable. It is likely not. By providing the first notification unit, when there is a high possibility that the image processing method of the tone mapping unit is not suitable, the user may be notified that the image processing method of the tone mapping unit may not be suitable. it can. As a result, the user can be prompted to change the image processing method of the tone mapping unit.
Note that the fifth threshold value may or may not be a value determined in advance by the manufacturer. The fifth threshold is a user operation, a feature of the input image, a feature of the processed image, a range of input gradation values, a range of processed gradation values, a size of the input image, a size of the processed image, an installation environment of the image display device 100, It may be determined according to the above.

なお、画像処理装置(画像表示装置)は、第2通知部をさらに有していてもよい。第2通知部は、第1飽和領域の位置と、処理画像の中心位置と、の間の距離が第6閾値以下である場合に、ユーザ通知を行う。ユーザ通知では、トーンマッピング部によって実行された画像処理の方法が好適でない可能性があることがユーザに通知される。第1飽和領域の位置が処理画像(表示用画像;画面)の中心位置に近い場合、トーンマッピング部の画像処理の方法が好適でない可能性が高い。第2通知部を設けることにより、トーンマッピング部の画像処理の方法が好適でない可能性が高い場合に、トーンマッピング部の画像処理の方法が好適でない可能性があることをユーザに通知することができる。ひいては、トーンマッピング部の画像処理の方法の変更をユーザに促すことができる。
なお、第6閾値は、メーカによって予め定められた値であってもよいし、そうでなくてもよい。第6閾値は、ユーザ操作、入力画像の特徴、処理画像の特徴、入力階調値の範囲、処理階調値の範囲、入力画像のサイズ、処理画像のサイズ、画像表示装置100の設置環境、等に応じて決定されてもよい。
Note that the image processing apparatus (image display apparatus) may further include a second notification unit. A 2nd notification part performs a user notification, when the distance between the position of a 1st saturation area | region and the center position of a process image is below a 6th threshold value. The user notification notifies the user that the image processing method executed by the tone mapping unit may not be suitable. When the position of the first saturation region is close to the center position of the processed image (display image; screen), there is a high possibility that the image processing method of the tone mapping unit is not suitable. By providing the second notification unit, when there is a high possibility that the image processing method of the tone mapping unit is not suitable, it is possible to notify the user that the image processing method of the tone mapping unit may not be suitable. it can. As a result, the user can be prompted to change the image processing method of the tone mapping unit.
Note that the sixth threshold value may or may not be a value predetermined by the manufacturer. The sixth threshold value is a user operation, an input image feature, a processed image feature, an input tone value range, a processed tone value range, an input image size, a processed image size, an installation environment of the image display device 100, It may be determined according to the above.

なお、画像処理装置(画像表示装置)は、オブジェクト検出部と第3通知部をさらに有していてもよい。オブジェクト検出部は、入力画像データと処理画像データとの一方の画像データに基づいて、当該画像データが表す画像の領域の中から、所定のオブジェクトが存在する領域を、オブジェクト領域として検出する(第3検出処理)。第3通知部は、第1飽和領域がオブジェクト領域を含む領域である場合に、ユーザ通知を行う。ユーザ通知では、トーンマッピング部によって実行された画像処理の方法が好適でない可能性があることがユーザに通知される。“オブジェクト領域を含む領域”は、オブジェクト領域の一部を含む領域であってもよいし、オブジェクト領域の全体を含む領域であってもよい。所定のオブジェクトは、例えば、人の顔である。ユーザにとって重要なオブジェクトの領域が第1飽和領域である場合、トーンマッピング部の画像処理の方法が好適でない可能性が高い。オブジェクト検出部と第3通知部を設けることにより、トーンマッピング部の画像処理の方法が好適でない可能性が高い場合に、トーンマッピング部の画像処理の方法が好適でない可能性があることをユーザに通知することができる。ひいては、トーンマッピング部の画像処理の方法の変更をユーザに促すことができる。
オブジェクト領域の検出方法は特に限定されない。例えば、予め用意された検出パターンを用いたパターンマッチング処理を行うことにより、オブジェクト領域が検出される。
Note that the image processing apparatus (image display apparatus) may further include an object detection unit and a third notification unit. Based on one of the input image data and the processed image data, the object detection unit detects an area where a predetermined object is present as an object area from among the areas of the image represented by the image data (first area). 3 detection processing). The third notification unit performs user notification when the first saturation region is a region including the object region. The user notification notifies the user that the image processing method executed by the tone mapping unit may not be suitable. The “area including the object area” may be an area including a part of the object area or an area including the entire object area. The predetermined object is, for example, a human face. When the area of the object important for the user is the first saturation area, it is highly likely that the image processing method of the tone mapping unit is not suitable. By providing the object detection unit and the third notification unit, when there is a high possibility that the image processing method of the tone mapping unit is not suitable, it is possible to inform the user that the image processing method of the tone mapping unit may not be suitable. You can be notified. As a result, the user can be prompted to change the image processing method of the tone mapping unit.
The method for detecting the object area is not particularly limited. For example, the object region is detected by performing a pattern matching process using a detection pattern prepared in advance.

なお、トーンマッピング部の画像処理の方法が好適でない可能性が高い場合に、トーンマッピング部が、トーンマッピング部の画像処理の方法を自動で変更して、処理画像データを自動で再生成してもよい。
例えば、トーンマッピング部は、上記総面積の差が第5閾値以上である場合に、トーンマッピング部が実行する画像処理の方法を変更して、処理画像データを再度生成してもよい。
また、トーンマッピング部は、第1飽和領域の位置と処理画像の中心位置との間の距離が第6閾値以下である場合に、マッピング部が実行する画像処理の方法を変更して、処理画像データを再度生成してもよい。
また、画像処理装置は、上記オブジェクト検出部をさらに有していてもよい。そして、トーンマッピング部は、第1飽和領域がオブジェクト領域を含む領域である場合に、マッピング部が実行する画像処理の方法を変更して、処理画像データを再度生成してもよい。
画像処理の方法の変更方法は特に限定されない。トーンマッピング部は、例えば、マッピング部が実行する画像処理の方法を第1飽和領域における入力画像データの階調値の代表値に基づいて変更して、処理画像データを再度生成する。代表値は、階調値の平均値、最頻値、中間値、最大値、最小値、等である。
If there is a high possibility that the image processing method of the tone mapping unit is not suitable, the tone mapping unit automatically changes the image processing method of the tone mapping unit to automatically regenerate the processed image data. Also good.
For example, the tone mapping unit may change the image processing method executed by the tone mapping unit and generate the processed image data again when the difference in the total area is greater than or equal to the fifth threshold.
Further, the tone mapping unit changes the image processing method executed by the mapping unit when the distance between the position of the first saturation region and the center position of the processed image is equal to or smaller than the sixth threshold, and the processed image Data may be generated again.
The image processing apparatus may further include the object detection unit. Then, when the first saturated region is a region including the object region, the tone mapping unit may change the image processing method executed by the mapping unit and generate the processed image data again.
The method for changing the image processing method is not particularly limited. For example, the tone mapping unit changes the image processing method executed by the mapping unit based on the representative value of the gradation value of the input image data in the first saturation region, and generates the processed image data again. The representative value is an average value, a mode value, an intermediate value, a maximum value, a minimum value, etc. of the gradation values.

<実施例3>
本発明の実施例3に係る画像処理装置及び画像処理方法について説明する。
本実施例では、第1画像データと、第1画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データと、が画像処理装置に入力される例を説明する。第1画像データと差分データは、例えば、JPEG−HDRのデータである。
なお、第1画像データと差分データが個別に入力されてもよいし、第1画像データと差分データを含む1つの画像ファイルが入力されてもよい。
<Example 3>
An image processing apparatus and an image processing method according to Embodiment 3 of the present invention will be described.
In this embodiment, an example will be described in which first image data and difference data used in enlargement processing for enlarging at least one of the dynamic range and color gamut of the first image data are input to the image processing apparatus. The first image data and the difference data are, for example, JPEG-HDR data.
The first image data and the difference data may be input individually, or one image file including the first image data and the difference data may be input.

本実施例では、第1画像データを“ベース画像データ”と記載する。
ベース画像データは、第2画像データをダウンサンプリング(階調圧縮)した画像データである。ベース画像データは、例えば、JPEG規格の画像データである。また、ベース画像データは、例えば、Y値、Cb値、及び、Cr値のそれぞれが8ビット相当の階調値である画像データである。差分データを用いた拡大処理をベース画像データに施すことにより、第2画像データを生成(復元)することができる。なお、ベース画像データの画素値は、YCbCr値であってもよいし、RGB値であってもよい。
本実施例では、第2画像データを“HDR画像データ”と記載する。
HDR画像データは、例えば、Y値、Cb値、及び、Cr値のそれぞれが32ビット相当の階調値である画像データである。なお、HDR画像データの画素値は、YCbCr値であってもよいし、RGB値であってもよい。
階調値のビット数が少ない画像データは“少ビット画像データ”と呼ぶことができ、階調値のビット数が多い画像データは“多ビット画像データ”と呼ぶことができる。そのため、ベース画像データは“少ビット画像データ”と呼ぶこともでき、HDR画像データは“多ビット画像データ”と呼ぶこともできる。
In this embodiment, the first image data is described as “base image data”.
The base image data is image data obtained by down-sampling (gradation compression) the second image data. The base image data is, for example, JPEG standard image data. The base image data is, for example, image data in which each of the Y value, Cb value, and Cr value is a gradation value equivalent to 8 bits. The second image data can be generated (restored) by performing an enlargement process using the difference data on the base image data. The pixel value of the base image data may be a YCbCr value or an RGB value.
In this embodiment, the second image data is described as “HDR image data”.
The HDR image data is, for example, image data in which each of the Y value, the Cb value, and the Cr value is a gradation value corresponding to 32 bits. Note that the pixel value of the HDR image data may be a YCbCr value or an RGB value.
Image data having a small number of gradation values can be referred to as “small bit image data”, and image data having a large number of gradation values can be referred to as “multi-bit image data”. Therefore, the base image data can be called “small bit image data”, and the HDR image data can also be called “multi-bit image data”.

JPEG−HDRでは、ベース画像データがJPEG規格の画像データである。そのため、JPEG−HDRのデータは、HDR画像データに対応していない装置でも好適に処理可能な場合がある。具体的には、ベース画像データは、従来のJPEG規格の画像データに対応している装置で好適に処理することができる。“画像データに対応していない装置”は、“画像データを好適に処理できない装置”と言うこともできる。
また、JPEG−HDRのデータは、ベース画像データと差分データを含む。そのため、HDR画像データに対応している装置は、JPEG−HDRのデータ(ベース画像データと差分データ)からHDR画像データを生成し、HDR画像データを好適に処理することができる。
In JPEG-HDR, the base image data is JPEG standard image data. Therefore, there are cases where JPEG-HDR data can be suitably processed even by an apparatus that does not support HDR image data. Specifically, the base image data can be suitably processed by an apparatus that supports conventional JPEG image data. “Apparatus that does not support image data” can also be referred to as “apparatus that cannot process image data suitably”.
The JPEG-HDR data includes base image data and difference data. Therefore, an apparatus that supports HDR image data can generate HDR image data from JPEG-HDR data (base image data and difference data), and can appropriately process the HDR image data.

差分データは、例えば、輝度差分データ、色差分データ、又は、それら両方を含む。
輝度差分データは、画像データのダイナミックレンジを拡大する輝度域拡大処理で使用されるデータであり、HDR画像データとベース画像データの輝度値の差分を表すデータである。例えば、輝度差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの輝度値(階調値)とHDR画像データの輝度値(階調値)との比率である輝度比率を表す輝度比率データである。即ち、輝度差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの輝度値(階調値)に対するHDR画像データの輝度値(階調値)の比率またはその逆数を表す輝度比率データである。ただし、輝度差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの輝度値(階調値)とHDR画像データの輝度値(階調値)の一方から他方を減算した差分値である輝度差分値を表すデータであってもよい。また、輝度差分データは、輝度域拡大処理における入力輝度値と出力輝度値との対応関係を表す輝度変換テーブルデータであってもよい。なお、輝度域拡大処理は、ベース画像データで表現しきれていない輝度を再現する処理と言うこともできる。
The difference data includes, for example, luminance difference data, color difference data, or both.
The luminance difference data is data used in the luminance range expansion process for expanding the dynamic range of the image data, and is data representing the difference between the luminance values of the HDR image data and the base image data. For example, the luminance difference data is a ratio between the luminance value (gradation value) of the base image data and the luminance value (gradation value) of the HDR image data in pixel units (or in units of regions including a predetermined number of pixels). This is luminance ratio data representing the luminance ratio. That is, the luminance difference data is the ratio of the luminance value (gradation value) of the HDR image data to the luminance value (gradation value) of the base image data or the reciprocal thereof in pixel units (or an area unit composed of a predetermined number of pixels). Is luminance ratio data representing However, the luminance difference data is obtained by subtracting one from the luminance value (gradation value) of the base image data and the luminance value (gradation value) of the HDR image data in units of pixels (or an area unit composed of a predetermined number of pixels). Data representing a luminance difference value which is a subtracted difference value may be used. Further, the luminance difference data may be luminance conversion table data representing a correspondence relationship between the input luminance value and the output luminance value in the luminance range expansion process. Note that the luminance range expansion processing can also be said to be processing for reproducing luminance that cannot be expressed in the base image data.

色差分データは、画像データの色域を拡大する色域拡大処理で使用されるデータであり、HDR画像データとベース画像データの色の差分を表すデータである。例えば、色差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの色差値(Cb値、Cr値)とHDR画像データの色差値(Cb値、Cr値)の一方から他方を減算した差分値である色差分値を表すデータである。ただし、色差分データは、画素単位(又は所定数の画素からなる領域単位)で、ベース画像データの色差値(Cb値、Cr値)とHDR画像データの色差値(Cb値、Cr値)との比率である色比率を表す色差比率データであってもよい。また、色差分値や色比率は、色差値の代わりに、R値、G値、及びB値を用いて算出された値であってもよい。なお、色域拡大処理は、ベース画像データで表現しきれていない色を再現する処理と言うこともできる。   The color difference data is data used in the color gamut expansion process for expanding the color gamut of the image data, and is data representing the color difference between the HDR image data and the base image data. For example, the color difference data is a color difference value (Cb value, Cr value) of the base image data and a color difference value (Cb value, Cr value) of the HDR image data in units of pixels (or an area unit composed of a predetermined number of pixels). This is data representing a color difference value which is a difference value obtained by subtracting the other from one. However, the color difference data is a color difference value (Cb value, Cr value) of the base image data and a color difference value (Cb value, Cr value) of the HDR image data in units of pixels (or an area unit composed of a predetermined number of pixels). Color difference ratio data representing a color ratio that is a ratio of Further, the color difference value and the color ratio may be values calculated using R value, G value, and B value instead of the color difference value. Note that the color gamut expansion processing can be said to be processing for reproducing colors that cannot be expressed by the base image data.

図10は、本実施例に係る画像表示装置1100の機能構成の一例を示すブロック図である。
画像表示装置1100は、ベース画像取得部1101、差分データ取得部1102、HDR画像生成部1103、画像処理部103、第1飽和領域検出部104、第2飽和領域検出部105、飽和領域描画部106、画像表示部107、等を有する。
なお、図10において、実施例1(図1)と同じ機能部には、実施例1と同じ符号が付されている。
FIG. 10 is a block diagram illustrating an example of a functional configuration of the image display apparatus 1100 according to the present embodiment.
The image display device 1100 includes a base image acquisition unit 1101, a difference data acquisition unit 1102, an HDR image generation unit 1103, an image processing unit 103, a first saturation region detection unit 104, a second saturation region detection unit 105, and a saturation region drawing unit 106. , And an image display unit 107.
In FIG. 10, the same reference numerals as those in the first embodiment are given to the same functional units as those in the first embodiment (FIG. 1).

ベース画像取得部1101は、ベース画像データ(第1画像データ)を取得する(第1取得処理)。そして、ベース画像取得部1101は、取得したベース画像データを、画像処理部103、第2飽和領域検出部105、及び、HDR画像生成部1103に出力する。
差分データ取得部1102は、差分データを取得する(第2取得処理)。そして、差分データ取得部1102は、取得した差分データをHDR画像生成部1103に出力する。
なお、ベース画像データと差分データの取得方法は特に限定されない。例えば、ベース画像データと差分データの少なくとも一方は、画像処理装置の外部から取得されてもよいし、画像処理装置が有する不図示の記憶部から取得されてもよい。
HDR画像生成部1103は、差分データ取得部1102から出力された差分データを用いた拡大処理を、ベース画像取得部1101から出力されたベース画像データに施すことにより、HDR画像データを生成する。そして、HDR画像生成部1103は、生成したHDR画像データを第1飽和領域検出部104に出力する。
The base image acquisition unit 1101 acquires base image data (first image data) (first acquisition process). Then, the base image acquisition unit 1101 outputs the acquired base image data to the image processing unit 103, the second saturation region detection unit 105, and the HDR image generation unit 1103.
The difference data acquisition unit 1102 acquires difference data (second acquisition process). Then, the difference data acquisition unit 1102 outputs the acquired difference data to the HDR image generation unit 1103.
In addition, the acquisition method of base image data and difference data is not specifically limited. For example, at least one of the base image data and the difference data may be acquired from the outside of the image processing apparatus, or may be acquired from a storage unit (not shown) included in the image processing apparatus.
The HDR image generation unit 1103 generates HDR image data by performing enlargement processing using the difference data output from the difference data acquisition unit 1102 on the base image data output from the base image acquisition unit 1101. Then, the HDR image generation unit 1103 outputs the generated HDR image data to the first saturation region detection unit 104.

第1飽和領域検出部104は、HDR画像生成部1103から出力されたHDR画像データに基づいて、HDR画像データが表す画像(HDR画像)の領域の中から、白飛び領域と黒潰れ領域との少なくとも一方を、飽和領域として検出する(第1検出処理)。そして、第1飽和領域検出部104は、飽和領域の検出結果を飽和領域描画部106に出力する。
第2飽和領域検出部105は、ベース画像取得部1101から出力されたベース画像データに基づいて、ベース画像データが表す画像(ベース画像)の領域の中から、白飛び領域と黒潰れ領域との少なくとも一方を、飽和領域として検出する(第2検出処理)。そして、第2飽和領域検出部105は、飽和領域の検出結果を飽和領域描画部106に出力する。
Based on the HDR image data output from the HDR image generation unit 1103, the first saturation region detection unit 104 determines whether there is a whiteout region or a blackout region from the region of the image (HDR image) represented by the HDR image data. At least one is detected as a saturation region (first detection process). Then, the first saturation region detection unit 104 outputs the detection result of the saturation region to the saturation region drawing unit 106.
Based on the base image data output from the base image acquisition unit 1101, the second saturation area detection unit 105 detects a whiteout area and a blackout area from the area of the image (base image) represented by the base image data. At least one is detected as a saturation region (second detection process). Then, the second saturation region detection unit 105 outputs the detection result of the saturation region to the saturation region drawing unit 106.

画像処理部103と飽和領域描画部106により、ベース画像データ、第1飽和領域検出部104の検出結果、及び、第2飽和領域検出部105の検出結果に基づいて、表示用画像データが生成される。具体的には、表示用画像データとして、ベース画像データに基づく画像の第1飽和領域と第2飽和領域とを識別可能に表現した画像データが生成される。第1飽和領域は、第2飽和領域検出部105でのみ検出された飽和領域であり、第2飽和領域は、第1飽和領域検出部104と第2飽和領域検出部105の両方で検出された飽
和領域である。
ベース画像データは、例えば、ダイナミックレンジと色域の少なくとも一方を縮小する縮小処理をHDR画像データに施すことによって生成された画像データである。
第1飽和領域は、例えば、HDR画像データをベース画像データに変換することによって生じた飽和領域である。
第2飽和領域は、例えば、HDR画像データをベース画像データに変換する前から生じていた飽和領域である。
Display image data is generated by the image processing unit 103 and the saturation region drawing unit 106 based on the base image data, the detection result of the first saturation region detection unit 104, and the detection result of the second saturation region detection unit 105. The Specifically, image data expressing the first saturated region and the second saturated region of the image based on the base image data so as to be distinguishable is generated as the display image data. The first saturation region is a saturation region detected only by the second saturation region detection unit 105, and the second saturation region is detected by both the first saturation region detection unit 104 and the second saturation region detection unit 105. It is a saturation region.
The base image data is, for example, image data generated by performing a reduction process for reducing at least one of the dynamic range and the color gamut on the HDR image data.
The first saturation region is, for example, a saturation region generated by converting HDR image data into base image data.
The second saturation region is, for example, a saturation region that has occurred before HDR image data is converted to base image data.

画像処理部103は、ベース画像データに所定の画像処理を施すことにより、処理画像データを生成する。そして、画像処理部103は、処理画像データを飽和領域描画部106に出力する。
飽和領域描画部106は、第1飽和領域検出部104の検出結果と第2飽和領域検出部105の検出結果とに基づいて、画像処理部103から出力された処理画像データに処理を施す。具体的には、第1飽和領域と第2飽和領域とが互いに異なる形式で表現されるように、処理画像データに処理が施される。それにより、第1飽和領域と第2飽和領域とが識別可能な表示用画像データが生成される。飽和領域描画部106は、表示用画像データを画像表示部107に出力する。
画像表示部107は、飽和領域描画部106から出力された表示用画像データに基づく画像を画面に表示する。
The image processing unit 103 generates processed image data by performing predetermined image processing on the base image data. Then, the image processing unit 103 outputs the processed image data to the saturated region drawing unit 106.
The saturated region drawing unit 106 performs processing on the processed image data output from the image processing unit 103 based on the detection result of the first saturated region detection unit 104 and the detection result of the second saturation region detection unit 105. Specifically, the processed image data is processed so that the first saturated region and the second saturated region are expressed in different formats. Thereby, display image data in which the first saturation region and the second saturation region can be identified is generated. The saturated area drawing unit 106 outputs the display image data to the image display unit 107.
The image display unit 107 displays an image based on the display image data output from the saturated region drawing unit 106 on the screen.

以上述べたように、本実施例によれば、ベース画像データと差分データとが取得された場合において、第1飽和領域と第2飽和領域とが互いに異なる形式で表現される。それにより、ベース画像データが表す画像に存在する飽和領域が第1飽和領域であるか第2飽和領域であるかを、ユーザに容易に判断させることができる。具体的には、ユーザは、表示画像に存在する飽和領域が第1飽和領域であるか第2飽和領域であるかを、容易に(ひと目で)見分けることができる。その結果、白飛びや黒潰れを低減する際の利便性を向上し、白飛びや黒潰れを効率よく低減することができる。   As described above, according to the present embodiment, when the base image data and the difference data are acquired, the first saturated region and the second saturated region are expressed in different formats. Accordingly, the user can easily determine whether the saturation region existing in the image represented by the base image data is the first saturation region or the second saturation region. Specifically, the user can easily (at a glance) discern whether the saturated region existing in the display image is the first saturated region or the second saturated region. As a result, it is possible to improve the convenience in reducing whiteout and blackout, and to efficiently reduce whiteout and blackout.

<実施例4>
本発明の実施例4に係る画像処理装置及び画像処理方法について説明する。
本実施例では、互いに異なる撮影条件で同じ撮影範囲を複数回撮影することによって生成された複数の撮影画像データが、入力画像データとして使用される場合の例を説明する。互いに異なる撮影条件で同じ撮影範囲を複数回撮影することは“ブラケット撮影”などと呼ばれる。本実施例では、ブラケット撮影によって生成された撮影画像データを“ブラケット画像データ”と記載する。撮影条件は、露出、ISO感度、等を含む。
<Example 4>
An image processing apparatus and an image processing method according to Embodiment 4 of the present invention will be described.
In the present embodiment, an example will be described in which a plurality of photographed image data generated by photographing the same photographing range a plurality of times under different photographing conditions is used as input image data. Shooting the same shooting range multiple times under different shooting conditions is called “bracket shooting” or the like. In this embodiment, the captured image data generated by bracket imaging is described as “bracket image data”. The shooting conditions include exposure, ISO sensitivity, and the like.

図11は、本実施例に係る画像表示装置1200の機能構成の一例を示すブロック図である。
画像表示装置1200は、ブラケット画像記憶部1201、1画像生成部1202、ブラケット画像取得部1203、画像処理部103、第1飽和領域検出部1204、第2飽和領域検出部105、飽和領域描画部106、画像表示部107、等を有する。
なお、図11において、実施例1(図1)と同じ機能部には、実施例1と同じ符号が付されている。
FIG. 11 is a block diagram illustrating an example of a functional configuration of the image display apparatus 1200 according to the present embodiment.
The image display device 1200 includes a bracket image storage unit 1201, a 1 image generation unit 1202, a bracket image acquisition unit 1203, an image processing unit 103, a first saturation region detection unit 1204, a second saturation region detection unit 105, and a saturation region drawing unit 106. , And an image display unit 107.
In FIG. 11, the same reference numerals as those in the first embodiment are assigned to the same functional units as those in the first embodiment (FIG. 1).

ブラケット画像記憶部1201は、外部装置(デジタルカメラ、記憶装置、等)から複数のブラケット画像データを取得し、取得した複数のブラケット画像データを記憶する。
なお、ブラケット画像記憶部1201は、画像表示装置1200とは別体の装置であってもよい。
The bracket image storage unit 1201 acquires a plurality of bracket image data from an external device (digital camera, storage device, etc.), and stores the acquired plurality of bracket image data.
Note that the bracket image storage unit 1201 may be a separate device from the image display device 1200.

1画像生成部1202は、ブラケット画像記憶部1201が記憶している複数のブラケ
ット画像データから1つの画像データ(処理画像データ;第1処理画像データ)を生成する画像処理を実行する。そして、1画像生成部1202は、生成した第1処理画像データを、画像処理部103と第2飽和領域検出部105に出力する。
The one image generation unit 1202 executes image processing for generating one image data (processed image data; first processed image data) from the plurality of bracket image data stored in the bracket image storage unit 1201. Then, the one image generation unit 1202 outputs the generated first processed image data to the image processing unit 103 and the second saturation region detection unit 105.

本実施例では、1画像生成部1202は、ブラケット画像記憶部1201から2つ以上のブラケット画像データを読み出す。そして、1画像生成部1202は、上記2つ以上のブラケット画像データを所定のアルゴリズムに従って合成することにより、第1処理画像データを生成する。   In this embodiment, the one image generation unit 1202 reads two or more bracket image data from the bracket image storage unit 1201. Then, the one image generation unit 1202 generates first processed image data by combining the two or more bracket image data according to a predetermined algorithm.

具体的には、上記2つ以上のブラケット画像データのうちの1つが基準画像データとして選択され、基準画像データが表す画像(基準画像)の飽和領域が検出される。残りのブラケット画像データは、参照画像データとして使用される。
次に、参照画像データが表す画像(参照画像)において、基準画像の飽和領域が飽和領域であるか否かが判断される。複数の参照画像データが存在する場合には、参照画像データ毎に上述した判断が行われる。
そして、基準画像の飽和領域が飽和領域でない参照画像データが存在する場合に、当該参照画像データから、基準画像の飽和領域における画像データが抽出される。その後、基準画像の飽和領域における基準画像データが、上記抽出された画像データに置き換えられる。即ち、飽和領域における参照画像(黒潰れも白飛びもしていない画像)がトリミングされ、当該飽和領域における基準画像(黒潰れまたは白飛びした画像)が、上記トリミングされた画像に置き換えられる。
以上の処理により、第1処理画像データが生成される。
Specifically, one of the two or more bracket image data is selected as reference image data, and a saturated region of an image (reference image) represented by the reference image data is detected. The remaining bracket image data is used as reference image data.
Next, in the image (reference image) represented by the reference image data, it is determined whether or not the saturated region of the standard image is a saturated region. If there are a plurality of reference image data, the above-described determination is performed for each reference image data.
Then, when there is reference image data in which the saturation region of the standard image is not the saturation region, image data in the saturation region of the standard image is extracted from the reference image data. Thereafter, the reference image data in the saturation region of the reference image is replaced with the extracted image data. That is, the reference image in the saturation region (image that is not blacked out or whiteout) is trimmed, and the reference image in the saturation region (image that is blackout or whiteout) is replaced with the trimmed image.
Through the above processing, first processed image data is generated.

1画像生成部1202は、1画像生成部1202が実行する画像処理の方法を変更することができる。例えば、1画像生成部1202は、第1処理画像データの生成に使用するブラケット画像データ、第1処理画像データの生成に使用するブラケット画像データの数、等を変更することができる。
なお、第1処理画像データの生成方法は、特に限定されない。例えば、複数のブラケット画像データのうちの1つが、第1処理画像データとして選択されてもよい。画素毎に、上記2つ以上のブラケット画像データの画素値の代表値が、処理画像データの画素値として決定されてもよい。代表値は、平均値、最頻値、中間値、最大値、最小値、等である。
The one image generation unit 1202 can change the image processing method executed by the one image generation unit 1202. For example, the one-image generating unit 1202 can change the bracket image data used for generating the first processed image data, the number of bracket image data used for generating the first processed image data, and the like.
The method for generating the first processed image data is not particularly limited. For example, one of the plurality of bracket image data may be selected as the first processed image data. For each pixel, a representative value of the pixel values of the two or more bracket image data may be determined as the pixel value of the processed image data. The representative value is an average value, a mode value, an intermediate value, a maximum value, a minimum value, or the like.

ブラケット画像取得部1203は、ブラケット画像記憶部1201から複数のブラケット画像データの全てを読み出し、読み出した複数のブラケット画像データを第1飽和領域検出部1204に出力する。   The bracket image acquisition unit 1203 reads all of the plurality of bracket image data from the bracket image storage unit 1201 and outputs the read plurality of bracket image data to the first saturation region detection unit 1204.

第1飽和領域検出部1204は、ブラケット画像データ毎に、そのブラケット画像データが表す画像(ブラケット画像)の領域の中から、黒潰れが生じている領域と、白飛びが生じている領域と、の少なくとも一方を検出する。そして、第1飽和領域検出部1204は、複数のブラケット画像データが表す複数のブラケット画像の全てにおいて黒潰れが生じている領域と、複数のブラケット画像の全てにおいて白飛びが生じている領域と、の少なくとも一方を、飽和領域として検出する。その後、第1飽和領域検出部1204は、飽和領域の検出結果を、飽和領域描画部106に出力する。   For each bracket image data, the first saturation region detection unit 1204 includes a region where black crushing occurs, a region where whiteout occurs, among regions of an image (bracket image) represented by the bracket image data, At least one of them is detected. The first saturation region detection unit 1204 includes a region where blackout occurs in all of the plurality of bracket images represented by the plurality of bracket image data, a region where whiteout occurs in all of the plurality of bracket images, Is detected as a saturation region. Thereafter, the first saturation region detection unit 1204 outputs the detection result of the saturation region to the saturation region drawing unit 106.

第2飽和領域検出部105は、1画像生成部1202から出力された第1処理画像データに基づいて、第1処理画像データが表す画像の領域の中から、白飛び領域と黒潰れ領域との少なくとも一方を、飽和領域として検出する。そして、第2飽和領域検出部105は、飽和領域の検出結果を飽和領域描画部106に出力する。   Based on the first processed image data output from the one image generating unit 1202, the second saturated area detecting unit 105 determines whether a whiteout area and a blackout area are included in the image area represented by the first processed image data. At least one is detected as a saturation region. Then, the second saturation region detection unit 105 outputs the detection result of the saturation region to the saturation region drawing unit 106.

画像処理部103と飽和領域描画部106により、第1処理画像データ、第1飽和領域
検出部104の検出結果、及び、第2飽和領域検出の検出結果に基づいて、表示用画像データ(第1表示用画像データ)が生成される。具体的には、表示用画像データとして、第1処理画像データに基づく画像の第1飽和領域と第2飽和領域とを識別可能に表現した画像データが生成される。第1飽和領域は、第2飽和領域検出部105でのみ検出された飽和領域であり、第2飽和領域は、第1飽和領域検出部104と第2飽和領域検出部105の両方で検出された飽和領域である。
第1飽和領域は、複数のブラケット画像データから第1処理画像データに生成する画像処理によって生じた飽和領域である。
第2飽和領域は、上記画像処理が行われる前から生じていた飽和領域であり、複数のブラケット画像データの全てに生じていた飽和領域である。
Based on the first processed image data, the detection result of the first saturation region detection unit 104, and the detection result of the second saturation region detection by the image processing unit 103 and the saturation region drawing unit 106, display image data (first Display image data) is generated. Specifically, image data expressing the first saturated region and the second saturated region of the image based on the first processed image data so as to be identifiable is generated as the display image data. The first saturation region is a saturation region detected only by the second saturation region detection unit 105, and the second saturation region is detected by both the first saturation region detection unit 104 and the second saturation region detection unit 105. It is a saturation region.
The first saturation region is a saturation region generated by image processing that generates first processed image data from a plurality of bracket image data.
The second saturated region is a saturated region that has occurred before the image processing is performed, and is a saturated region that has occurred in all of the plurality of bracket image data.

画像処理部103は、第1処理画像データに所定の画像処理を施すことにより、第2処理画像データを生成する。そして、画像処理部103は、第2処理画像データを飽和領域描画部106に出力する。
飽和領域描画部106は、第1飽和領域検出部104の検出結果と第2飽和領域検出部105の検出結果とに基づいて、画像処理部103から出力された第2処理画像データに処理を施す。具体的には、第1飽和領域と第2飽和領域とが互いに異なる形式で表現されるように、第2処理画像データに処理が施される。それにより、第1飽和領域と第2飽和領域とが識別可能な表示用画像データが生成される。飽和領域描画部106は、表示用画像データを画像表示部107に出力する。
画像表示部107は、飽和領域描画部106から出力された表示用画像データに基づく画像を画面に表示する。
The image processing unit 103 generates second processed image data by performing predetermined image processing on the first processed image data. Then, the image processing unit 103 outputs the second processed image data to the saturated region drawing unit 106.
The saturated region drawing unit 106 performs processing on the second processed image data output from the image processing unit 103 based on the detection result of the first saturated region detection unit 104 and the detection result of the second saturation region detection unit 105. . Specifically, the second processed image data is processed so that the first saturated region and the second saturated region are expressed in different formats. Thereby, display image data in which the first saturation region and the second saturation region can be identified is generated. The saturated area drawing unit 106 outputs the display image data to the image display unit 107.
The image display unit 107 displays an image based on the display image data output from the saturated region drawing unit 106 on the screen.

以上述べたように、本実施例によれば、複数のブラケット画像データが取得された場合において、第1飽和領域と第2飽和領域とが互いに異なる形式で表現される。それにより、第1処理画像データが表す画像に存在する飽和領域が第1飽和領域であるか第2飽和領域であるかを、ユーザに容易に判断させることができる。具体的には、ユーザは、表示画像に存在する飽和領域が第1飽和領域であるか第2飽和領域であるかを、容易に(ひと目で)見分けることができる。その結果、白飛びや黒潰れを低減する際の利便性を向上し、白飛びや黒潰れを効率よく低減することができる。   As described above, according to the present embodiment, when a plurality of bracket image data is acquired, the first saturated region and the second saturated region are expressed in different formats. Accordingly, the user can easily determine whether the saturated region existing in the image represented by the first processed image data is the first saturated region or the second saturated region. Specifically, the user can easily (at a glance) discern whether the saturated region existing in the display image is the first saturated region or the second saturated region. As a result, it is possible to improve the convenience in reducing whiteout and blackout, and to efficiently reduce whiteout and blackout.

以上、本発明の好ましい実施例1〜4について説明したが、本発明は実施例1〜4に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、本発明が適用される装置の構成や各種条件に応じて、本発明が適宜変形又は変更されてもよい。また、実施例1〜4の構成を適宜組み合せることも可能である。   As mentioned above, although preferable Example 1-4 of this invention was described, this invention is not limited to Examples 1-4, A various deformation | transformation and change are possible within the range of the summary. For example, the present invention may be modified or changed as appropriate according to the configuration of the apparatus to which the present invention is applied and various conditions. Moreover, it is also possible to combine suitably the structure of Examples 1-4.

<その他の実施例>
記憶装置に記録されたプログラムを読み込み実行することで前述した実施例の機能を実現するシステムや装置のコンピュータ(又はCPU、MPU等のデバイス)によっても、本発明を実施することができる。また、例えば、記憶装置に記録されたプログラムを読み込み実行することで前述した実施例の機能を実現するシステムや装置のコンピュータによって実行されるステップからなる方法によっても、本発明を実施することができる。この目的のために、上記プログラムは、例えば、ネットワークを通じて、又は、上記記憶装置となり得る様々なタイプの記録媒体(つまり、非一時的にデータを保持するコンピュータ読取可能な記録媒体)から、上記コンピュータに提供される。したがって、上記コンピュータ(CPU、MPU等のデバイスを含む)、上記方法、上記プログラム(プログラムコード、プログラムプロダクトを含む)、上記プログラムを非一時的に保持するコンピュータ読取可能な記録媒体は、いずれも本発明の範疇に含まれる。
<Other examples>
The present invention can also be implemented by a system (or a device such as a CPU or MPU) of a system or apparatus that implements the functions of the above-described embodiments by reading and executing a program recorded in a storage device. The present invention can also be implemented by a method comprising steps executed by a computer of a system or apparatus that implements the functions of the above-described embodiments by reading and executing a program recorded in a storage device, for example. . For this purpose, the program is stored in the computer from, for example, various types of recording media that can serve as the storage device (ie, computer-readable recording media that holds data non-temporarily). Provided to. Therefore, the computer (including devices such as CPU and MPU), the method, the program (including program code and program product), and the computer-readable recording medium that holds the program non-temporarily are all present. It is included in the category of the invention.

100,900,1100,1200:画像表示装置
102:トーンマッピング部 103:画像処理部
104,1204:第1飽和領域検出部 105:第2飽和領域検出部
106:飽和領域描画部 1101:ベース画像取得部
1102:差分データ取得部 1103:HDR画像生成部
1202:1画像生成部
100, 900, 1100, 1200: Image display device 102: Tone mapping unit 103: Image processing unit 104, 1204: First saturation region detection unit 105: Second saturation region detection unit 106: Saturation region rendering unit 1101: Base image acquisition Unit 1102: difference data acquisition unit 1103: HDR image generation unit 1202: 1 image generation unit

Claims (18)

入力画像データに画像処理を施すことにより、処理画像データを生成する画像処理手段と、
前記入力画像データに基づいて、前記入力画像データが表す画像の領域の中から、黒潰れが生じている領域と白飛びが生じている領域との少なくとも一方を、飽和領域として検出する第1検出手段と、
前記処理画像データに基づいて、前記処理画像データが表す画像の領域の中から、黒潰れが生じている領域と白飛びが生じている領域との少なくとも一方を、飽和領域として検出する第2検出手段と、
前記処理画像データ、前記第1検出手段の検出結果、及び、前記第2検出手段の検出結果に基づいて、前記処理画像データに基づく画像の、前記第2検出手段でのみ検出された飽和領域と、前記第1検出手段と前記第2検出手段の両方で検出された飽和領域と、を識別可能に表現した第1表示用画像データを生成する第1生成手段と、
を有することを特徴とする画像処理装置。
Image processing means for generating processed image data by performing image processing on the input image data;
First detection for detecting, as a saturated region, at least one of a blackened region and a whiteout region from an image region represented by the input image data based on the input image data Means,
Second detection for detecting, as a saturated region, at least one of a blackened region and a whiteout region from an image region represented by the processed image data based on the processed image data Means,
Based on the processed image data, the detection result of the first detection means, and the detection result of the second detection means, a saturated region detected only by the second detection means of an image based on the processed image data; First generation means for generating first display image data expressing the saturation region detected by both the first detection means and the second detection means in an identifiable manner;
An image processing apparatus comprising:
前記画像処理は、前記入力画像データの階調値と前記処理画像データの階調値との対応関係を表す対応データを用いて、前記入力画像データの階調値を前記処理画像データの階調値に変換する画像処理である
ことを特徴とする請求項1に記載の画像処理装置。
The image processing uses the correspondence data representing the correspondence between the gradation value of the input image data and the gradation value of the processed image data, and converts the gradation value of the input image data to the gradation of the processed image data. The image processing apparatus according to claim 1, wherein the image processing is converted into a value.
前記入力画像データは、互いに異なる撮影条件で同じ撮影範囲を複数回撮影することによって生成された複数の撮影画像データであり、
前記画像処理は、前記複数の撮影画像データから1つの処理画像データを生成する画像処理であり、
前記第1検出手段は、前記複数の撮影画像データが表す複数の画像の全てにおいて黒潰れが生じている領域と、前記複数の撮影画像データが表す複数の画像の全てにおいて白飛びが生じている領域と、の少なくとも一方を、飽和領域として検出する
ことを特徴とする請求項1に記載の画像処理装置。
The input image data is a plurality of photographed image data generated by photographing the same photographing range multiple times under mutually different photographing conditions,
The image processing is image processing for generating one processed image data from the plurality of captured image data,
The first detection means has a blackout region in all of the plurality of images represented by the plurality of photographed image data and a whiteout in all of the plurality of images represented by the plurality of photographed image data. The image processing apparatus according to claim 1, wherein at least one of the region is detected as a saturated region.
前記第1検出手段は、階調値が第1閾値以上である領域を白飛びが生じている領域として検出し、階調値が前記第1閾値よりも小さい第2閾値以下である領域を黒潰れが生じている領域として検出し、
前記第2検出手段は、階調値が第3閾値以上である領域を白飛びが生じている領域として検出し、階調値が前記第3閾値よりも小さい第4閾値以下である領域を黒潰れが生じている領域として検出する
ことを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
The first detecting means detects an area where the gradation value is equal to or greater than the first threshold as an area where whiteout occurs, and an area where the gradation value is equal to or less than the second threshold smaller than the first threshold is black. Detected as an area where crushing occurs,
The second detection means detects an area where the gradation value is equal to or greater than the third threshold as an area where whiteout occurs, and an area where the gradation value is equal to or less than the fourth threshold smaller than the third threshold is black. The image processing device according to claim 1, wherein the image processing device is detected as a region where crushing occurs.
前記第1検出手段は、黒潰れが生じている領域と白飛びが生じている領域とのそれぞれを、飽和領域として検出し、
前記第2検出手段は、黒潰れが生じている領域と白飛びが生じている領域とのそれぞれを、飽和領域として検出し、
前記第1生成手段は、前記第1表示用画像データとして、黒潰れが生じている領域である飽和領域と、白飛びが生じている領域である飽和領域と、がさらに識別可能な画像データを生成する
ことを特徴とする請求項1〜4のいずれか1項に記載の画像処理装置。
The first detection means detects each of a blackened area and a whiteout area as a saturated area,
The second detection means detects each of a blackened area and a whiteout area as a saturated area,
The first generation means may include, as the first display image data, image data that can further identify a saturated area that is a blackened area and a saturated area that is a whiteout area. The image processing apparatus according to claim 1, wherein the image processing apparatus generates the image processing apparatus.
前記入力画像データ、前記処理画像データ、及び、前記第1表示用画像データに基づいて、前記第1表示用画像データが表す画像、前記入力画像データの階調値のヒストグラム、及び、前記処理画像データの階調値のヒストグラムが配置された画像を表す第2表示用
画像データを生成する第2生成手段、をさらに有する
ことを特徴とする請求項1〜5のいずれか1項に記載の画像処理装置。
Based on the input image data, the processed image data, and the first display image data, an image represented by the first display image data, a gradation value histogram of the input image data, and the processed image The image according to any one of claims 1 to 5, further comprising second generation means for generating second display image data representing an image in which a histogram of gradation values of data is arranged. Processing equipment.
前記第2検出手段でのみ検出された飽和領域における画像データを前記入力画像データから抽出する抽出手段と、
前記抽出手段で抽出された画像データに、前記画像処理手段が実行する画像処理とは異なる画像処理を施すことにより、黒潰れと白飛びが生じていない画像を表す部分処理画像データを生成する第3生成手段と、
前記第1表示用画像データと、前記部分処理画像データと、に基づいて、前記第1表示用画像データが表す画像と、前記部分処理画像データが表す画像と、が配置された画像を表す第3表示用画像データを生成する第4生成手段と、
をさらに有する
ことを特徴とする請求項1〜6のいずれか1項に記載の画像処理装置。
Extraction means for extracting image data in the saturation region detected only by the second detection means from the input image data;
The image data extracted by the extracting means is subjected to image processing different from the image processing executed by the image processing means, thereby generating partially processed image data representing an image in which blackout and whiteout are not generated. 3 generating means;
Based on the first display image data and the partial processed image data, a first image representing an image in which an image represented by the first display image data and an image represented by the partial processed image data are arranged. Fourth generation means for generating 3 display image data;
The image processing apparatus according to claim 1, further comprising:
前記第2検出手段で検出された飽和領域の総面積と、前記第1検出手段で検出された飽和領域の総面積と、の差が第5閾値以上である場合に、前記画像処理手段によって実行された前記画像処理の方法が好適でない可能性があることをユーザに通知する第1通知手段、をさらに有する
ことを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。
When the difference between the total area of the saturated region detected by the second detecting unit and the total area of the saturated region detected by the first detecting unit is equal to or greater than a fifth threshold, the image processing unit executes The image processing apparatus according to claim 1, further comprising first notification means for notifying a user that the method of image processing performed may not be suitable.
前記第2検出手段でのみ検出された飽和領域の位置と、前記処理画像データが表す画像の中心位置と、の間の距離が第6閾値以下である場合に、前記画像処理手段によって実行された前記画像処理の方法が好適でない可能性があることをユーザに通知する第2通知手段、をさらに有する
ことを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。
When the distance between the position of the saturated region detected only by the second detection means and the center position of the image represented by the processed image data is equal to or smaller than a sixth threshold value, the processing is executed by the image processing means The image processing apparatus according to claim 1, further comprising a second notification unit that notifies a user that the image processing method may not be suitable.
前記入力画像データと前記処理画像データとの一方の画像データに基づいて、当該画像データが表す画像の領域の中から、所定のオブジェクトが存在する領域を、オブジェクト領域として検出する第3検出手段と、
前記第2検出手段でのみ検出された飽和領域が前記オブジェクト領域を含む領域である場合に、前記画像処理手段によって実行された前記画像処理の方法が好適でない可能性があることをユーザに通知する第3通知手段と、
をさらに有する
ことを特徴とする請求項1〜9のいずれか1項に記載の画像処理装置。
Third detection means for detecting, as an object area, an area in which a predetermined object exists from an image area represented by the image data based on one of the input image data and the processed image data; ,
When the saturated area detected only by the second detection means is an area including the object area, the user is notified that the image processing method executed by the image processing means may not be suitable. A third notification means;
The image processing apparatus according to claim 1, further comprising:
前記画像処理手段は、前記第2検出手段で検出された飽和領域の総面積と、前記第1検出手段で検出された飽和領域の総面積と、の差が第5閾値以上である場合に、前記画像処理手段が実行する前記画像処理の方法を変更して、前記処理画像データを再度生成する
ことを特徴とする請求項1〜10のいずれか1項に記載の画像処理装置。
When the difference between the total area of the saturated region detected by the second detecting unit and the total area of the saturated region detected by the first detecting unit is equal to or greater than a fifth threshold, The image processing apparatus according to claim 1, wherein the image processing method executed by the image processing unit is changed to generate the processed image data again.
前記画像処理手段は、前記第2検出手段でのみ検出された飽和領域の位置と、前記処理画像データが表す画像の中心位置と、の間の距離が第6閾値以下である場合に、前記画像処理手段が実行する前記画像処理の方法を変更して、前記処理画像データを再度生成することを特徴とする請求項1〜11のいずれか1項に記載の画像処理装置。   When the distance between the position of the saturated region detected only by the second detection unit and the center position of the image represented by the processed image data is equal to or smaller than a sixth threshold, the image processing unit The image processing apparatus according to claim 1, wherein the processed image data is generated again by changing a method of the image processing executed by a processing unit. 前記入力画像データと前記処理画像データとの一方の画像データに基づいて、当該画像データが表す画像の領域の中から、所定のオブジェクトが存在する領域を、オブジェクト領域として検出する第3検出手段、をさらに有し、
前記画像処理手段は、前記第2検出手段でのみ検出された飽和領域が前記オブジェクト領域を含む領域である場合に、前記画像処理手段が実行する前記画像処理の方法を変更し
て、前記処理画像データを再度生成する
ことを特徴とする請求項1〜12のいずれか1項に記載の画像処理装置。
Third detection means for detecting, as an object area, an area in which a predetermined object is present from an image area represented by the image data based on one of the input image data and the processed image data; Further comprising
The image processing means changes the image processing method executed by the image processing means when the saturated area detected only by the second detection means is an area including the object area, and the processed image The image processing apparatus according to claim 1, wherein data is generated again.
前記画像処理手段は、前記画像処理手段が実行する前記画像処理の方法を前記第2検出手段でのみ検出された飽和領域における前記入力画像データの階調値の代表値に基づいて変更して、前記処理画像データを再度生成する
ことを特徴とする請求項11〜13のいずれか1項に記載の画像処理装置。
The image processing means changes the image processing method executed by the image processing means based on a representative value of gradation values of the input image data in a saturation region detected only by the second detection means, The image processing apparatus according to claim 11, wherein the processed image data is generated again.
第1画像データを取得する第1取得手段と、
前記第1画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データを取得する第2取得手段と、
前記差分データを用いた拡大処理を前記第1画像データに施すことにより、第2画像データを生成する拡大手段と、
前記第2画像データに基づいて、前記第2画像データが表す画像の領域の中から、黒潰れが生じている領域と、白飛びが生じている領域と、の少なくとも一方を、飽和領域として検出する第1検出手段と、
前記第1画像データに基づいて、前記第1画像データが表す画像の領域の中から、黒潰れが生じている領域と、白飛びが生じている領域と、の少なくとも一方を飽和領域として検出する第2検出手段と、
前記第1画像データ、前記第1検出手段の検出結果、及び、前記第2検出手段の検出結果に基づいて、前記第1画像データに基づく画像の、前記第2検出手段でのみ検出された飽和領域と、前記第1検出手段と前記第2検出手段の両方で検出された飽和領域と、を識別可能に表現した表示用画像データを生成する生成手段と、
を有することを特徴とする画像処理装置。
First acquisition means for acquiring first image data;
Second acquisition means for acquiring difference data used in an enlargement process for enlarging at least one of the dynamic range and color gamut of the first image data;
Enlargement means for generating second image data by applying enlargement processing using the difference data to the first image data;
Based on the second image data, at least one of a blackened area and a whiteout area is detected as a saturated area from the image area represented by the second image data. First detecting means for
Based on the first image data, at least one of a blackened area and a whiteout area is detected as a saturated area from the image area represented by the first image data. A second detection means;
Based on the first image data, the detection result of the first detection means, and the detection result of the second detection means, the saturation detected only by the second detection means of the image based on the first image data Generating means for generating display image data expressing the area and the saturated area detected by both the first detecting means and the second detecting means in an identifiable manner;
An image processing apparatus comprising:
入力画像データに画像処理を施すことにより、処理画像データを生成する画像処理ステップと、
前記入力画像データに基づいて、前記入力画像データが表す画像の領域の中から、黒潰れが生じている領域と白飛びが生じている領域との少なくとも一方を、飽和領域として検出する第1検出ステップと、
前記処理画像データに基づいて、前記処理画像データが表す画像の領域の中から、黒潰れが生じている領域と白飛びが生じている領域との少なくとも一方を、飽和領域として検出する第2検出ステップと、
前記処理画像データ、前記第1検出ステップの検出結果、及び、前記第2検出ステップの検出結果に基づいて、前記処理画像データに基づく画像の、前記第2検出ステップでのみ検出された飽和領域と、前記第1検出ステップと前記第2検出ステップの両方で検出された飽和領域と、を識別可能に表現した表示用画像データを生成する生成ステップと、
を有することを特徴とする画像処理方法。
An image processing step for generating processed image data by performing image processing on the input image data;
First detection for detecting, as a saturated region, at least one of a blackened region and a whiteout region from an image region represented by the input image data based on the input image data Steps,
Second detection for detecting, as a saturated region, at least one of a blackened region and a whiteout region from an image region represented by the processed image data based on the processed image data Steps,
Based on the processed image data, the detection result of the first detection step, and the detection result of the second detection step, a saturation region detected only in the second detection step of the image based on the processed image data; A generation step of generating display image data expressing the saturation region detected in both the first detection step and the second detection step in an identifiable manner;
An image processing method comprising:
第1画像データを取得する第1取得ステップと、
前記第1画像データのダイナミックレンジと色域の少なくとも一方を拡大する拡大処理で使用される差分データを取得する第2取得ステップと、
前記差分データを用いた拡大処理を前記第1画像データに施すことにより、第2画像データを生成する拡大ステップと、
前記第2画像データに基づいて、前記第2画像データが表す画像の領域の中から、黒潰れが生じている領域と、白飛びが生じている領域と、の少なくとも一方を、飽和領域として検出する第1検出ステップと、
前記第1画像データに基づいて、前記第1画像データが表す画像の領域の中から、黒潰れが生じている領域と、白飛びが生じている領域と、の少なくとも一方を飽和領域として検出する第2検出ステップと、
前記第1画像データ、前記第1検出手段の検出結果、及び、前記第2検出手段の検出結果に基づいて、前記第1画像データに基づく画像の、前記第2検出ステップでのみ検出された飽和領域と、前記第1検出ステップと前記第2検出ステップの両方で検出された飽和領域と、を識別可能に表現した表示用画像データを生成する生成ステップと、
を有することを特徴とする画像処理方法。
A first acquisition step of acquiring first image data;
A second acquisition step of acquiring difference data used in an enlargement process for enlarging at least one of the dynamic range and the color gamut of the first image data;
An enlargement step of generating second image data by applying an enlargement process using the difference data to the first image data;
Based on the second image data, at least one of a blackened area and a whiteout area is detected as a saturated area from the image area represented by the second image data. First detecting step,
Based on the first image data, at least one of a blackened area and a whiteout area is detected as a saturated area from the image area represented by the first image data. A second detection step;
Saturation detected only in the second detection step of the image based on the first image data based on the first image data, the detection result of the first detection means, and the detection result of the second detection means A generation step of generating display image data expressing the region and the saturated region detected in both the first detection step and the second detection step in an identifiable manner;
An image processing method comprising:
請求項16または17に記載の画像処理方法の各ステップをコンピュータに実行させることを特徴とするプログラム。   A program for causing a computer to execute each step of the image processing method according to claim 16 or 17.
JP2014170227A 2014-08-25 2014-08-25 Image processing apparatus, image processing method and program Pending JP2016046701A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014170227A JP2016046701A (en) 2014-08-25 2014-08-25 Image processing apparatus, image processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014170227A JP2016046701A (en) 2014-08-25 2014-08-25 Image processing apparatus, image processing method and program

Publications (1)

Publication Number Publication Date
JP2016046701A true JP2016046701A (en) 2016-04-04

Family

ID=55636867

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014170227A Pending JP2016046701A (en) 2014-08-25 2014-08-25 Image processing apparatus, image processing method and program

Country Status (1)

Country Link
JP (1) JP2016046701A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107727A (en) * 2016-12-27 2018-07-05 キヤノン株式会社 Image processing system and image processing method, imaging apparatus, and program
JP2020108008A (en) * 2018-12-27 2020-07-09 キヤノン株式会社 Image processing device, control method of the same, and program
JP2020154609A (en) * 2019-03-19 2020-09-24 キヤノン株式会社 Information processing device and information processing method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018107727A (en) * 2016-12-27 2018-07-05 キヤノン株式会社 Image processing system and image processing method, imaging apparatus, and program
JP2020108008A (en) * 2018-12-27 2020-07-09 キヤノン株式会社 Image processing device, control method of the same, and program
JP7224907B2 (en) 2018-12-27 2023-02-20 キヤノン株式会社 IMAGE PROCESSING DEVICE, CONTROL METHOD AND PROGRAM FOR IMAGE PROCESSING DEVICE
JP2020154609A (en) * 2019-03-19 2020-09-24 キヤノン株式会社 Information processing device and information processing method

Similar Documents

Publication Publication Date Title
CN108668093B (en) HDR image generation method and device
JP6381215B2 (en) Image processing apparatus, image processing method, display apparatus, display apparatus control method, and program
US9736390B2 (en) Image processing apparatus and image processing method
JP5457652B2 (en) Image processing apparatus and method
JP4612845B2 (en) Image processing apparatus and method
JP2007336019A (en) Image processing apparatus, imaging apparatus, image output apparatus, and method and program in these apparatuses
CN107395991B (en) Image synthesis method, image synthesis device, computer-readable storage medium and computer equipment
US9185265B2 (en) Image processing method and image processing apparatus for performing a tone correction to acquire a combined image
JP2005051407A (en) Image processing method and device
JP6720881B2 (en) Image processing apparatus and image processing method
CN112351195B (en) Image processing method, device and electronic system
JP5089783B2 (en) Image processing apparatus and control method thereof
JP4900373B2 (en) Image output apparatus, image output method and program
JP2016046701A (en) Image processing apparatus, image processing method and program
JP2019513335A (en) Method for detecting saturated pixel, detection device, color correction device, electronic device and storage medium
JP2016167681A (en) Image generation apparatus and image generation method
KR20180138530A (en) Detection apparatus, image processing apparatus, detection method, and image processing method
KR101279576B1 (en) Method for generating panorama image within digital image processing apparatus
JP2020145553A (en) Image processing apparatus, image processing method and program
KR20210149908A (en) Directional scaling systems and methods
JP5743456B2 (en) Image processing apparatus, image processing method, and imaging apparatus
CN109509161B (en) Image enhancement device and image enhancement method
JP5038190B2 (en) Image capturing apparatus and setting method thereof
JP6543786B2 (en) Image processing apparatus and image processing method
JP6484244B2 (en) Image processing method for maintaining small color / gray difference