JP2008048419A - Image correction system and method - Google Patents

Image correction system and method Download PDF

Info

Publication number
JP2008048419A
JP2008048419A JP2007213403A JP2007213403A JP2008048419A JP 2008048419 A JP2008048419 A JP 2008048419A JP 2007213403 A JP2007213403 A JP 2007213403A JP 2007213403 A JP2007213403 A JP 2007213403A JP 2008048419 A JP2008048419 A JP 2008048419A
Authority
JP
Japan
Prior art keywords
image
data
image data
area
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007213403A
Other languages
Japanese (ja)
Inventor
William C Kress
シー. クレス,ウイリアム
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba TEC Corp
Original Assignee
Toshiba Corp
Toshiba TEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US11/465,588 external-priority patent/US7701618B2/en
Application filed by Toshiba Corp, Toshiba TEC Corp filed Critical Toshiba Corp
Publication of JP2008048419A publication Critical patent/JP2008048419A/en
Pending legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a system and method for correction the quality of image data. <P>SOLUTION: This system receives image data, calculates its spectral frequency data, and obtains a cumulative probability distribution. In addition, this system calculates a spatial parameter from the image data and determines whether an image represented by that image data has been back lit. When it has been back lit, a mask for a backlight area is created for hue or brightness correction in the area. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、画像修正システムおよび方法に関し、特に、バックライトされた主たる画像領域(specimen)を含む画像の修正システムおよび方法に関する。   The present invention relates to an image correction system and method, and more particularly to an image correction system and method that includes a backlit main image region.

昨今、電子的に符号化された画像は随所に存在する。現在、電子的に符号化された画像は、ディジタル・スチル・カメラまたはディジタル・ビデオ・レコーダのような装置から直接取得されるか、写真等の他のメディアを画像走査するか、ライブのテレビ放送のようなストリーミング・メディアから取得されるか、または、数値的に符号化された画像アーカイブからのようにストレージ装置から取り出された以前に得た画像から構成され得る。多くのそのような画像は、理想的とは言えない条件下で取得されるか、または取得する画像の種々の側面に関する照明または他の性質の変動が原因で最適とは言えない結果となる画像をレンダリングする機器によって記録されるかの、いずれかであった。一例は、バックライト設定において撮られた画像である。そのような状況は、晴れた空、直射日光または他の比較的強い背景照明源が、建築物、人物または景色等の、関心とする対象の背後にある時に生じ得る。そのような状況における背景の照明は十分に強いため、前景画像または前景物体、逆光の画像部分、または両方の細部すなわち解像度が劣化する。そのような懸案事項に対処する以前のアプローチは、アルゴリズム的に、もしくは電気的に、あるいは信号処理を通じてか、または画像を取得する際におけるフィルトレーション、Fストップ、開口径等によって機械的に、行われていた。しかしながら、以前のシステムは、画像全体についての、取得あるいは処理に焦点が当てられていたため、それにより画像の一部分に対する懸案事項に対処する試みは、画像の他の側面については逆に悪影響を及ぼす問題点があった。   Nowadays, electronically encoded images exist everywhere. Currently, electronically encoded images are obtained directly from devices such as digital still cameras or digital video recorders, image scanned on other media such as photographs, or live television broadcasts Or from previously obtained images retrieved from a storage device, such as from a numerically encoded image archive. Many such images are acquired under less than ideal conditions, or images that result in suboptimal results due to variations in lighting or other properties of various aspects of the acquired image Was either recorded by the rendering device. An example is an image taken in a backlight setting. Such a situation can occur when a clear sky, direct sunlight or other relatively strong background illumination source is behind an object of interest, such as a building, person or landscape. The background illumination in such a situation is strong enough to degrade the detail or resolution of the foreground image or object, the backlit image portion, or both. Previous approaches to address such concerns are algorithmically, electrically, or through signal processing, or mechanically through filtration, F-stops, aperture diameters, etc. in acquiring images, It was done. However, previous systems have focused on acquisition or processing of the entire image, so attempts to address concerns for a portion of the image can adversely affect other aspects of the image. There was a point.

キャプチャされた画像または保存された画像は、通常、ディジタル的にといったように符号化フォーマットで保存され、その符号化は、多くの場合、原色空間の成分値と関連づけて行われる。そのような色成分は、赤、緑、青(RGB)等のように本質的に加法的であるか、またはシアン、マゼンタ、黄色(CMY)等のように減法的であり、後者はしばしば黒色(K)と組み合わされ、CMYKまたはCMY(K)と呼ばれる。加法混色の三原色空間記述は、一般に、モニタまたはプロジェクタ等の光を発生する装置に表示される画像に関係する。一方、減法混色の三原色空間記述は、一般に、用紙印刷等の光を発生しない媒体あるいは装置上に生成される画像に関係する。画像を、ディスプレイから紙等の固定された媒体に移動するためには、ドキュメントの電子的符号化に関連づけられた色空間の間で変換を行う必要がある。   Captured or stored images are typically stored in an encoding format, such as digitally, and the encoding is often associated with component values in the primary color space. Such color components are essentially additive, such as red, green, blue (RGB), or subtractive, such as cyan, magenta, yellow (CMY), etc. The latter is often black Combined with (K), called CMYK or CMY (K). The additive primary color space description generally relates to an image displayed on a device that generates light, such as a monitor or projector. On the other hand, the subtractive three-primary color space description generally relates to an image generated on a medium or device that does not generate light, such as paper printing. In order to move an image from a display to a fixed medium such as paper, it is necessary to convert between the color spaces associated with the electronic encoding of the document.

ここに開示されているコンセプトは、画像処理またはレンダリングの応用において、画像の表現および画像のカラー化に使用される数値モデルを理解することによって、より良好に認識することができる。最初に数学的に定義された色空間の一つは、1931年にCIEによって作られ、CIE 1931色空間としても知られる、CIE/XYZ色空間である。人間の目は、青、緑および赤の受容体としても知られる短(S)波長、中(M)波長、および長(L)波長のための受容体を有する。必要なことは、色の知覚を記述する3つのパラメータを生成することだけである。3つの数値、すなわち3刺激値とそれぞれの色を関連づけするための特定の方法が色空間と呼ばれ、CIE/XYZ色空間は多くの色空間の一つである。CIE/XYZ色空間は、人間の目の測定に直接基づいており、この他の多くの色空間がCIE/XYZ色空間から定められ、共通基盤となっている。   The concepts disclosed herein can be better recognized by understanding the numerical models used for image representation and image colorization in image processing or rendering applications. One of the first mathematically defined color spaces is the CIE / XYZ color space, created by CIE in 1931, also known as the CIE 1931 color space. The human eye has receptors for short (S), medium (M), and long (L) wavelengths, also known as blue, green and red receptors. All that is necessary is to generate three parameters that describe the perception of the color. A specific method for associating three numerical values, ie, tristimulus values with each color, is called a color space, and the CIE / XYZ color space is one of many color spaces. The CIE / XYZ color space is directly based on human eye measurements, and many other color spaces are defined from the CIE / XYZ color space and are the common basis.

CIE/XYZ色空間において、3刺激値は人間の目のS、M、およびLの刺激ではなく、X、Y、およびZと呼ばれる3刺激値のセットである。これらもまたそれぞれ概ね、赤、緑、および青である。種々の色の異なる混合からなり、しかも同じ色を有する2つの光源を作ることができる(条件等色(メタメリズム))。2つの光源が同一の見かけの色を有するとき、それらを作るために使用された光の混合とは無関係にそれらは同一の3刺激値を有することになる。   In the CIE / XYZ color space, tristimulus values are not S, M, and L stimuli in the human eye, but a set of tristimulus values called X, Y, and Z. These are also generally red, green, and blue, respectively. It is possible to create two light sources consisting of different mixtures of various colors and having the same color (conditional color matching (metamerism)). When two light sources have the same apparent color, they will have the same tristimulus value regardless of the light mixture used to make them.

CIE/L(CIE/LABあるいはLabとも表現される。)は、しばしばもっとも完全なカラー・モデルの1つとして考えられている。従来からCIE/LABモデルは、人間の目に見えるすべての色を記述するために使用されている。CIE/LABモデルは、人間の目に見えるすべての色を記述する目的のために国際照明委員会(Commission Internationale d’Eclairage;しばしばCIEと略して呼ばれる。)によって開発された。このモデルの3つのパラメータ(L、a、b)のうち、Lは輝度(明度)を表し、a、bは色の領域を表す。輝度Lが0のときは黒であり、100のときは白色である。aは赤と緑の間の位置を示し、値が正ならば赤を表し、値が負ならば赤の補色の緑を表す。bは黄色と青の間の位置を示し、値が正ならば黄色を表し、値が負ならば黄色の補色の青を表す。 CIE / L * a * b * (also expressed as CIE / LAB or Lab) is often considered as one of the most complete color models. Traditionally, the CIE / LAB model is used to describe all colors visible to the human eye. The CIE / LAB model was developed by the International Commission on Lighting (Commission Internationale d'Eclairage; often abbreviated as CIE) for the purpose of describing all colors visible to the human eye. Of the three parameters (L, a, b) of this model, L represents luminance (brightness) and a, b represents a color region. When the luminance L is 0, it is black, and when it is 100, it is white. a indicates a position between red and green. If the value is positive, it represents red, and if the value is negative, it represents the complementary green of red. b indicates a position between yellow and blue. If the value is positive, it represents yellow, and if the value is negative, it represents the complementary blue of yellow.

Labカラー・モデルは、デバイスに依存しない基準モデルとしての役割を果たすように作られた。したがって、このモデルにおける色の全再現領域(full gamut)、すなわち利用可能な全範囲の視覚的表現は完全には正確ではなく、むしろ色空間を概念化するために使用されている。Labモデルは3次元であるので、それは3次元空間において正しく表現される。Labモデルの有用な特徴は、最初のパラメータ、すなわちLが極めて直観的なことである。値Lの変更は、TV受像器における輝度設定の変更に似ている。Labモデルにおいて輝度は垂直軸上で表現され、モデル内の水平『スライス』のいくつかの表現だけで全色再現領域の概念的視覚化に十分である。   The Lab color model was created to serve as a device independent reference model. Therefore, the full gamut of colors in this model, i.e. the visual representation of the full range available, is not completely accurate, but rather is used to conceptualize the color space. Since the Lab model is three-dimensional, it is correctly represented in three-dimensional space. A useful feature of the Lab model is that the first parameter, L, is very intuitive. Changing the value L is similar to changing the brightness setting in a TV receiver. In the Lab model, luminance is represented on the vertical axis, and only a few representations of horizontal “slices” in the model are sufficient for conceptual visualization of the entire color reproduction region.

Labモデルは、本質的に正しくパラメータ化されている。したがって、このモデルに基づく特有の色空間は必要ではない。CIE 1976 Lモード、すなわちLabモードは、色の差の知覚性(perceptibility)を定義しようとしたものである。Lab空間における円表現は、XYZ空間における楕円に対応している。L、aおよびbにおける非線形の関係は、立方根に関連しており、視覚の対数的な応答の再現が意図されている。カラーリング情報はシステムの白色ポイントの色に対して参照される。 The Lab model is essentially parameterized correctly. Therefore, a specific color space based on this model is not necessary. The CIE 1976 L * a * b * mode, or Lab mode, is intended to define the perceptibility of color differences. The circle representation in the Lab space corresponds to an ellipse in the XYZ space. The non-linear relationship in L * , a * and b * is related to the cubic root and is intended to reproduce the logarithmic response of vision. Coloring information is referenced to the color of the system white point.

カラー画像を表現するドキュメント等の、電子ドキュメントは、通常、1ないしは複数の標準的なフォーマットで符号化される。そのようなフォーマットは数多く存在するが、最近の代表的な記述フォーマットには、Microsoft Word(登録商標)ファイル(*.doc)、タグ付き情報ファイル・フォーマット(TIFF)、グラフィック画像フォーマット(GIF)、米国アドビ・システムズ社のポータブル・ドキュメント・フォーマット(PDF)、米国アドビ・システムズ社のPostScript(登録商標)、ハイパー・テキスト・マークアップ言語(HTML)、拡張マークアップ言語(XML)、ドローイング・エクスチェンジ・ファイル(*.dxf)、ドローイング・ファイル(*.dwg)、ペイントブラシ・ファイル(*.pcx)、ジョイント・フォトグラフィック・エキスパート・グループ(JPEG)をはじめ、その他多数のビットマップ化された、あるいは符号化された、あるいは圧縮されたフォーマット、またはベクトル・ファイル・フォーマットが含まれる。   Electronic documents, such as documents that represent color images, are typically encoded in one or more standard formats. There are many such formats, but recent typical description formats include Microsoft Word® file (* .doc), tagged information file format (TIFF), graphic image format (GIF), Adobe Portable Document Format (PDF), Adobe Systems PostScript (registered trademark), Hyper Text Markup Language (HTML), Extensible Markup Language (XML), Drawing Exchange Files (* .dxf), drawing files (* .dwg), paintbrush files (* .pcx), joint photography expert groups (JPEG), and many other bitmapped or Encoded or compressed format or vector It is included to take file format.

したがって、異なる照明またはライティング特性の影響を受けた画像の領域部分に関する画質の劣化に対処するために、上記のような任意の符号化がなされた画像を容易に画質修正可能とするシステムおよび方法が望まれる。   Accordingly, there is a system and method for easily correcting the image quality of an image that has been arbitrarily encoded as described above, in order to cope with image quality degradation related to a region portion of the image affected by different illumination or lighting characteristics. desired.

本発明は、上記の従来の問題点に鑑みてなされたもので、画像修正システムおよび方法を提供することを目的とする。また、本発明は、キャプチャ画像の2つ以上の主たる画像領域が別個の明度、輝度またはコントラスト特性を有する画像の画質を修正するシステムおよび方法を提供することを目的とする。さらに、本発明は、異なる照明またはライティング特性の影響を受けた画像の主たる画像領域に関する画質を修正するために、任意の符号化がなされた画像の容易な画質修正を可能にするシステムおよび方法を提供することを目的とする。   The present invention has been made in view of the above-described conventional problems, and an object thereof is to provide an image correction system and method. It is another object of the present invention to provide a system and method for modifying the image quality of an image in which two or more main image regions of the captured image have distinct brightness, brightness or contrast characteristics. Furthermore, the present invention provides a system and method that allows for easy image quality correction of arbitrarily encoded images to correct the image quality for the main image areas of the image affected by different lighting or lighting characteristics. The purpose is to provide.

本発明による画像修正システムは、画像データを受け取る手段と、受け取った画像データから、少なくとも1つの主たる画像領域(specimen area)と、少なくとも1つの背景領域との間の遷移部を特定する遷移部検出手段と、この遷移部検出手段によって特定された遷移部にしたがって、主たる画像領域および背景領域のうちの少なくともいずれか一方に関する画像データのパラメータを調整する調整手段とを有する。   An image correction system according to the present invention includes means for receiving image data, and transition detection for identifying a transition between at least one main image area and at least one background area from the received image data. And adjusting means for adjusting the parameter of the image data relating to at least one of the main image area and the background area in accordance with the transition part specified by the transition part detection means.

一実施形態において、前記調整手段は、前記主たる画像領域の画像データおよび前記背景領域の画像データのうちの少なくとも一方について明度を調整する手段を含む。別の実施形態において、前記調整手段は、前記主たる画像領域の画像データについて明度を増大させ、前記背景領域の画像データについて明度を減少させる手段を含む。   In one embodiment, the adjusting means includes means for adjusting the brightness of at least one of the image data of the main image area and the image data of the background area. In another embodiment, the adjusting means includes means for increasing the brightness of the image data of the main image area and decreasing the brightness of the image data of the background area.

さらなる実施形態において、本発明による画像修正システムは、前記画像データに含まれる色データのスペクトル頻度分布を表すスペクトル頻度(frequency)データを算出する算出手段を、さらに、有し、前記調整手段は前記スペクトル頻度データにしたがって前記主たる画像領域の画像データおよび前記背景領域の画像データのうちの少なくともいずれか一方について明度を調整する手段を含む。好ましくは、前記スペクトル頻度データは、前記画像データ中の符号化された値の累積確率分布を表す分布データを含む。   In a further embodiment, the image correction system according to the present invention further comprises calculation means for calculating spectral frequency data representing a spectral frequency distribution of color data included in the image data, wherein the adjustment means Means for adjusting the brightness of at least one of the image data of the main image region and the image data of the background region in accordance with spectral frequency data; Preferably, the spectrum frequency data includes distribution data representing a cumulative probability distribution of encoded values in the image data.

また別の実施形態において、特定された遷移部に対応するマスク・データを生成するマスク・データ生成手段を、さらに、有し、前記調整手段は、前記マスク・データにしたがって特定された遷移部にしたがって、前記主たる画像領域および前記背景領域のうちの少なくともいずれか一方に関係する画像データのパラメータを、選択的に調整する手段を含む。好ましくは、前記マスク・データは前記画像データによって表わされる画像の少なくとも1つの部分に対応し、この少なくとも1つの部分は不連続を持たない形状を規定する。   In another embodiment, the apparatus further comprises mask data generating means for generating mask data corresponding to the specified transition part, and the adjusting means is provided in the transition part specified according to the mask data. Therefore, it includes means for selectively adjusting a parameter of image data related to at least one of the main image region and the background region. Preferably, the mask data corresponds to at least one portion of the image represented by the image data, and the at least one portion defines a shape having no discontinuities.

本発明による画像修正方法は、画像データを受け取るステップと、受け取った画像データから、少なくとも1つの主たる画像領域と、少なくとも1つの背景領域との間の遷移部を特定するステップと、このステップにおいて特定された遷移部にしたがって、主たる画像領域および背景領域のうちの少なくとも一方に関係する画像データのパラメータを調整するステップとを含む。   An image correction method according to the present invention includes a step of receiving image data, a step of specifying a transition portion between at least one main image region and at least one background region from the received image data, and specifying in this step Adjusting a parameter of image data related to at least one of the main image area and the background area in accordance with the transition section.

本発明によれば、画像修正システムおよび方法が提供される。また、本発明によれば、キャプチャ画像の2つ以上の主たる画像領域が別個の明度、輝度またはコントラスト特性を有する画像の画質を修正するシステムおよび方法が提供される。さらに、本発明によれば、異なる照明またはライティング特性の影響を受けた画像の主たる画像領域に関する画質を修正するために、任意の符号化がなされた画像の容易な画質修正を可能にするシステムおよび方法が提供される。   In accordance with the present invention, an image correction system and method are provided. The present invention also provides a system and method for modifying the image quality of an image in which two or more main image regions of the captured image have distinct brightness, brightness or contrast characteristics. Further, according to the present invention, a system that allows easy image quality correction of an arbitrarily encoded image to correct the image quality for the main image area of the image affected by different illumination or lighting characteristics, and A method is provided.

本発明による画像修正システムは、前述した多くのフォーマットと関係づけられたディジタル符号化画像データのような数値的に符号化された画像データの分析および操作によって有効に動作する。以下の説明においては、画像キャプチャ装置またはディジタル画像処理装置において一般に見受けられることから、例証の目的で、一般的に使用されるRGB色空間において符号化されたディジタル画像について説明する。しかし、以下の説明から明らかなように、本発明は、あらゆる表色系またはグレイスケールにおける、あらゆる符号化画像に適用されることが認識されるはずである。さらに、本発明は、適切なコンピュータ・プラットホームにおいて具体化することが可能であるため、ワークステーションのような汎用ディジタル・コンピューティング装置と関連させて説明を行う。しかし、以下でさらに詳細に述べるとおり、本発明による画像修正システムは、ディジタル画像処理装置、ドキュメント処理装置のコントローラに実装可能であり、あるいはディジタル・カメラのような画像キャプチャ装置において直接具体化され、それらの装置は以下に述べる分析および計算を実行可能な能力を組み込むことができる。   The image modification system according to the present invention operates effectively by the analysis and manipulation of numerically encoded image data, such as digitally encoded image data associated with many of the aforementioned formats. In the following description, a digital image encoded in a commonly used RGB color space will be described for purposes of illustration because it is commonly found in image capture devices or digital image processing devices. However, as will be apparent from the following description, it should be appreciated that the present invention applies to any coded image in any color system or gray scale. Furthermore, the present invention can be embodied in any suitable computer platform and will be described in the context of a general purpose digital computing device such as a workstation. However, as described in more detail below, the image modification system according to the present invention can be implemented in a digital image processing device, a controller of a document processing device, or directly embodied in an image capture device such as a digital camera, These devices can incorporate the ability to perform the analysis and calculations described below.

以下、適宜、図面を参照しながら本発明による実施形態の説明を行う。図1は本発明による実施形態が実施されるコンピュータあるいはワークステーションのハードウェア構成例を示すブロック図である。ワークステーション100は、不揮発性読み出し専用メモリ、揮発性読み出し専用メモリまたはそれらの組み合わせとする読み出し専用メモリ(ROM)104、RAM106、表示インターフェイス108、ストレージ・インターフェイス110およびネットワーク・インターフェイス112とのデータ通信を行うプロセッサ102を備える。一実施形態においては、上記のモジュールとのインターフェイスは、バス114を介して行われる。以下の説明から分かるように、ワークステーションの機能性は、通常、ストレージ装置から読出され、RAM106上で展開されるインストラクションによって、適切に具体化される。   Hereinafter, embodiments of the present invention will be described as appropriate with reference to the drawings. FIG. 1 is a block diagram showing a hardware configuration example of a computer or workstation in which an embodiment according to the present invention is implemented. The workstation 100 performs data communication with a read-only memory (ROM) 104, a RAM 106, a display interface 108, a storage interface 110, and a network interface 112, which are a nonvolatile read-only memory, a volatile read-only memory, or a combination thereof. A processor 102 is provided. In one embodiment, the interface to the module is through the bus 114. As can be seen from the following description, the functionality of the workstation is typically embodied appropriately by instructions that are read from the storage device and deployed on the RAM 106.

読み出し専用メモリ(ROM)104は、BIOS、システム機能、構成データおよびプロセッサ102によってワークステーション100の動作のために使用されるその他のルーチン等の静的データまたは固定的なインストラクション等のファームウェアを保存する。   Read-only memory (ROM) 104 stores BIOS, system functions, configuration data, and firmware such as static data or fixed instructions such as other routines used by processor 102 for operation of workstation 100. .

RAM106は、プロセッサ102によって実行されるアプリケーションおよびデータ処理に関連するデータおよびインストラクションのための記憶領域を提供する。   The RAM 106 provides a storage area for data and instructions related to applications and data processing executed by the processor 102.

表示インターフェイス108は、バス114に接続された他のモジュールからデータまたはインストラクションを受信する。それらのデータまたはインストラクションは表示の生成に特有であり、ユーザ・インターフェイスを有効なものにする。表示インターフェイス108は、映像表示装置、例えばCRT、LCD、プラズマ・ディスプレイまたはその他の適切な視覚出力装置等である表示モニタ128に対して出力を提供する。   The display interface 108 receives data or instructions from other modules connected to the bus 114. Those data or instructions are specific to the generation of the display and make the user interface valid. The display interface 108 provides output to a display monitor 128, such as a video display device such as a CRT, LCD, plasma display or other suitable visual output device.

ストレージ・インターフェイス110は、ワークステーション100内のデータまたはインストラクションの不揮発性の大容量保存または長期的な保存のためのメカニズムを提供する。ストレージ・インターフェイス110は、ディスク・ドライブ、テープ、CD−ROM、DVD−ROM等の光学式ドライブまたはその他の比較的大容量のアドレス指定可能、またはシリアル記憶媒体から構成される記憶装置118等の保存メカニズムを使用する。   Storage interface 110 provides a mechanism for non-volatile mass storage or long-term storage of data or instructions within workstation 100. The storage interface 110 is an optical drive such as a disk drive, tape, CD-ROM, DVD-ROM or other relatively large capacity addressable or storage such as a storage device 118 comprised of a serial storage medium. Use the mechanism.

ネットワーク・インターフェイス112は、例えば、ネットワーク・インターフェイス・カード(NIC)120として示した、ネットワークとのインターフェイスをとる、少なくとも1つの通信ユニットと通信を行う。ネットワーク・インターフェイスは、物理レイヤおよびプロトコル・レイヤの両方からなり、ネットワーク・インターフェイス・カード120を介してEthernet(登録商標)、トークン・リングまたはその他のワイド・エリアまたはローカル・エリア・ネットワーク通信システム等の任意の有線ネットワーク・システム132、あるいは無線インターフェイス130を介してWiFi(Wireless Fidelity)、WiMaxまたはその他の任意の適切な無線ネットワーク・システム等によって他の装置と通信することを可能にする。   The network interface 112 communicates with at least one communication unit that interfaces with a network, shown as a network interface card (NIC) 120, for example. The network interface consists of both a physical layer and a protocol layer, such as Ethernet®, token ring or other wide area or local area network communication system via the network interface card 120. It is possible to communicate with other devices via any wired network system 132 or via wireless interface 130, such as WiFi (Wireless Fidelity), WiMax or any other suitable wireless network system.

バス114を介してデータ通信を行う入出力インターフェイス116には、キーボード等の入力装置122が接続される。また、入出力インターフェイス116は、USB、SCSI、IEEE1394またはその他の適切な任意のインターフェイスである周辺インターフェイス124に対してデータ出力を提供する。さらに、入出力インターフェイス116は、マウス、ライト・ペン、タッチ・スクリーン等との接続のためのポインティング・デバイス・インターフェイス126とデータ通信を行う。   An input device 122 such as a keyboard is connected to the input / output interface 116 that performs data communication via the bus 114. The input / output interface 116 also provides data output to the peripheral interface 124, which may be USB, SCSI, IEEE1394 or any other suitable interface. Further, the input / output interface 116 performs data communication with a pointing device interface 126 for connection with a mouse, a light pen, a touch screen, or the like.

図1に示した例において、ネットワーク・インターフェイス・カード120のようなネットワーク・インターフェイスは、ネットワーク・インターフェイス112を、有線ネットワーク・システム132とデータ通信可能とさせる。また同図において、ディジタル画像処理装置134、およびコントローラ138を含むドキュメント出力装置136も、有線ネットワーク・システム132とデータ通信を行っている。ディジタル画像処理装置134のみならず、プリンタ、複写機、ファクシミリ装置、スキャナ装置またはそれらの機能を組合せた装置等のインテリジェント出力装置は、しばしば、図に例示したようなインテリジェント・コントローラを用いる。このような装置には、以下説明を行う、画像の質を向上させる機能を実行するために十分な能力を含ませることができる。または、画質向上機能を、相互にデータ通信可能な複数のインテリジェント装置間に適切に分散されることもできる。   In the example shown in FIG. 1, a network interface such as network interface card 120 enables network interface 112 to be in data communication with wired network system 132. In the figure, a digital image processing device 134 and a document output device 136 including a controller 138 are also in data communication with the wired network system 132. Intelligent output devices such as printers, copiers, facsimile devices, scanner devices or devices that combine these functions as well as the digital image processing device 134 often use intelligent controllers as illustrated in the figures. Such an apparatus can include sufficient capabilities to perform the functions described below, which improve image quality. Alternatively, the image quality enhancement function can be appropriately distributed among a plurality of intelligent devices capable of data communication with each other.

次に、図2を参照しながら、本発明による実施形態における動作を説明する。図2に、本発明による一実施形態における画像修正の動作を説明するためのフローチャートを示す。最初にS202で、画像データが、本技術分野において知られているいずれかの適切な手段を通じて、受け取られる。前述したように、受け取られる画像データは、例えば、前述した複数の画像データ・ソースのうちのいずれかからのディジタル符号化画像等の電子ドキュメントである。次にS204において、入力された画像データは、符号化データに関する頻度(frequency)情報について分析され、スペクトル頻度データが算出される。一実施形態においては、符号化データに関する頻度(frequency)情報の分析からヒストグラムが生成されるが、その詳細は以下で述べる。   Next, operations in the embodiment according to the present invention will be described with reference to FIG. FIG. 2 is a flowchart for explaining the image correction operation in the embodiment according to the present invention. Initially, at S202, image data is received through any suitable means known in the art. As described above, the received image data is, for example, an electronic document such as a digitally encoded image from any of the plurality of image data sources described above. In step S204, the input image data is analyzed for frequency information regarding the encoded data, and spectrum frequency data is calculated. In one embodiment, a histogram is generated from an analysis of frequency information about the encoded data, details of which are described below.

次にS206で、累積確率分布関数が計算され、S204で実行されたスペクトル分析、すなわち画像内容分析についてのヒストグラムを形成する。次にS208において、空間パラメータ、すなわち画像データで表される画像における特徴的領域に関する特性が計算される。この計算によって、画像に含まれ、区別可能な領域が特定され、特徴が異なる領域の間の遷移部も特定される。その後S210で、受け取った画像データについて統計に基づく判断が行われ、受け取った画像データがバックライトされている、すなわち逆光であるか否か判断される。画像がバックライトされていないと判断された場合には、処理は終了する。画像がバックライトされていると判断されると、S212では、1つまたは複数のバックライト画像部分、すなわち逆光の画像部分のマスク領域の生成あるいは特定が行われる。一実施形態のバックライト画像においては、マスクは連続的であり(contiguous)、ぼかされている。本実施形態においてはバックライト領域マスクが使用されているが、生成されるマスクはバックライト領域マスクか正面画像領域(frontal image area)マスクのいずれかである。どちらのマスクが選択されるかにしたがって行われる適切なアルゴリズム的調整が用いられる。次にS214で、本実施形態においては、色調(tone)修正がバックライト領域に適用されて、修正された画像出力が得られる。   Next, in S206, the cumulative probability distribution function is calculated to form a histogram for the spectral analysis performed in S204, that is, the image content analysis. Next, in S208, a spatial parameter, that is, a characteristic relating to the characteristic region in the image represented by the image data is calculated. By this calculation, regions that are included in the image and can be distinguished are identified, and transition portions between regions having different characteristics are also identified. Thereafter, in S210, a determination based on statistics is performed on the received image data, and it is determined whether the received image data is backlit, that is, backlit. If it is determined that the image is not backlit, the process ends. If it is determined that the image is backlit, in S212, a mask area is generated or specified for one or more backlight image portions, that is, the backlight image portion. In the backlight image of one embodiment, the mask is contiguous and blurred. In this embodiment, a backlight area mask is used, but the generated mask is either a backlight area mask or a frontal image area mask. Appropriate algorithmic adjustments are used that are made according to which mask is selected. Next, in S214, in this embodiment, tone correction is applied to the backlight area to obtain a corrected image output.

ここで、以上、説明を行った実施形態においては、主たる画像領域であるバックライト画像部分について、色調の修正を行っているが、修正は必ずしも色調に限定されるわけではなく、画像データのパラメータ、例えば明度、について調整を行うことも可能であることは明らかである。また、以上、説明を行った実施形態においては、主たる画像領域であるバックライト画像部分について、色調の修正を行っているが、修正の対象はバックライト画像部分に限定されるわけではなく、背景画像部分に対して行うことも可能である。   Here, in the embodiment described above, the color tone is corrected for the backlight image portion which is the main image region, but the correction is not necessarily limited to the color tone, and the parameters of the image data are not limited. Obviously, it is possible to adjust the brightness, for example. Further, in the embodiment described above, the color tone is corrected for the backlight image portion which is the main image region, but the correction target is not limited to the backlight image portion, and the background It can also be performed on the image portion.

上述のような画像修正は、多くの場合に符号化画像に付随するメタデータに対して実行される。しかしながら、そのような補正は、画像データから直接的に計算することによっても行うことができる。ディジタル・カメラのような装置は、多くの場合、メタデータを含む符号化画像を含む。ディジタル・カメラのようなディジタル・キャプチャ装置からの画像は、バックライト状況が避けられないか、または未熟な撮影者によって考慮されない限りにおいて、画像の取得については特に問題が多い。   Image correction as described above is often performed on metadata associated with an encoded image. However, such correction can also be performed by calculating directly from the image data. Devices such as digital cameras often include encoded images that include metadata. Images from digital capture devices such as digital cameras are particularly problematic for image acquisition unless a backlight situation is unavoidable or considered by an untrained photographer.

上述のシステムは、トーン・スケール・レンダリングにおいて行われる、空間的に制約された変更と同様に、画像に関係するパラメータの計算によって画像修正を実行する。実際の修正は、一実施形態においては、累積確率分布および空間予測子(spatial predictors)を用いて行われる。さらに、画像の一部分だけが、バックライト写真、すなわち逆光で撮った写真における晴れた空のようなトーン・スケールの問題がある場合、全体的な画質の顕著な改善を可能にするためには、問題がある部分だけについて対処する必要がある。相補的な画像部分は変更しないままとするか、または各々の部分について適切な方法で独立に画像修正を行う。この点は、通常、画像修正の方法あるいはアルゴリズムを画像の全体にわたって適用する従来のシステムと、大きく異なる点である。従来のアルゴリズムは、処理を行わなければ許容できる画質の画像部分を、処理または調整することがあり、結果的には許容できる画質の画像部分について劣化を招く。   The system described above performs image modification by calculating parameters related to the image, as well as spatially constrained changes made in tone scale rendering. The actual correction is done in one embodiment using cumulative probability distributions and spatial predictors. In addition, if only a portion of the image has a tone scale problem like a clear sky in a backlit photo, i.e. a photo taken in backlight, to allow a significant improvement in overall image quality, You only need to deal with the problem. Complementary image portions are left unchanged or image correction is performed independently in an appropriate manner for each portion. This is a significant difference from conventional systems that typically apply image correction methods or algorithms throughout the image. Conventional algorithms may process or adjust image portions with acceptable image quality if not processed, resulting in degradation of image portions with acceptable image quality.

次に図3を参照しながら、本発明による実施形態の実施に関連して用いられるスペクトル頻度(frequency)分析に関して説明する。画像ピクセルに関する色の値の累積確率分布によって、対応する電子画像のバックライティング、すなわち逆光の程度の指標が有効に得られる。良好に照明された画像に比較して、バックライト画像に関する累積確率分布は、最初に急激に上昇する。さらに、バックライト画像に関する累積確率分布においてはスケールの中間の範囲に、多くの場合、平坦部が存在する。前述したように、代表的な符号化は赤、緑、青すなわちRGB色空間と関連しており、この符号化は以下で説明を行う図3、図4および図8に示す代表的なグラフに反映されている。   With reference now to FIG. 3, a spectral frequency analysis used in connection with the implementation of an embodiment according to the present invention will be described. The cumulative probability distribution of the color values for the image pixels effectively provides an indication of the corresponding electronic image backlighting, ie the degree of backlighting. Compared to a well illuminated image, the cumulative probability distribution for the backlight image rises sharply initially. Further, in the cumulative probability distribution related to the backlight image, there is often a flat portion in the middle range of the scale. As mentioned above, typical encodings are associated with the red, green, blue or RGB color space, and this encoding is represented in the exemplary graphs shown in FIGS. 3, 4 and 8 described below. It is reflected.

図3に、バックライティング、すなわち逆光照明が存在する2つのサンプル画像についての累積確率分布データの例を示す。図3に示す2つのグラフは代表的なものにすぎないが、バックライト画像の特性をよく示している。この例においては、RGB符号化の赤、緑および青の各々を符号化するために8ビットが使用されており、赤、緑および青の各成分は、グラフの実線、点線、および一点鎖線としてそれぞれの曲線に反映されている(図4および図8においても同様)。8ビット符号化によって、3つの加法混色の原色のそれぞれは256(0〜255)のレベルを取りうる。グラフの横軸は、赤(R)、緑(G)および青(B)の値を表す。縦軸はRGB値それぞれに関係する累積確率分布である。すなわち、縦軸の値は、横軸に示された対応するRGB値未満である変動係数(a coefficient of variation)の関数である確率を表している。   FIG. 3 shows an example of cumulative probability distribution data for two sample images in which backlighting, that is, backlight illumination exists. The two graphs shown in FIG. 3 are merely representative, but well show the characteristics of the backlight image. In this example, 8 bits are used to encode each of the red, green, and blue RGB encodings, and the red, green, and blue components are represented as a solid line, a dotted line, and a dashed line in the graph. This is reflected in each curve (the same applies to FIGS. 4 and 8). With 8-bit encoding, each of the three additive primary colors can have a level of 256 (0-255). The horizontal axis of the graph represents red (R), green (G), and blue (B) values. The vertical axis represents the cumulative probability distribution related to each RGB value. That is, the value on the vertical axis represents a probability that is a function of a coefficient of variation that is less than the corresponding RGB value shown on the horizontal axis.

図3(a)に示した例は、図5〜図7を参照しながら後にも説明を行う、ハンブルグ大聖堂の画像に関する累積確率分布である。図3(a)に示したグラフは、最初の急激な上昇、スケールの中間の範囲に存在する平坦部、および以降の再開する上昇を呈している。このことは、前述したように、対応する画像がバックライトされた画像であることを示している。図3(b)に示した例は、バックライトされた仏像の画像に関する累積確率分布である。このグラフにおいても最初の急激な上昇、スケールの中間の範囲に存在する平坦部が見られる。しかし、このグラフにおいては図3(a)に示したグラフと異なり、第2の急激に上昇する領域が存在しないことが注目される。   The example shown in FIG. 3A is a cumulative probability distribution related to the Hamburg Cathedral image, which will be described later with reference to FIGS. The graph shown in FIG. 3 (a) exhibits a first sudden rise, a flat portion present in the middle range of the scale, and a subsequent resume rise. This indicates that the corresponding image is a backlit image as described above. The example shown in FIG. 3B is a cumulative probability distribution related to a backlit Buddha image. Also in this graph, the first rapid rise, a flat portion existing in the middle range of the scale can be seen. However, it is noted that in this graph, unlike the graph shown in FIG. 3 (a), there is no second rapidly rising region.

次に図4に、フロントライティング、すなわち前方照明が存在する2つのサンプル画像についての累積確率分布データの例を、図3と同様に、赤、緑および青の各成分は、グラフの実線、点線、および一点鎖線としてそれぞれの曲線に反映されている。図4に示した2つの例においては、図3に示したグラフに関連して述べた急速な上昇および以降の平坦部の傾向が、どちらの例においても見られないことが注目される。したがって、累積確率分布は、画像がフロントライティングであるのか、またはバックライティングであるのかを、容易に検出しうるメカニズムを提供する。   Next, FIG. 4 shows an example of cumulative probability distribution data for two sample images in which front lighting, that is, front lighting is present. As in FIG. 3, the red, green, and blue components are represented by solid lines and dotted lines in the graph. , And are reflected in each curve as an alternate long and short dash line. It is noted that in the two examples shown in FIG. 4, the rapid rise and subsequent flattening trends described in connection with the graph shown in FIG. 3 are not seen in either example. Thus, the cumulative probability distribution provides a mechanism that can easily detect whether an image is front-lighting or back-lighting.

他の検討事項は、累積確率分布が得られる関心領域、および種々の領域における符号値の相対的な分布である。例えば、ほとんどの人々が主な被写体を中央に配置して写真を撮ると統計的に仮定すれば、中央加重累積確率分布が関心事になる。それがバックライト状況のような場合には、画像の上部は、一般に、中心領域または底部領域よりも相当に高い符号値を有していなければならない。   Another consideration is the region of interest from which a cumulative probability distribution is obtained, and the relative distribution of code values in the various regions. For example, if it is statistically assumed that most people take a picture with the main subject in the center, the central weighted cumulative probability distribution is of interest. In cases such as a backlight situation, the top of the image generally must have a sign value that is significantly higher than the center or bottom region.

図5に、バックライティングが存在する、図3(a)で参照したハンブルグ大聖堂の代表的な写真の例を示す。尚、示した元の画像はカラーであるが、カラー画像をグレイスケールに変換して示している。一実施形態においては、比較的暗い画像部分を連続的なブロブ(blob)として特定するために操作が行われる。ここでブロブは、一般にピクチャまたは画像フレームの中心において、それに関係している不連続のない形状として定義される。図2を参照しながら説明したように、一実施形態において、マスクがブロブから適切に生成され、マスク領域内部の画像部分における符号値は変更される。ブロブが不連続を有する場合、直接的な操作がすべての不連続を埋めるために適切に使用され、画質修正を適用するための連続的ブロブ領域に到達する。   FIG. 5 shows an example of a representative photograph of the Hamburg Cathedral referred to in FIG. The original image shown is in color, but the color image is shown converted to gray scale. In one embodiment, an operation is performed to identify a relatively dark image portion as a continuous blob. Here, a blob is generally defined as a shape without a discontinuity associated with it at the center of a picture or image frame. As described with reference to FIG. 2, in one embodiment, a mask is suitably generated from the blob and the code value in the image portion inside the mask area is changed. If the blob has discontinuities, a direct operation is used appropriately to fill all discontinuities, reaching a continuous blob region for applying image quality correction.

図6に、図5に示した画像に対応し、本発明による実施形態において特定される適切なマスク領域の例を示す。上述のとおり、特定されたマスク領域の外部の符号値も、また、暗くするなどして適切に変更されて、背景画像部分の見た感じ(view)を改善する。前述の画像を明るくする処理、画像の背景またはバックライト部分を暗くする処理、またはそれらの処理を組合せて適用し、画像修正処理がなされた画像を、図7に例示する。尚、図7に例示した元の画像もカラーであるが、カラー画像をグレイスケールに変換して示している。画像またはその一部分を、明るくする、あるいは暗くするアルゴリズムは、本技術分野では良く知られている。図7に示した画像は、図5に示した原画像に比べて、以上述べた処理の適用によって、細部において顕著に改善されていることは明らかであろう。   FIG. 6 shows an example of an appropriate mask area corresponding to the image shown in FIG. 5 and specified in the embodiment according to the present invention. As described above, the code value outside the specified mask area is also appropriately changed, such as by darkening, to improve the view of the background image portion. FIG. 7 illustrates an image that has been subjected to image correction processing by applying the above-described processing for brightening the image, processing for darkening the background or backlight portion of the image, or a combination of these processing. Although the original image illustrated in FIG. 7 is also in color, the color image is shown converted to gray scale. Algorithms that brighten or darken an image or a portion thereof are well known in the art. It will be apparent that the image shown in FIG. 7 is remarkably improved in detail by applying the processing described above compared to the original image shown in FIG.

図8に、図7に例示した画像修正処理がなされた画像についての累積確率分布データを示す。図8においても、図3および図4と同様に、赤、緑および青の各成分は、グラフの実線、点線、および一点鎖線としてそれぞれの曲線に反映されている。図7に示した修正された画像に関係する累積確率分布は、その原画像(図5)に関係する累積確率分布(図3(a))の形とは、大きく変化している。すなわち、図8においては、図3(a)の累積確率分布曲線に見られた、最初の急激な上昇、スケールの中間の範囲に存在する平坦部が存在しない。図7に例示した修正された画像に関係する、図8に示される累積確率分布は、図4(a)および(b)に示したような、通常のフロントライトされた画像の累積確率分布とより類似していることが分かる。   FIG. 8 shows cumulative probability distribution data for the image that has been subjected to the image correction processing illustrated in FIG. Also in FIG. 8, as in FIGS. 3 and 4, each component of red, green, and blue is reflected in each curve as a solid line, a dotted line, and an alternate long and short dash line in the graph. The cumulative probability distribution related to the modified image shown in FIG. 7 is greatly different from the shape of the cumulative probability distribution (FIG. 3A) related to the original image (FIG. 5). That is, in FIG. 8, there is no flat portion existing in the middle range of the first rapid rise and scale, as seen in the cumulative probability distribution curve of FIG. The cumulative probability distribution shown in FIG. 8 relating to the modified image illustrated in FIG. 7 is the cumulative probability distribution of a normal front-lit image as shown in FIGS. 4 (a) and (b). It turns out that it is more similar.

本発明は、ソースコード、オブジェクトコード、部分的にコンパイルされた形のようなコード中間ソースおよびオブジェクトコードの形、あるいは本発明の実施形態で使用するために適した任意の他の形のコンピュータ・プログラムに適用される。コンピュータ・プログラムは、スタンドアローンのアプリケーション、ソフトウェア・コンポーネント、スクリプト、または他のアプリケーションへのプラグインとすることができる。本発明を実施するコンピュータ・プログラムは、例えば、ROMやRAMなどの記憶媒体、CD−ROMなどの光記録媒体、フロッピー(登録商標)ディスクなどの磁気記録媒体などの、コンピュータ・プログラムを伝達することができる任意の実体または装置である担体上で具体化することができる。この担体は、電気ケーブルまたは光ケーブルによって、または無線や他の手段によって伝えられる電気信号や光信号などの任意の伝達可能な担体である。コンピュータ・プログラムは、サーバからインターネットを介してダウンロードすることもできる。また、コンピュータ・プログラムの機能は集積回路に組み込むこともできる。説明を行った本発明の原理を実質的にコンピュータまたはプロセッサに実行させるコードを含む任意およびすべての実施形態は、本発明の範囲内にある。   The invention may be in the form of source code, object code, code intermediate source and object code, such as partially compiled form, or any other form of computer computer suitable for use with embodiments of the invention. Applies to the program. A computer program can be a stand-alone application, a software component, a script, or a plug-in to another application. The computer program for carrying out the present invention transmits a computer program such as a storage medium such as ROM and RAM, an optical recording medium such as a CD-ROM, and a magnetic recording medium such as a floppy (registered trademark) disk. It can be embodied on a carrier that is any entity or device capable of. The carrier is any transmissible carrier such as an electrical or optical signal transmitted by electrical or optical cable, or by radio or other means. The computer program can also be downloaded from the server via the Internet. The function of the computer program can also be incorporated in an integrated circuit. Any and all embodiments that contain code that causes a computer or processor to substantially execute the described principles of the invention are within the scope of the invention.

本発明の好ましい実施形態の以上の説明は、例示と説明のために行った。説明は網羅的ではなく、本発明を開示した形態に限定しようとするものでもない。以上の開示を鑑みて明らかな修正または変形が可能である。例えば、本明細書においては、バックライトされた主たる画像領域(specimen)のキャプチャ画像への適用について、主に説明した。しかし、本明細書で開示した技術的思想が、キャプチャ画像の2つ以上の主たる画像領域が別個の明度、輝度またはコントラスト特性を有するあらゆる画像修正に対しても適用可能である。実施形態は、本発明の原理とその実際的な応用例を最もよく示し、それにより当業者が、本発明を、意図された特定の使用に適した様々な実施形態において様々な修正で使用できるように選択され説明された。そのようなすべての修正と変形は、特許請求の範囲の記載に明示されるとおりの本発明の原理および範囲内において、当業者によって行われ得ることは明らかであり、特許請求の範囲の記載によって定められる発明の範囲内にある。   The foregoing description of the preferred embodiment of the present invention has been presented for purposes of illustration and description. The description is not exhaustive and is not intended to limit the invention to the form disclosed. Obvious modifications or variations are possible in light of the above disclosure. For example, in this specification, the application of the backlit main image region (specimen) to the captured image has been mainly described. However, the technical idea disclosed herein is applicable to any image modification in which two or more main image regions of a captured image have distinct brightness, brightness or contrast characteristics. The embodiments best illustrate the principles of the invention and its practical applications, so that those skilled in the art can use the invention in various modifications in various embodiments suitable for the particular intended use. Was selected and explained. It will be apparent that all such modifications and variations can be made by those skilled in the art within the principles and scope of the invention as set forth in the appended claims. It is within the scope of the defined invention.

本発明による実施形態において、システムの動作が実行されるワークステーションのハードウェア構成例を示すブロック図である。In an embodiment by the present invention, it is a block diagram showing an example of hardware constitutions of a workstation where operation of a system is performed. 本発明による実施形態において、画像修正の動作例を示すフローチャートである。5 is a flowchart illustrating an example of an image correction operation in the embodiment according to the present invention. バックライティングが存在する画像についての累積確率分布データの例である。It is an example of the cumulative probability distribution data about the image in which backlighting exists. フロントライティングされた画像についての累積確率分布データの例である。It is an example of the cumulative probability distribution data about the front-lit image. バックライティングが存在する画像の例である。It is an example of the image in which backlighting exists. 図5に示した原画像に対応し、本発明による実施形態において特定されたマスク領域の例である。It is an example of the mask area | region corresponding to the original image shown in FIG. 5, and identified in embodiment by this invention. 図5に示した原画像に、本発明による実施形態の画像修正処理がなされた画像の例である。FIG. 6 is an example of an image obtained by performing image correction processing according to the embodiment of the present invention on the original image shown in FIG. 5. 図5に示した原画像に、本発明による実施形態の画像修正処理がなされた画像についての累積確率分布データである。FIG. 6 is cumulative probability distribution data for an image obtained by performing the image correction processing according to the embodiment of the present invention on the original image shown in FIG.

符号の説明Explanation of symbols

102 プロセッサ
104 読み出し専用メモリ、ROM
106 RAM
108 表示インターフェイス
110 ストレージ・インターフェイス
112 ネットワーク・インターフェイス
114 バス
116 入出力インターフェイス
118 記憶装置、ディスク・ドライブ
120 ネットワーク・インターフェイス・カード
122 入力装置、キーボード
124 周辺インターフェイス
126 ポインティング・デバイス・インターフェイス
128 表示モニタ
130 無線インターフェイス
132 有線ネットワーク・システム
134 ディジタル画像処理装置
136 ドキュメント出力装置
138 コントローラ
102 processor 104 read only memory, ROM
106 RAM
108 Display Interface 110 Storage Interface 112 Network Interface 114 Bus 116 Input / Output Interface 118 Storage Device, Disk Drive 120 Network Interface Card 122 Input Device, Keyboard 124 Peripheral Interface 126 Pointing Device Interface 128 Display Monitor 130 Wireless Interface 132 Wired Network System 134 Digital Image Processing Device 136 Document Output Device 138 Controller

Claims (14)

画像データを受け取る手段と、
受け取った画像データから、少なくとも1つの主たる画像領域と、少なくとも1つの背景領域との間の遷移部を特定する遷移部検出手段と、
この遷移部検出手段によって特定された遷移部にしたがって、主たる画像領域および背景領域のうちの少なくともいずれか一方に関する画像データのパラメータを調整する調整手段と
を有することを特徴とする画像修正システム。
Means for receiving image data;
Transition part detection means for identifying a transition part between at least one main image area and at least one background area from the received image data;
An image correction system comprising: adjusting means for adjusting a parameter of image data relating to at least one of a main image area and a background area in accordance with the transition part specified by the transition part detection means.
前記調整手段は、前記主たる画像領域の画像データおよび前記背景領域の画像データのうちの少なくとも一方について明度を調整する手段を含むことを特徴とする請求項1に記載の画像修正システム。   2. The image correction system according to claim 1, wherein the adjustment unit includes a unit that adjusts brightness of at least one of the image data of the main image region and the image data of the background region. 前記調整手段は、前記主たる画像領域の画像データについて明度を増大させ、前記背景領域の画像データについて明度を減少させる手段を含むことを特徴とする請求項1に記載の画像修正システム。   2. The image correction system according to claim 1, wherein the adjustment unit includes a unit that increases the brightness of the image data of the main image region and decreases the brightness of the image data of the background region. 前記画像データに含まれる色データのスペクトル頻度分布を表すスペクトル頻度データを算出する算出手段を、さらに、有し、
前記調整手段は前記スペクトル頻度データにしたがって前記主たる画像領域の画像データおよび前記背景領域の画像データのうちの少なくともいずれか一方について明度を調整する手段を含むことを特徴とする請求項1に記載の画像修正システム。
A calculation means for calculating spectral frequency data representing a spectral frequency distribution of the color data included in the image data;
The said adjustment means includes a means to adjust the brightness about at least one of the image data of the said main image area | region and the image data of the said background area | region according to the said spectrum frequency data. Image correction system.
前記スペクトル頻度データは、前記画像データ中の符号化された値の累積確率分布を表す分布データを含むことを特徴とする請求項4に記載の画像修正システム。   The image correction system according to claim 4, wherein the spectral frequency data includes distribution data representing a cumulative probability distribution of encoded values in the image data. 特定された遷移部に対応するマスク・データを生成するマスク・データ生成手段を、さらに、有し、
前記調整手段は、前記マスク・データにしたがって特定された遷移部にしたがって、前記主たる画像領域および前記背景領域のうちの少なくともいずれか一方に関係する画像データのパラメータを、選択的に調整する手段を含むことを特徴とする請求項1に記載の画像修正システム。
A mask data generating means for generating mask data corresponding to the identified transition portion;
The adjusting means is a means for selectively adjusting a parameter of image data related to at least one of the main image area and the background area according to a transition part specified according to the mask data. The image correction system according to claim 1, further comprising:
前記マスク・データは前記画像データによって表わされる画像の少なくとも1つの部分に対応し、この少なくとも1つの部分は不連続を持たない形状を規定することを特徴とする請求項6に記載の画像修正システム。   7. The image correction system according to claim 6, wherein the mask data corresponds to at least one portion of an image represented by the image data, and the at least one portion defines a shape having no discontinuity. . 画像データを受け取るステップと、
受け取った画像データから、少なくとも1つの主たる画像領域と、少なくとも1つの背景領域との間の遷移部を特定するステップと、
このステップにおいて特定された遷移部にしたがって、主たる画像領域および背景領域のうちの少なくとも一方に関係する画像データのパラメータを調整するステップと
を含むことを特徴とする画像修正方法。
Receiving image data;
Identifying a transition between at least one main image area and at least one background area from the received image data;
Adjusting the parameter of the image data related to at least one of the main image area and the background area according to the transition part specified in this step.
前記調整するステップは、前記主たる画像領域の画像データおよび背景領域の画像データのうちの少なくとも一方について明度を調整することを含むことを特徴とする請求項8に記載の画像修正方法。   9. The image correction method according to claim 8, wherein the adjusting step includes adjusting the brightness of at least one of the image data of the main image area and the image data of the background area. 前記調整するステップは、前記主たる画像領域の画像データについて明度を増大させ、前記背景領域の画像データについて明度を減少させることを含むことを特徴とする請求項8に記載の画像修正方法。   9. The image correction method according to claim 8, wherein the adjusting includes increasing the brightness of the image data of the main image area and decreasing the brightness of the image data of the background area. 前記画像データに含まれる色データのスペクトル頻度分布を表すスペクトル頻度データを算出するステップと、
前記スペクトル頻度データにしたがって前記主たる画像領域の画像データおよび前記背景領域の画像データのうちの少なくともいずれか一方について明度を調整するステップを、さらに、含むことを特徴とする請求項8に記載の画像修正方法。
Calculating spectral frequency data representing a spectral frequency distribution of color data included in the image data;
9. The image according to claim 8, further comprising a step of adjusting brightness of at least one of the image data of the main image region and the image data of the background region according to the spectral frequency data. How to fix.
前記スペクトル頻度データは、前記画像データ中の符号化された値の累積確率分布を表す分布データを含むことを特徴とする請求項11に記載の画像修正方法。   The image correction method according to claim 11, wherein the spectrum frequency data includes distribution data representing a cumulative probability distribution of encoded values in the image data. 特定された遷移部に対応するマスク・データを生成するステップと、
前記マスク・データにしたがって特定された遷移部にしたがって、前記主たる画像領域および前記背景領域のうちの少なくともいずれか一方に関係する画像データのパラメータを、選択的に調整するステップと
を、さらに、含むことを特徴とする請求項8に記載の画像修正方法。
Generating mask data corresponding to the identified transition portion;
Selectively adjusting a parameter of image data related to at least one of the main image area and the background area according to the transition part specified according to the mask data. The image correction method according to claim 8.
前記マスク・データは前記画像データによって表わされる画像の少なくとも1つの部分に対応し、この少なくとも1つの部分は不連続を持たない形状を規定することを特徴とする請求項13に記載の画像修正方法。   14. The image correction method according to claim 13, wherein the mask data corresponds to at least one part of an image represented by the image data, and the at least one part defines a shape having no discontinuity. .
JP2007213403A 2006-08-18 2007-08-20 Image correction system and method Pending JP2008048419A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/465,588 US7701618B2 (en) 2006-06-14 2006-08-18 Automatic image enhancement using computed predictors

Publications (1)

Publication Number Publication Date
JP2008048419A true JP2008048419A (en) 2008-02-28

Family

ID=39181643

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007213403A Pending JP2008048419A (en) 2006-08-18 2007-08-20 Image correction system and method

Country Status (1)

Country Link
JP (1) JP2008048419A (en)

Similar Documents

Publication Publication Date Title
KR20120118383A (en) Image compensation device, image processing apparatus and methods thereof
JP7117915B2 (en) Image processing device, control method, and program
US8665348B2 (en) Image processing apparatus and method using forward and inverse local adaptation processing and dynamic range processing
JP2000069310A (en) Method for processing images
JP2008527852A (en) White balance correction of digital camera images
WO2018092711A1 (en) Image processing device, image processing method, and program
JPWO2005079056A1 (en) Image processing apparatus, photographing apparatus, image processing system, image processing method and program
JP7316768B2 (en) Image processing device, image processing method, and program
US20170154454A1 (en) Image processing apparatus and image processing method
JP2008507864A (en) Wide gamut system for video
EP3544280B1 (en) Image processing device, image processing method, and program
US20100238317A1 (en) White balance processing apparatus, method for processing white balance, and white balance processing program
US7324702B2 (en) Image processing method, image processing apparatus, image recording apparatus, program, and recording medium
JP2005192162A (en) Image processing method, image processing apparatus, and image recording apparatus
JP4752421B2 (en) Image retouching method, image retouching device, and image retouching program
US7701618B2 (en) Automatic image enhancement using computed predictors
JP2004336521A (en) Image processing method, image processor, and image recording apparatus
JP4219577B2 (en) Image processing apparatus, image output apparatus, image processing method, and storage medium
JP2009070099A (en) Image-processing device, image-processing method, program and recording medium
JP2006262404A (en) Device and method for estimating light source, image processor, and method for image processing
JP2007221678A (en) Imaging apparatus, image processor, image processing method and image processing program
JP2009239911A (en) System and method for brightness adjustment for electronic images
JP2000333003A (en) Image forming device, method for controlling image forming device and computer-readable storage medium storing program
JP2008048419A (en) Image correction system and method
JP2006203571A (en) Imaging apparatus, image processing apparatus, and image recording apparatus